JP2021178228A - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP2021178228A
JP2021178228A JP2021132108A JP2021132108A JP2021178228A JP 2021178228 A JP2021178228 A JP 2021178228A JP 2021132108 A JP2021132108 A JP 2021132108A JP 2021132108 A JP2021132108 A JP 2021132108A JP 2021178228 A JP2021178228 A JP 2021178228A
Authority
JP
Japan
Prior art keywords
display
data
executed
image
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021132108A
Other languages
Japanese (ja)
Other versions
JP7120408B2 (en
JP2021178228A5 (en
Inventor
啓介 伊藤
Keisuke Ito
鉉 岡村
Gen Okamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2021132108A priority Critical patent/JP7120408B2/en
Publication of JP2021178228A publication Critical patent/JP2021178228A/en
Publication of JP2021178228A5 publication Critical patent/JP2021178228A5/ja
Application granted granted Critical
Publication of JP7120408B2 publication Critical patent/JP7120408B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a game machine capable of diversifying a display performance while suppressing an increase in a data amount.SOLUTION: A VDP 135 executes a geometry calculation including arrangement processing of image data onto a world coordinate system and executes rendering including projection processing onto a projection plane so as to create drawing data as two-dimensional data. When executing a distortion performance, the VDP arranges a refraction object to superpose on a distortion area which is a part of a background image, displaces respective vertex coordinates constituting the refraction object in a Z direction so as to deform the refraction object. The distorted image is thus displayed on the distortion area.SELECTED DRAWING: Figure 4

Description

本発明は遊技機に関するものである。 The present invention relates to a gaming machine.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where the image is displayed using the two-dimensional image data, the image data for displaying the background and the image data for displaying the character etc. are stored in the memory for the image data. Has been done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated for a storage means such as VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる(例えば特許文献1参照)。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set on the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the polygon. Generated data is generated by projecting a polygon with a texture attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a three-dimensional image is displayed (see, for example, Patent Document 1).

特開2004−208830号公報Japanese Unexamined Patent Publication No. 2004-208830

ここで、表示部に表示されている画像の一部を変化させる表示演出を行うことで、表示演出の多様化を図ることが可能となると考えられる。しかしながら、当該表示演出を行うために例えば表示部全体の画像データを設ける構成とすると、データ量の増大化が懸念される。 Here, it is considered that it is possible to diversify the display effect by performing a display effect that changes a part of the image displayed on the display unit. However, if, for example, the image data of the entire display unit is provided in order to perform the display effect, there is a concern that the amount of data will increase.

本発明は、上記例示した事情等に鑑みてなされたものであり、データ量の増大化を抑制しつつ、表示演出の多様化を図ることが可能な遊技機を提供することを目的とするものである。 The present invention has been made in view of the above-exemplified circumstances and the like, and an object of the present invention is to provide a gaming machine capable of diversifying display effects while suppressing an increase in the amount of data. Is.

本発明は、
表示部を有する表示手段と、
データ生成手段によって生成された生成データを用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段と、
を備えている遊技機において、
前記データ生成手段は、前記表示部に表示される特定個別画像の一部である変化対象部位を、特定画像データを用いて変化させることにより前記特定個別画像を変化させる変化手段を備えていることを特徴とする。
The present invention
A display means having a display unit and
A display control means for displaying an image on the display unit using the generated data generated by the data generation means and updating the contents of the image when a predetermined update timing is reached.
In a gaming machine equipped with
The data generation means includes a changing means for changing the specific individual image by changing the change target portion which is a part of the specific individual image displayed on the display unit by using the specific image data. It is characterized by.

本発明によれば、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 According to the present invention, it is possible to diversify the display effect while suppressing the increase in the amount of data.

パチンコ機を示す正面図である。It is a front view which shows the pachinko machine. (a)〜(j)図柄表示装置の表示面における表示内容を説明するための説明図である。(A)-(j) It is explanatory drawing for demonstrating the display content on the display surface of a symbol display device. (a),(b)図柄表示装置の表示面における表示内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the display content on the display surface of a symbol display apparatus. パチンコ機の電気的構成を示すブロック図である。It is a block diagram which shows the electric structure of a pachinko machine. 当否抽選などに用いられる各種カウンタの内容を説明するための説明図である。It is explanatory drawing for demonstrating the contents of various counters used for a winning or failing lottery. 主制御装置にて実行されるタイマ割込み処理を示すフローチャートである。It is a flowchart which shows the timer interrupt processing executed by the main control unit. 主制御装置にて実行される通常処理を示すフローチャートである。It is a flowchart which shows the normal process which is executed in the main control unit. 主制御装置にて実行される遊技回制御処理を示すフローチャートである。It is a flowchart which shows the game times control process executed by the main control device. 主制御装置にて実行される変動開始処理を示すフローチャートである。It is a flowchart which shows the fluctuation start processing executed in the main control unit. 主制御装置の処理構成の別形態であってメイン処理を示すフローチャートである。It is a flowchart which shows the main processing which is another form of the processing composition of a main control device. 主制御装置の処理構成の別形態であってタイマ割込み処理を示すフローチャートである。It is a flowchart which shows the timer interrupt processing which is another form of the processing composition of a main control unit. 表示CPUにて実行されるメイン処理を示すフローチャートである。It is a flowchart which shows the main process executed by a display CPU. 表示CPUにて実行されるV割込み処理を示すフローチャートである。It is a flowchart which shows the V interrupt processing executed by the display CPU. 表示CPUにて実行されるタスク処理を示すフローチャートである。It is a flowchart which shows the task processing which is executed by the display CPU. (a)〜(c)描画リストの内容を説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the contents of the drawing list. VDPにて実行される描画処理を示すフローチャートである。It is a flowchart which shows the drawing process which is executed by VDP. 描画処理の実行に伴い描画データが作成される様子を説明するための説明図である。It is explanatory drawing for demonstrating how drawing data is created with execution of drawing processing. VDPにて実行されるZバッファを用いた隠面処理を示すフローチャートである。It is a flowchart which shows the hidden surface processing using the Z buffer executed by VDP. 表示CPUにて実行されるマスク用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for a mask executed by a display CPU. (a),(b)第1のマスク表示の具体的な内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the concrete content of the 1st mask display. (a)〜(d)第2のマスク表示の具体的な内容を説明するための説明図である。(A)-(d) It is explanatory drawing for demonstrating the specific content of the 2nd mask display. 表示CPUにて実行されるマスク用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for a mask executed by a display CPU. 表示CPUにて実行される操作発生コマンド対応処理を示すフローチャートである。It is a flowchart which shows the operation occurrence command correspondence processing executed by the display CPU. 表示CPUにて実行される表示モード背景用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the display mode background executed by the display CPU. 表示CPUにて実行される図柄用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for a symbol executed by a display CPU. VDPにて実行される背景用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the background executed by VDP. VDPにて実行される背景用の描画データ作成処理を示すフローチャートである。It is a flowchart which shows the drawing data creation process for the background executed by VDP. 第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを示すタイミングチャートである。It is a timing chart which shows the timing when the separately stored data for the first display mode and the separately stored data for the second display mode are created. (a),(b)連結オブジェクトを説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating a concatenated object. 表示CPUにて実行される連結オブジェクト用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the concatenated object executed by the display CPU. VDPにて実行される連結オブジェクト演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the concatenated object effect executed by VDP. (a)〜(c)連結オブジェクト演出を説明するための説明図である。It is explanatory drawing for demonstrating (a)-(c) connected object effect. (a)は粒子分散用オブジェクトを説明するための説明図であり、(b)は粒子分散用テクスチャを説明するための説明図であり、(c)〜(e)はキーデータを説明するための説明図である。(A) is an explanatory diagram for explaining a particle dispersion object, (b) is an explanatory diagram for explaining a particle dispersion texture, and (c) to (e) are for explaining key data. It is explanatory drawing of. (a)は表示CPUにて実行される連結オブジェクト用の演算処理を示すフローチャートであり、(b)はブレンド用テーブルを説明するための説明図である。(A) is a flowchart showing an arithmetic process for a concatenated object executed by a display CPU, and (b) is an explanatory diagram for explaining a blending table. VDPにて実行される粒子分散演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the particle dispersion effect executed by VDP. (a)は粒子分散演出を説明するための説明図であり、(b−1)及び(b−2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。(A) is an explanatory diagram for explaining the particle dispersion effect, and (b-1) and (b-2) are for simply explaining what kind of trajectory each particle single image is displaced. It is explanatory drawing. VDPにて実行される粒子分散演出用の設定処理の別形態を示すフローチャートである。It is a flowchart which shows another form of the setting process for the particle dispersion effect executed by VDP. (a)は海面用オブジェクトを説明するための説明図であり、(b)は法線マップデータを説明するための説明図である。(A) is an explanatory diagram for explaining a sea surface object, and (b) is an explanatory diagram for explaining a normal map data. (a),(b)一対の法線マップデータを海面用オブジェクトに適用する手法を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the method of applying a pair of normal map data to the object for the sea surface. (a)〜(c)各面データに対する変更データの適用の仕方を説明するための説明図である。It is explanatory drawing for demonstrating how to apply the change data to each surface data (a) to (c). (a)は表示CPUにて実行される海面表示用の演算処理を示すフローチャートであり、(b)は海面用アニメーションデータを説明するための説明図である。(A) is a flowchart showing a calculation process for sea level display executed by the display CPU, and (b) is an explanatory diagram for explaining sea level animation data. VDPにて実行される海面表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for sea level display executed by VDP. VDPにて実行される法線パラメータの設定処理を示すフローチャートである。It is a flowchart which shows the setting process of a normal parameter executed by VDP. (a)〜(c)各面データに色情報を設定する手法を説明するための説明図である。It is explanatory drawing for demonstrating the method of setting the color information in each surface data (a)-(c). (a)はVDPにて実行される海面表示用の色情報設定処理を示すフローチャートであり、(b)はVDPにて実行される海面用の調整処理を示すフローチャートである。(A) is a flowchart showing the color information setting process for sea level display executed by VDP, and (b) is a flowchart showing the adjustment process for sea level executed by VDP. (a)は海面表示を説明するための説明図であり、(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。(A) is an explanatory diagram for explaining the sea level display, and (b) is an explanatory diagram for simply explaining the setting mode of the color information of the region where the sea level display is performed. VDPにて実行される海面表示用の色情報設定処理の別形態を示すフローチャートである。It is a flowchart which shows another form of the color information setting process for sea level display executed by VDP. 表示CPUにて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for effect in the opening / closing execution mode which is executed by the display CPU. (a)はVDPにおいてピントを調整する上で用いられるVRAMの各エリアを説明するための説明図であり、(b)はVDPにて実行される描画データ合成処理を示すフローチャートである。(A) is an explanatory diagram for explaining each area of VRAM used for adjusting the focus in VDP, and (b) is a flowchart showing a drawing data synthesis process executed in VDP. (a)はVDPにて実行されるピント演出用の調整処理を示すフローチャートであり、(b)はピント範囲及び各ぼかし範囲を説明するための説明図である。(A) is a flowchart showing an adjustment process for focusing effect executed by VDP, and (b) is an explanatory diagram for explaining a focus range and each blurring range. (a)はVDPにて実行されるぼかし発生処理を示すフローチャートであり、(b−1)及び(b−2)はぼかし発生処理に際しての単位エリアの抽出態様を説明するための説明図である。(A) is a flowchart showing a blur generation process executed by VDP, and (b-1) and (b-2) are explanatory views for explaining an extraction mode of a unit area in the blur generation process. .. (a)はピント表示が行われていない状態を説明するための説明図であり、(b)はピント表示が行われている状態を説明するための説明図である。(A) is an explanatory diagram for explaining a state in which focus display is not performed, and (b) is an explanatory diagram for explaining a state in which focus display is performed. (a)は特別オブジェクトを説明するための説明図であり、(b−1)〜(b−3)は第1部分テクスチャを説明するための説明図であり、(c−1)〜(c−4)は第2部分テクスチャを説明するための説明図である。(A) is an explanatory diagram for explaining a special object, (b-1) to (b-3) are explanatory diagrams for explaining a first partial texture, and (c-1) to (c). -4) is an explanatory diagram for explaining the second partial texture. 表示CPUにて実行される特別キャラクタ用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for a special character executed by a display CPU. VDPにて実行される特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。It is a flowchart which shows the texture mapping process for a special character executed by VDP. (a),(b)模様変更表示の内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the content of the pattern change display. ラウンド動画像データのデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure of a round moving image data. (a)ラウンド動画像データによる表示内容を説明するための説明図であり、(b)挿入画像データによる表示内容を説明するための説明図である。(A) It is explanatory drawing for demonstrating the display content by a round moving image data, and (b) is an explanatory diagram for demonstrating the display content by the inserted image data. 表示CPUにより実行されるラウンド演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the round effect executed by the display CPU. 動画デコーダによるデコード処理を示すフローチャートである。It is a flowchart which shows the decoding process by a moving image decoder. VDPにより実行されるラウンド演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the round effect executed by VDP. VDPにより実行されるラウンド演出用マッピング処理を示すフローチャートである。It is a flowchart which shows the mapping process for round effect executed by VDP. (a)〜(d)ラウンド演出の様子を説明するための説明図である。It is explanatory drawing for demonstrating the state of (a)-(d) round production. 別形態におけるラウンド動画像データのデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure of the round moving image data in another form. (a)第1ラウンド動画像データの圧縮態様を説明するための説明図であり、(b)第2ラウンド動画像データの圧縮態様を説明するための説明図であり、(c)各ラウンド動画像データのビットレートを説明するためのグラフである。(A) It is an explanatory diagram for explaining the compression mode of the 1st round moving image data, (b) it is an explanatory diagram for explaining the compression mode of the 2nd round moving image data, and (c) each round moving image. It is a graph for demonstrating the bit rate of image data. 別形態におけるラウンド演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the round effect in another form. (a)別形態におけるラウンド演出用の設定処理を示すフローチャートであり、(b)別形態におけるラウンド演出用マッピング処理を示すフローチャートである。(A) It is a flowchart which shows the setting process for a round effect in another form, and (b) is the flowchart which shows the mapping process for a round effect in another form. ラウンド演出の実行態様を説明するためのタイムチャートである。It is a time chart for explaining the execution mode of a round effect. (a),(b)砂浜背景画像を表示させるのに用いられる各オブジェクトを説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating each object used for displaying a sandy beach background image. 砂浜背景画像を表示させるのに用いられる各テクスチャを説明するための説明図である。It is explanatory drawing for demonstrating each texture used for displaying a sandy beach background image. 視点が変更されることによるパースペクティブの変化を説明するための説明図である。It is explanatory drawing for demonstrating the change of a perspective by changing a viewpoint. 演出用背景画像を作成する場合の各オブジェクトの設定態様を説明するための説明図である。It is explanatory drawing for demonstrating the setting mode of each object at the time of creating a background image for effect. 砂浜背景用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for a sandy beach background. (a)砂浜疾走演出の背景用演算処理を示すフローチャートであり、(b)各オブジェクトの視点からの距離と当該視点に対する相対速度との関係を説明するための説明図である。(A) It is a flowchart which shows the arithmetic processing for the background of the sandy beach sprinting effect, and (b) is explanatory drawing for explaining the relationship between the distance from the viewpoint of each object, and the relative speed with respect to the viewpoint. 砂浜疾走演出の演出用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the production of a sandy beach sprinting effect. (a)砂浜背景画像が表示された表示面を示す説明図であり、(b)砂浜疾走演出の様子を説明するための説明図である。(A) It is explanatory drawing which shows the display surface which displayed the sandy beach background image, and (b) is explanatory drawing for explaining the state of the sandy beach sprinting effect. (a)屈折用オブジェクトを説明するための説明図であり、(b)第1変形形態を説明するための説明図であり、(c)第2変形形態を説明するための説明図であり、(d)屈折用αデータを説明するための説明図である。(A) An explanatory diagram for explaining a refraction object, (b) an explanatory diagram for explaining a first modified form, and (c) an explanatory diagram for explaining a second modified form. (D) It is explanatory drawing for demonstrating α data for refraction. 歪み演出演算処理を示すフローチャートである。It is a flowchart which shows the distortion effect calculation processing. (a)第1座標マッピングデータを説明するための説明図であり、(b)第2座標マッピングデータを説明するための説明図である。(A) It is explanatory drawing for explaining the 1st coordinate mapping data, and (b) is explanatory drawing for explaining the 2nd coordinate mapping data. 第2の実施形態における描画処理を示すフローチャートである。It is a flowchart which shows the drawing process in 2nd Embodiment. 歪み演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for distortion effect. 歪み演出用テクスチャマッピング処理を示すフローチャートである。It is a flowchart which shows the texture mapping process for distortion effect. 歪み演出用融合処理を示すフローチャートである。It is a flowchart which shows the fusion process for distortion effect. 歪み演出の様子を説明するための説明図である。It is explanatory drawing for demonstrating the state of a distortion effect. (a)ベースオブジェクト及び部分オブジェクトを説明するための説明図であり、(b)ベーステクスチャを説明するための説明図であり、(c)各部分テクスチャを説明するための説明図である。It is explanatory drawing for demonstrating (a) base object and partial object, (b) explanatory diagram for demonstrating base texture, and (c) explanatory diagram for demonstrating each partial texture. 瞬き演出用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for blinking effect. 瞬き演出の様子を説明するための説明図である。It is explanatory drawing for demonstrating the state of blinking production.

<第1の実施形態>
以下、遊技機の一種であるパチンコ遊技機(以下、「パチンコ機」という)の一実施形態を、図面に基づいて説明する。図1はパチンコ機10の正面図である。
<First Embodiment>
Hereinafter, an embodiment of a pachinko gaming machine (hereinafter referred to as “pachinko machine”), which is a type of gaming machine, will be described with reference to the drawings. FIG. 1 is a front view of the pachinko machine 10.

パチンコ機10は、図1に示すように、当該パチンコ機10の外殻を形成する外枠11と、この外枠11に対して前方に回動可能に取り付けられた遊技機本体12とを有する。遊技機本体12は、内枠(図示略)と、その内枠の前方に配置される前扉枠14と、内枠の後方に配置される裏パックユニット(図示略)とを備えている。 As shown in FIG. 1, the pachinko machine 10 has an outer frame 11 forming an outer shell of the pachinko machine 10 and a gaming machine main body 12 rotatably attached to the outer frame 11 in the forward direction. .. The gaming machine main body 12 includes an inner frame (not shown), a front door frame 14 arranged in front of the inner frame, and a back pack unit (not shown) arranged behind the inner frame.

遊技機本体12のうち内枠が、左右両側部のうち一方を支持側として外枠11に回動可能に支持されている。また、内枠には、前扉枠14が回動可能に支持されており、左右両側部のうち一方を支持側として前方へ回動可能とされている。また、内枠には、裏パックユニットが回動可能に支持されており、左右両側部のうち一方を支持側として後方へ回動可能とされている。 The inner frame of the gaming machine main body 12 is rotatably supported by the outer frame 11 with one of the left and right sides as the support side. Further, the front door frame 14 is rotatably supported on the inner frame, and the front door frame 14 is rotatably supported with one of the left and right side portions as the support side. Further, the back pack unit is rotatably supported on the inner frame, and it is rotatable rearward with one of the left and right side portions as the support side.

なお、遊技機本体12には、その回動先端部に施錠装置(図示略)が設けられており、遊技機本体12を外枠11に対して開放不能に施錠状態とする機能を有しているとともに、前扉枠14を内枠に対して開放不能に施錠状態とする機能を有している。これらの各施錠状態は、パチンコ機10前面にて露出させて設けられたシリンダ錠17に対して解錠キーを用いて解錠操作を行うことにより、それぞれ解除される。 The gaming machine main body 12 is provided with a locking device (not shown) at its rotating tip, and has a function of locking the gaming machine main body 12 to the outer frame 11 so that it cannot be opened. At the same time, it has a function of locking the front door frame 14 so that it cannot be opened with respect to the inner frame. Each of these locked states is released by performing an unlocking operation using the unlocking key on the cylinder lock 17 exposed on the front surface of the pachinko machine 10.

内枠には遊技盤20が搭載されている。遊技盤20には前後方向に貫通する大小複数の開口部が形成されている。各開口部には一般入賞口21,可変入賞装置22,上作動口23,下作動口24,スルーゲート25、可変表示ユニット26、メイン表示部33及び役物用表示部34等がそれぞれ設けられている。 A game board 20 is mounted on the inner frame. The game board 20 is formed with a plurality of large and small openings penetrating in the front-rear direction. Each opening is provided with a general winning opening 21, a variable winning device 22, an upper operating opening 23, a lower operating port 24, a through gate 25, a variable display unit 26, a main display unit 33, a character display unit 34, and the like. ing.

一般入賞口21、可変入賞装置22、上作動口23及び下作動口24への入球が発生すると、それが遊技盤20の背面側に配設された検知センサ(図示略)により検知され、その検知結果に基づいて所定数の賞球の払い出しが実行される。その他に、遊技盤20の最下部にはアウト口27が設けられており、各種入賞口等に入らなかった遊技球はアウト口27を通って遊技領域から排出される。また、遊技盤20には、遊技球の落下方向を適宜分散、調整等するために多数の釘28が植設されていると共に、風車等の各種部材が配設されている。 When a ball enters the general winning opening 21, the variable winning device 22, the upper operating opening 23, and the lower operating opening 24, it is detected by a detection sensor (not shown) arranged on the back side of the game board 20. A predetermined number of prize balls are paid out based on the detection result. In addition, an out opening 27 is provided at the bottom of the game board 20, and a game ball that has not entered various winning openings or the like is discharged from the game area through the out opening 27. Further, in the game board 20, a large number of nails 28 are planted in order to appropriately disperse and adjust the falling direction of the game ball, and various members such as a windmill are arranged.

ここで、入球とは、所定の開口部を遊技球が通過することを意味し、開口部を通過した後に遊技領域から排出される態様だけでなく、開口部を通過した後に遊技領域から排出されない態様も含まれる。但し、以下の説明では、アウト口27への遊技球の入球と明確に区別するために、可変入賞装置22、上作動口23、下作動口24又はスルーゲート25への遊技球の入球を、入賞とも表現する。 Here, the entry ball means that the game ball passes through a predetermined opening, and is not only discharged from the game area after passing through the opening, but also discharged from the game area after passing through the opening. Aspects that are not included are also included. However, in the following description, in order to clearly distinguish from the entry of the game ball into the out port 27, the entry of the game ball into the variable winning device 22, the upper operation port 23, the lower operation port 24 or the through gate 25. Is also expressed as a prize.

上作動口23及び下作動口24は、作動口装置としてユニット化されて遊技盤20に設置されている。上作動口23及び下作動口24は共に上向きに開放されている。また、上作動口23が上方となるようにして両作動口23,24は鉛直方向に並んでいる。下作動口24には、左右一対の可動片よりなるガイド片(サポート片)としての電動役物24aが設けられている。電動役物24aの閉鎖状態(非サポート状態又は非ガイド状態)では遊技球が下作動口24に入賞できず、電動役物24aが開放状態(サポート状態又はガイド状態)となることで下作動口24への入賞が可能となる。 The upper operating port 23 and the lower operating port 24 are unitized as an operating port device and installed on the game board 20. Both the upper working port 23 and the lower working port 24 are opened upward. Further, both the operating ports 23 and 24 are arranged in the vertical direction so that the upper operating port 23 faces upward. The lower operating port 24 is provided with an electric accessory 24a as a guide piece (support piece) composed of a pair of left and right movable pieces. In the closed state (non-supported state or non-guided state) of the electric accessory 24a, the game ball cannot win the lower operating port 24, and the electric accessory 24a is opened (supported state or guided state), so that the lower operating port 24 It is possible to win a prize in 24.

可変入賞装置22は、遊技盤20の背面側へと通じる大入賞口22aを備えているとともに、当該大入賞口22aを開閉する開閉扉22bを備えている。開閉扉22bは、通常は遊技球が入賞できない又は入賞し難い閉鎖状態になっており、内部抽選において開閉実行モードへの移行に当選した場合に遊技球が入賞しやすい所定の開放状態に切り換えられるようになっている。ここで、開閉実行モードとは、大当たり当選となった場合に移行することとなるモードである。当該開閉実行モードについては、後に詳細に説明する。可変入賞装置22の開放態様としては、所定時間(例えば30sec)の経過又は所定個数(例えば10個)の入賞を1ラウンドとして、複数ラウンド(例えば15ラウンド)を上限として可変入賞装置22が繰り返し開放される態様がある。 The variable winning device 22 is provided with a large winning opening 22a leading to the back side of the game board 20, and is also provided with an opening / closing door 22b for opening and closing the large winning opening 22a. The opening / closing door 22b is normally in a closed state in which the game ball cannot win or is difficult to win, and is switched to a predetermined open state in which the game ball is easy to win when the transition to the opening / closing execution mode is won in the internal lottery. It has become like. Here, the open / close execution mode is a mode that shifts when a big hit is won. The open / close execution mode will be described in detail later. As an opening mode of the variable winning device 22, the variable winning device 22 is repeatedly opened with a predetermined time (for example, 30 sec) elapsed or a predetermined number (for example, 10) of winnings as one round and a plurality of rounds (for example, 15 rounds) as an upper limit. There is an aspect to be done.

メイン表示部33及び役物用表示部34は、遊技領域の下部側に設けられている。メイン表示部33では、上作動口23又は下作動口24への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が表示によって明示される。つまり、本パチンコ機10では、上作動口23への入賞と下作動口24への入賞とが内部抽選において区別されておらず、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が共通の表示領域であるメイン表示部33にて明示される。そして、上作動口23又は下作動口24への入賞に基づく内部抽選の結果が開閉実行モードへの移行に対応した当選結果であった場合には、メイン表示部33にて所定の停止結果が表示されて変動表示が停止された後に、開閉実行モードへ移行する。 The main display unit 33 and the accessory display unit 34 are provided on the lower side of the game area. In the main display unit 33, the variation display of the pattern is performed triggered by the winning of the upper operating port 23 or the lower operating port 24, and as a result of the stop of the variation display, the winning of the upper operating port 23 or the lower operating port 24 is performed. The result of the internal lottery based on this is clearly indicated by the display. That is, in the pachinko machine 10, the winning of the upper operating port 23 and the winning of the lower operating port 24 are not distinguished in the internal lottery, and the winning is based on the winning of the upper operating port 23 or the lower operating port 24. The result of the internal lottery is clearly shown on the main display unit 33, which is a common display area. Then, when the result of the internal lottery based on the winning of the upper operating port 23 or the lower operating port 24 is the winning result corresponding to the transition to the open / close execution mode, the predetermined stop result is obtained on the main display unit 33. After being displayed and the variable display is stopped, the mode shifts to the open / close execution mode.

なお、メイン表示部33は、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT、ドットマトリックス等その他のタイプの表示装置によって構成されていてもよい。また、メイン表示部33にて変動表示される絵柄としては、複数種の文字が変動表示される構成、複数種の記号が変動表示される構成、複数種のキャラクタが変動表示される構成又は複数種の色が切り換え表示される構成などが考えられる。 The main display unit 33 is composed of a segment display device in which a plurality of segment light emitting units are arranged in a predetermined manner, but the present invention is not limited to this, and a liquid crystal display device, an organic EL display device, and the like. It may be composed of other types of display devices such as CRT and dot matrix. Further, as the pattern to be variablely displayed on the main display unit 33, a configuration in which a plurality of types of characters are variablely displayed, a configuration in which a plurality of types of symbols are variablely displayed, a configuration in which a plurality of types of characters are variablely displayed, or a plurality of patterns are displayed. It is conceivable that the seed colors are switched and displayed.

役物用表示部34では、スルーゲート25への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、スルーゲート25への入賞に基づいて行われた内部抽選の結果が表示によって明示される。スルーゲート25への入賞に基づく内部抽選の結果が電役開放状態への移行に対応した当選結果であった場合には、役物用表示部34にて所定の停止結果が表示されて変動表示が停止された後に、電役開放状態へ移行する。電役開放状態では、下作動口24に設けられた電動役物24aが所定の態様で開放状態となる。 In the accessory display unit 34, the variation display of the pattern is performed triggered by the winning of the through gate 25, and as a result of stopping the variation display, the result of the internal lottery performed based on the winning of the through gate 25 is obtained. Explicitly indicated by the display. If the result of the internal lottery based on the winning of the through gate 25 is the winning result corresponding to the transition to the electric service open state, the predetermined stop result is displayed on the accessory display unit 34 and displayed in a variable manner. After the is stopped, it shifts to the electric service open state. In the electric service open state, the electric accessory 24a provided in the lower operating port 24 is in the open state in a predetermined manner.

可変表示ユニット26には、絵柄の一種である図柄を変動表示する図柄表示装置31が設けられている。また、可変表示ユニット26には、図柄表示装置31を囲むようにしてセンターフレーム32が配設されている。このセンターフレーム32は、その上部がパチンコ機10前方に延出している。これにより、図柄表示装置31の表示面の前方を遊技球が落下していくのが防止されており、遊技球の落下により表示面の視認性が低下するといった不都合が生じない構成となっている。 The variable display unit 26 is provided with a symbol display device 31 that variablely displays a symbol, which is a type of symbol. Further, in the variable display unit 26, a center frame 32 is arranged so as to surround the symbol display device 31. The upper portion of the center frame 32 extends forward of the pachinko machine 10. As a result, the game ball is prevented from falling in front of the display surface of the symbol display device 31, and the inconvenience that the visibility of the display surface is not deteriorated due to the fall of the game ball does not occur. ..

図柄表示装置31は、液晶ディスプレイを備えた液晶表示装置として構成されており、後述する表示制御装置により表示内容が制御される。なお、図柄表示装置31は、液晶表示装置であることに限定されることはなく、プラズマディスプレイ装置、有機EL表示装置又はCRTといった他の表示装置であってもよい。 The symbol display device 31 is configured as a liquid crystal display device provided with a liquid crystal display, and the display content is controlled by a display control device described later. The symbol display device 31 is not limited to the liquid crystal display device, and may be another display device such as a plasma display device, an organic EL display device, or a CRT.

図柄表示装置31では、上作動口23又は下作動口24への入賞に基づいて図柄の変動表示が開始される。すなわち、メイン表示部33において変動表示が行われる場合には、それに合わせて図柄表示装置31において変動表示が行われる。そして、例えば、遊技結果が大当たり結果となる遊技回では、図柄表示装置31では予め設定されている有効ライン上に所定の組み合わせの図柄が停止表示される。 In the symbol display device 31, the variable display of the symbol is started based on the winning of the upper actuating port 23 or the lower actuating port 24. That is, when the variable display is performed on the main display unit 33, the variable display is performed on the symbol display device 31 accordingly. Then, for example, in the game times in which the game result is a big hit result, the symbol display device 31 stops and displays a predetermined combination of symbols on the preset effective line.

図柄表示装置31の表示内容について、図2及び図3を参照して詳細に説明する。図2は図柄表示装置31にて変動表示される図柄を個々に示す図であり、図3は図柄表示装置31の表示面Gを示す図である。 The display contents of the symbol display device 31 will be described in detail with reference to FIGS. 2 and 3. FIG. 2 is a diagram showing individual symbols displayed in a variable manner on the symbol display device 31, and FIG. 3 is a diagram showing a display surface G of the symbol display device 31.

図2(a)〜(j)に示すように、絵柄の一種である図柄は、「1」〜「9」の数字が各々付された9種類の主図柄と、貝形状の絵図柄からなる副図柄とにより構成されている。より詳しくは、タコ等の9種類のキャラクタ図柄に「1」〜「9」の数字がそれぞれ付されて主図柄が構成されている。 As shown in FIGS. 2 (a) to 2 (j), a pattern that is a kind of pattern consists of nine main patterns with numbers "1" to "9" and a shell-shaped pattern. It is composed of sub-designs. More specifically, nine types of character symbols such as an octopus are assigned numbers "1" to "9" to form a main symbol.

図3(a)に示すように、図柄表示装置31の表示面Gには、複数の表示領域として、上段・中段・下段の3つの図柄列SA1,SA2,SA3が設定されている。各図柄列SA1〜SA3は、主図柄と副図柄が所定の順序で配列されて構成されている。詳細には、上図柄列SA1には、「1」〜「9」の9種類の主図柄が数字の降順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。下図柄列SA3には、「1」〜「9」の9種類の主図柄が数字の昇順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。 As shown in FIG. 3A, the display surface G of the symbol display device 31 is set with three symbol rows SA1, SA2, and SA3 as a plurality of display areas. Each symbol sequence SA1 to SA3 is configured by arranging a main symbol and a sub symbol in a predetermined order. Specifically, in the upper symbol sequence SA1, nine types of main symbols "1" to "9" are arranged in descending order of numbers, and one sub symbol is arranged between each main symbol. .. In the lower symbol row SA3, nine types of main symbols "1" to "9" are arranged in ascending order of numbers, and one sub symbol is arranged between each main symbol.

つまり、上図柄列SA1と下図柄列SA3は18個の図柄により構成されている。これに対し、中図柄列SA2には、数字の昇順に「1」〜「9」の9種類の主図柄が配列された上で「9」の主図柄と「1」の主図柄との間に「4」の主図柄が付加的に配列され、これら各主図柄の間に副図柄が1つずつ配されている。つまり、中図柄列SA2に限っては、10個の主図柄が配されて20個の図柄により構成されている。そして、表示面Gでは、これら各図柄列SA1〜SA3の図柄が周期性をもって所定の向きにスクロールするように変動表示される。 That is, the upper symbol row SA1 and the lower symbol row SA3 are composed of 18 symbols. On the other hand, in the middle symbol string SA2, nine types of main symbols "1" to "9" are arranged in ascending order of numbers, and then between the main symbol of "9" and the main symbol of "1". The main symbol of "4" is additionally arranged in the above, and one sub symbol is arranged between each of these main symbols. That is, only in the middle symbol row SA2, 10 main symbols are arranged and composed of 20 symbols. Then, on the display surface G, the symbols of each of the symbol rows SA1 to SA3 are variably displayed so as to scroll in a predetermined direction with periodicity.

図3(b)に示すように、表示面Gは、図柄列毎に3個の図柄が停止表示されるようになっており、結果として3×3の計9個の図柄が停止表示されるようになっている。また、表示面Gには、5つの有効ライン、すなわち左ラインL1、中ラインL2、右ラインL3、右下がりラインL4、右上がりラインL5が設定されている。そして、上図柄列SA1→下図柄列SA3→中図柄列SA2の順に変動表示が停止し、いずれかの有効ラインに同一の数字が付された図柄の組み合わせが形成された状態で全図柄列SA1〜SA3の変動表示が終了すれば、後述する通常大当たり結果又は15R確変大当たり結果の発生として大当たり動画が表示されるようになっている。 As shown in FIG. 3B, on the display surface G, three symbols are stopped and displayed for each symbol row, and as a result, a total of nine symbols of 3 × 3 are stopped and displayed. It has become like. Further, five effective lines, that is, a left line L1, a middle line L2, a right line L3, a right-down line L4, and a right-up line L5 are set on the display surface G. Then, the variable display is stopped in the order of the upper symbol row SA1 → the lower symbol row SA3 → the middle symbol row SA2, and all the symbol rows SA1 are formed in a state where a combination of symbols with the same number is formed on any of the effective lines. When the variable display of ~ SA3 is completed, the jackpot moving image is displayed as the occurrence of the normal jackpot result or the 15R probability variation jackpot result described later.

本パチンコ機10では、奇数番号(1,3,5,7,9)が付された主図柄は「特定図柄」に相当し、15R確変大当たり結果が発生する場合には、同一の特定図柄の組み合わせが停止表示される。また、偶数番号(2,4,6,8)が付された主図柄は「非特定図柄」に相当し、通常大当たり結果が発生する場合には、同一の非特定図柄の組み合わせが停止表示される。 In this pachinko machine 10, the main symbols with odd numbers (1, 3, 5, 7, 9) correspond to "specific symbols", and when a 15R probability variation jackpot result occurs, the same specific symbol The combination is stopped and displayed. In addition, the main symbols with even numbers (2, 4, 6, 8) correspond to "non-specific symbols", and when a normal jackpot result occurs, the combination of the same non-specific symbols is stopped and displayed. NS.

また、後述する明示2R確変大当たり結果となる場合には、同一の図柄の組み合わせとは異なる所定の図柄の組み合わせが形成された状態で全図柄列SA1〜SA3の変動表示が終了し、その後に、明示用動画が表示されるようになっている。 Further, in the case of the explicit 2R probability variation jackpot result described later, the variation display of all the symbol rows SA1 to SA3 is completed in a state where a predetermined symbol combination different from the same symbol combination is formed, and then the variation display is completed. An explicit video is displayed.

なお、図柄表示装置31における図柄の変動表示の態様は上記のものに限定されることはなく任意であり、図柄列の数、図柄列における図柄の変動表示の方向、各図柄列の図柄数などは適宜変更可能である。また、図柄表示装置31にて変動表示される絵柄は上記のような図柄に限定されることはなく、例えば絵柄として数字のみが変動表示される構成としてもよい。 The mode of variable display of symbols in the symbol display device 31 is not limited to the above, and is arbitrary, such as the number of symbol rows, the direction of variable display of symbols in the symbol row, the number of symbols in each symbol row, and the like. Can be changed as appropriate. Further, the pattern to be variablely displayed by the symbol display device 31 is not limited to the above-mentioned symbol, and may be configured such that only numbers are variablely displayed as the symbol, for example.

また、いずれかの作動口23,24への入賞に基づいて、メイン表示部33及び図柄表示装置31にて変動表示が開始され、所定の停止結果を表示し上記変動表示が停止されるまでが遊技回の1回に相当する。 Further, based on the winning of any of the operating ports 23 and 24, the variation display is started on the main display unit 33 and the symbol display device 31, the predetermined stop result is displayed, and the variation display is stopped. It corresponds to one game.

センターフレーム32の前面側における左上部分には、メイン表示部33及び図柄表示装置31に対応した第1保留発光部35が設けられている。遊技球が上作動口23又は下作動口24に入賞した個数は最大4個まで保留され、第1保留発光部35の点灯によってその保留個数が表示されるようになっている。 A first reserved light emitting unit 35 corresponding to the main display unit 33 and the symbol display device 31 is provided on the upper left portion on the front surface side of the center frame 32. The number of winning balls in the upper operating port 23 or the lower operating port 24 is reserved up to four, and the reserved number is displayed by lighting the first reserved light emitting unit 35.

センターフレーム32の右上部分には、役物用表示部34に対応した第2保留発光部36が設けられている。遊技球がスルーゲート25を通過した回数は最大4回まで保留され、第2保留発光部36の点灯によってその保留個数が表示されるようになっている。なお、各保留発光部35,36の機能が図柄表示装置31の一部の領域における表示により果たされる構成としてもよい。 A second reserved light emitting unit 36 corresponding to the accessory display unit 34 is provided in the upper right portion of the center frame 32. The number of times the game ball has passed through the through gate 25 is reserved up to four times, and the number of reserved balls is displayed by lighting the second reserved light emitting unit 36. It should be noted that the functions of the reserved light emitting units 35 and 36 may be fulfilled by the display in a part of the area of the symbol display device 31.

遊技盤20には、レール部37が取り付けられており、当該レール部37により誘導レールが構成され、内枠において遊技盤20の下方に搭載された遊技球発射機構(図示略)から発射された遊技球が遊技領域の上部に案内されるようになっている。遊技球発射機構は、前扉枠14に設けられた発射ハンドル41が操作されることにより遊技球の発射動作が行われる。 A rail portion 37 is attached to the game board 20, and the guide rail is configured by the rail portion 37, and is fired from a game ball launching mechanism (not shown) mounted below the game board 20 in the inner frame. The game ball is guided to the upper part of the game area. In the game ball launch mechanism, the game ball is launched by operating the launch handle 41 provided on the front door frame 14.

内枠の前面側全体を覆うようにして前扉枠14が設けられている。前扉枠14には、図1に示すように、遊技領域のほぼ全域を前方から視認することができるようにした窓部42が形成されている。窓部42は、略楕円形状をなし、図示しない窓パネルが嵌め込まれている。窓パネルは、ガラスによって無色透明に形成されているが、これに限定されることはなく合成樹脂によって無色透明に形成してもよい。 The front door frame 14 is provided so as to cover the entire front surface side of the inner frame. As shown in FIG. 1, the front door frame 14 is formed with a window portion 42 so that almost the entire area of the game area can be visually recognized from the front. The window portion 42 has a substantially elliptical shape, and a window panel (not shown) is fitted therein. The window panel is formed colorless and transparent by glass, but is not limited to this, and may be formed colorless and transparent by synthetic resin.

窓部42の周囲には、発光手段が設けられている。当該発光手段の一部として表示発光部44が窓部42の上方に設けられている。また、表示発光部44の左右両側には、遊技状態に応じた効果音などが出力されるスピーカ部45が設けられている。 Light emitting means is provided around the window portion 42. A display light emitting unit 44 is provided above the window unit 42 as a part of the light emitting means. Further, on both the left and right sides of the display light emitting unit 44, speaker units 45 for outputting sound effects and the like according to the game state are provided.

前扉枠14における窓部42の下方には、手前側へ膨出した上側膨出部46と下側膨出部47とが上下に並設されている。上側膨出部46内側には上方に開口した上皿46aが設けられており、下側膨出部47内側には同じく上方に開口した下皿47aが設けられている。上皿46aは、後述する払出装置より払い出された遊技球を一旦貯留し、一列に整列させながら遊技球発射機構側へ導くための機能を有する。また、下皿47aは、上皿46a内にて余剰となった遊技球を貯留する機能を有する。上皿46a及び下皿47aには、裏パックユニットに搭載された払出装置から払い出された遊技球が排出される。 Below the window portion 42 in the front door frame 14, an upper bulging portion 46 bulging toward the front side and a lower bulging portion 47 are vertically arranged side by side. An upper plate 46a opened upward is provided inside the upper bulging portion 46, and a lower plate 47a also opened upward is provided inside the lower bulging portion 47. The upper plate 46a has a function of temporarily storing the game balls paid out from the payout device described later and guiding them to the game ball launching mechanism side while arranging them in a row. Further, the lower plate 47a has a function of storing the surplus game balls in the upper plate 46a. The game balls paid out from the payout device mounted on the back pack unit are discharged to the upper plate 46a and the lower plate 47a.

上側膨出部46においてパチンコ機10前方を向く領域には、遊技者により手動操作される操作部を具備する演出用操作装置48が設けられている。演出用操作装置48の操作部は、図柄表示装置31の表示面Gなどにおける演出内容を所定の演出内容とするために遊技者により手動操作される。 In the region of the upper bulging portion 46 facing the front of the pachinko machine 10, an effect operating device 48 including an operating portion manually operated by the player is provided. The operation unit of the effect operation device 48 is manually operated by the player in order to make the effect content on the display surface G or the like of the symbol display device 31 a predetermined effect content.

内枠の背面側には、主制御装置と、音声発光制御装置と、表示制御装置とが搭載されている。また、内枠の背面に対しては既に説明したとおり裏パックユニットが設けられており、当該裏パックユニットには、払出装置を含む払出機構部と、払出制御装置と、電源及び発射制御装置とが搭載されている。以下、パチンコ機10の電気的な構成について説明する。 On the back side of the inner frame, a main control device, a voice emission control device, and a display control device are mounted. Further, a back pack unit is provided on the back surface of the inner frame as described above, and the back pack unit includes a payout mechanism unit including a payout device, a payout control device, a power supply, and a launch control device. Is installed. Hereinafter, the electrical configuration of the pachinko machine 10 will be described.

<パチンコ機10の電気的構成>
図4は、パチンコ機10の基本的な電気的構成を示すブロック図である。
<Electrical configuration of pachinko machine 10>
FIG. 4 is a block diagram showing a basic electrical configuration of the pachinko machine 10.

<主制御装置50>
主制御装置50は、遊技の主たる制御を司る主制御基板51を具備している。なお、主制御装置50において主制御基板51などを収容する基板ボックスに対して、その開放の痕跡を残すための痕跡手段を付与する又はその開放の痕跡を残すための痕跡構造を設けておくようにしてもよい。当該痕跡手段としては、基板ボックスを構成する複数のケース体を分離不能に結合するとともにその分離に際して所定部位の破壊を要する結合部(カシメ部)の構成や、引き剥がしにして粘着層が接着対象に残ることで剥がされたことの痕跡を残す封印シールを複数のケース体間の境界を跨ぐようにして貼り付ける構成が考えられる。また、痕跡構造としては、基板ボックスを構成する複数のケース体間の境界に対して接着剤を塗布する構成が考えられる。
<Main controller 50>
The main control device 50 includes a main control board 51 that controls the main control of the game. In the main control device 50, the board box accommodating the main control board 51 and the like is provided with a trace means for leaving a trace of its opening, or a trace structure for leaving a trace of its opening is provided. You may do it. As the trace means, a plurality of case bodies constituting the substrate box are inseparably bonded, and a bonding portion (caulking portion) that requires destruction of a predetermined portion at the time of separation is configured, or the adhesive layer is peeled off and adhered to the adhesive layer. It is conceivable that a sealing sticker that leaves a trace of being peeled off by remaining on the case is attached so as to straddle the boundary between a plurality of case bodies. Further, as the trace structure, a configuration in which an adhesive is applied to the boundary between a plurality of case bodies constituting the substrate box can be considered.

主制御基板51には、MPU52が搭載されている。MPU52には、当該MPU52により実行される各種の制御プログラムや固定値データを記憶したROM53と、そのROM53内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM54と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。 The MPU 52 is mounted on the main control board 51. The MPU 52 is a ROM 53 that stores various control programs and fixed value data executed by the MPU 52, and a memory for temporarily storing various data and the like when the control program stored in the ROM 53 is executed. A RAM 54, an interrupt circuit, a timer circuit, a data input / output circuit, various counter circuits as a random number generator, and the like are built-in.

なお、ROM53として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM53と、RAM54とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。 As the ROM 53, a storage means (that is, a non-volatile storage means) that allows random access when reading a control program or fixed value data and does not require an external power supply for storage retention is used. Further, the configuration in which the control and calculation portion, the ROM 53, and the RAM 54 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions may be mounted as separate chips. It may be installed.

MPU52には、入力ポート及び出力ポートがそれぞれ設けられている。MPU52の入力側には、電源及び発射制御装置57が接続されている。電源及び発射制御装置57は、例えば、遊技場等における商用電源(外部電源)に接続されている。そして、その商用電源から供給される外部電力に基づいて主制御基板51に対して各々に必要な動作電力を生成するとともに、その生成した動作電力を供給する。ちなみに、当該動作電力は主制御基板51だけでなく、払出制御装置55や後述する表示制御装置130といった他の機器にも供給される。 The MPU 52 is provided with an input port and an output port, respectively. A power supply and a launch control device 57 are connected to the input side of the MPU 52. The power supply and the launch control device 57 are connected to, for example, a commercial power supply (external power supply) in a game hall or the like. Then, the operating power required for each of the main control boards 51 is generated based on the external power supplied from the commercial power source, and the generated operating power is supplied. Incidentally, the operating power is supplied not only to the main control board 51 but also to other devices such as the payout control device 55 and the display control device 130 described later.

なお、MPU52と電源及び発射制御装置57との電力経路上に停電監視基板を設けてもよい。この場合、当該停電監視基板により停電の発生が監視され、停電の発生が確認された場合にはMPU52に対して停電信号が送信されるようにすることで、MPU52において停電時用の処理を実行することが可能となる。 A power failure monitoring board may be provided on the power path between the MPU 52 and the power supply and the launch control device 57. In this case, the occurrence of a power failure is monitored by the power failure monitoring board, and when the occurrence of a power failure is confirmed, a power failure signal is transmitted to the MPU 52, so that the MPU 52 executes a process for a power failure. It becomes possible to do.

また、MPU52の入力側には、図示しない各種センサが接続されている。当該各種センサの一部として、一般入賞口21、可変入賞装置22、上作動口23、下作動口24及びスルーゲート25といった入賞対応入球部に対して1対1で設けられた検知センサが含まれており、MPU52において各入球部への入賞判定(入球判定)が行われる。また、MPU52では上作動口23及び下作動口24への入賞に基づいて大当たり発生抽選及び大当たり結果種別抽選を実行するとともに、各遊技回のリーチ発生抽選や表示継続期間の決定抽選を実行する。 Further, various sensors (not shown) are connected to the input side of the MPU 52. As a part of the various sensors, a detection sensor provided on a one-to-one basis for a winning-compatible winning portion such as a general winning opening 21, a variable winning device 22, an upper operating port 23, a lower operating port 24, and a through gate 25 is provided. It is included, and the winning determination (entry determination) for each entry portion is performed in the MPU 52. Further, in the MPU 52, a big hit generation lottery and a big hit result type lottery are executed based on the winnings in the upper operating port 23 and the lower operating opening 24, and a reach generation lottery for each game and a lottery for determining the display continuation period are executed.

ここで、MPU52にて各種抽選を行うための構成について説明する。 Here, a configuration for performing various lottery in the MPU 52 will be described.

MPU52は遊技に際し各種カウンタ情報を用いて、大当たり発生抽選、メイン表示部33の表示の設定、図柄表示装置31の図柄表示の設定、役物用表示部34の表示の設定などを行うこととしており、具体的には、図5に示すように、大当たり発生抽選に使用する大当たり乱数カウンタC1と、確変大当たり結果や通常大当たり結果等の大当たり種別を判定する際に使用する大当たり種別カウンタC2と、図柄表示装置31が外れ変動する際のリーチ発生抽選に使用するリーチ乱数カウンタC3と、大当たり乱数カウンタC1の初期値設定に使用する乱数初期値カウンタCINIと、メイン表示部33及び図柄表示装置31における変動表示時間を決定する変動種別カウンタCSとを用いることとしている。さらに、下作動口24の電動役物24aを電役開放状態とするか否かの抽選に使用する電動役物開放カウンタC4を用いることとしている。 The MPU 52 uses various counter information during the game to perform a jackpot generation lottery, setting the display of the main display unit 33, setting the symbol display of the symbol display device 31, setting the display of the accessory display unit 34, and the like. Specifically, as shown in FIG. 5, a jackpot random number counter C1 used for a jackpot generation lottery, a jackpot type counter C2 used for determining a jackpot type such as a probability variation jackpot result or a normal jackpot result, and a symbol. Reach generation when the display device 31 deviates and fluctuates The reach random number counter C3 used for lottery, the random number initial value counter CINI used for setting the initial value of the jackpot random number counter C1, and the fluctuations in the main display unit 33 and the symbol display device 31. A variable type counter CS that determines the display time is used. Further, the electric accessory opening counter C4 used for the lottery as to whether or not the electric accessory 24a of the lower operating port 24 is set to the electric service open state is used.

各カウンタC1〜C3,CINI,CS,C4は、その更新の都度前回値に1が加算され、最大値に達した後0に戻るループカウンタとなっている。各カウンタは短時間間隔で更新され、その更新値がRAM54の所定領域に設定された抽選カウンタ用バッファ54aに適宜格納される。このうち抽選カウンタ用バッファ54aにおいて、大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3に対応した情報は、上作動口23又は下作動口24への入賞が発生した場合に、取得情報記憶手段としての保留球格納エリア54bに格納される。 Each of the counters C1 to C3, CINI, CS, and C4 is a loop counter in which 1 is added to the previous value each time the counter is updated, and the counter returns to 0 after reaching the maximum value. Each counter is updated at short intervals, and the updated value is appropriately stored in the lottery counter buffer 54a set in a predetermined area of the RAM 54. Of these, in the lottery counter buffer 54a, the information corresponding to the jackpot random number counter C1, the jackpot type counter C2, and the reach random number counter C3 is stored as acquired information when a prize is awarded to the upper operating port 23 or the lower operating port 24. It is stored in the reserved ball storage area 54b as a means.

保留球格納エリア54bは、保留用エリアREと、実行エリアAEとを備えている。保留用エリアREは、第1保留エリアRE1、第2保留エリアRE2、第3保留エリアRE3及び第4保留エリアRE4を備えており、上作動口23又は下作動口24への入賞履歴に合わせて、抽選カウンタ用バッファ54aに格納されている大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報が保留情報として、いずれかの保留エリアRE1〜RE4に格納される。 The holding ball storage area 54b includes a holding area RE and an execution area AE. The holding area RE includes a first holding area RE1, a second holding area RE2, a third holding area RE3, and a fourth holding area RE4, according to the winning history of the upper working port 23 or the lower working port 24. The numerical information of the jackpot random number counter C1, the jackpot type counter C2, and the reach random number counter C3 stored in the lottery counter buffer 54a is stored in any of the reserved areas RE1 to RE4 as reserved information.

この場合、第1保留エリアRE1〜第4保留エリアRE4には、上作動口23又は下作動口24への入賞が複数回連続して発生した場合に、第1保留エリアRE1→第2保留エリアRE2→第3保留エリアRE3→第4保留エリアRE4の順に各数値情報が時系列的に格納されていく。このように4つの保留エリアRE1〜RE4が設けられていることにより、上作動口23又は下作動口24への遊技球の入賞履歴が最大4個まで保留記憶されるようになっている。また、保留用エリアREは、保留数記憶エリアNAを備えており、当該保留数記憶エリアNAには上作動口23又は下作動口24への入賞履歴を保留記憶している数を特定するための情報が格納される。 In this case, in the first holding area RE1 to the fourth holding area RE4, when the upper working port 23 or the lower working port 24 is awarded a plurality of times in succession, the first holding area RE1 → the second holding area RE1 → the second holding area. Each numerical information is stored in the order of RE2 → 3rd holding area RE3 → 4th holding area RE4 in chronological order. By providing the four holding areas RE1 to RE4 in this way, up to four winning histories of the game balls in the upper operating port 23 or the lower operating port 24 can be reserved and stored. Further, the hold area RE is provided with a hold number storage area NA, and the hold number storage area NA is used to specify the number of the winning history stored in the upper operation port 23 or the lower operation port 24. Information is stored.

なお、保留記憶可能な数は、4個に限定されることはなく任意であり、2個、3個又は5個以上といったように他の複数であってもよく、単数であってもよい。 The number that can be stored on hold is not limited to four, and may be any other, such as two, three, or five or more, or may be a single number.

実行エリアAEは、メイン表示部33の変動表示を開始する際に、保留用エリアREの第1保留エリアRE1に格納された各値を移動させるためのエリアであり、1遊技回の開始に際しては実行エリアAEに記憶されている各種数値情報に基づいて、当否判定などが行われる。 The execution area AE is an area for moving each value stored in the first hold area RE1 of the hold area RE when starting the variable display of the main display unit 33, and is an area for moving each value stored in the first hold area RE1 of the hold area RE. A hit / fail determination or the like is performed based on various numerical information stored in the execution area AE.

上記各カウンタについて詳細に説明する。 Each of the above counters will be described in detail.

各カウンタについて詳しくは、大当たり乱数カウンタC1は、例えば0〜599の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。特に大当たり乱数カウンタC1が1周した場合、その時点の乱数初期値カウンタCINIの値が当該大当たり乱数カウンタC1の初期値として読み込まれる。なお、乱数初期値カウンタCINIは、大当たり乱数カウンタC1と同様のループカウンタである(値=0〜599)。大当たり乱数カウンタC1は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 More specifically, the jackpot random number counter C1 has a configuration in which, for example, 1 is sequentially added in the range of 0 to 599, and after reaching the maximum value, it returns to 0. In particular, when the jackpot random number counter C1 makes one round, the value of the random number initial value counter CINI at that time is read as the initial value of the jackpot random number counter C1. The random number initial value counter CINI is a loop counter similar to the jackpot random number counter C1 (value = 0 to 599). The jackpot random number counter C1 is periodically updated and stored in the reserved ball storage area 54b at the timing when the game ball wins in the upper operating port 23 or the lower operating port 24.

大当たり当選となる乱数の値は、ROM53における当否情報群記憶手段としての当否テーブル記憶エリアに当否テーブルとして記憶されている。当否テーブルとしては、低確率モード用の当否テーブルと、高確率モード用の当否テーブルとが設定されている。つまり、本パチンコ機10は、当否抽選手段における抽選モードとして、低確率モードと高確率モードとが設定されている。 The value of the random number that wins the jackpot is stored as a hit / miss table in the hit / miss table storage area as the hit / miss information group storage means in the ROM 53. As the pass / fail table, a pass / fail table for the low probability mode and a pass / fail table for the high probability mode are set. That is, in the pachinko machine 10, a low probability mode and a high probability mode are set as the lottery mode in the winning / failing lottery means.

上記抽選に際して低確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は2個である。一方、上記抽選に際して高確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は20個である。なお、低確率モードよりも高確率モードの方の当選確率が高くなるのであれば、上記当選となる乱数の数は任意である。 In the gaming state in which the winning / failing table for the low probability mode is referred to at the time of the lottery, the number of random numbers that win the big hit is two. On the other hand, in the gaming state in which the winning / failing table for the high probability mode is referred to in the lottery, the number of random numbers that win the big hit is 20. If the winning probability in the high probability mode is higher than that in the low probability mode, the number of random numbers to be won is arbitrary.

大当たり種別カウンタC2は、0〜29の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。大当たり種別カウンタC2は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 The jackpot type counter C2 is configured to be incremented by 1 in order within the range of 0 to 29, reach the maximum value, and then return to 0. The jackpot type counter C2 is periodically updated and stored in the reserved ball storage area 54b at the timing when the game ball wins in the upper operating port 23 or the lower operating port 24.

本パチンコ機10では、複数の大当たり結果が設定されている。これら複数の大当たり結果は、(1)開閉実行モードにおける可変入賞装置22の開閉制御の態様、(2)開閉実行モード終了後の当否抽選手段における抽選モード、(3)開閉実行モード終了後の下作動口24の電動役物24aにおけるサポートモード、という3つの条件に差異を設けることにより、複数の大当たり結果が設定されている。 In this pachinko machine 10, a plurality of jackpot results are set. These plurality of big hit results are (1) the mode of opening / closing control of the variable winning device 22 in the opening / closing execution mode, (2) the lottery mode in the winning / failing lottery means after the opening / closing execution mode ends, and (3) the lower after the opening / closing execution mode ends. By providing differences in the three conditions of the support mode in the electric accessory 24a of the operating port 24, a plurality of jackpot results are set.

開閉実行モードにおける可変入賞装置22の開閉制御の態様としては、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が相対的に高低となるように高頻度入賞モードと低頻度入賞モードとが設定されている。具体的には、高頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が15回(高頻度用回数)行われるとともに、1回の開放は30sec(高頻度時間)が経過するまで又は大入賞口22aへの入賞個数が10個(高頻度個数)となるまで継続される。一方、低頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が2回(低頻度用回数)行われるとともに、1回の開放は0.2sec(低頻度時間)が経過するまで又は大入賞口22aへの入賞個数が6個(低頻度個数)となるまで継続される。 As an aspect of opening / closing control of the variable winning device 22 in the opening / closing execution mode, the frequency of winning a prize in the variable winning device 22 from the start to the end of the opening / closing execution mode is relatively high. Frequent winning mode and low frequency winning mode are set. Specifically, in the high-frequency winning mode, the large winning opening 22a is opened and closed 15 times (high-frequency use times) from the start to the end of the open / close execution mode, and one opening is 30 sec (high-frequency time). ) Has elapsed, or until the number of winnings in the large winning opening 22a reaches 10 (high frequency number). On the other hand, in the low-frequency winning mode, the large winning opening 22a is opened and closed twice (low-frequency use times) from the start to the end of the open / close execution mode, and one opening is 0.2 sec (low-frequency time). Is continued until the elapse of the game or until the number of winnings in the large winning opening 22a reaches 6 (low frequency number).

本パチンコ機10では、発射ハンドル41が遊技者により操作されている状況では、0.6secに1個の遊技球が遊技領域に向けて発射されるように遊技球発射機構58が駆動制御される。これに対して、低頻度入賞モードでは、上記のとおり1回の大入賞口22aの開放時間は0.2secとなっている。つまり、低頻度入賞モードでは、遊技球の発射周期よりも1回の大入賞口22aの開放時間が短くなっている。したがって、低頻度入賞モードにかかる開閉実行モードでは実質的に遊技球の入賞が発生しない。 In the pachinko machine 10, when the firing handle 41 is operated by the player, the gaming ball launching mechanism 58 is driven and controlled so that one gaming ball is launched toward the gaming area every 0.6 sec. .. On the other hand, in the low frequency winning mode, the opening time of one large winning opening 22a is 0.2 sec as described above. That is, in the low-frequency winning mode, the opening time of one large winning opening 22a is shorter than the firing cycle of the game ball. Therefore, in the open / close execution mode in which the low frequency winning mode is applied, the winning of the game ball does not substantially occur.

なお、高頻度入賞モード及び低頻度入賞モードにおける大入賞口22aの開閉回数、1回の開放に対する開放制限時間及び1回の開放に対する開放制限個数は、高頻度入賞モードの方が低頻度入賞モードよりも、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が高くなるのであれば、上記の値に限定されることはなく任意である。具体的には、高頻度入賞モードの方が低頻度入賞モードよりも、開閉回数が多い、1回の開放に対する開放制限時間が長い又は1回の開放に対する開放制限個数が多く設定されていればよい。 The number of times the large winning opening 22a is opened and closed in the high-frequency winning mode and the low-frequency winning mode, and the opening time limit for one opening and the opening limit number for one opening are lower in the high-frequency winning mode. As long as the frequency of winning the variable winning device 22 from the start to the end of the opening / closing execution mode is higher than that, the value is not limited to the above value and is arbitrary. Specifically, if the high-frequency winning mode has a larger number of openings and closings than the low-frequency winning mode, the opening time limit for one opening is long, or the opening limit number for one opening is set to be large. good.

但し、高頻度入賞モードと低頻度入賞モードとの間での特典の差異を明確にする上では、低頻度入賞モードにかかる開閉実行モードでは、実質的に可変入賞装置22への入賞が発生しない構成とするとよい。例えば、高頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも短く設定する一方、低頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも長く設定する構成としてもよい。また、遊技球の発射間隔及び1回の大入賞口22aの開放時間が上記のものでなかったとしても、低頻度入賞モードでは、前者よりも後者の方が短くなるように設定することで、実質的に可変入賞装置22への入賞が発生しない構成を容易に実現することができる。 However, in order to clarify the difference in benefits between the high-frequency winning mode and the low-frequency winning mode, in the open / close execution mode related to the low-frequency winning mode, the variable winning device 22 does not substantially win a prize. It is good to have a configuration. For example, in the high frequency winning mode, the product of the firing cycle of the game ball and the opening limit number is set shorter than the opening time limit for one opening, while in the low frequency winning mode, one opening is set. The product of the firing cycle of the game ball and the opening limit number may be set longer than the opening limit time. Further, even if the firing interval of the game ball and the opening time of one large winning opening 22a are not the above, in the low frequency winning mode, the latter is set to be shorter than the former. It is possible to easily realize a configuration in which a prize is not substantially generated in the variable winning device 22.

下作動口24の電動役物24aにおけるサポートモードとしては、遊技領域に対して同様の態様で遊技球の発射が継続されている状況で比較した場合に、下作動口24の電動役物24aが単位時間当たりに開放状態となる頻度が相対的に高低となるように、低頻度サポートモード(低頻度サポート状態又は低頻度ガイド状態)と高頻度サポートモード(高頻度サポート状態又は高頻度ガイド状態)とが設定されている。 As a support mode in the electric accessory 24a of the lower operating port 24, the electric accessory 24a of the lower operating port 24 is compared in a situation where the launch of the game ball is continued in the same manner with respect to the game area. Low frequency support mode (low frequency support state or low frequency guide state) and high frequency support mode (high frequency support state or high frequency guide state) so that the frequency of opening state per unit time is relatively high and low. And are set.

具体的には、低頻度サポートモードと高頻度サポートモードとでは、電動役物開放カウンタC4を用いた電動役物開放抽選における電役開放状態当選となる確率は同一(例えば、共に4/5)となっているが、高頻度サポートモードでは低頻度サポートモードよりも、電役開放状態当選となった際に電動役物24aが開放状態となる回数が多く設定されており、さらに1回の開放時間が長く設定されている。この場合、高頻度サポートモードにおいて電役開放状態当選となり電動役物24aの開放状態が複数回発生する場合において、1回の開放状態が終了してから次の開放状態が開始されるまでの閉鎖時間は、1回の開放時間よりも短く設定されている。さらにまた、高頻度サポートモードでは低頻度サポートモードよりも、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で最低限確保される確保時間として短い時間が選択されるように設定されている。 Specifically, in the low-frequency support mode and the high-frequency support mode, the probability of winning the electric role open state in the electric accessory open lottery using the electric accessory release counter C4 is the same (for example, both are 4/5). However, in the high-frequency support mode, the number of times the electric accessory 24a is opened when the electric accessory open state is won is set more than in the low-frequency support mode, and one opening is further performed. The time is set long. In this case, in the high-frequency support mode, when the electric accessory 24a is won in the open state and the electric accessory 24a is opened multiple times, it is closed from the end of one open state to the start of the next open state. The time is set shorter than the one-time opening time. Furthermore, in the high-frequency support mode, compared to the low-frequency support mode, a shorter time is secured as the minimum secured time for the next electric accessory opening lottery to be performed after one electric accessory opening lottery is performed. Is set to be selected.

上記のように高頻度サポートモードでは、低頻度サポートモードよりも下作動口24への入賞が発生する確率が高くなる。換言すれば、低頻度サポートモードでは、下作動口24よりも上作動口23への入賞が発生する確率が高くなるが、高頻度サポートモードでは、上作動口23よりも下作動口24への入賞が発生する確率が高くなる。そして、下作動口24への入賞が発生した場合には、所定個数の遊技球の払出が実行されるため、高頻度サポートモードでは、遊技者は持ち球をあまり減らさないようにしながら遊技を行うことができる。 As described above, in the high frequency support mode, the probability that the lower operating port 24 will be won is higher than in the low frequency support mode. In other words, in the low frequency support mode, the probability of winning the upper operating port 23 is higher than that of the lower operating port 24, but in the high frequency support mode, the lower operating port 24 is more likely than the upper operating port 23. The probability of winning a prize increases. Then, when a prize is won in the lower operating port 24, a predetermined number of game balls are paid out. Therefore, in the high frequency support mode, the player plays a game while not reducing the number of balls held so much. be able to.

なお、高頻度サポートモードを低頻度サポートモードよりも単位時間当たりに電役開放状態となる頻度を高くする上での構成は、上記のものに限定されることはなく、例えば電動役物開放抽選における電役開放状態当選となる確率を高くする構成としてもよい。また、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間(例えば、スルーゲート25への入賞に基づき役物用表示部34にて実行される変動表示の時間)が複数種類用意されている構成においては、高頻度サポートモードでは低頻度サポートモードよりも、短い確保時間が選択され易い又は平均の確保時間が短くなるように設定されていてもよい。さらには、開放回数を多くする、開放時間を長くする、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間を短くする(すなわち、役物用表示部34における1回の変動表示時間を短くする)、係る確保時間の平均時間を短くする及び当選確率を高くするのうち、いずれか1条件又は任意の組み合わせの条件を適用することで、低頻度サポートモードに対する高頻度サポートモードの有利性を高めてもよい。 The configuration for increasing the frequency of the high-frequency support mode to be in the electric service open state per unit time is not limited to the above, for example, the electric motor open lottery. It may be configured to increase the probability of winning the electric service open state in. In addition, the secured time secured for the next electric accessory opening lottery after one electric accessory opening lottery is performed (for example, on the accessory display unit 34 based on the winning of the through gate 25). In a configuration where multiple types of variable display time (time to be executed) are prepared, the high frequency support mode is set so that a shorter reservation time is easier to select or the average reservation time is shorter than the low frequency support mode. It may have been done. Furthermore, the number of times of opening is increased, the opening time is lengthened, and the securing time secured for the next electric accessory opening lottery after one electric accessory opening lottery is performed is shortened (that is,). , Shortening the one-time variable display time on the accessory display unit 34), shortening the average time of the secured time, and increasing the winning probability, one of the conditions or any combination of conditions is applied. This may increase the advantage of the high frequency support mode over the low frequency support mode.

大当たり種別カウンタC2に対する遊技結果の振分先は、ROM53における振分情報群記憶手段としての振分テーブル記憶エリアに振分テーブルとして記憶されている。そして、かかる振分先として、通常大当たり結果と、明示2R確変大当たり結果と、15R確変大当たり結果とが設定されている。 The distribution destination of the game result for the jackpot type counter C2 is stored as a distribution table in the distribution table storage area as the distribution information group storage means in the ROM 53. Then, as the distribution destination, a normal jackpot result, an explicit 2R probability variation jackpot result, and a 15R probability variation jackpot result are set.

通常大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが低確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。但し、この高頻度サポートモードは、移行後において遊技回数が終了基準回数(具体的には、100回)に達した場合に低頻度サポートモードに移行する。換言すれば、通常大当たり結果は、通常大当たり状態(低確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。 The normal jackpot result is a jackpot result in which the open / close execution mode becomes the high-frequency winning mode, and after the open / close execution mode ends, the win / fail lottery mode becomes the low-probability mode and the support mode becomes the high-frequency support mode. However, this high-frequency support mode shifts to the low-frequency support mode when the number of games reaches the end reference number (specifically, 100 times) after the transition. In other words, the normal jackpot result is a jackpot result that shifts the gaming state to the normal jackpot state (low probability corresponding special gaming state).

明示2R確変大当たり結果は、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、明示2R確変大当たり結果は、明示2R確変大当たり状態(明示高確率対応遊技状態)へ遊技状態を移行させる大当たり結果である。 The explicit 2R probability variation jackpot result is a jackpot result in which the open / close execution mode becomes the low frequency winning mode, and after the open / close execution mode ends, the win / fail lottery mode becomes the high probability mode and the support mode becomes the high frequency support mode. .. These high-probability mode and high-frequency support mode continue until the lottery result in the winning / losing lottery becomes a big hit state and the state shifts to the big hit state. In other words, the explicit 2R probability variation jackpot result is a jackpot result that shifts the gaming state to the explicit 2R probability variation jackpot state (explicit high probability corresponding gaming state).

15R確変大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、15R確変大当たり結果は、15R確変大当たり状態(高確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。 The 15R probability variation jackpot result is a jackpot result in which the opening / closing execution mode becomes the high-frequency winning mode, and after the opening / closing execution mode ends, the winning / failing lottery mode becomes the high-probability mode and the support mode becomes the high-frequency support mode. These high-probability mode and high-frequency support mode continue until the lottery result in the winning / losing lottery becomes a big hit state and the state shifts to the big hit state. In other words, the 15R probability variation jackpot result is a jackpot result that shifts the gaming state to the 15R probability variation jackpot state (high probability corresponding special gaming state).

なお、上記各遊技状態との関係で通常遊技状態とは、当否抽選モードが低確率モードであり、サポートモードが低頻度サポートモードである状態をいう。 In relation to each of the above game states, the normal game state means a state in which the winning / failing lottery mode is a low probability mode and the support mode is a low frequency support mode.

振分テーブルでは、「0〜29」の大当たり種別カウンタC2の値のうち、「0〜9」が通常大当たり結果に対応しており、「10〜14」が明示2R確変大当たり結果に対応しており、「15〜29」が15R確変大当たり結果に対応している。 In the distribution table, among the values of the jackpot type counter C2 of "0 to 29", "0 to 9" corresponds to the normal jackpot result, and "10 to 14" corresponds to the explicit 2R probability variation jackpot result. The "15-29" corresponds to the 15R probability variation jackpot result.

上記のように、確変大当たり結果として、明示2R確変大当たり結果が設定されていることにより、確変大当たり結果の態様が多様化する。すなわち、2種類の確変大当たり結果を比較した場合、遊技者にとっての有利度合いは、開閉実行モードにおいて高頻度入賞モードとなり且つサポートモードでは高頻度サポートモードとなる15R確変大当たり結果が最も高く、開閉実行モードにおいて低頻度入賞モードとなるもののサポートモードでは高頻度サポートモードとなる明示2R確変大当たり結果が最も低くなる。これにより、遊技の単調化が抑えられ、遊技への注目度を高めることが可能となる。 As described above, since the explicit 2R probability variation jackpot result is set as the probability variation jackpot result, the mode of the probability variation jackpot result is diversified. That is, when comparing the two types of probability variation jackpot results, the degree of advantage for the player is that the 15R probability variation jackpot result, which is the high frequency winning mode in the open / close execution mode and the high frequency support mode in the support mode, is the highest, and the opening / closing execution is executed. In the support mode, which is the low frequency winning mode, the high frequency support mode is used, and the explicit 2R probability variation jackpot result is the lowest. As a result, the monotonousness of the game can be suppressed, and the degree of attention to the game can be increased.

なお、確変大当たり結果の一種として、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードがそれまでのモードに維持されることとなる非明示2R確変大当たり結果(非明示高確率対応遊技結果又は潜伏確変状態となる結果)が含まれていてもよい。この場合、確変大当たり結果のさらなる多様化が図られる。 As a kind of probability change jackpot result, the open / close execution mode becomes the low frequency winning mode, and after the open / close execution mode ends, the win / fail lottery mode becomes the high probability mode and the support mode is maintained in the previous mode. An unspecified 2R probability change jackpot result (a result of an unspecified high probability corresponding game result or a latent probability change state) may be included. In this case, the probabilistic jackpot results will be further diversified.

さらにまた、当否抽選における外れ結果の一種として、低頻度入賞モードの開閉実行モードに移行するとともに、その終了後において当否抽選モード及びサポートモードの移行が発生しない特別外れ結果が含まれていてもよい。上記のような非明示2R確変大当たり結果と当該特別外れ結果との両方が設定されている構成においては、開閉実行モードが低頻度入賞モードに移行すること、及びサポートモードがそれまでのモードに維持されることで共通しているのに対して、当否抽選モードの移行態様が異なっていることにより、例えば通常遊技状態において非明示2R確変大当たり結果又は特別外れ結果の一方が発生した場合に、それが実際にいずれの結果に対応しているのかを遊技者に予測させることが可能となる。 Furthermore, as a kind of the winning / failing result in the winning / failing lottery, a special losing result that shifts to the open / close execution mode of the low frequency winning mode and does not cause the transition to the winning / losing lottery mode and the support mode after the transition may be included. .. In the configuration where both the unspecified 2R probability variation jackpot result and the special deviation result are set as described above, the open / close execution mode shifts to the low frequency winning mode, and the support mode is maintained in the previous mode. On the other hand, when the transition mode of the winning / failing lottery mode is different, for example, when either the unspecified 2R probability variation jackpot result or the special deviation result occurs in the normal game state, it is the same. It is possible to make the player predict which result actually corresponds to.

リーチ乱数カウンタC3は、例えば0〜238の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。リーチ乱数カウンタC3は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 The reach random number counter C3 is configured to be incremented by 1 in order within the range of 0 to 238, and returns to 0 after reaching the maximum value. The reach random number counter C3 is periodically updated and stored in the reserved ball storage area 54b at the timing when the game ball wins in the upper operating port 23 or the lower operating port 24.

ここで、本パチンコ機10には、図柄表示装置31における表示演出の一種として期待演出が設定されている。期待演出とは、図柄の変動表示を行うことが可能な図柄表示装置31を備え、開閉実行モードが高頻度入賞モードとなる遊技回では変動表示後の停止表示結果が特別表示結果となる遊技機において、図柄表示装置31における図柄の変動表示が開始されてから停止表示結果が導出表示される前段階で、前記特別表示結果となり易い変動表示状態であると遊技者に思わせるための表示状態をいう。 Here, in the pachinko machine 10, an expected effect is set as a kind of display effect in the symbol display device 31. The expected effect is a gaming machine equipped with a symbol display device 31 capable of displaying variable symbols, and in a game in which the open / close execution mode is a high-frequency winning mode, the stop display result after the variable display is a special display result. In the display state for making the player think that the special display result is likely to be the variable display state before the stop display result is derived and displayed after the variable display of the symbol on the symbol display device 31 is started. say.

期待演出には、上記リーチ表示と、当該リーチ表示が発生する前段階などにおいてリーチ表示の発生や特別表示結果の発生を期待させるための予告表示との2種類が設定されている。 Two types of expected effects are set: the above-mentioned reach display and a notice display for expecting the occurrence of the reach display and the occurrence of the special display result in the stage before the reach display occurs.

リーチ表示には、図柄表示装置31の表示面Gに表示される複数の図柄列のうち一部の図柄列について図柄を停止表示させることで、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性があるリーチ図柄の組み合わせを表示し、その状態で残りの図柄列において図柄の変動表示を行う表示状態が含まれる。また、上記のようにリーチ図柄の組み合わせを表示した状態で、残りの図柄列において図柄の変動表示を行うとともに、その背景画像において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものや、リーチ図柄の組み合わせを縮小表示させる又は非表示とした上で、表示面の略全体において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものが含まれる。 In the reach display, a combination of jackpot symbols corresponding to the occurrence of a high-frequency winning mode is performed by stopping and displaying some of the symbol rows among the plurality of symbol rows displayed on the display surface G of the symbol display device 31. Includes a display state in which a combination of reach symbols that may hold is displayed, and in that state, a variable display of symbols is performed in the remaining symbol rows. In addition, in the state where the combination of reach symbols is displayed as described above, the variation display of the symbols is performed in the remaining symbol rows, and the reach effect is performed by displaying a predetermined character or the like as a moving image in the background image. , A combination of reach symbols is reduced or hidden, and a predetermined character or the like is displayed as a moving image on substantially the entire display surface to perform a reach effect.

図柄の変動表示に係るリーチ表示について具体的には、図柄の変動表示を終了させる前段階として、図柄表示装置31の表示面内の予め設定された有効ライン上に、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性のあるリーチ図柄の組み合わせを停止表示させることによりリーチラインを形成させ、当該リーチラインが形成されている状況下において最終停止図柄列により図柄の変動表示を行うことである。 Regarding the reach display related to the variable display of the symbol, specifically, as a step before ending the variable display of the symbol, a high frequency winning mode is generated on a preset effective line in the display surface of the symbol display device 31. A reach line is formed by stopping and displaying the combination of reach symbols that may establish the corresponding jackpot symbol combination, and in the situation where the reach line is formed, the variation display of the symbol is displayed by the final stop symbol row. Is to do.

図3の表示内容について具体的に説明すると、最初に上段の図柄列SA1において図柄の変動表示が終了され、さらに下段の図柄列SA3において図柄の変動表示が終了された状態において、いずれかの有効ラインL1〜L5に同一の数字が付された主図柄が停止表示されることでリーチラインが形成され、当該リーチラインが形成されている状況化において中段の図柄列SA2において図柄の変動表示が行われることでリーチ表示となる。そして、高頻度入賞モードが発生する場合には、リーチラインを形成している主図柄と同一の数字が付された主図柄がリーチライン上に停止表示されるようにして中段の図柄列SA2における図柄の変動表示が終了される。 Specifically, the display contents of FIG. 3 will be described in detail. Either is valid when the variable display of the symbol is first terminated in the upper symbol row SA1 and then the variable display of the symbol is terminated in the lower symbol row SA3. A reach line is formed by stopping and displaying the main symbols with the same numbers on the lines L1 to L5, and in the situation where the reach line is formed, the fluctuation display of the symbols is performed in the symbol column SA2 in the middle row. It becomes a reach display by being struck. Then, when the high-frequency winning mode occurs, the main symbol with the same number as the main symbol forming the reach line is stopped and displayed on the reach line in the middle symbol row SA2. The variable display of the symbol ends.

予告表示には、図柄表示装置31の表示面において図柄の変動表示が開始されてから、全ての図柄列SA1〜SA3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列SA1〜SA3上の図柄とは別にキャラクタを表示させる態様が含まれる。また、背景画像をそれまでの態様とは異なる所定の態様とするものや、図柄列SA1〜SA3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。かかる予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示の行われる場合の方がリーチ表示の行われない場合よりも高確率で発生するように設定されている。 In the notice display, after the variable display of the symbol is started on the display surface of the symbol display device 31, the symbol is variablely displayed in all the symbol rows SA1 to SA3, or a part of the symbol rows. In a situation where the symbols are variablely displayed in a plurality of symbol rows, a mode in which the character is displayed separately from the symbols on the symbol rows SA1 to SA3 is included. Further, the background image has a predetermined mode different from the previous mode, and the symbols on the symbol rows SA1 to SA3 have a predetermined mode different from the previous mode. Such a notice display may occur in any of the game times when the reach display is performed and when the reach display is not performed, but the case where the reach display is performed is higher than the case where the reach display is not performed. It is set to occur with a probability.

リーチ表示は、高頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行され、低頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行されない。また、開閉実行モードに移行しない遊技回では、ROM53のリーチ用テーブル記憶エリアに記憶されたリーチ用テーブルを参照して、所定のタイミングで取得したリーチ乱数カウンタC3がリーチ表示の発生に対応している場合に実行される。一方、予告表示を行うか否かの決定は、主制御装置50において行うのではなく、音声発光制御装置60において行われる。 The reach display is executed regardless of the value of the reach random number counter C3 in the game rounds that shift to the open / close execution mode that becomes the high-frequency winning mode, and the reach random numbers are executed in the game rounds that shift to the open / close execution mode that shifts to the low-frequency winning mode. It is not executed regardless of the value of the counter C3. Further, in the game rounds that do not shift to the open / close execution mode, the reach random number counter C3 acquired at a predetermined timing corresponds to the occurrence of the reach display by referring to the reach table stored in the reach table storage area of the ROM 53. Will be executed if there is. On the other hand, the determination of whether or not to display the notice is not performed by the main control device 50, but by the voice emission control device 60.

変動種別カウンタCSは、例えば0〜198の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。変動種別カウンタCSは、メイン表示部33における変動表示時間と、図柄表示装置31における図柄の変動表示時間とをMPU52において決定する上で用いられる。変動種別カウンタCSは、後述する通常処理が1回実行される毎に1回更新され、当該通常処理内の残余時間内でも繰り返し更新される。そして、メイン表示部33における変動表示の開始時及び図柄表示装置31による図柄の変動開始時における変動パターン決定に際して変動種別カウンタCSのバッファ値が取得される。なお、変動表示時間の決定に際しては、ROM53の変動表示時間テーブル記憶エリアに予め記憶されている変動表示時間テーブルが参照される。 The variation type counter CS is configured to be incremented by 1 in order within the range of 0 to 198, and returns to 0 after reaching the maximum value. The variation type counter CS is used in the MPU 52 to determine the variation display time on the main display unit 33 and the variation display time of the symbol on the symbol display device 31. The variation type counter CS is updated once every time the normal processing described later is executed once, and is repeatedly updated even within the remaining time in the normal processing. Then, the buffer value of the variation type counter CS is acquired when the variation pattern is determined at the start of the variation display on the main display unit 33 and at the start of the variation of the symbol by the symbol display device 31. When determining the variable display time, the variable display time table stored in advance in the variable display time table storage area of the ROM 53 is referred to.

電動役物開放カウンタC4は、例えば、0〜250の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。電動役物開放カウンタC4は定期的に更新され、スルーゲート25に遊技球が入賞したタイミングで電役保留エリア54cに格納される。そして、所定のタイミングにおいて、その格納された電動役物開放カウンタC4の値によって電動役物24aを開放状態に制御するか否かの抽選が行われる。 The electric accessory opening counter C4 is configured to, for example, add 1 in order within the range of 0 to 250, reach the maximum value, and then return to 0. The electric accessory opening counter C4 is periodically updated and stored in the electric accessory holding area 54c at the timing when the game ball wins the through gate 25. Then, at a predetermined timing, a lottery is performed as to whether or not to control the electric accessory 24a to the open state according to the value of the stored electric accessory opening counter C4.

MPU52の出力側には、払出制御装置55が接続されているとともに、電源及び発射制御装置57が接続されている。払出制御装置55には、例えば、上記入賞対応入球部への入賞判定結果に基づいて賞球コマンドが送信される。払出制御装置55は、主制御装置50から受信した賞球コマンドに基づいて、払出装置56により賞球や貸し球の払出制御を行う。電源及び発射制御装置57には、発射ハンドル41が操作されていることに基づいて発射許可コマンドが送信される。電源及び発射制御装置57は、主制御装置50から受信した発射許可コマンドに基づいて、遊技球発射機構58を駆動させ遊技球を遊技領域に向けて発射させる。 A payout control device 55 is connected to the output side of the MPU 52, and a power supply and a launch control device 57 are also connected. For example, a prize ball command is transmitted to the payout control device 55 based on the winning determination result to the winning ball corresponding to the prize. The payout control device 55 controls the payout of prize balls and rental balls by the payout device 56 based on the prize ball command received from the main control device 50. A launch permission command is transmitted to the power supply and launch control device 57 based on the fact that the launch handle 41 is operated. The power supply and the launch control device 57 drive the game ball launch mechanism 58 to launch the game ball toward the game area based on the launch permission command received from the main control device 50.

また、MPU52の出力側には、メイン表示部33及び役物用表示部34が接続されており、これらメイン表示部33及び役物用表示部34の表示制御がMPU52により直接行われる。つまり、各遊技回に際しては、MPU52においてメイン表示部33の表示制御が実行される。また、電動役物24aを開放状態とするか否かの抽選結果を明示する場合に、MPU52において役物用表示部34の表示制御が実行される。 Further, a main display unit 33 and a character display unit 34 are connected to the output side of the MPU 52, and the display control of the main display unit 33 and the accessory display unit 34 is directly performed by the MPU 52. That is, at each game round, the display control of the main display unit 33 is executed in the MPU 52. Further, when the lottery result of whether or not to open the electric accessory 24a is clearly shown, the display control of the accessory display unit 34 is executed in the MPU 52.

また、MPU52の出力側には、可変入賞装置22の開閉扉22bを開閉動作させる可変入賞駆動部、及び下作動口24の電動役物24aを開閉動作させる電動役物駆動部が接続されている。つまり、開閉実行モードにおいては大入賞口22aが開閉されるように、MPU52において可変入賞駆動部の駆動制御が実行される。また、電動役物24aの開放状態当選となった場合には、電動役物24aが開閉されるように、MPU52において電動役物駆動部の駆動制御が実行される。 Further, a variable winning drive unit for opening and closing the opening / closing door 22b of the variable winning device 22 and an electric accessory driving unit for opening / closing the electric accessory 24a of the lower operating port 24 are connected to the output side of the MPU 52. .. That is, in the open / close execution mode, the drive control of the variable winning drive unit is executed in the MPU 52 so that the large winning opening 22a is opened and closed. Further, when the electric accessory 24a is won in the open state, the drive control of the electric accessory drive unit is executed in the MPU 52 so that the electric accessory 24a is opened and closed.

また、MPU52の出力側には、音声発光制御装置60が接続されており、当該音声発光制御装置60に対して演出用の各種コマンドを送信する。 Further, a voice emission control device 60 is connected to the output side of the MPU 52, and various commands for effect are transmitted to the voice emission control device 60.

<主制御装置50のMPU52にて実行される処理>
次に、MPU52にて実行される処理について説明する。
<Process executed by MPU 52 of main control device 50>
Next, the process executed by the MPU 52 will be described.

MPU52は、電源の立ち上げ後において所定の遊技進行用処理を繰り返し実行する。本パチンコ機10では、当該遊技進行用処理として、第1の周期で繰り返し実行される通常処理と、第1の周期よりも短い第2の周期で起動され、通常処理に対して割り込んで実行されるタイマ割込み処理と、が設定されている。 The MPU 52 repeatedly executes a predetermined game progress process after the power is turned on. In the pachinko machine 10, as the game progress process, a normal process that is repeatedly executed in the first cycle and a second cycle that is shorter than the first cycle are started and executed by interrupting the normal process. Timer interrupt processing is set.

図6は、タイマ割込み処理を示すフローチャートである。なお、本処理はMPU52により定期的に(例えば2msec周期で)起動される。 FIG. 6 is a flowchart showing timer interrupt processing. This process is periodically started by the MPU 52 (for example, at a cycle of 2 msec).

先ずステップS101では、読み込み処理を実行する。当該読み込み処理では、各種入賞検知センサの状態を読み込み、これら各種入賞検知センサの状態を判定して入賞検知情報を保存する処理を実行する。また、賞球の発生に対応した入賞検知センサにおいて遊技球の入賞が検知されている場合には、払出制御装置55に対して賞球の払い出し指示を行うための賞球コマンドを設定する。 First, in step S101, the reading process is executed. In the reading process, the state of various prize detection sensors is read, the state of these various prize detection sensors is determined, and the process of storing the prize detection information is executed. Further, when the winning of the game ball is detected by the winning detection sensor corresponding to the generation of the prize ball, a prize ball command for instructing the payout control device 55 to pay out the prize ball is set.

続くステップS102では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。 In the following step S102, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is added by 1, and when the counter value reaches the maximum value, it is cleared to 0.

続くステップS103では、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4の更新を実行する。具体的には、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4をそれぞれ1加算すると共に、それらのカウンタ値が最大値に達した際それぞれ0にクリアする。 In the following step S103, the jackpot random number counter C1, the jackpot type counter C2, the reach random number counter C3, and the electric accessory release counter C4 are updated. Specifically, the jackpot random number counter C1, the jackpot type counter C2, the reach random number counter C3, and the electric accessory release counter C4 are each incremented by 1, and when the counter values reach the maximum value, they are cleared to 0, respectively.

続くステップS104では、スルーゲート25への入賞に伴うスルー用の入賞処理を実行する。スルー用の入賞処理では、電役保留エリア54cに記憶されている役物保留記憶数が4未満であることを条件として、前記ステップS103にて更新した電動役物開放カウンタC4の値を電役保留エリア54cに格納する。 In the following step S104, a winning process for passing through is executed in association with winning the winning through the through gate 25. In the winning process for thru, the value of the electric accessory opening counter C4 updated in step S103 is used as the electric utility on condition that the number of accessory holding storages stored in the electric accessory holding area 54c is less than 4. Store in the hold area 54c.

その後、ステップS105にて、作動口23,24への入賞に伴う作動口用の入賞処理を実行する。作動口用の入賞処理では、上作動口23又は下作動口24への入賞が発生していた場合には、保留球格納エリア54bに記憶されている始動保留記憶数が上限数(例えば、「4」)未満であることを条件として、前記ステップS103にて更新した大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報を保留球格納エリア54bの保留用エリアREに格納する。この場合、保留用エリアREの空き保留エリアRE1〜RE4のうち最初の保留エリア、すなわち現状の始動保留記憶数と対応する保留エリアに格納する。ステップS105の処理を実行した後に、本タイマ割込み処理を終了する。 After that, in step S105, a winning process for the operating port accompanying the winning of the operating ports 23 and 24 is executed. In the winning process for the operating port, when a winning is generated in the upper operating port 23 or the lower operating port 24, the starting hold storage number stored in the holding ball storage area 54b is the upper limit number (for example, ". 4 ”), Each numerical information of the jackpot random number counter C1, the jackpot type counter C2, and the reach random number counter C3 updated in step S103 is stored in the holding area RE of the holding ball storage area 54b, provided that it is less than the above. .. In this case, it is stored in the first hold area of the free hold areas RE1 to RE4 of the hold area RE, that is, the hold area corresponding to the current number of start hold storages. After executing the process of step S105, the timer interrupt process is terminated.

図7は、通常処理を示すフローチャートである。通常処理は電源投入に伴い起動されるメイン処理が実行された後に開始される処理である。その概要として、ステップS201〜ステップS209の処理が4msec周期の処理として実行され、その残余時間でステップS210及びステップS211のカウンタ更新処理が実行される構成となっている。 FIG. 7 is a flowchart showing normal processing. The normal process is a process that is started after the main process that is started when the power is turned on is executed. As an outline, the processes of steps S201 to S209 are executed as processes having a cycle of 4 msec, and the counter update processes of steps S210 and S211 are executed in the remaining time.

ステップS201では、タイマ割込み処理又は前回の通常処理で設定したコマンド等の出力データをサブ側の各制御装置に送信する。具体的には、賞球コマンドの有無を判定し、賞球コマンドが設定されていればそれを払出制御装置55に対して送信する。また、所定の演出用コマンドが設定されている場合にはそれを音声発光制御装置60に対して送信する。 In step S201, output data such as a command set in the timer interrupt process or the previous normal process is transmitted to each control device on the sub side. Specifically, the presence or absence of the prize ball command is determined, and if the prize ball command is set, it is transmitted to the payout control device 55. If a predetermined effect command is set, it is transmitted to the voice emission control device 60.

続くステップS202では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、カウンタ値が最大値に達した際にはカウンタ値を0にクリアする。 In the following step S202, the variation type counter CS is updated. Specifically, the variation type counter CS is added by 1, and when the counter value reaches the maximum value, the counter value is cleared to 0.

続くステップS203では、各遊技回における遊技を制御するための遊技回制御処理を実行する。この遊技回制御処理では、大当たり判定、図柄表示装置31による図柄の変動表示の設定、及びメイン表示部33の表示制御などを行う。 In the following step S203, a game time control process for controlling the game in each game time is executed. In this game round control process, jackpot determination, setting of symbol variation display by the symbol display device 31, and display control of the main display unit 33 are performed.

その後、ステップS204では、遊技状態を移行させるための遊技状態移行処理を実行する。遊技状態移行処理では、大当たり当選に対応した遊技回が終了している場合に開閉実行モードへの移行処理を実行し、可変入賞装置22の開閉処理を開始する。なお、開閉実行モードを開始する場合、開閉実行モード中、及び開閉実行モードを終了する場合などに、開閉実行モード用の各種コマンドを音声発光制御装置60に送信する。また、開閉実行モードが終了した場合には、当該モードの開始契機となった遊技回に係る大当たり種別に対応させて、当否抽選モードの移行やサポートモードの移行を実行する。 After that, in step S204, a game state transition process for shifting the game state is executed. In the game state transition process, when the game round corresponding to the big hit winning is completed, the transition process to the open / close execution mode is executed, and the open / close process of the variable winning device 22 is started. When starting the open / close execution mode, during the open / close execution mode, ending the open / close execution mode, etc., various commands for the open / close execution mode are transmitted to the voice emission control device 60. In addition, when the open / close execution mode ends, the winning / failing lottery mode or the support mode is changed according to the jackpot type related to the game times that triggered the start of the mode.

続くステップS205では、デモ表示用処理を実行する。デモ表示用処理では、開閉実行モード中ではない状況で遊技回の終了後において新たな遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、0.1sec)が経過したか否かの判定処理を実行する。また、MPU52への電力供給が開始されてから又はパチンコ機10がリセットされてから、新たに遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、3sec)が経過したか否かの判定処理を実行する。そして、経過していると判定した場合には、デモ表示用のコマンドを音声発光制御装置60に送信する。 In the following step S205, a demo display process is executed. In the demo display process, a predetermined start waiting period (for example, 0.1 sec) for starting a demo elapses without starting a new game round after the end of the game round in a situation where the open / close execution mode is not in progress. Executes the determination process of whether or not it has been done. Further, after the power supply to the MPU 52 is started or the pachinko machine 10 is reset, a predetermined start waiting period (for example, 3 sec) for starting the demo has elapsed without starting a new game round. Executes the determination process of whether or not it has been done. Then, if it is determined that the elapse has passed, a command for displaying a demo is transmitted to the voice emission control device 60.

なお、デモ表示とは、予め定められた開始待ち期間が経過している場合に、図柄表示装置31の表示面Gにて表示される開始待ち演出のことをいう。デモ画像では、図柄列SA1〜SA3上に停止表示されている図柄が所定の動作を行っている画像が表示されるが、これに限定されることはなく、例えば、図柄が所定の動作を行っている画像の表示の後に又はそれに代えてメーカ名、機種名若しくは所定のキャラクタによる動画が表示される構成としてもよい。また、図柄列SA1〜SA3上において変動表示される図柄のアニメーションによりデモ表示を行う構成においては、当該図柄として、直前の遊技回で最終停止表示された図柄を用いる構成としてもよい。この場合、デモ表示の多様化が図られる。 The demo display refers to a start waiting effect displayed on the display surface G of the symbol display device 31 when a predetermined start waiting period has elapsed. In the demo image, an image in which the symbols stopped and displayed on the symbol columns SA1 to SA3 perform a predetermined operation is displayed, but the image is not limited to this, and for example, the symbol performs a predetermined operation. After or instead of displaying the image, a moving image with a maker name, a model name, or a predetermined character may be displayed. Further, in the configuration in which the demo display is performed by the animation of the symbols displayed in a variable manner on the symbol rows SA1 to SA3, the symbol that is finally stopped and displayed in the immediately preceding game round may be used as the symbol. In this case, the demo display will be diversified.

続くステップS206では、下作動口24に設けられた電動役物24aを駆動制御するための電役サポート用処理を実行する。この電役サポート用処理では、RAM54の電役保留エリア54cに格納されている情報を用いて電動役物24aを開放状態とするか否かの判定、電動役物24aの開閉処理及び役物用表示部34の表示制御などを行う。 In the following step S206, an electric service support process for driving and controlling the electric accessory 24a provided in the lower actuating port 24 is executed. In this electric service support process, the information stored in the electric service holding area 54c of the RAM 54 is used to determine whether or not to open the electric accessory 24a, to open / close the electric accessory 24a, and to use the electric accessory 24a. The display control of the display unit 34 and the like are performed.

その後、ステップS207では、遊技球発射制御処理を実行する。遊技球発射制御処理では、電源及び発射制御装置57から発射許可信号を入力していることを条件として、所定期間(例えば、0.6sec)に1回、遊技球発射機構58のソレノイドを励磁する。これにより、遊技球が遊技領域に向けて打ち出される。 After that, in step S207, the game ball launch control process is executed. In the game ball launch control process, the solenoid of the game ball launch mechanism 58 is excited once in a predetermined period (for example, 0.6 sec) on condition that the launch permission signal is input from the power supply and the launch control device 57. .. As a result, the game ball is launched toward the game area.

続くステップS208では、RAM54に電断フラグが格納されているか否かを判定する。電断フラグは、電断の発生が確認された場合に格納され、次回のメイン処理にて消去されるフラグである。 In the following step S208, it is determined whether or not the power failure flag is stored in the RAM 54. The power failure flag is a flag that is stored when the occurrence of a power failure is confirmed and is erased in the next main process.

電断フラグが格納されていない場合は、繰り返し実行される複数の処理の最後の処理が終了したこととなるので、ステップS209にて次の通常処理の実行タイミングに至ったか否か、すなわち前回の通常処理の開始から所定時間(本実施の形態では4msec)が経過したか否かを判定する。そして、次の通常処理の実行タイミングに至るまでの残余時間内において、乱数初期値カウンタCINI及び変動種別カウンタCSの更新を繰り返し実行する。 If the power failure flag is not stored, it means that the last process of the plurality of processes to be repeatedly executed has been completed. Therefore, whether or not the execution timing of the next normal process has been reached in step S209, that is, the previous process. It is determined whether or not a predetermined time (4 msec in the present embodiment) has elapsed from the start of the normal process. Then, the random number initial value counter CINI and the variation type counter CS are repeatedly updated within the remaining time until the execution timing of the next normal process is reached.

つまり、ステップS210では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。また、ステップS211では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、それらのカウンタ値が最大値に達した際0にクリアする。 That is, in step S210, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is added by 1, and when the counter value reaches the maximum value, it is cleared to 0. Further, in step S211th, the variation type counter CS is updated. Specifically, the variation type counter CS is added by 1, and when the counter values reach the maximum value, the counter values are cleared to 0.

ここで、ステップS201〜S207の各処理の実行時間は遊技の状態に応じて変化するため、次の通常処理の実行タイミングに至るまでの残余時間は一定でなく変動する。故に、かかる残余時間を使用して乱数初期値カウンタCINIの更新を繰り返し実行することにより、乱数初期値カウンタCINI(すなわち、大当たり乱数カウンタC1の初期値)をランダムに更新することができ、同様に変動種別カウンタCSについてもランダムに更新することができる。 Here, since the execution time of each process of steps S201 to S207 changes according to the state of the game, the remaining time until the execution timing of the next normal process is not constant and fluctuates. Therefore, by repeatedly updating the random number initial value counter CINI using the remaining time, the random number initial value counter CINI (that is, the initial value of the jackpot random number counter C1) can be updated at random, and similarly. The variable type counter CS can also be updated at random.

一方、ステップS208にて、電断フラグが格納されていると判定した場合は、電源遮断が発生したことになるので、ステップS212以降の電断時処理を実行する。つまり、ステップS212では、タイマ割込み処理の発生を禁止し、その後、ステップS213にてRAM判定値を算出、保存し、ステップS214にてRAM54のアクセスを禁止した後に、電源が完全に遮断して処理が実行できなくなるまで無限ループを継続する。 On the other hand, if it is determined in step S208 that the power failure flag is stored, it means that the power supply has been cut off, so the power failure processing after step S212 is executed. That is, in step S212, the occurrence of timer interrupt processing is prohibited, then the RAM determination value is calculated and saved in step S213, access to the RAM 54 is prohibited in step S214, and then the power supply is completely shut off for processing. Continues an infinite loop until it can no longer be executed.

次に、ステップS203の遊技回制御処理を図8等のフローチャートを参照して説明する。 Next, the game times control process in step S203 will be described with reference to the flowchart of FIG.

遊技回制御処理では、先ずステップS301にて、開閉実行モード中か否かを判定する。開閉実行モード中である場合には、ステップS302以降の処理を実行することなく、本遊技回制御処理を終了する。つまり、開閉実行モード中である場合には、作動口23,24への入賞が発生しているか否かに関係なく、遊技回が開始されることはない。 In the game times control process, first, in step S301, it is determined whether or not the open / close execution mode is in progress. When the open / close execution mode is in progress, the game round control process is terminated without executing the processes after step S302. That is, in the open / close execution mode, the game round is not started regardless of whether or not the operating openings 23 and 24 have been won.

開閉実行モード中でない場合には、ステップS302にて、メイン表示部33が変動表示中であるか否かを判定する。メイン表示部33が変動表示中でない場合には、ステップS303〜ステップS305の遊技回開始用処理に進む。 If it is not in the open / close execution mode, it is determined in step S302 whether or not the main display unit 33 is in the variable display. If the main display unit 33 is not in the variable display, the process proceeds to the game round start process of steps S303 to S305.

遊技回開始用処理では、先ずステップS303にて、始動保留球数Nが「0」であるか否かを判定する。始動保留球数Nが「0」である場合とは、保留球格納エリア54bに保留情報が記憶されていないことを意味する。したがって、そのまま本遊技回制御処理を終了する。 In the game round start process, first, in step S303, it is determined whether or not the start reserved ball number N is “0”. When the starting reserved ball number N is "0", it means that the reserved ball storage area 54b does not store the reserved information. Therefore, the game round control process is terminated as it is.

始動保留球数Nが「0」でない場合には、ステップS304にて保留球格納エリア54bの保留用エリアREに記憶されているデータを変動表示用に設定するためのデータ設定処理を実行する。具体的には、保留用エリアREの第1保留エリアRE1に格納されているデータを実行エリアAEにシフトする。その後、第1保留エリアRE1〜第4保留エリアRE4に格納されているデータを下位エリア側に順にシフトさせる。その後、ステップS305にて変動開始処理を実行した後に、本遊技回制御処理を終了する。 If the number of start reserved balls N is not "0", the data setting process for setting the data stored in the hold area RE of the hold ball storage area 54b for variable display is executed in step S304. Specifically, the data stored in the first hold area RE1 of the hold area RE is shifted to the execution area AE. After that, the data stored in the first reserved area RE1 to the fourth reserved area RE4 are sequentially shifted to the lower area side. After that, after executing the fluctuation start processing in step S305, the main game times control processing is terminated.

ステップS305の変動開始処理について、図9のフローチャートを参照しながら説明する。 The fluctuation start processing in step S305 will be described with reference to the flowchart of FIG.

ステップS401にて、今回の変動開始処理に対応した保留情報が大当たり当選に対応しているか否かを判定するための当否判定処理を実行する。具体的には実行エリアAEにシフトされた保留情報のうち大当たり乱数カウンタC1に係る数値情報と、現状の当否抽選モードに対応した当否テーブルとを参照して、大当たり当選となるか否かを判定する。 In step S401, a win / fail determination process for determining whether or not the hold information corresponding to the current fluctuation start process corresponds to the jackpot winning is executed. Specifically, among the pending information shifted to the execution area AE, the numerical information related to the jackpot random number counter C1 and the winning / failing table corresponding to the current winning / losing lottery mode are referred to to determine whether or not the jackpot is won. do.

続くステップS402では大当たり当選であるか否かを判定する。大当たり当選である場合には、ステップS403にて種別判定処理を実行する。種別判定処理では、実行エリアAEにシフトされた保留情報のうち大当たり種別カウンタC2に係る数値情報と、振分テーブルとを参照して、大当たり種別を特定する。 In the following step S402, it is determined whether or not the jackpot is won. If the jackpot is won, the type determination process is executed in step S403. In the type determination process, the jackpot type is specified by referring to the numerical information related to the jackpot type counter C2 and the distribution table among the reserved information shifted to the execution area AE.

続くステップS404では、大当たり結果に対応した停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている大当たり結果用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この大当たり結果用の停止結果テーブルには、メイン表示部33に停止表示される絵柄の態様の種類が、大当たり結果の種類毎に相違させて設定されており、ステップS404では、ステップS403にて特定した大当たり結果の種類に応じた絵柄の態様の情報をRAM54に記憶する。 In the following step S404, the stop result setting process corresponding to the jackpot result is executed. Specifically, the information on the mode of the pattern to be finally stopped and displayed on the main display unit 33 in the game times related to the start of this fluctuation is specified from the stop result table for the jackpot result stored in advance in the ROM 53. The specified information is stored in the RAM 54. In the stop result table for the jackpot result, the type of the pattern to be stopped and displayed on the main display unit 33 is set differently for each type of the jackpot result, and is specified in step S403 in step S404. Information on the mode of the pattern according to the type of the jackpot result is stored in the RAM 54.

一方、ステップS402にて、大当たり当選ではないと判定した場合には、ステップS405にて、外れ時用の停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている外れ時用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この場合に選択される絵柄の態様の情報は、大当たり結果の場合に選択される絵柄の態様の情報とは異なっている。 On the other hand, if it is determined in step S402 that the jackpot is not won, in step S405, the stop result setting process for the time of loss is executed. Specifically, the information of the mode of the pattern to be finally stopped and displayed on the main display unit 33 in the game times related to the start of the fluctuation this time is specified from the stop result table for the time of disconnection stored in advance in the ROM 53. The specified information is stored in the RAM 54. The information on the aspect of the pattern selected in this case is different from the information on the aspect of the pattern selected in the case of the jackpot result.

ステップS404又はステップS405の処理を実行した後は、ステップS406にて、変動表示時間の設定処理を実行する。 After executing the process of step S404 or step S405, the variable display time setting process is executed in step S406.

かかる処理では、RAM54の抽選カウンタ用バッファ54aにおける変動種別カウンタ用バッファに格納されている変動種別カウンタCSの値を取得する。また、今回の遊技回において図柄表示装置31にてリーチ表示が発生するか否かを判定する。具体的には、今回の変動開始に係る遊技回が大当たり結果である場合には、リーチ表示が発生すると判定する。また、大当たり結果ではない場合であっても、実行エリアAEに格納されているリーチ乱数カウンタC3に係る数値情報がリーチ発生に対応した数値情報である場合には、リーチ表示が発生すると判定する。 In such a process, the value of the variation type counter CS stored in the variation type counter buffer in the lottery counter buffer 54a of the RAM 54 is acquired. In addition, it is determined whether or not the reach display is generated by the symbol display device 31 in this game round. Specifically, when the game times related to the start of the fluctuation this time are the big hit results, it is determined that the reach display occurs. Further, even if it is not a big hit result, if the numerical information related to the reach random number counter C3 stored in the execution area AE is the numerical information corresponding to the reach occurrence, it is determined that the reach display occurs.

リーチ表示が発生すると判定した場合には、ROM53に記憶されているリーチ発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報をRAM54に設けられた変動表示時間カウンタにセットする。一方、リーチ表示が発生しないと判定した場合には、ROM53に記憶されているリーチ非発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報を上記変動表示時間カウンタにセットする。ちなみに、リーチ非発生用変動表示時間テーブルを参照して取得され得る変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得され得る変動表示時間と異なっている。 When it is determined that the reach display occurs, the variation display time information corresponding to the value of the current variation type counter CS is acquired by referring to the variation display time table for the reach generation stored in the ROM 53, and the variation thereof. The display time information is set in the variable display time counter provided in the RAM 54. On the other hand, when it is determined that the reach display does not occur, the variation display time information corresponding to the value of the current variation type counter CS is acquired by referring to the variation display time table for non-reach storage stored in the ROM 53. Then, the fluctuation display time information is set in the fluctuation display time counter. Incidentally, the variation display time that can be acquired by referring to the variation display time table for non-reach generation is different from the variation display time that can be acquired by referring to the variation display time table for reach generation.

なお、リーチ非発生時における変動表示時間情報は、始動保留球数の数が多いほど、変動表示時間が短くなるように設定されている。また、サポートモードが高頻度サポートモードである状況においては低頻度サポートモードである状況よりも、保留情報の数が同一である場合で比較して、短い変動表示時間が選択されるようにリーチ非発生用変動表示時間テーブルが設定されている。但し、これに限定されることはなく、始動保留球数やサポートモードに応じて変動表示時間が変動しない構成としてもよく、上記の関係とは逆であってもよい。さらには、リーチ発生時における変動表示時間に対して、上記構成を適用してもよい。また、各種大当たり結果の場合、外れリーチ時の場合及びリーチ非発生の場合のそれぞれに対して個別に変動表示時間テーブルが設定されていてもよい。 The fluctuation display time information when the reach does not occur is set so that the fluctuation display time becomes shorter as the number of start-holding balls increases. Also, in the situation where the support mode is the high frequency support mode, the reach is not selected so that the shorter variable display time is selected as compared with the case where the number of pending information is the same as in the situation where the support mode is the low frequency support mode. The variation display time table for occurrence is set. However, the present invention is not limited to this, and the variable display time may not fluctuate according to the number of start-holding balls and the support mode, and the above relationship may be reversed. Further, the above configuration may be applied to the variable display time when reach occurs. Further, in the case of various jackpot results, a variable display time table may be set individually for each of the case of off-reach and the case of non-reach.

ステップS406にて、変動表示時間の設定処理を実行した後は、ステップS407にて、変動用コマンド及び種別コマンドを設定する。変動用コマンドには、変動表示時間の情報が含まれる。ここで、上記のとおりリーチ非発生用変動表示時間テーブルを参照して取得される変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得される変動表示時間と異なっているため、変動用コマンドにリーチ発生の有無の情報が含まれていなかったとしても、サブ側の制御装置である音声発光制御装置60では変動表示時間の情報からリーチ発生の有無を特定することは可能である。この点、変動用コマンドには、リーチ発生の有無を示す情報が含まれているとも言える。なお、変動用コマンドにリーチ発生の有無を直接示す情報が含まれていてもよい。 After executing the variation display time setting process in step S406, the variation command and the type command are set in step S407. The variation command includes information on the variation display time. Here, as described above, the variation display time acquired by referring to the variation display time table for non-reach generation is different from the variation display time acquired by referring to the variation display time table for reach generation, so that it varies. Even if the command does not include information on whether or not reach has occurred, the voice emission control device 60, which is a control device on the sub side, can specify whether or not reach has occurred from the information on the variable display time. In this respect, it can be said that the variable command contains information indicating whether or not reach has occurred. It should be noted that the variable command may include information that directly indicates whether or not reach has occurred.

また、種別コマンドには、遊技結果の情報が含まれる。つまり、種別コマンドには、遊技結果の情報として、通常大当たり結果の情報、明示2R確変大当たり結果の情報、15R確変大当たり結果の情報、及び外れ結果の情報のいずれかが含まれる。 In addition, the type command includes information on the game result. That is, the type command includes any one of the normal jackpot result information, the explicit 2R probability variation jackpot result information, the 15R probability variation jackpot result information, and the deviation result information as the game result information.

ステップS407にて設定された変動用コマンド及び種別コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。ステップS407の処理を実行した後は、ステップS408にてメイン表示部33において絵柄の変動表示を開始させる。その後、本変動開始処理を終了する。 The variation command and the type command set in step S407 are transmitted to the voice emission control device 60 in step S201 in the normal process (FIG. 7). After the process of step S407 is executed, the variable display of the pattern is started on the main display unit 33 in step S408. After that, this fluctuation start processing is terminated.

遊技回制御処理(図8)の説明に戻り、メイン表示部33が変動表示中である場合には、ステップS306〜ステップS309の処理を実行する。当該処理では、先ずステップS306にて、今回の遊技回の変動表示時間が経過したか否かを判定する。 Returning to the description of the game times control process (FIG. 8), when the main display unit 33 is in the variable display, the processes of steps S306 to S309 are executed. In this process, first, in step S306, it is determined whether or not the variation display time of the current game times has elapsed.

変動表示時間が経過していない場合には、ステップS307にて変動表示用処理を実行する。変動表示用処理では、メイン表示部33における表示態様を変更する。その後、本遊技回制御処理を終了する。 If the variation display time has not elapsed, the variation display process is executed in step S307. In the variable display process, the display mode on the main display unit 33 is changed. After that, the game round control process is terminated.

変動表示時間が経過している場合には、ステップS308にて変動終了処理を実行する。変動終了処理では、上記ステップS404又はステップS405の処理にてRAM54に記憶した情報を特定し、その情報に対応した絵柄の態様がメイン表示部33にて表示されるように当該メイン表示部33を表示制御する。 If the variation display time has elapsed, the variation end process is executed in step S308. In the variable end processing, the information stored in the RAM 54 in the process of step S404 or step S405 is specified, and the main display unit 33 is displayed so that the mode of the pattern corresponding to the information is displayed on the main display unit 33. Display control.

続くステップS309では、変動終了コマンドを設定する。ここで設定された変動終了コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。音声発光制御装置60では、受信した変動終了コマンドに基づいて、その遊技回における演出を終了させる。また、それに対応したコマンドが、音声発光制御装置60から表示制御装置70に送信され、表示制御装置70ではその遊技回における最終停止図柄の組み合わせを確定表示(最終停止表示)させる。その後、本遊技回制御処理を終了する。 In the following step S309, a variable end command is set. The variable end command set here is transmitted to the voice emission control device 60 in step S201 in the normal process (FIG. 7). The voice emission control device 60 ends the effect in the game round based on the received variable end command. Further, a command corresponding to the command is transmitted from the voice emission control device 60 to the display control device 70, and the display control device 70 makes a definite display (final stop display) of the combination of the final stop symbols in the game round. After that, the game round control process is terminated.

<主制御装置50のMPU52における処理構成の別形態>
MPU52にて実行される処理構成は、上記のものに限定されることはなく、以下の処理構成であってもよい。図10及び図11は、MPU52における処理の別形態を説明するためのフローチャートであり、図10は動作電力の供給が開始された場合に実行されるメイン処理を示し、図11は当該メイン処理に対して定期的に割り込んで起動されるタイマ割込み処理を示す。
<Another form of the processing configuration in the MPU 52 of the main control device 50>
The processing configuration executed by the MPU 52 is not limited to the above, and may be the following processing configuration. 10 and 11 are flowcharts for explaining another form of the process in the MPU 52, FIG. 10 shows the main process executed when the supply of operating power is started, and FIG. 11 shows the main process. On the other hand, the timer interrupt processing that is started by interrupting periodically is shown.

図10に示すように、メイン処理では先ずステップS501にて、電源投入に伴う立ち上げ処理を実行する。続くステップS502では、RAM54のアクセスを許可する。その後、ステップS503では、電源及び発射制御装置57に設けられたRAM消去スイッチがオンされているか否かを判定し、続くステップS504ではRAM54に電断フラグが格納されているか否かを判定する。また、ステップS505ではRAM判定値を算出し、続くステップS506では、そのRAM判定値が電源遮断時に保存したRAM判定値と一致するか否か、すなわち記憶保持されたデータの有効性を判定する。 As shown in FIG. 10, in the main process, first, in step S501, the start-up process accompanying the power-on is executed. In the following step S502, access to the RAM 54 is permitted. After that, in step S503, it is determined whether or not the RAM erasing switch provided in the power supply and the emission control device 57 is turned on, and in the subsequent step S504, it is determined whether or not the power failure flag is stored in the RAM 54. Further, in step S505, the RAM determination value is calculated, and in the subsequent step S506, it is determined whether or not the RAM determination value matches the RAM determination value stored when the power is cut off, that is, the validity of the stored data is determined.

RAM消去スイッチがオンされておらず、さらに電断フラグが格納されているとともにRAM判定値が正常である場合には、ステップS507にてRAM54から電断フラグを消去するとともに、ステップS508にてRAM判定値を消去する。その後、ステップS509にて割込み許可を設定し、ステップS510にて乱数初期値カウンタCINIの更新を実行し、ステップS511にて変動種別カウンタCSの更新を実行する。そして、ステップS509〜ステップS511の処理を実行した後は、ステップS509に戻り、ステップS509〜ステップS511の処理を繰り返す。 If the RAM erase switch is not turned on, the power cut flag is stored, and the RAM determination value is normal, the power cut flag is erased from the RAM 54 in step S507, and the RAM is cleared in step S508. Erase the judgment value. After that, the interrupt permission is set in step S509, the random number initial value counter CINI is updated in step S510, and the variation type counter CS is updated in step S511. Then, after executing the processes of steps S509 to S511, the process returns to step S509 and the processes of steps S509 to S511 are repeated.

なお、ステップS509にて割込み許可の設定を行った直後に割込み禁止の設定を行う構成としてもよい。この場合、後述するタイマ割込み処理は、割込み禁止の設定が行われている状況において起動タイミングとなった場合には、次回の割込み許可の設定が行われるまでその実行が待機される構成としてもよい。 It should be noted that the interrupt may be disabled immediately after the interrupt enable is set in step S509. In this case, the timer interrupt processing described later may be configured to wait for execution until the next interrupt permission is set when the start timing is reached in the situation where the interrupt disable is set. ..

一方、RAM消去スイッチが押されていれば、ステップS512〜ステップS513の処理に移行する。また、電源遮断の発生情報が設定されていない場合や、RAM判定値により記憶保持されたデータの異常が確認された場合も同様にステップS512〜ステップS513の処理に移行する。 On the other hand, if the RAM erase switch is pressed, the process proceeds to steps S512 to S513. Further, when the power cutoff occurrence information is not set or when an abnormality in the stored data is confirmed by the RAM determination value, the process proceeds to the process of steps S512 to S513 in the same manner.

ステップS512では、RAM54の使用領域を「0」にクリアし、ステップS513では、RAM54の初期設定を実行する。その後、ステップS509〜ステップS511の処理に移行する。 In step S512, the used area of the RAM 54 is cleared to "0", and in step S513, the initial setting of the RAM 54 is executed. After that, the process proceeds from step S509 to step S511.

図11は、当該別形態におけるタイマ割込み処理を示すフローチャートである。 FIG. 11 is a flowchart showing the timer interrupt processing in the other embodiment.

タイマ割込み処理では、ステップS601〜ステップS605にて、上記ステップS101〜ステップS105と同様の処理を実行する。 In the timer interrupt processing, the same processing as in steps S101 to S105 is executed in steps S601 to S605.

その後、ステップS606にて、変動種別カウンタCSの更新処理を実行し、ステップS607にて遊技回制御処理を実行し、ステップS608にて遊技状態移行処理を実行し、ステップS609にてデモ表示用処理を実行し、ステップS610にて電役サポート用処理を実行し、ステップS611にて遊技球発射制御処理を実行し、ステップS612にて外部出力処理を実行する。その後、本タイマ割込み処理を終了する。これら各処理の詳細な内容は、上記図7〜図9を参照して説明した内容と同様である。 After that, in step S606, the variation type counter CS update process is executed, in step S607, the game times control process is executed, in step S608, the game state transition process is executed, and in step S609, the demo display process is executed. Is executed, the electric service support process is executed in step S610, the game ball launch control process is executed in step S611, and the external output process is executed in step S612. After that, the timer interrupt processing is terminated. The detailed contents of each of these processes are the same as those described with reference to FIGS. 7 to 9 above.

<音声発光制御装置60>
次に、音声発光制御装置60について説明する。
<Voice emission control device 60>
Next, the voice emission control device 60 will be described.

音声発光制御装置60は、図4に示すように、MPU62が搭載された音声発光制御基板61を具備している。MPU62には、当該MPU62により実行される各種の制御プログラムや固定値データを記憶したROM63と、そのROM63内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM64と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。 As shown in FIG. 4, the voice emission control device 60 includes a voice emission control board 61 on which the MPU 62 is mounted. The MPU 62 is a ROM 63 that stores various control programs and fixed value data executed by the MPU 62, and a memory for temporarily storing various data and the like when the control program stored in the ROM 63 is executed. A certain RAM 64, an interrupt circuit, a timer circuit, a data input / output circuit, various counter circuits as a random number generator, and the like are built-in.

なお、ROM63として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM63と、RAM64とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。 As the ROM 63, a storage means (that is, a non-volatile storage means) that allows random access when reading a control program or fixed value data and does not require an external power supply for storage retention is used. Further, the configuration in which the control and calculation portion, the ROM 63, and the RAM 64 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions may be mounted as a separate chip. It may be installed.

MPU62には、入力ポート及び出力ポートがそれぞれ設けられている。MPU62の入力側には演出用操作装置48及び主制御装置50が接続されているとともに、MPU62の出力側には各種発光部35,36,44、スピーカ部45及び表示制御装置130が接続されている。 The MPU 62 is provided with an input port and an output port, respectively. An effect operation device 48 and a main control device 50 are connected to the input side of the MPU 62, and various light emitting units 35, 36, 44, a speaker unit 45, and a display control device 130 are connected to the output side of the MPU 62. There is.

MPU62では、主制御装置50から送信された変動用コマンドを受信することで、遊技回用の演出を開始させる必要があることを認識し、遊技回用演出開始処理を実行する。また、主制御装置50から送信された終了コマンドを受信することで、遊技回用の演出を終了させる必要があることを認識し、遊技回用演出終了処理を実行する。また、主制御装置50から送信された大当たり演出用の各種コマンドを受信することで、大当たり演出を開始させる必要があること又は進行させる必要があることを認識し、大当たり演出用処理を実行する。また、主制御装置50から送信されたデモ表示用のコマンドを受信することで、デモ表示を開始させる必要があることを認識し、デモ表示用処理を実行する。 The MPU 62 recognizes that it is necessary to start the effect for the game round by receiving the variable command transmitted from the main control device 50, and executes the game round effect start process. Further, by receiving the end command transmitted from the main control device 50, it is recognized that it is necessary to end the effect for the game round, and the game round effect end process is executed. Further, by receiving various commands for the jackpot effect transmitted from the main control device 50, it is recognized that the jackpot effect needs to be started or progressed, and the jackpot effect process is executed. Further, by receiving the demo display command transmitted from the main control device 50, it is recognized that the demo display needs to be started, and the demo display process is executed.

なお、MPU62において主制御装置50からコマンドを受信するとは、主制御装置50からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。 Note that receiving a command from the main control device 50 in the MPU 62 is not limited to a configuration in which the command is directly received from the main control device 50, but also includes a configuration in which the command relayed to the relay board is received.

遊技回用演出開始処理では、変動用コマンド及び種別コマンドの両コマンドに基づいて、該当遊技回の変動表示時間を把握する変動表示時間の把握処理と、リーチ表示の有無を把握するリーチ表示把握処理と、大当たり結果の有無を把握する大当たり結果発生の把握処理と、大当たり結果が発生する場合における大当たり種別を把握する大当たり種別の把握処理と、を実行する。また、リーチ表示把握処理、大当たり結果発生の把握処理及び大当たり種別の把握処理における把握結果に基づいて、本遊技回において図柄表示装置31の表示面Gに最終停止表示させる図柄の種類を決定する図柄種別把握処理を実行する。そして、上記各把握処理の結果に基づいて、変動表示時間の情報及び表示演出の種類の情報を含む変動パターンコマンドと、最終停止表示させる図柄の種類の情報を含む図柄指定コマンドを、表示制御装置130に送信する。 In the game rounding effect start processing, based on both the variable command and the type command, the variable display time grasping process for grasping the variable display time of the corresponding game round and the reach display grasping process for grasping the presence / absence of reach display are performed. And, the process of grasping the occurrence of the jackpot result for grasping the presence or absence of the jackpot result, and the process of grasping the jackpot type for grasping the jackpot type when the jackpot result occurs are executed. Further, based on the grasping results in the reach display grasping process, the jackpot result occurrence grasping process, and the jackpot type grasping process, the symbol that determines the type of the symbol to be finally stopped and displayed on the display surface G of the symbol display device 31 in this game round. Execute the type grasping process. Then, based on the result of each of the above grasping processes, the display control device issues a variation pattern command including information on the variation display time and information on the type of display effect, and a symbol designation command including information on the type of symbol to be finally stopped and displayed. Send to 130.

また、遊技回用演出開始処理では、上記各把握処理の他に、予告表示を行うか否かの予告表示抽選処理を実行する。この場合、当該抽選処理では、予告表示の種別抽選についても実行される。そして、予告表示の発生当選である場合には、予告表示の種別の情報を含む予告コマンドを、表示制御装置130に送信する。 Further, in the game rounding effect start process, in addition to the above-mentioned grasping processes, a notice display lottery process for whether or not to display a notice is executed. In this case, in the lottery process, the type lottery of the notice display is also executed. Then, if the notice display is won, a notice command including information on the type of the notice display is transmitted to the display control device 130.

また、遊技回用演出開始処理では、上記各処理の処理結果に基づいて、遊技回用の表示発光テーブルと遊技回用の音声テーブルとをROM63から読み出す。遊技回用の表示発光テーブルにより、該当する遊技回の進行過程における表示発光部44の発光態様が規定される。また、遊技回用の音声テーブルにより、該当する遊技回の進行過程におけるスピーカ部45からの出力態様が規定される。 Further, in the game turn effect start process, the display light emitting table for the game turn and the voice table for the game turn are read from the ROM 63 based on the processing results of each of the above processes. The display light emitting table for the game round defines the light emitting mode of the display light emitting unit 44 in the progress process of the corresponding game round. Further, the audio table for the game round defines the output mode from the speaker unit 45 in the progress process of the game round.

遊技回用演出終了処理では、現状の遊技回における表示発光部44の発光制御及びスピーカ部45の音声出力制御を終了する。また、当該遊技回用演出終了処理では、遊技回用演出を終了させるべき情報を含む終了コマンドを、表示制御装置130に送信する。 In the game round production end process, the light emission control of the display light emitting unit 44 and the voice output control of the speaker unit 45 in the current game round are terminated. Further, in the game rounding effect end processing, an end command including information for ending the game rounding effect is transmitted to the display control device 130.

大当たり演出用処理では、受信している大当たり演出用の各種コマンドに基づいて、オープニング時、各ラウンド時、各ラウンド間及びエンディング時などの演出態様を把握し、その把握結果に対応した大当たり演出用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、大当たり演出用の表示発光テーブルと大当たり演出用の音声テーブルとをROM63から読み出し、大当たり演出中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。 In the jackpot production process, based on the various commands for jackpot production received, the production mode such as opening, each round, between each round, and ending is grasped, and the jackpot production corresponding to the grasped result is grasped. Command is transmitted to the display control device 130. Further, based on the grasped result, the display light emitting table for the jackpot effect and the audio table for the jackpot effect are read from the ROM 63, and the light emitting mode of the display light emitting unit 44 and the output mode of the sound from the speaker unit 45 during the jackpot effect. Is specified.

デモ表示用処理では、受信しているデモ表示用のコマンドに基づいて、デモ表示の演出態様を把握し、その把握結果に対応したデモ表示用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、デモ表示用の表示発光テーブルとデモ表示用の音声テーブルとをROM63から読み出し、デモ表示中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。 In the demo display process, the demo display effect mode is grasped based on the received demo display command, and the demo display command corresponding to the grasped result is transmitted to the display control device 130. Further, based on the grasped result, the display light emitting table for the demo display and the audio table for the demo display are read from the ROM 63, and the light emitting mode of the display light emitting unit 44 and the sound output mode from the speaker unit 45 during the demo display. Is specified.

なお、主制御装置50から送信されたコマンドに基づいてMPU62にて実行される処理は、上記処理以外にも、第1保留発光部35や第2保留発光部36を発光制御するための処理が含まれる。 In addition to the above processing, the processing executed by the MPU 62 based on the command transmitted from the main control device 50 includes processing for controlling the light emission of the first reserved light emitting unit 35 and the second reserved light emitting unit 36. included.

また、MPU62では、演出用操作装置48の操作部が操作されたことに基づき当該演出用操作装置48から送信される操作信号を受信することで、演出用操作装置48が操作されたことを認識し、操作対応処理を実行する。また、操作されている状態が解除された場合にも操作信号の立下りによってそれを認識し、操作対応処理を実行する。 Further, the MPU 62 recognizes that the effect operation device 48 has been operated by receiving an operation signal transmitted from the effect operation device 48 based on the operation of the operation unit of the effect operation device 48. And execute the operation correspondence process. In addition, even when the operated state is canceled, it is recognized by the falling edge of the operation signal, and the operation correspondence process is executed.

ここで、演出用操作装置48の操作に対応した演出の一部として、演出用操作装置48が操作されたことに基づき、表示モードが変更される演出が実行される。表示モードとは、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。かかる表示モードの詳細な内容、及び演出用操作装置48の操作に基づく表示モードの切り換えに係る処理構成については後に詳細に説明する。 Here, as a part of the effect corresponding to the operation of the effect operation device 48, the effect in which the display mode is changed is executed based on the operation of the effect operation device 48. The display mode is a state in which the type of the standby image displayed until the game round is started and the type of the game round image displayed in the situation where the game round is being executed are set to a predetermined type, and there are a plurality of types. Display mode is set. The detailed contents of the display mode and the processing configuration related to the switching of the display mode based on the operation of the effect operation device 48 will be described in detail later.

<表示制御装置130>
表示制御装置130のハード構成について説明する。
<Display control device 130>
The hardware configuration of the display control device 130 will be described.

表示制御装置130は、図4に示すように、表示CPU131と、ワークRAM132と、メモリモジュール133と、VRAM134と、ビデオディスプレイプロセッサ(VDP)135と、が搭載された表示制御基板136を備えている。 As shown in FIG. 4, the display control device 130 includes a display control board 136 on which a display CPU 131, a work RAM 132, a memory module 133, a VRAM 134, and a video display processor (VDP) 135 are mounted. ..

表示CPU131は、表示制御装置130においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU131は表示制御基板136に搭載された入力ポート137に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート137を通じて表示CPU131に入力される。なお、表示CPU131において音声発光制御装置60からコマンドを受信するとは、音声発光制御装置60からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。 The display CPU 131 has a function as a main control unit in the display control device 130, and reads, interprets, and executes a control program or the like. Specifically, the display CPU 131 is connected to the input port 137 mounted on the display control board 136 via a bus, and various commands transmitted from the voice emission control device 60 are input to the display CPU 131 through the input port 137. Will be done. It should be noted that receiving a command from the voice emission control device 60 in the display CPU 131 is not limited to a configuration in which the command is directly received from the voice emission control device 60, but also includes a configuration in which the command relayed to the relay board is received. Is done.

表示CPU131は、バスを介してワークRAM132、メモリモジュール133及びVRAM134と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール133に記憶された各種データをワークRAM132やVRAM134に転送させる転送指示を行う。また、表示CPU131は、バスを介してVDP135と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置31に3次元画像(3D画像)を表示させるための描画指示を行う。以下、メモリモジュール133、ワークRAM132、VRAM134及びVDP135について説明する。 The display CPU 131 is connected to the work RAM 132, the memory module 133, and the VRAM 134 via a bus, and various data stored in the memory module 133 are transferred to the work RAM 132 and the VRAM 134 based on a command received from the voice emission control device 60. Give a transfer instruction to transfer. Further, the display CPU 131 is connected to the VDP 135 via a bus, and gives a drawing instruction for displaying a three-dimensional image (3D image) on the symbol display device 31 based on a command received from the voice emission control device 60. conduct. Hereinafter, the memory module 133, the work RAM 132, the VRAM 134, and the VDP 135 will be described.

メモリモジュール133は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、3次元画像を表示するための各種画像データを予め記憶している記憶手段である。当該メモリモジュール133は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール133は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。 The memory module 133 is a storage means that stores control data including a control program and fixed value data in advance, and stores various image data for displaying a three-dimensional image in advance. The memory module 133 includes a non-volatile semiconductor memory that does not require external power supply for storage retention. Incidentally, the storage capacity is 4 Gbits, but such a storage capacity is arbitrary as long as the control in the display control device 130 is satisfactorily executed. Further, the memory module 133 is used as a non-write and read-only memory (ROM) when the pachinko machine 10 is used.

メモリモジュール133に記憶されている各種画像データには、図柄表示装置31に表示される図柄やキャラクタなどのオブジェクト用の画像データと、当該オブジェクトに貼り付けられるテクスチャ用の画像データと、1フレーム分の画像において最背面の画像を構成する背面用の画像データとが含まれている。 The various image data stored in the memory module 133 include image data for objects such as symbols and characters displayed on the symbol display device 31, image data for textures attached to the object, and one frame. In the image of, the image data for the back surface constituting the rearmost image is included.

ここで、オブジェクトとは、仮想3次元空間に相当する3次元の座標系であるワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。また、ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。オブジェクト用の画像データには、例えばサーフェスモデルを適用するため、オブジェクト毎に予め設定された基準座標を原点として、各ポリゴンの頂点座標情報が設定されている。つまり、各オブジェクト用の画像データでは、自己完結のローカル座標系において各ポリゴンの相対位置(すなわち、向きやサイズ)が3次元的に定義されている。 Here, the object is a three-dimensional virtual object arranged in the world coordinate system, which is a three-dimensional coordinate system corresponding to a virtual three-dimensional space, and is three-dimensional information composed of a plurality of polygons. Further, the polygon is a polygonal plane defined by a plurality of vertices of three-dimensional coordinates. For example, in order to apply a surface model to the image data for an object, the vertex coordinate information of each polygon is set with the reference coordinates set in advance for each object as the origin. That is, in the image data for each object, the relative position (that is, the direction and size) of each polygon is three-dimensionally defined in the self-contained local coordinate system.

テクスチャとは、オブジェクトの各ポリゴンに貼り付ける画像であり、テクスチャがオブジェクトに貼り付けられることにより、オブジェクトに対応する画像、例えば図柄やキャラクタなどを含む表示画像が生成される。テクスチャ用の画像データの持ち方は、任意であるが、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。 The texture is an image to be pasted on each polygon of the object, and when the texture is pasted on the object, an image corresponding to the object, for example, a display image including a pattern, a character, or the like is generated. The way the image data for the texture is held is arbitrary, but includes at least a combination of, for example, bitmap format data and a color palette table referred to when determining the display color at each pixel of the bitmap image. There is.

最背面の画像は、2次元画像(2D画像)を構成している。背面用の画像データの持ち方は、任意であるが、例えば2次元の静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。ちなみに、当該背面用の画像データがワールド座標系に配置される場合には板ポリゴンが利用される。 The rearmost image constitutes a two-dimensional image (2D image). The way of holding the image data for the back surface is arbitrary, but for example, the two-dimensional still image data is stored and held as compressed JPEG format data. Incidentally, when the image data for the back surface is arranged in the world coordinate system, a plate polygon is used.

ワークRAM132は、メモリモジュール133から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM132は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、ワークRAM132は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The work RAM 132 is a storage means for temporarily storing control data read and transferred from the memory module 133, and for temporarily storing flags and the like. The work RAM 132 has a volatile semiconductor memory that requires an external power supply for storage retention, and in detail, a DRAM is used as the semiconductor memory. However, it is not limited to DRAM, and other RAM such as SRAM may be used. The storage capacity is 1 Gbit, but the storage capacity is arbitrary as long as the control in the display control device 130 is satisfactorily executed. Further, the work RAM 132 is used for both reading and writing when the pachinko machine 10 is used.

ワークRAM132には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から制御用データが転送される。そして、表示CPU131は、ワークRAM132に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。 Control data is transferred from the memory module 133 to the work RAM 132 based on a data transfer instruction from the display CPU 131 to the memory module 133. Then, the display CPU 131 reads the control data transferred to the work RAM 132 into the internal memory area (register group) as needed, and executes various processes.

VRAM134は、図柄表示装置31に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM134は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該VRAM134は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The VRAM 134 is a storage means for temporarily storing various data necessary for outputting an image to the symbol display device 31. The VRAM 134 has a volatile semiconductor memory that requires external power supply for storage retention, and in detail, SDRAM is used as the semiconductor memory. However, the present invention is not limited to DRAM, and other RAM such as DRAM, SRAM or dual port RAM may be used. The storage capacity is 2 Gbits, but the storage capacity is arbitrary as long as the control in the display control device 130 is satisfactorily executed. Further, the VRAM 134 is used for both reading and writing when the pachinko machine 10 is used.

VRAM134は展開用バッファ141を備えており、展開用バッファ141には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から画像データが転送される。この場合、当該画像データは、その画像データを用いたVDP135における処理の実行タイミングとなるまでに事前に転送される。また、VRAM134には、VDP135により描画データ(生成データ)が作成されるフレームバッファ142が設けられている。また、VRAM134には、Zバッファ143、スクリーン用バッファ144及びモード用バッファ145が設けられているが、これらの詳細については後に説明する。 The VRAM 134 includes a decompression buffer 141, and image data is transferred from the memory module 133 to the decompression buffer 141 based on a data transfer instruction from the display CPU 131 to the memory module 133. In this case, the image data is transferred in advance before the execution timing of the process in the VDP 135 using the image data. Further, the VRAM 134 is provided with a frame buffer 142 in which drawing data (generated data) is created by the VDP 135. Further, the VRAM 134 is provided with a Z buffer 143, a screen buffer 144, and a mode buffer 145, and details of these will be described later.

VDP135は、表示CPU131からの描画指示に基づき、展開用バッファ141に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置31に対して描画を行う画像生成デバイスであり、図柄表示装置31において液晶表示部31aを駆動制御するように組み込まれた画像処理デバイス31bを操作する一種の描画回路である。VDP135はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。 The VDP 135 is an image generation device that draws on the symbol display device 31 by specifically processing the data stored and held in the expansion buffer 141 based on the drawing instruction from the display CPU 131. It is a kind of drawing circuit that operates an image processing device 31b incorporated so as to drive and control a liquid crystal display unit 31a in a symbol display device 31. Since the VDP135 is an IC chip, it is also called a "drawing chip", and its substance can be said to be a microcomputer chip with a built-in firmware dedicated to drawing.

詳細には、VDP135は、ジオメトリ演算部151と、レンダリング部152と、レジスタ153と、表示モード制御部154と、表示回路155と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU131用のI/F156及びVRAM134用のI/F157と接続されている。 Specifically, the VDP 135 includes a geometry calculation unit 151, a rendering unit 152, a register 153, a display mode control unit 154, and a display circuit 155. Further, these circuits are connected to each other via a bus, and are also connected to the I / F 156 for the display CPU 131 and the I / F 157 for the VRAM 134.

表示CPU131用のI/F156は、表示CPU131から送信された描画指示情報としての描画リストをレジスタ153に記憶させる。ジオメトリ演算部151は、レジスタ153に格納された描画リストに基づいて、配置対象として指定されているオブジェクトをワールド座標系内に配置する。また、ジオメトリ演算部151は、オブジェクトをワールド座標系内に配置する場合及び配置した後に、各種の座標変換処理を実行する。そして、最終的に表示面Gのスクリーン座標に対応する3次元空間に対応させて、オブジェクトをクリッピングする。 The I / F 156 for the display CPU 131 stores the drawing list as the drawing instruction information transmitted from the display CPU 131 in the register 153. The geometry calculation unit 151 arranges the object designated as the arrangement target in the world coordinate system based on the drawing list stored in the register 153. Further, the geometry calculation unit 151 executes various coordinate conversion processes when and after arranging the object in the world coordinate system. Finally, the object is clipped so as to correspond to the three-dimensional space corresponding to the screen coordinates of the display surface G.

レンダリング部152は、レジスタ153に格納された描画リストに基づいて、クリッピングされた各オブジェクトに対して光源調整や、テクスチャの貼付を行い、オブジェクトの外観を決定する。また、レンダリング部152は、各オブジェクトを所定の2次元平面上に投影させて2次元データを作成するとともに、深度情報に基づく各種調整を行い2次元データである1フレーム分の描画データをフレームバッファ142に作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置31の表示面Gにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるのに必要なデータのことをいう。 The rendering unit 152 determines the appearance of the object by adjusting the light source and pasting the texture to each clipped object based on the drawing list stored in the register 153. Further, the rendering unit 152 creates two-dimensional data by projecting each object on a predetermined two-dimensional plane, makes various adjustments based on the depth information, and stores drawing data for one frame, which is the two-dimensional data, as a frame buffer. Create in 142. The drawing data for one frame is the data necessary for displaying the image at one update timing in the configuration in which the image on the display surface G of the symbol display device 31 is updated at a predetermined update timing. say.

なお、ジオメトリ演算部151及びレンダリング部152が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリをVDP135に内蔵させ、当該制御プログラムと描画リストの内容によってジオメトリ演算部151及びレンダリング部152が処理を実行する構成としてもよい。また、メモリモジュール133から制御プログラムを事前に読み出す構成としてもよい。また、ジオメトリ演算部151及びレンダリング部152がプログラムを利用することなく、描画リストに対応したハード回路の動作のみで処理を実行する構成としてもよい。 In addition, all the control programs for operating the geometry calculation unit 151 and the rendering unit 152 may be provided by the drawing list, and a memory in which the control program is stored in advance is built in the VDP 135, and the control program and the drawing list are provided. The geometry calculation unit 151 and the rendering unit 152 may execute the processing depending on the contents of the above. Further, the control program may be read in advance from the memory module 133. Further, the geometry calculation unit 151 and the rendering unit 152 may be configured to execute the process only by the operation of the hardware circuit corresponding to the drawing list without using the program.

ここで、フレームバッファ142には、複数のフレーム領域142a,142bが設けられている。具体的には、第1フレーム領域142aと、第2フレーム領域142bとが設けられている。これら各フレーム領域142a,142bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域142a,142bにはそれぞれ、液晶表示部31a(すなわち表示面G)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。 Here, the frame buffer 142 is provided with a plurality of frame areas 142a and 142b. Specifically, a first frame area 142a and a second frame area 142b are provided. Each of these frame areas 142a and 142b is set to a capacity capable of storing drawing data for one frame. Specifically, each of the frame areas 142a and 142b includes a large number of unit areas corresponding to the dots (pixels) of the liquid crystal display unit 31a (that is, the display surface G) at a predetermined magnification. Each unit area has a storage capacity capable of storing data for specifying which color is to be displayed. More specifically, a full-color method is adopted, and 256 colors can be set for each of R (red), G (green), and B (blue) at each dot. Corresponding to this, 1 byte (8 bits) is allocated to each RGB color in each unit area. That is, each unit area has a storage capacity of at least 3 bytes.

なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。 The method is not limited to the full-color method. For example, in a configuration in which only 256 colors can be displayed at each dot, the storage capacity required for storing color information in each unit area may be 1 byte.

フレームバッファ142に第1フレーム領域142a及び第2フレーム領域142bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置31への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ142として、ダブルバッファ方式が採用されている。 Since the frame buffer 142 is provided with the first frame area 142a and the second frame area 142b, drawing on the symbol display device 31 is executed using the drawing data created in one frame area. , Creation of drawing data to be used in the future is executed for other frame areas. That is, the double buffer method is adopted as the frame buffer 142.

表示回路155では、第1フレーム領域142a又は第2フレーム領域142bに作成された描画データに基づいて液晶表示部31aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路155に接続された出力ポート138を介して図柄表示装置31に出力される。詳細には、出力対象のフレーム領域142a,142bから表示回路155へ描画データが転送される。その転送された描画データは図柄表示装置31の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置31の各ドットに対応した画像信号が生成されて出力される。なお、表示回路155からは水平同期信号又は垂直同期信号などの同期信号も出力される。 In the display circuit 155, an image signal corresponding to each dot of the liquid crystal display unit 31a is generated based on the drawing data created in the first frame area 142a or the second frame area 142b, and the image signal is transmitted to the display circuit 155. It is output to the symbol display device 31 via the connected output port 138. Specifically, the drawing data is transferred from the output target frame areas 142a and 142b to the display circuit 155. The transferred drawing data is converted into gradation data by adjusting the resolution by a scaler (not shown) so as to correspond to the resolution of the symbol display device 31. Then, an image signal corresponding to each dot of the symbol display device 31 is generated and output based on the gradation data. A synchronization signal such as a horizontal synchronization signal or a vertical synchronization signal is also output from the display circuit 155.

また、表示モード制御部154では、表示モードに対応した画像の表示を行う場合に、レジスタ153に格納された描画リストに基づいて、所定の処理を実行する。当該所定の処理については後に説明する。 Further, the display mode control unit 154 executes a predetermined process based on the drawing list stored in the register 153 when displaying the image corresponding to the display mode. The predetermined processing will be described later.

<表示CPU131における基本的な処理>
次に、表示CPU131における基本的な処理について説明する。
<Basic processing in the display CPU 131>
Next, the basic processing in the display CPU 131 will be described.

<メイン処理>
先ず、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合に起動されるメイン処理について説明する。図12はメイン処理を示すフローチャートである。
<Main processing>
First, the main process to be started when the supply of the operating power to the display CPU 131 is started or when the pachinko machine 10 is reset will be described. FIG. 12 is a flowchart showing the main process.

メイン処理では、先ずステップS701にて、初期設定処理を実行する。 In the main process, first, the initial setting process is executed in step S701.

初期設定処理では、表示回路155のスケーラの初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bに作成される描画データに基づいて画像信号が出力される場合に、その画像信号が液晶表示部31aのドット数に対応させて出力されるように、VDP135に対して解像度初期調整用コマンドを送信する。この初期調整値は、パチンコ機10の設計段階において調整されており、その調整結果が解像度初期調整用コマンドとして設定されている。 In the initial setting process, the initial adjustment process of the scaler of the display circuit 155 is executed. In the initial adjustment process, when an image signal is output based on the drawing data created in the frame areas 142a and 142b of the VRAM 134, the image signal is output corresponding to the number of dots of the liquid crystal display unit 31a. As a result, a command for initial resolution adjustment is sent to VDP135. This initial adjustment value is adjusted at the design stage of the pachinko machine 10, and the adjustment result is set as a command for initial resolution adjustment.

VDP135に解像度初期調整用コマンドが送信されることで、VDP135のレジスタ153におけるスケーラの解像度調整用のエリアに初期調整値に対応した数値情報が格納される。これにより、VDP135から図柄表示装置31に画像信号が出力される場合、描画データに対応した画像信号が液晶表示部31aのドット数に調整された状態で出力される。 When the resolution initial adjustment command is transmitted to the VDP135, the numerical information corresponding to the initial adjustment value is stored in the resolution adjustment area of the scaler in the register 153 of the VDP135. As a result, when the image signal is output from the VDP 135 to the symbol display device 31, the image signal corresponding to the drawing data is output in a state adjusted to the number of dots of the liquid crystal display unit 31a.

また、初期設定処理では、地色の初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bの単位エリアに初期値として設定される数値情報が初期数値情報となるように、VDP135に対して地色初期調整用コマンドを送信する。この初期数値情報は、パチンコ機10の設計段階において調整されており、その調整結果が地色初期調整用コマンドとして設定されている。 Further, in the initial setting process, the initial adjustment process of the ground color is executed. In the initial adjustment process, a ground color initial adjustment command is transmitted to the VDP 135 so that the numerical information set as the initial value in the unit area of each frame area 142a and 142b of the VRAM 134 becomes the initial numerical information. This initial numerical information is adjusted at the design stage of the pachinko machine 10, and the adjustment result is set as a command for initial ground color adjustment.

VDP135は地色初期調整用コマンドが送信されることで、VDP135のレジスタ153における地色調整用のエリアに初期数値情報が格納される。これにより、描画データが作成される場合に初期数値情報からの更新が行われなかった単位エリアに対応したドットでは、地色が表示されることとなる。なお、初期の地色として本パチンコ機10では黒色が設定されているが、これに限定されることはなく任意である。 When the VDP135 is transmitted with the ground color initial adjustment command, the initial numerical information is stored in the ground color adjustment area in the register 153 of the VDP135. As a result, when the drawing data is created, the ground color is displayed at the dots corresponding to the unit areas that have not been updated from the initial numerical information. Although black is set as the initial ground color in the pachinko machine 10, it is not limited to this and is arbitrary.

ステップS701にて初期設定処理を実行した後は、ステップS702にて、各種割込みを許可する。これにより、表示CPU131においてコマンド割込み処理及びV割込み処理を実行することが許容される。その後、メイン処理では、ステップS702の処理を繰り返す。 After executing the initial setting process in step S701, various interrupts are permitted in step S702. This allows the display CPU 131 to execute command interrupt processing and V interrupt processing. After that, in the main process, the process of step S702 is repeated.

<コマンド割込み処理>
次に、コマンド割込み処理について説明する。
<Command interrupt processing>
Next, command interrupt processing will be described.

コマンド割込み処理は、音声発光制御装置60からストローブ信号を受信した場合に、その時点で実行されている処理が何であったとしても最優先で起動される処理である。コマンド割込み処理では、入力ポート137にて受信しているコマンドを、ワークRAM132に設けられたコマンドバッファに転送し、さらにコマンドを新たに受信したことを示すフラグを対応するエリアにセットする。その後、コマンド割込み処理を終了し、当該コマンド割込み処理の起動前の処理に復帰する。 The command interrupt process is a process that is activated with the highest priority when a strobe signal is received from the voice emission control device 60, regardless of the process being executed at that time. In the command interrupt process, the command received on the input port 137 is transferred to the command buffer provided in the work RAM 132, and a flag indicating that the command is newly received is set in the corresponding area. After that, the command interrupt process is terminated, and the process returns to the process before the command interrupt process was started.

<V割込み処理>
次に、V割込み処理について、図13のフローチャートを参照しながら説明する。V割込み処理は、予め定められた周期、具体的には20msec周期で繰り返し起動される。
<V interrupt processing>
Next, the V interrupt process will be described with reference to the flowchart of FIG. The V interrupt process is repeatedly activated at a predetermined cycle, specifically, a 20 msec cycle.

なお、VDP135は図柄表示装置31に1フレーム分の画像信号を出力する場合、表示面Gの左上の隅角部分にあるドットから画像信号の出力を始めて、当該ドットを一端に含む横ライン上に並ぶドットに対して順次画像信号を出力するとともに、各横ラインに対して上から順に左から右のドットへと画像信号を出力する。そして、表示面Gの右下の隅角部分にあるドットに対して最後に画像信号を出力する。この場合に、VDP135は当該最後のドットに対して画像信号を出力したタイミングで、表示CPU131へV割込み信号を出力して1フレームの画像の更新が完了したことを表示CPU131に認識させる。このV割込み信号の出力周期は20msecとなっている。この点、V割込み処理は、V割込み信号の受信に同期して起動されると見なすこともできる。但し、V割込み信号を受信していなくても、前回のV割込み処理が起動されてから20msecが経過している場合には、新たにV割込み処理が起動される。 When the VDP 135 outputs an image signal for one frame to the symbol display device 31, the VDP 135 starts outputting the image signal from a dot in the upper left corner portion of the display surface G and is on a horizontal line including the dot at one end. The image signals are sequentially output to the dots lined up, and the image signals are output to the dots from left to right in order from the top for each horizontal line. Then, the image signal is finally output to the dots in the lower right corner portion of the display surface G. In this case, the VDP 135 outputs a V interrupt signal to the display CPU 131 at the timing when the image signal is output for the last dot, and causes the display CPU 131 to recognize that the update of the image of one frame is completed. The output cycle of this V interrupt signal is 20 msec. In this respect, the V interrupt process can be considered to be started in synchronization with the reception of the V interrupt signal. However, even if the V interrupt signal is not received, if 20 msec has elapsed since the previous V interrupt process was started, the V interrupt process is newly started.

V割込み処理では、先ずステップS801にて、コマンド解析処理を実行する。具体的には、ワークRAM132のコマンドバッファに格納されているコマンドの内容を解析する。続くステップS802では、ステップS801の解析結果に基づいて、新規コマンドを受信しているか否かを判定する。新規コマンドを受信している場合には、ステップS803にて、コマンド対応処理を実行する。 In the V interrupt process, first, the command analysis process is executed in step S801. Specifically, the contents of the command stored in the command buffer of the work RAM 132 are analyzed. In the following step S802, it is determined whether or not a new command is received based on the analysis result of step S801. If a new command has been received, the command correspondence process is executed in step S803.

コマンド対応処理では、受信しているコマンドに対応したプログラムを実行するためのデータテーブルをメモリモジュール133から読み出す。データテーブルとは、受信したコマンドに対応した動画を図柄表示装置31の表示面Gに表示させる場合において、画像の各更新タイミングにおける1フレーム分の画像を表示させるのに必要な処理が定められた情報群である。 In the command correspondence process, the data table for executing the program corresponding to the received command is read from the memory module 133. The data table defines the processing required to display an image for one frame at each update timing of the image when the moving image corresponding to the received command is displayed on the display surface G of the symbol display device 31. It is a group of information.

ここで、表示CPU131が音声発光制御装置60から受信するコマンドとしては、既に説明したとおり、変動パターンコマンド、図柄指定コマンド及び予告コマンドがある。これらのコマンドを受信した場合、それら各コマンドに対応した遊技回用演出を図柄表示装置31にて実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては終了コマンドがあり、当該コマンドを受信した場合には現状実行されている遊技回用演出を最終停止させるために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、大当たり演出用の各種コマンドがあり、当該コマンドを受信した場合には大当たり演出を実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、デモ表示用のコマンドがあり、当該コマンドを受信した場合にはデモ表示を実行するために必要なデータテーブルを読み出す。さらに読み出したデータテーブルに基づき、処理を実行する場合に必要な他のプログラムデータも読み出す。 Here, as the commands received by the display CPU 131 from the voice emission control device 60, there are fluctuation pattern commands, symbol designation commands, and advance notice commands as described above. When these commands are received, the data table necessary for executing the game rotation effect corresponding to each command on the symbol display device 31 is read out. In addition, there is an end command as the command to be received, and when the command is received, the data table necessary for finally stopping the currently executed game rotation effect is read out. Further, as the command to be received, there are various commands for the jackpot effect, and when the command is received, the data table necessary for executing the jackpot effect is read out. Further, as the command to be received, there is a command for displaying a demo, and when the command is received, the data table necessary for executing the demo display is read out. Furthermore, based on the read data table, other program data necessary for executing the process is also read.

ステップS803にてコマンド対応処理を実行した後は、ステップS804にて、ポインタ更新処理を実行する。当該ポインタ更新処理では、データテーブルに設定されているポインタの情報を、1フレーム分進めるように更新する。これにより、今回の更新タイミングに対応した1フレーム分の画像を表示させるために必要な処理を、表示CPU131において把握することが可能となる。 After executing the command correspondence process in step S803, the pointer update process is executed in step S804. In the pointer update process, the pointer information set in the data table is updated so as to advance by one frame. This makes it possible for the display CPU 131 to grasp the processing necessary for displaying the image for one frame corresponding to the update timing this time.

続くステップS805では、タスク処理を実行する。タスク処理では、今回の更新タイミングに対応した1フレーム分の画像を表示させるために、VDP135に描画指示を行う上で必要なパラメータの演算を行う。当該タスク処理の詳細については後に説明する。 In the following step S805, the task process is executed. In the task processing, in order to display the image for one frame corresponding to the update timing this time, the parameters necessary for giving the drawing instruction to the VDP 135 are calculated. The details of the task processing will be described later.

続くステップS806では、描画リスト出力処理を実行する。描画リスト出力処理では、今回の処理回に係る更新タイミングに対応した1フレーム分の画像を表示させるための描画リストを作成し、その作成した描画リストをVDP135に送信する。この場合、当該描画リストでは、直前のタスク処理にて把握された画像が描画対象となり、さらに当該タスク処理にて更新したパラメータの情報が合わせて設定される。VDP135では、この描画リストに従ってVRAM134のフレーム領域142a,142bに描画データを作成する。このVDP135における処理については後に詳細に説明する。その後、本V割込み処理を終了する。 In the following step S806, the drawing list output process is executed. In the drawing list output processing, a drawing list for displaying an image for one frame corresponding to the update timing related to the current processing time is created, and the created drawing list is transmitted to the VDP 135. In this case, in the drawing list, the image grasped in the immediately preceding task process is the drawing target, and the parameter information updated in the task process is also set. The VDP 135 creates drawing data in the frame areas 142a and 142b of the VRAM 134 according to this drawing list. The processing in this VDP 135 will be described in detail later. After that, this V interrupt process is terminated.

<表示CPU131におけるタスク処理>
ここで、タスク処理について、図14のフローチャートを参照しながら説明する。
<Task processing in display CPU 131>
Here, the task processing will be described with reference to the flowchart of FIG.

タスク処理では先ずステップS901にて、制御開始用の設定処理を実行する。制御開始用の設定処理では、今回の処理回で表示CPU131において新たに制御(演算)を開始する個別画像を設定するための処理を実行する。なお、個別画像とは、背面用の画像データなどの静止画像データにより規定される一の2次元画像や、オブジェクト用の画像データとテクスチャ用の画像データとの組み合わせにより規定される一の3次元画像のことである。 In the task process, first, in step S901, the setting process for starting control is executed. In the setting process for starting control, the display CPU 131 executes a process for setting an individual image for which control (calculation) is newly started in this process. The individual image is a one-two-dimensional image defined by still image data such as image data for the back surface, or one three-dimensional image defined by a combination of image data for an object and image data for a texture. It is an image.

制御開始用の設定処理について具体的には、先ず現状設定されているデータテーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM132において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータを設定する。 Specifically, regarding the setting process for starting control, first, based on the currently set data table, it is determined whether or not there is an individual image to be controlled started in this process. If it exists, the work RAM 132 searches for a free buffer area for performing various operations in controlling the individual image, and has a one-to-one correspondence with the individual image grasped as the control start target. Allocate free buffer area so that. Further, the initialization process is executed for all the reserved free buffer areas, and the parameters for starting control according to the individual images are set for the initialized free buffer areas.

続くステップS902では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。 In the following step S902, the control update target is grasped. The control update target is an individual image for which the control start processing has been completed and may be included in the image for one frame after the current processing.

続くステップS903では、背景用演算処理を実行する。背景用演算処理では、背景の画像を構成することとなる最背面用の画像や、背景用キャラクタについて、ワールド座標系内における座標、回転角度、スケール、明暗を付けるためのライトの情報、投影を行うためのカメラの情報、及びZテスト指定などといった描画リストを作成する上で必要な各種パラメータを演算して導き出す処理を実行する。 In the following step S903, the background arithmetic processing is executed. In the background calculation process, the coordinates, rotation angle, scale, light information for adding light and shade, and projection in the world coordinate system are performed for the backmost image that constitutes the background image and the background character. It executes a process of calculating and deriving various parameters necessary for creating a drawing list such as camera information to be performed and Z test designation.

続くステップS904では、演出用演算処理を実行する。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる個別画像について、上記各種パラメータを演算して導き出す処理を実行する。 In the following step S904, the effect calculation process is executed. In the effect calculation process, a process of calculating and deriving the above-mentioned various parameters for individual images to be displayed in various effects such as reach display, notice display, and jackpot effect is executed.

続くステップS905では、図柄用演算処理を実行する。図柄用演算処理では、各遊技回において変動表示の対象となる図柄の画像について、上記各種パラメータを演算して導き出す処理を実行する。 In the following step S905, the symbol arithmetic processing is executed. In the symbol calculation process, a process of calculating and deriving the above-mentioned various parameters is executed for the image of the symbol that is the target of the variable display in each game round.

ちなみに、ステップS903〜ステップS905の各処理では、ステップS901にて設定された制御開始用のパラメータを更新する処理を実行する。また、ステップS903〜ステップS905の各処理では、個別画像の各種パラメータを画像更新タイミングとなる度に特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、メモリモジュール133に予め記憶されており、個別画像の種類に応じて定められている。 Incidentally, in each process of step S903 to step S905, a process of updating the control start parameter set in step S901 is executed. Further, in each process of steps S903 to S905, animation data set to change various parameters of individual images according to a specific pattern each time the image update timing is reached are used. This animation data is stored in advance in the memory module 133, and is determined according to the type of the individual image.

その後、ステップS906にてワールド座標系への配置対象の把握処理を実行した後に、本タスク処理を終了する。ワールド座標系への配置対象の把握処理では、上記ステップS903〜ステップS905の各処理により制御更新対象となった各個別画像のうち、今回の描画リストにおいて描画対象として設定する個別画像を把握する処理を実行する。当該把握は、現状設定されているデータテーブルに基づいて行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。 After that, in step S906, after executing the process of grasping the object to be arranged in the world coordinate system, this task process is terminated. In the process of grasping the object to be arranged in the world coordinate system, the process of grasping the individual image set as the drawing target in the current drawing list among the individual images targeted for control update by each process of steps S903 to S905. To execute. The grasp is performed based on the currently set data table. The individual image grasped here is set as a drawing target in the drawing list.

つまり、表示CPU131にて制御対象となる個別画像の方が、VDP135にて制御対象となる個別画像よりも多く設定されているため、ステップS906においてその調整を行っている。但し、これに限定されることはなく、表示CPU131において制御対象となる個別画像と、VDP135において制御対象となる個別画像とが同一である構成としてもよく、この場合、ステップS906の処理を実行する必要がなくなる。 That is, since the number of individual images to be controlled by the display CPU 131 is set to be larger than the number of individual images to be controlled by the VDP 135, the adjustment is performed in step S906. However, the present invention is not limited to this, and the individual image to be controlled by the display CPU 131 may be the same as the individual image to be controlled by the VDP 135. In this case, the process of step S906 is executed. No need.

なお、ステップS901の制御開始用の設定処理において、表示CPU131の処理負荷を分散させるべく、各個別画像の制御開始タイミングが分散させて設定されている構成としてもよい。 In the setting process for starting control in step S901, the control start timing of each individual image may be distributed and set in order to distribute the processing load of the display CPU 131.

<VDP135における基本的な処理>
次に、VDP135にて実行される基本的な処理について説明する。
<Basic processing in VDP135>
Next, the basic processing executed by the VDP 135 will be described.

VDP135では、表示CPU131から送信されたコマンドに基づいてレジスタ153の値を設定する処理、表示CPU131から送信された描画リストに基づいてフレームバッファ142のフレーム領域142a,142bに描画データを作成する処理、フレーム領域142a,142bに作成された描画データに基づいて図柄表示装置31に画像信号を出力する処理が少なくとも実行される。 In the VDP 135, a process of setting the value of the register 153 based on the command transmitted from the display CPU 131, a process of creating drawing data in the frame areas 142a and 142b of the frame buffer 142 based on the drawing list transmitted from the display CPU 131, At least the process of outputting an image signal to the symbol display device 31 is executed based on the drawing data created in the frame areas 142a and 142b.

上記各処理のうち、レジスタ153の値を設定する処理は、表示CPU131用のI/F156に付随する図示しない回路によって、コマンドを受信した場合にその都度実行される。また、描画データを作成する処理は、ジオメトリ演算部151及びレンダリング部152の協同により、予め定められた周期(例えば、20msec)で繰り返し実行される。また、画像信号を出力する処理は、表示回路155によって、予め定められた画像信号の出力開始タイミングとなることで実行される。 Of the above processes, the process of setting the value of the register 153 is executed each time a command is received by a circuit (not shown) attached to the I / F 156 for the display CPU 131. Further, the process of creating drawing data is repeatedly executed at a predetermined cycle (for example, 20 msec) in cooperation with the geometry calculation unit 151 and the rendering unit 152. Further, the process of outputting the image signal is executed by the display circuit 155 at a predetermined output start timing of the image signal.

以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU131からVDP135に送信される描画リストの内容について説明する。図15(a)〜(c)は描画リストの内容を説明するための説明図である。 Hereinafter, the process of creating the drawing data will be described in detail. Prior to the description of the process, the contents of the drawing list transmitted from the display CPU 131 to the VDP 135 will be described. 15 (a) to 15 (c) are explanatory views for explaining the contents of the drawing list.

描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像を、第1フレーム領域142a及び第2フレーム領域142bのうちいずれを作成対象とするかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、各種指定情報が設定されている。各種指定情報の内容については後に説明する。なお、VDP135にて取り扱う画像データとして動画像データが含まれている場合には、ヘッダ情報において、デコード指定の有無及びデコード対象となる動画像データがメモリモジュール133において記憶されているアドレスの情報が設定されていてもよい。 Header information is set in the drawing list. In the header information, information on the target buffer, which is information indicating which of the first frame area 142a and the second frame area 142b is to be created for the image for one frame related to the drawing list, is set. There is. In addition, various designated information is set in the header information. The contents of various designated information will be described later. When the moving image data is included as the image data handled by the VDP 135, the header information includes the presence / absence of the decoding designation and the address information in which the moving image data to be decoded is stored in the memory module 133. It may be set.

描画リストには、上記ヘッダ情報以外にも、今回の描画データの作成に際してワールド座標系への配置対象となる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させてパラメータの情報が設定されている。 In addition to the above header information, multiple types of image data to be placed in the world coordinate system when creating the drawing data this time are set in the drawing list, and information on the drawing order of each image data and information on the drawing order of each image data. Parameter information of each image data is set. In detail, the information of the drawing order is set so as to be the numerical information of the serial number, and the parameter information is set so as to have a one-to-one correspondence with each numerical information.

図15(a)の描画リストでは、背面用の画像データが最初の描画対象として設定されているとともに、背景用オブジェクトAが2番目、背景用オブジェクトBが3番目、・・・として設定されている。また、これら背景用の画像データよりも後の順番として、演出用の画像データが設定されており、例えば演出用オブジェクトAがm番目、演出用オブジェクトBがm+1番目、・・・として設定されている。また、これら演出用の画像データよりも後の順番として、図柄用の画像データが設定されており、例えば図柄用オブジェクトAがn番目、図柄用オブジェクトBがn+1番目、・・・として設定されている。 In the drawing list of FIG. 15A, the image data for the back surface is set as the first drawing target, the background object A is set as the second object, the background object B is set as the third object, and so on. There is. Further, the image data for the effect is set in the order after the image data for the background, for example, the object A for the effect is set as the mth, the object B for the effect is set as the m + 1th, and so on. There is. Further, the image data for the symbol is set in the order after the image data for the effect, for example, the symbol object A is set as the nth, the symbol object B is set as the n + 1th, and so on. There is.

なお、描画リストにおいて各画像データが設定されている順番は上記のものに限定されることはなく、設定されている順番が上記のものとは逆の順番であってもよく、図柄用の画像データの後に演出用の画像データ又は背景用の画像データが設定されていてもよく、所定の演出用の画像データと他の演出用の画像データとの間の順番に図柄用の画像データが設定されていてもよい。 The order in which each image data is set in the drawing list is not limited to the above, and the order in which the image data is set may be the reverse of the above. The image data for the effect or the image data for the background may be set after the data, and the image data for the design is set in the order between the image data for the predetermined effect and the image data for the other effect. It may have been done.

パラメータの情報P(1),P(2),P(3),・・・,P(m),P(m+1),・・・,P(n),P(n+1),・・・には、複数種類のパラメータが設定されている。背面用の画像データのパラメータP(1)について具体的には、図15(b)に示すように、メモリモジュール133において背面用の画像データが記憶されているエリアのアドレスの情報と、背面用の画像データを設定する場合におけるワールド座標系内の位置を示す座標の情報(X値の情報,Y値の情報,Z値の情報)と、背面用の画像データを設定する場合におけるワールド座標系内の回転角度を示す回転角度の情報と、背面用の画像データの初期状態として設定されているスケールに対して、ワールド座標系に設定する際の倍率を示すスケールの情報と、背面用の画像データを設定する場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、が設定されている。 Parameter information P (1), P (2), P (3), ..., P (m), P (m + 1), ..., P (n), P (n + 1), ... Has multiple types of parameters set. Regarding the parameter P (1) of the image data for the back surface, specifically, as shown in FIG. 15 (b), the information of the address of the area where the image data for the back surface is stored in the memory module 133 and the information for the back surface. Coordinate information (X value information, Y value information, Z value information) indicating the position in the world coordinate system when setting the image data of, and the world coordinate system when setting the image data for the back surface. Information on the rotation angle that indicates the rotation angle inside, information on the scale that indicates the magnification when setting in the world coordinate system with respect to the scale set as the initial state of the image data for the back, and the image for the back. Information with a uniform α value indicating the entire transparency information (or transparency information) when setting data is set.

ここで、座標の情報は、オブジェクト用の画像データの全頂点について個別に設定される。また、この座標の情報はオブジェクト用の画像データに対して設定されているが、テクスチャ用の画像データには設定されていない。テクスチャ用の画像データは、各ピクセルの座標値が、オブジェクト用の画像データの各頂点に関連付けて予め定められている。この座標値は、ワールド座標系における座標値とは異なるUV座標値であり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されている。このUV座標値はテクスチャマッピングする際にVDP135により参照される。 Here, the coordinate information is set individually for all the vertices of the image data for the object. Further, the information of these coordinates is set for the image data for the object, but is not set for the image data for the texture. In the image data for the texture, the coordinate value of each pixel is predetermined in association with each vertex of the image data for the object. This coordinate value is a UV coordinate value different from the coordinate value in the world coordinate system, and is stored in the memory module 133 in a state of being attached to the combination of the image data for the object and the image data for the texture. This UV coordinate value is referred to by VDP135 when texture mapping.

パラメータ(P1)には、背面用の画像データを描画用の仮想2次元平面上に投影する場合における仮想カメラの座標及び向きの情報を含むカメラの情報と、背面用の画像データをレンダリングする場合における陰影を決定する仮想光源の位置及び向きの情報を含むライトの情報と、が設定されている。 The parameter (P1) includes camera information including information on the coordinates and orientation of the virtual camera when projecting image data for the back surface on a virtual two-dimensional plane for drawing, and when rendering image data for the back surface. Information on the light, including information on the position and orientation of the virtual light source that determines the shadow in the image, is set.

パラメータ(P1)には、隠面消去を行う手法の一種であるZバッファ法の適用有無を示すZテスト指定の情報が設定されている。Zバッファ法とは、ワールド座標系内において多数のオブジェクトや2次元画像が奥行き方向(Z軸方向)に重なった場合に、Z軸上に並ぶ各ピクセル(又は各ボクセル、各画素、各ポリゴン)について視点からの距離を順次参照し、最も視点に近いピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに設定する深度調整用の処理方法である。当該Zバッファ法を適用する場合に、VRAM134に設けられたZバッファ143が利用される。Zバッファ143を利用した隠面処理の具体的な処理構成については後に説明する。 In the parameter (P1), information specified by the Z test indicating whether or not the Z buffer method, which is a kind of method for erasing the hidden surface, is applied is set. The Z-buffer method is a pixel (or voxel, pixel, polygon) lined up on the Z-axis when a large number of objects or 2D images overlap in the depth direction (Z-axis direction) in the world coordinate system. This is a processing method for depth adjustment in which the distance from the viewpoint is sequentially referred to, and the numerical information set in the pixel closest to the viewpoint is set in the corresponding unit area in the frame areas 142a and 142b. When applying the Z-buffer method, the Z-buffer 143 provided in the VRAM 134 is used. A specific processing configuration of the hidden surface processing using the Z buffer 143 will be described later.

なお、上記隠面消去を行う手法としてZバッファ法以外にも、Zソート法が設定されている。Zソート法とは、Z軸上に並ぶ各ピクセルについて、各ピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに順次設定する深度調整用の処理方法である。当該Zソート法を適用する場合には、各ピクセルに設定されているα値が参照されて、Z軸上に並ぶ各ピクセルの色情報に対応した数値情報に対して対応するα値が適用された状態で、それら数値情報の加算処理や融合用の演算処理が実行されることとなる。Zソートによる隠面処理の具体的な処理構成の説明は省略するが、エフェクト画像を表示させる場合に起動される。 In addition to the Z-buffer method, a Z-sort method is set as a method for erasing the hidden surface. The Z sort method is a processing method for depth adjustment in which the numerical information set for each pixel is sequentially set in the corresponding unit area in the frame areas 142a and 142b for each pixel arranged on the Z axis. When applying the Z sort method, the α value set for each pixel is referred to, and the corresponding α value is applied to the numerical information corresponding to the color information of each pixel arranged on the Z axis. In this state, the addition processing of the numerical information and the arithmetic processing for fusion are executed. Although the description of the specific processing configuration of the hidden surface processing by Z sorting is omitted, it is activated when the effect image is displayed.

パラメータ(P1)には、αデータの適用有無及び適用対象を示すαデータ指定の情報と、フォグの適用有無及び適用対象を示すフォグ指定の情報と、背景画像を表示するために作成された背景画像用の描画データについて別保存の有無を示す別保存指定の情報と、が設定されている。 In the parameter (P1), information on α data specification indicating whether or not α data is applied and an application target, information on fog specification indicating whether or not fog is applied and an application target, and a background created to display a background image are displayed. Information for specifying separate storage indicating whether or not to save separately for the drawing data for the image is set.

ここで、α値とは対応するピクセルの透過情報のことである。このα値の描画リスト上における設定の仕方として、上記一律α値を指定する方法と、αデータ指定を行う方法とがある。一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU131における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、2次元の静止画像データやテクスチャ用の画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。当該αデータは、同一の静止画像データ又は同一のテクスチャ用の画像データの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。 Here, the α value is the transparency information of the corresponding pixel. As a method of setting the α value on the drawing list, there are a method of specifying the above-mentioned uniform α value and a method of specifying α data. The uniform α value is transparent information applied to all pixels of one image data, and is numerical information derived as a calculation result in the display CPU 131. The uniform α value is uniformly applied to all pixels of the image data. On the other hand, the α data is transparent information applied to each pixel of two-dimensional still image data and image data for texture, and is stored in advance in the memory module 133 as image data. In the α data, the transparency information can be different for each pixel within the range of the same still image data or the image data for the same texture. This α data has a larger data capacity than the program data for setting a uniform α value.

上記のように一律α値とαデータとが設定されていることにより、2次元の静止画像データやテクスチャ用の画像データの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。 By setting the uniform α value and α data as described above, the transparency of the two-dimensional still image data and the image data for texture is not finely controlled on a pixel-by-pixel basis, but is uniform for all pixels. In situations where control is sufficient with, the required data capacity can be reduced by being able to handle with a uniform α value, and by applying α data, it is possible to finely control the transparency in pixel units.

フォグとは、ワールド座標系において所定方向、具体的にはZ軸方向の位置に対する明るさの度合いを調整するための情報である。フォグは、霧を表現したり、洞窟内を表現したりする場合に使用される。ここで、1フレーム分の画像の全体に対して単一のフォグを適用してもよい。この場合、1フレーム分の画像に一定の態様でフォグがかかることとなる。また、これに代えて、1フレーム分の画像の全体に対して複数のフォグを適用してもよい。この場合、Z軸方向の奥側に配置されているオブジェクトに対してその他のオブジェクトと同様のフォグを適用すると暗すぎることで質感がでないような状況において、当該オブジェクトには別のフォグを設定する構成とするとよい。これにより、上記質感を損なわせないようにしつつ、フォグを設定することによる効果を得ることができる。 The fog is information for adjusting the degree of brightness with respect to a position in a predetermined direction, specifically, a position in the Z-axis direction in the world coordinate system. Fog is used to represent fog or the inside of a cave. Here, a single fog may be applied to the entire image for one frame. In this case, the fog is applied to the image for one frame in a certain manner. Alternatively, a plurality of fogs may be applied to the entire image for one frame. In this case, if the same fog as other objects is applied to the object located on the back side in the Z-axis direction, it will be too dark and the texture will not be obtained. In this case, another fog is set for the object. It is good to have a configuration. This makes it possible to obtain the effect of setting the fog while not impairing the texture.

別保存とは、一旦作成した背景画像用の描画データをその後のフレームにおいてそのまま使用するために、フレーム領域142a,142bとは別に設けられたモード用バッファ145に書き込み保存しておくことをいう。モード用バッファ145には、図4に示すように、各表示モードに1対1で対応するように、第1モード用領域145aと、第2モード用領域145bとが設けられている。この別保存の具体的な内容については、後に詳細に説明する。 Separate storage means that the drawing data for the background image once created is written and saved in the mode buffer 145 provided separately from the frame areas 142a and 142b so that the drawing data for the background image can be used as it is in the subsequent frames. As shown in FIG. 4, the mode buffer 145 is provided with a first mode area 145a and a second mode area 145b so as to have a one-to-one correspondence with each display mode. The specific contents of this separate storage will be described in detail later.

パラメータP(2)といった他のパラメータでは、図15(c)に示すように、上記図15(b)の各種情報のうち、背面用の画像データの情報に代えて、オブジェクトの情報とテクスチャの情報とが設定されている。これらの情報としては、メモリモジュール133においてオブジェクトやテクスチャが記憶されているエリアのアドレスの情報が設定されている。 In other parameters such as the parameter P (2), as shown in FIG. 15 (c), among the various information in FIG. 15 (b), the object information and the texture are replaced with the image data information for the back surface. Information and is set. As these information, information on the address of the area where the object or texture is stored is set in the memory module 133.

VDP135における描画処理について、図16のフローチャートを参照しながら説明する。なお、以下の説明では、描画処理の実行に伴い描画データが作成される様子を、図17を参照しながら説明する。 The drawing process in the VDP 135 will be described with reference to the flowchart of FIG. In the following description, a state in which drawing data is created with the execution of the drawing process will be described with reference to FIG.

先ずステップS1001では、表示CPU131から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS1002にて、背景用の設定処理を実行する。 First, in step S1001, it is determined whether or not a new drawing list is received from the display CPU 131. If a new drawing list has been received, the background setting process is executed in step S1002.

背景用の設定処理では、今回の描画リストにて指定されている画像データのうち、背景画像を表示するための背面用の画像データ及びキャラクタ用のオブジェクトを把握する。そして、それら画像データやキャラクタ用のオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。 In the background setting process, among the image data specified in the drawing list this time, the image data for the back surface for displaying the background image and the object for the character are grasped. Then, it is determined whether or not the image data or the object for the character is already arranged in the world coordinate system.

配置されていない場合には、ワールド座標系への配置を行うために参照する空きバッファ領域を画像データ毎に検索し、空きバッファ領域を確保した場合にはその領域の初期化処理を実行する。その後、メモリモジュール133においてその画像データが記憶されているアドレスを把握して読み出すとともに、描画リストに指定された座標、回転角度及びスケールとなるように、その画像データについてのローカル座標系の座標値をワールド座標系の座標値に変換させるワールド変換処理を実行して、上記確保したバッファ領域に設定する。 If it is not arranged, the free buffer area to be referred to for placement in the world coordinate system is searched for each image data, and if the free buffer area is secured, the initialization process of that area is executed. After that, the memory module 133 grasps and reads out the address where the image data is stored, and at the same time, coordinates values of the local coordinate system for the image data so as to have the coordinates, rotation angle, and scale specified in the drawing list. Is executed in the world conversion process for converting to the coordinate values of the world coordinate system, and is set in the buffer area secured above.

配置されている場合には、既に確保されたバッファ領域に設定されている各種パラメータの更新処理を実行する。また、背景用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない背景用の画像データを消去する制御終了処理を実行する。 If it is placed, the update processing of various parameters set in the buffer area already secured is executed. Further, in the background setting process, the control end process for erasing the background image data not specified in the drawing list this time among the image data already arranged in the world coordinate system is executed.

続くステップS1003では、演出用の設定処理を実行する。演出用の設定処理では、今回の描画リストにて指定されている画像データのうち、演出画像を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、演出用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない演出用の画像データを消去する制御終了処理を実行する。 In the following step S1003, the setting process for the effect is executed. In the setting process for the effect, among the image data specified in the drawing list this time, the object for displaying the effect image is grasped. Then, it is determined whether or not the grasped object is already placed in the world coordinate system. If it is not arranged, the process for starting the arrangement is executed in the same manner as described in the above background setting process. If it is arranged, update processing of various parameters is executed. Further, in the setting process for the effect, the control end process for erasing the image data for the effect that is not specified in the drawing list of this time among the image data already arranged in the world coordinate system is executed.

続くステップS1004では、図柄用の設定処理を実行する。図柄用の設定処理では、今回の描画リストにて指定されている画像データのうち、図柄を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、図柄用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない図柄用の画像データを消去する制御終了処理を実行する。 In the following step S1004, the setting process for the symbol is executed. In the setting process for the symbol, the object for displaying the symbol is grasped from the image data specified in the drawing list this time. Then, it is determined whether or not the grasped object is already placed in the world coordinate system. If it is not arranged, the process for starting the arrangement is executed in the same manner as described in the above background setting process. If it is arranged, update processing of various parameters is executed. Further, in the setting process for the symbol, the control end process for erasing the image data for the symbol that is not specified in the drawing list of this time among the image data already arranged in the world coordinate system is executed.

上記ステップS1002〜ステップS1004の処理が実行されることにより、図17に示すように、X軸,Y軸,Z軸で規定されたワールド座標系内に、描画リストにより配置対象として指定されている最背面画像PC1と、各種オブジェクトPC2〜PC10とが、同じく描画リストにより指定されている座標、回転角度及びスケールで配置されたシーンの設定が完了する。 By executing the processes of steps S1002 to S1004, as shown in FIG. 17, the object is designated as an arrangement target by the drawing list in the world coordinate system defined by the X-axis, the Y-axis, and the Z-axis. The setting of the scene in which the rearmost image PC1 and the various objects PC2 to PC10 are arranged at the coordinates, the rotation angle, and the scale also specified by the drawing list is completed.

なお、図17においては、最背面画像PC1や各種オブジェクトPC2〜PC10が配置されている様子を簡易的に示している。また、最背面画像PC1は、各種オブジェクトPC2〜PC10の全てに対してZ軸方向の座標が奥側に設定されている必要はなく、例えば、最背面画像PC1が曲げられた状態又は傾斜した状態で配置されていることにより、一部のオブジェクトよりもZ軸方向の座標が手前側となる構成としてもよい。但し、この一部のオブジェクトとX軸方向の座標及びY軸方向の座標が同一である最背面画像PC1の領域は、そのオブジェクトよりもZ軸方向の座標が奥側であることにより、全てのオブジェクトが最背面画像PC1により覆われない状態となる。 Note that FIG. 17 simply shows how the rearmost image PC1 and various objects PC2 to PC10 are arranged. Further, the rearmost image PC1 does not need to have the coordinates in the Z-axis direction set to the back side with respect to all of the various objects PC2 to PC10. For example, the rearmost image PC1 is in a bent or tilted state. By arranging in, the coordinates in the Z-axis direction may be closer to the front side than some objects. However, the area of the rearmost image PC1 in which the coordinates in the X-axis direction and the coordinates in the Y-axis direction are the same as this part of the object is all because the coordinates in the Z-axis direction are on the back side of the object. The object is not covered by the rearmost image PC1.

続くステップS1005では、カメラ座標系(カメラ空間)への変換処理を実行する。カメラ座標系への変換処理では、描画リストにより指定されたカメラの情報により、視点の座標及び向きを決定するとともに、その視点の座標及び向きに基づいて、ワールド座標系を、視点を原点としたカメラ座標系(カメラ空間)に変換する。これにより、図17に示すように、カメラ形状で示す視点PC11が設定され、それに対応した座標系が設定された状態となる。 In the following step S1005, the conversion process to the camera coordinate system (camera space) is executed. In the conversion process to the camera coordinate system, the coordinates and orientation of the viewpoint are determined based on the camera information specified by the drawing list, and the world coordinate system is set as the origin based on the coordinates and orientation of the viewpoint. Convert to the camera coordinate system (camera space). As a result, as shown in FIG. 17, the viewpoint PC 11 shown in the camera shape is set, and the coordinate system corresponding to the viewpoint PC 11 is set.

ここで、カメラの情報は、個別画像(最背面画像PC1及び各種オブジェクトPC2〜PC10)毎に設定されており、実際には個別画像毎にカメラ座標系が存在することとなる。このように個別画像毎にカメラ座標系が設定されることにより、視点切換を個別に行うことが可能となり、描画データの作成の自由度が高められる。但し、説明の便宜上、図17には全ての個別画像が単一の視点に設定されている状態を示す。 Here, the camera information is set for each individual image (rearmost image PC1 and various objects PC2 to PC10), and the camera coordinate system actually exists for each individual image. By setting the camera coordinate system for each individual image in this way, it is possible to switch the viewpoint individually, and the degree of freedom in creating drawing data is increased. However, for convenience of explanation, FIG. 17 shows a state in which all the individual images are set to a single viewpoint.

続くステップS1006では、視野座標系(視野空間)への変換処理を実行する。視野座標系への変換処理では、上記各カメラ座標系を、視点からの視野(視野角)に対応する視野座標系に変換する。これにより、各個別画像について、対応する視点の視野内に含まれている場合にはそれが抽出されるとともに、視点から近い個別画像が拡大されるとともに、視点から遠い個別画像が縮小される。 In the following step S1006, the conversion process to the visual field coordinate system (visual field space) is executed. In the conversion process to the field of view coordinate system, each of the camera coordinate systems is converted into the field of view coordinate system corresponding to the field of view (viewing angle) from the viewpoint. As a result, for each individual image, if it is included in the field of view of the corresponding viewpoint, it is extracted, the individual image near the viewpoint is enlarged, and the individual image far from the viewpoint is reduced.

続くステップS1007では、クリッピング処理を実行する。クリッピング処理では、ステップS1006にて抽出された各個別画像が、それぞれ対応する視点を共通の原点として把握される。そして、その状態で描画対象のフレーム領域142a,142b(すなわち、図柄表示装置31の表示面G)に応じたスクリーン領域PC12(図17を参照)に対応する空間を基準として、ステップS1006にて抽出された各個別画像をクリッピングする。 In the following step S1007, clipping processing is executed. In the clipping process, each individual image extracted in step S1006 is grasped with the corresponding viewpoint as a common origin. Then, in that state, extraction is performed in step S1006 with reference to the space corresponding to the screen area PC12 (see FIG. 17) corresponding to the frame areas 142a and 142b to be drawn (that is, the display surface G of the symbol display device 31). Clip each individual image that has been created.

続くステップS1008では、ライティング処理を実行する。ライティング処理では、描画リストにより指定されたライトの情報により、仮想光源の種類、座標及び向きを決定するとともに、上記クリッピング処理により抽出された各オブジェクトについて上記仮想光源に基づき陰影や反射等を演算する。 In the following step S1008, the lighting process is executed. In the lighting process, the type, coordinates, and orientation of the virtual light source are determined based on the light information specified by the drawing list, and shadows, reflections, etc. are calculated for each object extracted by the clipping process based on the virtual light source. ..

続くステップS1009では、色情報の設定処理を実行する。色情報の設定処理では、上記クリッピング処理により抽出された各オブジェクトに対して、ピクセル単位(すなわちポリゴン単位)又は頂点単位で、色情報を設定することで、各オブジェクトの外観を決定する。かかる色情報の設定処理では、基本的に、上記クリッピング処理により抽出された各オブジェクトに対して、それぞれに対応するテクスチャを貼り付けるテクスチャマッピング処理が実行される。また、状況によっては、バンプマッピングや透明度マッピングなどの処理が実行される。 In the following step S1009, the color information setting process is executed. In the color information setting process, the appearance of each object is determined by setting the color information in pixel units (that is, polygon units) or vertex units for each object extracted by the clipping process. In the color information setting process, basically, a texture mapping process of pasting a texture corresponding to each object extracted by the clipping process is executed. In addition, depending on the situation, processing such as bump mapping and transparency mapping is executed.

その後、ステップS1010及びステップS1011にて、ステップS1007にて抽出され、さらにライティング処理や色情報の設定処理が完了した各個別画像を、仮想2次元平面であるスクリーン領域PC12に投影(例えば、透視投影や平行投影)することで描画データを作成する。 After that, in step S1010 and step S1011, each individual image extracted in step S1007 and further completed in the lighting process and the color information setting process is projected onto the screen area PC12 which is a virtual two-dimensional plane (for example, perspective projection). And parallel projection) to create drawing data.

具体的には、先ずステップS1010にて、背景用の描画データ作成処理を実行する。背景用の描画データ作成処理では、背景画像として設定されている最背面画像及びオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、背景用の描画データを作成する。 Specifically, first, in step S1010, the drawing data creation process for the background is executed. In the background drawing data creation process, background drawing data is created by projecting the rearmost image and the object set as the background image onto the screen area PC 12 while erasing the hidden surface.

ここで、VRAM134には、図4に示すようにスクリーン用バッファ144が設けられており、スクリーン用バッファ144には背景用の描画データが書き込まれる背景用のバッファと、演出用の描画データ及び図柄用の描画データがまとめて書き込まれる演出及び図柄用のバッファとが設定されている。また、背景用のバッファ、演出及び図柄用のバッファには、スクリーン領域PC12のピクセル数と同一のドット数のエリアが設定されている。ステップS1010にて作成される背景用の描画データは、背景用のバッファに書き込まれる。なお、描画リストにおいて背景用の画像データが指定されていない場合には、背景用の描画データは作成されない。 Here, the VRAM 134 is provided with a screen buffer 144 as shown in FIG. 4, and the screen buffer 144 includes a background buffer in which drawing data for the background is written, and drawing data and patterns for effect. An effect in which drawing data for the purpose is written together and a buffer for the design are set. Further, in the buffer for the background and the buffer for the effect and the design, an area having the same number of dots as the number of pixels of the screen area PC 12 is set. The background drawing data created in step S1010 is written in the background buffer. If the background image data is not specified in the drawing list, the background drawing data is not created.

続くステップS1011では、演出及び図柄用の描画データ作成処理を実行する。演出及び図柄用の描画データ作成処理では、演出画像として設定されているオブジェクト及び図柄として設定されているオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、スクリーン用バッファ144における演出及び図柄用のバッファに演出及び図柄用の描画データを作成する。なお、描画リストにおいて演出及び図柄用の画像データが指定されていない場合には、演出及び図柄用の描画データは作成されない。 In the following step S1011, the drawing data creation process for the effect and the design is executed. In the drawing data creation process for the effect and the pattern, the object set as the effect image and the object set as the pattern are projected onto the screen area PC12 while the hidden surface is erased, so that the screen buffer is used. Drawing data for the effect and the design is created in the buffer for the effect and the design in 144. If the image data for the effect and the design is not specified in the drawing list, the drawing data for the effect and the design is not created.

その後、ステップS1012にて、描画データ合成処理を実行した後に、本描画処理を終了する。ステップS1012の描画データ合成処理では、ステップS1010及びステップS1011の処理によりそれぞれ個別にスクリーン用バッファ144に作成されている背景用の描画データと、演出及び図柄用の描画データとを合成して、その合成結果を描画対象のフレーム領域142a,142bに1フレーム分の描画データとして書き込む。 Then, in step S1012, after executing the drawing data synthesizing process, the main drawing process is terminated. In the drawing data compositing process of step S1012, the drawing data for the background and the drawing data for the effect and the pattern, which are individually created in the screen buffer 144 by the processes of step S1010 and step S1011, are combined and the drawing data thereof is combined. The composition result is written in the frame areas 142a and 142b to be drawn as drawing data for one frame.

この場合、その書き込む順序は、背景用の描画データ→演出及び図柄用の描画データの順序で奥側から手前側に並ぶように規定されている。したがって、描画対象のフレーム領域142a,142bに対して、先ず背景用の描画データを書き込み、次に演出及び図柄用の描画データを書き込む。この際、描画の実行対象となったピクセルに完全透過のα値が設定されている場合には奥側の画像がそのまま利用され、半透過のα値が設定されている場合にはα値を基準とした比率での奥側の画像と手前側の画像との融合が行われ、不透過のα値が設定されている場合には奥側の画像に対する手前側の画像の上書きが行われるように、融合用の演算が実行される。 In this case, the writing order is defined so as to line up from the back side to the front side in the order of drawing data for the background → drawing data for the effect and the design. Therefore, the drawing data for the background is first written in the frame areas 142a and 142b to be drawn, and then the drawing data for the effect and the design is written. At this time, if the completely transparent α value is set for the pixel to be drawn, the image on the back side is used as it is, and if the semi-transparent α value is set, the α value is used. The image on the back side and the image on the front side are fused at the reference ratio, and when the opaque α value is set, the image on the front side is overwritten on the image on the back side. Then, the calculation for fusion is executed.

ここで、融合用の演算についてより詳細に説明すると、描画対象のフレーム領域142a,142bにおける各ドットのRGBの各数値情報は、演出及び図柄用の描画データにおける描画対象となったピクセルに設定されているα値を基準として、
R:「奥側画像のR値」×(「1」−「α値」)+「手前側画像のR値」×「α値」
G:「奥側画像のG値」×(「1」−「α値」)+「手前側画像のG値」×「α値」
B:「奥側画像のB値」×(「1」−「α値」)+「手前側画像のB値」×「α値」
となる。
Here, to explain the calculation for fusion in more detail, each numerical information of RGB of each dot in the frame areas 142a and 142b to be drawn is set to the pixel to be drawn in the drawing data for the effect and the design. Based on the α value
R: "R value of the back image" x ("1"-"α value") + "R value of the front image" x "α value"
G: "G value of the back image" x ("1"-"α value") + "G value of the front image" x "α value"
B: "B value of the back image" x ("1"-"α value") + "B value of the front image" x "α value"
Will be.

ちなみに、各描画データは1フレーム分の面積を有するように規定されているが、演出及び図柄用の描画データにおいて投影が行われなかったブランク部分については完全透過のα値が設定されている。 Incidentally, although each drawing data is defined to have an area for one frame, a completely transparent α value is set for the blank portion where projection is not performed in the drawing data for the effect and the design.

上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路155から図柄表示装置31に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分後の描画データの作成と並行して行われる。また、表示回路155は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域142a,142bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、描画データの描画対象となっているフレーム領域142a,142bが画像信号を出力するための出力対象とならないように規制されている。 The creation of the drawing data for one frame is performed so as to be completed within the range of the 20 msec cycle. Further, an image signal is output from the display circuit 155 to the symbol display device 31 based on the created drawing data. However, since the double buffer method is adopted as described above, the output of the image signal is output to the output. It is performed in parallel with the creation of drawing data for the relevant frame one frame later. Further, the display circuit 155 has a selector circuit that alternately switches the frame areas 142a and 142b to be referred to each time the output of the image signal for one frame is completed, and the drawing data is switched by the switching by the selector circuit. The frame areas 142a and 142b to be drawn are regulated so as not to be output targets for outputting an image signal.

なお、上記ステップS1002〜ステップS1007までがジオメトリ演算部151により実行される処理であり、上記ステップS1008〜ステップS1012がレンダリング部152により実行される処理である。 It should be noted that steps S1002 to S1007 are processes executed by the geometry calculation unit 151, and steps S1008 to S1012 are processes executed by the rendering unit 152.

<Zバッファ143を利用したマスク表示>
次に、Zバッファ143を利用したマスク表示について説明する。
<Mask display using Z buffer 143>
Next, the mask display using the Z buffer 143 will be described.

Zバッファ143は、既に説明したとおり、Zバッファ法による隠面消去を行う場合に利用される。ここで、VDP135にて実行されるZバッファを用いた隠面処理について、図18のフローチャートを参照しながら説明する。 As described above, the Z-buffer 143 is used when the hidden surface is erased by the Z-buffer method. Here, the hidden surface processing using the Z buffer executed by the VDP 135 will be described with reference to the flowchart of FIG.

Zバッファを用いた隠面処理は、描画リストにてZテスト指定がなされている場合に、描画処理(図16)におけるステップS1010及びステップS1011の各描画データ作成処理にて起動される。また、表示CPU131は、Zテスト指定を行う場合、Zバッファを用いた隠面処理において基準となるスクリーン領域PC12のZ軸を、ワールド座標系のZ軸に対して平行となるように設定し、Z軸方向に平行な方向に並ぶ各ピクセル間において表示対象とするピクセルを決定する。 The hidden surface process using the Z buffer is started in each drawing data creation process of step S1010 and step S1011 in the drawing process (FIG. 16) when the Z test is specified in the drawing list. Further, when the Z test is specified, the display CPU 131 sets the Z axis of the screen area PC12, which is a reference in the hidden surface processing using the Z buffer, so as to be parallel to the Z axis of the world coordinate system. The pixel to be displayed is determined among the pixels arranged in the direction parallel to the Z-axis direction.

ステップS1010の背景用の描画データ作成処理では、背面用の画像及び背景用のオブジェクトが隠面処理の対象となり、ステップS1011の演出及び図柄用の描画データ作成処理では、演出用のオブジェクト及び図柄用のオブジェクトが隠面処理の対象となる。また、演出及び図柄用の描画データ作成処理における隠面処理では、演出用のオブジェクト及び図柄用のオブジェクトのいずれがも設定されていないブランク部分については、完全透過のα値が設定される。 In the drawing data creation process for the background in step S1010, the image for the back surface and the object for the background are targeted for the hidden surface processing, and in the effect of step S1011 and the drawing data creation process for the pattern, the object for the effect and the object for the pattern are used. Object is subject to hidden surface processing. Further, in the hidden surface processing in the effect and the drawing data creation process for the design, the α value of complete transparency is set for the blank portion in which neither the object for the effect nor the object for the design is set.

Zバッファ143は1個のみ設定されており、スクリーン用バッファ144における背景用のバッファと同一のドット数のエリアを有しているとともに、演出及び図柄用のバッファと同一のドット数のエリアを有している。 Only one Z-buffer 143 is set, and it has an area with the same number of dots as the background buffer in the screen buffer 144, and also has an area with the same number of dots as the effect and design buffers. doing.

先ずステップS1101では、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS1102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。 First, in step S1101, the individual image included on the Z-axis of the current projection target dot in the screen area PC12 (see FIG. 17) is used as the target pixel of the individual image to be tested this time. Grasp the set Z value. In the following step S1102, the Z value set in the dot area corresponding to the drawing target dot on a one-to-one basis in the Z buffer 143 is grasped.

続くステップS1103では、ステップS1101にて把握した個別画像のZ値が、ステップS1102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS1104に進み、ステップS1101にて把握したZ値を、Zバッファ143におけるステップS1102にて参照したドットのエリアに上書きする。続くステップS1105では、ステップS1101にて参照したピクセルに設定されている色情報といった描画用の数値情報を、スクリーン用バッファ144における描画対象のバッファにおいて、今回の投影対象ドットのエリアに上書きする。その後に、ステップS1106に進む。 In the following step S1103, it is determined whether or not the Z value of the individual image grasped in step S1101 corresponds to the front side in the Z-axis direction with respect to the Z value of the Z buffer 143 grasped in step S1102. If it corresponds to the front side, the process proceeds to step S1104, and the Z value grasped in step S1101 is overwritten in the dot area referred to in step S1102 in the Z buffer 143. In the following step S1105, the numerical information for drawing such as the color information set for the pixel referred to in step S1101 is overwritten in the area of the projection target dot this time in the drawing target buffer in the screen buffer 144. After that, the process proceeds to step S1106.

一方、ステップS1103にて、手前側に対応していないと判定した場合には、ステップS1104〜ステップS1105の処理を実行することなく、ステップS1106に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合には、Zバッファ143の更新は行われないとともに、既に設定されている描画用の数値情報がそのまま保持される。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われるとともに、描画用の数値情報も更新される。 On the other hand, if it is determined in step S1103 that it does not correspond to the front side, the process proceeds to step S1106 without executing the processes of steps S1104 to S1105. That is, if the Z value of the pixel to be tested is the same as the Z value already set for the target dot of the Z buffer 143 or is on the far side in the Z axis direction, the Z buffer 143 is updated. At the same time, the numerical information for drawing that has already been set is retained as it is. On the other hand, if the Z value of the pixel to be tested is on the front side in the Z-axis direction from the Z value already set for the target dot of the Z buffer 143, the Z buffer 143 is updated. , Numerical information for drawing is also updated.

ステップS1106では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS1101に戻り、新たな対象ピクセルに対してZテストを行う。 In step S1106, it is determined whether or not the Z test is completed for all the target pixels included on the Z axis with respect to the projection target dot. If it is not completed, the process returns to step S1101 and a Z test is performed on the new target pixel.

完了している場合には、ステップS1107にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS1108にて、投影対象ドットを更新した後にステップS1101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には本隠面処理を終了する。 If it is completed, in step S1107, it is determined whether or not the Z test is completed for all the dots in the screen area PC12. If it is not completed, in step S1108, after updating the projection target dot, the process returns to step S1101 and a Z test is performed on the new projection target dot. If it is completed, this hidden surface processing is terminated.

上記のように隠面処理が実行されることにより、Z軸上に複数の個別画像が並んだとしても、視点に近い側の個別画像のみが表示されることとなる。ここで、本実施形態では、当該隠面処理を利用して背景用のキャラクタのマスク(すなわち、部分表示)が実行される。そして、このマスクは、表示CPU131においてオブジェクトのZ値をマスク用に設定することで行われる。 By executing the hidden surface processing as described above, even if a plurality of individual images are arranged on the Z axis, only the individual images on the side closer to the viewpoint are displayed. Here, in the present embodiment, the mask (that is, partial display) of the character for the background is executed by utilizing the hidden surface processing. Then, this mask is performed by setting the Z value of the object for the mask in the display CPU 131.

以下、表示CPU131にて実行されるマスク用の演算処理について、図19のフローチャートを参照しながら説明する。なお、当該マスク用の演算処理は、データテーブルにおいて参照したエリアにマスク用の演算処理を実行すべきことが示されている場合に、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。 Hereinafter, the arithmetic processing for the mask executed by the display CPU 131 will be described with reference to the flowchart of FIG. It should be noted that the arithmetic processing for the mask is used for the background arithmetic processing in step S903 in the task processing (FIG. 14) when it is indicated that the arithmetic processing for the mask should be executed in the area referred to in the data table. Is executed.

先ずステップS1201では、現状設定されているデータテーブルに基づいて、今回の処理回が第1のマスク表示に対応しているか否かを判定する。ここで、マスク表示として、第1のマスク表示と第2のマスク表示とが設定されている。第1のマスク表示は、キャラクタを一部表示させた状態を複数フレームに亘って維持させる表示態様であり、第2のマスク表示は、キャラクタの全体を表示させた状態からマスクするピクセルを複数フレームに亘って除々に増加させ最終的に消滅させる表示態様である。 First, in step S1201, it is determined whether or not the current processing time corresponds to the first mask display based on the currently set data table. Here, as the mask display, the first mask display and the second mask display are set. The first mask display is a display mode in which the state in which a part of the character is partially displayed is maintained over a plurality of frames, and the second mask display is a display mode in which the pixels to be masked from the state in which the entire character is displayed are displayed in a plurality of frames. It is a display mode that gradually increases and finally disappears.

第1のマスク表示に対応している場合には、ステップS1202にて、現状設定されているデータテーブルに基づいてマスク対象のオブジェクトを把握する。続くステップS1203では、現状設定されているデータテーブルに基づいて、ステップS1202にて把握したオブジェクトにおいてマスク対象となるピクセルを把握する。 When the first mask display is supported, in step S1202, the object to be masked is grasped based on the currently set data table. In the following step S1203, the pixels to be masked in the object grasped in step S1202 are grasped based on the currently set data table.

その後、ステップS1204にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいてマスク対象となっているピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、マスク対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 Then, after executing the Z value setting process in step S1204, the present calculation process is terminated. In the Z value setting process, for the pixels targeted for masking in the above object, the Z value is set to be on the back side of the backmost image, and for the pixels not targeted for masking, the Z value is set. The Z value is set so as to be on the front side of the rearmost image and correspond to the position to be originally displayed.

上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第1のマスク表示が表示面Gにて行われる。第1のマスク表示の具体的な内容について、図20を参照しながら説明する。なお、説明の便宜上、図20では、3次元画像を2次元画像として示す。 As described above, the arithmetic processing for the mask is executed, and the drawing list including the object for which the Z value is set is transmitted to the VDP135, so that the Z buffer is used as the hidden surface processing in the VDP135. The hidden surface process (FIG. 18) is executed, and finally the first mask display is performed on the display surface G. The specific contents of the first mask display will be described with reference to FIG. For convenience of explanation, FIG. 20 shows a three-dimensional image as a two-dimensional image.

図20(a)は第1のマスク表示が行われることなく通常通りにキャラクタCH1が表示される場合を示している。また、図20(a―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(a―2)は表示面Gでの表示態様を示す。この場合、図20(a―1)に示すように、各ピクセルには最背面の画像よりも手前側となるようにZ値が設定されているため、図20(a―2)に示すようにキャラクタCH1はその全体が表示される。 FIG. 20A shows a case where the character CH1 is displayed as usual without the first mask display being performed. Further, FIG. 20 (a-1) is an image diagram of a Z value designated by the display CPU 131 for each pixel of the object PC 13 corresponding to the character CH1, and FIG. 20 (a-2) is an image diagram of the Z value on the display surface G. The display mode is shown. In this case, as shown in FIG. 20 (a-1), since the Z value is set for each pixel so as to be on the front side of the rearmost image, as shown in FIG. 20 (a-2). The entire character CH1 is displayed.

図20(b)は第1のマスク表示が行われる場合を示している。また、図20(b―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(b―2)は表示面Gでの表示態様を示す。この場合、図20(b―1)に示すように、各ピクセルの一部には最背面の画像よりも手前側となるようにZ値が設定されているが、残りのピクセルには最背面の画像よりも奥側となるようにZ値が設定されている。したがって、図20(b―2)に示すように、キャラクタCH1は上記手前側となるようにZ値が設定されたピクセルに対応した箇所のみが表示される。 FIG. 20B shows a case where the first mask display is performed. Further, FIG. 20 (b-1) is an image diagram of a Z value designated by the display CPU 131 for each pixel of the object PC 13 corresponding to the character CH1, and FIG. 20 (b-2) is an image diagram of the Z value on the display surface G. The display mode is shown. In this case, as shown in FIG. 20 (b-1), a Z value is set for a part of each pixel so as to be on the front side of the backmost image, but for the remaining pixels, the backmost side is set. The Z value is set so as to be on the back side of the image of. Therefore, as shown in FIG. 20 (b-2), the character CH1 displays only the portion corresponding to the pixel whose Z value is set so as to be on the front side.

なお、同一のキャラクタCH1について第1のマスク表示用に対応したZ値の設定パターンが、表示CPU131の制御プログラムで複数種類設定されている構成としてもよい。この場合、同一のキャラクタCH1について第1のマスク表示の態様を複数種類設定することが可能となる。 It should be noted that a plurality of types of Z value setting patterns corresponding to the first mask display for the same character CH1 may be set by the control program of the display CPU 131. In this case, it is possible to set a plurality of types of the first mask display mode for the same character CH1.

マスク用の演算処理(図19)の説明に戻り、ステップS1201にて、今回の処理回が第1のマスク表示に対応していないと判定した場合には、今回の処理回は第2のマスク表示に対応していることを意味しているため、ステップS1205に進む。ステップS1205では、現状設定されているデータテーブルに基づいて、第2のマスク表示の開始タイミングであるか否かを判定する。 Returning to the description of the arithmetic processing for the mask (FIG. 19), if it is determined in step S1201 that the current processing time does not correspond to the first mask display, the current processing time is the second mask. Since it means that the display is supported, the process proceeds to step S1205. In step S1205, it is determined whether or not it is the start timing of the second mask display based on the currently set data table.

開始タイミングである場合には、ステップS1206にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握する。続くステップS1207では、現状設定されているデータテーブルに基づいて、マスク用の専用テーブルを読み出す。このマスク用の専用テーブルは、今回の第2のマスク表示が完了するまで記憶保持される。続くステップS1208では、上記マスク用の専用テーブルに初期消去対象として設定されているピクセルを把握する。 When it is the start timing, in step S1206, the object to be masked is grasped based on the currently set data table. In the following step S1207, a dedicated mask table is read out based on the currently set data table. The dedicated table for this mask is stored and retained until the second mask display is completed. In the following step S1208, the pixels set as the initial erasure target in the dedicated table for the mask are grasped.

その後、ステップS1209にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1208にて初期消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、初期消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 Then, after executing the Z value setting process in step S1209, the present calculation process is terminated. In the Z value setting process, for the pixel grasped as the initial erasure target in step S1208 in the above object, the Z value is set to be on the back side of the rearmost image, and the pixel is set as the initial erasure target. For pixels that are not, the Z value is set so that it is on the front side of the rearmost image and corresponds to the position where it should be displayed.

一方、ステップS1205にて開始タイミングでないと判定した場合には、ステップS1210に進む。ステップS1210では、ワークRAM132に設定されている消去対象カウンタを更新する。続くステップS1211では、現状読み出されているマスク用の専用テーブルにおいて、ステップS1210にて更新した消去対象カウンタの値に対応したデータを確認し、消去対象のピクセルを把握する。 On the other hand, if it is determined in step S1205 that it is not the start timing, the process proceeds to step S1210. In step S1210, the erasure target counter set in the work RAM 132 is updated. In the following step S1211, in the currently read dedicated table for mask, the data corresponding to the value of the erase target counter updated in step S1210 is confirmed, and the pixel to be erased is grasped.

その後、ステップS1212にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1211にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 After that, after executing the Z value setting process in step S1212, this calculation process ends. In the Z value setting process, in the above object, the Z value of the pixel grasped as the erase target in step S1211 is set to be on the back side of the rearmost image, and is the erase target. For pixels that do not exist, the Z value is set so that it is on the front side of the rearmost image and corresponds to the position where it should be displayed.

上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第2のマスク表示が表示面Gにて行われる。第2のマスク表示の具体的な内容について、図21を参照しながら説明する。なお、説明の便宜上、図21では、3次元画像を2次元画像として示す。 As described above, the arithmetic processing for the mask is executed, and the drawing list including the object for which the Z value is set is transmitted to the VDP135, so that the Z buffer is used as the hidden surface processing in the VDP135. The hidden surface process (FIG. 18) is executed, and finally the second mask display is performed on the display surface G. The specific contents of the second mask display will be described with reference to FIG. 21. For convenience of explanation, FIG. 21 shows a three-dimensional image as a two-dimensional image.

図21(a)はマスク用の専用テーブルに設定されている情報のイメージ図を示しており、図21(b)は第2のマスク表示が行われることなく通常通りにキャラクタCH2が表示される場合を示している。図21(a)に示すように、キャラクタCH2に対応したオブジェクトPC14は複数のピクセルを有しており、マスク用の専用テーブルでは、それら複数のピクセルが複数ずつグループ分けされているとともに各グループに対して消去対象となるフレーム順序が設定されている。具体的には、「a1」として示すグループが初期消去対象として設定されており、その後は、「a2」として示すグループ→「a3」として示すグループ→「a4」として示すグループ→「a5」として示すグループの順序で消去対象となる。 FIG. 21A shows an image diagram of information set in the dedicated mask table, and FIG. 21B shows a case where the character CH2 is displayed as usual without the second mask display being performed. Is shown. As shown in FIG. 21 (a), the object PC 14 corresponding to the character CH2 has a plurality of pixels, and in the dedicated table for mask, the plurality of pixels are grouped by each group and each group is divided into groups. On the other hand, the frame order to be erased is set. Specifically, the group indicated as "a1" is set as the initial deletion target, and thereafter, the group indicated as "a2" → the group indicated as “a3” → the group indicated as “a4” → indicated as “a5”. It will be erased in the order of the group.

第2のマスク表示が開始され、「a1」として示すグループが消去対象となったフレームにおいては、図21(c)に示すように、「a1」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。また、その後のフレームにおいて、「a2」として示すグループが消去対象となった場合には、図21(d)に示すように、「a1」のグループに加え、「a2」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。そして、最終的に「a5」として示すグループが消去対象となったフレームにおいては、キャラクタCH2が表示されない状態となる。 In the frame in which the second mask display is started and the group indicated as "a1" is to be erased, as shown in FIG. 21 (c), the pixel portion corresponding to the group "a1" is missing. The character CH2 is displayed. Further, in the subsequent frame, when the group shown as "a2" is to be erased, as shown in FIG. 21D, the pixels corresponding to the group of "a2" in addition to the group of "a1". The character CH2 is displayed with the portion missing. Then, in the frame in which the group finally indicated as "a5" is the target of erasure, the character CH2 is not displayed.

以上のとおり、Zバッファ143を利用してオブジェクトのマスクを行うことができる。また、本構成によれば、表示CPU131のプログラム上でマスク用の演算を行うだけでよく、VDP135において画像データの一種であるマスクデータを設定する必要が生じない。したがって、画像データを記憶しておくのに必要な記憶容量を増加させることなく、マスク表示を行うことができる。 As described above, the Z buffer 143 can be used to mask the object. Further, according to this configuration, it is only necessary to perform the mask calculation on the program of the display CPU 131, and it is not necessary to set the mask data which is a kind of image data in the VDP 135. Therefore, the mask display can be performed without increasing the storage capacity required for storing the image data.

また、表示CPU131においては各オブジェクトのZ値を調整するだけでよいため、表示CPU131の処理負荷をさほど増加させることなく上記マスク表示を行うことができる。また、第1のマスク表示及び第2のマスク表示といった複数種類のマスク表示を、上記のような優れた効果を奏することができる。 Further, since the display CPU 131 only needs to adjust the Z value of each object, the mask display can be performed without significantly increasing the processing load of the display CPU 131. Further, a plurality of types of mask displays such as the first mask display and the second mask display can exert the above-mentioned excellent effects.

また、非表示とする部分には最背面画像よりも奥側のZ値が設定される。最背面画像はいずれのフレームにおいても常に背面を構成する画像であるため、Z軸(奥行き方向)の位置として絶対的な基準となる。これを基準に非表示とする部分のZ値を設定することで、非表示とする場合のZ値の設定態様を画一的なものとすることが可能となり、当該Z値の設定に係る処理の処理負荷の軽減が図られる。 Further, a Z value on the back side of the rearmost image is set in the hidden portion. Since the rearmost image is an image that always constitutes the back surface in any frame, it serves as an absolute reference as a position in the Z axis (depth direction). By setting the Z value of the part to be hidden based on this, it is possible to make the setting mode of the Z value when it is hidden uniform, and the process related to the setting of the Z value. The processing load is reduced.

なお、第1のマスク表示及び第2のマスク表示のいずれか一方のみが設定されている構成としてもよい。また、第2のマスク表示において複数のピクセル毎に消去されるのではなく、1ピクセル毎に消去される構成としてもよく、消去対象となったピクセルが再度表示対象に設定されることがある構成としてもよい。 In addition, only one of the first mask display and the second mask display may be set. Further, in the second mask display, the pixel may be erased for each pixel instead of being erased for each of a plurality of pixels, and the pixel to be erased may be set as the display target again. May be.

また、上記Z値の設定を逆に行うことで、複数フレーム分の表示期間に亘ってキャラクタが順次消去されるのではなく、複数フレーム分の表示期間に亘ってキャラクタが順次出現するように表示される構成としてもよい。 Further, by reversing the setting of the Z value, the characters are not sequentially erased over the display period for a plurality of frames, but are displayed so that the characters appear sequentially over the display period for a plurality of frames. It may be configured to be.

<Zバッファ143を利用したマスク処理の別形態>
Zバッファ143を利用したマスク表示の別形態について説明する。
<Another form of mask processing using Z-buffer 143>
Another form of the mask display using the Z buffer 143 will be described.

図22は表示CPU131にて実行されるマスク用の演算処理の別形態を示すフローチャートである。 FIG. 22 is a flowchart showing another form of the arithmetic processing for the mask executed by the display CPU 131.

先ずステップS1301では、現状設定されているデータテーブルに基づいて、開始タイミングであるか否かを判定する。開始タイミングである場合には、ステップS1302にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握するとともに、ステップS1303にて、現状設定されているデータテーブルに基づいて、初期マスク用テーブルを読み出す。 First, in step S1301, it is determined whether or not it is the start timing based on the currently set data table. When it is the start timing, the object to be masked is grasped based on the data table currently set in step S1302, and the initial stage is performed based on the data table currently set in step S1303. Read the mask table.

続くステップS1304では、マスク抽選処理を実行する。マスク抽選処理では、ワークRAM132に設けられた抽選用カウンタに現状設定されている数値情報を読み出し、その数値情報に対応した消去対象の情報を、ステップS1303にて読み出した初期マスク用テーブルから抽出する。 In the following step S1304, the mask lottery process is executed. In the mask lottery process, the numerical information currently set in the lottery counter provided in the work RAM 132 is read, and the information to be erased corresponding to the numerical information is extracted from the initial mask table read in step S1303. ..

抽選用カウンタは、例えばメイン処理(図12)にてステップS702の処理を実行する度に更新されるように構成されており、さらにはカウンタ値が1周した場合には初期値がランダムに選択される構成となっている。また、初期マスク用テーブルでは、抽選用カウンタの各カウンタ値に1対1で対応させて消去対象の情報が設定されているとともに、その消去対象の情報は、マスク対象のオブジェクトを構成する全ピクセルのうち複数のピクセルを1グループとして、各グループと1対1で対応している。 The lottery counter is configured to be updated every time the process of step S702 is executed in, for example, the main process (FIG. 12), and further, when the counter value makes one round, the initial value is randomly selected. It is configured to be. Further, in the initial mask table, information to be erased is set in a one-to-one correspondence with each counter value of the lottery counter, and the information to be erased is all pixels constituting the object to be masked. Of these, a plurality of pixels are regarded as one group, and there is a one-to-one correspondence with each group.

続くステップS1305では、ステップS1304にて取得した消去対象の情報から、消去対象のピクセルを把握する。その後、ステップS1306にてZ値の設定処理を実行した後に、本演算処理を終了する。このZ値の設定処理では、上記オブジェクトにおいて、ステップS1305にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 In the following step S1305, the pixel to be erased is grasped from the information to be erased acquired in step S1304. Then, after executing the Z value setting process in step S1306, the present calculation process is terminated. In this Z value setting process, in the above object, the Z value of the pixel grasped as the erase target in step S1305 is set to be on the back side of the rearmost image, and is the erase target. For pixels that do not exist, the Z value is set so that it is on the front side of the rearmost image and corresponds to the position where it should be displayed.

一方、ステップS1301にて開始タイミングではないと判定した場合には、ステップS1307に進む。ステップS1307では、既に読み出されている初期マスク用テーブルから、既に消去対象として設定された消去対象の情報が除外されるように、そのマスク用テーブルを書き換える。例えば、既に消去対象として設定された消去対象の情報に対応している上記カウンタ値が、他の消去対象の情報に重複して割り当てられるように、書き換える。この割り当てはランダムに行われてもよく、テーブル上で直下位のカウンタ値に対応した消去対象の情報に割り当てられる構成としてもよい。 On the other hand, if it is determined in step S1301 that it is not the start timing, the process proceeds to step S1307. In step S1307, the mask table is rewritten so that the information of the erasure target already set as the erasure target is excluded from the initial mask table that has already been read. For example, the counter value corresponding to the information to be erased that has already been set as the target to be erased is rewritten so as to be duplicated with the information to be erased. This allocation may be performed randomly, or may be configured to be allocated to the information to be erased corresponding to the counter value immediately below on the table.

その後、ステップS1307にて書き換えたマスク用テーブルを利用して、ステップS1304〜ステップS1306の処理を実行した後に、本演算処理を終了する。 After that, using the mask table rewritten in step S1307, the processes of steps S1304 to S1306 are executed, and then this calculation process is terminated.

以上のとおり、本別形態によれば、消去対象となるピクセルがランダムに選択されることとなるため、マスク表示の態様を多様化することができる。 As described above, according to the present alternative mode, the pixels to be erased are randomly selected, so that the mask display mode can be diversified.

なお、Zバッファ143を利用したマスク表示を、背景用のキャラクタではなく、演出用のキャラクタや図柄に対して適用してもよい。例えば、演出用のキャラクタに対して適用する場合、隠面処理が背景用の画像データ及び演出用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。また、図柄に対して適用する場合、隠面処理が背景用の画像データ、演出用の画像データ及び図柄用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。 The mask display using the Z-buffer 143 may be applied not to the background character but to the effect character or symbol. For example, when it is applied to a character for effect, the hidden surface process is executed collectively for the image data for background and the image data for effect, so that the rearmost surface is the same as the above configuration. The Z values of the display target and the non-display target may be sorted based on the Z value of the image. Further, when applied to a symbol, the hidden surface processing is collectively executed for the image data for the background, the image data for the effect, and the image data for the symbol, so that the same as the above configuration is performed. , The Z value of the display target and the non-display target may be sorted based on the Z value of the rearmost image.

また、隠面処理が背景、演出及び図柄に対して個別に行われる場合であっても、VDP135において最背面画像よりも奥側のZ値が設定されているピクセルは描画対象としないと定められているのであれば、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。 Further, even when the hidden surface processing is performed individually for the background, the effect, and the pattern, it is defined that the pixel in which the Z value on the back side of the rearmost image is set in VDP135 is not drawn. If so, the Z values of the display target and the non-display target may be sorted based on the Z value of the rearmost image in the same manner as in the above configuration.

また、表示対象及び非表示対象のZ値の振分が、最背面画像のZ値を基準にして行われるのではなく、例えば非表示対象のZ値として視点よりも手前のZ値が設定され、表示対象のZ値として視点よりも奥側のZ値が設定される構成としてもよい。 Further, the Z value of the display target and the non-display target is not distributed based on the Z value of the rearmost image, but the Z value in front of the viewpoint is set as the Z value of the non-display target, for example. , The Z value on the back side of the viewpoint may be set as the Z value to be displayed.

また、Zバッファ143を利用した隠面処理は、ワールド座標系のZ軸を基準に行われるのではなく、視点の向く方向を基準に行われる構成としてもよい。 Further, the hidden surface processing using the Z buffer 143 may be performed not based on the Z axis of the world coordinate system but based on the direction in which the viewpoint faces.

<表示モードの切換に係る構成>
次に、表示モードの切換に係る構成について説明する。
<Configuration related to switching display mode>
Next, the configuration related to the switching of the display mode will be described.

表示モードとは、既に説明したとおり、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。具体的には、第1表示モードと第2表示モードとが設定されている。 As described above, the display mode is a state in which the type of the standby image displayed until the game round is started and the type of the game round image displayed in the situation where the game round is being executed are set to a predetermined type. And multiple types of display modes are set. Specifically, the first display mode and the second display mode are set.

第1表示モードと第2表示モードとでは、背景画像の表示態様及び各図柄の表示態様が相互に異なっている。具体的には、同一の番号が付された図柄で比較した場合、第1表示モードと第2表示モードとで図柄の外形や形状は同一となっているが、色や模様が異なっている。また、背景画像については、第1表示モードと第2表示モードとで、最背面画像の種類が異なっているとともに、最背面画像の手前にて表示されるキャラクタの数及び種類が異なっており、表示されるキャラクタの数は第1表示モードの方が第2表示モードよりも多く設定されている。 In the first display mode and the second display mode, the display mode of the background image and the display mode of each symbol are different from each other. Specifically, when comparing the symbols with the same number, the outer shape and shape of the symbols are the same in the first display mode and the second display mode, but the colors and patterns are different. Regarding the background image, the type of the rearmost image is different between the first display mode and the second display mode, and the number and types of characters displayed in front of the rearmost image are different. The number of characters to be displayed is set to be larger in the first display mode than in the second display mode.

表示モードの切換は、演出用操作装置48の操作に基づき行われる。具体的には、遊技回や開閉実行モードが実行されていない状況で演出用操作装置48が操作されることで、表示モードが順次切り換えられるようになっている。また、遊技回が実行されている状況における所定の条件下で演出用操作装置48が操作されたことに基づき切り換えられるようになっている。 The switching of the display mode is performed based on the operation of the effect operation device 48. Specifically, the display mode can be sequentially switched by operating the effect operation device 48 in a situation where the game times or the open / close execution mode is not executed. Further, the switching is performed based on the operation of the effect operation device 48 under a predetermined condition in the situation where the game round is being executed.

表示モードの切換に係る具体的な処理構成を説明する。 A specific processing configuration related to switching of the display mode will be described.

図23は、表示CPU131にて実行される操作発生コマンド対応処理を示すフローチャートである。操作発生コマンド対応処理はV割込み処理(図13)におけるステップS803のコマンド対応処理にて実行される。 FIG. 23 is a flowchart showing an operation occurrence command correspondence process executed by the display CPU 131. The operation occurrence command correspondence process is executed in the command correspondence process of step S803 in the V interrupt process (FIG. 13).

先ずステップS1401では、音声発光制御装置60からモード切換用の操作発生コマンドを受信しているか否かを判定する。受信していない場合にはそのまま本操作コマンド対応処理を終了し、受信している場合にはステップS1402に進む。 First, in step S1401, it is determined whether or not an operation generation command for mode switching is received from the voice emission control device 60. If it has not been received, the process corresponding to this operation command is terminated as it is, and if it has been received, the process proceeds to step S1402.

ステップS1402では、第1切換可能期間であるか否かを判定する。第1切換可能期間とは、遊技回及び開閉実行モードのいずれもが実行されていない期間である。第1切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1402では、現状設定されているデータテーブルに基づいて第1切換可能期間であるか否かを判定する。第1切換可能期間である場合には、ステップS1403にて、ワークRAM132に設けられた所定のエリアに対して第1切換実行フラグをセットする。 In step S1402, it is determined whether or not it is the first switchable period. The first switchable period is a period in which neither the game times nor the open / close execution mode is executed. Information for specifying whether or not it is the first switchable period is set in the data table, and in step S1402, it is determined whether or not it is the first switchable period based on the currently set data table. .. In the case of the first switchable period, in step S1403, the first switchable execution flag is set for a predetermined area provided in the work RAM 132.

一方、第1切換可能期間ではない場合には、ステップS1404に進み、第2切換可能期間であるか否かを判定する。第2切換可能期間とは、遊技回が実行されている状況において開始タイミングから実行途中における予め定められた基準タイミングまでの期間である。具体的には、図柄表示装置31にて遊技回用演出が実行される場合、全図柄列SA1〜SA3での図柄の変動表示を開始→全図柄列SA1〜SA3での高速変動表示→低速変動表示を経由した各図柄列SA1〜SA3の順次停止という表示の流れを含む。この場合に、第2切換可能期間は、全図柄列SA1〜SA3での図柄の変動表示が開始されてから全図柄列SA1〜SA3での高速変動表示が終了するタイミングまでの期間である。 On the other hand, if it is not the first switchable period, the process proceeds to step S1404 to determine whether or not it is the second switchable period. The second switchable period is a period from the start timing to a predetermined reference timing during the execution in the situation where the game round is being executed. Specifically, when the game rotation effect is executed by the symbol display device 31, the variation display of the symbols in all the symbol rows SA1 to SA3 is started → the high-speed fluctuation display in all the symbol rows SA1 to SA3 → the low-speed variation. It includes a display flow of sequentially stopping each symbol sequence SA1 to SA3 via the display. In this case, the second switchable period is a period from the start of the variable display of the symbols in all the symbol rows SA1 to SA3 to the end of the high-speed variable display in all the symbol rows SA1 to SA3.

なお、図柄の変動表示の態様を、全図柄列SA1〜SA3での図柄の変動表示を開始→全図柄列SA1〜SA3の加速期間→全図柄列SA1〜SA3での高速変動表示(高速は一定速度)→低速変動表示(低速は一定速度)を経由した各図柄列SA1〜SA3の順次停止という表示の流れとしてもよい。この場合、第2切換可能期間を、全図柄列SA1〜SA3での高速変動表示が実行されている期間としてもよい。 As for the mode of the variation display of the symbols, the variation display of the symbols in all the symbol rows SA1 to SA3 is started → the acceleration period of all the symbol rows SA1 to SA3 → the high-speed fluctuation display in all the symbol rows SA1 to SA3 (high speed is constant). Speed) → The display flow may be such that each symbol sequence SA1 to SA3 is sequentially stopped via a low-speed fluctuation display (low speed is a constant speed). In this case, the second switchable period may be the period during which the high-speed fluctuation display is executed in all the symbol columns SA1 to SA3.

また、高速変動表示と低速変動表示との間に中速変動表示が含まれていてもよい。つまり、図柄の変動表示の態様は、2段階、3段階又は4段階以上といったように複数段階で切り換わるのであれば具体的な段階数は任意である。この場合、第2切換可能期間を、各段階のうち遊技者における図柄の識別性が低い低識別な段階の期間としてもよい。 Further, a medium-speed fluctuation display may be included between the high-speed fluctuation display and the low-speed fluctuation display. That is, the specific number of stages is arbitrary as long as the mode of variable display of the symbol is switched in a plurality of stages such as two stages, three stages, or four or more stages. In this case, the second switchable period may be set as the period of the low discriminating stage in which the discriminating of the symbol by the player is low among the stages.

また、図柄の変動表示の流れにおいて相対的に低識別態様での変動表示→高識別態様での変動表示という状態を含むのであれば具体的な変動態様は任意であり、例えばいずれの態様であっても変動速度は同一であるが、低識別態様での変動表示では図柄が透明、半透明、中抜き又は一部を除いた状態で表示され、高識別態様での変動表示では図柄の全体が表示される構成としてもよい。この場合、第2切換可能期間を、低識別態様での変動表示が行われている期間としてもよい。 Further, the specific variation mode is arbitrary as long as the flow of the variation display of the symbol includes the state of the variation display in the relatively low discrimination mode → the variation display in the high discrimination mode, and for example, any mode. However, the fluctuation speed is the same, but in the fluctuation display in the low discrimination mode, the design is displayed in a transparent, translucent, hollow or partially excluded state, and in the fluctuation display in the high discrimination mode, the entire design is displayed. It may be the configuration to be displayed. In this case, the second switchable period may be a period in which the variable display in the low discrimination mode is performed.

第2切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1404では、現状設定されているデータテーブルに基づいて第2切換可能期間であるか否かを判定する。第2切換可能期間ではないと判定した場合には、そのまま本操作発生コマンド対応処理を終了し、第2切換可能期間である場合には、ステップS1405にて、ワークRAM132に設けられた所定のエリアに対して第2切換実行フラグをセットする。 Information for specifying whether or not it is the second switchable period is set in the data table, and in step S1404, it is determined whether or not it is the second switchable period based on the currently set data table. .. If it is determined that it is not the second switchable period, the operation corresponding to the operation generation command is terminated as it is, and if it is the second switchable period, a predetermined area provided in the work RAM 132 is set in step S1405. The second switching execution flag is set for.

ステップS1403及びステップS1405のいずれかの処理を実行した後は、ステップS1406に進む。ステップS1406では、表示モード用のカウンタを更新する。 After executing any of the processes of step S1403 and step S1405, the process proceeds to step S1406. In step S1406, the counter for the display mode is updated.

表示モード用のカウンタとは、表示CPU131にて現状の表示モードを特定するためのカウンタであり、ワークRAM132に設けられている。表示モード用のカウンタには各表示モードに1対1で対応させてカウンタ値が設定されている。本実施形態では上記のとおり表示モードとして第1表示モード及び第2表示モードの2種類が設定されているため、上記カウンタ値として第1表示モードに対応した「0」の数値と、第2表示モードに対応した「1」の数値とが設定されている。この場合、表示モード用のカウンタの初期値は「0」として設定されているため、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合には第1表示モードが設定される。 The display mode counter is a counter for specifying the current display mode on the display CPU 131, and is provided in the work RAM 132. The counter value for the display mode is set in a one-to-one correspondence with each display mode. In the present embodiment, since two types of display modes, the first display mode and the second display mode, are set as described above, the counter value is a numerical value of "0" corresponding to the first display mode and the second display. A numerical value of "1" corresponding to the mode is set. In this case, since the initial value of the counter for the display mode is set as "0", when the supply of the operating power to the display CPU 131 is started or when the pachinko machine 10 is reset, the first value is obtained. 1 Display mode is set.

ステップS1406では、演出用操作装置48が1回操作される度に表示モードが予め定められた順序に従って順次切り換えられるように表示モード用のカウンタを更新する。具体的には、表示モード用のカウンタが「0」であり第1表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第2表示モードに切り換えるとともに、表示モード用のカウンタが「1」であり第2表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第1表示モードに切り換える。ステップS1406の処理を実行した後に、本操作発生コマンド対応処理を終了する。 In step S1406, the counter for the display mode is updated so that the display mode is sequentially switched according to a predetermined order each time the effect operation device 48 is operated once. Specifically, when the process of step S1406 is executed in the situation where the counter for the display mode is "0" and is set to the first display mode, the counter for the display mode is set to "1" and the second is When switching to the display mode and executing the process of step S1406 in the situation where the counter for the display mode is "1" and the second display mode is set, the counter for the display mode is set to "1". 1 Switch to the display mode. After executing the process of step S1406, the process corresponding to this operation occurrence command is terminated.

次に、表示CPU131にて実行される表示モード背景用の演算処理について、図24のフローチャートを参照しながら説明する。表示モード背景用の演算処理は、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。なお、大当たり演出を実行する場合などには表示モードに対応した背景画像は表示されないため表示モード背景用の演算処理は実行されず、待機画像を表示する場合や遊技回用の演出を実行する場合などに表示モード背景用の演算処理が実行される。 Next, the arithmetic processing for the display mode background executed by the display CPU 131 will be described with reference to the flowchart of FIG. 24. The calculation process for the display mode background is executed in the background calculation process in step S903 in the task process (FIG. 14). Since the background image corresponding to the display mode is not displayed when the jackpot effect is executed, the calculation process for the display mode background is not executed, and the standby image is displayed or the effect for the game is executed. The arithmetic processing for the display mode background is executed.

先ずステップS1501では、ワークRAM132に設けられた表示モード用のカウンタを参照し、第1表示モードであるか否かを判定する。第1表示モードである場合には、ステップS1502にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第1最背面画像を把握する。続くステップS1503では、その把握した第1最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1504にて、現状設定されているデータテーブルに基づいて、第1表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1505では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 First, in step S1501, the counter for the display mode provided in the work RAM 132 is referred to, and it is determined whether or not the work RAM 132 is the first display mode. In the first display mode, in step S1502, the first rearmost image to be updated this time is grasped based on the currently set data table. In the following step S1503, various parameters of the grasped first rearmost image are calculated and the control information is updated. In the following step S1504, the object corresponding to the first display mode and the object to be updated for the background is grasped based on the currently set data table. In the following step S1505, various parameters of the grasped object are calculated and the control information is updated.

一方、第2表示モードである場合には、ステップS1506にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第2最背面画像を把握する。続くステップS1507では、その把握した第2最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1508にて、現状設定されているデータテーブルに基づいて、第2表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1509では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 On the other hand, in the second display mode, in step S1506, the second rearmost image to be updated this time is grasped based on the currently set data table. In the following step S1507, various parameters of the grasped second rearmost image are calculated and the control information is updated. In the following step S1508, based on the currently set data table, the object corresponding to the second display mode and the object to be updated for the background is grasped. In the following step S1509, various parameters of the grasped object are calculated and the control information is updated.

なお、ステップS1502の処理の実行タイミングでは、第1最背面画像及び第1表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。また、ステップS1506の処理の実行タイミングでは、第2最背面画像及び第2表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。 At the execution timing of the process in step S1502, the setting process for starting control (step S901) for the background object corresponding to the first rearmost image and the first display mode is completed. Further, at the execution timing of the process of step S1506, the setting process for starting control (step S901) for the background object corresponding to the second rearmost image and the second display mode is completed.

ステップS1505又はステップS1509の処理を実行した後は、ステップS1510にて、ワークRAM132に第1切換実行フラグ又は第2切換実行フラグのいずれかがセットされているか否かを判定する。いずれかの切換実行フラグがセットされている場合には、ステップS1511にて、処理負荷の大きい状況であるか否かを判定する。 After executing the process of step S1505 or step S1509, in step S1510, it is determined whether or not either the first switching execution flag or the second switching execution flag is set in the work RAM 132. If any of the switching execution flags is set, it is determined in step S1511 whether or not the processing load is large.

処理負荷の大きい状況とは、今回の描画リストに指定された画像データに対するジオメトリ演算及びレンダリングの両方がVDP135にて実行される場合に、処理落ちが発生する程度にVDP135の処理負荷が大きい又は処理落ちが発生しないまでもVDP135の処理負荷が比較的大きい状況のことをいう。なお、処理負荷の大きい状況か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1511の判定を行う。 The situation where the processing load is heavy is that when both the geometry calculation and the rendering for the image data specified in the drawing list are executed by the VDP135, the processing load of the VDP135 is large or the processing is large enough to cause processing omission. It refers to the situation where the processing load of VDP135 is relatively large even if no drop occurs. Information on whether or not the processing load is large is defined in the data table, and the determination in step S1511 is performed based on the information.

処理負荷の大きい状況ではない場合には、ステップS1512にて、今回の表示モードに対応した背景画像は別保存済みであるか否かを判定する。ここで、別保存とは、各表示モードに対応した背景画像を表示させるための背景用の描画データを個別に保存するとともにその保存している状態を維持することである。別保存に際しては、VRAM134に設けられたモード用バッファ145が用いられる(図4を参照)。 When the processing load is not large, it is determined in step S1512 whether or not the background image corresponding to the current display mode has been saved separately. Here, the separate storage means that the drawing data for the background for displaying the background image corresponding to each display mode is individually saved and the saved state is maintained. For separate storage, the mode buffer 145 provided in the VRAM 134 is used (see FIG. 4).

モード用バッファ145には、第1表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第1モード用領域145aと、第2表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第2モード用領域145bと、が設けられている。また、VDP135には、背景用の描画データを第1モード用領域145a及び第2モード用領域145bのいずれかへ書き込む機能と、その書き込まれた背景用の描画データを読み出してスクリーン用バッファ144に書き込む機能と、を有する表示モード制御部154を備えている。 In the mode buffer 145, the area 145a for the first mode in which the drawing data for the background for displaying the background image corresponding to the first display mode is written, and the background image corresponding to the second display mode are displayed. A second mode area 145b, in which drawing data for the background of the above is written, is provided. Further, the VDP 135 has a function of writing background drawing data to either the first mode area 145a or the second mode area 145b, and the written background drawing data is read out into the screen buffer 144. It has a display mode control unit 154 having a writing function.

別保存済みではない場合にはステップS1513にて別保存の実行指定情報を記憶した後に、本演算処理を終了し、別保存済みである場合にはそのまま本演算処理を終了する。 If it has not been saved separately, the execution designation information for another save is stored in step S1513, and then the present calculation process is terminated. If the separate save has been made, the present calculation process is terminated as it is.

上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1513の処理が実行されている場合には別保存の実行指定情報が設定される。別保存の実行指定情報には、別保存を実行すべきことを示す情報が含まれているとともに、別保存先のアドレスの情報も含まれている。 When the calculation process for the display mode background is executed as described above, the drawing list created in the subsequent drawing list output process is for the background corresponding to either the first display mode or the second display mode. The information of the instruction to use the image data of is set. Further, when the process of step S1513 is being executed, the execution designation information for separate storage is set. The execution designation information of the separate storage includes information indicating that the separate storage should be executed, and also includes information of the address of the separate storage destination.

一方、処理負荷の大きい状況である場合(ステップS1511:YES)には、ステップS1514にて、切換先の表示モードの背景画像が別保存済みであるか否かを判定する。別保存済みではない場合にはそのまま本演算処理を終了する。一方、別保存済みである場合にはステップS1515にて別保存データの使用指定情報を記憶した後に、本演算処理を終了する。 On the other hand, when the processing load is large (step S1511: YES), it is determined in step S1514 whether or not the background image of the display mode of the switching destination has been separately saved. If it has not been saved separately, this calculation process ends as it is. On the other hand, if it has been saved separately, the calculation process ends after storing the usage designation information of the separately saved data in step S1515.

上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード及び第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1515の処理が実行されている場合には別保存データの使用指定情報が設定される。別保存データの使用指定情報には、別保存データを使用すべきことを示す情報が含まれているとともに、その別保存データが保存されているアドレスの情報も含まれている。 When the calculation process for the display mode background is executed as described above, the drawing list created in the subsequent drawing list output process is for the background corresponding to either the first display mode or the second display mode. The information of the instruction to use the image data of is set. Further, when the process of step S1515 is executed, the usage designation information of the separately stored data is set. The usage designation information of the separately stored data includes information indicating that the separately stored data should be used, and also includes information of the address where the separately stored data is stored.

次に、表示CPU131にて実行される図柄用演算処理について、図25のフローチャートを参照しながら説明する。図柄用演算処理はタスク処理(図14)のステップS905にて実行される。 Next, the symbol arithmetic processing executed by the display CPU 131 will be described with reference to the flowchart of FIG. The symbol calculation process is executed in step S905 of the task process (FIG. 14).

先ずステップS1601では、現状設定されているデータテーブルに基づいて、図柄について制御更新用の処理を実行する必要があるか否かを判定する。実行する必要がない場合として大当たり演出を実行している場合が含まれ、実行する必要がある場合として遊技回用の演出を実行している場合及び待機画像を表示している場合が含まれる。実行する必要がない場合にはそのまま本図柄用演算処理を終了し、実行する必要がある場合にはステップS1602にて、現状設定されているデータテーブルに基づいて、遊技回の実行中であるか否かを判定する。 First, in step S1601, it is determined whether or not it is necessary to execute the control update process for the symbol based on the currently set data table. The case where it is not necessary to execute includes the case where the jackpot effect is executed, and the case where it needs to be executed includes the case where the effect for game rounds is executed and the case where the standby image is displayed. If it is not necessary to execute it, the calculation process for this symbol is terminated as it is, and if it is necessary to execute it, is the game time being executed based on the currently set data table in step S1602? Judge whether or not.

遊技回の実行中でない場合には、ステップS1603にて、ワークRAM132に第1切換実行フラグがセットされているか否かを判定する。第1切換実行フラグがセットされている場合には、ステップS1604にて、制御対象の図柄を切換先の表示モードに対応させて変更する。具体的には、ワークRAM132において図柄の制御を行う上で確保されている各空きバッファ領域のパラメータ用の情報はそのまま保持させながら、制御対象の図柄の情報(例えば記憶されているアドレスの情報)のみを切換先の表示モードに対応した情報に書き換える。なお、ステップS1603及びステップS1604の処理が、タスク処理(図14)における制御開始用の設定処理(ステップS901)にて実行される構成としてもよい。また、ステップS1603にて肯定判定をした場合に第1切換実行フラグをクリアする。 If the game is not being executed, it is determined in step S1603 whether or not the first switching execution flag is set in the work RAM 132. When the first switching execution flag is set, in step S1604, the symbol to be controlled is changed according to the display mode of the switching destination. Specifically, the information of the symbol to be controlled (for example, the information of the stored address) while retaining the information for the parameter of each free buffer area secured for controlling the symbol in the work RAM 132 as it is. Rewrite only to the information corresponding to the display mode of the switching destination. The processing of step S1603 and step S1604 may be executed in the setting processing (step S901) for starting control in the task processing (FIG. 14). Further, when an affirmative determination is made in step S1603, the first switching execution flag is cleared.

ステップS1603にて否定判定をした場合又はステップS1604の処理を実行した場合は、ステップS1605に進む。ステップS1605では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1606にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。 If a negative determination is made in step S1603 or the process of step S1604 is executed, the process proceeds to step S1605. In step S1605, the object of the symbol to be controlled is grasped based on the currently set data table, and in the following step S1606, various parameters of the object are calculated and updated. After that, the calculation process for this symbol is terminated.

上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した図柄用の画像データの使用指示の情報が設定される。 When the symbol calculation process is executed as described above, the drawing list created in the subsequent drawing list output process contains image data for the symbol corresponding to either the first display mode or the second display mode. The information of the instruction to use is set.

遊技回の実行中である場合(ステップS1602:YES)には、ステップS1607にて、現状設定されているデータテーブルに基づいて、全図柄列SA1〜SA3において高速変動表示中であるか否かを判定する。全図柄列SA1〜SA3において高速変動表示中である場合には、ステップS1608にて、ワークRAM132に第2切換実行フラグがセットされているか否かを判定する。 When the game round is being executed (step S1602: YES), it is determined in step S1607 whether or not the high-speed fluctuation display is being performed in all the symbol columns SA1 to SA3 based on the data table currently set. judge. When the high-speed fluctuation display is being performed in all the symbol columns SA1 to SA3, it is determined in step S1608 whether or not the second switching execution flag is set in the work RAM 132.

第2切換実行フラグがセットされている場合には、ステップS1609にて、制御対象の図柄を切換先の表示モードに対応させて変更させることが可能であるか否かを判定する。これは今回の描画リストに対応した描画処理(図16)がVDP135にて実行される場合に、制御対象の図柄を切換先の表示モードに対応させて変更させようとすると、処理落ちが発生するか否かを基準として、処理落ちが発生しないのであれば変更させることが可能となり、処理落ちが発生するのであれば変更させることが不可であると判定される。 When the second switching execution flag is set, in step S1609, it is determined whether or not the symbol to be controlled can be changed according to the display mode of the switching destination. This is because when the drawing process (FIG. 16) corresponding to the current drawing list is executed by VDP135, if the symbol to be controlled is changed according to the display mode of the switching destination, a process omission occurs. Based on whether or not there is a processing omission, it is possible to change it if no processing omission occurs, and it is determined that it is impossible to change it if a processing omission occurs.

例えば、今回の描画リストにおいて表示モードの切換に対応した背景用の画像データが新たに設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じるため、VDP135の処理負荷を大きくなる。したがって、この場合は、図柄を変更させることが不可であると判定される。一方、今回の描画リストにおいて背景用の画像データとして別保存データが設定されている場合、又は前回の描画リストに係る表示モードと同一の表示モードに対応した背景用の画像データが設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じないため、VDP135の処理負荷は比較的小さくなる。したがって、この場合は、図柄を変更させることが可能であると判定される。 For example, if the image data for the background corresponding to the switching of the display mode is newly set in the drawing list this time, it is necessary to newly set the image data setting in the world coordinate system in VDP135. The processing load of VDP135 increases. Therefore, in this case, it is determined that it is impossible to change the design. On the other hand, when separately saved data is set as the background image data in the current drawing list, or when the background image data corresponding to the same display mode as the display mode related to the previous drawing list is set. Since it is not necessary to newly set the image data in the world coordinate system in VDP135, the processing load of VDP135 is relatively small. Therefore, in this case, it is determined that the design can be changed.

なお、変更させることが可能か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1609の判定を行う。また、ステップS1608にて肯定判定をした場合に第2切換実行フラグをクリアする。 Information on whether or not it is possible to change is defined in the data table, and the determination in step S1609 is performed based on the information. Further, when an affirmative determination is made in step S1608, the second switching execution flag is cleared.

ステップS1609にて、変更させることが可能であると判定した場合には、ステップS1610にて、制御対象の図柄を切換先の表示モードに対応させて変更する。この処理の具体的な内容は、ステップS1604と同様である。ステップS1610の処理を実行した後はステップS1613に進む。 If it is determined in step S1609 that the change is possible, in step S1610, the symbol to be controlled is changed according to the display mode of the switching destination. The specific content of this process is the same as in step S1604. After executing the process of step S1610, the process proceeds to step S1613.

一方、ステップS1609にて、変更させることが可能ではないと判定した場合には、ステップS1611にて、ワークRAM132に設けられた所定のエリアに対して変更待機フラグをセットした後に、ステップS1613に進む。変更待機フラグは、制御対象の図柄の変更が待機されていることを表示CPU131にて特定するためのフラグである。変更待機フラグがセットされている場合には、ステップS1608にて、第2切換実行フラグがセットされていないと判定されたとしても、ステップS1612の処理が実行されることで、ステップS1609の処理が実行される。なお、第2切換実行フラグ及び変更待機フラグの両方がセットされていない場合には、そのままステップS1613に進む。また、変更待機フラグはステップS1612にて肯定判定をした際にクリアされる。 On the other hand, if it is determined in step S1609 that the change is not possible, the change standby flag is set for the predetermined area provided in the work RAM 132 in step S1611, and then the process proceeds to step S1613. .. The change waiting flag is a flag for the display CPU 131 to specify that the change of the symbol to be controlled is waiting. When the change waiting flag is set, even if it is determined in step S1608 that the second switching execution flag is not set, the process of step S1612 is executed, so that the process of step S1609 is performed. Will be executed. If both the second switching execution flag and the change waiting flag are not set, the process proceeds to step S1613 as it is. Further, the change waiting flag is cleared when an affirmative determination is made in step S1612.

ステップS1613では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1614にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。 In step S1613, the object of the symbol to be controlled is grasped based on the currently set data table, and in the following step S1614, various parameters of the object are calculated and updated. After that, the calculation process for this symbol is terminated.

上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。この場合に、ステップS1609にて、切換先の表示モードに対応した図柄に変更させることができないと判定した場合には、切換元の表示モードに対応した図柄の画像データの使用指示の情報がそのまま描画リストに設定される。そうすると、最終的に表示モードに対応しない図柄が表示面Gに表示されることとなるが、第2切換実行フラグがセットされるタイミングは高速変動表示中であるため、遊技者は上記の状態を認識することができない又は認識しづらい。 When the symbol calculation process is executed as described above, the drawing list created in the subsequent drawing list output process is instructed to use the image data for the symbol corresponding to the first display mode or the second display mode. Information is set. In this case, if it is determined in step S1609 that the symbol cannot be changed to the symbol corresponding to the display mode of the switching destination, the information of the instruction to use the image data of the symbol corresponding to the display mode of the switching source remains as it is. Set in the drawing list. Then, a symbol that does not correspond to the display mode is finally displayed on the display surface G, but the timing at which the second switching execution flag is set is during high-speed fluctuation display, so that the player can display the above state. Unrecognizable or difficult to recognize.

また、切換先の表示モードに対応した図柄に変更させることができない場合には、変更待機フラグがセットされて、その後の処理回で変更が行われる。これにより、VDP135において処理落ちを発生させないようにしつつ、表示モードの切換を良好に行うことができる。なお、高速変動表示が行われている範囲で、切換先の表示モードに対応した図柄の変更が行われるように、VDP135の処理負荷が調整されている。 If the symbol cannot be changed to the symbol corresponding to the display mode of the switching destination, the change waiting flag is set and the change is made in the subsequent processing times. As a result, it is possible to switch the display mode satisfactorily while preventing the processing omission from occurring in the VDP 135. The processing load of the VDP 135 is adjusted so that the symbol corresponding to the display mode of the switching destination is changed within the range in which the high-speed fluctuation display is performed.

高速変動表示中ではない場合(ステップS1607:NO)には、ステップS1615に進む。ステップS1615では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1616にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。 If the high-speed fluctuation display is not in progress (step S1607: NO), the process proceeds to step S1615. In step S1615, the object of the symbol to be controlled is grasped based on the currently set data table, and in the following step S1616, various parameters of the object are calculated and updated. After that, the calculation process for this symbol is terminated. When the symbol calculation process is executed as described above, the drawing list created in the subsequent drawing list output process is instructed to use the image data for the symbol corresponding to the first display mode or the second display mode. Information is set.

次に、VDP135にて実行される背景用の設定処理を、図26のフローチャートを参照しながら説明する。なお、背景用の設定処理は、描画処理(図16)におけるステップS1002にて実行される。 Next, the background setting process executed by the VDP 135 will be described with reference to the flowchart of FIG. The background setting process is executed in step S1002 in the drawing process (FIG. 16).

先ずステップS1701では、今回の描画リストにおいて別保存データの使用指定が設定されているか否かを判定する。設定されている場合には、ステップS1702にて、その指定に対応した別保存データを背景用の描画データとして設定するための情報をレジスタ153に記憶させる。 First, in step S1701, it is determined whether or not the use designation of the separately saved data is set in the drawing list this time. If it is set, in step S1702, information for setting another saved data corresponding to the designation as drawing data for the background is stored in the register 153.

設定されていない場合(ステップS1701:NO)又はステップS1702の処理を実行した後は、ステップS1703に進む。ステップS1703では、今回の描画リストに指定されている最背面画像を把握するとともに、ステップS1704にて、その最背面画像について指定されている各種パラメータを把握する。その後、ステップS1705にて、その最背面画像について、ワールド座標系への設定処理を実行する。この設定に係る内容は、既に説明したとおりである。 If it is not set (step S1701: NO) or after executing the process of step S1702, the process proceeds to step S1703. In step S1703, the rearmost image designated in the drawing list this time is grasped, and in step S1704, various parameters designated for the rearmost image are grasped. After that, in step S1705, the setting process for the rearmost image is executed in the world coordinate system. The contents related to this setting are as described above.

続くステップS1706では、今回の描画リストに指定されている背景用のオブジェクトを把握するとともに、ステップS1707にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS1708にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本背景用の設定処理を終了する。 In the following step S1706, the object for the background specified in the drawing list this time is grasped, and in step S1707, various parameters specified for the object are grasped. After that, in step S1708, the setting process for the background is terminated after the setting process for the world coordinate system is executed for the object.

上記のように背景用の設定処理が実行されることにより、別保存データの使用指定が設定されていない状況だけでなく、別保存データの使用指定が設定されている状況であっても、描画リストにて指定されている画像データをワールド座標系に設定することができる。そして、これに伴って、例えば今回の描画リストが表示モードの切換に係るものである場合には、切換先の表示モードに対応した画像データの制御開始用の設定を行うことができる。 By executing the setting process for the background as described above, drawing is performed not only in the situation where the usage specification of the separately saved data is not set, but also in the situation where the usage specification of the separately saved data is set. The image data specified in the list can be set in the world coordinate system. Along with this, for example, when the drawing list this time is related to the switching of the display mode, it is possible to set the control start of the image data corresponding to the display mode of the switching destination.

次に、VDP135にて実行される背景用の描画データ作成処理を、図27のフローチャートを参照しながら説明する。なお、背景用の描画データ作成処理は、描画処理(図16)におけるステップS1010にて実行される。 Next, the drawing data creation process for the background executed by the VDP 135 will be described with reference to the flowchart of FIG. 27. The drawing data creation process for the background is executed in step S1010 in the drawing process (FIG. 16).

先ずステップS1801では、レジスタ153に別保存データの使用設定の情報がセットされているか否かを判定する。セットされていない場合には、ステップS1802にて、隠面処理を実行して、スクリーン用バッファ144に背景用の描画データを作成する。隠面処理については、既に説明したとおりである。 First, in step S1801, it is determined whether or not the information of the usage setting of the separately stored data is set in the register 153. If it is not set, the hidden surface process is executed in step S1802 to create drawing data for the background in the screen buffer 144. The hidden surface treatment is as described above.

続くステップS1803では、今回の描画リストにおいて別保存の実行指定が設定されているか否かを判定する。設定されていない場合には、そのまま本描画データ作成処理を終了する。設定されている場合には、ステップS1804にて、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち対象となるモード用領域へ、ステップS1802にて作成された背景用の描画データを書き込む。これにより、背景用の描画データの別保存が行われる。その後に、本描画データ作成処理を終了する。 In the following step S1803, it is determined whether or not the execution designation of another save is set in the drawing list this time. If it is not set, the drawing data creation process is terminated as it is. If it is set, in step S1804, the target mode area of the first mode area 145a and the second mode area 145b of the mode buffer 145 is used for the background created in step S1802. Write the drawing data of. As a result, the drawing data for the background is saved separately. After that, the drawing data creation process is terminated.

一方、ステップS1801にて、レジスタ153に別保存データの使用設定の情報がセットされている場合には、ステップS1805に進む。ステップS1805では、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち、今回指定されているモード用領域から別保存データを読み出し、その読み出した別保存データを、今回の背景用の描画データとして、スクリーン用バッファ144に書き込む。その後に、本描画データ作成処理を終了する。 On the other hand, if the information of the usage setting of the separately stored data is set in the register 153 in step S1801, the process proceeds to step S1805. In step S1805, out of the first mode area 145a and the second mode area 145b of the mode buffer 145, the separately stored data is read from the mode area designated this time, and the read different saved data is used as the current time. It is written in the screen buffer 144 as drawing data for the background. After that, the drawing data creation process is terminated.

上記のように背景用の描画データ作成処理が実行されることにより、ジオメトリ演算及びレンダリングを通じた背景用の描画データ、又は別保存データに係る背景用の描画データがスクリーン用バッファ144に格納される。また、各表示モードに対応した画像が表示されるフレームにおいては、その後に演出及び図柄用の描画データ作成処理(ステップS1011)が実行されて、演出及び図柄用の描画データが作成されるとともに、描画データ合成処理(ステップS1012)が実行されて、1フレーム分の描画データが作成される。 By executing the background drawing data creation process as described above, the background drawing data through geometry calculation and rendering, or the background drawing data related to the separately stored data is stored in the screen buffer 144. .. Further, in the frame in which the image corresponding to each display mode is displayed, the drawing data creation process (step S1011) for the effect and the pattern is executed thereafter, and the drawing data for the effect and the pattern is created and the drawing data is created. The drawing data composition process (step S1012) is executed, and drawing data for one frame is created.

ここで、第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを、図28のタイミングチャートを参照しながら説明する。 Here, the timing at which the separately stored data for the first display mode and the separately stored data for the second display mode are created will be described with reference to the timing chart of FIG. 28.

図28(A)は第1表示モードに対応した背景用の描画データPD1を示し、図28(B)は第2表示モードに対応した背景用の描画データPD2を示す。また、図28(a)はパチンコ機10の電源のON/OFFの状態を示し、図28(b)は第1表示モードの有無を示し、図28(c)は第2表示モードの有無を示し、図28(d)は第1表示モード用の別保存データの有無を示し、図28(e)は第2表示モード用の別保存データの有無を示す。 FIG. 28A shows the drawing data PD1 for the background corresponding to the first display mode, and FIG. 28B shows the drawing data PD2 for the background corresponding to the second display mode. Further, FIG. 28 (a) shows the ON / OFF state of the power of the pachinko machine 10, FIG. 28 (b) shows the presence / absence of the first display mode, and FIG. 28 (c) shows the presence / absence of the second display mode. 28 (d) shows the presence / absence of separately stored data for the first display mode, and FIG. 28 (e) shows the presence / absence of separately stored data for the second display mode.

t1のタイミングでパチンコ機10の電源がON操作されることで、表示CPU131への電力供給が開始され、表示CPU131にて処理が開始される。また、表示モードは第1表示モードに設定されているため、t1のタイミングよりも後のタイミングで、第1表示モードに対応した画像を表示させるために、描画リストが表示CPU131からVDP135に出力され、さらにその描画リストに基づきVDP135にて第1表示モードに対応した描画データの作成が開始される。 When the power of the pachinko machine 10 is turned on at the timing of t1, the power supply to the display CPU 131 is started, and the processing is started by the display CPU 131. Further, since the display mode is set to the first display mode, the drawing list is output from the display CPU 131 to the VDP 135 in order to display the image corresponding to the first display mode at a timing after the timing of t1. Further, based on the drawing list, the VDP135 starts creating drawing data corresponding to the first display mode.

その後、t2のタイミングで、第1表示モードに対応した背景用の描画データPD1の作成が完了することで、その描画データが第1表示モード用の別保存データとしてモード用バッファ145の第1モード用領域145aに記憶される。この第1表示モードに対応した背景用の描画データPD1による背景画像では、図28(A)に示すように、最背面画像の手前にて「A」〜「F」にて示す3次元のキャラクタ画像が表示される。また、第1モード用領域145aに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。また、t2のタイミング又はその後の所定のタイミングで、第1表示モードに対応した画像の表示が開始される。 After that, at the timing of t2, the creation of the drawing data PD1 for the background corresponding to the first display mode is completed, and the drawing data is used as separate storage data for the first display mode in the first mode of the mode buffer 145. It is stored in the area 145a. In the background image by the background drawing data PD1 corresponding to this first display mode, as shown in FIG. 28 (A), the three-dimensional characters indicated by "A" to "F" in front of the rearmost image. The image is displayed. Further, the separately stored data stored in the first mode area 145a is stored and held while the power supply to the VRAM 134 is continued. Further, at the timing of t2 or a predetermined timing thereafter, the display of the image corresponding to the first display mode is started.

その後、t3のタイミングで演出用操作装置48が操作されることに基づき、表示モードが第1表示モードから第2表示モードに切り換えられる。そして、第2表示モード用の描画データが作成され、第2表示モードに対応した画像の表示が開始される。また、当該タイミングにおいて第2表示モードに対応した背景用の描画データPD2の作成が完了するため、その描画データが第2表示モード用の別保存データとしてモード用バッファ145の第2モード用領域145bに記憶される。この第2表示モードに対応した背景用の描画データPD2による背景画像では、図28(B)に示すように、最背面画像の手前にて「G」〜「J」にて示す3次元のキャラクタ画像が表示される。また、第2モード用領域145bに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。 After that, the display mode is switched from the first display mode to the second display mode based on the operation of the effect operation device 48 at the timing of t3. Then, the drawing data for the second display mode is created, and the display of the image corresponding to the second display mode is started. Further, since the creation of the drawing data PD2 for the background corresponding to the second display mode is completed at the relevant timing, the drawing data is used as separate storage data for the second display mode as the second mode area 145b of the mode buffer 145. Is remembered in. In the background image by the background drawing data PD2 corresponding to this second display mode, as shown in FIG. 28 (B), the three-dimensional characters indicated by "G" to "J" in front of the rearmost image. The image is displayed. Further, the separately stored data stored in the second mode area 145b is stored and held while the power supply to the VRAM 134 is continued.

ここで、第1表示モードに対応した背景用の描画データPD1は、第2表示モードに対応した背景用の描画データPD2に比べて、設定されるオブジェクトの数が多い。そうすると、第2表示モードから第1表示モードの切換がVDP135の処理負荷の大きい状況で行われると、VDP135にて処理落ちが発生してしまうことが懸念される。これに対して、両別保存データのうち、第1表示モード用の別保存データを電源立ち上げ時の初期設定が行われている時間を利用して作成しておくことで、処理負荷の大きい状況で表示モードが第1表示モードに切り換えられた場合には、その別保存データを利用して処理落ちを回避することができる。 Here, the drawing data PD1 for the background corresponding to the first display mode has a larger number of objects to be set than the drawing data PD2 for the background corresponding to the second display mode. Then, if the switching from the second display mode to the first display mode is performed in a situation where the processing load of the VDP 135 is large, there is a concern that processing omission may occur in the VDP 135. On the other hand, of the data saved separately for both, the processing load is large by creating the separately saved data for the first display mode using the time when the initial setting at the time of power startup is performed. When the display mode is switched to the first display mode in the situation, it is possible to avoid the processing omission by using the separately stored data.

一方、第2表示モードに対応した背景用の描画データPD2は、その作成にかかるVDP135の処理負荷が小さく、VDP135の処理負荷の大きい状況で第2表示モードへの切換が行われたとしても、処理落ちが発生しないように設定されている。但し、第2表示モードに対応した背景用の描画データPD2についても別保存は行われ、処理落ちが発生しないまでも比較的処理負荷が大きい状況で第2表示モードへの切換が行われた場合には、その別保存データが利用される。 On the other hand, the background drawing data PD2 corresponding to the second display mode is switched to the second display mode even when the processing load of the VDP135 is small and the processing load of the VDP135 is large. It is set so that processing omissions do not occur. However, when the drawing data PD2 for the background corresponding to the second display mode is also saved separately and the processing load is relatively large even if the processing omission does not occur, the switching to the second display mode is performed. The separately stored data is used for.

上記のように別保存データが作成されることで、t4〜t9のタイミングで示すように、表示モードの切換が短時間で繰り返し実行された場合などには、それぞれの表示モードにおいて別保存データを利用して背景用の画像を表示することで、処理落ちの発生を阻止することができる。 By creating the separately saved data as described above, as shown at the timing of t4 to t9, when the display mode switching is repeatedly executed in a short time, the separately saved data is stored in each display mode. By using it to display an image for the background, it is possible to prevent the occurrence of processing omissions.

また、別保存の対象は背景画像であり、図柄といった変動が注目される個別画像は含まれない。これにより、個別画像が変動している状況で表示モードの切換が行われた場合に、別保存データを使用した画像の表示を行ったとしても、変動が注目される個別画像の動きは継続されるため、遊技者が違和感を抱きづらくなる。 In addition, the target of separate storage is the background image, and does not include individual images such as patterns that are noticeable for fluctuations. As a result, when the display mode is switched in a situation where the individual image is fluctuating, even if the image is displayed using the separately saved data, the movement of the individual image whose fluctuation is noticed is continued. Therefore, it becomes difficult for the player to feel a sense of discomfort.

なお、表示モードは2段階に限定されることはなく、3段階又は4段階以上設定されていてもよい。この場合であっても、各表示モードに対応した背景用の描画データを別保存しておくことで、表示モードの切換を良好に行うことができる。 The display mode is not limited to two stages, and may be set to three stages or four or more stages. Even in this case, the display mode can be switched satisfactorily by separately storing the drawing data for the background corresponding to each display mode.

また、表示モードの切換タイミングがいずれであっても、図柄の種類の切換が待機されることなく行われる構成としてもよい。また、図柄は表示モード間で相違しない構成としてもよい。 Further, regardless of the switching timing of the display mode, the configuration may be such that the switching of the symbol type is performed without waiting. Further, the design may be configured so as not to differ between the display modes.

また、演出用のキャラクタも表示モードに依存して切り換わる構成としてもよい。この場合、演出用のキャラクタは別保存の対象ではない構成としてもよく、別保存の対象である構成としてもよい。 Further, the character for effect may also be configured to be switched depending on the display mode. In this case, the character for effect may be configured not to be stored separately, or may be configured to be stored separately.

<連結オブジェクトを用いて3次元画像を表示するための構成>
次に、連結オブジェクトを用いて3次元画像を表示するための構成について説明する。
<Structure for displaying a 3D image using a concatenated object>
Next, a configuration for displaying a three-dimensional image using a connected object will be described.

連結オブジェクトは、複数の部品オブジェクト(部分オブジェクト)が連結部を関節として連結された一単位のオブジェクトであり、各部品オブジェクトを相対的に変位させることで3次元画像のキャラクタに動きを与えるために設定されている。連結オブジェクトを用いることにより、3次元画像のキャラクタをスムーズに動作させることができる。なお、連結オブジェクトが骨格部と関節部とを有していることに鑑みれば、ボーンモデルと称することもできる。 A concatenated object is a unit of objects in which a plurality of part objects (partial objects) are connected with a joint as a joint, and in order to give movement to a character in a three-dimensional image by relatively displacing each part object. It is set. By using the connected object, the character of the three-dimensional image can be operated smoothly. In addition, considering that the connected object has a skeleton portion and a joint portion, it can also be referred to as a bone model.

連結オブジェクトは、所定の動作を行うキャラクタを表示するために設定されている。ここで、本実施形態では、共通のキャラクタを表示するための連結オブジェクトが複数種類設定されている。この複数種類の連結オブジェクトについて、図29を参照しながら説明する。 The concatenated object is set to display a character that performs a predetermined action. Here, in the present embodiment, a plurality of types of connected objects for displaying a common character are set. The plurality of types of connected objects will be described with reference to FIG. 29.

図29(a),(b)に示すように、共通のキャラクタを表示するために、第1の連結オブジェクトPC15と、第2の連結オブジェクトPC16とが設定されている。これら第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16はそれぞれ複数の連結部CT1,CT2を有しているが、相互に異なる箇所に連結部CT1,CT2が設定されている。 As shown in FIGS. 29 (a) and 29 (b), a first concatenated object PC 15 and a second concatenated object PC 16 are set in order to display a common character. The first connected object PC15 and the second connected object PC16 each have a plurality of connected portions CT1 and CT2, but the connected portions CT1 and CT2 are set at different locations from each other.

具体的には、第1の連結オブジェクトPC15は膝部分に連結部が設けられていないが、肘部分に連結部CT1が設けられており、図29(a―1),(a―2)に示すような動作の表示が可能となっている。一方、第2の連結オブジェクトPC16は肘部分に連結部が設けられていないが、膝部分に連結部CT2が設けられており、図29(b―1),(b―2)に示すような動作の表示が可能となっている。上記のように異なる箇所に連結部が設定されていることにより、第1の連結オブジェクトPC15を使用した場合と第2の連結オブジェクトPC16を使用した場合とで、キャラクタに異なる動作をさせることが可能となる。 Specifically, the first connecting object PC15 is not provided with a connecting portion at the knee portion, but is provided with a connecting portion CT1 at the elbow portion, as shown in FIGS. 29 (a-1) and 29 (a-2). It is possible to display the operation as shown. On the other hand, the second connecting object PC16 is not provided with a connecting portion at the elbow portion, but is provided with a connecting portion CT2 at the knee portion, as shown in FIGS. 29 (b-1) and 29 (b-2). The operation can be displayed. By setting the connecting portion in different places as described above, it is possible to make the character perform different actions depending on whether the first connected object PC 15 is used or the second connected object PC 16 is used. It becomes.

なお、両連結オブジェクトPC15,PC16は共通する箇所に連結部CT1,CT2を有しているが、共通する箇所に連結部CT1,CT2を有していない構成としてもよい。また、両連結オブジェクトPC15,PC16に対しては共通のテクスチャがマッピングされるが、それぞれ個別にテクスチャが設定されている構成としてもよい。複数の連結オブジェクトPC15,PC16を用意しておくことでキャラクタに異なる動作をさせることが可能であれば、連結部CT1,CT2の位置やキャラクタの種類は任意である。 Although both connected objects PC15 and PC16 have connecting portions CT1 and CT2 at a common location, they may not have connecting portions CT1 and CT2 at a common location. Further, although a common texture is mapped to both connected objects PC15 and PC16, the texture may be set individually for each. If it is possible to make the character perform different actions by preparing a plurality of connected objects PC15 and PC16, the positions of the connected portions CT1 and CT2 and the type of the character are arbitrary.

以下、上記両連結オブジェクトPC15,PC16を用いてキャラクタが動作している様子を表示するための具体的な処理構成を説明する。 Hereinafter, a specific processing configuration for displaying the state in which the character is operating using the two connected objects PC15 and PC16 will be described.

図30は、表示CPU131にて実行される連結オブジェクト用の演算処理を示すフローチャートである。連結オブジェクト用の演算処理はタスク処理(図14)のステップS904における演出用演算処理にて実行される。また、連結オブジェクト用の演算処理は、連結オブジェクトPC15,PC16を用いた演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 30 is a flowchart showing an arithmetic process for a concatenated object executed by the display CPU 131. The arithmetic processing for the concatenated object is executed in the effect arithmetic processing in step S904 of the task processing (FIG. 14). Further, the arithmetic processing for the concatenated object is started when the data table corresponding to the game times in which the effect using the concatenated objects PC15 and PC16 is executed is set.

先ずステップS1901では、現状設定されているデータテーブルに基づいて、連結オブジェクトPC15,PC16を用いた演出の実行中(上記キャラクタが表示中)であるか否かを判定する。演出の実行中ではない場合にはステップS1902にて、連結オブジェクトPC15,PC16を用いた演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS1903に進む。 First, in step S1901, it is determined whether or not the effect using the connected objects PC15 and PC16 is being executed (the character is being displayed) based on the currently set data table. If the effect is not being executed, step S1902 determines whether or not it is the start timing of the effect using the connected objects PC15 and PC16. If it is not the start timing, the present calculation process is terminated as it is, and if it is the start timing, the process proceeds to step S1903.

ステップS1903では、連結オブジェクト演出の開始指定情報を記憶し、続くステップS1904にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。ちなみに、ステップS1904の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、両連結オブジェクトPC15,PC16に対して制御開始用の処理が完了している。また、制御が開始された両連結オブジェクトPC15,PC16の制御用の情報は、連結オブジェクトPC15,PC16を用いた今回の一連の演出が完了するまではワークRAM132に記憶保持される。 In step S1903, the start designation information of the concatenated object effect is stored, and in the following step S1904, the first concatenated object PC 15 and the second concatenated object PC 16 are grasped as control targets based on the currently set data table. do. Incidentally, at the execution timing of the process of step S1904, the process for starting control is completed for both the connected objects PC15 and PC16 in the setting process for starting control immediately before (step S901). Further, the information for controlling both the connected objects PC15 and PC16 for which control has been started is stored and held in the work RAM 132 until the current series of effects using the connected objects PC15 and PC16 is completed.

続くステップS1905では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1906では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。 In the following step S1905, various parameters of the first concatenated object PC15 are calculated to update the control information related to the first concatenated object PC15. Further, in step S1906, various parameters of the second connected object PC 16 are calculated to update the control information related to the second connected object PC 16.

続くステップS1907では、第1演出期間の指定情報を記憶する。ここで、連結オブジェクトPC15,PC16を用いた演出は、その全体の演出期間が複数種類の演出期間、具体的には第1演出期間,第2演出期間及び第3演出期間に区分けされている。そして、第1演出期間及び第3演出期間は第1の連結オブジェクトPC15を用いてキャラクタが表示され、第2演出期間は第2の連結オブジェクトPC16を用いてキャラクタが表示される。その後、ステップS1908にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。 In the following step S1907, the designated information of the first production period is stored. Here, in the effect using the connected objects PC15 and PC16, the entire effect period is divided into a plurality of types of effect periods, specifically, a first effect period, a second effect period, and a third effect period. Then, in the first effect period and the third effect period, the character is displayed by using the first connected object PC15, and in the second effect period, the character is displayed by using the second connected object PC16. After that, in step S1908, the parameters of the first connected object PC15 out of the two connected objects PC15 and PC16 are set so as to be specified in the drawing list this time.

続くステップS1909では、現状設定されているデータテーブルに基づいて、第1演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ちなみに、ステップS1909の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、今回の更新対象のオブジェクトに対して制御開始用の処理が完了している。その後、ステップS1910にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In the following step S1909, another object for the first effect period and the object to be updated this time is grasped based on the currently set data table. Incidentally, at the execution timing of the process of step S1909, the process for starting control is completed for the object to be updated this time in the setting process for starting control immediately before (step S901). After that, in step S1910, various parameters of the other objects grasped above are calculated, and the control information related to these other objects is updated, and then this calculation process is terminated.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、連結オブジェクトPC15,PC16を用いた演出を開始させるべきことを示す連結オブジェクト演出の開始指定情報と、第1演出期間であることを示す第1演出期間の指定情報とが、描画リストに設定される。 When the arithmetic processing for the concatenated object is executed as described above, the information of the instruction to use both concatenated objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output processing, and they are set. The parameters of the first concatenated object PC15 are set for the objects PC15 and PC16. Further, the start designation information of the connected object effect indicating that the effect using the connected objects PC15 and PC16 should be started and the designated information of the first effect period indicating that it is the first effect period are set in the drawing list. Will be done.

一方、連結オブジェクトPC15,PC16を用いた演出の実行中である場合(ステップS1901:YES)には、ステップS1911にて、現状設定されているデータテーブルに基づいて、第1演出期間中であるか否かを判定する。第1演出期間中である場合には、ステップS1904〜ステップS1910の処理を実行した後に、本演算処理を終了する。ちなみに、今回は第1演出期間中であるため、当該第1演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1905にてパラメータの演算が行われる。 On the other hand, when the effect using the connected objects PC15 and PC16 is being executed (step S1901: YES), is it during the first effect period based on the data table currently set in step S1911? Judge whether or not. If it is during the first effect period, the calculation process is terminated after the processes of steps S1904 to S1910 are executed. By the way, since this time is during the first effect period, the first connected object PC 15 performs a predetermined first operation (see FIG. 29 (a)) as the first effect period progresses. In addition, the parameter calculation is performed in step S1905.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第1演出期間であることを示す第1演出期間の指定情報が、描画リストに設定される。 When the arithmetic processing for the concatenated object is executed as described above, the information of the instruction to use both concatenated objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output processing, and they are set. The parameters of the first concatenated object PC15 are set for the objects PC15 and PC16. Further, the designated information of the first effect period indicating that it is the first effect period is set in the drawing list.

ステップS1911にて、第1演出期間中ではないと判定した場合には、ステップS1912にて、現状設定されているデータテーブルに基づいて、第2演出期間中であるか否かを判定する。第2演出期間中である場合には、ステップS1913にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。 If it is determined in step S1911 that it is not in the first effect period, it is determined in step S1912 whether or not it is in the second effect period based on the data table currently set. When the second effect period is in progress, in step S1913, the first concatenated object PC15 and the second concatenated object PC16 are grasped as control targets based on the currently set data table.

続くステップS1914では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1915では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。ちなみに、今回は第2演出期間中であるため、当該第2演出期間の進行に伴って第2の連結オブジェクトPC16が予め定められた第2の動作(図29(b)を参照)をするように、ステップS1915にてパラメータの演算が行われる。 In the following step S1914, various parameters of the first concatenated object PC15 are calculated to update the control information related to the first concatenated object PC15. Further, in step S1915, various parameters of the second connected object PC 16 are calculated to update the control information related to the second connected object PC 16. By the way, since the second effect period is in progress this time, the second connected object PC 16 performs a predetermined second operation (see FIG. 29 (b)) as the second effect period progresses. In addition, the parameter calculation is performed in step S1915.

続くステップS1916では、第2演出期間の指定情報を記憶し、さらにステップS1917にて、両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のパラメータが今回の描画リストにて指定されるように設定する。 In the following step S1916, the designation information of the second effect period is stored, and in step S1917, the parameters of the second connected object PC16 out of the two connected objects PC15 and PC16 are specified in the drawing list this time. Set.

続くステップS1918では、現状設定されているデータテーブルに基づいて、第2演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第2演出期間は第1演出期間よりも演出が発展した状態であり、少なくとも第1演出期間から第2演出期間への切り換えに際して表示されるオブジェクト数は増加する。第1演出期間から第2演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1918の処理の実行タイミングにおいて完了している。その後、ステップS1919にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In the following step S1918, the object to be updated this time, which is another object for the second effect period, is grasped based on the currently set data table. Here, the second effect period is a state in which the effect is more developed than the first effect period, and at least the number of objects displayed when switching from the first effect period to the second effect period increases. The setting process for starting control (step S901) for the object increased by the amount increased when switching from the first effect period to the second effect period is completed at the execution timing of the process in step S1918. After that, in step S1919, various parameters of the other objects grasped above are calculated, and the control information related to these other objects is updated, and then this calculation process is terminated.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第2の連結オブジェクトPC16のパラメータが設定される。また、第2演出期間であることを示す第2演出期間の指定情報が、描画リストに設定される。 When the arithmetic processing for the concatenated object is executed as described above, the information of the instruction to use both concatenated objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output processing, and they are set. The parameters of the second concatenated object PC16 are set for the objects PC15 and PC16. Further, the designated information of the second effect period indicating that it is the second effect period is set in the drawing list.

ステップS1912にて、第2演出期間中ではないと判定した場合には、第3演出期間であることを意味するため、ステップS1920に進む。ステップS1920では、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。 If it is determined in step S1912 that it is not in the second effect period, it means that it is in the third effect period, so the process proceeds to step S1920. In step S1920, the first concatenated object PC15 and the second concatenated object PC16 are grasped as control targets based on the currently set data table.

続くステップS1921では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。ちなみに、今回は第3演出期間中であるため、当該第3演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1921にてパラメータの演算が行われる。また、ステップS1922では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。 In the following step S1921, various parameters of the first concatenated object PC15 are calculated to update the control information related to the first concatenated object PC15. By the way, since this time is during the third effect period, the first connected object PC 15 performs the predetermined first operation (see FIG. 29 (a)) as the third effect period progresses. In addition, the parameter calculation is performed in step S1921. Further, in step S1922, various parameters of the second connected object PC 16 are calculated to update the control information related to the second connected object PC 16.

続くステップS1923では、第3演出期間の指定情報を記憶し、さらにステップS1924にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。 In the following step S1923, the designation information of the third effect period is stored, and in step S1924, the parameters of the first connected object PC15 out of the two connected objects PC15 and PC16 are specified in the drawing list this time. Set.

続くステップS1925では、現状設定されているデータテーブルに基づいて、第3演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第3演出期間は第2演出期間よりも演出が発展した状態であり、少なくとも第2演出期間から第3演出期間への切り換えに際して表示されるオブジェクト数は増加する。第2演出期間から第3演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1925の処理の実行タイミングにおいて完了している。その後、ステップS1926にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In the following step S1925, the object to be updated this time, which is another object for the third effect period, is grasped based on the currently set data table. Here, the third effect period is a state in which the effect is more developed than the second effect period, and at least the number of objects displayed when switching from the second effect period to the third effect period increases. The setting process for starting control (step S901) for the object increased by the amount increased when switching from the second effect period to the third effect period is completed at the execution timing of the process in step S1925. After that, in step S1926, various parameters of the other objects grasped above are calculated, and the control information related to these other objects is updated, and then this calculation process is terminated.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第3演出期間であることを示す第3演出期間の指定情報が、描画リストに設定される。 When the arithmetic processing for the concatenated object is executed as described above, the information of the instruction to use both concatenated objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output processing, and they are set. The parameters of the first concatenated object PC15 are set for the objects PC15 and PC16. Further, the designated information of the third effect period indicating that it is the third effect period is set in the drawing list.

次に、VDP135にて実行される連結オブジェクト演出用の設定処理を、図31のフローチャートを参照しながら説明する。連結オブジェクト演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、連結オブジェクト演出用の設定処理は、今回の描画リストに連結オブジェクト演出の開始指定、第1演出期間乃至第3演出期間の指定のいずれかが設定されている場合に起動される。 Next, the setting process for the connected object effect executed by the VDP 135 will be described with reference to the flowchart of FIG. The setting process for the effect of the connected object is executed in the setting process for the effect of step S1003 in the drawing process (FIG. 16). Further, the setting process for the concatenated object effect is activated when any of the start designation of the concatenated object effect and the designation of the first effect period to the third effect period is set in the drawing list this time.

先ずステップS2001では、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されているか否かを判定する。設定されている場合には、ステップS2002にて、今回の描画リストに基づいて、メモリモジュール133において第1の連結オブジェクトPC15が記憶されているアドレスを把握して、当該第1の連結オブジェクトPC15を読み出す。また、ステップS2003にて、今回の描画リストに基づいて、メモリモジュール133において第2の連結オブジェクトPC16が記憶されているアドレスを把握して、当該第2の連結オブジェクトPC16を読み出す。 First, in step S2001, it is determined whether or not the start designation of the concatenated object effect is set in the drawing list this time. If it is set, in step S2002, based on the current drawing list, the address where the first concatenated object PC15 is stored in the memory module 133 is grasped, and the first concatenated object PC15 is set. read out. Further, in step S2003, based on the current drawing list, the address where the second concatenated object PC 16 is stored in the memory module 133 is grasped, and the second concatenated object PC 16 is read out.

続くステップS2004では、第1演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。 In the following step S2004, a uniform α value setting process for the first effect period is executed. Specifically, the uniform α value of the first concatenated object PC 15 is set to "1" which is opaque information, and the uniform α value of the second concatenated object PC 16 is set to "0" which is completely transparent information. do. As a result, the color information preset for all the pixels of the first connected object PC15 (including the information of the α value set for each pixel from the beginning) is applied as it is, whereas the first is applied. The α value of "0" is uniformly applied to all the pixels of the connected object PC16 of 2.

続くステップS2005では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2006にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the following step S2005, the parameters specified for the first concatenated object PC15 in the current drawing list are grasped as the parameters of both concatenated objects PC15 and PC16. After that, in step S2006, the setting process for the world coordinate system is executed for both the connected objects PC15 and PC16.

今回は連結オブジェクト演出の開始指定に係る処理回であるため、両連結オブジェクトPC15,PC16のワールド座標系への配置を行う。また、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第1の連結オブジェクトPC15のパラメータを第2の連結オブジェクトPC16にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。 Since this time is the processing time related to the start designation of the concatenated object effect, both concatenated objects PC15 and PC16 are arranged in the world coordinate system. Further, although the shapes of the two connected objects PC15 and PC16 are almost the same, the connected portions of the component objects are different. Then, even if the parameters of the first concatenated object PC15 are applied to the second concatenated object PC16 as they are, some pixels whose coordinate specifications do not match are generated, but for such pixels, a predetermined adjustment is made on the VDP135 side. ..

続くステップS2007では、今回の描画リストに指定されている第1演出期間用の他のオブジェクトを把握するとともに、ステップS2008にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2009にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。 In the following step S2007, another object for the first effect period specified in the drawing list this time is grasped, and various parameters specified for the object are grasped in step S2008. After that, in step S2009, after executing the setting process for the object in the world coordinate system, the setting process for the present concatenated object effect is terminated.

上記のように連結オブジェクト演出用の設定処理が実行されることにより、ワールド座標系に対して両連結オブジェクトPC15,PC16の配置が同時に開始される。また、両連結オブジェクトPC15,PC16に対して同一のパラメータが適用されるため、ワールド座標系の同一の位置に対して両連結オブジェクトPC15,PC16が重ねて配置される。但し、ステップS2004の処理が実行されていることにより、第2の連結オブジェクトPC16はレンダリングに際して完全透明のオブジェクトとして扱われるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。 By executing the setting process for producing the connected object as described above, the arrangement of both connected objects PC15 and PC16 is started at the same time with respect to the world coordinate system. Further, since the same parameters are applied to both connected objects PC15 and PC16, both connected objects PC15 and PC16 are arranged so as to overlap with each other at the same position in the world coordinate system. However, since the process of step S2004 is executed, the second concatenated object PC16 is treated as a completely transparent object at the time of rendering, so that the first concatenated object of the two concatenated objects PC15 and PC16 is displayed on the display surface G. Only PC15 is displayed.

一方、ステップS2001にて、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されていないと判定した場合には、ステップS2010に進む。ステップS2010では、今回の描画リストにおいて第1演出期間の指定が設定されているか否かを判定する。 On the other hand, if it is determined in step S2001 that the start designation of the concatenated object effect is not set in the drawing list this time, the process proceeds to step S2010. In step S2010, it is determined whether or not the designation of the first effect period is set in the drawing list this time.

設定されている場合には、ステップS2004〜ステップS2009の処理を実行した後に、本設定処理を終了する。この場合、ステップS2006では、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。 If it is set, the process of steps S2004 to S2009 is executed, and then the present setting process is terminated. In this case, in step S2006, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are grasped from the information of the parameters set corresponding to the first connected object PC15 in the drawing list. Update.

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2004の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2005で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第1演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。 By executing the setting process for producing the connected object as described above, various parameters of both connected objects PC15 and PC16 are updated, but since the process of step S2004 is executed, both connected objects are connected to the display surface G. Of the objects PC15 and PC16, only the first concatenated object PC15 is displayed. Further, since the parameter updated in step S2005 corresponds to the first connection object PC15, the first connection is performed so that the display surface G performs the first operation as the first effect period progresses. The object PC 15 is displayed.

ステップS2010にて、今回の描画リストにおいて第1演出期間の指定が設定されていないと判定した場合には、ステップS2011に進む。ステップS2011では、今回の描画リストにおいて第2演出期間の指定が設定されているか否かを判定する。 If it is determined in step S2010 that the designation of the first effect period is not set in the drawing list this time, the process proceeds to step S2011. In step S2011, it is determined whether or not the designation of the second effect period is set in the drawing list this time.

設定されている場合には、ステップS2012にて、第2演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を完全透過情報である「0」に設定するとともに、第2の連結オブジェクトPC16の一律α値を不透過情報である「1」に設定する。これにより、第2の連結オブジェクトPC16の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第1の連結オブジェクトPC15の全ピクセルに対して「0」のα値が一律に適用される。 If it is set, in step S2012, a uniform α value setting process for the second effect period is executed. Specifically, the uniform α value of the first concatenated object PC 15 is set to “0” which is completely transparent information, and the uniform α value of the second concatenated object PC 16 is set to “1” which is opaque information. do. As a result, the color information preset for all the pixels of the second connected object PC16 (including the information of the α value set for each pixel from the beginning) is applied as it is, whereas the second is applied. The α value of "0" is uniformly applied to all the pixels of the concatenated object PC15 of 1.

続くステップS2013では、今回の描画リストにおいて第2の連結オブジェクトPC16に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2014にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the following step S2013, the parameters specified for the second concatenated object PC16 in the current drawing list are grasped as the parameters of both concatenated objects PC15 and PC16. After that, in step S2014, the setting process for the world coordinate system is executed for both the connected objects PC15 and PC16.

今回は第2演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第2の連結オブジェクトPC16に対応させて設定されているパラメータの情報から把握して更新する。この場合に、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第2の連結オブジェクトPC16のパラメータを第1の連結オブジェクトPC15にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。 Since this time is the processing time related to the update of the second production period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set corresponding to the second connected object PC16 in the drawing list. It is updated by grasping from the information of the parameter. In this case, the shapes of the two connected objects PC15 and PC16 are almost the same, but the connected portions of the component objects are different. Then, even if the parameters of the second concatenated object PC 16 are applied to the first concatenated object PC 15 as they are, some pixels whose coordinate specifications do not match are generated, but the VDP 135 side makes a predetermined adjustment for such pixels. ..

続くステップS2015では、今回の描画リストに指定されている第2演出期間用の他のオブジェクトを把握するとともに、ステップS2016にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2017にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第1演出期間から第2演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2017ではそれに応じた処理を実行する。 In the following step S2015, another object for the second effect period specified in the drawing list this time is grasped, and various parameters specified for the object are grasped in step S2016. After that, in step S2017, after executing the setting process for the object in the world coordinate system, the setting process for the present concatenated object effect is terminated. Here, when the current processing time is the timing related to the switching from the first effect period to the second effect period, the number of displayed objects increases, and therefore, in step S2017, the corresponding process is executed. ..

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2012の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のみが表示される。また、ステップS2013で更新されるパラメータは、第2の連結オブジェクトPC16に対応しているため、第2演出期間の進行に伴って、表示面Gでは第2の動作を行うように第2の連結オブジェクトPC16が表示される。 By executing the setting process for producing the connected object as described above, various parameters of both connected objects PC15 and PC16 are updated, but since the process of step S2012 is executed, both connected objects are connected to the display surface G. Of the objects PC15 and PC16, only the second concatenated object PC16 is displayed. Further, since the parameter updated in step S2013 corresponds to the second connected object PC16, the second connection is performed so that the display surface G performs the second operation as the second effect period progresses. The object PC 16 is displayed.

ステップS2011にて、今回の描画リストにおいて第2演出期間の指定が設定されていないと判定した場合には、今回の描画リストにおいて第3演出期間の指定が設定されていることを意味するため、ステップS2018に進む。 If it is determined in step S2011 that the designation of the second effect period is not set in the current drawing list, it means that the designation of the third effect period is set in the current drawing list. The process proceeds to step S2018.

ステップS2018では、第3演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。 In step S2018, a uniform α value setting process for the third effect period is executed. Specifically, the uniform α value of the first concatenated object PC 15 is set to "1" which is opaque information, and the uniform α value of the second concatenated object PC 16 is set to "0" which is completely transparent information. do. As a result, the color information preset for all the pixels of the first connected object PC15 (including the information of the α value set for each pixel from the beginning) is applied as it is, whereas the first is applied. The α value of "0" is uniformly applied to all the pixels of the connected object PC16 of 2.

続くステップS2019では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2020にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the following step S2019, the parameters specified for the first concatenated object PC15 in the current drawing list are grasped as the parameters of both concatenated objects PC15 and PC16. After that, in step S2020, the setting process for the world coordinate system is executed for both the connected objects PC15 and PC16.

今回は第3演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。 Since this time is the processing time related to the update of the third effect period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set corresponding to the first connected object PC15 in the drawing list. It is updated by grasping from the information of the parameter.

続くステップS2021では、今回の描画リストに指定されている第3演出期間用の他のオブジェクトを把握するとともに、ステップS2022にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2023にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第2演出期間から第3演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2023ではそれに応じた処理を実行する。 In the following step S2021, another object for the third effect period specified in the drawing list this time is grasped, and various parameters specified for the object are grasped in step S2022. After that, in step S2023, after executing the setting process for the object in the world coordinate system, the setting process for the present concatenated object effect is terminated. Here, when the current processing time is the timing related to the switching from the second effect period to the third effect period, the number of displayed objects increases, and therefore, in step S2023, the corresponding process is executed. ..

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2018の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2019で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第3演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。 By executing the setting process for producing the connected object as described above, various parameters of both connected objects PC15 and PC16 are updated, but since the process of step S2018 is executed, both connected objects are connected to the display surface G. Of the objects PC15 and PC16, only the first concatenated object PC15 is displayed. Further, since the parameter updated in step S2019 corresponds to the first connection object PC15, the first connection is performed so that the display surface G performs the first operation as the third effect period progresses. The object PC 15 is displayed.

次に、連結オブジェクト演出の内容について、図32を参照しながら説明する。 Next, the contents of the connected object effect will be described with reference to FIG. 32.

図32は連結オブジェクト演出を説明するための説明図である。また、図32(a)は第1演出期間を示し、図32(b)は第2演出期間を示し、図32(c)は第3演出期間を示す。なお、図32(a―1),(b―1),(c―1)はワールド座標系のイメージ図であり、図32(a―2),(b―2),(c―2)は表示面Gを示す。また、図32(a―2),(b―2),(c―2)では背景画像や図柄を省略しているが、実際には各演出用の画像の奥側にて背景画像が表示されるとともに手前側にて図柄が表示される。 FIG. 32 is an explanatory diagram for explaining the connected object effect. Further, FIG. 32 (a) shows a first effect period, FIG. 32 (b) shows a second effect period, and FIG. 32 (c) shows a third effect period. Note that FIGS. 32 (a-1), (b-1), and (c-1) are image diagrams of the world coordinate system, and FIGS. 32 (a-2), (b-2), and (c-2) are images. The display surface G is shown. Further, although the background image and the design are omitted in FIGS. 32 (a-2), (b-2), and (c-2), the background image is actually displayed behind the image for each effect. At the same time, the design is displayed on the front side.

第1演出期間では、図32(a―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(a―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第1演出期間の進行に伴って第1の動作が行われる。また、その他のオブジェクトに対応した画像として、「A」〜「C」に示すキャラクタCH4〜CH6が表示される。 In the first effect period, as shown in FIG. 32 (a-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the second connected object PC16 is subjected to transparency processing. .. Therefore, as shown in FIG. 32 (a-2), the character CH3 corresponding to the first connected object PC 15 is displayed on the display surface G, and the first operation is performed as the first effect period progresses. .. Further, as images corresponding to other objects, the characters CH4 to CH6 shown in "A" to "C" are displayed.

第2演出期間では、図32(b―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第1の連結オブジェクトPC15に対しては透明化処理が行われる。したがって、図32(b―2)に示すように、表示面Gには第2の連結オブジェクトPC16に対応したキャラクタCH3が表示され、第2演出期間の進行に伴って第2の動作が行われる。 In the second effect period, as shown in FIG. 32 (b-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the first connected object PC15 is subjected to transparency processing. .. Therefore, as shown in FIG. 32 (b-2), the character CH3 corresponding to the second connected object PC 16 is displayed on the display surface G, and the second operation is performed as the second effect period progresses. ..

ここで、図32(a―2)と図32(b―2)とで比較した場合、両キャラクタCH3は異なる形状であるかのように示されているが、実際には両連結オブジェクトPC15,PC16に対して同一のテクスチャがマッピングされ、連結部(関節部分)が目立たなくなる。したがって、第1演出期間から第2演出期間に切り換わったとしても、キャラクタCH3に関して表示面Gでは同一、略同一又は同様の画像が表示され、遊技者はその切り換わりを認識しづらくなっている。但し、遊技者が切り換わりの発生を認識しづらいのであれば、両連結オブジェクトPC15,PC16に対して個別にテクスチャが設定されていてもよい。 Here, when comparing FIGS. 32 (a-2) and 32 (b-2), both characters CH3 are shown as having different shapes, but in reality, both connected objects PC15, The same texture is mapped to PC16, and the connecting part (joint part) becomes inconspicuous. Therefore, even if the first effect period is switched to the second effect period, the same, substantially the same, or similar images are displayed on the display surface G with respect to the character CH3, and it is difficult for the player to recognize the switch. .. However, if it is difficult for the player to recognize the occurrence of switching, textures may be set individually for both connected objects PC15 and PC16.

また、第2演出期間では、その他のオブジェクトに対応した画像として、「A」〜「E」に示すキャラクタCH4〜CH8が表示される。このキャラクタCH4〜CH8の数は、第1演出期間の場合よりも多い数である。 Further, in the second effect period, the characters CH4 to CH8 shown in "A" to "E" are displayed as images corresponding to other objects. The number of the characters CH4 to CH8 is larger than that in the case of the first effect period.

第3演出期間では、図32(c―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(c―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第3演出期間の進行に伴って第1の動作が行われる。また、第3演出期間では、その他のオブジェクトに対応した画像として、「A」〜「G」に示すキャラクタCH4〜CH10が表示される。このキャラクタCH4〜CH10の数は、第2演出期間の場合よりも多い数である。 In the third effect period, as shown in FIG. 32 (c-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the second connected object PC16 is subjected to transparency processing. .. Therefore, as shown in FIG. 32 (c-2), the character CH3 corresponding to the first connected object PC 15 is displayed on the display surface G, and the first operation is performed as the third effect period progresses. .. Further, in the third effect period, the characters CH4 to CH10 shown in "A" to "G" are displayed as images corresponding to other objects. The number of the characters CH4 to CH10 is larger than that in the case of the second effect period.

以上のとおり、共通のキャラクタに対して複数の連結オブジェクトPC15,PC16が設定されていることにより、関節部分を利用した動作の種類に応じて表示対象となる連結オブジェクトPC15,PC16を切り換えることができる。例えば、複数種類の動作を単一の連結オブジェクトで行おうとすると、それだけ分の連結部及び部品オブジェクトをその単一の連結オブジェクトに対して設定する必要が生じる。そうすると、一の画像データのデータ容量が大きくなってしまい、メモリモジュール133において単一の画像データとして記憶可能な容量を超えてしまうことが懸念され、超えないとしても単一の画像データを扱う上での処理時間や転送時間の長時間化が懸念される。これに対して、複数の連結オブジェクトPC15,PC16として設定されているため、上記のような不都合を生じさせることなく、キャラクタに対して複数種類の動作を行わせることが可能となる。 As described above, by setting a plurality of connected objects PC15 and PC16 for a common character, it is possible to switch the connected objects PC15 and PC16 to be displayed according to the type of operation using the joint portion. .. For example, if a plurality of types of operations are to be performed on a single concatenated object, it becomes necessary to set the concatenated part and the part object for that single concatenated object. Then, the data capacity of one image data becomes large, and there is a concern that the capacity that can be stored as a single image data in the memory module 133 will be exceeded. There is a concern that the processing time and transfer time will be longer. On the other hand, since the plurality of connected objects PC15 and PC16 are set, it is possible to cause the character to perform a plurality of types of operations without causing the above-mentioned inconvenience.

また、パチンコ機10の設計段階においては演出の修正が行われる機会が多く、キャラクタの動作についての修正の度に連結オブジェクトの全体の動きを見直していると、設計に要する期間が多大なものとなってしまう。これに対して、上記のように行わせたい動作の種類に応じて複数の連結オブジェクトPC15,PC16を設定することで、演出の修正を行う必要が生じたとしても、既に作成済みの連結オブジェクトPC15,PC16の全てを修正する必要がなくなる。よって、パチンコ機10の設計を良好に行えるようにしながら、キャラクタに対して複数種類の動作を行わせることが可能となる。 In addition, there are many opportunities to modify the effect at the design stage of the pachinko machine 10, and if the overall movement of the connected object is reviewed each time the motion of the character is modified, the time required for the design will be long. turn into. On the other hand, by setting a plurality of connected objects PC15 and PC16 according to the type of operation to be performed as described above, even if it becomes necessary to modify the effect, the already created connected object PC15 , It is not necessary to modify all of PC16. Therefore, it is possible to make the character perform a plurality of types of operations while making it possible to design the pachinko machine 10 satisfactorily.

また、キャラクタを表示させるために連結オブジェクトが切り換えられるタイミングよりも前に切換元のオブジェクトだけでなく切換先のオブジェクトについても、表示CPU131において制御対象とされるとともに、VDP135においてワールド座標系への配置対象とされる。これにより、切換タイミングとなった場合に表示CPU131及びVDP135では、切換先のオブジェクトに対して制御開始処理を実行するのではなく、当該制御開始処理よりも処理負荷が小さい制御更新処理を実行すればよいため、切換タイミングにおける処理負荷が軽減される。 Further, not only the switching source object but also the switching destination object is controlled by the display CPU 131 before the timing when the connected object is switched to display the character, and is arranged in the world coordinate system in the VDP 135. Be targeted. As a result, when the switching timing is reached, the display CPU 131 and the VDP 135 do not execute the control start processing for the switching destination object, but execute the control update processing having a smaller processing load than the control start processing. Therefore, the processing load at the switching timing is reduced.

特に、切換タイミングでは、演出が発展し、表示されるオブジェクトの数が増加するため、表示CPU131及びVDP135にとって処理負荷が比較的大きくなるタイミングである。この場合に、切換先のオブジェクトに対して制御開始処理を行う構成を想定すると、表示CPU131やVDP135において処理落ちが発生することが懸念されるが、上記のとおり切換先のオブジェクトについて制御更新処理を実行すればよいため、当該処理落ちの発生を阻止することができる。 In particular, at the switching timing, the effect is developed and the number of displayed objects is increased, so that the processing load is relatively large for the display CPU 131 and VDP 135. In this case, assuming a configuration in which control start processing is performed on the switching destination object, there is a concern that processing omission may occur in the display CPU 131 or VDP 135. However, as described above, control update processing is performed on the switching destination object. Since it may be executed, it is possible to prevent the occurrence of the processing omission.

また、ワールド座標系に両連結オブジェクトPC15,PC16を同時に配置するとともに、適用する一律α値を完全透過情報と不透過情報とで切り換える構成であるため、表示CPU131では両者の切換に関して一律α値の切換指定をすればよく、VDP135ではその指定に従って適用する一律α値を切り換えればよい。よって、表示CPU131及びVDP135の処理構成の複雑化を抑えながら、上記のような優れた効果を奏することができる。 Further, since both connected objects PC15 and PC16 are simultaneously arranged in the world coordinate system and the uniform α value to be applied is switched between completely transparent information and opaque information, the display CPU 131 has a uniform α value for switching between the two. Switching designation may be performed, and in VDP135, the uniform α value to be applied may be switched according to the designation. Therefore, it is possible to obtain the above-mentioned excellent effects while suppressing the complexity of the processing configurations of the display CPU 131 and the VDP 135.

また、表示CPU131からVDP135には、ワールド座標系に同時に配置される両連結オブジェクトPC15,PC16のうち表示対象の連結オブジェクトに対してのパラメータ情報のみが提供される。これにより、描画リストに設定されるデータ量の軽減が図られる。また、VDP135では、両連結オブジェクトPC15,PC16のパラメータの更新を同一の態様で行えばよいため、VDP135の処理負荷の軽減が図られる。 Further, the display CPU 131 to the VDP 135 are provided with only the parameter information for the concatenated object to be displayed among the concatenated objects PC15 and PC16 that are simultaneously arranged in the world coordinate system. As a result, the amount of data set in the drawing list can be reduced. Further, in VDP135, since the parameters of both connected objects PC15 and PC16 may be updated in the same manner, the processing load of VDP135 can be reduced.

なお、第1演出期間〜第3演出期間の切換では、キャラクタの数が増加することに代えて又は加えて、上記複数の連結オブジェクトが用意されているキャラクタとは異なる演出用のキャラクタの動作が新たに追加される構成としてもよく、上記複数の連結オブジェクトが用意されているキャラクタとは別に処理負荷の大きい演出用のキャラクタの表示が開始される構成としてもよい。 In addition, in the switching between the first effect period and the third effect period, in place of or in addition to the increase in the number of characters, the operation of the character for effect different from the character in which the above-mentioned plurality of connected objects are prepared is performed. The configuration may be newly added, or may be a configuration in which the display of the character for effect having a large processing load is started separately from the character in which the plurality of connected objects are prepared.

また、第2の連結オブジェクトPC16の表示CPU131における制御開始タイミングやVDP135における制御開始タイミングは、第1の連結オブジェクトPC15と同一ではなくてもよい。例えば、第1演出期間から第2演出期間への切換タイミングよりも前ではあるが、第1の連結オブジェクトPC15の制御開始タイミングよりも後のタイミングであってもよい。 Further, the control start timing in the display CPU 131 of the second connected object PC 16 and the control start timing in the VDP 135 may not be the same as those of the first connected object PC 15. For example, the timing may be earlier than the switching timing from the first effect period to the second effect period, but may be later than the control start timing of the first connected object PC 15.

また、演出期間の切換タイミングにおける処理負荷が上記構成よりも増加するが、当該切換タイミングにおいて第2の連結オブジェクトPC16の制御が開始される構成としてもよい。この場合、第1の連結オブジェクトPC15と第2の連結オブジェクトPC16とがワールド座標系に同時に配置されることがないため、一律α値を調整して表示対象を切り換える制御を行わなくてもよい。 Further, although the processing load at the switching timing of the effect period increases from the above configuration, the control of the second connected object PC 16 may be started at the switching timing. In this case, since the first connected object PC 15 and the second connected object PC 16 are not arranged at the same time in the world coordinate system, it is not necessary to uniformly adjust the α value to control the display target.

また、ワールド座標系に同時に配置されている両連結オブジェクトPC15,PC16について、表示対象の切換を一律α値の調整により行うのではなく、レンダリング対象の切換により行う構成としてもよい。この場合、表示対象ではない側の連結オブジェクトは、レンダリングが行われないこととなるため、上記構成よりもレンダリング時の処理負荷が軽減される。 Further, for both connected objects PC15 and PC16 simultaneously arranged in the world coordinate system, the display target may be switched not by uniformly adjusting the α value but by switching the rendering target. In this case, the connected object on the side that is not the display target is not rendered, so that the processing load at the time of rendering is reduced as compared with the above configuration.

また、第3演出期間が不具備である構成としてもよく、第4演出期間以上の演出期間が設定されている構成としてもよい。また、一のキャラクタに対して、3個以上の連結オブジェクトが用意されている構成としてもよい。 Further, the configuration may be such that the third effect period is not provided, or the effect period equal to or longer than the fourth effect period may be set. Further, a configuration in which three or more connected objects are prepared for one character may be used.

<粒子分散演出を行うための構成>
次に、粒子分散演出を行うための構成について説明する。
<Structure for performing particle dispersion production>
Next, the configuration for performing the particle dispersion effect will be described.

粒子分散演出とは、連続する複数フレーム(複数の画像更新タイミング)に亘って、多数の粒子単体画像が分散していくかのように表示される演出のことである。この分散に際しては、多数の粒子単体画像における少なくとも一部の画像同士がそれぞれ異なる軌道で変位していくように表示される。粒子分散演出に際しては、多数の粒子単体画像に対して1対1で対応させて設定された多数の頂点データを有する粒子分散用オブジェクトと、当該粒子分散用オブジェクトに対応させて設定され、各頂点データに対応した位置にそれぞれ対応する粒子単体画像を表示させるための多数の単体画像データを有する粒子分散用テクスチャとが用いられる。 The particle dispersion effect is an effect in which a large number of single particle images are displayed as if they are dispersed over a plurality of consecutive frames (multiple image update timings). At the time of this dispersion, at least a part of the images of a large number of single particles are displayed so as to be displaced in different orbits. In the particle dispersion effect, a particle dispersion object having a large number of vertex data set in a one-to-one correspondence with a large number of particle single images and a particle dispersion object set in correspondence with the particle dispersion object are set, and each vertex is set. A particle dispersion texture having a large number of single image data for displaying a single particle image corresponding to each position corresponding to the data is used.

これら粒子分散用オブジェクト及び粒子分散用テクスチャについて、図33(a)及び図33(b)を参照しながら詳細に説明する。図33(a)は粒子分散用オブジェクトPC17を説明するための説明図であり、図33(b)は粒子分散用テクスチャPC18を説明するための説明図である。 These particle dispersion objects and particle dispersion textures will be described in detail with reference to FIGS. 33 (a) and 33 (b). FIG. 33A is an explanatory diagram for explaining the particle dispersion object PC17, and FIG. 33B is an explanatory diagram for explaining the particle dispersion texture PC18.

図33(a)に示すように、粒子分散用オブジェクトPC17は、頂点データと、当該頂点データに対応した座標データと、これら以外である他のデータとを含んでいる。頂点データは、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら頂点データによって粒子分散用オブジェクトPC17における各頂点が識別される。座標データは、各頂点データに1対1で対応させて、座標(1),座標(2),座標(3),・・・,座標(99),座標(100)と多数設定されており、VDP135では、これら座標データによって粒子分散用オブジェクトPC17における各頂点のワールド座標系内における位置が認識される。 As shown in FIG. 33A, the particle dispersion object PC 17 includes vertex data, coordinate data corresponding to the vertex data, and other data other than these. A large number of vertex data are set as vertices (1), vertices (2), vertices (3), ..., vertices (99), and vertices (100). Each vertex in PC 17 is identified. The coordinate data has a one-to-one correspondence with each vertex data, and a large number of coordinates (1), coordinates (2), coordinates (3), ..., Coordinates (99), and coordinates (100) are set. In the VDP135, the positions of each vertex in the particle dispersion object PC17 in the world coordinate system are recognized by these coordinate data.

他のデータには、例えば粒子分散用オブジェクトPC17の初期スケールのデータや、全頂点データに対して一律に適用される初期α値のデータや、粒子分散用オブジェクトPC17の初期回転角度のデータなどが含まれている。 Other data includes, for example, initial scale data of the particle dispersion object PC17, initial α value data uniformly applied to all vertex data, initial rotation angle data of the particle dispersion object PC17, and the like. include.

図33(b)に示すように、粒子分散用テクスチャPC18は、単体データと、当該単体データに対応した相関データと、当該単体データに対応した単体画像データと、これら以外である他のデータとを含んでいる。単体画像データは、各単体データに1対1で対応させて、単体画像データ(1),単体画像データ(2),単体画像データ(3),・・・,単体画像データ(99),単体画像データ(100)と多数設定されている。各単体画像データは、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。各単体画像データは同一種類の粒子単体画像を表示させるデータとなっている。具体的には「球形の泡」を表示させるデータとなっており、各単体画像データの一部又は全部において当該「球形の泡」の形状、初期状態における大きさ、及び色彩は異なっている。この場合、粒子分散演出を実行する上でのVDP135における処理負荷の軽減を図りながら、同時に表示させる粒子単体画像の数を多くすべく、初期状態におけるスケールで全単体画像データを設定したとしても、表示面Gにて、全粒子単体画像を同時に表示させることが可能な構成となっている。 As shown in FIG. 33 (b), the particle dispersion texture PC 18 includes single data, correlation data corresponding to the single data, single image data corresponding to the single data, and other data other than these. Includes. The single image data has a one-to-one correspondence with each single data, and is single image data (1), single image data (2), single image data (3), ..., Single image data (99), single unit. A large number of image data (100) are set. Each single image data includes, for example, a combination of bitmap format data and a color palette table referred to when determining a display color at each pixel of the bitmap image. Each single image data is data for displaying the same type of single particle image. Specifically, it is data for displaying "spherical bubbles", and the shape, size, and color of the "spherical bubbles" are different in a part or all of each single image data. In this case, even if all the single image data is set on the scale in the initial state in order to increase the number of single particle images to be displayed at the same time while reducing the processing load in VDP135 in executing the particle dispersion effect. The display surface G is configured so that a single image of all particles can be displayed at the same time.

なお、各単体画像データの少なくとも一部について又は全部について粒子の種類が相違していてもよい。また、同一種類の粒子であるとともに、その形状、初期状態におけるスケール、及び色彩が同一であってもよい。 The type of particles may be different for at least a part or all of each single image data. Further, the particles may be of the same type and have the same shape, scale, and color in the initial state.

粒子分散用テクスチャPC18の単体データは、単体(1),単体(2),単体(3),・・・,単体(99),単体(100)と多数設定されており、VDP135では、これら単体データによって粒子分散用テクスチャPC18に設定されている多数の単体画像データが個別に認識される。相関データは、各単体データに1対1で対応させて、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら相関データによって粒子分散用テクスチャPC18における各単体画像データが粒子分散用オブジェクトPC17における各頂点データのいずれに対応しているかが認識される。 A large number of single data of the particle dispersion texture PC18 is set as a single unit (1), a single unit (2), a single unit (3), ..., a single unit (99), and a single unit (100). A large number of single image data set in the particle dispersion texture PC 18 are individually recognized by the data. Correlation data has a one-to-one correspondence with each unit data, and a large number of vertices (1), vertices (2), vertices (3), ..., vertices (99), and vertices (100) are set. In the VDP135, it is recognized from these correlation data which of the vertex data in the particle dispersion object PC17 corresponds to each single image data in the particle dispersion texture PC18.

他のデータには、各単体画像データに対して個別に適用されるα値のデータや、各単体画像データに対して一律に適用されるα値のデータなどが含まれている。 The other data includes α value data individually applied to each single image data, α value data uniformly applied to each single image data, and the like.

ここで、粒子分散用オブジェクトPC17における各座標データには、それぞれ初期データが設定されており、これら初期データはそれぞれ異なる座標となっている。粒子分散用オブジェクトPC17の各座標データは書き換え可能となっており、当該粒子分散用オブジェクトPC17がワールド座標系に設定される場合には、上記各座標データが初期データとは異なる座標のデータに書き換えられた状態で設定される。かかる書き換えを行うために使用される書き換え用基準データとして、複数種類のキーデータKD1〜KD3が設定されている。 Here, initial data is set for each coordinate data in the particle dispersion object PC 17, and these initial data have different coordinates. Each coordinate data of the particle dispersion object PC17 is rewritable, and when the particle dispersion object PC17 is set in the world coordinate system, each of the above coordinate data is rewritten to data having coordinates different from the initial data. It is set in the set state. A plurality of types of key data KD1 to KD3 are set as rewriting reference data used for performing such rewriting.

キーデータKD1〜KD3は、少なくとも2種類設定されており、具体的には、図33(c)〜(e)に示すように、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3の3種類が設定されている。これら各キーデータKD1〜KD3は、それぞれ、相関データと、当該相関データに対応した座標データとを含んでいる。 At least two types of key data KD1 to KD3 are set. Specifically, as shown in FIGS. 33 (c) to 33 (e), the first key data KD1, the second key data KD2, and the third key data are set. Three types of KD3 are set. Each of these key data KD1 to KD3 includes correlation data and coordinate data corresponding to the correlation data, respectively.

具体的には、第1キーデータKD1の相関データ、第2キーデータKD2の相関データ、及び第3キーデータKD3の相関データはいずれも、適用対象である粒子分散用オブジェクトPC17の各頂点データと1対1で対応させて設定されており、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されている。 Specifically, the correlation data of the first key data KD1, the correlation data of the second key data KD2, and the correlation data of the third key data KD3 are all the vertex data of the particle dispersion object PC17 to be applied. It is set in a one-to-one correspondence, and a large number of vertices (1), vertices (2), vertices (3), ..., vertices (99), and vertices (100) are set.

一方、第1キーデータKD1の座標データ、第2キーデータKD2の座標データ、及び第3キーデータKD3の座標データはそれぞれ、各相関データに1対1で対応させて多数設定されているが、同一の相関データ間で比較した場合において相違している。 On the other hand, a large number of coordinate data of the first key data KD1, coordinate data of the second key data KD2, and coordinate data of the third key data KD3 are set in a one-to-one correspondence with each correlation data. It is different when compared between the same correlation data.

具体的には、第1キーデータKD1の座標データは、座標(1−1),座標(2−1),座標(3−1),・・・,座標(99−1),座標(100−1)と多数設定されており、第2キーデータKD2の座標データは、座標(1−2),座標(2−2),座標(3−2),・・・,座標(99−2),座標(100−2)と多数設定されており、第3キーデータKD3の座標データは、座標(1−3),座標(2−3),座標(3−3),・・・,座標(99−3),座標(100−3)と多数設定されている。また、頂点(1)に対応している座標データが、第1キーデータKD1では座標(1−1)、第2キーデータKD2では座標(1−2)、及び第3キーデータKD3では座標(1−3)であり、頂点(100)に対応している座標データが、第1キーデータKD1では座標(100−1)、第2キーデータKD2では座標(100−2)、及び第3キーデータKD3では座標(100−3)であるように、一の頂点データに対してそれぞれ異なる座標データが設定されている。 Specifically, the coordinate data of the first key data KD1 is coordinate (1-1), coordinate (2-1), coordinate (3-1), ..., Coordinate (99-1), coordinate (100). -1) is set in large numbers, and the coordinate data of the second key data KD2 is coordinate (1-2), coordinate (2-2), coordinate (3-2), ..., Coordinate (99-2). ), Coordinates (100-2), and the coordinate data of the third key data KD3 is coordinate (1-3), coordinate (2-3), coordinate (3-3), ..., A large number of coordinates (99-3) and coordinates (100-3) are set. Further, the coordinate data corresponding to the vertex (1) is the coordinate (1-1) in the first key data KD1, the coordinate (1-2) in the second key data KD2, and the coordinate (1-2) in the third key data KD3. The coordinate data corresponding to the vertices (100) in 1-3) are the coordinates (100-1) in the first key data KD1, the coordinates (100-2) in the second key data KD2, and the third key. In the data KD3, different coordinate data are set for each vertex data so as to be the coordinates (100-3).

ちにみに、各キーデータKD1〜KD3は、α値のデータや、回転角度のデータが設定されていないこととの関係で、粒子分散用オブジェクトPC17よりもデータ容量が小さく設定されている。 Incidentally, each key data KD1 to KD3 is set to have a smaller data capacity than the particle dispersion object PC 17 in relation to the fact that the α value data and the rotation angle data are not set.

各キーデータKD1〜KD3は、上記のとおり、各粒子単体画像の変位軌道を決定付けるべく設定されているものであり、粒子分散用オブジェクトPC17に対して適用される順序が予め定められている。具体的には、第2キーデータKD2は、第1キーデータKD1よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられ、第3キーデータKD3は、第2キーデータKD2よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられる。粒子分散用オブジェクトPC17をワールド座標系に設定する場合には、上記キーデータKD1〜KD3の座標データが各頂点データに対して適用されることにより、各頂点データに対応した各粒子単体画像がそれぞれの軌道で変位する。 As described above, the key data KD1 to KD3 are set to determine the displacement trajectory of each particle single image, and the order applied to the particle dispersion object PC 17 is predetermined. Specifically, the second key data KD2 is used when setting the coordinate data on the displacement direction destination side of each particle single image with respect to the first key data KD1, and the third key data KD3 is the second key data. It is used when setting the coordinate data on the displacement direction destination side of each particle single image rather than KD2. When the particle dispersion object PC17 is set in the world coordinate system, the coordinate data of the key data KD1 to KD3 are applied to each vertex data, so that each particle single image corresponding to each vertex data can be obtained. Displace in the orbit of.

この場合に、少なくとも所定のフレーム数間においては複数のキーデータKD1〜KD3、より詳細には2個のキーデータKD1〜KD3の座標データが融合された状態で各頂点データに対して適用される。具体的には、粒子分散演出の最初のフレーム(すなわち画像更新タイミング)における各頂点データの座標データを決定付ける第1キーデータKD1は、最初のフレームよりも後の複数フレームである第1フレーム数(例えば99フレーム)分に相当する第1フレーム期間に亘って用いられる。第2キーデータKD2は、上記第1フレーム期間、当該第1フレーム期間に対して次のフレームに相当する第1切換対象フレーム、及びそれ以降の複数フレームである第2フレーム数分に相当する第2フレーム期間に亘って用いられる。第3キーデータKD3は、上記第2フレーム期間に亘って用いられる。この場合に、上記第1フレーム数と上記第2フレーム数とは同一のフレーム数となっている。 In this case, it is applied to each vertex data in a state where the coordinate data of the plurality of key data KD1 to KD3, more specifically, the coordinate data of the two key data KD1 to KD3 are fused for at least a predetermined number of frames. .. Specifically, the first key data KD1 that determines the coordinate data of each vertex data in the first frame of the particle dispersion effect (that is, the image update timing) is the number of first frames which are a plurality of frames after the first frame. It is used over the first frame period corresponding to (for example, 99 frames) minutes. The second key data KD2 corresponds to the first frame period, the first switching target frame corresponding to the next frame with respect to the first frame period, and the number of second frames which are a plurality of frames thereafter. Used over a two-frame period. The third key data KD3 is used over the second frame period. In this case, the number of the first frames and the number of the second frames are the same.

なお、第3キーデータKD3の後に第4キーデータが設定されていてもよく、この場合には、第3キーデータKD3は、上記第2フレーム期間、当該第2フレーム期間に対して次のフレームに相当する第2切換対象フレーム、及びそれ以降の複数フレームである第3フレーム数(第1フレーム数及び第2フレーム数と同一フレーム数)分に相当する第3フレーム期間に亘って用いられ、第4キーデータは、上記第3フレーム期間に亘って用いられる。 The fourth key data may be set after the third key data KD3. In this case, the third key data KD3 is set to the next frame with respect to the second frame period and the second frame period. It is used over the third frame period corresponding to the second switching target frame corresponding to, and the third frame number (the same number of frames as the first frame number and the second frame number) which is a plurality of frames thereafter. The fourth key data is used over the third frame period.

かかる構成であることにより、上記キーデータKD1〜KD3の数が、粒子分散演出が実行される場合の連続フレーム数よりも少ない数、より詳細には、粒子分散演出に際して、粒子分散用オブジェクトPC17における各頂点データの座標データが変更される回数よりも少ない数に設定されている構成であっても、各粒子単体画像が変位する様子を滑らかに表示することが可能となる。 With such a configuration, the number of the key data KD1 to KD3 is smaller than the number of continuous frames when the particle dispersion effect is executed, and more specifically, in the particle dispersion effect, the particle dispersion object PC 17 is used. Even if the number of coordinate data of each particle data is set to be smaller than the number of times the coordinate data is changed, it is possible to smoothly display how each particle single image is displaced.

以下に、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1〜KD3を用いて粒子分散演出を実行するための具体的な処理構成を説明する。なお、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1〜KD3は、メモリモジュール133に予め記憶されている。 Hereinafter, a specific processing configuration for executing the particle dispersion effect using the particle dispersion object PC17, the particle dispersion texture PC18, and the key data KD1 to KD3 will be described. The particle dispersion object PC17, the particle dispersion texture PC18, and the key data KD1 to KD3 are stored in advance in the memory module 133.

図34(a)は、表示CPU131にて実行される粒子分散演出用の演算処理を示すフローチャートである。粒子分散演出用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、粒子分散演出用の演算処理は、粒子分散演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 34A is a flowchart showing a calculation process for particle dispersion effect executed by the display CPU 131. The arithmetic processing for the particle dispersion effect is executed in the effect arithmetic process in step S904 of the task process (FIG. 14). Further, the arithmetic processing for the particle dispersion effect is started when the data table corresponding to the game times in which the particle dispersion effect is executed is set.

先ずステップS2101では、現状設定されているデータテーブルに基づいて、粒子分散演出の実行中であるか否かを判定する。演出の実行中ではない場合にはステップS2102にて、粒子分散演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2103に進む。 First, in step S2101, it is determined whether or not the particle dispersion effect is being executed based on the currently set data table. If the effect is not being executed, step S2102 determines whether or not it is the start timing of the particle dispersion effect. If it is not the start timing, the present calculation process is terminated as it is, and if it is the start timing, the process proceeds to step S2103.

ステップS2103では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。ちなみに、ステップS2103の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、粒子分散用オブジェクトPC17に対して制御開始用の処理が完了している。また、制御が開始された粒子分散用オブジェクトPC17の制御用の情報は、粒子分散演出が完了するまではワークRAM132に記憶保持される。 In step S2103, the particle dispersion object PC 17 is grasped as a control target based on the currently set data table. Incidentally, at the execution timing of the process of step S2103, the process for starting control of the particle dispersion object PC 17 is completed in the setting process for starting control immediately before (step S901). Further, the information for controlling the particle dispersion object PC17 for which control has been started is stored and held in the work RAM 132 until the particle dispersion effect is completed.

続くステップS2104では、メモリモジュール133から第1キーデータKD1及び第2キーデータKD2を読み出す初期読み出し処理を実行するとともに、ステップS2105では、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新する。その後、ステップS2106にて粒子分散演出の開始指定情報を記憶した後に、本演算処理を終了する。 In the following step S2104, the initial read processing for reading the first key data KD1 and the second key data KD2 from the memory module 133 is executed, and in step S2105, various parameters other than the coordinates are calculated for the particle dispersion object PC17. , Update the control information related to the particle dispersion object PC17. After that, after storing the start designation information of the particle dispersion effect in step S2106, the present calculation process is terminated.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2104にて読み出した第1キーデータKD1及び第2キーデータKD2と、上記ステップS2105にて算出したパラメータとが設定される。また、粒子分散演出を開始すべきことを示す粒子分散演出の開始指定情報が、描画リストに設定される。 When the arithmetic processing for the particle dispersion effect is executed as described above, the information of the instruction to use the particle dispersion object PC 17 is included in the drawing list created in the subsequent drawing list output process of the particle dispersion texture PC 18. The first key data KD1 and the second key data KD2 read out in step S2104 and the parameters calculated in step S2105 are set together with the information of the usage instruction. Further, the start designation information of the particle dispersion effect indicating that the particle dispersion effect should be started is set in the drawing list.

ステップS2101にて粒子分散演出中であると判定した場合には、ステップS2107にて、現状設定されているデータテーブルに基づいて、キーデータの更新タイミングであるか否かを判定する。かかる更新タイミングは、上述した第1切換対象フレームに相当する。 When it is determined in step S2101 that the particle dispersion effect is being produced, it is determined in step S2107 whether or not it is the key data update timing based on the currently set data table. Such an update timing corresponds to the above-mentioned first switching target frame.

キーデータの更新タイミングではない場合(ステップS2107:NO)には、ステップS2108に進む。当該ステップS2108では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。 If it is not the key data update timing (step S2107: NO), the process proceeds to step S2108. In step S2108, the particle dispersion object PC 17 is grasped as a control target based on the currently set data table.

続くステップS2109では、キーデータのブレンド割合を決定する処理を実行する。かかるブレンド割合を決定する処理では、メモリモジュール133に予め記憶されている図34(b)に示すようなブレンド用テーブルBTを参照することで、現状設定されている2個のキーデータKD1〜KD3の各座標データをブレンドする際のブレンド比率のデータを読み出し、その読み出したデータによる各座標データのブレンドを行う。 In the following step S2109, a process of determining the blend ratio of the key data is executed. In the process of determining the blend ratio, the two key data KD1 to KD3 currently set are referred to the blending table BT as shown in FIG. 34 (b) stored in advance in the memory module 133. The data of the blend ratio at the time of blending each coordinate data of is read, and each coordinate data is blended by the read data.

ブレンド用テーブルBTについて詳細には、当該ブレンド用テーブルBTには、フレーム数のデータが設定されているとともに、各フレーム数のデータに1対1で対応させて、前側のキーデータに設定されている各座標データに適用すべき比率と、後側のキーデータに設定されている各座標データに適用すべき比率とが設定されている。この場合、フレーム数が1増加する度に、すなわち各粒子単体画像の座標の更新タイミングとなる度に、一定の比率でブレンド割合が変化するようにブレンド用テーブルBTが設定されている。具体的には、前側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が減少し、後側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が増加し、さらに各更新タイミングにおいて前側のキーデータの比率と後側のキーデータの比率との和が100%となるように、ブレンド用テーブルBTが設定されている。 Regarding the blending table BT, in detail, the data of the number of frames is set in the table BT for blending, and the data of each number of frames is associated with each other on a one-to-one basis and set as the key data on the front side. The ratio to be applied to each coordinate data and the ratio to be applied to each coordinate data set in the key data on the rear side are set. In this case, the blending table BT is set so that the blending ratio changes at a constant ratio each time the number of frames increases by 1, that is, each time the coordinates of each particle single image are updated. Specifically, for the front key data, the ratio when blending by 1% decreases at each update timing, and for the rear key data, 1% at each update timing. The blending table BT is set so that the ratio when blending is increased one by one, and the sum of the ratio of the front key data and the ratio of the rear key data is 100% at each update timing.

なお、ブレンド用テーブルBTは、各更新タイミングとなるどに1%ずつ比率が変化していくように設定されている構成に限定されることはなく、2%ずつ又は3%ずつといったように2%以上ずつ変化していくように設定されていてもよく、また一定の比率ではなく異なる比率で変化していくように設定されていてもよい。 The blending table BT is not limited to a configuration in which the ratio is set to change by 1% at each update timing, such as 2% or 3%. It may be set to change in increments of% or more, or it may be set to change at different ratios instead of a constant ratio.

ステップS2109では、現状設定されているデータテーブルに基づいて、ブレンド用テーブルBTを参照する。また、ステップS2109では、当該データテーブルに設定されている現状のポインタ情報に基づいて、ブレンド用テーブルBTにおいて参照すべきフレーム数を把握するとともに、そのフレーム数に設定されている前側のキーデータの比率と後側のキーデータの比率とを読み出す。この場合、現状設定されているデータテーブルが第1キーデータKD1及び第2キーデータKD2であれば、第1キーデータKD1が前側のキーデータに相当し、第2キーデータKD2が後側のキーデータに相当する。 In step S2109, the blending table BT is referred to based on the currently set data table. Further, in step S2109, the number of frames to be referred to in the blending table BT is grasped based on the current pointer information set in the data table, and the key data on the front side set in the number of frames is obtained. Read the ratio and the ratio of the key data on the rear side. In this case, if the currently set data tables are the first key data KD1 and the second key data KD2, the first key data KD1 corresponds to the front key data and the second key data KD2 is the rear key. Corresponds to data.

その後、ステップS2110にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2111にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。 After that, in step S2110, various parameters other than the coordinates are calculated for the particle dispersion object PC17 to update the control information related to the particle dispersion object PC17, and in step S2111, the particle dispersion effect is produced. After storing the update designation information, this calculation process is terminated.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2109にて決定したブレンド割合のデータと、上記ステップS2110にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。 When the arithmetic processing for the particle dispersion effect is executed as described above, the information of the instruction to use the particle dispersion object PC 17 is included in the drawing list created in the subsequent drawing list output process of the particle dispersion texture PC 18. The data of the blend ratio determined in step S2109 and the parameters calculated in step S2110 are set together with the information of the usage instruction. Further, the update designation information of the particle dispersion effect indicating that the particle dispersion effect should be updated is set in the drawing list.

ステップS2107にて、キーデータの更新タイミングであると判定した場合には、ステップS2112に進む。当該ステップS2112では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。 If it is determined in step S2107 that it is time to update the key data, the process proceeds to step S2112. In step S2112, the particle dispersion object PC 17 is grasped as a control target based on the currently set data table.

続くステップS2113では、新たなキーデータを読み出す処理を実行する。かかる処理では、現状設定されている2個のキーデータのうち後側のキーデータに対して次の順番のキーデータKD1〜KD3をメモリモジュール133から読み出す。具体的には、第1キーデータKD1及び第2キーデータKD2が現状設定されているため、これらのうち後側のキーデータは第2キーデータKD2となり、それに対して次の順番のキーデータは第3キーデータKD3となる。 In the following step S2113, a process of reading new key data is executed. In such processing, the key data KD1 to KD3 in the following order with respect to the key data on the rear side of the two key data currently set are read from the memory module 133. Specifically, since the first key data KD1 and the second key data KD2 are currently set, the key data on the rear side of these is the second key data KD2, whereas the key data in the next order is It becomes the third key data KD3.

その後、ステップS2114にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2115にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。 After that, in step S2114, various parameters other than the coordinates are calculated for the particle dispersion object PC17 to update the control information related to the particle dispersion object PC17, and in step S2115, the particle dispersion effect is produced. After storing the update designation information, this calculation process is terminated.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2112にて読み出した第3キーデータKD3と、上記ステップS2113にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。 When the arithmetic processing for the particle dispersion effect is executed as described above, the information of the instruction to use the particle dispersion object PC 17 is included in the drawing list created in the subsequent drawing list output process of the particle dispersion texture PC 18. The third key data KD3, which is set together with the usage instruction information and is read out in step S2112, and the parameters calculated in step S2113 are set. Further, the update designation information of the particle dispersion effect indicating that the particle dispersion effect should be updated is set in the drawing list.

ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2107にて否定判定をし、ステップS2108〜ステップS2111の処理を実行する。この場合においてステップS2109では、第2キーデータKD2を前側のキーデータ及び第2キーデータKD2を後側のキーデータとして、ブレンド割合が順次決定される。 Incidentally, from the next processing round in which the third key data KD3 is newly set, a negative determination is made in step S2107 until the end timing of the particle dispersion effect is reached, and the processing of steps S2108 to S2111 is executed. In this case, in step S2109, the blend ratio is sequentially determined by using the second key data KD2 as the front key data and the second key data KD2 as the rear key data.

次に、VDP135にて実行される粒子分散演出用の設定処理を、図35のフローチャートを参照しながら説明する。粒子分散演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、粒子分散演出用の設定処理は、今回の描画リストに粒子分散演出の開始指定情報及び粒子分散演出の更新指定情報のいずれかが設定されている場合に起動される。 Next, the setting process for the particle dispersion effect executed by the VDP 135 will be described with reference to the flowchart of FIG. 35. The setting process for the particle dispersion effect is executed in the setting process for the effect in step S1003 in the drawing process (FIG. 16). Further, the setting process for the particle dispersion effect is started when either the start designation information of the particle dispersion effect or the update designation information of the particle dispersion effect is set in the drawing list this time.

先ずステップS2201では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2202にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17をVRAM134の展開用バッファ141に読み出す。その後、ステップS2203では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。 First, in step S2201, it is determined whether or not the start designation information of the particle dispersion effect is set in the drawing list this time. If it is set, in step S2202, based on the drawing list this time, the address where the particle dispersion object PC 17 is stored in the memory module 133 is grasped, and the particle dispersion object PC 17 is used in the VRAM 134. Read to the expansion buffer 141. After that, in step S2203, the first key data KD1 and the second key data KD2 set in the drawing list this time are stored in the register 153.

続くステップS2204では、初期適用処理を実行する。初期適用処理では、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、第1キーデータKD1に設定されている各座標データに書き換えることにより、各頂点データの開始座標を設定する。また、ステップS2205では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In the following step S2204, the initial application process is executed. In the initial application process, the start coordinates of each vertex data are set by rewriting each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 to each coordinate data set in the first key data KD1. Further, in step S2205, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2206にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。これにより、第1キーデータKD1に設定されている各座標データに対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 After that, in step S2206, the setting process for the particle dispersion object PC 17 is executed in the world coordinate system, and then the setting process is terminated. As a result, each vertex data of the particle dispersion object PC 17 is set with the coordinates corresponding to each coordinate data set in the first key data KD1. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the particle single image data corresponding to each vertex data is generated for each vertex data set at the coordinates as described above. Set.

一方、ステップS2201にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2207に進む。ステップS2207では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。 On the other hand, if it is determined in step S2201 that the start designation of the particle dispersion effect is not set in the drawing list this time, the process proceeds to step S2207. In step S2207, it is determined whether or not new key data is specified in the current drawing list.

指定されていない場合には、ステップS2008にて、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、今回の描画リストにおいて設定されているブレンド割合のデータに従ってブレンドする。 If it is not specified, the coordinate blending process is executed in step S2008. In the blending process, the two key data currently set, specifically, the coordinate data of the first key data KD1 and the second key data KD2 in the case of the first frame period are set in the drawing list this time. Blend according to the blend ratio data.

この場合、先ず第1キーデータKD1の一の頂点データに対応した座標データを読み出すとともに、第2キーデータKD2の上記頂点データに対応した座標データを読み出す。そして、前者の座標データを(x1,y1,z1)、後者の座標データを(x2,y2,z2)、ブレンド用テーブルBTから読み出した前側のキーデータの比率をrt1、及びブレンド用テーブルBTから読み出した後側のキーデータの比率をrt2とした場合において、ブレンド後の座標データ(x,y,z)が、
x:x1×rt1+x2×rt2
y:y1×rt1+y2×rt2
z:z1×rt1+z2×rt2
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した座標データに対して実行する。
In this case, first, the coordinate data corresponding to the vertex data of the first key data KD1 is read, and the coordinate data corresponding to the vertex data of the second key data KD2 is read. Then, the former coordinate data is (x1, y1, z1), the latter coordinate data is (x2, y2, z2), and the ratio of the front key data read from the blend table BT is rt1 and the blend table BT. When the ratio of the key data on the back side read out is rt2, the coordinate data (x, y, z) after blending is
x: x1 x rt1 + x2 x rt2
y: y1 x rt1 + y2 x rt2
z: z1 x rt1 + z2 x rt2
Blend so that Further, such a blend is executed on the coordinate data corresponding to the all vertex data.

続くステップS2209では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。その後、ステップS2210にて、上記ステップS2208におけるブレンド結果である各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2209において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 In the following step S2209, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17. After that, in step S2210, each coordinate data which is the blend result in the step S2208 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameters grasped in the step S2209 are set for the particle. After setting for the distribution object PC 17, this setting process ends.

この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2208におけるブレンド結果である各座標データに書き換える。これにより、ステップS2208のブレンド結果に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 In this case, when setting each coordinate data which is the blend result, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is rewritten to each coordinate data which is the blend result in step S2208. As a result, each vertex data of the particle dispersion object PC 17 is set with the coordinates corresponding to the blending result of step S2208. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the particle single image data corresponding to each vertex data is generated for each vertex data set at the coordinates as described above. Set.

ステップS2207にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合には、ステップS2211にて、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。 If it is determined in step S2207 that new key data is specified in the drawing list this time, the key data update process is executed in step S2211. In the update process, of the two key data currently stored in the register 153, the front key data, specifically the first key data KD1, is set as new key data set in the drawing list this time. Specifically, it is rewritten to the third key data KD3.

続くステップS2212では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2213では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In the following step S2212, the application process at the time of update is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. Further, in step S2213, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2214にて、上記ステップS2212において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2214において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 After that, in step S2214, each coordinate data grasped in step S2212 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameters grasped in step S2214 are set for the particle dispersion. After setting for the object PC 17, this setting process ends.

この場合、上記ステップS2212にて把握した各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2212にて把握した各座標データに書き換える。これにより、第2キーデータKD2に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 In this case, when setting each coordinate data grasped in step S2212, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is rewritten to each coordinate data grasped in step S2212. As a result, each vertex data of the particle dispersion object PC 17 is set at the coordinates corresponding to the second key data KD2. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the particle single image data corresponding to each vertex data is generated for each vertex data set at the coordinates as described above. Set.

ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2207にて否定判定をし、ステップS2208〜ステップS2210の処理を実行する。この場合においてステップS2208では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行される。 Incidentally, from the next processing round in which the third key data KD3 is newly set, a negative determination is made in step S2207 until the end timing of the particle dispersion effect is reached, and the processing of steps S2208 to S2210 is executed. In this case, in step S2208, the blend of coordinates is executed using the second key data KD2 and the third key data KD3.

次に、粒子分散演出の内容について、図36を参照しながら説明する。 Next, the content of the particle dispersion effect will be described with reference to FIG. 36.

図36(a)は粒子分散演出を説明するための説明図であり、図36(b−1)及び(b−2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。 FIG. 36 (a) is an explanatory diagram for explaining the particle dispersion effect, and FIGS. 36 (b-1) and (b-2) simply show what kind of trajectory each particle single image is displaced. It is explanatory drawing for demonstrating.

図36(a)に示すように、粒子分散演出は遊技回用の演出として実行され、具体的には遊技回が終了する場合において一の有効ライン上に大当たり図柄の組み合わせが停止表示された場合に、粒子分散演出が実行される。粒子分散演出では、表示面Gにおいて「球形の泡」である粒子単体画像PTが多数表示されるとともに、それら多数の粒子単体画像PTが連続する複数フレームに亘ってそれぞれ所定の軌道で変位するように表示される。 As shown in FIG. 36 (a), the particle dispersion effect is executed as an effect for game rounds, and specifically, when the combination of jackpot symbols is stopped and displayed on one effective line when the game rounds are completed. In addition, the particle dispersion effect is executed. In the particle dispersion effect, a large number of single particle image PTs, which are "spherical bubbles", are displayed on the display surface G, and the large number of single particle image PTs are displaced in a predetermined orbit over a plurality of continuous frames. Is displayed in.

当該所定の軌道について、図36(b−1)及び(b−2)を参照しながら具体的に説明すると、第1キーデータKD1の各座標データが設定された状態では、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b−1)において実線にて示す開始座標に対応した位置にて表示される。この場合、各粒子単体画像PT1〜PT3は、それぞれ異なる位置にて表示される。 The predetermined orbit will be specifically described with reference to FIGS. 36 (b-1) and (b-2). In the state where each coordinate data of the first key data KD1 is set, the particle single image PT1. Each of the particle single image PT2 and the particle single image PT3 is displayed at a position corresponding to the start coordinate shown by the solid line in FIG. 36 (b-1). In this case, the single particle images PT1 to PT3 are displayed at different positions.

その後の第1フレーム期間では、第1キーデータKD1及び第2キーデータKD2のブレンド処理が実行されることにより、図36(b−1)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1〜PT3の変位軌道は直線状となっている。 In the subsequent first frame period, the blending process of the first key data KD1 and the second key data KD2 is executed, and as shown by the two-dot chain line in FIG. 36 (b-1), the particle single image PT1 The single particle image PT2 and the single particle image PT3 are displayed as if they are displaced in different orbits. In this case, since the coordinates are determined by the blending process of the first key data KD1 and the second key data KD2, the displacement trajectories of the individual particle images PT1 to PT3 are linear.

第1フレーム期間が経過した場合には、第2キーデータKD2の各座標データが設定されることにより、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b−2)において実線にて示す切換対象座標に対応した位置にて表示される。この場合、各粒子単体画像PT1〜PT3は、それぞれ異なる位置にて表示される。 When the first frame period has elapsed, each coordinate data of the second key data KD2 is set, so that each of the particle single image PT1, the particle single image PT2, and the particle single image PT3 is shown in FIG. 36 (b-). It is displayed at the position corresponding to the switching target coordinates shown by the solid line in 2). In this case, the single particle images PT1 to PT3 are displayed at different positions.

その後の第2フレーム期間では、第2キーデータKD2及び第3キーデータKD3のブレンド処理が実行されることにより、図36(b−2)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1〜PT3の変位軌道は直線状となっている。また、第2フレーム期間における各粒子単体画像PT1〜PT3の軌道は、第1フレーム期間の場合における軌道とは異なっている。 In the subsequent second frame period, the blending process of the second key data KD2 and the third key data KD3 is executed, and as shown by the two-dot chain line in FIG. 36 (b-2), the particle single image PT1 The single particle image PT2 and the single particle image PT3 are displayed as if they are displaced in different orbits. In this case, since the coordinates are determined by the blending process of the first key data KD1 and the second key data KD2, the displacement trajectories of the individual particle images PT1 to PT3 are linear. Further, the orbits of the elemental image PT1 to PT3 of each particle in the second frame period are different from the orbits in the case of the first frame period.

以上のとおり、粒子分散演出では、粒子分散用オブジェクトPC17における各頂点データの座標データを、複数種類のキーデータKD1〜KD3のブレンドを利用しながら設定するようにしたことにより、データ容量の削減及び処理負荷の軽減という両者のバランスを図りながら、多数の粒子単体画像が分散していくかのような表示演出を行うことが可能となる。 As described above, in the particle dispersion effect, the coordinate data of each vertex data in the particle dispersion object PC 17 is set while using a blend of a plurality of types of key data KD1 to KD3, thereby reducing the data capacity and reducing the data capacity. While striking a balance between reducing the processing load, it is possible to produce a display effect as if a large number of single particle images are dispersed.

すなわち、単体画像データの座標データが全フレーム数に亘って設定されたアニメーションデータを全単体画像データに1対1で対応させて設定する構成も考えられるが、この場合、それだけデータ容量が必要となる。これに対して、上記のように複数種類のキーデータKD1〜KD3のブレンドを利用することで、上記のように全てのアニメーションデータを設定する構成に比べて、必要なデータ容量を削減することが可能となる。 That is, it is conceivable that the coordinate data of the single image data is set in a one-to-one correspondence with the animation data set over the total number of frames, but in this case, the data capacity is required accordingly. Become. On the other hand, by using a blend of multiple types of key data KD1 to KD3 as described above, the required data capacity can be reduced as compared with the configuration in which all animation data are set as described above. It will be possible.

その一方、全単体画像データの座標データをプログラムに基づく処理のみによって算出する構成も考えられるが、この場合、各粒子単体画像が相互に異なる軌道で変位表示されるとすると、それだけ複雑であって膨大なプログラムが必要となる。これに対して、上記のように複数種類のキーデータKD1〜KD3のブレンドを利用することで、座標データを算出するための情報がプログラム側とデータ側とで適度に分散されることとなり、処理負荷の軽減が図られる。 On the other hand, it is conceivable to calculate the coordinate data of all the single image data only by the processing based on the program, but in this case, if the individual particle images are displaced and displayed in different orbits, it is complicated. A huge number of programs are required. On the other hand, by using a blend of a plurality of types of key data KD1 to KD3 as described above, the information for calculating the coordinate data is appropriately distributed between the program side and the data side, and the processing is performed. The load can be reduced.

また、単体画像データを個別のオブジェクトとして設定するのではなく、粒子分散用オブジェクトPC17の各頂点データに対応させて設定したことにより、表示CPU131からVDP135に送信される描画リストのデータ容量を削減することが可能となる。 Further, by setting the single image data corresponding to each vertex data of the particle dispersion object PC17 instead of setting it as an individual object, the data capacity of the drawing list transmitted from the display CPU 131 to the VDP135 is reduced. It becomes possible.

また、VDP135においても単体画像データを設定するためのオブジェクトを読み出す場合において、各単体画像データに対応した個別のオブジェクトをそれぞれ読み出すのではなく、粒子分散用オブジェクトPC17として読み出すことが可能であるため、当該読み出しに要する処理負荷の軽減が図られる。 Further, also in VDP135, when reading an object for setting single image data, it is possible to read as an object PC 17 for particle dispersion instead of reading each individual object corresponding to each single image data. The processing load required for the reading can be reduced.

また、第1キーデータKD1及び第2キーデータKD2のブレンド処理は、表示CPU131ではなくVDP135にて実行されるため、表示CPU131の処理負荷の軽減を図ることが可能となる。 Further, since the blending process of the first key data KD1 and the second key data KD2 is executed not by the display CPU 131 but by the VDP 135, it is possible to reduce the processing load of the display CPU 131.

<粒子分散演出用の設定処理の別形態>
図37は、VDP135にて実行される粒子分散演出用の設定処理の別形態を説明するためのフローチャートである。
<Another form of setting processing for particle dispersion production>
FIG. 37 is a flowchart for explaining another form of the setting process for the particle dispersion effect executed by the VDP 135.

先ずステップS2301では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2302にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17を読み出す。その後、ステップS2303では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。 First, in step S2301, it is determined whether or not the start designation information of the particle dispersion effect is set in the drawing list this time. If it is set, in step S2302, the address where the particle dispersion object PC 17 is stored in the memory module 133 is grasped based on the current drawing list, and the particle dispersion object PC 17 is read out. After that, in step S2303, the first key data KD1 and the second key data KD2 set in the drawing list this time are stored in the register 153.

続くステップS2304では、今回の描画リストに基づいて、メモリモジュール133において第1テクスチャ及び第2テクスチャが記憶されているアドレスを把握する。 In the following step S2304, the addresses where the first texture and the second texture are stored in the memory module 133 are grasped based on the current drawing list.

ここで、本別形態では、各キーデータKD1〜KD3に1対1で対応させてテクスチャも複数種類設定されている。具体的には、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3に1対1で対応させて第1テクスチャ、第2テクスチャ及び第3テクスチャが設定されている。なお、キーデータが4種類以上設定されている構成においては、それに対応させてテクスチャも4種類以上設定されていればよい。 Here, in the present different form, a plurality of types of textures are set so as to correspond one-to-one with each key data KD1 to KD3. Specifically, the first texture, the second texture, and the third texture are set in a one-to-one correspondence with the first key data KD1, the second key data KD2, and the third key data KD3. In the configuration where four or more types of key data are set, it is sufficient that four or more types of textures are set correspondingly.

各テクスチャには、図33にて示した粒子分散用テクスチャPC18と同様に、各頂点データに1対1で対応させて単体画像データが設定されている。このように単一の粒子分散用オブジェクトPC17に対して複数種類のテクスチャが設定されていることにより、粒子分散用オブジェクトPC17の一の頂点データに対して設定される単体画像データの種類が複数フレームの経過(すなわち複数の更新タイミングの経過)に伴って変更され、さらに当該変更が粒子分散用オブジェクトPC17の多数の頂点データ、より詳細には全頂点データに対して行われる。 Similar to the particle dispersion texture PC18 shown in FIG. 33, single image data is set for each texture in a one-to-one correspondence with each vertex data. By setting multiple types of textures for a single particle dispersion object PC17 in this way, the types of single image data set for one vertex data of the particle dispersion object PC17 are multiple frames. It is changed with the passage of (that is, the passage of a plurality of update timings), and the change is made to a large number of vertex data of the particle dispersion object PC17, more particularly to all vertex data.

例えば、第1テクスチャでは、第1の頂点データに対する単体画像データが、第1単体画像(例えば図36に示す「○」)を表示するための第1単体画像データであるのに対して、第2テクスチャでは、第1の頂点データに対する単体画像データが、第2単体画像(例えば図36に示す「□」)を表示するための第2単体画像データとなっている。同様に、第1テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像(例えば図36に示す「△」)を表示するための第3単体画像データであるのに対して、第2テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像とは異なる単体画像(例えば図36に示す「○」)を表示するための単体画像データとなっている。 For example, in the first texture, the single image data for the first vertex data is the first single image data for displaying the first single image (for example, “◯” shown in FIG. 36), whereas the first single image data is the first. In the two textures, the single image data for the first vertex data is the second single image data for displaying the second single image (for example, “□” shown in FIG. 36). Similarly, in the first texture, the single image data for the second vertex data is the third single image data for displaying the third single image (for example, “Δ” shown in FIG. 36). In the second texture, the single image data for the second vertex data is the single image data for displaying a single image (for example, “◯” shown in FIG. 36) different from the third single image.

ステップS2304の処理を実行した後は、ステップS2305にて、上記ステップS2204と同様に、初期適用処理を実行する。これにより、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データが、第1キーデータKD1に設定されている各座標データに対応した開始座標に設定される。 After executing the process of step S2304, the initial application process is executed in step S2305 in the same manner as in step S2204. As a result, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is set to the start coordinate corresponding to each coordinate data set in the first key data KD1.

その後、ステップS2306にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2307にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第1テクスチャ及び第2テクスチャのうち第1テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第1テクスチャに対応した単体画像が、第1キーデータKD1に対応した座標で表示されることとなる。 After that, in step S2306, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2307. After executing the setting process in the world coordinate system for the particle dispersion object PC 17, this setting process is terminated. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the first texture of the first texture and the second texture is used for each vertex data set at the coordinates as described above. Only applies to the particle dispersion object PC17. As a result, the single image corresponding to the first texture is displayed at the coordinates corresponding to the first key data KD1.

一方、ステップS2301にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2308に進む。ステップS2308では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。 On the other hand, if it is determined in step S2301 that the start designation of the particle dispersion effect is not set in the drawing list this time, the process proceeds to step S2308. In step S2308, it is determined whether or not new key data is specified in the current drawing list.

指定されていない場合には、ステップS2309にて、レジスタ153に設けられているブレンド用カウンタの数値情報を1加算されるように更新する。ここで、ブレンド用カウンタとは、複数のキーデータを用いた座標データのブレンドを行う場合、及び複数のテクスチャを用いた単体画像データのブレンドを行う場合において、そのブレンドの割合をVDP135にて特定するためのカウンタである。 If not specified, in step S2309, the numerical information of the blending counter provided in the register 153 is updated so as to be incremented by 1. Here, the blending counter specifies the blending ratio by VDP135 when blending coordinate data using a plurality of key data and when blending single image data using a plurality of textures. It is a counter to do.

ブレンド用カウンタは、初期値として「0」が設定されており、カウンタ値が「1」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を99%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を1%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を99%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を1%とする。また、カウンタ値が「2」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を98%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を2%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を98%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を2%とする。また、カウンタ値が「99」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を1%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を99%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を1%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を99%とする。つまり、フレーム数が先に進むほど、前側のキーデータの適用比率が低減される一方、後側のキーデータの適用比率が増加され、同様に前側のテクスチャの適用比率が低減される一方、後側のテクスチャの適用比率が増加される。 The blend counter is set to "0" as an initial value, and when the counter value is "1", the ratio of the front key data (for example, the first key data KD1) is set to 99% and the rear side. The ratio of the key data (for example, the second key data KD2) is 1%, the ratio of the front texture (for example, the first texture) is 99%, and the ratio of the rear texture (for example, the second texture) is 1. %. When the counter value is "2", the ratio of the front key data (for example, the first key data KD1) is set to 98%, and the ratio of the rear key data (for example, the second key data KD2) is set to 2. %, Further, the ratio of the front texture (for example, the first texture) is 98%, and the ratio of the rear texture (for example, the second texture) is 2%. When the counter value is "99", the ratio of the front key data (for example, the first key data KD1) is set to 1%, and the ratio of the rear key data (for example, the second key data KD2) is 99. %, Further, the ratio of the front texture (for example, the first texture) is 1%, and the ratio of the rear texture (for example, the second texture) is 99%. In other words, as the number of frames advances, the application ratio of the key data on the front side decreases, while the application ratio of the key data on the rear side increases, and similarly, the application ratio of the texture on the front side decreases, while the rear side. The application ratio of the side texture is increased.

なお、上記のようなブレンド用カウンタの数値情報に対応したブレンド割合の情報は、予めテーブル情報としてメモリモジュール133に記憶されているが、これに限定されることはなく、ブレンド用カウンタの数値情報に対応したブレンド割合の情報を、プログラムにて定められた演算式によって算出する構成としてもよい。 The blend ratio information corresponding to the numerical information of the blending counter as described above is stored in the memory module 133 as table information in advance, but the present invention is not limited to this, and the numerical information of the blending counter is not limited to this. The information of the blend ratio corresponding to the above may be calculated by the calculation formula determined by the program.

続くステップS2310では、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。このブレンドの具体的な演算方法は、上記ステップS2208の場合と同様である。 In the following step S2310, the coordinate blending process is executed. In the blending process, the two key data currently set, specifically, the coordinate data of the first key data KD1 and the second key data KD2 in the case of the first frame period, are updated in step S2309. Blend according to the blend ratio corresponding to the numerical information of the blend counter later. The specific calculation method of this blend is the same as in the case of step S2208.

続くステップS2311では、テクスチャのブレンド処理を実行する。当該ブレンド処理では、現状把握されている2個のテクスチャ、具体的には第1フレーム期間であれば第1テクスチャ及び第2テクスチャの各単体画像データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。 In the following step S2311, the texture blending process is executed. In the blending process, the two textures currently known, specifically, the single image data of the first texture and the second texture in the first frame period, are used for blending after the update process of step S2309. Blend according to the blend ratio corresponding to the numerical information of the counter.

例えば、先ず第1テクスチャの一の頂点データに対応した単体画像データを読み出すとともに、第2テクスチャの上記頂点データに対応した単体画像データを読み出す。そして、前者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)におけるRGBの各色情報を(r1,g1,b1)、後者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)を(r2,g2,b2)、ブレンド用カウンタの数値情報に対応した前側のテクスチャの比率をrt3、及びブレンド用カウンタの数値情報に対応した後側のテクスチャの比率をrt4(rt3+rt4=1)とした場合において、ブレンド後の単体画像データ(r,g,b)が、
r:r1×rt3+r2×rt4
g:g1×rt3+g2×rt4
b:b1×rt3+b2×rt4
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した単体画像データに対して実行する。
For example, first, the single image data corresponding to the vertex data of the first texture is read, and the single image data corresponding to the vertex data of the second texture is read. Then, each color information of RGB in the former single image data (here, 1 pixel is used for convenience of explanation) is (r1, g1, b1), and the latter single image data (here, 1 pixel is used for convenience of explanation). (R2, g2, b2), the ratio of the front texture corresponding to the numerical information of the blending counter is rt3, and the ratio of the rear texture corresponding to the numerical information of the blending counter is rt4 (rt3 + rt4 = 1). In this case, the single image data (r, g, b) after blending is
r: r1 x rt3 + r2 x rt4
g: g1 x rt3 + g2 x rt4
b: b1 x rt3 + b2 x rt4
Blend so that Further, such blending is executed for the single image data corresponding to all vertex data.

その後、ステップS2312にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2313にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。 After that, in step S2312, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2313. After executing the setting process in the world coordinate system for the particle dispersion object PC 17, this setting process is terminated.

この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2310におけるブレンド結果である各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、ステップS2311におけるブレンド結果である各単体画像データが適用される。これにより、ステップS2311のブレンド結果に対応した単体画像が、ステップS2310のブレンド結果に対応した座標で表示されることとなる。 In this case, when setting each coordinate data which is the blend result, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is rewritten to each coordinate data which is the blend result in step S2310. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, each single image data which is the blending result in step S2311 is generated for each vertex data set to the coordinates as described above. Applies. As a result, the single image corresponding to the blending result of step S2311 is displayed at the coordinates corresponding to the blending result of step S2310.

ここで、上記のようにVDP135側にてブレンド用カウンタを用いてブレンド割合を導出する構成であるため、表示CPU131においてはブレンド割合を導出するための処理は実行されない。これにより、表示CPU131の処理負荷の軽減が図られる。 Here, since the configuration is such that the blend ratio is derived using the blend counter on the VDP135 side as described above, the process for deriving the blend ratio is not executed in the display CPU 131. As a result, the processing load of the display CPU 131 can be reduced.

なお、表示CPU131は、第1キーデータKD1と第2キーデータKD2との組み合わせや、第2キーデータKD2と第3キーデータKD3との組み合わせといった、所定のキーデータの組み合わせを用いる場合におけるそれらキーデータのブレンド割合を変更する回数をVDP135に対して指示し、その指示に従ってVDP135がその所定のキーデータの組み合わせについて各変更回におけるブレンド割合を独自に決定する構成としてもよい。この場合、所定のキーデータの組み合わせとして同一のものを用いる期間が複数種類存在している場合において、特定の期間ではそれ以外の期間に比べてVDP135の処理負荷が大きい場合、その特定の期間では、表示CPU131が指示する変更回数を少なくすることで、VDP135の処理負荷の軽減を図ることが可能となる。また、上記構成において、VDP135が、各変更回において一定の割合でブレンド割合が変更されていくように設定されている構成としてもよく、この場合、指示された変更回数に応じて一義的に各変更回のブレンド割合を導出できるようなデータが設定されていてもよく、演算によって各変更回のブレンド割合を導出する構成としてもよい。 It should be noted that the display CPU 131 uses these keys when a predetermined key data combination such as a combination of the first key data KD1 and the second key data KD2 or a combination of the second key data KD2 and the third key data KD3 is used. The number of times the data blend ratio is changed may be instructed to the VDP 135, and the VDP 135 may independently determine the blend ratio at each change time for the predetermined key data combination according to the instruction. In this case, when there are multiple types of periods in which the same combination of predetermined key data is used, and the processing load of VDP135 is larger in the specific period than in the other periods, the specific period By reducing the number of changes instructed by the display CPU 131, it is possible to reduce the processing load of the VDP 135. Further, in the above configuration, the VDP 135 may be set so that the blend ratio is changed at a constant rate at each change time, and in this case, each is uniquely set according to the instructed number of changes. Data may be set so that the blend ratio of each change time can be derived, or the blend ratio of each change time may be derived by calculation.

ステップS2308にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合、ステップS2314にてブレンド用カウンタの初期化を実行する。これにより、次回の処理回からはブレンド割合の算出が最初から開始されることとなる。 If it is determined in step S2308 that new key data is specified in the current drawing list, the blend counter is initialized in step S2314. As a result, the calculation of the blend ratio will be started from the beginning from the next processing round.

続くステップS2315では、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。また、ステップS2316では、新たなテクスチャを把握する。当該処理では、レジスタ153に現状記憶されている2個のテクスチャのうち、前側のテクスチャ、具体的には第1テクスチャを、今回の描画リストにおいて設定されている新たなテクスチャ、具体的には第3テクスチャに書き換える。なお、この書き換えに際してはメモリモジュール133からの第3テクスチャの読み出しが行われる。 In the following step S2315, the key data update process is executed. In the update process, of the two key data currently stored in the register 153, the front key data, specifically the first key data KD1, is set as new key data set in the drawing list this time. Specifically, it is rewritten to the third key data KD3. Further, in step S2316, a new texture is grasped. In this process, of the two textures currently stored in the register 153, the front texture, specifically the first texture, is the new texture set in the drawing list this time, specifically, the first texture. 3 Rewrite to texture. At the time of this rewriting, the third texture is read from the memory module 133.

続くステップS2317では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2318では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In the following step S2317, the application process at the time of update is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. Further, in step S2318, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2319にて、上記ステップS2317において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2318において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 After that, in step S2319, each coordinate data grasped in step S2317 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameters grasped in step S2318 are set for the particle dispersion. After setting for the object PC 17, this setting process ends.

この場合、各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2317にて把握した各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第2テクスチャ及び第3テクスチャのうち第2テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第2テクスチャに対応した単体画像が、第2キーデータKD2に対応した座標で表示されることとなる。 In this case, when setting each coordinate data, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is rewritten to each coordinate data grasped in step S2317. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the second texture of the second texture and the third texture is used for each vertex data set at the coordinates as described above. Only applies to the particle dispersion object PC17. As a result, the single image corresponding to the second texture is displayed at the coordinates corresponding to the second key data KD2.

ちなみに、第3キーデータKD3及び第3テクスチャが新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2308にて否定判定をし、ステップS2309〜ステップS2313の処理を実行する。この場合においてステップS2310では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行され、ステップS2311では、第2テクスチャ及び第3テクスチャを用いて単体画像データのブレンドが実行される。 By the way, from the next processing round in which the third key data KD3 and the third texture are newly set, a negative determination is made in step S2308 until the end timing of the particle dispersion effect is reached, and the processing of steps S2309 to S2313 is performed. To execute. In this case, in step S2310, the blending of the coordinates is executed using the second key data KD2 and the third key data KD3, and in step S2311, the blending of the single image data is executed using the second texture and the third texture. NS.

上記のように粒子分散演出を実行させるための別形態では、演出が進行することに伴って同一のオブジェクトに適用されるテクスチャが相違されることにより、粒子分散演出の表示態様に変化を与えることが可能となり、当該表示演出の単調化が抑えられる。この場合に、表示態様が変更されるフレーム毎に異なるテクスチャが用いられるのではなく、第1の更新タイミングに対応したテクスチャと、それよりも複数の更新タイミング後である第2の更新タイミングに対応したテクスチャとのブレンドを行うことで、それら第1の更新タイミングと第2の更新タイミングとの間において用いる画像データを作成する構成であるため、予め記憶されておくテクスチャの数を減らすことが可能となり、データ容量の削減が図られる。 In another form for executing the particle dispersion effect as described above, the display mode of the particle dispersion effect is changed by different textures applied to the same object as the effect progresses. Is possible, and the monotonicization of the display effect is suppressed. In this case, a different texture is not used for each frame whose display mode is changed, but a texture corresponding to the first update timing and a second update timing after a plurality of update timings are supported. By blending with the textures, the image data used between the first update timing and the second update timing is created, so it is possible to reduce the number of textures stored in advance. Therefore, the data capacity can be reduced.

また、各テクスチャは、各キーデータに1対1で対応させて設定されており、さらに各テクスチャの切り換えは、各キーデータの切り換えに合わせて行われる。よって、VDP135における切り換えに係る処理の処理負荷の軽減が図られる。 Further, each texture is set so as to have a one-to-one correspondence with each key data, and the switching of each texture is performed according to the switching of each key data. Therefore, the processing load of the processing related to the switching in the VDP 135 can be reduced.

<粒子分散演出についての他の別形態>
・上記粒子分散演出(図35の場合及び図37の場合)において、キーデータKD1〜KD3の数をより多く設定するとともに、用いるキーデータKD1〜KD3の切り換えが発生するまでのフレーム数を少なく設定する(例えば10フレーム毎)ことで、座標データのブレンドを実行しながら、単体画像が直線状ではなく、曲線状の軌跡を描くように変位表示される構成としてもよい。
<Other forms of particle dispersion production>
-In the particle dispersion effect (in the case of FIG. 35 and in the case of FIG. 37), the number of key data KD1 to KD3 is set to be larger, and the number of frames until the key data KD1 to KD3 to be used are switched is set to be smaller. By doing so (for example, every 10 frames), the unit image may be displaced and displayed so as to draw a curved trajectory instead of a linear image while blending the coordinate data.

・キーデータKD1〜KD3を用いてブレンドを行う対象を、座標データに加えて又は代えて、透明度を設定するためのα値としてもよく、テクスチャマッピングを実行しなくても頂点データの色情報や複数の頂点データからなるポリゴンの色情報を決定することを可能とする頂点カラーとしてもよい。また、オブジェクトに対するテクスチャの相対的な貼り付け位置を決定するためのUV値を変更させて、同一のテクスチャを貼り付ける場合であっても表示態様を変更させるUVスクロールを行う構成においては、そのUV値をキーデータのブレンドを用いて変更する構成としてもよい。 -The target to be blended using the key data KD1 to KD3 may be added to or replaced with the coordinate data as an α value for setting the transparency, and the color information of the vertex data and the color information of the vertex data may be obtained without executing the texture mapping. It may be a vertex color that makes it possible to determine the color information of a polygon composed of a plurality of vertex data. Further, in a configuration in which UV scrolling is performed in which the UV value for determining the relative pasting position of the texture with respect to the object is changed and the display mode is changed even when the same texture is pasted, the UV is used. The value may be changed by using a blend of key data.

・第1フレーム期間と第2フレーム期間とが同一のフレーム数である構成に限定されることはなく、これらフレーム期間に含まれるフレーム数が異なっていてもよい。この場合、各フレーム期間に応じたブレンド処理を行う必要がある。 The first frame period and the second frame period are not limited to the same number of frames, and the number of frames included in these frame periods may be different. In this case, it is necessary to perform the blending process according to each frame period.

・単体画像を表示させるための単体画像データの種類が同一である構成としてもよい。この場合、粒子分散用テクスチャPC18において各単体データに対応させて単体画像データを設定しておく必要がないため、当該粒子分散用テクスチャPC18のデータ容量の削減が図られる。 -The type of single image data for displaying a single image may be the same. In this case, since it is not necessary to set the single image data corresponding to each single data in the particle dispersion texture PC 18, the data capacity of the particle dispersion texture PC 18 can be reduced.

・2種類のキーデータを用いてブレンドを行う構成に代えて、3種類以上のキーデータを用いてブレンドを行う構成としてもよい。この場合、これら3種類のキーデータをブレンドする比率を適宜変更することにより、単体画像が変位する場合の軌道を直線状ではなく、曲線状とすることが可能となる。また、3種類以上のキーデータを用いてブレンドを行う場合、例えば、それら3種類以上のキーデータから仮想の円弧や球面を算出により想定し、その想定した仮想の円弧や球面に沿って変位していくように単体画像が表示される構成としてもよい。 -Instead of the configuration in which blending is performed using two types of key data, a configuration in which blending is performed using three or more types of key data may be used. In this case, by appropriately changing the blending ratio of these three types of key data, it is possible to make the trajectory when the single image is displaced curved rather than linear. When blending using three or more types of key data, for example, a virtual arc or sphere is assumed by calculation from the three or more types of key data, and is displaced along the assumed virtual arc or sphere. It may be configured so that a single image is displayed so as to go through.

・VDP135が、キーデータを利用して頂点データを算出する専用の回路を有する構成としてもよい。また、VDP135が、キーデータを利用しない場合において頂点データを算出する専用の回路を有する構成としてもよい。これら回路を個別に有する構成とすることにより、それぞれの頂点データの算出に特化させることが可能となり、頂点データの算出を好適に行うことが可能となる。 -The VDP 135 may be configured to have a dedicated circuit for calculating vertex data using key data. Further, the VDP 135 may have a configuration having a dedicated circuit for calculating vertex data when the key data is not used. By having these circuits individually, it is possible to specialize in the calculation of each vertex data, and it is possible to suitably calculate the vertex data.

・上記のようにキーデータを利用してパラメータデータを導出する構成を、スプライトデータといった2次元情報の画像データを利用して画像表示を行う構成に適用してもよい。例えばスプライトデータをフレームバッファ142に設定する場合の座標のパラメータを導出する上で、複数のキーデータのブレンドを行う構成としてもよい。 -The configuration for deriving parameter data using key data as described above may be applied to a configuration for displaying an image using image data of two-dimensional information such as sprite data. For example, in deriving the coordinate parameters when the sprite data is set in the frame buffer 142, a configuration in which a plurality of key data are blended may be performed.

<海面表示を行うための構成>
次に、海面表示を行うための構成について説明する。
<Structure for displaying the sea level>
Next, a configuration for displaying the sea level will be described.

海面表示とは、背景において海面を表示させるための演出であり、さらにその海面が連続する複数フレーム(複数の画像更新タイミング)に亘って、波打つように表示される演出のことである。なお、海面表示は、上述した第1表示モード及び第2表示モードのうち第1表示モードにおいて実行される表示演出である。海面表示に際しては、海面用オブジェクトと、当該海面用オブジェクトの動きを細かく変化させるための法線マップデータとが用いられる。 The sea level display is an effect for displaying the sea level in the background, and is an effect for displaying the sea surface in a wavy manner over a plurality of continuous frames (multiple image update timings). The sea level display is a display effect executed in the first display mode among the first display mode and the second display mode described above. When displaying the sea surface, the sea surface object and the normal map data for finely changing the movement of the sea surface object are used.

これら海面用オブジェクト及び法線マップデータについて、図38(a),(b)を参照しながら詳細に説明する。図38(a)は海面用オブジェクトPC19を説明するための説明図であり、図38(b)は法線マップデータND1,ND2を説明するための説明図である。 These sea level objects and normal map data will be described in detail with reference to FIGS. 38 (a) and 38 (b). FIG. 38 (a) is an explanatory diagram for explaining the sea surface object PC 19, and FIG. 38 (b) is an explanatory diagram for explaining the normal map data ND1 and ND2.

図38(a)に示すように、海面用オブジェクトPC19は、複数の頂点データによって規定される面データ(ポリゴン)SDを、複数行及び複数列となるように多数有している。この場合、各面データSDは、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(a)において左下角部分の面データSDは第1列第1行の情報を順番情報として有しており、図38(a)において右上角部分の面データSDは第25列第25行の情報を順番情報として有している。 As shown in FIG. 38 (a), the sea surface object PC 19 has a large number of surface data (polygons) SD defined by a plurality of vertex data so as to have a plurality of rows and a plurality of columns. In this case, each surface data SD has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38 (a), the surface data SD in the lower left corner portion has the information in the first column and the first row as order information, and in FIG. 38 (a), the surface data SD in the upper right corner portion is in the 25th column. It has 25 lines of information as order information.

各面データSDは4個の頂点データによる四角形として定義されているが、これに限定されることはなく、3個の頂点データによる三角形として定義されていてもよく、5個以上の頂点データによる他の多角形として定義されていてもよい。また、任意の一の面データSDは、他の面データSDと隣接しており、当該一の面データSDの頂点データは当該他の面データSDの頂点データを兼用している。つまり、各面データSDは隣り合う面データSD同士において辺が共通している。したがって、基本的には一の頂点データの座標データを変更した場合には、複数の面データSDが変形されることとなり、隣り合う2個の頂点データよりなる一の辺の座標データを変更した場合には、複数の面データSDの向きが変更されることとなる。 Each surface data SD is defined as a quadrangle consisting of four vertex data, but is not limited to this, and may be defined as a triangle consisting of three vertex data, and is defined by five or more vertex data. It may be defined as another polygon. Further, any one surface data SD is adjacent to the other surface data SD, and the vertex data of the one surface data SD also serves as the vertex data of the other surface data SD. That is, each surface data SD has a common side between adjacent surface data SDs. Therefore, basically, when the coordinate data of one vertex data is changed, a plurality of surface data SDs are deformed, and the coordinate data of one side consisting of two adjacent vertex data is changed. In that case, the orientation of the plurality of surface data SDs will be changed.

海面用オブジェクトPC19には、上記各面データSDの初期状態における座標や面の向きを決定すべく各頂点データの初期座標データが設定されている。また、これ以外にも、海面用オブジェクトPC19の初期スケールのデータや、全頂点データ(又は面データSD)に対して一律に適用される初期α値のデータや、海面用オブジェクトPC19の初期回転角度のデータなどが含まれている。 The sea surface object PC 19 is set with the initial coordinate data of each vertex data in order to determine the coordinates and the direction of the surface in the initial state of each surface data SD. In addition to this, the initial scale data of the sea surface object PC19, the initial α value data uniformly applied to all vertex data (or surface data SD), and the initial rotation angle of the sea surface object PC19. Data etc. are included.

ここで、海面用オブジェクトPC19の各面データSDは、隣接する複数の面データSDをまとめることで複数群に区分けされており、具体的には第1面データ群、・・・、第k面データ群(kは2以上の整数であり、本実施の形態ではk=25)を有している。各面データ群に含まれる面データSDの数は、複数である所定数(具体的には25個)で同一となっているが、少なくとも一部の面データ群間において含まれる面データSDの数が異なっていてもよい。なお、図38(a)においては、太線で囲んだ各単位が面データ群に相当する。 Here, each surface data SD of the sea surface object PC 19 is divided into a plurality of groups by grouping a plurality of adjacent surface data SDs, and specifically, the first surface data group, ..., The k surface. It has a data group (k is an integer of 2 or more, and k = 25 in this embodiment). The number of surface data SDs included in each surface data group is the same for a plurality of predetermined number (specifically, 25), but the surface data SD included in at least a part of the surface data groups The numbers may be different. In FIG. 38 (a), each unit surrounded by a thick line corresponds to a surface data group.

上記各面データ群は、表示CPU131における制御に基づき、それぞれ個別に座標及び面の向きが決定される。詳細には、第1面データ群に含まれる全面データSDが所定の方向を向く同一の面を構成し、その状態において第1面データ群にて基準となる面データSDの座標が所定の座標となるように、第1面データ群に含まれる各面データSDの座標及び面の向きが決定される。つまり、海面用オブジェクトPC19の各面データSDの座標及び向きは、先ず海面データ群の単位で大まかに決定される。以下、この各面データ群の単位で決定された座標及び向きを、第1段階の形態とも言う。 The coordinates and the orientation of each surface of each of the surface data groups are individually determined based on the control of the display CPU 131. Specifically, the entire surface data SD included in the first surface data group constitutes the same surface facing a predetermined direction, and in that state, the coordinates of the surface data SD that is the reference in the first surface data group are the predetermined coordinates. The coordinates of each surface data SD included in the first surface data group and the orientation of the surface are determined so as to be. That is, the coordinates and orientation of each surface data SD of the sea surface object PC 19 are first roughly determined in units of the sea level data group. Hereinafter, the coordinates and orientation determined in the unit of each surface data group are also referred to as the first stage form.

なお、基準となる面データSDは、各面データ群において単一の面データSDであるが、複数の面データSDであってもよい。また、面データSDを基準として座標を設定するのではなく、面データ群の隅角部分を構成する頂点データに対して基準となる座標を設定する構成としてもよく、この場合、隅角部分の全てに対して基準となる座標を設定してもよく、一の隅角部分に対してのみ基準となる座標を設定してもよい。また、海面用オブジェクトPC19を一連のものとすべく、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、上記座標及び面の向きが決定される。 The reference surface data SD is a single surface data SD in each surface data group, but may be a plurality of surface data SDs. Further, instead of setting the coordinates based on the surface data SD, the coordinates may be set as the reference for the vertex data constituting the corner portion of the surface data group. In this case, the corner portion may be set. The reference coordinates may be set for all, or the reference coordinates may be set only for one corner portion. Further, in order to make the sea surface object PC19 a series, the coordinates and the orientation of the surface are determined so that the coordinates of the vertex data at the boundary portion between the two are the same in the adjacent surface data group.

法線マップデータND1,ND2は、各面データ群の単位で第1段階の形態が決定された後において、各面データ群に含まれる各面データSDの向きを相互に異ならせるためのデータであり、複数種類、具体的には2種類の法線マップデータND1,ND2がメモリモジュール133に予め記憶されている。各法線マップデータND1,ND2はそれぞれ、各面データSDの向きを第1段階の形態から変化させるための単位法線データUNDを多数有している。なお、以下の説明では、一対の法線マップデータND1,ND2の一方を第1法線マップデータND1、他方を第2法線マップデータND2とも言う。 The normal map data ND1 and ND2 are data for making the orientation of each surface data SD included in each surface data group different from each other after the form of the first stage is determined in the unit of each surface data group. There, a plurality of types, specifically two types of normal map data ND1 and ND2, are stored in the memory module 133 in advance. Each normal map data ND1 and ND2 each has a large number of unit normal data UNDs for changing the orientation of each surface data SD from the form of the first stage. In the following description, one of the pair of normal map data ND1 and ND2 is also referred to as a first normal map data ND1 and the other is also referred to as a second normal map data ND2.

図38(b)は、多数の単位法線データUNDを多数有している法線マップデータND1,ND2のイメージ図であり、複数行及び複数列となるように配列された各四角部分が単位法線データUNDを示す。この場合、各法線マップデータND1,ND2において各単位法線データUNDはそれぞれ、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(b)において左下角部分の単位法線データUNDは第1列第1行の情報を順番情報として有しており、図38(b)において右上角部分の単位法線データUNDは第35列第35行の情報を順番情報として有している。 FIG. 38B is an image diagram of normal map data ND1 and ND2 having a large number of unit normal data UNDs, and each square portion arranged so as to have a plurality of rows and a plurality of columns is a unit method. The line data UND is shown. In this case, in each normal map data ND1 and ND2, each unit normal data UND has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38 (b), the unit normal data UND in the lower left corner portion has the information in the first column and the first row as order information, and in FIG. 38 (b), the unit normal data UND in the upper right corner portion is It has the information in the 35th column and the 35th row as order information.

各単位法線データUNDは、各面データSDの向きを第1段階の形態から変化させる場合における方向のデータ及びその方向に変化させる際の変化量のデータ(以下、変更データともいう)を有している。この場合、一の法線マップデータND1,ND2において、一部の単位法線データUND間ではその変化させる方向のデータ及びその方向への変化量のデータが同一となっている。但し、これに限定されることはなく、全ての単位法線データUND間において相違していてもよい。 Each unit normal data UND has data on the direction when the direction of each surface data SD is changed from the form of the first stage and data on the amount of change when the direction is changed (hereinafter, also referred to as change data). doing. In this case, in one normal map data ND1 and ND2, the data in the changing direction and the data in the amount of change in the changing direction are the same among some unit normal data UNDs. However, the present invention is not limited to this, and may differ among all unit normal data UNDs.

一対の法線マップデータND1,ND2間において、各単位法線データUNDにより決定される変更データとして同一のものは含まれているが、変更データの配列は一致していない。この場合、一対の法線マップデータND1,ND2間における全ての順番情報において、各単位法線データUNDにより決定される変更データが相違していてもよく、少なくとも一部の順番情報において各単位法線データUNDにより決定される変更データが相違している構成としてもよい。各法線マップデータND1,ND2において、単位法線データUNDの数は同一となっているが異なっていもよい。 The same change data determined by each unit normal data UND is included between the pair of normal map data ND1 and ND2, but the arrangements of the change data do not match. In this case, the change data determined by each unit normal data UND may be different in all the order information between the pair of normal map data ND1 and ND2, and each unit method may be different in at least a part of the order information. The change data determined by the line data UND may be different. In each normal map data ND1 and ND2, the number of unit normal data UNDs is the same, but may be different.

各法線マップデータND1,ND2における単位法線データUNDの数は、海面用オブジェクトPC19を構成する面データSDの数よりも多く設定されている。かかる構成において、各法線マップデータND1,ND2の単位法線データUNDを海面用オブジェクトPC19の面データSDに適用する場合、全面データSDが各法線マップデータND1,ND2に含まれる範囲において、基準となる面データSDに適用する単位法線データUNDが選択され、その関係を基準とするとともに面データSD側の順番情報と単位法線データUND側の順番情報とを利用することで、上記基準となる面データSD以外の面データSDに対応させる単位法線データUNDが選択される。 The number of unit normal data UNDs in each normal map data ND1 and ND2 is set to be larger than the number of surface data SD constituting the sea level object PC19. In such a configuration, when the unit normal data UND of each normal map data ND1 and ND2 is applied to the surface data SD of the sea surface object PC19, the entire data SD is included in the normal map data ND1 and ND2. The unit normal data UND to be applied to the reference surface data SD is selected, and by using the relationship as a reference and using the order information on the surface data SD side and the order information on the unit normal data UND side, the above The unit normal data UND corresponding to the surface data SD other than the reference surface data SD is selected.

より詳細に説明すると、面データSDを第m列第n行分有している構成において(m及びnは1以上の整数)、基準となる面データSDが第1列第1行であり、それに対応する単位法線データUNDが第s列第t行である場合(s及びtは1以上の整数)、今回使用する単位法線データUNDは第s列〜第(s+m−1)列であって、第t列〜第(t+n−1)行分となる。したがって、それら単位法線データUNDが法線マップデータND1,ND2から読み出される。そして、その読み出された各単位法線データUNDは、第s列第t行の順番情報が第1列第1行となる演算によって順番情報の変換が行われるとともに、その変換後の順番情報と同一の順番情報の面データSDに対応付けられる。 More specifically, in a configuration having the surface data SD for the nth row in the mth column (m and n are integers of 1 or more), the reference surface data SD is the first row in the first column. When the corresponding unit normal data UND is in the t-th row of the s column (s and t are integers of 1 or more), the unit normal data UND used this time is in the s-th column to the (s + m-1) column. Therefore, it is the tth column to the (t + n-1) row. Therefore, the unit normal data UND is read from the normal map data ND1 and ND2. Then, in each of the read unit normal data UNDs, the order information is converted by the operation in which the order information of the t-th row of the s column becomes the first row of the first column, and the order information after the conversion is performed. It is associated with the surface data SD of the same order information as.

図39(a)及び(b)を参照しながら、一対の法線マップデータND1,ND2を海面用オブジェクトPC19に適用する手法を説明する。 A method of applying the pair of normal map data ND1 and ND2 to the sea surface object PC 19 will be described with reference to FIGS. 39 (a) and 39 (b).

図39(a)に示すように、法線マップデータND1,ND2を用いて海面用オブジェクトPC19の面データSDの向きを変更させる場合には、一対の法線マップデータND1,ND2が海面用オブジェクトPC19に対して同時に適用される。この場合、海面表示の開始時においては、一方の法線マップデータND1の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。また、他方の法線マップデータND2についても同様に、当該法線マップデータND2の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。 As shown in FIG. 39 (a), when the direction of the surface data SD of the sea surface object PC19 is changed by using the normal map data ND1 and ND2, the pair of normal map data ND1 and ND2 are the sea surface objects. It is applied to PC19 at the same time. In this case, at the start of the sea level display, the unit normal data UND of the corner portion of one normal map data ND1 coincides with the corner portion on the same side of the sea surface object PC 19, and the sea surface object PC 19 Data is set so that all surface data SDs correspond to different unit normal data UNDs. Similarly, for the other normal map data ND2, the unit normal data UND of the corner portion of the normal map data ND2 coincides with the corner portion on the same side of the sea surface object PC19, and the sea surface object. The data is set so that all the surface data SDs of the PC 19 correspond to the different unit normal data UNDs.

この場合、同一の面データSDに対して一方の法線マップデータND1の単位法線データUNDと他方の法線マップデータND2の単位法線データUNDとが同時に対応することとなる。これら単位法線データUNDの変更データを面データSDに適用する場合には、一方の法線マップデータND1に対応した変更データによる面データSDの向きと、他方の法線マップデータND2に対応した変更データによる面データSDの向きとの中間の向きとなるように、各変更データのブレンドが実行され、そのブレンドした結果の変更データが面データSDに対して適用される。 In this case, the unit normal data UND of one normal map data ND1 and the unit normal data UND of the other normal map data ND2 correspond to the same surface data SD at the same time. When the change data of these unit normal data UNDs is applied to the surface data SD, the orientation of the surface data SD due to the change data corresponding to one normal map data ND1 and the orientation of the surface data SD corresponding to the other normal map data ND2 are supported. Blending of each modified data is performed so that the orientation is intermediate with the orientation of the surface data SD due to the modified data, and the modified data as a result of the blending is applied to the surface data SD.

なお、図39(a)では、開始時に基準となる隅角部分の位置が、一方の法線マップデータND1と他方の法線マップデータND2とで異なる構成となっているが、同一であってもよい。この場合であっても、一対の法線マップデータND1,ND2間において変更データの配列が異なっているため、面データSDに適用される変更データの内容が両法線マップデータND1,ND2で同一となる事象が全ての面データSDに対して発生してしまうことはない。 In FIG. 39A, the positions of the reference corners at the start are different between the normal map data ND1 and the normal map data ND2, but they are the same. May be good. Even in this case, since the arrangement of the change data is different between the pair of normal map data ND1 and ND2, the content of the change data applied to the surface data SD is the same for both normal map data ND1 and ND2. This event does not occur for all surface data SDs.

その後、海面表示におけるフレーム数が進行していくことに伴って、図39(b)に示すように、海面用オブジェクトPC19の基準となる面データSDに対して対応する単位法線データUNDが、両法線マップデータND1,ND2のそれぞれにおいて変更される。但し、この変更に際しては、海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているように変更が行われる。 After that, as the number of frames in the sea level display progresses, as shown in FIG. 39 (b), the unit normal data UND corresponding to the surface data SD as the reference of the sea level object PC 19 is generated. Both normal map data are changed in each of ND1 and ND2. However, at the time of this change, the change is made so that all the surface data SDs of the sea surface object PC19 correspond to the different unit normal data UNDs.

このように基準となる面データSDに対応する単位法線データUNDを変更させることにより、各面データSDの向きが変更される態様を除々に変化させることが可能となり、海面表示を変化に富んだものとすることが可能となる。また、一対の法線マップデータND1,ND2をブレンドする構成であることにより、パチンコ機10の設計段階において上記変更データのバリエーションをある程度抑えたとしても、面データSDに対して実質的に適用される変更データのバリエーションを増やすことが可能となる。 By changing the unit normal data UND corresponding to the reference surface data SD in this way, it is possible to gradually change the mode in which the orientation of each surface data SD is changed, and the sea level display is rich in change. It becomes possible to make it. Further, since the pair of normal map data ND1 and ND2 are blended, even if the variation of the changed data is suppressed to some extent at the design stage of the pachinko machine 10, it is substantially applied to the surface data SD. It is possible to increase the variation of change data.

次に、図40を参照しながら、各面データSDに対する変更データの適用の仕方を説明する。 Next, how to apply the changed data to each surface data SD will be described with reference to FIG. 40.

既に説明したように各面データSDに対して単位法線データUNDが個別に対応付けられるが、それら全ての面データSDに対して単位法線データUNDによる変更データが適用されるわけではなく、各面データ群において一部の面データSD1に対してのみ単位法線データUNDによる変更データが適用される。詳細には、同一の頂点データを共有する面データSD同士に対して同時に変更データの適用が行われないように、適用対象となる面データSD1が予め定められている。 As described above, the unit normal data UND is individually associated with each surface data SD, but the change data by the unit normal data UND is not applied to all the surface data SDs. In each surface data group, the change data by the unit normal data UND is applied only to a part of the surface data SD1. In detail, the surface data SD1 to be applied is predetermined so that the changed data is not applied to the surface data SDs sharing the same vertex data at the same time.

詳細には、各面データ群において変更データが適用される面データSD1は、図40(a)に示すように一部に限られており、それら適用対象の面データSD1間には、他の面データSD2が存在することで、適用対象の面データSD1同士において頂点データを共有していない。また、適用対象の面データSD1は面データ群においてその隅角部分を構成していないため、面データ群間で見た場合であっても、適用対象の面データSD1同士において頂点データを共有していない。このような構成であることにより、法線マップデータND1,ND2を利用してランダムに面データSDの向きを変更する構成であったとしても、適用対象の面データSD1間にはそれら面データSD1の向きの違いを吸収するための緩衝用の面データSD2が存在することとなり、海面用オブジェクトPC19の面としての連続性を担保することが可能となる。 In detail, the surface data SD1 to which the changed data is applied in each surface data group is limited to a part as shown in FIG. 40 (a), and other surface data SD1 to be applied thereof are separated from each other. Due to the existence of the surface data SD2, the vertex data is not shared between the surface data SD1 to be applied. Further, since the surface data SD1 to be applied does not constitute the corner portion in the surface data group, the vertex data is shared between the surface data SD1s to be applied even when viewed between the surface data groups. Not. With such a configuration, even if the orientation of the surface data SD is randomly changed by using the normal map data ND1 and ND2, the surface data SD1 is sandwiched between the surface data SD1 to be applied. The surface data SD2 for buffering to absorb the difference in the orientation of the sea surface is present, and it is possible to ensure the continuity of the sea surface object PC19 as a surface.

適用対象の面データSD1に対して変更データが適用されることにより、各面データSDの向きが第1段階の形態から変更される様子を図40(b−1)及び(b−2)に示す。図40(b−1)に示すように、第1段階の形態では、所定の面データ群に含まれる各面データSD1,SD2は、同一の方向を向いており、同一の面を形成している。 FIGS. 40 (b-1) and (b-2) show how the orientation of each surface data SD is changed from the first stage form by applying the change data to the surface data SD1 to be applied. show. As shown in FIG. 40 (b-1), in the form of the first stage, the surface data SD1 and SD2 included in the predetermined surface data group face the same direction and form the same surface. There is.

これら面データSD1,SD2のうち、2番目と4番目が適用対象の面データSD1であり、これら2番目及び4番目の面データSD1に対して、両法線マップデータND1,ND2のブレンド結果である変更データが適用される。この際、図40(b−2)に示すように、2番目及び4番目の面データSD1がそれぞれ対応する変更データに基づく向きに変更される。また、適用対象の面データSD1ではなく緩衝用の面データSD2である1番目、3番目及び5番目の各面データSD2は、第1段階の形態からの変化量が最も少ない態様において海面用オブジェクトPC19の面としての連続性を担保するようにして向きが変更される。 Of these surface data SD1 and SD2, the second and fourth are the surface data SD1 to be applied, and the blend result of both normal map data ND1 and ND2 with respect to these second and fourth surface data SD1. Certain change data is applied. At this time, as shown in FIG. 40 (b-2), the second and fourth surface data SD1 are changed in the orientation based on the corresponding change data, respectively. Further, the first, third, and fifth surface data SD2, which are the surface data SD2 for buffering instead of the surface data SD1 to be applied, are objects for the sea surface in the embodiment in which the amount of change from the first stage form is the smallest. The orientation is changed so as to ensure the continuity as a surface of the PC 19.

以下に、海面用オブジェクトPC19の各面データSDの向きを設定するための具体的な処理構成を説明する。 Hereinafter, a specific processing configuration for setting the orientation of each surface data SD of the sea surface object PC 19 will be described.

図41(a)は、表示CPU131にて実行される海面表示用の演算処理を示すフローチャートである。海面表示用の演算処理は、タスク処理(図14)のステップS903における背景用演算処理にて実行される。また、海面表示用の演算処理は、第1表示モードである状況で実行されるものであり、図24におけるステップS1502〜ステップS1505の処理の一部として実行される。 FIG. 41A is a flowchart showing a calculation process for sea level display executed by the display CPU 131. The arithmetic processing for sea level display is executed in the background arithmetic processing in step S903 of the task processing (FIG. 14). Further, the arithmetic processing for sea level display is executed in the situation of the first display mode, and is executed as a part of the processing of steps S1502 to S1505 in FIG. 24.

先ずステップS2401では、現状設定されているデータテーブルに基づいて、海面表示の実行中であるか否かを判定する。海面表示の実行中ではない場合にはステップS2402にて、海面表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2403に進む。 First, in step S2401, it is determined whether or not the sea level display is being executed based on the currently set data table. If the sea level display is not being executed, step S2402 determines whether or not it is the start timing of the sea level display. If it is not the start timing, the present calculation process is terminated as it is, and if it is the start timing, the process proceeds to step S2403.

ステップS2403では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。ちなみに、ステップS2403の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、海面用オブジェクトPC19に対して制御開始用の処理が完了している。また、制御が開始された海面用オブジェクトPC19の制御用の情報は、海面表示が完了するまではワークRAM132に記憶保持される。 In step S2403, the sea level object PC 19 is grasped as a control target based on the currently set data table. Incidentally, at the execution timing of the process of step S2403, the process for starting control of the sea level object PC 19 is completed in the setting process for starting control immediately before (step S901). Further, the information for control of the sea level object PC19 for which control has been started is stored and held in the work RAM 132 until the sea level display is completed.

続くステップS2404では、第1法線マップデータND1及び第2法線マップデータND2を制御対象としてVDP135に指示するための情報を記憶する。但し、表示CPU131では、これら第1法線マップデータND1及び第2法線マップデータND2を海面用オブジェクトPC19に実際に適用するために必要な演算処理は実行しない。つまり、表示CPU131は、第1法線マップデータND1及び第2法線マップデータND2については、これらデータND1,ND2を使用すべきことをVDP135に対して指示するものの、これらデータND1,ND2を実際に制御するための演算処理を実行しない。これにより、表示CPU131の処理負荷の軽減が図られる。 In the following step S2404, information for instructing the VDP 135 to control the first normal map data ND1 and the second normal map data ND2 is stored. However, the display CPU 131 does not execute the arithmetic processing necessary for actually applying the first normal map data ND1 and the second normal map data ND2 to the sea level object PC19. That is, although the display CPU 131 instructs the VDP135 to use these data ND1 and ND2 for the first normal map data ND1 and the second normal map data ND2, the data ND1 and ND2 are actually used. Do not execute arithmetic processing to control. As a result, the processing load of the display CPU 131 can be reduced.

続くステップS2405では、メモリモジュール133から海面用アニメーションデータをワークRAM132に読み出す。図41(b)は海面用アニメーションデータADを説明するための説明図である。海面用アニメーションデータADは、海面用オブジェクトPC19を面データ群の単位で制御するためのデータであり、当該海面用アニメーションデータADによって各面データ群の基準座標及び向きが決定されることで、海面用オブジェクトPC19について第1段階の形態が決定される。 In the following step S2405, the sea level animation data is read from the memory module 133 to the work RAM 132. FIG. 41B is an explanatory diagram for explaining the animation data AD for the sea surface. The sea level animation data AD is data for controlling the sea level object PC19 in units of surface data groups, and the sea level animation data AD determines the reference coordinates and orientation of each surface data group to determine the sea level. The form of the first stage is determined for the object PC19.

より詳細には、海面用アニメーションデータADには、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには、各面データ群について基準座標のデータ及び向きのデータが設定されている。例えば、第1面データ群に対しては、第1のポインタ情報に対応させて、基準座標のデータ(A1−1)及び向きのデータ(B1−1)が設定されており、第2のポインタ情報に対応させて、基準座標のデータ(A1−2)及び向きのデータ(B1−2)が設定されており、第fのポインタ情報(fは3以上の整数であり、例えば「50」)に対応させて、基準座標のデータ(A1−f)及び向きのデータ(B1−f)が設定されている。また、第2面データ群、・・・、第k面データ群に対しても各ポインタ情報に対応させて基準座標のデータ及び向きのデータが設定されている。 More specifically, in the animation data AD for the sea surface, a plurality of pointer information is set so as to be serial numbers, and each of the pointer information has reference coordinate data and orientation for each surface data group. The data is set. For example, for the first surface data group, reference coordinate data (A1-1) and orientation data (B1-1) are set corresponding to the first pointer information, and the second pointer. Reference coordinate data (A1-2) and orientation data (B1-2) are set corresponding to the information, and the fth pointer information (f is an integer of 3 or more, for example, "50"). The reference coordinate data (A1-f) and the orientation data (B1-f) are set in correspondence with the above. Further, the reference coordinate data and the orientation data are set corresponding to the pointer information also for the second surface data group, ..., The k surface data group.

ポインタ情報は、海面表示が行われている状況において1フレーム分進行する場合(画像更新タイミングとなる度)に更新され、ポインタ情報の更新に伴って基準座標のデータ及び向きのデータの組合せが次の順番のものに変更されることとなる。この場合に、それら連続する基準座標のデータ及び向きのデータは、各面データ群において第1段階の形態が動きの連続性を有するように設定されている。 The pointer information is updated when it advances by one frame in the situation where the sea level is displayed (every time the image update timing is reached), and the combination of the reference coordinate data and the orientation data is next as the pointer information is updated. It will be changed to the one in the order of. In this case, the continuous reference coordinate data and the orientation data are set so that the form of the first stage has continuity of movement in each surface data group.

また、各面データ群間においてポインタ情報の進行に伴う基準座標のデータ及び向きのデータの配列態様は相違しているが、隣接する面データ群間において形態上の連続性が損なわれないようにそれら基準座標のデータ及び向きのデータが設定されている。つまり、複数の辺が他の面データ群と接している面データ群は、それら他の面データ群の基準座標及び向きが決定されれば、それら他の面データ群と接している状態を解除しない限り、基準座標及び向きに制約が生じ、場合によっては一義的に定まることとなる。このような状況において、当該他の面データ群と接している状態を解除しないようにして、各面データ群の基準座標及び向きが予め定められている。具体的には、既に説明したとおり、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、基準座標のデータ及び向きのデータが決定されている。 Further, although the arrangement mode of the reference coordinate data and the orientation data is different between the surface data groups as the pointer information progresses, the morphological continuity is not impaired between the adjacent surface data groups. The reference coordinate data and the orientation data are set. That is, the surface data group in which a plurality of sides are in contact with the other surface data group is released from the state of being in contact with the other surface data group once the reference coordinates and orientations of the other surface data groups are determined. Unless otherwise, there will be restrictions on the reference coordinates and orientation, and in some cases it will be uniquely determined. In such a situation, the reference coordinates and the orientation of each surface data group are predetermined so as not to release the state of being in contact with the other surface data group. Specifically, as described above, in the adjacent surface data group, the reference coordinate data and the orientation data are determined so that the coordinates of the vertex data at the boundary portion between the two are the same.

図41(a)の説明に戻り、ステップS2405にて海面用アニメーションデータADを読み出した後は、ステップS2406にて、当該海面用アニメーションデータADから初期設定データを把握する。具体的には、開始用のデータとして、第1のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2407にて海面表示の開始指定情報を記憶した後に、本演算処理を終了する。 Returning to the description of FIG. 41 (a), after reading the sea level animation data AD in step S2405, the initial setting data is grasped from the sea level animation data AD in step S2406. Specifically, as the start data, the combination of the reference coordinate data and the orientation data set corresponding to the first pointer information is read out for the entire surface data group. After that, after storing the start designation information of the sea level display in step S2407, the present calculation process is terminated.

上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。さらにまた、上記ステップS2406にて把握した第1段階の形態についての初期設定データが設定されるとともに、海面表示を開始すべきことを示す海面表示の開始指定情報が、描画リストに設定される。 When the arithmetic processing for displaying the sea surface is executed as described above, the drawing list created in the subsequent drawing list output processing is set with the information of the instruction to use the sea surface object PC19 and the first method. Information on instructions for using the line map data ND1 and the second normal map data ND2 is set. Furthermore, the initial setting data for the form of the first stage grasped in step S2406 is set, and the sea level display start designation information indicating that the sea level display should be started is set in the drawing list.

ステップS2401にて海面表示の実行中であると判定した場合には、ステップS2408に進む。ステップS2408では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。また、ステップS2409では、現状設定されているデータテーブルに基づいて、第1法線マップデータND1及び第2法線マップデータND2を制御対象として把握する。 If it is determined in step S2401 that the sea level display is being executed, the process proceeds to step S2408. In step S2408, the sea level object PC 19 is grasped as a control target based on the currently set data table. Further, in step S2409, the first normal map data ND1 and the second normal map data ND2 are grasped as control targets based on the currently set data table.

続くステップS2410では、既にワークRAM132に読み出されている海面用アニメーションデータADのポインタ情報を1増加させるように更新し、ステップS2411にて、その更新後のポインタ情報に対応した更新データを把握する。この把握処理について具体的には、更新用のデータとして、更新後のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2412にて、海面表示の更新指定情報を記憶した後に、本演算処理を終了する。 In the following step S2410, the pointer information of the animation data AD for the sea surface that has already been read into the work RAM 132 is updated so as to be incremented by 1, and in step S2411, the updated data corresponding to the updated pointer information is grasped. .. Specifically, regarding this grasping process, as data for updating, a combination of reference coordinate data and orientation data set corresponding to the updated pointer information is read out for the entire surface data group. After that, in step S2412, after storing the update designation information of the sea level display, this calculation process is terminated.

上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。また、上記ステップS2411にて把握した第1段階の形態についての更新データが描画リストに設定される。さらにまた、海面表示を更新すべきことを示す海面表示の更新指定情報が、描画リストに設定される。 When the arithmetic processing for displaying the sea surface is executed as described above, the drawing list created in the subsequent drawing list output processing is set with the information of the instruction to use the sea surface object PC19 and the first method. Information on instructions for using the line map data ND1 and the second normal map data ND2 is set. Further, the update data for the form of the first stage grasped in step S2411 is set in the drawing list. Furthermore, the sea level display update designation information indicating that the sea level display should be updated is set in the drawing list.

なお、海面用アニメーションデータADのポインタ情報は、海面表示が実行される全フレーム数に対応していてもよいが、本パチンコ機10では、海面表示が実行される全フレーム数よりもポインタ情報の数が少なく設定されている。この場合、海面表示の実行中においてポインタ情報が最後の順番のものとなってしまうが、最後の順番となった次のフレームにおいては最初のポインタ情報に復帰される。また、このようにポインタ情報がループすることに鑑みて、ポインタ情報が最後の順番における第1段階の形態と、ポインタ情報が最初の順番における第1段階の形態とが海面用オブジェクトPC19の動きとして連続性を有していることが好ましい。 The pointer information of the animation data AD for the sea surface may correspond to the total number of frames in which the sea surface display is executed, but in the pachinko machine 10, the pointer information is larger than the total number of frames in which the sea surface display is executed. The number is set small. In this case, the pointer information is in the last order during the execution of the sea level display, but the pointer information is returned to the first pointer information in the next frame in the last order. Further, in view of the fact that the pointer information loops in this way, the form of the first stage in which the pointer information is in the last order and the form of the first stage in which the pointer information is in the first order are the movements of the sea surface object PC19. It is preferable to have continuity.

次に、VDP135にて実行される海面表示用の設定処理を、図42のフローチャートを参照しながら説明する。海面表示用の設定処理は、第1表示モードである状況で実行されるものであり、図26におけるステップS1703〜ステップS1708の処理の一部として実行される。また、海面表示の設定処理は、今回の描画リストに海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。 Next, the setting process for sea level display executed by VDP135 will be described with reference to the flowchart of FIG. 42. The sea level display setting process is executed in the situation of the first display mode, and is executed as a part of the processes of steps S1703 to S1708 in FIG. 26. Further, the sea level display setting process is started when either the sea level display start designation information or the sea level display update designation information is set in the drawing list this time.

先ずステップS2501では、今回の描画リストにおいて海面表示の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2502に進む。 First, in step S2501, it is determined whether or not the sea level display start designation information is set in the current drawing list. If it is set, the process proceeds to step S2502.

ステップS2502では、今回の描画リストに基づいて、メモリモジュール133において海面用オブジェクトPC19が記憶されているアドレスを把握して、当該海面用オブジェクトPC19をVRAM134の展開用バッファ141に読み出す。また、ステップS2503では、今回の描画リストに基づいて、メモリモジュール133において第1法線マップデータND1及び第2法線マップデータND2が記憶されているアドレスを把握して、これら第1法線マップデータND1及び第2法線マップデータND2をVRAM134の展開用バッファ141に読み出す。 In step S2502, based on the current drawing list, the address where the sea level object PC 19 is stored in the memory module 133 is grasped, and the sea level object PC 19 is read out to the expansion buffer 141 of the VRAM 134. Further, in step S2503, based on the current drawing list, the addresses in which the first normal map data ND1 and the second normal map data ND2 are stored in the memory module 133 are grasped, and these first normal maps are captured. The data ND1 and the second normal map data ND2 are read into the expansion buffer 141 of the VRAM 134.

続くステップS2504では、今回の描画リストに設定されている初期設定データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2505にて、その把握した初期設定データを適用した状態で海面用オブジェクトPC19をワールド座標系に設定する。これにより、海面用オブジェクトPC19が第1段階の形態となった状態でワールド座標系に設定される。 In the following step S2504, the initial setting data (data extracted from the animation data AD for the sea surface) set in the drawing list this time is grasped, and in step S2505, the sea surface is applied with the grasped initial setting data. Set the object PC19 in the world coordinate system. As a result, the sea level object PC 19 is set in the world coordinate system in the state of being in the form of the first stage.

続くステップS2506では、第1法線マップデータND1のワールド座標系への初期設定処理を実行するとともに、ステップS2507では、第2法線マップデータND2のワールド座標系への初期設定処理を実行する。これにより、図39(a)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対して第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが対応付けられる。 In the following step S2506, the initial setting process of the first normal map data ND1 to the world coordinate system is executed, and in step S2507, the initial setting process of the second normal map data ND2 to the world coordinate system is executed. As a result, as described in the state described with reference to FIG. 39 (a), the unit normal data UND and the second normal of the first normal map data ND1 for each surface data SD of the sea surface object PC19. The unit normal data UND of the map data ND2 is associated with it.

その後、ステップS2508にて、法線パラメータの設定処理を実行した後に、本設定処理を終了する。かかる法線パラメータの設定処理について、図43のフローチャートを参照しながら説明する。なお、法線パラメータとは、面データSDの向きを決定付けるパラメータのことであり、具体的には当該面データSDを構成する頂点データの座標を決定付けるものである。 Then, in step S2508, after executing the normal parameter setting process, the present setting process ends. The normal parameter setting process will be described with reference to the flowchart of FIG. 43. The normal parameter is a parameter that determines the orientation of the surface data SD, and specifically determines the coordinates of the vertex data constituting the surface data SD.

法線パラメータの設定処理では、先ずステップS2601にて、レジスタ153に設けられた適用カウンタの初期化処理を実行する。本処理において適用カウンタは、第1法線マップデータND1及び第2法線マップデータND2の単位法線データUNDに設定されている変更データを適用する対象の面データSD1をVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては当該適用対象の面データSD1の数に対応した数値情報が適用カウンタに設定される。 In the normal parameter setting process, first, in step S2601, the initialization process of the application counter provided in the register 153 is executed. In this process, the application counter is used to specify the surface data SD1 to which the change data set in the unit normal data UND of the first normal map data ND1 and the second normal map data ND2 is applied by VDP135. In the state where the application counter is initialized, numerical information corresponding to the number of surface data SD1 to be applied is set in the application counter.

続くステップS2602では、第1法線マップデータND1において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第1法線マップデータND1において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。 In the following step S2602, the change data is read from the unit normal data UND corresponding to the current numerical information of the application counter in the first normal map data ND1. Specifically, first, the surface data SD1 corresponding to the current numerical information of the application counter is grasped, and then the unit normal data UND associated with the surface data SD1 in the first normal map data ND1 is grasped. do. Then, the change data set in the unit normal data UND is read out.

続くステップS2603では、第2法線マップデータND2において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第2法線マップデータND2において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。 In the following step S2603, the change data is read from the unit normal data UND corresponding to the current numerical information of the application counter in the second normal map data ND2. Specifically, first, the surface data SD1 corresponding to the current numerical information of the application counter is grasped, and then the unit normal data UND associated with the surface data SD1 is grasped in the second normal map data ND2. do. Then, the change data set in the unit normal data UND is read out.

続くステップS2604では、上記ステップS2602にて第1法線マップデータND1から読み出した変更データと、上記ステップS2603にて第2法線マップデータND2から読み出した変更データとのブレンド処理を実行する。このブレンド処理に際しては、既に説明したとおり、第1法線マップデータND1に対応した変更データによる面データSD1の向きと、第2法線マップデータND2に対応した変更データによる面データSD1の向きとの中間の向きとなるように、各変更データのブレンドが実行される。 In the following step S2604, the blending process of the change data read from the first normal map data ND1 in step S2602 and the change data read from the second normal map data ND2 in step S2603 is executed. In this blending process, as described above, the orientation of the surface data SD1 due to the change data corresponding to the first normal map data ND1 and the orientation of the surface data SD1 due to the change data corresponding to the second normal map data ND2. The blending of each change data is performed so that the orientation is in the middle of.

なお、当該ブレンドは、各変更データを適用した場合における面データSD1の各向きの中間となるように行われる構成に限定されることはなく、所定の比率で第1法線マップデータND1に係る変更データ寄り又は第2法線マップデータND2に係る変更データ寄りとなる構成としてもよい。 It should be noted that the blend is not limited to the configuration performed so as to be in the middle of each direction of the surface data SD1 when each change data is applied, and relates to the first normal map data ND1 at a predetermined ratio. The configuration may be closer to the change data or closer to the change data related to the second normal map data ND2.

続くステップS2605では、上記ステップS2604にてブレンドした結果の変更データを、適用カウンタの現状の数値情報に対応した面データSD1に対して適用する。これにより、当該面データSD1については第1段階の形態における向きから、上記ブレンド後の変更データに対応した向きに変更される。但し、既に説明したとおり、変更データは第1段階の形態を基準としてそこからの相対的な変化量として与えられているため、変更データがそのまま適用されるのではなく、第1段階の形態における向きを基準として、そこからブレンド後の変更データに対応した方向であって対応した変化量分だけ変更される。 In the following step S2605, the change data of the result of blending in the above step S2604 is applied to the surface data SD1 corresponding to the current numerical information of the application counter. As a result, the surface data SD1 is changed from the orientation in the form of the first stage to the orientation corresponding to the change data after the blending. However, as already explained, since the change data is given as a relative amount of change from the form of the first stage as a reference, the change data is not applied as it is, but in the form of the first stage. Based on the orientation, the direction corresponding to the change data after blending is changed by the corresponding amount of change.

続くステップS2606では、適用カウンタの現状の数値情報に対応した面データSD1に対して隣接する面データSD2、すなわち適用対象の面データSD1と頂点データを共有する面データSD2(既に説明した緩衝用の面データSD2に相当)の向きを、当該共有する頂点データの座標の変更に合わせて変更する処理を実行する。この場合、今回の適用対象の面データSD1と共有していない頂点データについては、第1段階の形態から座標を変更させずに、隣接する面データSD2の向きを変更する。 In the following step S2606, the surface data SD2 adjacent to the surface data SD1 corresponding to the current numerical information of the application counter, that is, the surface data SD2 sharing the vertex data with the surface data SD1 to be applied (for buffering already described). A process of changing the direction of the surface data (corresponding to SD2) according to the change of the coordinates of the shared vertex data is executed. In this case, for the vertex data that is not shared with the surface data SD1 to be applied this time, the orientation of the adjacent surface data SD2 is changed without changing the coordinates from the form of the first stage.

続くステップS2607では、適用カウンタの数値情報を1減算することにより、法線パラメータの設定を行う対象が次の適用対象の面データSD1に移行するように適用カウンタの数値情報を更新する。 In the following step S2607, the numerical information of the application counter is updated by subtracting 1 from the numerical information of the application counter so that the target for which the normal parameter is set shifts to the surface data SD1 of the next application target.

その後、ステップS2608にて、その更新後の適用カウンタの数値情報が、全ての適用対象の面データSD1に対する設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2608にて否定判定をした場合には、ステップS2602に戻り、新たな適用対象の面データSD1に対してステップS2602〜ステップS2607の処理を実行し、ステップS2608にて肯定判定をした場合には、本設定処理を終了する。 After that, in step S2608, whether or not the numerical information of the applied counter after the update is information indicating that the setting for all the surface data SD1 to be applied is completed, that is, the numerical information of the applied counter is ". It is determined whether or not it is "0". If a negative determination is made in step S2608, the process returns to step S2602, the processing of steps S2602 to S2607 is executed for the surface data SD1 to be newly applied, and if an affirmative determination is made in step S2608. , Ends this setting process.

海面表示用の設定処理(図42)の説明に戻り、ステップS2501にて否定判定をした場合には、ステップS2509にて、今回の描画リストに設定されている更新データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2510にて、その把握した更新データを、ワールド座標系に既に設定されている海面用オブジェクトPC19に設定する。この場合、上記更新データが、海面用オブジェクトPC19の各面データ群の座標及び向きのデータに対して上書きされる。これにより、海面用オブジェクトPC19が、再度、第1段階の形態となった状態でワールド座標系に設定される。 Returning to the explanation of the sea level display setting process (FIG. 42), if a negative determination is made in step S2501, the update data (from the sea level animation data AD) set in the drawing list this time in step S2509. The extracted data) is grasped, and in step S2510, the grasped update data is set in the sea level object PC19 already set in the world coordinate system. In this case, the updated data is overwritten with the coordinates and orientation data of each surface data group of the sea level object PC19. As a result, the sea level object PC 19 is set in the world coordinate system again in the state of being in the form of the first stage.

続くステップS2511では、第1法線マップデータND1の更新処理を実行するとともに、ステップS2512では、第2法線マップデータND2の更新処理を実行する。これにより、図39(b)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対応付けられる第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが変更される。 In the following step S2511, the update process of the first normal map data ND1 is executed, and in the step S2512, the update process of the second normal map data ND2 is executed. As a result, the unit normal data UND and the second method of the first normal map data ND1 associated with each surface data SD of the sea surface object PC 19 so as to be in the state described with reference to FIG. 39 (b). The unit normal data UND of the line map data ND2 is changed.

その後、ステップS2508の法線パラメータの設定処理を実行した後に、本設定処理を終了する。当該法線パラメータの設定処理は、既に説明したとおりである。 Then, after executing the normal parameter setting process of step S2508, the present setting process is terminated. The normal parameter setting process is as described above.

以上のように海面用オブジェクトPC19を構成する各面データSDのワールド座標系における座標及び向きが決定される。そして、それら面データSDに対しては、描画処理(図16)におけるステップS1009の色情報の設定処理にて色情報の設定が行われる。この場合に、当該面データSDに対する色情報の設定は、テクスチャマッピング処理とは異なる手法にて行われる。かかる手法について説明する。 As described above, the coordinates and orientation of each surface data SD constituting the sea surface object PC 19 in the world coordinate system are determined. Then, the color information is set for the surface data SD in the color information setting process of step S1009 in the drawing process (FIG. 16). In this case, the color information is set for the surface data SD by a method different from the texture mapping process. Such a method will be described.

図44(a)〜(c)は、各面データSDに色情報を設定する手法を説明するための説明図である。 44 (a) to 44 (c) are explanatory views for explaining a method of setting color information in each surface data SD.

色情報の設定処理(ステップS1009)は、図16に示すように、各オブジェクトのワールド座標系への設定処理が完了し、さらにステップS1006の視野座標系への設定処理、及びステップS1007のクリッピング処理が実行された後に、実行される。したがって、色情報の設定処理が実行されるタイミングでは既に、海面用オブジェクトPC19の各面データSDの座標及び向きが視野座標系に変換された状態で設定されている。 In the color information setting process (step S1009), as shown in FIG. 16, the setting process of each object in the world coordinate system is completed, and further, the setting process in the visual field coordinate system of step S1006 and the clipping process of step S1007. Is executed after is executed. Therefore, at the timing when the color information setting process is executed, the coordinates and orientation of each surface data SD of the sea surface object PC 19 are already set in a state of being converted into the visual field coordinate system.

この状態では、図44(a)に示すように、視野座標系の基準となる視点VDが設定されているとともに、その視点VDよりも上方の位置となるように海面用オブジェクトPC19が設定されている。つまり、本パチンコ機10における海面表示は、海中を背景とする表示であって、その海中から見上げた状態で海面が表示される演出のことである。 In this state, as shown in FIG. 44 (a), the viewpoint VD as a reference of the visual field coordinate system is set, and the sea level object PC 19 is set so as to be located above the viewpoint VD. There is. That is, the sea level display in the pachinko machine 10 is a display with the sea in the background, and the sea level is displayed in a state of looking up from the sea.

各面データSDに対する色情報の設定に際しては、海面用オブジェクトPC19の上方に仮に光源している場合において、その光源からの透過光を面データSDの座標及び向きとの関係で、視点VDの位置にて視認することが可能となるか否かを想定して、上記光源からの光が透過することに対応した面データSDと、上記光源からの光が海面用オブジェクトPC19の上方側にて全反射して透過しないことに対応した面データSDとに振り分ける。 When setting the color information for each surface data SD, when a light source is temporarily applied above the sea surface object PC19, the transmitted light from the light source is the position of the viewpoint VD in relation to the coordinates and orientation of the surface data SD. Assuming whether or not it can be visually recognized by, the surface data SD corresponding to the transmission of the light from the light source and the light from the light source are all on the upper side of the sea surface object PC19. It is distributed to the surface data SD corresponding to the reflection and non-transmission.

この振分に際しては、上記光源を描画処理(図16)のライティング処理(ステップS1008)にて設定するのではなく、視点VDに対する面データSDの角度が所定の角度未満であるか否かにより、その面データSDを、透過光の多い分類と、透過光の少ない分類とのいずれかに振り分ける。 In this distribution, the light source is not set in the lighting process (step S1008) of the drawing process (FIG. 16), but depending on whether the angle of the surface data SD with respect to the viewpoint VD is less than a predetermined angle. The surface data SD is classified into one of a classification having a large amount of transmitted light and a classification having a small amount of transmitted light.

より詳細には、図44(b−1)及び(b−2)に示すように、先ず面データSDの座標及び向きのデータを利用して、視点VDから当該面データSDを見た場合の角度である屈折角βを算出する。この算出に際しては、座標及び向きのデータに対して1対1で対応させて屈折角のデータが設定されたテーブルをメモリモジュール133から読み出して用いられるが、算出式のプログラムを予め用意しておき、その算出式で屈折角を算出するようにしてもよい。 More specifically, as shown in FIGS. 44 (b-1) and (b-2), when the surface data SD is first viewed from the viewpoint VD by using the coordinates and orientation data of the surface data SD. The refraction angle β, which is an angle, is calculated. In this calculation, a table in which the refraction angle data is set in a one-to-one correspondence with the coordinate and orientation data is read from the memory module 133 and used, but a calculation formula program is prepared in advance. , The refraction angle may be calculated by the calculation formula.

ここで、面データSDに対する色情報の設定は、大気中から海面への光の入射を前提としているため、屈折角βが大きいほど、入射角αは大きくなり、入射角αが大きくなるほど、光量は少なくなる。これを前提として、VDP135では、屈折角βを算出した後は、その屈折角βが所定の基準角度未満であるか否かを判定する。そして、屈折角βが所定の基準角度未満である場合(例えば図44(b−1)の場合)には、その屈折角βを生じさせる面データSDを透過光が多い分類とし、屈折角βが所定の基準角度以上である場合(例えば図44(b−2)の場合)には、その屈折角βを生じさせる面データSDを透過光が少ない分類とする。ちなみに、視点VD側とは逆側を向く方向の成分を有している場合といったように、視点VD側を向く成分を向く方向に有していない面データSDは、全て透過光が少ない分類とされる。 Here, since the setting of the color information for the surface data SD is premised on the incident of light from the atmosphere to the sea surface, the larger the refraction angle β, the larger the incident angle α, and the larger the incident angle α, the more the amount of light. Will be less. On the premise of this, in VDP135, after calculating the refraction angle β, it is determined whether or not the refraction angle β is less than a predetermined reference angle. When the refraction angle β is less than a predetermined reference angle (for example, in the case of FIG. 44 (b-1)), the surface data SD that causes the refraction angle β is classified as having a large amount of transmitted light, and the refraction angle β is classified. When is equal to or greater than a predetermined reference angle (for example, in the case of FIG. 44 (b-2)), the surface data SD that causes the refraction angle β is classified as having less transmitted light. By the way, all the surface data SDs that do not have the component facing the viewpoint VD side, such as the case where the component is facing the opposite side to the viewpoint VD side, are classified as having less transmitted light. Will be done.

上記のような分類を行った後は、図44(c)に示すようなカラーテーブルCTを用いて各面データSDの色情報を決定する。カラーテーブルCTは、メモリモジュール133に予め記憶されており、複数のカラーNO.のデータと、これらカラーNO.のデータに1対1で対応させて色情報が設定されている。また、カラーテーブルCTには、いずれの色情報を面データSDに対して適用するかを決定する際に参照される相関データが設定されている。 After performing the above classification, the color information of each surface data SD is determined using the color table CT as shown in FIG. 44 (c). The color table CT is stored in the memory module 133 in advance, and a plurality of color NOs. Data and these color numbers. The color information is set in a one-to-one correspondence with the data of. Further, in the color table CT, correlation data referred to when deciding which color information is applied to the surface data SD is set.

この場合、カラーNO.「7」は、上記透過光が少ない分類とされた面データSDに対して適用されるものである。一方、カラーNO.「1」〜「6」は、上記透過光が多い分類とされた面データSDに対して適用されるものであり、かかる分類の面データSDに対しては色情報が複数種類設定されている。当該分類の面データSDに対していずれの色情報を設定するかは、当該面データSDの向きによって決定されるのではなく、視点VDからのZ軸方向の距離によって決定される。 In this case, the color NO. "7" is applied to the surface data SD classified as having less transmitted light. On the other hand, color NO. "1" to "6" are applied to the surface data SD classified as having a large amount of transmitted light, and a plurality of types of color information are set for the surface data SD of the classification. .. Which color information is set for the surface data SD of the classification is not determined by the orientation of the surface data SD, but is determined by the distance in the Z-axis direction from the viewpoint VD.

詳細には、面データSDのうち一の隅角部分(例えば図38(a)の状態で見て左下角部分)の頂点データを基準頂点データとして、その基準頂点データのZ座標のデータが、第1段階の閾値である「Z1」以下である場合(すなわち「Z1」よりもZ座標が視点VDに近い場合)には色情報として「CL1」が選択され、第1段階の閾値である「Z1」よりも大きく且つ第2段階の閾値である「Z2」以下である場合には色情報として「CL2」が選択され、第2段階の閾値である「Z2」よりも大きく且つ第3段階の閾値である「Z3」以下である場合には色情報として「CL3」が選択される。そして、以下同様にして、各閾値の範囲に対応させて「CL4」及び「CL5」が選択され、上記基準頂点データのZ座標のデータが、第5段階の閾値である「Z5」よりも大きい場合には色情報として「CL6」が選択される。 Specifically, the vertex data of one corner portion (for example, the lower left corner portion when viewed in the state of FIG. 38 (a)) of the surface data SD is used as the reference threshold data, and the Z coordinate data of the reference vertex data is obtained. When it is equal to or less than "Z1" which is the threshold value of the first stage (that is, when the Z coordinate is closer to the viewpoint VD than "Z1"), "CL1" is selected as the color information, and the threshold value of the first stage is "Z1". When it is larger than "Z1" and equal to or less than "Z2" which is the threshold value of the second stage, "CL2" is selected as the color information, which is larger than "Z2" which is the threshold value of the second stage and is the third stage. When it is equal to or less than the threshold value "Z3", "CL3" is selected as the color information. Then, in the same manner below, "CL4" and "CL5" are selected corresponding to the range of each threshold value, and the Z coordinate data of the reference vertex data is larger than the threshold value "Z5" of the fifth stage. In that case, "CL6" is selected as the color information.

これら色情報「CL1」〜「CL6」は、後側ほど暗い色となるように設定されており、具体的には、色情報「CL1」は白色として設定され、色情報「CL6」は暗い青色として設定され、色情報「CL2」〜「CL5」はそれらの中間色として設定されている。また、色情報「CL7」は、色情報「CL6」よりも暗い色として設定されており、具体的には黒色に近い青色として設定されている。 These color information "CL1" to "CL6" are set so as to be darker toward the rear side. Specifically, the color information "CL1" is set as white and the color information "CL6" is dark blue. The color information "CL2" to "CL5" are set as intermediate colors thereof. Further, the color information "CL7" is set as a darker color than the color information "CL6", and specifically, it is set as a blue color close to black.

以下に、各面データSDに色情報を設定するための具体的な処理構成を説明する。 A specific processing configuration for setting color information in each surface data SD will be described below.

図45(a)は、VDP135にて実行される海面表示用の色情報設定処理を示すフローチャートである。海面表示用の色情報設定処理は、描画処理(図16)におけるステップS1009の色情報の設定処理にて実行される。また、海面表示用の色情報設定処理は、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。 FIG. 45A is a flowchart showing a color information setting process for sea level display executed by VDP135. The color information setting process for sea level display is executed in the color information setting process of step S1009 in the drawing process (FIG. 16). Further, the color information setting process for sea level display is started when either the sea level display start designation information or the sea level display update designation information is set in the drawing list this time.

先ずステップS2701では、上記適用カウンタの初期化処理を実行する。本処理において適用カウンタは、色情報の設定を行う対象の面データSDをVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては海面用オブジェクトPC19に含まれる面データSDの数に対応した数値情報が適用カウンタに設定される。 First, in step S2701, the initialization process of the application counter is executed. In this process, the application counter has a role of specifying the surface data SD of the target for which the color information is set by the VDP 135, and is included in the sea surface object PC 19 in the state where the application counter is initialized. Numerical information corresponding to the number of surface data SDs is set in the application counter.

続くステップS2702では、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2703にて、その把握した向きのデータから上記屈折角を算出する。そして、ステップS2704にて、その算出した屈折角が基準角度以上であるか否かを判定する。 In the following step S2702, the orientation data is grasped from the surface data SD corresponding to the current numerical information of the application counter in the sea surface object PC 19, and the refraction angle is calculated from the grasped orientation data in step S2703. Then, in step S2704, it is determined whether or not the calculated refraction angle is equal to or greater than the reference angle.

基準角度以上である場合には、ステップS2705にて、カラーテーブルCTにおけるカラーNO.7の色情報(「CL7」)を、今回対象となった面データSDに対して設定する。一方、基準角度未満である場合には、ステップS2706にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2707にて、カラーテーブルCTと照合することにより、対応するカラーNO.の色情報(「CL1」〜「CL6」のいずれか)を、今回対象となった面データSDに対して設定する。 If the angle is equal to or larger than the reference angle, in step S2705, the color No. in the color table CT is changed. The color information (“CL7”) of 7 is set for the surface data SD targeted this time. On the other hand, if it is less than the reference angle, the corresponding color NO is obtained by reading out the Z coordinate data of the surface data SD targeted this time in step S2706 and collating it with the color table CT in step S2707. .. Color information (any of "CL1" to "CL6") is set for the surface data SD targeted this time.

ステップS2705又はステップS2707の処理を実行した後は、ステップS2708にて、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2709にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。 After executing the process of step S2705 or step S2707, by subtracting 1 from the numerical information of the application counter in step S2708, the application counter so that the target for which the color information is set shifts to the next surface data SD. Update the numerical information of. After that, in step S2709, whether or not the numerical information of the applied counter after the update is information indicating that the setting of the color information for all the surface data SD is completed, that is, the numerical information of the applied counter is ". It is determined whether or not it is "0".

ステップS2709にて否定判定をした場合には、ステップS2702に戻り、新たな面データSDに対してステップS2702〜ステップS2708の処理を実行する。一方、ステップS2709にて肯定判定をした場合には、本色情報設定処理を終了する。 If a negative determination is made in step S2709, the process returns to step S2702, and the processes of steps S2702 to S2708 are executed for the new surface data SD. On the other hand, if an affirmative determination is made in step S2709, the main color information setting process is terminated.

図45(b)は、VDP135にて実行される海面用の調整処理を示すフローチャートである。当該海面用の調整処理は、描画処理(図16)におけるステップS1010の背景用の描画データ作成処理にて実行される。より詳細には、図27では省略するとともに説明も省略していたが、ステップS1802とステップS1803との間にて実行される。つまり、背景用の3次元画像データが2次元画像データに変換された後に、海面用の調整処理が実行される。 FIG. 45B is a flowchart showing a sea level adjustment process executed by VDP135. The adjustment process for the sea surface is executed in the drawing data creation process for the background in step S1010 in the drawing process (FIG. 16). More specifically, although it is omitted in FIG. 27 and the description is also omitted, it is executed between step S1802 and step S1803. That is, after the three-dimensional image data for the background is converted into the two-dimensional image data, the adjustment process for the sea surface is executed.

先ずステップS2711では、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されているか否かを判定する。いずれもが設定されていない場合には、そのまま本調整処理を終了する。いずれかが設定されている場合には、ステップS2712にて、海面のぼかし処理を実行した後に、本調整処理を終了する。 First, in step S2711, it is determined whether or not any of the sea level display start designation information and the sea level display update designation information is set in the current drawing list. If none of these are set, this adjustment process ends as it is. If any of them is set, the adjustment process is terminated after the sea surface blurring process is executed in step S2712.

海面のぼかし処理では、隠面処理(ステップS1802)を利用して作成された背景用の2次元画像データにおいて、ガウスフィルタを利用したぼかし処理を実行する。詳細には、海面表示に対応した領域から1のピクセルを抽出するとともに、そのピクセルを中心としてX軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンド(合成)を行う。また、同様に、同一のピクセルを中心としてY軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンドを行う。そして、海面表示に対応した領域を構成している全ピクセルに対して、上記ガウスフィルタを利用したぼかし処理を実行する。 In the sea surface blurring process, the blurring process using the Gaussian filter is executed in the two-dimensional image data for the background created by using the hidden surface processing (step S1802). Specifically, one pixel is extracted from the area corresponding to the sea level display, and a predetermined number (for example, five) of pixels are extracted on both sides in the X-axis direction with the pixel as the center. After that, the weighting according to the distance from the center pixel is determined by using the Gaussian function, and the color information of each pixel is blended (combined) with the determined weighting applied. Similarly, a predetermined number (for example, 5) of pixels are extracted on both sides in the Y-axis direction with the same pixel as the center. After that, the weighting according to the distance from the center pixel is determined by using the Gaussian function, and the color information of each pixel is blended with the determined weighting applied. Then, the blurring process using the Gaussian filter is executed for all the pixels constituting the area corresponding to the sea level display.

次に、海面表示の内容について、図46を参照しながら説明する。 Next, the contents of the sea level display will be described with reference to FIG. 46.

図46(a)は海面表示を説明するための説明図であり、図46(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。 FIG. 46A is an explanatory diagram for explaining the sea level display, and FIG. 46B is an explanatory diagram for simply explaining the setting mode of the color information in the region where the sea level display is performed. ..

図46(a)に示すように、複数の図柄が変動表示されている背景では、海中を示す画像が表示されている。この背景の上部にて海面表示SPがなされている。この場合、海面を表示させるための面データSDの向きが細かく制御されているとともに、その細かく制御された状態に応じた色情報が設定されていることにより、海面の向きが細かく表現されるとともに大気中から海中への光の透過がリアルに表現されている。よって、リアルな海面表示SPを行うことが可能となっている。 As shown in FIG. 46 (a), an image showing the sea is displayed in the background in which a plurality of symbols are variablely displayed. The sea level display SP is made at the upper part of this background. In this case, the orientation of the surface data SD for displaying the sea surface is finely controlled, and the color information is set according to the finely controlled state, so that the orientation of the sea surface is expressed in detail. The transmission of light from the atmosphere to the sea is realistically expressed. Therefore, it is possible to perform a realistic sea level display SP.

また、海面用オブジェクトPC19の第1段階の形態を設定した後に、各面データSDの向きを調整する構成であるため、海面の大きな動きは規則的なものとしながら、その規則的な大きな動きの中で各面データSDの向きに不規則性を与えることが可能となる。 Further, since the configuration is such that the direction of each surface data SD is adjusted after setting the form of the first stage of the sea surface object PC 19, the large movement of the sea surface is made regular, but the regular large movement is performed. It is possible to give irregularity to the orientation of each surface data SD.

また、各面データSDの動きを個別に制御する際には、法線マップデータND1,ND2を利用したことにより、各面データSDの向きを演算によって個別に変化させる必要が生じない。よって、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。特に、法線マップデータND1,ND2のワールド座標系における位置を変化させることにより、海面表示SPの進行に伴って各面データSDに対応付けられる単位法線データUNDを変更させる構成であるため、海面表示SPの進行に伴って面データSDの向きを複雑に変化させる場合において、同一の法線マップデータND1,ND2を利用し且つ同一の適用処理を利用することが可能となるため、記憶容量の削減及び処理負荷の軽減が図られる。 Further, when controlling the movement of each surface data SD individually, it is not necessary to individually change the orientation of each surface data SD by calculation by using the normal map data ND1 and ND2. Therefore, it is possible to achieve the above-mentioned excellent effect while reducing the processing load. In particular, by changing the positions of the normal map data ND1 and ND2 in the world coordinate system, the unit normal data UND associated with each surface data SD is changed as the sea surface display SP progresses. When the orientation of the surface data SD is complicatedly changed with the progress of the sea surface display SP, the same normal map data ND1 and ND2 can be used and the same application process can be used, so that the storage capacity can be used. And the processing load can be reduced.

また、海面用アニメーションデータADを利用した大まかな動きの決定は表示CPU131にて実行し、法線マップデータND1,ND2を利用した細かな面の向きの決定はVDP135にて実行する構成であるため、処理負荷の分散が図られる。 Further, since the rough movement determination using the sea level animation data AD is executed by the display CPU 131, and the fine surface orientation determination using the normal map data ND1 and ND2 is executed by the VDP135. , The processing load can be distributed.

また、既に説明したとおり、海面のぼかし処理が実行されることにより、図46(b)に示すように、光の透過がほとんどないことに対応した色情報が設定されたピクセルPS(左側のピクセルPS)と、光の透過が最もあることに対応した色情報が設定されたピクセルPS(右側のピクセルPS)との間には、これら両ピクセルPSの色情報をブレンドさせたピクセルPS(中央側のピクセルPS)が存在することとなる。これにより、海面表示SPを行っている領域にて個別に色情報が設定される構成において色情報が相違する部分の境界を目立たなくすることが可能となる。 Further, as already described, by executing the sea surface blurring process, as shown in FIG. 46 (b), the pixel PS (the pixel on the left side) in which the color information corresponding to the fact that there is almost no light transmission is set. Between the PS) and the pixel PS (pixel PS on the right side) in which the color information corresponding to the highest light transmission is set, the pixel PS (center side) in which the color information of both pixel PSs is blended. Pixel PS) will exist. As a result, it is possible to make the boundary of the portion where the color information is different inconspicuous in the configuration in which the color information is individually set in the area where the sea level display SP is performed.

また、2次元画像とした後に当該ぼかし処理を実行するため、3次元画像の状態でぼかし処理を実行する構成に比べて、処理負荷の軽減が図られる。 Further, since the blurring process is executed after the two-dimensional image is formed, the processing load can be reduced as compared with the configuration in which the blurring process is executed in the state of the three-dimensional image.

<海面表示用の色情報設定処理の別形態>
図47は、VDP135にて実行される海面表示用の色情報設定処理の別形態を説明するためのフローチャートである。
<Another form of color information setting processing for sea level display>
FIG. 47 is a flowchart for explaining another form of the color information setting process for sea level display executed by the VDP 135.

先ずステップS2801では、上記ステップS2701と同様に、適用カウンタの初期化処理を実行する。続くステップS2802では、上記ステップS2702と同様に、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2803にて、上記ステップS2703と同様に、その把握した向きのデータから屈折角を算出する。 First, in step S2801, the initialization process of the application counter is executed in the same manner as in step S2701. In the following step S2802, similarly to the above step S2702, the orientation data is grasped from the surface data SD corresponding to the current numerical information of the application counter in the sea surface object PC19, and in step S2803, as in the above step S2703, The refraction angle is calculated from the grasped orientation data.

続くステップS2804では、上記ステップS2803にて算出した屈折角の情報から色情報を導出する。この場合、色情報の導出に際しては、屈折角の情報と色情報とが対応付けられたカラーテーブルをメモリモジュール133から読み出し、屈折角の情報に対応した色情報を読み出す。つまり、本別形態では、屈折角の情報から直接的に色情報が読み出される。 In the following step S2804, color information is derived from the refraction angle information calculated in step S2803. In this case, when deriving the color information, the color table in which the refraction angle information and the color information are associated is read from the memory module 133, and the color information corresponding to the refraction angle information is read out. That is, in the present different form, the color information is directly read from the refraction angle information.

その後、ステップS2805にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2806にて、その読み出したZ座標のデータに対応した色情報の調整処理を実行する。この場合、視点VDから遠い距離に存在する面データSDほど、ステップS2804にて設定された色情報を暗い色側にシフトさせる場合のシフト量が大きくなる処理が実行される。 After that, in step S2805, the Z coordinate data of the surface data SD targeted this time is read out, and in step S2806, the color information adjustment process corresponding to the read Z coordinate data is executed. In this case, the more the surface data SD exists at a distance from the viewpoint VD, the larger the shift amount when shifting the color information set in step S2804 to the darker color side is executed.

続くステップS2807では、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2808にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2808にて否定判定をした場合には、ステップS2802に戻り、新たな面データSDに対してステップS2802〜ステップS2807の処理を実行する。一方、ステップS2808にて肯定判定をした場合には、本色情報設定処理を終了する。 In the following step S2807, the numerical information of the application counter is updated by subtracting 1 from the numerical information of the application counter so that the target for which the color information is set shifts to the next surface data SD. After that, in step S2808, whether or not the numerical information of the applied counter after the update is information indicating that the setting of the color information for all the surface data SD is completed, that is, the numerical information of the applied counter is ". It is determined whether or not it is "0". If a negative determination is made in step S2808, the process returns to step S2802 and the processes of steps S2802 to S2807 are executed for the new surface data SD. On the other hand, if an affirmative determination is made in step S2808, the main color information setting process is terminated.

<他の別形態>
・一の法線マップデータND1,ND2に含まれる単位法線データUNDの数が海面用オブジェクトPC19に含まれる面データSDの数以下である構成としてもよい。この場合、同一の法線マップデータND1,ND2を複数並べることにより、面データSDの全てに対して単位法線データUNDを対応付けるようにすればよい。
<Other forms>
The number of unit normal data UNDs included in one normal map data ND1 and ND2 may be less than or equal to the number of surface data SD included in the sea level object PC19. In this case, by arranging a plurality of the same normal map data ND1 and ND2 side by side, the unit normal data UND may be associated with all of the surface data SD.

・法線マップデータND1,ND2は複数種類設定されている必要はなく、単一の法線マップデータが設定されている構成としてもよい。この場合、海面表示に際して、当該単一の法線マップデータのみを海面用オブジェクトPC19に適用する構成としてもよい。当該構成であっても、海面用オブジェクトPC19に適用される法線マップデータの位置を変化させることで、海面表示の進行に伴って各面データSDの向きを変化させることが可能となる。また、当該単一の法線マップデータを複数同時に読み出すとともに、それら複数の法線マップデータにおいて海面用オブジェクトPC19に適用する位置を相互に異ならせることにより、複雑な面の向きの制御を可能とする構成としてもよい。 -It is not necessary that a plurality of types of normal map data ND1 and ND2 are set, and a single normal map data may be set. In this case, when displaying the sea level, only the single normal map data may be applied to the sea level object PC19. Even with this configuration, by changing the position of the normal map data applied to the sea level object PC 19, it is possible to change the direction of each surface data SD as the sea level display progresses. In addition, by reading out a plurality of the single normal map data at the same time and making the positions applied to the sea level object PC19 different from each other in the plurality of normal map data, it is possible to control the direction of a complicated surface. It may be configured to be used.

・法線マップデータND1,ND2の単位法線データUNDを適用する対象は、同一の頂点データを共有する複数の面データSDが同時に適用対象とならないように制限されている構成に限定されることはなく、全面データSDに対して単位法線データUNDを適用する構成としてもよい。但し、本構成においては、一の頂点データに対して異なる座標が同時に設定されることとなるため、その調整を別途行う必要がある。例えば、頂点データの座標設定を行う際の優先度を隣接する面データSD同士において予め定めておき、優先度が高い面データSDについては単位法線データUNDをそのまま適用し、優先度が低い面データSDについては優先度が高い面データSDにより決定される頂点データの座標を維持しながら、第1段階の形態の状態よりも自身に適用される単位法線データUNDにより決定される向きに近付けるように調整する構成としてもよい。 -The target to which the unit normal data UND of the normal map data ND1 and ND2 is applied is limited to the configuration in which a plurality of surface data SDs sharing the same vertex data are restricted so as not to be applied at the same time. However, the unit normal data UND may be applied to the full-scale data SD. However, in this configuration, different coordinates are set for one vertex data at the same time, so it is necessary to adjust them separately. For example, the priority when setting the coordinates of the vertex data is set in advance between adjacent surface data SDs, and the unit normal data UND is applied as it is to the surface data SD with high priority, and the surface with low priority is applied as it is. For the data SD, while maintaining the coordinates of the vertex data determined by the high-priority surface data SD, the orientation is closer to the direction determined by the unit normal data UND applied to itself than the state of the first stage form. It may be configured to be adjusted as follows.

・各面データSDに対する色情報の設定は、カラーテーブルCTを利用した設定の仕方や、上記図47に示した設定の仕方に限定されることはなく、例えば、描画処理(図16)のライティング処理にて仮想光源を、海面用オブジェクトPC19を挟んで視点VDの反対側に設定し、その仮想光源からの光の透過量を各面データSDについて個別に算出する構成としてもよい。この場合、光の透過量に応じた色情報を、予め定められたテーブル情報を利用して導出し、その導出結果の色情報を各面データSDに設定する構成が考えられる。また、各面データSDに対して初期の色情報が予め設定されており、その色情報を上記算出した透過量との関係で調整する構成が考えられる。 The setting of the color information for each surface data SD is not limited to the setting method using the color table CT and the setting method shown in FIG. 47. For example, the lighting of the drawing process (FIG. 16). In the process, the virtual light source may be set on the opposite side of the viewpoint VD with the sea surface object PC 19 interposed therebetween, and the amount of light transmitted from the virtual light source may be calculated individually for each surface data SD. In this case, it is conceivable to derive color information according to the amount of transmitted light by using predetermined table information, and set the color information of the derived result in each surface data SD. Further, it is conceivable that the initial color information is set in advance for each surface data SD, and the color information is adjusted in relation to the calculated transmission amount.

・海面用オブジェクトPC19が視点VDの上方に設定されている構成に限定されることはなく、海面用オブジェクトPC19が視点VDの下方に設定されている構成としてもよい。この場合、各面データSDの向きを上記各手法により決定した後に、それら各面データSDの向きが光を反射し易い向きであれば明るい色情報を設定し、それら各面データSDの向きが光を透過し易い向きであれば暗い色情報を設定する。この設定に際しては、予め用意されたテーブル情報を利用してもよく、仮想光源を利用して実際に算出する構成としてもよい。 The sea level object PC 19 is not limited to the configuration set above the viewpoint VD, and the sea surface object PC 19 may be set below the viewpoint VD. In this case, after the orientation of each surface data SD is determined by each of the above methods, bright color information is set if the orientation of each surface data SD is an orientation that easily reflects light, and the orientation of each surface data SD is set. Set dark color information if the direction is such that light can easily pass through. In this setting, the table information prepared in advance may be used, or the configuration may be configured to actually calculate using a virtual light source.

・導出した屈折角が所定の角度以下である面データSDについては、視点VDからのZ軸方向の距離に関係なく、最も明るい色情報を設定する構成としてもよい。また、これに代えて、導出した屈折角が所定の角度以下である面データSDについては、他の屈折角の場合よりも明るい色情報を設定するとともに、その色情報をベースとして、視点VDからのZ軸方向の距離が遠いほど暗くなるように色情報の調整を行うようにしてもよい。 -For the surface data SD in which the derived refraction angle is equal to or less than a predetermined angle, the brightest color information may be set regardless of the distance in the Z-axis direction from the viewpoint VD. Instead of this, for the surface data SD in which the derived refraction angle is equal to or less than a predetermined angle, brighter color information than in the case of other refraction angles is set, and the color information is used as a base from the viewpoint VD. The color information may be adjusted so that the farther the distance in the Z-axis direction is, the darker the color information is.

・上記のように面の向きを制御して色情報を設定する処理構成は、海面である必要はなく、川や池といった他の水面であってもよい。また、経時的に面の状態を変化させる透過膜や、反射膜を表現する際に、上記のような面の向きを制御して色情報を設定する処理構成を適用してもよい。 -The processing configuration for controlling the orientation of the surface and setting the color information as described above does not have to be the sea surface, but may be another water surface such as a river or a pond. Further, when expressing a transmissive film or a reflective film that changes the state of the surface over time, a processing configuration for controlling the orientation of the surface and setting color information as described above may be applied.

・マップデータを利用して制御するパラメータの対象は、向きや座標に限定されることはなく、面の色や面の透明値であってもよい。 -The target of the parameter controlled by using the map data is not limited to the direction and the coordinates, and may be the color of the surface or the transparency value of the surface.

・法線マップデータND1,ND2に含まれる単位法線データUNDの数が、海面用オブジェクトPC19に含まれる面データSDの数よりも少ない構成としてもよい。この場合、一の法線マップデータND1,ND2を海面用オブジェクトPC19における所定数の面データSDに対して適用するとともに、同一の法線マップデータND1,ND2を残りの面データSDに対して再度適用すればよい。 The number of unit normal data UNDs included in the normal map data ND1 and ND2 may be smaller than the number of surface data SD included in the sea level object PC19. In this case, one normal map data ND1 and ND2 are applied to a predetermined number of surface data SDs in the sea surface object PC19, and the same normal map data ND1 and ND2 are applied to the remaining surface data SD again. You can apply it.

・法線パラメータの設定処理(図43)にて、ステップS2606の処理、すなわち隣接する面データの調整処理が実行されない構成としてもよい。この場合、緩衝用の面データSD2については、当該面データSD2が有する複数の頂点データのうち、適用対象の面データSD1と共有している頂点データは法線マップデータND1,ND2の適用に伴い変更されるが、共有していない頂点データは第1段階の形態において設定されている座標が維持される。この場合であっても、緩衝用の面データSD2の向きやサイズは、適用対象の面データSD1の向きやサイズの変更に応じて変更されることとなる。 In the normal parameter setting process (FIG. 43), the process of step S2606, that is, the adjustment process of the adjacent surface data may not be executed. In this case, regarding the surface data SD2 for buffering, among the plurality of vertex data possessed by the surface data SD2, the vertex data shared with the surface data SD1 to be applied is associated with the application of the normal map data ND1 and ND2. The coordinates set in the first stage form are maintained for the vertex data that is changed but not shared. Even in this case, the orientation and size of the cushioning surface data SD2 will be changed according to the change in the orientation and size of the surface data SD1 to be applied.

・面データSDの向きを直接制御する法線マップデータND1,ND2に代えて、海面用オブジェクトPC19の各頂点データの座標を直接制御するマップデータを用いる構成としてもよい。この場合、当該マップデータを海面用オブジェクトPC19に適用することで、頂点データの座標が変更され、その変更の結果として面データSDの向きが変更されることとなる。本構成であれば、制御対象が面ではなく頂点となるため、法線マップデータND1,ND2を利用していた場合のような適用対象の面データSD1と緩衝用の面データSD2との切り分けを行う必要がなくなる。なお、マップデータにおいて設定される各頂点データの制御量は、第1段階の形態における座標からの変化量であることが好ましい。 -Instead of the normal map data ND1 and ND2 that directly control the orientation of the surface data SD, map data that directly controls the coordinates of each vertex data of the sea surface object PC 19 may be used. In this case, by applying the map data to the sea surface object PC 19, the coordinates of the vertex data are changed, and as a result of the change, the orientation of the surface data SD is changed. In this configuration, the control target is not a surface but a vertex, so it is possible to separate the surface data SD1 to be applied and the surface data SD2 for buffering as in the case where the normal map data ND1 and ND2 are used. You don't have to do it. The amount of control of each vertex data set in the map data is preferably the amount of change from the coordinates in the form of the first stage.

・海面用オブジェクトPC19が複数の面データ群に区別されている構成は必須ではなく、このような区別がなされていない構成としてもよい。この場合、法線マップデータND1,ND2などを利用して海面用オブジェクトPC19の各面データSDのそれぞれ個別に制御されることとなる。 -A configuration in which the sea level object PC 19 is distinguished into a plurality of surface data groups is not essential, and a configuration in which such a distinction is not made may be used. In this case, each surface data SD of the sea surface object PC 19 is individually controlled by using the normal map data ND1, ND2, and the like.

・同一の更新タイミングにおいて、面データ群単位での制御を行うことに基づく第1段階の形態の設定と、法線マップデータND1,ND2などを利用した面データSDの向きの個別の制御との両方を行う構成に限定されることはなく、例えば一の更新タイミングにおいて上記第1段階の形態の設定を行い、次以降の更新タイミングにおいて面データSDの向きの個別の制御を行い、さらにそれらを繰り返していく構成としてもよい。この場合、一の更新タイミングにおける処理負荷の軽減が図られる。 -At the same update timing, the setting of the first stage form based on the control in units of the surface data group and the individual control of the orientation of the surface data SD using the normal map data ND1, ND2, etc. The configuration is not limited to both, for example, the first stage form is set at one update timing, the orientation of the surface data SD is individually controlled at the next and subsequent update timings, and further, these are performed. It may be a structure that repeats. In this case, the processing load at one update timing can be reduced.

・視点VDからのZ軸方向の距離に応じて色情報を選択する構成に限定されることはなく、X座標、Y座標及びZ座標により定まる視点VDからの距離に応じて色情報を選択する構成としてもよい。また、これに代えて、視点VDからのX軸方向の距離に応じて色情報を選択する構成としてもよく、Y軸方向の距離に応じて色情報を選択する構成としてもよい。また、視点VDからの距離ではなく、対象となるオブジェクトの回転位置やスケールに応じて色情報を選択する構成としてもよい。 -The color information is not limited to the configuration in which the color information is selected according to the distance in the Z-axis direction from the viewpoint VD, and the color information is selected according to the distance from the viewpoint VD determined by the X coordinate, the Y coordinate and the Z coordinate. It may be configured. Alternatively, the color information may be selected according to the distance in the X-axis direction from the viewpoint VD, or the color information may be selected according to the distance in the Y-axis direction. Further, the color information may be selected according to the rotation position and scale of the target object instead of the distance from the viewpoint VD.

<ピント表示を行うための構成>
次に、ピント表示を行うための構成について説明する。
<Configuration for focusing display>
Next, a configuration for performing focus display will be described.

ピント表示とは、表示面Gにおいて複数種類の個別画像が、表示面Gの奥行き方向の位置がそれぞれ異なるかのようにして同時に表示される場合において、奥行き方向の所定の位置又は範囲に存在している個別画像にピントが合い、当該個別画像については模様の境界や曲り部分の境界、さらに外縁部分が鮮明に表示されるのに対して、それよりも手前側及び奥側に存在しているかのようにして表示されている個別画像についてはピントがずれていて、模様の境界や曲り部分の境界、さらには外縁部分が不鮮明となってぼかした状態で表示される表示演出のことである。 In the focus display, when a plurality of types of individual images are simultaneously displayed on the display surface G as if the positions of the display surface G in the depth direction are different from each other, they exist at a predetermined position or range in the depth direction. The individual image is in focus, and for the individual image, the boundary of the pattern, the boundary of the curved part, and the outer edge part are clearly displayed, but are they present on the front side and the back side of the individual image? The individual image displayed in this way is out of focus, and the boundary of the pattern, the boundary of the curved part, and the outer edge part are blurred and displayed in a blurred state.

ピント表示は、遊技回中及び開閉実行モード中のうち相対的に画像表示に要する処理負荷が低い開閉実行モード中に実行される。つまり、遊技回中においては、各図柄列SA1〜SA3において予め定められたアニメーションデータに従って図柄の変動表示を行う必要があるのに起因して、表示CPU131のタスク処理(図14)ではステップS903〜ステップS905の処理が少なくとも実行される。その一方、開閉実行モード中においては、各図柄列SA1〜SA3において図柄の変動表示を行う必要がないため、表示CPU131のタスク処理(図14)ではステップS903及びステップS904は実行されるが、ステップS905は実行されない。この分だけ、開閉実行モード中においては表示CPU131の処理負荷が軽減されているため、その軽減されている分を利用して、ピント表示用の制御が実行される。 The focus display is executed during the opening / closing execution mode in which the processing load required for image display is relatively low among the game rotation and the opening / closing execution mode. That is, during the game round, it is necessary to display the variation of the symbol according to the animation data predetermined in each of the symbol rows SA1 to SA3. Therefore, in the task process (FIG. 14) of the display CPU 131, steps S903 to At least the process of step S905 is executed. On the other hand, in the open / close execution mode, it is not necessary to display the fluctuation of the symbol in each of the symbol rows SA1 to SA3. Therefore, in the task process (FIG. 14) of the display CPU 131, steps S903 and S904 are executed, but the step. S905 is not executed. Since the processing load of the display CPU 131 is reduced by this amount in the open / close execution mode, the control for focus display is executed by utilizing the reduced amount.

図48は、表示CPU131にて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。開閉実行モード時の演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、開閉実行モード時の演出用演算処理は、開閉実行モードに対応したデータテーブルが設定されている場合に起動される。 FIG. 48 is a flowchart showing an effect calculation process in the open / close execution mode executed by the display CPU 131. The effect calculation process in the open / close execution mode is executed by the effect calculation process in step S904 of the task process (FIG. 14). Further, the effect calculation process in the open / close execution mode is started when the data table corresponding to the open / close execution mode is set.

先ずステップS2901では、現状設定されているデータテーブルに基づいて、今回の更新対象となる演出用のオブジェクトを把握する。ちなみに、ステップS2901の処理の実行タイミングでは、上記演出用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2902では、その把握した演出用のオブジェクトの各種パラメータを演算して制御用の情報を更新する。 First, in step S2901, the object for the effect to be updated this time is grasped based on the currently set data table. Incidentally, at the execution timing of the process of step S2901, the setting process for starting control (step S901) for the object for the effect is completed. In the following step S2902, various parameters of the grasped object for the effect are calculated and the information for control is updated.

続くステップS2903では、現状設定されているデータテーブルに基づいて、今回の更新対象となる教示用のオブジェクトを把握する。教示用のオブジェクトとは、遊技の状況を遊技者に教示可能とする画像を表示する場合に利用されるオブジェクトのことであり、例えばラウンド中であれば、現状のラウンドが何番目のラウンドであるかといった内容が教示用のオブジェクトを用いて教示される(図52参照)。また、開閉実行モードへの移行の契機となった遊技回において有効ライン上に最終停止表示された図柄の組合せの種類の情報が教示用のオブジェクトを用いて教示される(図52参照)。ちなみに、ステップS2903の処理の実行タイミングでは、上記教示用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2904では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 In the following step S2903, the teaching object to be updated this time is grasped based on the currently set data table. The teaching object is an object used when displaying an image that enables the player to be taught the situation of the game. For example, if the game is in the middle of a round, the current round is the number of the round. The contents such as "" are taught using the object for teaching (see FIG. 52). In addition, information on the type of symbol combination displayed on the effective line in the game round that triggered the transition to the open / close execution mode is taught using the teaching object (see FIG. 52). Incidentally, at the execution timing of the process of step S2903, the setting process for starting control (step S901) for the object for teaching is completed. In the following step S2904, various parameters of the grasped object are calculated and the control information is updated.

続くステップS2905では、現状設定されているデータテーブルに基づいて、開閉実行モードにおけるピント演出期間であるか否かを判定する。ピント演出期間は、遊技者による演出用操作装置48の操作に基づきピント表示を行うことが可能な期間のことである。本パチンコ機10では、開閉実行モードの一部の期間としてピント演出期間が設定されており、具体的には第1ラウンド目といった所定のラウンド(すなわち可変入賞装置22への入賞が可能となる期間)にピント演出期間が設定されている。但し、これに限定されることはなく、複数のラウンドに対してピント演出期間が設定されていてもよく、オープニングやエンディングにおいてピント演出期間が設定されていてもよく、ラウンド間にピント演出期間が設定されていてもよく、所定のラウンドとその次のラウンドに亘ってピント演出期間が設定されていてもよく、開閉実行モードの全体がラウンド演出期間として設定されていてもよい。 In the following step S2905, it is determined whether or not the focus effect period is in the open / close execution mode based on the currently set data table. The focus effect period is a period during which the focus display can be performed based on the operation of the effect operation device 48 by the player. In this pachinko machine 10, a focus effect period is set as a part of the opening / closing execution mode, and specifically, a predetermined round such as the first round (that is, a period during which a prize can be won in the variable winning device 22). ) Has a focus effect period. However, the present invention is not limited to this, and the focus effect period may be set for a plurality of rounds, the focus effect period may be set at the opening or the ending, and the focus effect period may be set between rounds. It may be set, the focus effect period may be set over a predetermined round and the next round, and the entire open / close execution mode may be set as the round effect period.

ピント演出期間ではない場合(ステップS2905:NO)には、そのまま本演出用演算処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。 If it is not the focus effect period (step S2905: NO), the present effect calculation process is terminated as it is. When the effect calculation process in the open / close execution mode is executed in this way, the drawing list created in the subsequent drawing list output process is instructed to use the effect object grasped in step S2901 above. Information is set along with information on the texture usage instructions for those objects. Further, the parameters calculated in step S2902 are set in the drawing list, and the information of the instruction to use the teaching object grasped in step S2903 is set, and in step S2904. The calculated parameters are set.

ピント演出期間である場合(ステップS2905:YES)には、ステップS2906にて、ピント選択期間であるか否かを判定する。ピント演出期間には、その開始タイミングから300フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って遊技者によってピントを選択可能とするピント選択期間が設定されている。当該ピント選択期間にて遊技者によるピント選択指示が演出用操作装置48の操作に基づきなされた場合に、ピント表示実行期間が行われるように設定されている。このピンと表示実行期間は、実行対象となっているラウンドの終了まで行われる。ピント選択期間にてピント選択の対象となる個別画像は、その後に続くピント表示実行期間においても表示が継続されるため、ピント選択期間におけるピント選択の結果を反映したピント表示を実行することが可能となる。 When it is the focus effect period (step S2905: YES), it is determined in step S2906 whether or not it is the focus selection period. In the focus effect period, a focus selection period is set so that the player can select the focus over a predetermined number of frames (predetermined plurality of image update timings) such as 300 frames from the start timing. When the player gives an instruction to select a focus in the focus selection period based on the operation of the effect operation device 48, the focus display execution period is set to be performed. This pin and display execution period will continue until the end of the round being executed. Since the individual images that are the target of focus selection during the focus selection period continue to be displayed during the subsequent focus display execution period, it is possible to execute focus display that reflects the result of focus selection during the focus selection period. It becomes.

なお、ピント表示実行期間は、少なくとも500フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って実行される。また、所定のラウンドがピント選択期間として設定されており、それ以降のラウンドがピント表示実行期間として設定されている構成としてもよい。 The focus display execution period is executed over a predetermined number of frames (predetermined plurality of image update timings) such as at least 500 frames. Further, a predetermined round may be set as a focus selection period, and subsequent rounds may be set as a focus display execution period.

ピント選択期間である場合(ステップS2906:YES)には、ステップS2907にて、ピント選択用のパラメータ調整処理を実行するとともに、ステップS2908にて、ピント選択の実行指定情報を記憶した後に、本演出用演算処理を終了する。 In the case of the focus selection period (step S2906: YES), the parameter adjustment process for focus selection is executed in step S2907, and the execution designation information for focus selection is stored in step S2908. Ends the arithmetic processing.

上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2901にて把握された演出用のオブジェクトのパラメータとして、ピント選択用のパラメータが設定されるとともに、ピント選択の実行指定情報が設定される。 When the effect calculation process in the open / close execution mode is executed as described above, the drawing list created in the subsequent drawing list output process is instructed to use the effect object grasped in step S2901 above. Information is set along with information on the usage instructions of the texture corresponding to those objects. Further, the parameters calculated in step S2902 are set in the drawing list, and the information of the instruction to use the teaching object grasped in step S2903 is set, and in step S2904. The calculated parameters are set. Further, in the drawing list, the parameters for focus selection are set as the parameters of the object for effect grasped in step S2901, and the execution designation information for focus selection is set.

ここで、ピント選択期間においては、表示面Gにてピント選択を可能とする個別画像が除々に切り換えられていると遊技者が認識可能な表示が行われる。例えば、複数の個別画像が表示面Gの奥行き方向にずれて配置されているかのように同時に表示されている状態において、それら複数の個別画像が順次、ピント選択可能状態へと遷移される。このピント選択可能状態とする方法は任意であるが、例えば個別画像の周縁を囲むようにして環状部を表示させるとともに、その環状部を点滅表示させる構成や、個別画像を拡大表示させる構成や、個別画像を拡大させた後に縮小表示させる構成や、個別画像を指し示す別画像を表示させる構成が考えられる。このようなピント選択可能状態の表示は、ピント選択の実行指定情報が設定された描画リストが出力されている状況において、VDP135にて上記ピント選択用のパラメータが参照されることで実行される。 Here, during the focus selection period, the display is performed so that the player can recognize that the individual images that enable the focus selection are gradually switched on the display surface G. For example, in a state where a plurality of individual images are displayed at the same time as if they are arranged so as to be offset in the depth direction of the display surface G, the plurality of individual images are sequentially transitioned to a focus selectable state. The method of making the focus selectable state is arbitrary, but for example, a configuration in which the annular portion is displayed so as to surround the periphery of the individual image and the annular portion is blinked, a configuration in which the individual image is enlarged and displayed, or an individual image is displayed. A configuration in which the image is enlarged and then reduced is displayed, or a configuration in which another image pointing to an individual image is displayed is conceivable. Such display of the focus selectable state is executed by referring to the above parameter for focus selection in VDP135 in the situation where the drawing list in which the execution designation information of focus selection is set is output.

なお、本パチンコ機10においては、ピント選択が可能となる個別画像は背景の手前にて表示される演出用の個別画像であるが、背景の画像が含まれていてもよい。 In the pachinko machine 10, the individual image that enables focus selection is an individual image for effect displayed in front of the background, but a background image may be included.

一方、ピント選択期間ではない場合(ステップS2906:NO)には、ステップS2909に進む。ステップS2909では、ピント表示の実行中であるか否かを判定する。ピント表示の実行中ではない場合には、ステップS2910にて、音声発光制御装置60からピント指示コマンドを受信しているか否かを判定する。ピント指示コマンドは、ピント選択期間にて遊技者によるピント選択指示がなされた場合において、当該ピント選択期間の終了タイミングにて音声発光制御装置60から送信されるコマンドであり、当該ピント指示コマンドにはピント選択指示された個別画像の情報が含まれる。 On the other hand, if it is not the focus selection period (step S2906: NO), the process proceeds to step S2909. In step S2909, it is determined whether or not the focus display is being executed. If the focus display is not being executed, it is determined in step S2910 whether or not a focus instruction command has been received from the voice emission control device 60. The focus instruction command is a command transmitted from the voice emission control device 60 at the end timing of the focus selection period when the player gives a focus selection instruction during the focus selection period, and the focus instruction command includes the focus instruction command. The information of the individual image for which the focus selection is instructed is included.

ステップS2910にて否定判定をした場合には、そのまま本処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、上記ステップS2905にて否定判定をして本演出用演算処理を終了した場合と同様の情報が設定される。 If a negative determination is made in step S2910, this process ends as it is. When the effect calculation process in the open / close execution mode is executed in this way, the drawing list created in the subsequent drawing list output process is negatively determined in step S2905 above, and the effect calculation process ends. The same information as when is set.

ステップS2910にて肯定判定をした場合には、ステップS2911にてピント範囲の算出処理を実行する。ピント範囲の算出処理では、ピント指示コマンドに含まれているピント選択指示対象の個別画像の情報からピントを合わせる範囲を算出する処理を実行する。この場合、ピント演出期間にて表示される個別画像の種類は、パチンコ機10の設計段階において既に定められているため、ピント選択対象となる個別画像に1対1で対応させてピント範囲のデータがピント範囲テーブルとして予め定められている。したがって、ステップS2911では、先ずメモリモジュール133からピント範囲テーブルを読み出し、上記ピント選択指示対象となった個別画像に対応したピント範囲のデータを読み出す。その後、ステップS2912にて、ピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。 If an affirmative determination is made in step S2910, the focus range calculation process is executed in step S2911. In the focus range calculation process, a process of calculating the focus range from the information of the individual image of the focus selection referent included in the focus instruction command is executed. In this case, since the type of the individual image displayed during the focus effect period has already been determined at the design stage of the pachinko machine 10, the focus range data is associated with the individual image to be the focus selection target on a one-to-one basis. Is predetermined as a focus range table. Therefore, in step S2911, first, the focus range table is read from the memory module 133, and the data in the focus range corresponding to the individual image targeted for the focus selection instruction is read. After that, in step S2912, after storing the execution designation information of the focus effect, the calculation process for the present effect is terminated.

上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2911にて算出したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が記憶される。 When the effect calculation process in the open / close execution mode is executed as described above, the drawing list created in the subsequent drawing list output process is instructed to use the effect object grasped in step S2901 above. Information is set along with information on the usage instructions of the texture corresponding to those objects. Further, the parameters calculated in step S2902 are set in the drawing list, and the information of the instruction to use the teaching object grasped in step S2903 is set, and in step S2904. The calculated parameters are set. Further, in the drawing list, the data of the focus range calculated in step S2911 is set, and the execution designation information of the focus effect is stored.

ステップS2910にて肯定判定をした場合には、ピント表示の実行状態となる。このピント表示の実行状態への設定は、例えばデータテーブルにおいてピント表示の実行状態か否かを区別するためのフラグに「1」をセットすることなどによって行われる。ピント表示の実行状態となった場合には、ステップS2909にて肯定判定をし、ステップS2912にてピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。 If an affirmative determination is made in step S2910, the focus display is in the execution state. The setting to the execution state of the focus display is performed, for example, by setting "1" in the flag for distinguishing whether or not the focus display is the execution state in the data table. When the focus display is in the execution state, an affirmative determination is made in step S2909, the execution designation information of the focus effect is stored in step S2912, and then the calculation process for this effect is terminated.

このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、今回のピント演出に対応したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が設定される。 When the effect calculation process in the open / close execution mode is executed in this way, the drawing list created in the subsequent drawing list output process is instructed to use the effect object grasped in step S2901 above. Information is set along with information on the texture usage instructions for those objects. Further, the parameters calculated in step S2902 are set in the drawing list, and the information of the instruction to use the teaching object grasped in step S2903 is set, and in step S2904. The calculated parameters are set. Further, in the drawing list, the data of the focus range corresponding to the current focus effect is set, and the execution designation information of the focus effect is set.

VDP135では、表示CPU131から送信される描画リストに基づいて、ピント選択期間用の画像表示を行うとともに、ピント表示実行期間用の画像表示を行う。この場合、ピント選択期間用の画像表示については、ピント選択用のパラメータを参照しながら描画処理(図16)を実行することに基づき、既に説明したようなピント選択可能状態となる個別画像が順次切り換わるような画像表示が行われる。一方、ピント表示実行期間用の画像表示は、3次元画像データの状態から2次元画像データの状態に移行させる処理が実行された後に、ピントを調整するための処理が実行されることにより行われる。 The VDP 135 displays an image for the focus selection period and displays an image for the focus display execution period based on the drawing list transmitted from the display CPU 131. In this case, regarding the image display for the focus selection period, the individual images that are in the focus selectable state as described above are sequentially arranged based on the drawing process (FIG. 16) while referring to the focus selection parameter. An image display that switches is performed. On the other hand, the image display for the focus display execution period is performed by executing the process for adjusting the focus after the process of shifting from the state of the three-dimensional image data to the state of the two-dimensional image data is executed. ..

以下、VDP135においてピントを調整するための具体的な構成について説明する。図49(a)は、VDP135においてピントを調整する上で用いられるVRAM134の各エリアを説明するための説明図である。 Hereinafter, a specific configuration for adjusting the focus in the VDP 135 will be described. FIG. 49A is an explanatory diagram for explaining each area of the VRAM 134 used for adjusting the focus in the VDP 135.

図49(a)に示すように、VRAM134には、第1フレーム領域142a及び第2フレーム領域142bを有するフレームバッファ142と、Zバッファ143とが設けられている。これら各バッファ142,143については既に説明したとおりであり、フレームバッファ142の各フレーム領域142a,142bには、図柄表示装置31への描画を実行する際に参照される2次元データである描画データが作成され、Zバッファ143は、隠面処理(図18)を実行する際にZ軸方向の座標データを一時的に記憶するために利用される。 As shown in FIG. 49 (a), the VRAM 134 is provided with a frame buffer 142 having a first frame area 142a and a second frame area 142b, and a Z buffer 143. These buffers 142 and 143 have already been described, and the frame areas 142a and 142b of the frame buffer 142 are drawing data which are two-dimensional data referred to when drawing to the symbol display device 31. Is created, and the Z buffer 143 is used to temporarily store the coordinate data in the Z-axis direction when executing the hidden surface processing (FIG. 18).

VRAM134には、上記各バッファ142,143以外にも、VDP135においてピントを調整するためのエリアとして、ぼかし用バッファ181が設けられている。ぼかし用バッファ181は、フレーム領域142a,142bと同一数の単位エリアを有している。つまり、各フレーム領域142a,142bは相互に同一数の単位エリアを有しており、それと同一の数の単位エリアを、ぼかし用バッファ181は有している。ぼかし用バッファ181は、一のフレーム領域に作成されている描画リストをそのままの状態で一時記憶することが可能となっている。 In addition to the buffers 142 and 143 described above, the VRAM 134 is provided with a blur buffer 181 as an area for adjusting the focus in the VDP 135. The blur buffer 181 has the same number of unit areas as the frame areas 142a and 142b. That is, each of the frame areas 142a and 142b has the same number of unit areas as each other, and the blur buffer 181 has the same number of unit areas. The blur buffer 181 can temporarily store the drawing list created in one frame area as it is.

なお、描画リストをそのままの状態で一時記憶させることができるのであれば、ぼかし用バッファ181における単位エリアの数は、一のフレーム領域が有する単位エリアの数よりも多くてもよい。 If the drawing list can be temporarily stored as it is, the number of unit areas in the blur buffer 181 may be larger than the number of unit areas possessed by one frame area.

VDP135においてピントを調整するための処理は、描画処理(図16)におけるステップS1012の描画データ合成処理にて実行される。図49(b)は、描画データ合成処理を示すフローチャートである。 The process for adjusting the focus in the VDP 135 is executed in the drawing data synthesis process in step S1012 in the drawing process (FIG. 16). FIG. 49B is a flowchart showing the drawing data synthesis process.

描画データ合成処理では、先ずステップS3001にて、今回の描画リストにおいてピント演出の実行指定情報が設定されているか否かを判定する。設定されていない場合には、ステップS3002に進む。 In the drawing data synthesis process, first, in step S3001, it is determined whether or not the execution designation information of the focus effect is set in the current drawing list. If it is not set, the process proceeds to step S3002.

ステップS3002では、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。その後、ステップS3003にて、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込んだ後に、本合成処理を終了する。 In step S3002, the background drawing data already created in the immediately preceding step S1010 and stored in the screen buffer 144 is written in the frame areas 142a and 142b to be drawn this time. After that, in step S3003, the drawing data for the effect and the design already created in the immediately preceding step S1011 and stored in the screen buffer 144 is written in the frame area 142a in which the drawing data for the background is written as described above. , 142b, and then the synthesis process is terminated.

この場合においてα値を参照しながら演出及び図柄用の描画データが書き込まれることは、既に説明したとおりである。また、開閉実行モードにおいては、演出及び図柄用の描画データにおいて図柄は存在しておらず、演出用の個別画像に対応したデータのみが存在している。さらにまた、開閉実行モードにおいては、演出及び図柄用の描画データに、教示用のオブジェクトに対して教示用のテクスチャを貼り付けることに基づき作成された教示用の個別画像のデータが含まれており、当該教示用の個別画像のデータに対しては他の個別画像のデータが手前側から重なることがないように演出及び図柄用の描画データが作成されている。 In this case, the drawing data for the effect and the design is written while referring to the α value, as described above. Further, in the open / close execution mode, the symbol does not exist in the drawing data for the effect and the pattern, and only the data corresponding to the individual image for the effect exists. Furthermore, in the open / close execution mode, the drawing data for the effect and the design includes the data of the individual image for teaching created based on pasting the texture for teaching to the object for teaching. For the data of the individual image for the teaching, the drawing data for the effect and the design is created so that the data of the other individual images does not overlap from the front side.

一方、今回の描画リストにおいてピント演出の実行指定情報が設定されている場合には、ステップS3004に進む。ステップS3004では、上記ステップS3002と同様に、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。続くステップS3005では、上記ステップS3003と同様に、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込む。その後、ステップS3006にて、ピント演出用の調整処理を実行した後に、本合成処理を終了する。 On the other hand, if the execution designation information of the focus effect is set in the drawing list this time, the process proceeds to step S3004. In step S3004, similarly to step S3002, the background drawing data already created in the immediately preceding step S1010 and stored in the screen buffer 144 is written in the frame areas 142a and 142b to be drawn this time. In the following step S3005, similarly to the above step S3003, the drawing data for the background is written as the drawing data for the effect and the design already created in the immediately preceding step S1011 and stored in the screen buffer 144. Write to the frame areas 142a and 142b. Then, in step S3006, after performing the adjustment process for focusing effect, the present synthesis process is terminated.

図50(a)はピント演出用の調整処理を示すフローチャートである。 FIG. 50A is a flowchart showing an adjustment process for focusing effect.

ピント演出用の調整処理では、先ずステップS3101〜ステップS3107にて、ピント演出を実行するために参照するぼかしマップデータを作成するためのぼかしマップ作成処理を実行する。ぼかしマップデータは、2次元画像データである描画データにおいて、当該描画データが作成されているフレーム領域142a,142bの各単位エリアに設定された色情報が、3次元画像データの状況にてどのようなZ軸方向の座標を有していたのかをVDP135にて特定するためのマップデータである。つまり、フレーム領域142a,142bの各単位エリアに1対1で対応させてZ軸方向の座標データが設定されたデータである。 In the adjustment process for the focus effect, first, in steps S3101 to S3107, the blur map creation process for creating the blur map data to be referred to for executing the focus effect is executed. The blur map data is the drawing data that is two-dimensional image data, and how the color information set in each unit area of the frame areas 142a and 142b where the drawing data is created is in the situation of the three-dimensional image data. It is map data for specifying by VDP135 whether or not it had the coordinates in the Z-axis direction. That is, it is the data in which the coordinate data in the Z-axis direction is set in a one-to-one correspondence with each unit area of the frame areas 142a and 142b.

ここで、既に説明したとおり、背景用の描画データや演出及び図柄用の描画データは、描画処理(図16)にて、ワールド座標系に対して各オブジェクトを設定し(ステップS1002〜ステップS1004)、カメラ座標系への変換処理(ステップS1005)を経て、視野座標系への変換処理(ステップS1006)を実行し、さらにその状態で、クリッピング処理(ステップS1007)、ライティング処理(ステップS1008)及び色情報の設定処理(ステップS1009)を実行した後に、作成する。この場合において、各描画データは、フレーム領域142a,142bに対して作成されるものであるため、当該描画データの作成に際して、上記のように視野座標系にて色情報の設定処理が行われたデータの状態は維持されており、描画データの作成後においても新たな描画処理が起動されるまでは維持される。そして、この視野座標系にて色情報の設定処理が行われた状態のデータを利用して、ぼかしマップデータが作成される。 Here, as already described, for the drawing data for the background and the drawing data for the effect and the design, each object is set for the world coordinate system in the drawing process (FIG. 16) (steps S1002 to S1004). After the conversion process to the camera coordinate system (step S1005), the conversion process to the visual field coordinate system (step S1006) is executed, and in that state, the clipping process (step S1007), the lighting process (step S1008), and the color. It is created after executing the information setting process (step S1009). In this case, since each drawing data is created for the frame areas 142a and 142b, the color information setting process is performed in the field coordinate system as described above when creating the drawing data. The state of the data is maintained, and even after the drawing data is created, it is maintained until a new drawing process is started. Then, the blur map data is created by using the data in the state where the color information setting process is performed in this visual field coordinate system.

ぼかしマップ作成処理では、Zバッファ143を利用して、隠面処理(図18)と同様の処理を実行することに基づき、ぼかしマップデータを作成する。但し、隠面処理(図18)では、背景用の画像データのみを処理対象として背景用の描画データを作成し、演出及び図柄用の描画データのみを処理対象として演出及び図柄用の描画データを作成する構成であったが、ぼかしマップ作成処理では、このような区別を行うことなく、視野座標系においてクリッピングされた全ての画像データをまとめて処理対象として扱う。 In the blur map creation process, the blur map data is created based on the same process as the hidden surface process (FIG. 18) using the Z buffer 143. However, in the hidden surface processing (FIG. 18), the drawing data for the background is created with only the image data for the background as the processing target, and the drawing data for the effect and the design is generated with only the drawing data for the effect and the design as the processing target. Although it was configured to be created, in the blur map creation process, all the image data clipped in the visual field coordinate system is collectively treated as a processing target without making such a distinction.

ぼかしマップ作成処理について具体的には、先ずステップS3101にて、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS3102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。 Specifically, regarding the blur map creation process, first, in step S3101, an individual image included on the Z axis of the current projection target dot in the screen area PC12 (see FIG. 17) is used as a reference, and this time. Grasp the Z value set for the target pixel of the individual image that was the test target. In the following step S3102, the Z value set in the area of the dots corresponding to the drawing target dots on a one-to-one basis in the Z buffer 143 is grasped.

続くステップS3103では、ステップS3101にて把握した個別画像のZ値が、ステップS3102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS3104に進み、ステップS3101にて把握したZ値を、Zバッファ143におけるステップS3102にて参照したドットのエリアに上書きする。その後にステップS3105に進む。 In the following step S3103, it is determined whether or not the Z value of the individual image grasped in step S3101 corresponds to the front side in the Z-axis direction with respect to the Z value of the Z buffer 143 grasped in step S3102. If it corresponds to the front side, the process proceeds to step S3104, and the Z value grasped in step S3101 is overwritten in the dot area referred to in step S3102 in the Z buffer 143. After that, the process proceeds to step S3105.

一方、ステップS3103にて、手前側に対応していないと判定した場合には、ステップS3104の処理を実行することなく、ステップS3105に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合にはZバッファ143の更新は行われない。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われる。 On the other hand, if it is determined in step S3103 that it does not correspond to the front side, the process proceeds to step S3105 without executing the process of step S3104. That is, if the Z value of the pixel to be tested is the same as the Z value already set for the target dot of the Z buffer 143 or the back side in the Z axis direction, the Z buffer 143 is not updated. .. On the other hand, when the Z value of the pixel to be tested is on the front side in the Z-axis direction with respect to the Z value already set for the target dot of the Z buffer 143, the Z buffer 143 is updated.

ステップS3105では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS3101に戻り、新たな対象ピクセルに対してZテストを行う。 In step S3105, it is determined whether or not the Z test is completed for all the target pixels included on the Z axis with respect to the projection target dot. If it is not completed, the process returns to step S3101 and a Z test is performed on the new target pixel.

完了している場合には、ステップS3106にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS3107にて、投影対象ドットを更新した後にステップS3101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には、ぼかしマップデータの作成が完了したことを意味するため、ステップS3108に進む。 If it is completed, in step S3106, it is determined whether or not the Z test is completed for all the dots in the screen area PC12. If it is not completed, in step S3107, after updating the projection target dot, the process returns to step S3101, and a Z test is performed on the new projection target dot. If it is completed, it means that the creation of the blur map data is completed, so the process proceeds to step S3108.

上記のようにぼかしマップデータが作成されることにより、合成描画データの各単位エリアに対応した色情報がZ軸方向においてどのような座標を有するものであるか否かをVDP135にて特定することが可能となる。よって、各単位エリアに対応した色情報について、奥行き方向の相対的な位置関係をVDP135にて特定することが可能となる。 By creating the blur map data as described above, the VDP135 specifies what kind of coordinates the color information corresponding to each unit area of the composite drawing data has in the Z-axis direction. Is possible. Therefore, for the color information corresponding to each unit area, the relative positional relationship in the depth direction can be specified by the VDP 135.

ピント演出用の調整処理では、ステップS3101〜ステップS3107にて、ぼかしマップデータを作成した後に、ステップS3108に進む。 In the adjustment process for focusing effect, after creating the blur map data in steps S3101 to S3107, the process proceeds to step S3108.

ステップS3108では、描画データ合成処理(図49(b))におけるステップS3004及びステップS3005の処理により、描画対象のフレーム領域142a,142bに作成された合成描画データを、ぼかし用バッファ181に保存する。続くステップS3109では今回の描画リストにおいて設定されているピント範囲のデータを読み出す。 In step S3108, the composite drawing data created in the frame areas 142a and 142b to be drawn by the processes of steps S3004 and S3005 in the drawing data composition process (FIG. 49 (b)) is stored in the blur buffer 181. In the following step S3109, the data in the focus range set in the drawing list this time is read out.

その後、ステップS3110〜ステップS3117にて、その読み出したピント範囲のデータに基づいて、ぼかし処理を実行する。当該ぼかし処理では、今回の描画対象のフレーム領域142a,142bにおける単位エリアについて、ぼかし処理の実行対象であるか否かの判定処理を実行するとともに、実行対象であると判定した単位エリアに対して、ぼかしを生じさせる処理を実行し、さらにこれらの処理を今回の描画対象のフレーム領域142a,142bに含まれる全ての単位エリアに対して実行する。 After that, in steps S310 to S3117, the blurring process is executed based on the read focus range data. In the blurring process, the unit area in the frame areas 142a and 142b to be drawn this time is subjected to the determination process of whether or not the unit area is the execution target of the blurring process, and the unit area determined to be the execution target is subjected to the determination process. , Blurring is executed, and these processes are further executed for all the unit areas included in the frame areas 142a and 142b to be drawn this time.

ここで、Z軸方向の座標データがピント範囲に対応している単位エリアに対しては、ぼかしを生じさせる処理は実行れないが、当該ピント範囲はZ軸方向の単一の座標データに対応しているのではなく、図50(b)に示すように、Z軸方向に連続する複数の座標データに対応している。つまり、ピント範囲は、ある程度の被写界深度を有するように設定されており、表示面Gに表示される画像をぼかし過ぎないようにされている。ピント範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように設定されていることが好ましい。 Here, the process of causing blurring cannot be executed for the unit area where the coordinate data in the Z-axis direction corresponds to the focus range, but the focus range corresponds to a single coordinate data in the Z-axis direction. However, as shown in FIG. 50 (b), it corresponds to a plurality of coordinate data continuous in the Z-axis direction. That is, the focus range is set to have a certain depth of field, and the image displayed on the display surface G is not excessively blurred. The focus range is specifically arbitrary, but it is set so as to include the entire individual image for one effect having a predetermined thickness in the Z-axis direction in the state of the three-dimensional image data. Is preferable.

Z軸方向の座標データがピント範囲から外れている単位エリアについては、ピント範囲から遠い距離に存在するものほど、ぼかしの度合いが大きくなるように設定されている。具体的には、図50(b)に示すように、ピント範囲から遠ざかるに従って段階的にぼかしの度合いが大きくなるように、第1ぼかし範囲と、第2ぼかし範囲と、第3ぼかし範囲とが設定されている。 For the unit area where the coordinate data in the Z-axis direction is out of the focus range, the degree of blurring is set to be larger as the data exists at a distance farther from the focus range. Specifically, as shown in FIG. 50 (b), the first blur range, the second blur range, and the third blur range are set so that the degree of blur gradually increases as the distance from the focus range increases. It is set.

第1ぼかし範囲はピント範囲から連続するようにして設定されており、Z軸方向においてピント範囲から遠ざかる側に連続する複数の座標データに対応している。第1ぼかし範囲は、ピント範囲の奥側及び手前側の両方に存在する。また、第2ぼかし範囲は第1ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲及び第1ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第2ぼかし範囲は、奥側の第1ぼかし範囲のさらなる奥側及び手前側の第1ぼかし範囲のさらなる手前側の両方に存在する。また、第3ぼかし範囲は第2ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲、第1ぼかし範囲及び第2ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第3ぼかし範囲は、奥側の第2ぼかし範囲のさらなる奥側及び手前側の第2ぼかし範囲のさらなる手前側の両方に存在する。 The first blur range is set so as to be continuous from the focus range, and corresponds to a plurality of coordinate data continuous on the side away from the focus range in the Z-axis direction. The first blur range exists on both the back side and the front side of the focus range. Further, the second blur range is set so as to be continuous from the first blur range, and corresponds to a plurality of coordinate data continuous in the focus range and the side away from the first blur range in the Z-axis direction. The second blur range exists both on the further back side of the first blur range on the back side and on the further front side of the first blur range on the front side. Further, the third blur range is set so as to be continuous from the second blur range, and corresponds to a plurality of coordinate data continuous in the focus range, the first blur range, and the side away from the second blur range in the Z-axis direction. doing. The third blur range exists both on the further back side of the second blur range on the back side and on the further front side of the second blur range on the front side.

第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように、それぞれ設定されていることが好ましい。この場合、第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲に含まれるZ軸方向の座標データの数は相互に同一であり且つその座標データの数はピント範囲と同一であるが、ピント範囲とは異なっていてもよく、相互に異なっていてもよい。例えばピント範囲から遠いぼかし範囲ほど含まれるZ軸方向の座標データの数が多くなる構成としてもよい。 The first blur range, the second blur range, and the third blur range are specifically arbitrary, but the entire individual image for one effect having a predetermined thickness in the Z-axis direction in the state of the three-dimensional image data. It is preferable that each is set so as to be within a range in which the above can be included. In this case, the number of coordinate data in the Z-axis direction included in the first blur range, the second blur range, and the third blur range is the same as each other, and the number of the coordinate data is the same as the focus range. It may be different from the focus range, or it may be different from each other. For example, the number of coordinate data in the Z-axis direction included in the blur range farther from the focus range may be increased.

ピント範囲は、既に説明したとおり、遊技者の演出用操作装置48の操作に基づき変更されるものであるため、メモリモジュール133に予め記憶されているピント範囲用のデータは、当該ピント範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、遊技者による演出用操作装置48の操作に基づき、そのピント範囲を設定する上で基準となるZ軸方向の座標が決定され、その座標を基準として、ピント範囲用のデータに含まれるZ軸方向の座標データの数が実際の座標データの範囲として変換されることで、ピント範囲が設定される。この場合、ピント範囲を設定する上で基準となるZ軸方向の座標は、ピント範囲の最も手前側の座標又は最も奥側の座標として設定しておくことが好ましい。最も手前側の座標として設定しておくことで、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に加算するだけで、ピント範囲を設定することが可能となる。また、最も奥側の座標として設定した場合であっても、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に減算するだけで、ピント範囲を設定することが可能となる。 As described above, the focus range is changed based on the operation of the player's effect operating device 48. Therefore, the focus range data stored in advance in the memory module 133 is included in the focus range. It is set as data of the number of coordinate data that are continuous in the Z-axis direction. Then, based on the operation of the effect operation device 48 by the player, the coordinates in the Z-axis direction as a reference for setting the focus range are determined, and the Z included in the focus range data is determined based on the coordinates. The focus range is set by converting the number of coordinate data in the axial direction as the range of the actual coordinate data. In this case, it is preferable that the coordinates in the Z-axis direction, which is a reference for setting the focus range, are set as the coordinates on the frontmost side or the coordinates on the farthest side of the focus range. By setting it as the frontmost coordinate, the focus range can be set by simply adding the number of coordinate data set in the focus range data to the reference coordinate. It becomes possible. Even if it is set as the innermost coordinates, the focus range can be obtained by simply subtracting the number of coordinate data set in the focus range data for the reference coordinates. Can be set.

同様に、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲についても、メモリモジュール133に予め記憶されている各ぼかし範囲用のデータは、当該ぼかし範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、上記のように決定されたピント範囲に基づき、各ぼかし範囲の基準となる座標が決定され、その基準となる座標に対して各ぼかし範囲用のデータを適用することにより、各ぼかし範囲を設定することが可能となる。 Similarly, for the first blur range, the second blur range, and the third blur range, the data for each blur range stored in advance in the memory module 133 is included in the blur range in the Z-axis direction. It is set as the data of the number of consecutive coordinate data. Then, based on the focus range determined as described above, the reference coordinates of each blur range are determined, and by applying the data for each blur range to the reference coordinates, each blur range is determined. It becomes possible to set.

上記のとおりピント範囲の手前側及び奥側のそれぞれに対して、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲を設定可能な構成であるが、既に説明したとおりピント範囲は遊技者の演出用操作装置48の操作に基づき決定される。そうすると、ピント範囲が最も手前側に存在する演出用の個別画像に対応させて設定されることがある。この場合には、各ぼかし範囲は、ピント範囲に対して奥側にのみ設定されることとなる。 As described above, the first blur range, the second blur range, and the third blur range can be set for each of the front side and the back side of the focus range, but as already explained, the focus range is the player's. It is determined based on the operation of the effect operation device 48. Then, the focus range may be set corresponding to the individual image for production that exists in the foreground side. In this case, each blur range is set only on the far side of the focus range.

図50(a)の説明に戻り、ぼかし処理では、先ずステップS3110にて、今回の単位エリアに対応したZ軸方向の座標データを、ステップS3101〜ステップS3107にて作成したぼかしマップデータから読み出す。続くステップS3111では、ステップS3110にて読み出したZ軸方向の座標データが、ステップS3109にて読み出したピント範囲内に含まれるか否かを判定する。ピント範囲内に含まれている場合には、その単位エリアに対しては、ぼかしを生じさせる処理を実行する必要がないため、ステップS3112〜ステップS3115の処理を実行することなくステップS3116に進む。 Returning to the description of FIG. 50 (a), in the blurring process, first, in step S3110, the coordinate data in the Z-axis direction corresponding to the current unit area is read out from the blur map data created in steps S3101 to S3107. In the following step S3111, it is determined whether or not the coordinate data in the Z-axis direction read in step S3110 is included in the focus range read in step S3109. If it is included in the focus range, it is not necessary to execute the process of causing blurring for the unit area, so that the process proceeds to step S3116 without executing the processes of steps S3112 to S3115.

ピント範囲内に含まれていない場合には、ステップS3112にて、今回の単位エリアが教示用の個別画像を表示するための教示用エリアに対応しているか否かを判定する。教示用の個別画像は、既に説明した教示用のオブジェクトを利用して表示される画像のことである。教示用エリアに対応している場合には、ステップS3113〜ステップS3115の処理を実行することなくステップS3116に進む。つまり、教示用の個別画像に対しては、ぼかしを生じさせる処理は実行されない。これにより、ピント演出を行う場合であっても、教示用の個別画像を利用した情報の教示を好適に行うことが可能となる。 If it is not included in the focus range, in step S3112, it is determined whether or not the unit area of this time corresponds to the teaching area for displaying the individual image for teaching. The individual image for teaching is an image displayed by using the object for teaching already described. If it corresponds to the teaching area, the process proceeds to step S3116 without executing the processes of steps S3113 to S3115. That is, the process of causing blurring is not executed for the individual image for teaching. As a result, even in the case of performing the focus effect, it is possible to suitably teach the information using the individual image for teaching.

ちなみに、教示用の個別画像が表示される位置は、遊技者による演出用操作装置48の操作態様に関係なく不変であるため、教示用エリアに含まれる単位エリアのアドレスは事前に定められており、そのデータはメモリモジュール133に予め記憶されている。 By the way, since the position where the individual image for teaching is displayed is unchanged regardless of the operation mode of the effect operation device 48 by the player, the address of the unit area included in the teaching area is predetermined. , The data is stored in the memory module 133 in advance.

ステップS3112にて否定判定をした場合には、ステップS3113に進む。ステップS3113では、ぼかし範囲の決定処理を実行する。具体的には、ステップS3110にて読み出したZ軸方向の座標データが、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲のいずれに含まれているのかを判定し、ぼかしを生じさせる上で対象となるぼかし範囲を決定する。その後、ステップS3114にて、ぼかし発生処理を実行する。 If a negative determination is made in step S3112, the process proceeds to step S3113. In step S3113, the process of determining the blur range is executed. Specifically, it is determined whether the coordinate data in the Z-axis direction read in step S3110 is included in the first blur range, the second blur range, or the third blur range, and the blur is generated. Determine the target blur range with. After that, in step S3114, the blur generation process is executed.

ぼかし発生処理について、図51(a)のフローチャートを参照しながら説明する。 The blur generation process will be described with reference to the flowchart of FIG. 51 (a).

先ずステップS3201では、上記ステップS3113にて第1ぼかし範囲が決定されたか否かを判定する。第1ぼかし範囲が決定されている場合には、ステップS3202にて、今回の単位エリアを基準として、X軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、今回の描画対象となっているフレーム領域142a,142bからではなく、ぼかし用バッファ181から行う。また、ステップS3202では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。 First, in step S3201, it is determined whether or not the first blur range is determined in step S3113. When the first blur range is determined, in step S3202, the first predetermined number of unit areas are specified in each of the X-axis directions with the current unit area as a reference, and the colors from each of the unit areas are specified. Extract information. This extraction is performed not from the frame areas 142a and 142b that are the objects of drawing this time, but from the blur buffer 181. Further, in step S3202, the color information set in the unit area of this time is also extracted, and this extraction is also performed from the blur buffer 181.

続くステップS3203では、X軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのX軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。 In the following step S3203, the blurring generation process in the X-axis direction is executed. In the blur generation process, a Gaussian filter is used to generate a blur. That is, the weighting according to the distance in the X-axis direction from the unit area centered on the target unit area this time is determined by using the Gaussian function for each of the extracted unit areas. Then, with the determined weighting applied, the color information of the unit area centered above and the color information of the extracted unit area are blended. The color information of the blend result is temporarily stored in the register 153.

続くステップS3204では、今回の単位エリアを基準として、Y軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3204では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。 In the following step S3204, a first predetermined number of unit areas are specified in each of the Y-axis directions with the current unit area as a reference, and color information is extracted from each of the unit areas. This extraction is performed from the blur buffer 181. Further, in step S3204, the color information set in the unit area of this time is also extracted, and this extraction is also performed from the blur buffer 181.

続くステップS3205では、Y軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのY軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。 In the following step S3205, blurring generation processing in the Y-axis direction is executed. In the blur generation process, a Gaussian filter is used to generate a blur. That is, the weighting according to the distance in the Y-axis direction from the unit area centered on the target unit area this time is determined by using the Gaussian function for each of the extracted unit areas. Then, with the determined weighting applied, the color information of the unit area centered above and the color information of the extracted unit area are blended. The color information of the blend result is temporarily stored in the register 153.

その後、ステップS3206にて、ブレンド処理を実行する。具体的には、上記ステップS3203にて算出したブレンド結果の色情報と、上記ステップS3205にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。 Then, in step S3206, the blending process is executed. Specifically, the color information of the blending result calculated in step S3203 and the color information of the blending result calculated in step S3205 are blended at the same ratio. After that, the main blur generation process is terminated.

上記のようにぼかし発生処理が実行されることにより、図51(b−1)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。 By executing the blur generation process as described above, as shown in FIG. 51 (b-1), the first predetermined number on both sides in the X-axis direction with respect to the unit area targeted this time. Each color information set in the unit area of the minute and each color information set in the unit area of the first predetermined number on both sides in the Y-axis direction are the colors of the unit area targeted this time. Blended against information.

ステップS3201にて否定判定をした場合には、ステップS3207にて、上記ステップS3113において第2ぼかし範囲が決定されたか否かを判定する。第2ぼかし範囲が決定されている場合には、ステップS3208にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3208では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 If a negative determination is made in step S3201, it is determined in step S3207 whether or not the second blur range is determined in step S3113. When the second blur range is determined, in step S3208, a second predetermined number of unit areas, which is larger than the first predetermined number, is specified in each of the X-axis directions with the current unit area as a reference. , Extract color information from each of those unit areas. This extraction is performed from the blur buffer 181. Further, in step S3208, the color information set in the unit area this time is extracted from the blurring buffer 181.

続くステップS3209では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。 In the following step S3209, the blur generation process in the X-axis direction is executed. The specific content of such processing is the same as in step S3203.

続くステップS3210では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3210では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 In the following step S3210, a second predetermined number of unit areas, which is larger than the first predetermined number, is specified in each of the Y-axis directions with the current unit area as a reference, and color information is extracted from each of the unit areas. This extraction is performed from the blur buffer 181. Further, in step S3210, the color information set in the unit area of this time is extracted from the blurring buffer 181.

続くステップS3211では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。 In the following step S3211, the blurring generation process in the Y-axis direction is executed. The specific content of such processing is the same as in step S3205.

その後、ステップS3212にて、ブレンド処理を実行する。具体的には、上記ステップS3209にて算出したブレンド結果の色情報と、上記ステップS3211にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。 Then, in step S3212, the blending process is executed. Specifically, the color information of the blending result calculated in step S3209 and the color information of the blending result calculated in step S3211 are blended at the same ratio. After that, the main blur generation process is terminated.

上記のようにぼかし発生処理が実行されることにより、図51(b−2)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。この場合、ブレンド対象となる単位エリアの数が図51(b−1)の場合よりも多くなるため、第1ぼかし範囲の場合よりも第2ぼかし範囲の場合の方が、ぼかしの度合いが大きくなる。 By executing the blur generation process as described above, as shown in FIG. 51 (b-2), a second predetermined number is used on both sides in the X-axis direction with reference to the unit area targeted this time. Each color information set in the unit area of the minute and each color information set in the unit area of the second predetermined number on both sides in the Y-axis direction are the colors of the unit area targeted this time. Blended against information. In this case, since the number of unit areas to be blended is larger than that in the case of FIG. 51 (b-1), the degree of blurring is larger in the case of the second blurring range than in the case of the first blurring range. Become.

ステップS3207にて否定判定をした場合には、上記ステップS3113において第3ぼかし範囲が決定されたことを意味する。第3ぼかし範囲が決定されている場合には、ステップS3213にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3213では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 If a negative determination is made in step S3207, it means that the third blur range has been determined in step S3113. When the third blur range is determined, in step S3213, a third predetermined number of unit areas, which is larger than the second predetermined number, is specified in each of the X-axis directions with the current unit area as a reference. , Extract color information from each of those unit areas. This extraction is performed from the blur buffer 181. Further, in step S3213, the color information set in the unit area of this time is extracted from the blurring buffer 181.

続くステップS3214では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。 In the following step S3214, the blurring generation process in the X-axis direction is executed. The specific content of such processing is the same as in step S3203.

続くステップS3215では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3215では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 In the following step S3215, a third predetermined number of unit areas, which is larger than the second predetermined number, is specified in each of the Y-axis directions with the current unit area as a reference, and color information is extracted from each of the unit areas. This extraction is performed from the blur buffer 181. Further, in step S3215, the color information set in the unit area of this time is extracted from the blurring buffer 181.

続くステップS3216では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。 In the following step S3216, the blurring generation process in the Y-axis direction is executed. The specific content of such processing is the same as in step S3205.

その後、ステップS3217にて、ブレンド処理を実行する。具体的には、上記ステップS3214にて算出したブレンド結果の色情報と、上記ステップS3216にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。上記のようにぼかし発生処理が実行されることにより、ぼかしの度合いを、第2ぼかし範囲の場合よりも大きくすることが可能となる。 Then, in step S3217, the blending process is executed. Specifically, the color information of the blending result calculated in step S3214 and the color information of the blending result calculated in step S3216 are blended at the same ratio. After that, the main blur generation process is terminated. By executing the blur generation process as described above, the degree of blur can be made larger than that in the case of the second blur range.

ピント演出用の調整処理(図50(a))の説明に戻り、ステップS3114にて、ぼかし発生処理を実行した後は、ステップS3115にて、当該ぼかし発生処理にて算出した結果の色情報を、描画対象となっているフレーム領域142a,142bにおける今回の単位エリアに対して上書きした後に、ステップS3116に進む。これにより、各ぼかし範囲に対応した状態の色情報が単位エリアに設定されることとなる。 Returning to the description of the adjustment process for focusing effect (FIG. 50A), after executing the blur generation process in step S3114, the color information of the result calculated by the blur generation process is obtained in step S3115. After overwriting the current unit area in the frame areas 142a and 142b to be drawn, the process proceeds to step S3116. As a result, the color information corresponding to each blur range is set in the unit area.

ここで、このようにぼかしを生じさせた結果の色情報が順次、描画対象となっているフレーム領域142a,142bに設定される構成において、ぼかし発生処理では、上記のとおり、フレーム領域142a,142bから色情報を読み出すのではなく、ぼかし用バッファ181から色情報を読み出す。これにより、所定の単位エリアにぼかしを発生させる場合において、既にぼかしを生じさせた結果の色情報が用いられないようにすることが可能となる。よって、ぼかし発生処理を実行する順番に依存しない態様で、ぼかしを生じさせることが可能となる。 Here, in the configuration in which the color information resulting from the blurring is sequentially set in the frame areas 142a and 142b to be drawn, in the blurring generation processing, the frame areas 142a and 142b are described above. Instead of reading the color information from, the color information is read from the blur buffer 181. As a result, when blurring is generated in a predetermined unit area, it is possible to prevent the color information as a result of already causing blurring from being used. Therefore, it is possible to cause blurring in a manner that does not depend on the order in which the blurring generation processing is executed.

ステップS3116では、今回の描画対象のフレーム領域142a,142bについて全ての単位エリアを、上記ステップS3110〜ステップS3115の処理の実行対象としたか否かを判定する。完了していない場合には、ステップS3117にて、対象単位エリアを更新した後にステップS3110に戻り、新たな対象単位エリアに対して、上記ステップS3110〜ステップS3115の処理を実行する。完了している場合には、本調整処理を終了する。 In step S3116, it is determined whether or not all the unit areas of the frame areas 142a and 142b to be drawn this time are the execution targets of the process of steps S3110 to S3115. If it is not completed, in step S3117, after updating the target unit area, the process returns to step S3110, and the process of steps S3110 to S3115 is executed for the new target unit area. If it is completed, this adjustment process is terminated.

次に、ピント表示の内容について、図52を参照しながら説明する。 Next, the content of the focus display will be described with reference to FIG. 52.

図52(a)はピント表示が行われていない状態を示し、図52(b)はピント表示が行われている状態を示す。 FIG. 52 (a) shows a state in which the focus display is not performed, and FIG. 52 (b) shows a state in which the focus display is performed.

ピント表示が行われていない状態では、図52(a)に示すように、各演出用の個別画像CH11,CH12,CH13、背景の画像(海面の画像、砂浜の画像及び空の画像)CH14及び各教示用の個別画像CH15,CH16は、いずれもピントが合った状態となっている。したがって、これら各画像CH11〜CH16は、その模様の境界や曲がり部分の境界、さらに外縁部分が鮮明に表示されている。 In the state where the focus is not displayed, as shown in FIG. 52 (a), the individual images CH11, CH12, CH13 for each effect, the background image (sea surface image, sandy beach image, and sky image) CH14 and The individual images CH15 and CH16 for each teaching are in a state of being in focus. Therefore, in each of these images CH11 to CH16, the boundary of the pattern, the boundary of the curved portion, and the outer edge portion are clearly displayed.

一方、ピント表示が行われている状態では、図52(b)に示すように、演出用の個別画像CH11及び当該個別画像CH11が存在している砂浜部分の背景の画像CH14については、ピント範囲に含まれているため、鮮明に表示されているが、他の演出用の個別画像CH12,CH13及び他の部分の背景の画像CH14については、ピント範囲から外れているため、模様の境界や曲り部分の境界、さらには外縁部分がぼかした状態で表示され、不鮮明となっている。特に、ぼかした状態は、ピント範囲に含まれている演出用の個別画像CH11から表示面Gの奥行き方向において手前側及び奥側に遠くなるように表示されているものほど、その度合いが大きくなっている。これにより、遊技者に対して、演出用の個別画像CH11にピントが合っていると認識させることが可能となる。 On the other hand, in the state where the focus is displayed, as shown in FIG. 52 (b), the focus range of the individual image CH11 for directing and the image CH14 of the background of the sandy beach where the individual image CH11 exists. Although it is clearly displayed because it is included in, the borders and bends of the pattern are out of focus for the individual images CH12 and CH13 for other effects and the background image CH14 for other parts. The boundary of the part and the outer edge part are displayed in a blurred state and are not clear. In particular, the degree of the blurred state becomes larger as the image is displayed so as to be farther from the individual image CH11 for effect included in the focus range to the front side and the back side in the depth direction of the display surface G. ing. This makes it possible for the player to recognize that the individual image CH 11 for production is in focus.

但し、ピント表示が行われている状態であっても、図52(b)に示すように、教示用の個別画像CH15,CH16は、図52(a)と同様に鮮明に表示されている。これにより、ピント表示が行われているとしても、教示用の個別画像CH15,CH16を利用した情報の教示を良好に行うことが可能となる。また、教示用の個別画像CH15,CH16は、他の画像よりも手前側に配置されているかのように表示されているため、ぼかし発生の対象から除外されたとしても、ピント表示の対象から除外されている遊技者に明確に認識させることができ、ピント表示を良好に行うことが可能となる。 However, even when the focus is displayed, as shown in FIG. 52 (b), the individual images CH15 and CH16 for teaching are clearly displayed as in FIG. 52 (a). As a result, even if the focus is displayed, it is possible to satisfactorily teach information using the individual images CH15 and CH16 for teaching. Further, since the individual images CH15 and CH16 for teaching are displayed as if they are arranged on the front side of the other images, even if they are excluded from the target of blurring, they are excluded from the target of focus display. It is possible to make the player clearly recognize the image, and it is possible to perform a good focus display.

また、上記ピント表示に際しては、ぼかしマップデータがメモリモジュール133に予め記憶されているのではなく、VDP135にてその都度作成される。これにより、データ容量の削減を図ることが可能となる。特に、遊技者による演出用操作装置48の操作に基づきピント範囲を設定するようにしたことにより、遊技者の遊技への積極参加を可能とした構成においては、ぼかしマップデータを事前に予め設定しておこうとすると、データ容量が膨大なものとなる。また、このデータ容量の膨大化を抑えようとすると、演出用操作装置48の操作に基づき選択できるピント範囲のパターンが少なくなってしまう。これに対して、上記のように、ぼかしマップデータをVDP135にてその都度作成するようにしたことにより、データ容量の削減を図りつつ、遊技者の遊技への積極参加を好適に促すことが可能となる。 Further, at the time of the focus display, the blur map data is not stored in the memory module 133 in advance, but is created by the VDP 135 each time. This makes it possible to reduce the data capacity. In particular, in a configuration that allows the player to actively participate in the game by setting the focus range based on the operation of the effect operation device 48 by the player, the blur map data is set in advance. If you try to keep it, the data capacity will be enormous. Further, if an attempt is made to suppress this enormous amount of data capacity, the number of patterns in the focus range that can be selected based on the operation of the effect operation device 48 is reduced. On the other hand, as described above, by creating the blur map data each time with VDP135, it is possible to preferably encourage the player to actively participate in the game while reducing the data capacity. It becomes.

その一方、上記のようにぼかしマップデータを作成するようにすると、それだけVDP135の処理負荷が増加する。これに対して、ぼかしを発生させる際には、3次元画像の状態で行うのではなく、2次元画像の状態で行うようにしたことにより、色情報の平均化に際して複雑な処理を実行する必要がなくなり、ぼかしを発生させる上での処理負荷の軽減が図られる。 On the other hand, if the blur map data is created as described above, the processing load of the VDP 135 increases accordingly. On the other hand, when blurring is generated, it is necessary to perform complicated processing when averaging color information by performing it in the state of a two-dimensional image instead of performing it in the state of a three-dimensional image. Is eliminated, and the processing load for generating blur is reduced.

<ピント表示の別形態>
・ぼかしマップデータを描画データの作成に際して作成する構成に限定されることはなく、ぼかしマップデータをメモリモジュール133に予め記憶させておく構成としてもよい。この場合に、ピント範囲が演出用操作装置48の操作に基づき選択される構成であれば、その選択に係る全てのバリエーションに対応させて、ぼかしマップデータを予め作成しておく必要がある。また、ピント範囲が演出用操作装置48の操作に基づき選択されずに、一定の態様でぼかし表示が行われるのであれば、その態様に則したぼかしマップデータを予め作成しておけばよい。
<Another form of focus display>
-The configuration is not limited to the configuration in which the blur map data is created when the drawing data is created, and the blur map data may be stored in the memory module 133 in advance. In this case, if the focus range is selected based on the operation of the effect operation device 48, it is necessary to create the blur map data in advance corresponding to all the variations related to the selection. Further, if the focus range is not selected based on the operation of the effect operation device 48 and the blur display is performed in a certain mode, the blur map data according to the mode may be created in advance.

上記のようにぼかしマップデータが予め作成されている構成においては、ぼかしマップデータにおいて各単位エリアに対応させて設定されているデータは、Z軸方向の座標データである必要はなく、ピント範囲、及び各ぼかし範囲のうち、いずれの範囲に該当しているかを示すデータであってもよい。 In the configuration in which the blur map data is created in advance as described above, the data set corresponding to each unit area in the blur map data does not have to be the coordinate data in the Z-axis direction, and the focus range, And, it may be data indicating which range corresponds to each blur range.

・ぼかしを生じさせるための色情報の平均化処理は、3次元画像データを2次元画像データに変換した後に行う必要はなく、3次元画像データの状態において行うようにしてもよい。この場合、基準となるピクセルに対して、その周囲のピクセルをブレンドする際には、基準となるピクセルからそれら周囲のピクセルまでの距離を3次元の状態で算出し、その算出結果に応じた重み付けをそれら周囲のピクセルの色情報に適用した状態でブレンド処理を行うようにすればよい。 -The averaging process of color information for causing blurring does not need to be performed after converting the 3D image data into 2D image data, and may be performed in the state of the 3D image data. In this case, when blending the pixels around the reference pixel with respect to the reference pixel, the distance from the reference pixel to the surrounding pixels is calculated in a three-dimensional state, and weighting is performed according to the calculation result. Is applied to the color information of the pixels around them, and the blending process may be performed.

・ぼかしを生じさせるための色情報の平均化処理は、ガウス関数を利用して中心からの距離に応じた重み付けを行うのではなく、抽出した色情報を均等にブレンドする構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。 -The color information averaging process for causing blurring may be configured to evenly blend the extracted color information, instead of using a Gaussian function to perform weighting according to the distance from the center. In this case, although the realism of the blurred display is reduced, the processing load can be reduced.

・ぼかしを生じさせるための色情報の平均化処理は、X軸方向及びY軸方向のそれぞれについて行う構成に限定されることはなく、いずれか一方についてのみ行う構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。 The color information averaging process for causing blurring is not limited to the configuration performed in each of the X-axis direction and the Y-axis direction, and may be configured to be performed only in one of them. In this case, although the realism of the blurred display is reduced, the processing load can be reduced.

・ぼかしを生じさせるための色情報の平均化処理に際しては、描画対象のフレーム領域142a,142bに設定されている描画データを、ぼかし用バッファ181に別保存した状態で行う構成に限定されることはなく、描画対象のフレーム領域142a,142bをそのまま利用する構成としてもよい。この場合、所定の単位エリアの色情報についてぼかしを生じさせる場合において、既にぼかしを生じさせた単位エリアの色情報が用いられることになり、ぼかしを生じさせる処理の順番がぼかしの度合いに影響を与えることとなるが、ぼかし用バッファ181を別途設ける必要がない点で、記憶容量の削減が図られるとともに、ぼかし用バッファ181への別保存を行う必要がない点で、処理負荷の軽減が図られる。 -The averaging process of color information for causing blurring is limited to a configuration in which the drawing data set in the frame areas 142a and 142b to be drawn are separately stored in the blurring buffer 181. Instead, the frame areas 142a and 142b to be drawn may be used as they are. In this case, when blurring the color information of a predetermined unit area, the color information of the unit area that has already caused blurring is used, and the order of the processing for causing blurring affects the degree of blurring. However, the storage capacity can be reduced because it is not necessary to separately provide the blur buffer 181 and the processing load can be reduced because it is not necessary to separately store the blur buffer 181. Be done.

・ぼかしマップデータを作成する際にZバッファ143以外のバッファを用いるようにしてもよい。この場合、VRAM134に、ぼかしマップデータを作成するための専用のバッファを設けるようにしてもよい。 -A buffer other than the Z buffer 143 may be used when creating the blur map data. In this case, the VRAM 134 may be provided with a dedicated buffer for creating the blur map data.

・背景用の描画データと、演出及び図柄用の描画データとを個別に作成し、それらを合成して1フレーム分の描画データを作成する構成ではなく、ステップS1009にて色情報の設定処理を実行した後は、1フレーム分の描画データをまとめて作成する構成としてもよい。当該構成においては、隠面処理を利用して当該1フレーム分の描画データを作成した場合、Zバッファ143には各単位エリアに対応したZ軸方向の座標データが設定されていることとなる。したがって、この隠面処理にてZバッファ143に作成されたデータを、ぼかしマップデータとしてそのまま利用することが可能となる。 -Instead of creating the drawing data for the background and the drawing data for the effect and the design individually and synthesizing them to create the drawing data for one frame, the color information setting process is performed in step S1009. After the execution, the drawing data for one frame may be collectively created. In this configuration, when the drawing data for one frame is created by using the hidden surface processing, the coordinate data in the Z-axis direction corresponding to each unit area is set in the Z buffer 143. Therefore, the data created in the Z buffer 143 by this hidden surface processing can be used as it is as the blur map data.

・遊技回用の演出としてピント表示を行うようにしてもよい。この場合、上記のように教示用の個別画像を、ぼかし対象から除外したのと同様に、各図柄列SA1〜SA3にて変動表示されている図柄は、ぼかし対象から除外してもよい。また、リーチ中の演出として、ピント表示を行うのであれば、先に停止表示されている図柄列SA1,SA3上において、リーチラインを形成している図柄を、ぼかし対象から除外してもよく、それに加えて又は代えて、最終停止図柄列SA2の図柄を、ぼかし対象から除外してもよい。リーチラインを形成している図柄を除外することで、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となり、最終停止図柄列SA2の図柄を除外することで、最終停止図柄列SA2においてリーチライン付近に存在している図柄の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。 -The focus may be displayed as an effect for the game. In this case, the symbols that are variablely displayed in each of the symbol rows SA1 to SA3 may be excluded from the blurring target in the same manner as the individual images for teaching are excluded from the blurring target as described above. Further, if the focus is displayed as an effect during reach, the symbols forming the reach line may be excluded from the blurring target on the symbol rows SA1 and SA3 that are previously stopped and displayed. In addition to or instead, the symbol of the final stop symbol sequence SA2 may be excluded from the blurring target. By excluding the symbols forming the reach line, the focus display can be used as a reach effect without deteriorating the distinctiveness of the type of reach symbols, and the symbols in the final stop symbol column SA2 are excluded. This makes it possible to use the focus display as a reach effect without deteriorating the distinctiveness of the symbols existing near the reach line in the final stop symbol sequence SA2.

また、リーチラインを形成している図柄又はその種類を教示する画像の表示は行いながら、図柄列SA1〜SA3を非表示として、ピント表示を利用したリーチ演出を行う構成においては、リーチラインを形成している図柄又はその種類を教示する画像は、ぼかし対象から除外するようにしてもよい。これにより、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。 Further, in a configuration in which the symbols SA1 to SA3 are hidden and the reach effect is performed using the focus display while displaying the symbols forming the reach line or the image teaching the type thereof, the reach line is formed. An image that teaches the pattern or its type may be excluded from the blurring target. This makes it possible to use the focus display as a reach effect without deteriorating the distinctiveness of the type of reach symbol.

また、遊技回用の演出としてピント表示を行う場合において、ぼかし対象から除外する対象は、図柄以外であってもよく、例えば表示面Gにて保留情報の数を教示するための画像を表示するのであれば、当該保留情報の数を教示するための画像を、ぼかし対象から除外してもよい。 Further, in the case of performing the focus display as an effect for the game round, the target to be excluded from the blurring target may be other than the symbol, for example, an image for teaching the number of reserved information is displayed on the display surface G. If so, the image for teaching the number of pending information may be excluded from the blurring target.

3次元画像データを用いた画像表示を行うのではなく、スプライトデータといった2次元画像データを用いた画像表示を行う構成において、ピント表示を行うようにしてもよい。この場合、フレーム領域142a,142bへのスプライトデータの設定に際して、各スプライトデータに、表示面Gの奥行き方向に対応する座標データを設定しておき、その座標データが、ピント範囲及び各ぼかし範囲のうちいずれに含まれるかによって、ぼかし表示を行う構成が考えられる。 Instead of displaying an image using three-dimensional image data, focus display may be performed in a configuration in which an image is displayed using two-dimensional image data such as sprite data. In this case, when setting the sprite data in the frame areas 142a and 142b, the coordinate data corresponding to the depth direction of the display surface G is set in each sprite data, and the coordinate data is the focus range and each blur range. Depending on which of them is included, a configuration in which a blurred display is performed can be considered.

・ワールド座標系に画像データを設定した後に、パラメータ群を含むマップデータを作成する処理を実行する構成を、ピント表示以外の目的で行うようにしてもよい。 -After setting the image data in the world coordinate system, the configuration for executing the process of creating the map data including the parameter group may be performed for a purpose other than the focus display.

例えば、1フレーム分の画像において所定の領域が点滅しているかの表示を行う上で、オブジェクトの面の向きに応じて点灯及び消灯のいずれかを設定する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、点滅表示を行うようにしてもよい。 For example, in a configuration in which either lighting or extinguishing is set according to the orientation of the surface of an object in displaying whether or not a predetermined area is blinking in an image for one frame, a world coordinate system or a field coordinate system is used. In the state set to, the orientation of each surface is read as a parameter, and map data is created as data that aggregates them. Then, the drawing data after projection may be displayed in a blinking manner by processing the color information based on the created map data.

また、例えば、1フレーム分の画像において海面といった形状が経時的に変化する面の表示を行う上で、オブジェクトの面の向きに応じて各面データに設定する色情報を選択する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、面表示を行うようにしてもよい。 Further, for example, in displaying a surface whose shape changes with time, such as the sea surface in an image for one frame, in a configuration in which color information to be set in each surface data is selected according to the orientation of the surface of the object, the world The orientation of each surface is read as a parameter in the state set in the coordinate system or the field coordinate system, and map data is created as data that aggregates them. Then, the drawing data after projection may be displayed on the surface by processing the color information based on the created map data.

<模様変更表示を行うための構成>
次に、模様変更表示を行うための構成について説明する。
<Configuration for displaying pattern changes>
Next, the configuration for performing the pattern change display will be described.

模様変更表示とは、特別キャラクタを複数フレーム(複数の画像更新タイミング)に亘って連続して表示させる場合において、その特別キャラクタの外縁形状は同一としながら、フレームの進行に伴って模様を変化させる表示演出のことである。但し、模様を単純に変化させるのではなく、当該特別キャラクタの一部の模様の変更については、当該特別キャラクタに対応した特別オブジェクトに貼り付ける第1部分テクスチャの種類を切り換えるのに対して、当該特別キャラクタの他の模様の変更については、特別オブジェクトに貼り付ける第2部分テクスチャの種類は同一のものとしながら、その第2部分テクスチャの特別オブジェクトに対する相対的な貼り付け位置を変化させることにより、模様を変化させる。 The pattern change display is a case where a special character is continuously displayed over a plurality of frames (multiple image update timings), and the pattern is changed as the frame progresses while the outer edge shape of the special character is the same. It is a display effect. However, instead of simply changing the pattern, when changing the pattern of a part of the special character, the type of the first part texture to be pasted on the special object corresponding to the special character is switched. Regarding the change of other patterns of the special character, the type of the second partial texture to be pasted on the special object is the same, but the pasting position of the second partial texture with respect to the special object is changed. Change the pattern.

これら特別オブジェクト、第1部分テクスチャ及び第2部分テクスチャについて、図53(a)〜(c)を参照しながら詳細に説明する。図53(a)は特別オブジェクトPC20を説明するための説明図であり、図53(b−1)〜(b−3)は第1部分テクスチャPC21〜PC23を説明するための説明図であり、図53(c−1)〜(c−4)は第2部分テクスチャPC24〜PC27を説明するための説明図である。 These special objects, the first partial texture, and the second partial texture will be described in detail with reference to FIGS. 53 (a) to 53 (c). 53 (a) is an explanatory diagram for explaining the special object PC 20, and FIGS. 53 (b-1) to 53 (b-3) are explanatory views for explaining the first partial textures PC 21 to PC 23. 53 (c-1) to (c-4) are explanatory views for explaining the second partial textures PC24 to PC27.

図53(a)に示すように、特別オブジェクトPC20は、多数のポリゴンを含み、立体的な形状に対応したデータとして作成されており、複数のパーツ部BP,AP1〜AP4を有している。これら複数のパーツ部BP,AP1〜AP4として、本体パーツ部BPと、当該本体パーツ部BPに付属する複数の付属パーツ部AP1〜AP4とを有している。特別キャラクタは、鯨を人型に適用したキャラクタであり、本体パーツ部BPはその顔部分及び胴体部分に相当し、各付属パーツ部AP1〜AP4は胴体部分から連続する手部分及び足部分に相当している。 As shown in FIG. 53A, the special object PC 20 includes a large number of polygons, is created as data corresponding to a three-dimensional shape, and has a plurality of parts parts BP, AP1 to AP4. As the plurality of parts parts BP, AP1 to AP4, the main body parts part BP and a plurality of accessory parts parts AP1 to AP4 attached to the main body parts part BP are included. The special character is a character that applies a whale to a humanoid shape, the main body parts BP corresponds to the face part and the body part, and the attached parts parts AP1 to AP4 correspond to the hand part and the foot part continuous from the body part. doing.

本体パーツ部BPには、図53(b−1)〜(b−3)に示すように、顔の模様(目や口の模様)及び胴体が光に反射しているかのような表示を行うための模様の両方を含む画像を表示させるための第1部分テクスチャPC21〜PC23が貼り付けられる。これら第1部分テクスチャPC21〜PC23は、本体パーツ部BPの全体を覆うことが可能なように設定されている。また、顔の模様を表示させるためのデータは、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21〜PC23間において同一となっている。その一方、胴体が光に反射しているかのような表示を行うためのデータについては、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21〜PC23間において異なっている。 As shown in FIGS. 53 (b-1) to 53 (b-3), the main body parts BP are displayed as if the face pattern (eyes and mouth pattern) and the body are reflected by light. The first partial textures PC21 to PC23 for displaying an image including both of the patterns for the purpose are pasted. These first partial textures PC21 to PC23 are set so as to be able to cover the entire main body part portion BP. Further, as for the data for displaying the pattern of the face, the position (coordinates) of the main body part portion BP to which these data are pasted is the same between the first partial textures PC21 to PC23. On the other hand, regarding the data for displaying as if the body is reflected by light, the position (coordinates) of the main body part BP to which these data are pasted is the position (coordinates) of each first part texture PC21 to PC23. It is different between.

つまり、第1部分テクスチャPC21〜PC23は、本体パーツ部BPにおいて貼り付けられる位置が変化しない不変模様を表示させるためのデータと、本体パーツ部BPにおいて貼り付けられる位置が変化する変化模様を表示させるためのデータとを有しており、第1部分テクスチャPC21〜PC23間において、不変模様を表示させるためのデータ構成は共通であるが、変化模様を表示させるためのデータ構成は相違している。 That is, the first partial textures PC21 to PC23 display data for displaying an invariant pattern in which the position pasted on the main body parts BP does not change, and a change pattern in which the position pasted on the main body parts BP changes. The data structure for displaying the invariant pattern is common between the first partial textures PC21 to PC23, but the data structure for displaying the change pattern is different.

一方、付属パーツ部AP1〜AP4には、図53(c−1)〜(c−4)に示すように、手や足の部分が光に反射しているかのような表示を行うための模様を含む画像を表示させるための第2部分テクスチャPC24〜PC27が貼り付けられる。これら第2部分テクスチャPC24〜PC27は、付属パーツ部AP1〜AP4に1対1で対応させて設けられており、さらに一の付属パーツ部AP1〜AP4に対して一の第2部分テクスチャPC24〜PC27のみが設けられている。各第2部分テクスチャPC24〜PC27は、対応する付属パーツ部AP1〜AP4を覆うことが可能なように設定されている。この場合、各第2部分テクスチャPC24〜PC27のそれぞれにおいて、境界部分を生じさせる模様はそれに対して逆側の境界部分を生じさせる模様と連続性を有するように設定されている。 On the other hand, as shown in FIGS. 53 (c-1) to (c-4), the accessory parts AP1 to AP4 have a pattern for displaying as if the hands and feet are reflected by light. The second partial textures PC24 to PC27 for displaying the image including the above are pasted. These second partial textures PC24 to PC27 are provided so as to have a one-to-one correspondence with the accessory parts portions AP1 to AP4, and further, one second partial texture PC24 to PC27 with respect to one accessory part portions AP1 to AP4. Only are provided. The second partial textures PC24 to PC27 are set so as to be able to cover the corresponding accessory parts AP1 to AP4. In this case, in each of the second partial textures PC24 to PC27, the pattern that causes the boundary portion is set to have continuity with the pattern that causes the boundary portion on the opposite side.

第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27の特別オブジェクトPC20に対する貼り付けは、予め定められたUV座標値に基づき行われる。UV座標値は、既に説明したとおりであり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されており、テクスチャ用の画像データの各ピクセルをオブジェクト用の画像データの各ピクセルに1対1で対応させることが可能となる。 The pasting of the first partial texture PC21 to PC23 and the second partial texture PC24 to PC27 to the special object PC20 is performed based on a predetermined UV coordinate value. The UV coordinate values are as described above, and are stored in the memory module 133 in a state of being attached to the combination of the image data for the object and the image data for the texture, and each pixel of the image data for the texture is stored. Can be associated with each pixel of image data for an object on a one-to-one basis.

上記特別キャラクタを表示させる場合には、特別オブジェクトPC20の本体パーツ部BPに対しては、貼り付け対象となる第1部分テクスチャPC21〜PC23が予め定められた順序で変更される。この順序は、上記変化模様が変化していく態様が連続性を有するように設定されている。一方、特別オブジェクトPC20の付属パーツ部AP1〜AP4に対しては、それぞれに対応する一の第2部分テクスチャPC24〜PC27が貼り付けられることとなるが、その貼り付けを行う際に参照するUV座標値が初期の設定状態から予め定められた態様で変更される。このUV座標値の変更は、各第2部分テクスチャPC24〜PC27に対応した各模様のそれぞれが変化していく態様が連続性を有するように設定されている。 When displaying the special character, the first partial textures PC21 to PC23 to be pasted are changed in a predetermined order for the main body part BP of the special object PC20. This order is set so that the mode in which the change pattern changes has continuity. On the other hand, one second partial texture PC24 to PC27 corresponding to each of the accessory parts AP1 to AP4 of the special object PC20 will be pasted, and the UV coordinates to be referred to when the pasting is performed. The value is changed from the initial setting state in a predetermined manner. The change of the UV coordinate value is set so that the mode in which each of the patterns corresponding to the second partial textures PC24 to PC27 changes has continuity.

以下、特別オブジェクトPC20、第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27を用いて模様変更表示を実行するための具体的な処理構成を説明する。なお、特別オブジェクトPC20、第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27は、メモリモジュール133に予め記憶されている。 Hereinafter, a specific processing configuration for executing the pattern change display using the special object PC20, the first partial texture PC21 to PC23, and the second partial texture PC24 to PC27 will be described. The special object PC20, the first partial textures PC21 to PC23, and the second partial textures PC24 to PC27 are stored in the memory module 133 in advance.

図54は、表示CPU131にて実行される特別キャラクタ用の演算処理を示すフローチャートである。特別キャラクタ用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、特別キャラクタ用の演算処理は、特別キャラクタが表示される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 54 is a flowchart showing an arithmetic process for a special character executed by the display CPU 131. The calculation process for the special character is executed in the effect calculation process in step S904 of the task process (FIG. 14). Further, the arithmetic processing for the special character is started when the data table corresponding to the game times in which the special character is displayed is set.

先ずステップS3301では、現状設定されているデータテーブルに基づいて、特別キャラクタの表示中であるか否かを判定する。特別キャラクタの表示中ではない場合にはステップS3302に進む。ステップS3302では、特別キャラクタ表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS3303に進む。 First, in step S3301, it is determined whether or not the special character is being displayed based on the currently set data table. If the special character is not being displayed, the process proceeds to step S3302. In step S3302, it is determined whether or not it is the start timing of the special character display. If it is not the start timing, the present calculation process is terminated as it is, and if it is the start timing, the process proceeds to step S3303.

ステップS3303では、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。ちなみに、ステップS3303の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、特別オブジェクトPC20に対して制御開始用の処理が完了している。また、制御が開始された特別オブジェクトPC20の制御用の情報は、特別キャラクタの表示が完了するまでワークRAM132に記憶保持される。 In step S3303, the special object PC 20 is grasped as a control target based on the currently set data table. Incidentally, at the execution timing of the process of step S3303, the process for starting control is completed for the special object PC 20 in the setting process for starting control immediately before (step S901). Further, the information for controlling the special object PC 20 whose control has been started is stored and held in the work RAM 132 until the display of the special character is completed.

続くステップS3304では、第1部分テクスチャの初期設定処理を実行する。具体的には、複数種類の第1部分テクスチャPC21〜PC23のうち使用の順番が最初に設定されている第1部分テクスチャPC21を特定し、その第1部分テクスチャPC21の使用指示情報を記憶する。なお、複数種類の第1部分テクスチャPC21〜PC23の使用順番のデータは、テーブル情報として、メモリモジュール133に予め記憶されている。 In the following step S3304, the initial setting process of the first partial texture is executed. Specifically, among the plurality of types of first partial textures PC21 to PC23, the first partial texture PC21 in which the order of use is first set is specified, and the usage instruction information of the first partial texture PC21 is stored. The data in the order of use of the plurality of types of first partial textures PC21 to PC23 are stored in advance in the memory module 133 as table information.

続くステップS3305では、各第2部分テクスチャの初期設定処理を実行する。ここで、表示CPU131では、各第2部分テクスチャPC24〜PC27のUV座標値を変更させる場合、初期座標値からの変化量をそれぞれの第2部分テクスチャPC24〜PC27に1対1で対応させて導出し、その導出した各変化量をVDP135に提供する。VDP135では、その提供された各変化量のデータを、それぞれ対応する各初期座標値に対して適用する。この場合、一の第2部分テクスチャPC24〜PC27で見た場合、当該第2部分テクスチャPC24〜PC27には多数のピクセルが含まれているため、初期座標値はそれら多数のピクセル毎に存在している。したがって、一の第2部分テクスチャPC24〜PC27に対応する変化量のデータは、当該一の第2部分テクスチャPC24〜PC27の各初期座標値に対して一律に適用される。 In the following step S3305, the initial setting process of each second partial texture is executed. Here, in the display CPU 131, when the UV coordinate values of the second partial textures PC24 to PC27 are changed, the amount of change from the initial coordinate values is derived in a one-to-one correspondence with the respective second partial textures PC24 to PC27. Then, each derived amount of change is provided to VDP135. In VDP135, the provided data of each change amount is applied to each corresponding initial coordinate value. In this case, when viewed from the first second partial texture PC24 to PC27, since the second partial texture PC24 to PC27 contains a large number of pixels, the initial coordinate value exists for each of the large number of pixels. There is. Therefore, the data of the amount of change corresponding to the first second partial texture PC24 to PC27 is uniformly applied to each initial coordinate value of the first second partial texture PC24 to PC27.

例えば、一の第2部分テクスチャPC24〜PC27を構成する所定のピクセルの初期座標値が(U1、V1)であり、他のピクセルの初期座標値が(U2、V2)である状況において、変化量のデータが(w1、w2)である場合には、上記所定のピクセルのUV座標値は、(U1+w1、V1+w2)に設定され、他のピクセルのUV座標値は、(U2+w1、V2+w2)に設定される。したがって、付属パーツ部AP1〜AP4に対する第2部分テクスチャPC24〜PC27の相対位置が同一の方向性であって同一の変化量で変更されることとなる。ステップS3305は、初期設定処理であるため、変化量は存在しないことに対応したデータが記憶される。 For example, in a situation where the initial coordinate values of the predetermined pixels constituting the first second partial textures PC24 to PC27 are (U1, V1) and the initial coordinate values of the other pixels are (U2, V2), the amount of change. When the data of (w1, w2) is (w1, w2), the UV coordinate value of the predetermined pixel is set to (U1 + w1, V1 + w2), and the UV coordinate value of the other pixels is set to (U2 + w1, V2 + w2). NS. Therefore, the relative positions of the second partial textures PC24 to PC27 with respect to the accessory parts AP1 to AP4 are changed in the same direction and with the same amount of change. Since step S3305 is an initial setting process, data corresponding to the fact that the amount of change does not exist is stored.

なお、第2部分テクスチャPC24〜PC27のUV座標値を初期座標値から変更させるための変化量のデータは、テーブル情報として、使用順序の情報と1対1で対応させて設定されており、このテーブル情報は、メモリモジュール133に予め記憶されている。また、当該テーブル情報は、各第2部分テクスチャPC24〜PC27に対して個別に設定されている。 The data of the amount of change for changing the UV coordinate values of the second partial textures PC24 to PC27 from the initial coordinate values is set as table information in a one-to-one correspondence with the information of the order of use. The table information is stored in the memory module 133 in advance. Further, the table information is individually set for each of the second partial textures PC24 to PC27.

その後、ステップS3306にて、特別キャラクタの開始指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。 After that, in step S3306, the start designation information of the special character is stored, and in step S3307, various parameters are calculated for the special object PC20 to update the control information related to the special object PC20. This arithmetic processing is terminated.

上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3304にて記憶した第1部分テクスチャPC21の使用指示情報と、上記ステップS3305にて導出した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの開始指定情報が設定される。 When the arithmetic processing for the special character is executed as described above, the information of the instruction to use the special object PC 20 is set in the drawing list created in the subsequent drawing list output processing, and in step S3304 above. The usage instruction information of the first partial texture PC 21 stored in the above step S3305 and the data of each change amount derived in the above step S3305 are set. Furthermore, the parameters calculated in step S3307 are set in the drawing list, and the start designation information of the special character is set.

ステップS3301にて特別キャラクタの表示中であると判定した場合には、ステップS3308にて、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。 If it is determined in step S3301 that the special character is being displayed, the special object PC 20 is grasped as a control target in step S3308 based on the currently set data table.

続くステップS3309では、現状設定されているデータテーブルに基づいて、第1部分テクスチャPC21〜PC23の更新タイミングであるか否かを判定する。第1部分テクスチャPC21〜PC23の更新タイミングは、所定の複数である第1特定数フレームに1回、すなわち所定の複数である第1特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定の第1部分テクスチャPC21〜PC23から次の第1部分テクスチャPC21〜PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該第1部分テクスチャPC21〜PC23からさらに次の第1部分テクスチャPC21〜PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。 In the following step S3309, it is determined whether or not it is the update timing of the first partial textures PC21 to PC23 based on the currently set data table. The update timing of the first partial textures PC21 to PC23 is set once for a predetermined plurality of first specific number frames, that is, once for a predetermined plurality of image update timings of the first specific number. Furthermore, this update timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing, and the predetermined first portion textures PC21 to PC23 may be set as the next first portion. The number of frames until the update timing of the textures PC21 to PC23 (the number of image update timings) and the number of frames from the first partial texture PC21 to PC23 until the next update timing of the first partial textures PC21 to PC23 (the number of frames). The number of image update timings) may be different.

第1部分テクスチャPC21〜PC23の更新タイミングではない場合には、ステップS3310にて、前回の処理回にて記憶した第1部分テクスチャPC21〜PC23の使用指示情報をそのまま記憶する。一方、第1部分テクスチャPC21〜PC23の更新タイミングである場合には、ステップS3311にて、次の順番の第1部分テクスチャPC21〜PC23に対応した使用指示情報を記憶する。 If it is not the update timing of the first partial textures PC21 to PC23, the usage instruction information of the first partial textures PC21 to PC23 stored in the previous processing times is stored as it is in step S3310. On the other hand, when it is the update timing of the first partial textures PC21 to PC23, the usage instruction information corresponding to the first partial textures PC21 to PC23 in the following order is stored in step S3311.

ステップS3310又はステップS3311の処理を実行した後は、ステップS3312にて、各第2部分テクスチャPC24〜PC27に適用するUV座標値の更新タイミングであるか否かを判定する。UV座標値の更新タイミングは、所定の複数である第2特定数フレームに1回、すなわち所定の複数である第2特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定のUV座標値から次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該UV座標値からさらに次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。 After executing the process of step S3310 or step S3311, it is determined in step S3312 whether or not it is the update timing of the UV coordinate value applied to each of the second partial textures PC24 to PC27. The update timing of the UV coordinate value is set once for a predetermined plurality of second specific number frames, that is, once for a predetermined plurality of second specific number of image update timings, and further, this update. The timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing, and may be set from a predetermined UV coordinate value to the next UV coordinate value update timing. The number of frames until the UV coordinate value is updated (the number of image update timings) and the number of frames from the UV coordinate value until the next UV coordinate value is updated (the number of image update timings) may be different.

また、UV座標値の更新タイミングは、第1部分テクスチャPC21〜PC23の更新タイミングと同期しているが、非同期であってもよい。非同期とする上では、各更新周期を相違させる構成が考えられる。この場合に、UV座標値の更新タイミングを、第1部分テクスチャPC21〜PC23の更新タイミングよりも短い周期としてもよく、長い周期としてもよいが、UV座標値の更新側であれば更新周期を短くしてもデータ容量への影響がほとんどないことに鑑みて、UV座標値の更新タイミングを第1部分テクスチャPC21〜PC23の更新タイミングよりも短い周期とすることが好ましい。 Further, the update timing of the UV coordinate value is synchronized with the update timing of the first partial textures PC21 to PC23, but may be asynchronous. In order to make it asynchronous, a configuration in which each update cycle is different can be considered. In this case, the UV coordinate value update timing may be shorter or longer than the update timing of the first partial textures PC21 to PC23, but the update cycle may be shorter on the UV coordinate value update side. However, in view of the fact that there is almost no effect on the data capacity, it is preferable that the update timing of the UV coordinate value is shorter than the update timing of the first partial textures PC21 to PC23.

UV座標値の更新タイミングではない場合には、ステップS3313にて、前回の処理回にて記憶した各変化量のデータをそのまま記憶する。一方、UV座標値の更新タイミングである場合には、ステップS3314にて、次の順番の各変化量のデータを記憶する。 If it is not the update timing of the UV coordinate value, in step S3313, the data of each change amount stored in the previous processing time is stored as it is. On the other hand, when it is the update timing of the UV coordinate value, the data of each change amount in the following order is stored in step S3314.

ステップS3313又はステップS3314の処理を実行した後は、ステップS3315にて、特別キャラクタの継続指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。 After executing the process of step S3313 or step S3314, the continuation designation information of the special character is stored in step S3315, and various parameters are calculated for the special object PC 20 in step S3307 to calculate the special object PC 20. After updating the control information related to, this calculation process is terminated.

上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3310及びステップS3311のいずれかにて記憶した第1部分テクスチャPC21〜PC23の使用指示情報と、上記ステップS3313及び上記ステップS3314のいずれかにて記憶した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの継続指定情報が設定される。 When the arithmetic processing for the special character is executed as described above, the drawing list created in the subsequent drawing list output processing is set with the information of the instruction to use the special object PC20, and in step S3310 and the above step S3310. The usage instruction information of the first partial textures PC21 to PC23 stored in any one of steps S3311 and the data of each change amount stored in any of the steps S3313 and S3314 are set. Furthermore, the parameters calculated in step S3307 are set in the drawing list, and the continuation designation information of the special character is set.

VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合には、描画処理(図16)における演出用の設定処理(ステップS1003)にて、特別オブジェクトPC20をワールド座標系に設定する処理を実行する。この場合、ワールド座標系に設定する際の座標、スケール及び回転角度なども描画リストにて指定されているため、それらを適用した状態で特別オブジェクトPC20を設定する。また、特別キャラクタは、複数フレームに亘って所定の方向に変位するかのように表示されるため、それに即した描画リストがVDP135に対して適用され、それに即した状態でワールド座標系への特別オブジェクトPC20の設定が行われる。 In VDP135, when a drawing list to display a special character is received, a process of setting the special object PC 20 in the world coordinate system is executed in the setting process (step S1003) for the effect in the drawing process (FIG. 16). do. In this case, since the coordinates, scale, rotation angle, etc. for setting in the world coordinate system are also specified in the drawing list, the special object PC 20 is set with them applied. In addition, since the special character is displayed as if it is displaced in a predetermined direction over a plurality of frames, a drawing list corresponding to the special character is applied to the VDP135, and the special character is specially applied to the world coordinate system in the corresponding state. The object PC 20 is set.

また、VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合、描画処理(図16)における色情報の設定処理(ステップS1009)にて、特別オブジェクトPC20に対して第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27を貼り付ける。当該テクスチャの貼り付けに係る処理について、以下に説明する。 Further, in the VDP135, when the drawing list to display the special character is received, the first partial texture PC21 to PC23 is subjected to the special object PC20 in the color information setting process (step S1009) in the drawing process (FIG. 16). And the second partial textures PC24 to PC27 are pasted. The process related to the pasting of the texture will be described below.

図55は、特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。特別キャラクタ用のテクスチャマッピング処理は、今回の描画リストに特別キャラクタの開始指定情報及び特別キャラクタの継続指定情報のいずれかが設定されている場合に起動される。 FIG. 55 is a flowchart showing the texture mapping process for the special character. The texture mapping process for the special character is started when either the start designation information of the special character or the continuation designation information of the special character is set in the drawing list this time.

先ずステップS3401では、今回の描画リストにおいて設定されている第1部分テクスチャPC21〜PC23の使用指定情報を把握する。続くステップS3402では、ステップS3401にて把握した使用指定情報に対応した第1部分テクスチャPC21〜PC23をメモリモジュール133から読み出す。その後、ステップS3403にて、上記ステップS3402にて読み出した第1部分テクスチャPC21〜PC23を、特別オブジェクトPC20の本体パーツ部BPに貼り付ける。これにより、本体パーツ部BPへのテクスチャの貼り付けが完了する。 First, in step S3401, the usage designation information of the first partial textures PC21 to PC23 set in the drawing list this time is grasped. In the following step S3402, the first partial textures PC21 to PC23 corresponding to the usage designation information grasped in step S3401 are read from the memory module 133. After that, in step S3403, the first partial textures PC21 to PC23 read in step S3402 are attached to the main body parts BP of the special object PC20. This completes the attachment of the texture to the main body parts BP.

続くステップS3404では、レジスタ153に設けられた付属パーツカウンタに、付属パーツ部AP1〜AP4の数に対応した情報である「4」をセットし、ステップS3405に進む。ステップS3405では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した第2部分テクスチャPC24〜PC27をメモリモジュール133から読み出す。 In the following step S3404, "4", which is information corresponding to the number of the accessory parts portions AP1 to AP4, is set in the accessory parts counter provided in the register 153, and the process proceeds to step S3405. In step S3405, the second partial textures PC24 to PC27 corresponding to the accessory parts portions AP1 to AP4 indicated by the numerical information of the current accessory parts counter are read from the memory module 133.

続くステップS3406では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した初期座標値のデータを読み出す。また、ステップS3407では、今回の描画リストにおいて設定されている変化量のデータのうち、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した変化量のデータを把握する。そして、ステップS3408において、ステップS3406にて読み出した初期座標値に対して、ステップS3407にて把握した変化量を適用することで、今回のUV座標値を導出する。その後、ステップS3409では、ステップS3408にて導出したUV座標値に従って、ステップS3405にて読み出した第2部分テクスチャPC24〜PC27を、対応する付属パーツ部AP1〜AP4に貼り付ける。 In the following step S3406, the data of the initial coordinate values corresponding to the accessory parts parts AP1 to AP4 indicated by the numerical information of the current accessory parts counter is read out. Further, in step S3407, among the change amount data set in the drawing list this time, the change amount data corresponding to the accessory parts parts AP1 to AP4 indicated by the numerical information of the current accessory parts counter is grasped. Then, in step S3408, the UV coordinate value of this time is derived by applying the amount of change grasped in step S3407 to the initial coordinate value read out in step S3406. After that, in step S3409, the second partial textures PC24 to PC27 read out in step S3405 are attached to the corresponding accessory parts AP1 to AP4 according to the UV coordinate values derived in step S3408.

続くステップS3410では、付属パーツカウンタの数値情報を1減算し、ステップS3411にて、減算後の付属パーツカウンタの数値情報が「0」であるか否かを判定する。「0」ではない場合には、ステップS3405に戻り、次の付属パーツ部AP1〜AP4に対して上記ステップS3405〜ステップS3409による第2部分テクスチャPC24〜PC27の貼り付け処理を実行する。ステップS3411にて、付属パーツカウンタの数値情報が「0」であると判定した場合には、本テクスチャマッピング処理を終了する。 In the following step S3410, the numerical information of the attached parts counter is subtracted by 1, and in step S3411, it is determined whether or not the numerical information of the attached attached parts counter after the subtraction is "0". If it is not "0", the process returns to step S3405, and the process of pasting the second partial textures PC24 to PC27 according to the above steps S3405 to S3409 is executed for the next accessory parts AP1 to AP4. If it is determined in step S3411 that the numerical information of the attached parts counter is "0", this texture mapping process is terminated.

次に、模様変更表示の内容について、図56を参照しながら説明する。 Next, the contents of the pattern change display will be described with reference to FIG. 56.

図56(a),(b)は模様変更表示の内容を説明するための説明図である。 56 (a) and 56 (b) are explanatory views for explaining the content of the pattern change display.

特別キャラクタCH17を利用した模様変更表示は、図56(a),(b)に示すように、遊技回中において、所定の有効ライン上にてリーチラインが形成され、最終停止図柄列SA2にて図柄の変動表示が行われている状況で実行される。本パチンコ機10では、当該遊技回が開閉実行モードの移行契機となる期待度を高いことを遊技者に報知するための演出として模様変更表示が行われる。なお、特別キャラクタCH17を用いた模様変更表示は、開閉実行モードの移行契機となる遊技回においてのみ所定の確率で発生する構成としてもよい。 In the pattern change display using the special character CH17, as shown in FIGS. 56A and 56B, a reach line is formed on a predetermined effective line during the game rotation, and the final stop symbol sequence SA2 is used. It is executed in the situation where the variable display of the symbol is performed. In the pachinko machine 10, a pattern change display is performed as an effect for notifying the player that the game times have a high expectation of shifting to the opening / closing execution mode. The pattern change display using the special character CH17 may be configured to occur with a predetermined probability only in the game times that trigger the transition of the open / close execution mode.

模様変更表示では、特別キャラクタCH17が所定の方向に変位表示される。この場合に、特別キャラクタCH17の変位に伴って、当該特別キャラクタCH17に付されている模様が変更される。具体的には、特別キャラクタCH17の表面が光に照らされて反射するとともに、その反射して明るくなっている箇所が変位していくように模様が変更される。この模様の変更は、本体パーツ部BP及び各付属パーツ部AP1〜AP4のそれぞれにて発生する。その一方、特別キャラクタCH17に表示されている目や口の位置は一定となっている。 In the pattern change display, the special character CH17 is displaced and displayed in a predetermined direction. In this case, the pattern attached to the special character CH17 is changed according to the displacement of the special character CH17. Specifically, the surface of the special character CH17 is illuminated and reflected by light, and the pattern is changed so that the reflected and brightened portion is displaced. This pattern change occurs in each of the main body parts BP and the accessory parts AP1 to AP4. On the other hand, the positions of the eyes and mouth displayed on the special character CH17 are constant.

以上のように、特別オブジェクトPC20の一部に対しては、複数種類のテクスチャPC21〜PC23を予め記憶させておき、貼り付け対象とするテクスチャPC21〜PC23を順次変更するのに対して、特別キャラクタCH17の他の部分に関しては単一のテクスチャPC24〜PC27としながら、そのテクスチャPC24〜PC27のUV座標値を順次変更する構成としたことにより、データ容量と処理負荷とのバランスを図りながら模様変更表示を行うことが可能となる。 As described above, a plurality of types of textures PC21 to PC23 are stored in advance for a part of the special object PC20, and the textures PC21 to PC23 to be pasted are sequentially changed, whereas the special character is used. The other parts of CH17 are single textures PC24 to PC27, but the UV coordinate values of the textures PC24 to PC27 are sequentially changed, so that the pattern change display is achieved while balancing the data capacity and the processing load. Can be done.

また、目や口といった特別キャラクタにおいてその外縁に対する相対位置が変化しない模様が存在している箇所は、単一のテクスチャのUV座標値の切り換えにより模様の変更を行うのではなく、貼り付け対象とするテクスチャPC21〜PC23を順次変更することによって模様の変更を行うようにしたことにより、当該箇所の模様を変更する際の処理負荷の軽減を図ることが可能となる。 Also, in special characters such as eyes and mouth, where there is a pattern whose relative position with respect to the outer edge does not change, the pattern is not changed by switching the UV coordinate value of a single texture, but it is pasted. By sequentially changing the textures PC21 to PC23 to change the pattern, it is possible to reduce the processing load when changing the pattern at the relevant portion.

その一方、比較的サイズの小さい付属パーツ部AP1〜AP4については、単一のテクスチャPC24〜PC27のUV座標値の切り換えにより模様の変更を行うようにしたことにより、UV座標値の変更に伴って模様の形状が若干変形してしまったとしても、それが目立たないようにすることが可能となる。 On the other hand, for the accessory parts AP1 to AP4, which are relatively small in size, the pattern is changed by switching the UV coordinate values of the single textures PC24 to PC27, so that the pattern is changed with the change of the UV coordinate values. Even if the shape of the pattern is slightly deformed, it can be made inconspicuous.

<模様変更表示の別形態>
・第2部分テクスチャPC24〜PC27が各付属パーツ部AP1〜AP4に1対1で対応させて設定されている構成に代えて、所定の第2部分テクスチャは複数の付属パーツ部AP1〜AP4に対して共通して用いられる構成としてもよく、一の第2部分テクスチャが全ての付属パーツ部AP1〜AP4に対して共通して用いられる構成としてもよい。この場合、各付属パーツ部AP1〜AP4の模様の態様を異ならせる上では、UV座標値の初期設定値をそれぞれ相違させるようにするとよい。
<Another form of pattern change display>
-Instead of the configuration in which the second partial textures PC24 to PC27 are set to correspond one-to-one with each accessory part parts AP1 to AP4, the predetermined second part texture is applied to a plurality of accessory parts parts AP1 to AP4. It may be a configuration that is commonly used, or a configuration in which one second partial texture is commonly used for all the accessory parts AP1 to AP4. In this case, in order to make the patterns of the accessory parts AP1 to AP4 different, it is preferable to make the initial setting values of the UV coordinate values different from each other.

・各付属パーツ部AP1〜AP4において貼り付け対象の第2部分テクスチャPC24〜PC27のUV座標値が変更される速度は、同一である構成に限定されることはなく、一部については相違している構成としてもよく、全部が相違している構成としてもよい。 -The speed at which the UV coordinate values of the second part textures PC24 to PC27 to be pasted in each accessory part part AP1 to AP4 are changed is not limited to the same configuration, and some parts are different. It may be a configuration in which there is, or a configuration in which all are different.

・本体パーツ部BPと付属パーツ部AP1〜AP4の少なくとも一つとを跨ぐようにして模様が付されている構成としてもよい。この場合、特別キャラクタの外観を変更する場合において、上記跨いでいる部分における模様の連続性が担保されるように、第1部分テクスチャPC21〜PC23が変更される場合の上記跨いでいる模様の変化態様と、第2部分テクスチャPC24〜PC27が変更される場合の上記跨いでいる模様の変化態様とを対応付けることが好ましい。 -The pattern may be attached so as to straddle at least one of the main body parts BP and the accessory parts AP1 to AP4. In this case, when the appearance of the special character is changed, the change of the straddling pattern when the first partial textures PC21 to PC23 are changed so that the continuity of the pattern in the straddling portion is guaranteed. It is preferable to associate the aspect with the change mode of the straddling pattern when the second partial textures PC24 to PC27 are changed.

<ラウンド演出に係る構成について>
次に、ラウンド演出に係る構成について説明する。
<Regarding the composition related to round production>
Next, the configuration related to the round effect will be described.

ラウンド演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。開閉実行モードでは複数回のラウンド遊技が行われるように設定されており、ラウンド演出は、開閉実行モードに移行する場合に実行されるラウンド演出抽選にて当該ラウンド演出を行うことに当選した場合に、ラウンド遊技が行われる度に実行される。なお、上記ラウンド演出抽選で当選しなかった場合には、開閉実行モード時の演算処理等が実行されることとなる。 The round effect is an effect that can be executed when a round game is performed in the open / close execution mode. The open / close execution mode is set so that multiple round games are performed, and the round effect is when the round effect is won in the round effect lottery executed when the mode shifts to the open / close execution mode. , Is executed every time a round game is played. If the round effect lottery is not won, the calculation process or the like in the open / close execution mode will be executed.

なお、ラウンド遊技とは、既に説明した通り、(1)可変入賞装置22の開放時間が所定時間を経過すること、(2)可変入賞装置22への遊技球の総入賞個数が所定個数となること、のいずれか一方の条件が満たされるまで継続する遊技のことである。 As described above, the round game means that (1) the opening time of the variable winning device 22 elapses for a predetermined time, and (2) the total number of winning balls to the variable winning device 22 is a predetermined number. It is a game that continues until one of the conditions is met.

ラウンド演出では、動画像データが用いられる。動画像データとは、1フレーム分の静止画像データを基準として複数の差分データを有するようにフレーム間圧縮されて、例えばMPEG2方式で符号化された画像データである。当該動画像データが、VDP135に設けられた動画デコーダ(図示略)によってデコードされた場合には、複数フレーム分の静止画像データに展開される。これら静止画像データを順次描画することにより、一連のムービーが再生される。 In the round effect, moving image data is used. The moving image data is image data that is compressed between frames so as to have a plurality of difference data with reference to the still image data for one frame, and is encoded by, for example, the MPEG2 method. When the moving image data is decoded by a moving image decoder (not shown) provided in the VDP 135, it is expanded into still image data for a plurality of frames. By sequentially drawing these still image data, a series of movies are played back.

本パチンコ機10に設定されている動画像データについて図57を参照しながら説明する。 The moving image data set in the pachinko machine 10 will be described with reference to FIG. 57.

図57に示すように、ラウンド演出で用いられる動画像データとして、ラウンド動画像データRMD0が設定されている。ラウンド動画像データRMD0は、最初のアドレスにファイルデータが設定され、それに続けて各フレームの圧縮データが設定されている。なお、各フレームの圧縮データにはフレームヘッダが付随している。 As shown in FIG. 57, the round moving image data RMD0 is set as the moving image data used in the round effect. In the round moving image data RMD0, file data is set at the first address, and then compressed data of each frame is set. A frame header is attached to the compressed data of each frame.

圧縮データは、基準データに相当する1フレーム分のIピクチャデータと、第1の差分データに相当する複数フレーム分のPピクチャデータと、第2の差分データに相当する複数フレーム分のBピクチャデータと、を有している。 The compressed data includes I picture data for one frame corresponding to the reference data, P picture data for a plurality of frames corresponding to the first difference data, and B picture data for a plurality of frames corresponding to the second difference data. And have.

Iピクチャデータは、復号に際して、当該データ単独で1フレーム分の静止画像データを作成することができるデータである。Pピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータを参照して前方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。Bピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータと、1フレーム又は複数フレーム後のIピクチャデータ若しくはPピクチャデータとを参照して双方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。 The I-picture data is data capable of creating still image data for one frame by itself at the time of decoding. The P-picture data is data capable of creating still image data for one frame by performing forward prediction with reference to the I-picture data or P-picture data one frame or a plurality of frames before decoding. .. The B-picture data is bidirectionally predicted by referring to the I-picture data or P-picture data one frame or multiple frames before and the I-picture data or P-picture data after one frame or multiple frames at the time of decoding. It is data that can create still image data for one frame.

ラウンド動画像データRMD0の圧縮データでは、1フレーム目のデータとしてIピクチャデータが設定されている。また、2フレーム目,…,m―1フレーム目のデータとしてBピクチャデータが設定されている。また、mフレーム目のデータとしてPピクチャデータが設定されている。また、m+1フレーム目,…,n―1フレーム目のデータとしてBピクチャデータが設定されている。また、nフレーム目のデータとしてPピクチャデータが設定されている。なお、ピクチャデータの配列パターンは上記のものに限定されることはなく任意である。 In the compressed data of the round moving image data RMD0, I picture data is set as the data of the first frame. Further, B picture data is set as the data of the second frame, ..., The m-1th frame. Further, P picture data is set as the data in the mth frame. Further, B picture data is set as the data of the m + 1th frame, ..., The n-1th frame. Further, P picture data is set as the data of the nth frame. The arrangement pattern of the picture data is not limited to the above and is arbitrary.

ラウンド動画像データRMD0から作成される静止画像データのサイズは、表示面Gに対応させて設定されており、具体的には表示面G全体に表示させることが可能な大きさに設定されている。 The size of the still image data created from the round moving image data RMD0 is set to correspond to the display surface G, and specifically, is set to a size that can be displayed on the entire display surface G. ..

また、ラウンド演出では、上記ラウンド動画像データRMD0とは別に、静止画像データである挿入画像データIPD0が用いられる。上記ラウンド動画像データRMD0及び挿入画像データIPD0の内容について図58を参照しながら説明する。図58(a)はラウンド動画像データRMD0に設定されている画像の一部の内容を示し、図58(b)は挿入画像データIPD0に設定されている画像を示す。 Further, in the round effect, the inserted image data IPD0, which is still image data, is used in addition to the round moving image data RMD0. The contents of the round moving image data RMD0 and the inserted image data IPD0 will be described with reference to FIG. 58. FIG. 58A shows a part of the content of the image set in the round moving image data RMD0, and FIG. 58B shows the image set in the inserted image data IPD0.

ラウンド動画像データRMD0には、図58(a−1)に示すように、波立っている様子を示す第1背景画像BP1に対して重なるようにして、サーフィンをしている様子を示す第1移動キャラクタ画像MP1及び蛸の画像である第2移動キャラクタ画像MP2が付加された基準データ(Iピクチャデータ)RMD1が設定されている。 As shown in FIG. 58 (a-1), the round moving image data RMD0 has a first background image BP1 showing a wavy state so as to overlap with the first background image BP1 showing a state of surfing. Reference data (I picture data) RMD1 to which the moving character image MP1 and the second moving character image MP2 which is an image of the octopus are added is set.

また、図58(a−2),(a−3)に示すように、第1背景画像BP1を有さないが、各移動キャラクタ画像MP1,MP2が移動するのに対応した差分データ(Pピクチャデータ又はBピクチャデータ)RMD2が設定されている。基準データRMD1により1フレーム分の静止画像データが作成されるとともに基準データRMD1に対して差分データRMD2が適用されることにより、基準データRMD1に設定された第1背景画像BP1に対して各差分データRMD2に設定された各移動キャラクタ画像MP1,MP2が付加された1フレーム分の静止画像データが作成される。 Further, as shown in FIGS. 58 (a-2) and 58 (a-3), although the first background image BP1 is not provided, the difference data (P picture) corresponding to the movement of the moving character images MP1 and MP2 are obtained. Data or B picture data) RMD2 is set. By creating still image data for one frame by the reference data RMD1 and applying the difference data RMD2 to the reference data RMD1, each difference data is applied to the first background image BP1 set in the reference data RMD1. Still image data for one frame to which each moving character image MP1 and MP2 set in RMD2 are added is created.

ちなみに、ラウンド動画像データRMD0には、各移動キャラクタ画像MP1,MP2が表示面Gからフレームアウトするように設定されている。具体的には各移動キャラクタ画像MP1,MP2がフレームアウトした位置まで移動するように差分データが設定されている。 Incidentally, the round moving image data RMD0 is set so that each of the moving character images MP1 and MP2 is framed out from the display surface G. Specifically, the difference data is set so that the moving character images MP1 and MP2 move to the frame-out position.

また、ラウンド動画像データRMD0には、図58(a−3)に示すように、雲が示された第2背景画像BP2が描画された基準データRMD3が設定されている。 Further, as shown in FIG. 58 (a-3), the reference data RMD3 in which the second background image BP2 showing the clouds is drawn is set in the round moving image data RMD0.

さらに、ラウンド動画像データRMD0には、図58(a−4)に示すように、男の子の第3移動キャラクタ画像MP3が拡大して描画された基準データRMD4が設定されている。また、図示は省略するが、ラウンド動画像データRMD0には、第3移動キャラクタ画像MP3が所定の動作を行うのに対応した差分データが設定されている。 Further, as shown in FIG. 58 (a-4), the round moving image data RMD0 is set with the reference data RMD4 in which the boy's third moving character image MP3 is enlarged and drawn. Further, although not shown, the round moving image data RMD0 is set with the difference data corresponding to the third moving character image MP3 performing a predetermined operation.

上記各データRMD1〜RMD4により作成される静止画像データを、動画用オブジェクトに順次貼り付けることにより、一連の動画表示が行われる。 A series of moving image display is performed by sequentially pasting the still image data created by each of the above data RMD1 to RMD4 to the moving object.

挿入画像データIPD0は、図58(b)に示すように、表示面Gの一部に表示される画像に対応したものであり、表示面G全体を表示させるのに用いられる画像データよりもそのサイズ及びデータ量(データ容量)が小さく設定されたデータである。 As shown in FIG. 58 (b), the inserted image data IPD0 corresponds to an image displayed on a part of the display surface G, and is more than the image data used to display the entire display surface G. The data is set so that the size and the amount of data (data capacity) are small.

挿入画像データIPD0には、表示態様が異なる複数種類の画像データが設定されている。具体的には、挿入画像データIPD0には、図58(b−1)に示すように、2人の女の子が示された第1挿入キャラクタ画像IP1が描画された第1挿入画像データIPD1と、図58(b−2)に示すように、3人の女の子が示された第2挿入キャラクタ画像IP2が描画された第2挿入画像データIPD2と、が設定されている。 A plurality of types of image data having different display modes are set in the inserted image data IPD0. Specifically, as shown in FIG. 58 (b-1), the inserted image data IPD0 includes a first inserted image data IPD1 on which a first inserted character image IP1 showing two girls is drawn. As shown in FIG. 58 (b-2), the second inserted image data IPD2 in which the second inserted character image IP2 showing the three girls is drawn is set.

ラウンド演出では、ラウンド動画像データRMD0に設定された一連のラウンド動画が再生される。そして、当該動画の再生中の所定のタイミングにて、挿入画像データIPD0を用いて挿入キャラクタ画像が挿入表示される。この場合、ラウンドに応じて、用いられる挿入画像データIPD0が異なるように設定されている。 In the round effect, a series of round moving images set in the round moving image data RMD0 is played back. Then, the inserted character image is inserted and displayed using the inserted image data IPD0 at a predetermined timing during playback of the moving image. In this case, the inserted image data IPD0 used is set to be different depending on the round.

ラウンド動画像データRMD0及び挿入画像データIPD0を用いてラウンド演出を行うための具体的な処理構成について以下に説明する。 A specific processing configuration for performing a round effect using the round moving image data RMD0 and the inserted image data IPD0 will be described below.

図59は、表示CPU131にて実行されるラウンド演出用の演算処理を示すフローチャートである。ラウンド演出用の演算処理は、開閉実行モードに対応したデータテーブルが設定された場合に、タスク処理(図14)におけるステップS904の演出用演算処理にて起動される。 FIG. 59 is a flowchart showing a calculation process for round effect executed by the display CPU 131. The calculation process for the round effect is started by the effect operation process in step S904 in the task process (FIG. 14) when the data table corresponding to the open / close execution mode is set.

先ずステップS3501では、開閉実行モードに対応したデータテーブルに基づいてラウンド演出の実行中であるか否かを判定する。開閉実行モードに対応したデータテーブルは、ラウンド演出としてラウンド動画が複数回再生されるよう設定されており、具体的には、ラウンド数と同じ回数だけラウンド動画が再生されるように設定されている。 First, in step S3501, it is determined whether or not the round effect is being executed based on the data table corresponding to the open / close execution mode. The data table corresponding to the open / close execution mode is set so that the round video is played multiple times as a round effect. Specifically, the round video is set to be played the same number of times as the number of rounds. ..

ラウンド演出が実行中でない場合には、ステップS3502に進み、開閉実行モードに対応したデータテーブルに基づいてラウンド動画の再生開始タイミングであるか否かを判定する。具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画を複数回再生させることに対応させて、ラウンド動画の再生開始タイミングが複数設定されている。当該再生開始タイミングは、ラウンド遊技の開始タイミングと同期しており、詳細にはラウンド遊技の開始タイミングよりも1処理回分(20msec)だけ前のタイミングとなるよう構成されている。 If the round effect is not being executed, the process proceeds to step S3502, and it is determined whether or not it is the playback start timing of the round moving image based on the data table corresponding to the open / close execution mode. Specifically, in the data table corresponding to the open / close execution mode, a plurality of playback start timings of the round video are set in correspondence with the playback of the round video a plurality of times. The reproduction start timing is synchronized with the start timing of the round game, and in detail, the timing is configured to be one processing time (20 msec) before the start timing of the round game.

なお、ラウンド動画像データRMD0をデコードするのに上記1処理回分の期間よりも長い期間を要する場合には、ラウンド動画の再生開始タイミングを、ラウンド遊技の開始タイミングよりも上記ラウンド動画像データRMD0をデコードするのに要する期間分だけ更に前に設定しておくとよい。これにより、デコードに要する期間によって生じ得るタイムラグに好適に対応することができる。要は、ラウンド動画の再生と、ラウンド遊技の開始とが同一タイミングとなるように、ラウンド動画像データRMD0をデコードするのに要する期間を考慮してラウンド動画の再生開始タイミングが設定されていればよい。 If it takes a longer period than the period for one processing to decode the round moving image data RMD0, the playback start timing of the round moving image is set to the round moving image data RMD0 rather than the start timing of the round game. It is advisable to set it earlier by the period required for decoding. This makes it possible to suitably cope with the time lag that may occur due to the period required for decoding. In short, if the playback start timing of the round video is set in consideration of the period required to decode the round moving image data RMD0 so that the playback of the round video and the start of the round game are at the same timing. good.

ラウンド動画の再生開始タイミングでない場合には、そのまま本ラウンド演出用の演算処理を終了する一方、ラウンド動画の再生開始タイミングである場合には、ステップS3503に進み、ワークRAM132に設けられたラウンドカウンタエリアに記憶されているラウンドカウンタRCの更新処理を実行する。ラウンドカウンタRCは、表示制御装置130にてラウンド数を把握するためのものである。ラウンドカウンタRCは、開閉実行モードに対応したデータテーブルが設定された場合に初期値として「0」が設定される。 If it is not the playback start timing of the round video, the arithmetic processing for this round effect is terminated as it is, while if it is the playback start timing of the round video, the process proceeds to step S3503 and the round counter area provided in the work RAM 132 is provided. The round counter RC stored in is updated. The round counter RC is for grasping the number of rounds by the display control device 130. The round counter RC is set to "0" as an initial value when the data table corresponding to the open / close execution mode is set.

ステップS3503では、ラウンドカウンタRCを1加算する処理を実行する。これにより、ラウンドカウンタRCを把握することにより、1の開閉実行モードにおいてラウンド動画が再生された回数を把握することができる。すなわち、ラウンドカウンタRCを把握することにより、現状行われているラウンド遊技が何ラウンド目であるかを特定することができる。 In step S3503, a process of adding 1 to the round counter RC is executed. Thereby, by grasping the round counter RC, it is possible to grasp the number of times the round moving image is played in the opening / closing execution mode of 1. That is, by grasping the round counter RC, it is possible to specify the round number of the round game currently being performed.

その後、ステップS3504にて、開閉実行モードに対応したデータテーブルに基づいて、各種アドレスを把握する。具体的には、VRAM134の展開用バッファ141においてラウンド動画像データRMD0が格納されているアドレスと、当該ラウンド動画像データRMD0をデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 After that, in step S3504, various addresses are grasped based on the data table corresponding to the open / close execution mode. Specifically, when the address where the round moving image data RMD0 is stored in the expansion buffer 141 of the VRAM 134 and the round moving image data RMD0 are decoded to create still image data for a plurality of frames, they are still. Know the address of the area where the image data is stored.

続くステップS3505では、VDP135にてラウンド動画像データRMD0をデコードするように指定するデコード指定情報を記憶して、本演算処理を終了する。 In the following step S3505, the decoding designation information that specifies that the round moving image data RMD0 is decoded by the VDP135 is stored, and this calculation process is terminated.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、ラウンド動画像データRMD0のデコード指定情報が設定された描画リストが作成され、VDP135に送信される。 When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decoding designation information of the round moving image data RMD0 is set is created and transmitted to the VDP 135.

ラウンド演出が実行中である場合には、ステップS3506に進み、動画用オブジェクトを把握する。動画用オブジェクトは、静止画像データをマッピングするためのオブジェクトである。動画用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。 If the round effect is being executed, the process proceeds to step S3506 to grasp the moving object. The moving object is an object for mapping still image data. The moving object is composed of rectangular plate-shaped plate polygons. The plate polygon can be said to be an object with a small number of polygons, and is low-definition data configured in a plane shape without unevenness in the three-dimensional direction.

動画用オブジェクトのサイズは、表示面G全体の画像を表示することが可能なサイズに設定されている。具体的には、動画用オブジェクトの板面のサイズが上記静止画像データと同一サイズに設定されている。 The size of the moving object is set to a size capable of displaying an image of the entire display surface G. Specifically, the size of the board surface of the moving object is set to the same size as the still image data.

動画用オブジェクトを把握した後は、ステップS3507にて、当該動画用オブジェクトに対してマッピングする静止画像データを特定するための処理を実行する。具体的には、ラウンド動画像データRMD0から作成された静止画像データのうち今回のフレーム番号に対応した静止画像データが格納されているアドレスを把握する。このアドレスの把握は、現状設定されている開閉実行モードに対応したデータテーブルに基づいて行われる。 After grasping the moving object, in step S3507, a process for specifying the still image data to be mapped to the moving object is executed. Specifically, among the still image data created from the round moving image data RMD0, the address where the still image data corresponding to the current frame number is stored is grasped. This address is grasped based on the data table corresponding to the currently set open / close execution mode.

続くステップS3508では、動画用オブジェクトに適用されるパラメータを決定する演算処理を実行する。そして、ステップS3509にて、ラウンド動画像データRMD0から作成した静止画像データを使用することを示す動画像指定情報を記憶する。 In the following step S3508, an arithmetic process for determining the parameters applied to the moving object is executed. Then, in step S3509, the moving image designation information indicating that the still image data created from the round moving image data RMD0 is used is stored.

ステップS3509の処理の実行後は、ステップS3510〜ステップS3518にて、挿入画像データIPD0に係る演算処理を実行する。 After executing the process of step S3509, the arithmetic process related to the inserted image data IPD0 is executed in steps S351 to S3518.

先ず、ステップS3510にて、現状設定されているデータテーブルに基づいて挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合にはステップS3511に進み、挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。 First, in step S3510, it is determined whether or not the inserted character image is being displayed based on the currently set data table. If the inserted character image is not being displayed, the process proceeds to step S3511 to determine whether or not it is the display start timing of the inserted character image.

具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画中に挿入キャラクタ画像の表示開始タイミング(挿入タイミング)が予め定められている。詳細には、挿入キャラクタ画像の挿入タイミングはラウンド動画の内容に対応させて設定されており、各移動キャラクタ画像MP1,MP2がフレームアウトしたタイミングと基準データRMD4の表示タイミングとの間、詳細には基準データRMD3の表示タイミングに設定されている。当該データテーブルに基づいて、挿入キャラクタ画像の挿入タイミングであるか否かを判定する。 Specifically, in the data table corresponding to the open / close execution mode, the display start timing (insertion timing) of the inserted character image in the round moving image is predetermined. In detail, the insertion timing of the inserted character image is set according to the content of the round moving image, and the timing between the frame-out timing of each moving character image MP1 and MP2 and the display timing of the reference data RMD4 is described in detail. It is set to the display timing of the reference data RMD3. Based on the data table, it is determined whether or not it is the insertion timing of the inserted character image.

挿入キャラクタ画像の挿入タイミングである場合には、ステップS3512〜ステップS3516にて挿入キャラクタ画像の挿入に係る処理を実行する。 When it is the insertion timing of the inserted character image, the process related to the insertion of the inserted character image is executed in steps S3512 to S3516.

具体的には、先ずステップS3512にて、挿入画像データIPD0を描画するための挿入用オブジェクトを把握する。挿入用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンは、既に説明した通り、ポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。 Specifically, first, in step S3512, the insertion object for drawing the inserted image data IPD0 is grasped. The insertion object is composed of rectangular plate-shaped plate polygons. As already described, the plate polygon can be said to be an object having a small number of polygons, and is low-definition data configured in a plane shape without unevenness in the three-dimensional direction.

挿入用オブジェクトは、挿入画像データIPD0に対応させて設定されている。詳細には、挿入用オブジェクトの板面のサイズと挿入画像データIPD0のサイズとが同一となるように、挿入用オブジェクトのサイズが設定されている。これにより、圧縮等の特別な処理をすることなく、挿入用オブジェクトに対して挿入画像データIPD0をマッピングすることができ、当該マッピングにより挿入キャラクタ画像を表示させることができる。 The insertion object is set corresponding to the inserted image data IPD0. Specifically, the size of the insertion object is set so that the size of the plate surface of the insertion object and the size of the insertion image data IPD0 are the same. As a result, the inserted image data IPD0 can be mapped to the insertion object without performing special processing such as compression, and the inserted character image can be displayed by the mapping.

ここで、挿入画像データIPD0は、表示面Gにおいて部分的に表示される画像に係る画像データである。このため、当該挿入画像データIPD0に対応させて設定された挿入用オブジェクトは、表示面G全体の画像を表示させるのに用いられる動画用オブジェクトよりも小さく設定されている。 Here, the inserted image data IPD0 is image data related to an image partially displayed on the display surface G. Therefore, the insertion object set corresponding to the inserted image data IPD0 is set smaller than the moving object used to display the image of the entire display surface G.

挿入用オブジェクトを把握した後は、ステップS3513〜ステップS3515にて、挿入用オブジェクトに対してマッピングする画像データ(テクスチャ)を把握する処理を実行する。この場合、現状のラウンド動画が何回目のラウンドであるかに応じて、マッピングする画像データを異ならせる。 After grasping the insertion object, in steps S3513 to S3515, a process of grasping the image data (texture) to be mapped to the insertion object is executed. In this case, the image data to be mapped is different depending on how many rounds the current round moving image is.

具体的には、先ずステップS3513にて、今回のラウンド演出が何回目のラウンドに対応したものであるかを把握する。具体的には、ラウンドカウンタRCを把握する。 Specifically, first, in step S3513, it is grasped how many rounds the current round production corresponds to. Specifically, the round counter RC is grasped.

そして、ステップS3514にて、各挿入画像データIPD1,IPD2のうち、ステップS3513にて把握されたラウンドカウンタRCに対応した1の画像データを選択する。詳細には、ステップS3513にて把握されたラウンドカウンタRCが奇数である場合には、第1挿入キャラクタ画像IP1に対応する第1挿入画像データIPD1を選択し、ステップS3513にて把握されたラウンドカウンタRCが偶数である場合には、第2挿入キャラクタ画像IP2に対応する第2挿入画像データIPD2を選択する。そして、当該選択された挿入画像データのアドレスを設定する。 Then, in step S3514, one image data corresponding to the round counter RC grasped in step S3513 is selected from the inserted image data IPD1 and IPD2. Specifically, when the round counter RC grasped in step S3513 is an odd number, the first inserted image data IPD1 corresponding to the first inserted character image IP1 is selected, and the round counter grasped in step S3513 is selected. When RC is an even number, the second inserted image data IPD2 corresponding to the second inserted character image IP2 is selected. Then, the address of the selected inserted image data is set.

その後、ステップS3515にて、挿入用オブジェクトの各種パラメータの演算処理を実行する。この場合、挿入用オブジェクトの座標は、ワールド座標系に変換した場合に表示面Gの中央に挿入キャラクタ画像が表示されるように設定されているとともに、動画用オブジェクトよりも前になるよう設定されている。 After that, in step S3515, arithmetic processing of various parameters of the insertion object is executed. In this case, the coordinates of the insertion object are set so that the inserted character image is displayed in the center of the display surface G when converted to the world coordinate system, and is set before the moving object. ing.

その後、ステップS3516にて、挿入キャラクタ画像を表示することを示す画像挿入指定情報を設定し、本演算処理を終了する。 After that, in step S3516, the image insertion designation information indicating that the inserted character image is to be displayed is set, and the present calculation process is terminated.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定される。また、当該描画リストには、動画用オブジェクトが設定されるとともに、当該動画用オブジェクトに適用される各種パラメータが設定される。この場合、当該パラメータには、動画用オブジェクトに対してマッピングされる画像データ(テクスチャ)としてラウンド動画像データRMD0から作成された静止画像データのアドレスが含まれている。 When the above calculation process is executed, moving image designation information is set in the drawing list created in the subsequent drawing list output process (step S806). In addition, a moving object is set in the drawing list, and various parameters applied to the moving object are set. In this case, the parameter includes the address of the still image data created from the round moving image data RMD0 as the image data (texture) mapped to the moving object.

さらに、今回の演算処理が挿入キャラクタ画像の挿入タイミングである場合には、今回のラウンド演出に対応した挿入キャラクタ画像を表示するための情報、具体的には挿入用オブジェクト、及び当該挿入用オブジェクトに適用されるパラメータが設定されるとともに、画像挿入指定情報が設定される。この場合、上記パラメータには、挿入用オブジェクトに対してマッピングされる画像データ(テクスチャ)として、今回のラウンドに対応した挿入画像データのアドレスが含まれている。 Further, when the current arithmetic processing is the insertion timing of the inserted character image, the information for displaying the inserted character image corresponding to the current round effect, specifically, the insertion object and the insertion object. The applied parameters are set, and the image insertion specification information is set. In this case, the above parameter includes the address of the inserted image data corresponding to this round as the image data (texture) mapped to the insertion object.

挿入キャラクタ画像が表示中である場合には、ステップS3510を肯定判定し、ステップS3517及びステップS3518にて、現状表示されている挿入キャラクタ画像の表示を維持する処理を実行する。具体的には、ステップS3517にて、挿入用オブジェクトを把握し、ステップS3518にて、現状設定されている挿入用オブジェクトのパラメータを維持する演算を行う。この場合、挿入用オブジェクトに対してマッピングされる挿入画像データのアドレスも維持する。そして、ステップS3516にて画像挿入指定情報を設定し、本演算処理を終了する。 If the inserted character image is being displayed, affirmative determination is made in step S3510, and in steps S3517 and S3518, a process of maintaining the display of the currently displayed inserted character image is executed. Specifically, in step S3517, the insertion object is grasped, and in step S3518, an operation for maintaining the parameters of the insertion object currently set is performed. In this case, the address of the inserted image data mapped to the insertion object is also maintained. Then, in step S3516, the image insertion designation information is set, and this calculation process is terminated.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定されるとともに、今回のフレーム番号に対応した静止画像データに対応した画像を表示させるための情報が設定される。 When the above calculation process is executed, moving image designation information is set in the drawing list created in the subsequent drawing list output process (step S806), and still image data corresponding to the current frame number is supported. Information for displaying the image is set.

また、挿入キャラクタ画像が表示中である場合には、描画リストには、今回のラウンドに対応した挿入キャラクタ画像に対応した画像を表示するための情報が設定される。 When the inserted character image is being displayed, information for displaying the image corresponding to the inserted character image corresponding to this round is set in the drawing list.

なお、ラウンド演出用の演算処理において、現在のラウンド遊技が何ラウンド目であるかを認識させるための個別画像の演算処理を実行する構成としてもよい。この場合、遊技者が今回のラウンド遊技が何ラウンド目であるかを容易に確認することができる。 In addition, in the arithmetic processing for the round effect, the arithmetic processing of the individual image for recognizing the number of rounds of the current round game may be executed. In this case, the player can easily confirm the round number of the current round game.

また、開閉実行モード中は、図柄用演算処理(ステップS905)はスキップするよう構成されている。これにより、開閉実行モード中は、図柄の変動表示が表示されないため、ラウンド動画像データRMD0によるラウンド動画に遊技者の注意を惹きつけることができるとともに、開閉実行モード中における処理負荷の軽減を図ることができる。なお、これに限られず、開閉実行モード中に図柄の変動表示を行わせる構成としてもよい。 Further, during the open / close execution mode, the symbol calculation process (step S905) is configured to be skipped. As a result, since the variable display of the symbol is not displayed during the open / close execution mode, it is possible to attract the player's attention to the round moving image by the round moving image data RMD0, and to reduce the processing load in the open / close execution mode. be able to. In addition, the present invention is not limited to this, and the configuration may be such that the variable display of the symbol is performed during the open / close execution mode.

さらに、ラウンド動画の再生中は、背景用の設定処理(ステップS903)はスキップするよう構成されている。この場合であっても、動画用オブジェクトに対してラウンド動画像データRMD0から作成された静止画像データが貼り付けられることにより、表示面G全体に亘って上記静止画像データに係る画像が表示される。つまり、上記動画表示に係る画像が背景画像として機能する。これにより、背景用の設定処理に係る処理負荷分だけ、処理負荷の軽減を図ることができる。 Further, the background setting process (step S903) is configured to be skipped during the reproduction of the round moving image. Even in this case, by pasting the still image data created from the round moving image data RMD0 to the moving object, the image related to the still image data is displayed over the entire display surface G. .. That is, the image related to the moving image display functions as a background image. As a result, the processing load can be reduced by the amount of the processing load related to the background setting process.

次に、VDP135の動画デコーダにて実行されるデコード処理について、図60のフローチャートを参照しながら説明する。当該デコード処理は、表示CPU131から送信される描画リストにいずれかのデコード指定情報が設定されている場合に起動される。また、当該デコード処理は、VDP135にて実行される描画処理(図16)とは非同期で起動される。 Next, the decoding process executed by the moving image decoder of VDP135 will be described with reference to the flowchart of FIG. The decoding process is started when any of the decoding designation information is set in the drawing list transmitted from the display CPU 131. Further, the decoding process is started asynchronously with the drawing process (FIG. 16) executed by the VDP 135.

先ずステップS3601では、描画リストにて指定されたアドレスの情報から、ラウンド動画像データRMD0のアドレスを把握する。続くステップS3602では、描画リストにて指定された展開先アドレスの情報から、ラウンド動画像データRMD0の展開先のエリアを把握する。 First, in step S3601, the address of the round moving image data RMD0 is grasped from the information of the address specified in the drawing list. In the following step S3602, the expansion destination area of the round moving image data RMD0 is grasped from the information of the expansion destination address specified in the drawing list.

続くステップS3603では、ステップS3601にて把握したアドレスからラウンド動画像データRMD0を読み出すとともに、当該ラウンド動画像データRMD0をデコードする。そして、そのデコード結果の各静止画像データを、ステップS3602にて把握したアドレスの各エリアに書き込む。その後、本デコード処理を終了する。 In the following step S3603, the round moving image data RMD0 is read from the address grasped in step S3601, and the round moving image data RMD0 is decoded. Then, each still image data of the decoding result is written in each area of the address grasped in step S3602. After that, the present decoding process is terminated.

ちなみに、デコード指定情報が設定された描画リストをVDP135が受信してから、ラウンド動画の1フレーム目の静止画像データを作成するまでに要する期間は、描画リストの受信周期(20msec)よりも小さく設定されている。これにより、デコード指定情報が設定された描画リストを受信してから、1フレーム目の静止画像データに対応したアドレスが設定された描画リストを受信するまでには、1フレーム目の静止画像データが作成されている。よって、アドレスに対応した静止画像データが存在しないという事態が発生しないようになっている。 By the way, the period required from the reception of the drawing list in which the decoding specification information is set to the creation of the still image data of the first frame of the round moving image is set to be smaller than the reception cycle (20 msec) of the drawing list. Has been done. As a result, from the time when the drawing list in which the decoding specification information is set is received to the time when the drawing list in which the address corresponding to the still image data in the first frame is set is received, the still image data in the first frame is stored. Has been created. Therefore, the situation that the still image data corresponding to the address does not exist does not occur.

なお、デコード処理は、描画処理と非同期で起動される構成としたが、これに限られない。例えば、描画処理にて所定のエリアに書き込まれた静止画像データを用いた描画が完了したことに基づいて、新たなフレームに係る静止画像データを展開する構成としてもよい。この場合、デコードされた静止画像データが用いられる毎に静止画像データを順次展開するため、1度に全部を展開して保存する構成と比較して、静止画像データを書き込むためのエリアの領域を少なくすることができる。さらに、デコードしながらラウンド動画を再生する構成であるため、デコードによるタイムラグを小さくすることができる。 The decoding process is configured to be started asynchronously with the drawing process, but the present invention is not limited to this. For example, it may be configured to develop the still image data related to the new frame based on the completion of drawing using the still image data written in the predetermined area in the drawing process. In this case, since the still image data is sequentially expanded each time the decoded still image data is used, the area for writing the still image data is divided as compared with the configuration in which all the decoded still image data is expanded and saved at once. Can be reduced. Further, since the round moving image is reproduced while decoding, the time lag due to decoding can be reduced.

次に、VDP135にて実行されるラウンド演出用の設定処理について、図61のフローチャートを参照しながら説明する。 Next, the setting process for the round effect executed by the VDP 135 will be described with reference to the flowchart of FIG.

ラウンド演出用の設定処理は、描画処理(図16)のステップS1003にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて動画像指定情報が設定されている場合に、当該ラウンド演出用の設定処理が実行される。 The setting process for the round effect is executed as a part of the setting process for the effect executed in step S1003 of the drawing process (FIG. 16). Further, when the moving image designation information is set in the drawing list, the setting process for the round effect is executed.

先ずステップS3701では、描画リストにて設定されている動画用オブジェクトを把握し、ステップS3702にて、描画リストに基づいて当該動画用オブジェクトに対して適用される各種パラメータを把握する。 First, in step S3701, the moving object set in the drawing list is grasped, and in step S3702, various parameters applied to the moving object are grasped based on the drawing list.

その後、ステップS3703にて、動画用オブジェクトについてワールド座標系への設定処理を実行し、ステップS3704に進む。 After that, in step S3703, the setting process for the moving object in the world coordinate system is executed, and the process proceeds to step S3704.

続くステップS3704では、描画リストにおいて画像挿入指定情報が記憶されているか否かを判定する。画像挿入指定情報が記憶されていない場合には、そのまま本設定処理を終了する一方、画像挿入指定情報が記憶されている場合には、ステップS3705にて今回の描画リストに設定されている挿入用オブジェクトを把握し、ステップS3706にて描画リストに基づいて挿入用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS3707にて、挿入用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 In the following step S3704, it is determined whether or not the image insertion designation information is stored in the drawing list. If the image insertion designation information is not stored, the present setting process is terminated as it is, while if the image insertion designation information is stored, the insertion setting set in the drawing list this time in step S3705 is performed. The object is grasped, and the parameters applied to the insertion object are grasped based on the drawing list in step S3706. Then, in step S3707, the setting process for the insertion object is executed in the world coordinate system, and this setting process is terminated.

上記のように設定処理が実行されることにより、ワールド座標系において動画用オブジェクトと挿入用オブジェクトとの配置が同時に開始される。この場合、動画用オブジェクトの前側に挿入用オブジェクトが重なるように配置される。 By executing the setting process as described above, the placement of the moving object and the insertion object is started at the same time in the world coordinate system. In this case, the insertion object is arranged so as to overlap the front side of the moving object.

次に、ラウンド演出用マッピング処理について図62のフローチャートを用いて説明する。当該ラウンド演出用マッピング処理は、描画処理(図16)の色情報の設定処理(ステップS1009)において、ラウンド演出に係る描画リスト(動画指定情報が設定された描画リスト)が作成された場合に起動される。 Next, the mapping process for round effect will be described with reference to the flowchart of FIG. The round effect mapping process is activated when a drawing list (drawing list in which moving image designation information is set) related to the round effect is created in the color information setting process (step S1009) of the drawing process (FIG. 16). Will be done.

先ず、ステップS3801では、今回の設定対象の静止画像データが格納されているアドレスの情報を、描画リストから把握する。続くステップS3802では、ステップS3801にて把握したアドレスの情報から今回の描画対象の静止画像データを把握する。続くステップS3803では、動画用オブジェクトに対してステップS3802にて把握した静止画像データをマッピングする。この場合、静止画像データの座標値は、動画用オブジェクトに対して予め設定されているUV座標値であり、動画用オブジェクトに対する静止画像データの貼付位置は一義的に決まっている。 First, in step S3801, the information of the address where the still image data to be set this time is stored is grasped from the drawing list. In the following step S3802, the still image data to be drawn this time is grasped from the address information grasped in step S3801. In the following step S3803, the still image data grasped in step S3802 is mapped to the moving object. In this case, the coordinate value of the still image data is a UV coordinate value preset for the moving object, and the position where the still image data is attached to the moving object is uniquely determined.

その後、ステップS3804では、今回の描画リストに画像挿入指定情報が設定されているか否かを判定する。画像挿入指定情報が設定されていない場合には、そのまま本処理を終了する一方、画像挿入指定情報が設定されている場合には、ステップS3805にて今回の描画リストに設定されている挿入キャラクタ画像データのアドレスの情報を把握する。 After that, in step S3804, it is determined whether or not the image insertion designation information is set in the drawing list this time. If the image insertion specification information is not set, this process is terminated as it is, while if the image insertion specification information is set, the inserted character image set in the drawing list this time in step S3805. Grasp the information of the data address.

ステップS3806では、ステップS3805にて把握したアドレスの情報から今回の描画対象の挿入画像データを把握する。その後、ステップS3807にて、挿入用オブジェクトに対してステップS3806にて把握した挿入キャラクタ画像データをマッピングして、本処理を終了する。 In step S3806, the inserted image data to be drawn this time is grasped from the address information grasped in step S3805. After that, in step S3807, the inserted character image data grasped in step S3806 is mapped to the insertion object, and this process is terminated.

以上の処理が実行されることにより、表示面Gにてラウンド動画像データRMD0に係るラウンド動画が再生されることとなる。また、画像挿入指定情報が設定されている場合には、当該ラウンド動画に対して重なるようにして挿入キャラクタ画像が表示される。 By executing the above processing, the round moving image related to the round moving image data RMD0 is reproduced on the display surface G. Further, when the image insertion designation information is set, the inserted character image is displayed so as to overlap with the round moving image.

ここで、ラウンド動画には、第2背景画像BP2のみが描画されており、各挿入キャラクタ画像は設定されていない。そして、ラウンド数に対応した挿入キャラクタ画像が第2背景画像BP2に対して重なるように表示される構成となっているため、挿入画像データIPD0を表示面G全体に表示される画像データとして用意する必要がない。これにより、挿入画像データIPD0のデータ量の削減を図ることができる。 Here, only the second background image BP2 is drawn in the round moving image, and each inserted character image is not set. Since the inserted character image corresponding to the number of rounds is displayed so as to overlap the second background image BP2, the inserted image data IPD0 is prepared as image data to be displayed on the entire display surface G. There is no need. This makes it possible to reduce the amount of inserted image data IPD0.

すなわち、表示面Gの一部を変更する場合には、共通した部分(第2背景画像BP2)に係るデータを動画像データに設定し、個別の部分(各挿入キャラクタ画像IP1,IP2)に係るデータを別に用意することにより、全体としてのデータ量の削減を図ることができる。 That is, when a part of the display surface G is changed, the data related to the common part (second background image BP2) is set as the moving image data, and the individual parts (each inserted character image IP1 and IP2) are related. By preparing the data separately, it is possible to reduce the amount of data as a whole.

また、動画像データの特性上、連続するフレーム毎に静止画像データを設定する必要がある。この必須の静止画像データを用いて第2背景画像BP2を描画することにより、必須の静止画像データを好適に利用することができ、ラウンド演出に係るデータ量の削減を図ることができる。 Further, due to the characteristics of moving image data, it is necessary to set still image data for each continuous frame. By drawing the second background image BP2 using this essential still image data, the essential still image data can be suitably used, and the amount of data related to the round effect can be reduced.

さらに、例えば第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描かれた画像に対して、第1挿入キャラクタ画像IP1を上書きしようとすると、真ん中に表示される女の子を消去するべく、当該女の子に対応した領域に対して第2背景画像BP2を描画する必要が生じることに起因して上書き対象となる領域が大きくなったり、消去対象となる領域とその他の領域とで異なるα値が設定されたαデータを別途設けたりする必要が生じ得る。このため、処理負荷の増大化が生じたり、データ量の増大化が生じたりする場合がある。これに対して、第2背景画像BP2に係る静止画像データを動画像データに設定し、変更対象となる挿入キャラクタ画像に係る画像データを動画像データとは別に用意することにより、上記不都合を回避することができる。 Further, for example, when an attempt is made to overwrite the first inserted character image IP1 on an image in which the second inserted character image IP2 is drawn superimposed on the second background image BP2, the girl displayed in the center is erased. The area to be overwritten becomes large due to the need to draw the second background image BP2 for the area corresponding to the girl, or different α values are set between the area to be erased and the other areas. It may be necessary to separately provide the created α data. Therefore, the processing load may increase or the amount of data may increase. On the other hand, the above inconvenience is avoided by setting the still image data related to the second background image BP2 as the moving image data and preparing the image data related to the inserted character image to be changed separately from the moving image data. can do.

なお、動画用オブジェクトの板面は平面であるため、静止画像データに係る画像が湾曲することがない。これにより、静止画像データに係る画像がそのまま表示されることとなる。 Since the plate surface of the moving object is a flat surface, the image related to the still image data is not curved. As a result, the image related to the still image data is displayed as it is.

また、動画用オブジェクト及び挿入用オブジェクトについては平行投影されるように構成されている。これにより、パースペクティブの関係上、表示面Gの縁側の画像が湾曲したりするのを抑えることができる。 Further, the moving object and the insertion object are configured to be projected in parallel. As a result, it is possible to prevent the image on the edge side of the display surface G from being curved due to the perspective.

次にラウンド演出の様子について、図63を用いて説明する。図63は、ラウンド演出の様子を示すタイムチャートである。 Next, the state of the round effect will be described with reference to FIG. 63. FIG. 63 is a time chart showing the state of the round effect.

ラウンド演出の開始タイミングであるt1のタイミングでは、図63(a)に示すように、第1背景画像BP1及び各移動キャラクタ画像MP1,MP2が表示される。 At the timing of t1, which is the start timing of the round effect, the first background image BP1 and the moving character images MP1 and MP2 are displayed as shown in FIG. 63 (a).

そして、時間の経過(フレーム番号の更新)に伴って、各移動キャラクタ画像MP1,MP2が所定方向に移動する。例えば、t2のタイミングでは、図63(b)に示すように、各移動キャラクタ画像MP1,MP2が波に乗って移動する様子が表示される。そして、各移動キャラクタ画像MP1,MP2がフレームアウトする。 Then, with the passage of time (update of the frame number), the moving character images MP1 and MP2 move in a predetermined direction. For example, at the timing of t2, as shown in FIG. 63 (b), a state in which the moving character images MP1 and MP2 move on the wave is displayed. Then, the moving character images MP1 and MP2 are framed out.

その後、画像挿入タイミングであるt3のタイミングにて、第2背景画像BP2を背景として挿入キャラクタ画像が表示される。この場合、今回のラウンド演出が奇数ラウンド目である場合には、図63(c−1)に示すように、第1挿入キャラクタ画像IP1が表示される。一方、今回のラウンド演出が偶数ラウンド目である場合には、図63(c−2)に示すように、第2挿入キャラクタ画像IP2が表示される。 After that, the inserted character image is displayed with the second background image BP2 as the background at the timing of t3, which is the image insertion timing. In this case, when the round effect this time is the odd-numbered round, the first inserted character image IP1 is displayed as shown in FIG. 63 (c-1). On the other hand, when the round effect this time is an even-numbered round, the second inserted character image IP2 is displayed as shown in FIG. 63 (c-2).

その後、t4のタイミングでは、図63(d)に示すように、第3移動キャラクタ画像MP3が表示される。そして、当該第3移動キャラクタ画像MP3が所定の動作を行った後、ラウンド演出が終了する。 After that, at the timing of t4, the third moving character image MP3 is displayed as shown in FIG. 63 (d). Then, after the third moving character image MP3 performs a predetermined operation, the round effect ends.

以上の通り、ラウンド遊技が開始される度にラウンド動画を再生する構成とし、更にラウンド動画の再生中に、当該ラウンド動画に係る画像に対して重なるように今回のラウンドに対応した挿入キャラクタ画像を表示させるラウンド演出を実行する構成とした。これにより、1のラウンド動画像データRMD0を用いて複数の表示態様の動画を視認させることができるため、ラウンド毎にラウンド動画像データRMD0を用意する構成と比較して、メモリモジュール133に記憶させておくデータ量を削減することができる。 As described above, the configuration is such that the round video is played each time the round game is started, and the inserted character image corresponding to this round is inserted so as to overlap the image related to the round video during the playback of the round video. It is configured to execute the round effect to be displayed. As a result, since the moving images of a plurality of display modes can be visually recognized using the round moving image data RMD0 of 1, the memory module 133 is stored in comparison with the configuration in which the round moving image data RMD0 is prepared for each round. The amount of data to be stored can be reduced.

特に、開閉実行モードにおいては、同一の遊技、すなわち、ラウンド遊技が繰り返し行われる。この場合、ラウンド遊技が繰り返し行われることに対応させて、同一のラウンド演出を繰り返し実行する構成とすると、ラウンド演出への注目度が低下するおそれがある。かといって、ラウンド遊技毎に異なる動画表示を行う構成とすると、当該動画表示に係る動画像データのデータ量の増大化が懸念される。 In particular, in the open / close execution mode, the same game, that is, a round game is repeatedly performed. In this case, if the same round effect is repeatedly executed in response to the repeated round game, the degree of attention to the round effect may decrease. However, if a different moving image is displayed for each round game, there is a concern that the amount of moving image data related to the moving image display will increase.

これに対して、本パチンコ機10によれば、ラウンド動画の再生中に、今回のラウンドに対応した挿入キャラクタ画像を表示させる構成とすることにより、同一のラウンド動画を用いて、ラウンド演出のバリエーションの多様化を図ることができる。 On the other hand, according to the pachinko machine 10, the inserted character image corresponding to this round is displayed during the playback of the round moving image, so that the same round moving image can be used as a variation of the round effect. Can be diversified.

なお、挿入画像データIPD0として第1挿入画像データIPD1及び第2挿入画像データIPD2の2種類を用意したが、これに限られず、例えばラウンド数分だけ挿入画像データを用意する構成としてもよい。この場合、各ラウンドに対して各挿入画像データを対応付けて設定するとよい。これにより、ラウンド演出の多様化を図るとともに、挿入画像データに基づいて表示される画像に基づいて今回のラウンド遊技が何ラウンド目であるかを把握することが可能となる。 Two types of inserted image data IPD0, the first inserted image data IPD1 and the second inserted image data IPD2, are prepared, but the present invention is not limited to this, and for example, the inserted image data may be prepared for the number of rounds. In this case, it is advisable to associate and set each inserted image data for each round. As a result, it is possible to diversify the round effect and grasp the round number of the current round game based on the image displayed based on the inserted image data.

さらに、挿入画像データをラウンド数よりも多く用意し、各ラウンドにおける挿入キャラクタ画像の挿入タイミングにて、複数の挿入画像データのうち1の挿入画像データを選択する構成としてもよい。これにより、挿入される挿入キャラクタ画像のランダム性を高め、挿入キャラクタ画像への注目度を高めることができる。 Further, the inserted image data may be prepared in a larger number than the number of rounds, and the inserted image data of one of the plurality of inserted image data may be selected at the insertion timing of the inserted character image in each round. As a result, the randomness of the inserted character image to be inserted can be increased, and the degree of attention to the inserted character image can be increased.

また、挿入キャラクタ画像が表示されている状況において、挿入画像データIPD0に適用されるパラメータは変更しない構成としたが、これに限られず、適用されるパラメータを順次更新する構成としてもよい。この場合、一律α値を更新する構成とすれば、挿入キャラクタ画像をフェードイン又はフェードアウトさせることが可能となり、倍率情報を更新する構成とすれば、挿入キャラクタ画像の拡大又は縮小表示を行うことが可能となる。 Further, in the situation where the inserted character image is displayed, the parameter applied to the inserted image data IPD0 is not changed, but the present invention is not limited to this, and the applied parameter may be sequentially updated. In this case, if the α value is uniformly updated, the inserted character image can be faded in or faded out, and if the magnification information is updated, the inserted character image can be enlarged or reduced. It will be possible.

挿入キャラクタ画像をフェードイン又はフェードアウトさせる場合には、挿入キャラクタ画像と、当該挿入キャラクタ画像の背面側に描画されている動画に係る画像とのブレンディング処理を実行する構成としてもよい。これにより、挿入キャラクタ画像と動画に係る画像との親和性を高めることができ、挿入キャラクタ画像と動画に係る画像とを同時に表示させることによって生じ得る違和感を軽減することができる。 When the inserted character image is faded in or faded out, the blending process of the inserted character image and the image related to the moving image drawn on the back side of the inserted character image may be executed. As a result, the affinity between the inserted character image and the image related to the moving image can be enhanced, and the discomfort that may occur when the inserted character image and the image related to the moving image are displayed at the same time can be reduced.

また、ラウンド動画に限られず、例えばスーパーリーチ表示を行う場合や、ノーマルリーチ表示を行う場合に本発明を適用してもよい。この場合、スーパーリーチ表示中に再生されるリーチ動画に係るリーチ動画像データを用意するとともに、当該リーチ動画の再生中に挿入される挿入画像の挿入画像データを複数種類用意する。そして、表示CPU131は、スーパーリーチ表示を行う場合に、複数種類の挿入画像データのうち1の画像データを抽選する処理を実行し、抽選された挿入画像データのアドレスをデータテーブルに設定する。そして、挿入画像の挿入タイミングである場合に、データテーブルに設定された挿入画像データのアドレスに基づいて、今回の挿入画像データを把握し、当該挿入画像データに基づいて描画を行わせる。これにより、1のリーチ動画像データを用いて、複数種類のスーパーリーチ表示を行うことが可能となる。 Further, the present invention is not limited to the round moving image, and the present invention may be applied, for example, when performing super reach display or when performing normal reach display. In this case, the reach moving image data related to the reach moving image played during the super reach display is prepared, and a plurality of types of inserted image data of the inserted image inserted during the playing of the reach moving image are prepared. Then, the display CPU 131 executes a process of drawing one image data out of a plurality of types of inserted image data when performing super reach display, and sets the address of the drawn inserted image data in the data table. Then, when it is the insertion timing of the inserted image, the inserted image data this time is grasped based on the address of the inserted image data set in the data table, and drawing is performed based on the inserted image data. This makes it possible to perform a plurality of types of super reach display using one reach moving image data.

また、上記構成では、ラウンド毎にラウンド動画を再生する構成としたが、これに限られず、例えば複数のラウンドに跨って再生される一連のムービーであってもよい。この場合、開閉実行モードが終了するまで繰り返し上記一連のムービーを再生させる構成とするとよい。この場合であっても、一連のムービーの途中に異なる挿入キャラクタ画像を挿入することにより異なるムービーのように認識させることができる。 Further, in the above configuration, the round moving image is reproduced for each round, but the present invention is not limited to this, and for example, a series of movies that are reproduced over a plurality of rounds may be used. In this case, it is preferable to repeatedly play the above series of movies until the open / close execution mode ends. Even in this case, it is possible to recognize different movies by inserting different inserted character images in the middle of a series of movies.

上記複数のラウンドに跨って一連のムービーを再生する場合、各ラウンド間のインターバル期間中に挿入キャラクタ画像を表示させる構成としてもよい。これにより、複数のラウンドに跨って再生されるムービーにおいてインターバル期間中であることを遊技者に好適に認識させることができる。 When a series of movies are played over the plurality of rounds, the inserted character image may be displayed during the interval period between the rounds. This makes it possible for the player to preferably recognize that the movie is being played over a plurality of rounds during the interval period.

また、基準データRMD3には、第2背景画像BP2のみが描画されていたが、これに限られず、例えば第1挿入キャラクタ画像IP1及び第2背景画像BP2双方が描画されたものとしてもよい。この場合、第1挿入キャラクタ画像IP1に対して第2挿入キャラクタ画像IP2が重なるように、第2挿入画像データIPD2の座標を設定するとよい。これにより、画像を挿入する場合と挿入しない場合とで異なるラウンド演出を表示させることができる。但し、動画像データを有効に活用できる点、奥側に表示される画像を上書きするために画像データのサイズを大きめに確保する必要がある点等を鑑みれば、基準データRMD3には、第2背景画像BP2のみが描画されている構成の方がよい。 Further, although only the second background image BP2 is drawn in the reference data RMD3, the present invention is not limited to this, and for example, both the first inserted character image IP1 and the second background image BP2 may be drawn. In this case, the coordinates of the second inserted image data IPD2 may be set so that the second inserted character image IP2 overlaps with the first inserted character image IP1. As a result, it is possible to display different round effects depending on whether the image is inserted or not. However, considering that the moving image data can be effectively used and that it is necessary to secure a large size of the image data in order to overwrite the image displayed on the back side, the reference data RMD3 includes the second. It is better to have a configuration in which only the background image BP2 is drawn.

また、挿入キャラクタ画像を表示させる構成としたが、これに限られず、例えばt3のタイミング〜t4のタイミングに亘って別の挿入用動画を再生する構成としてもよい。この場合、t3のタイミングにて挿入用動画を再生することができるように、当該t3のタイミングよりも前のタイミングにて挿入用動画のデコードを行うとよい。また、挿入用動画は、表示面Gにおける所定の領域に対応した動画としてもよいし、表示面G全体の動画としてもよい。 Further, the configuration is such that the inserted character image is displayed, but the present invention is not limited to this, and another insertion moving image may be reproduced from the timing of t3 to the timing of t4, for example. In this case, it is advisable to decode the insertion moving image at a timing before the t3 timing so that the insertion moving image can be played back at the timing of t3. Further, the insertion moving image may be a moving image corresponding to a predetermined area on the display surface G, or may be a moving image of the entire display surface G.

上記構成では、一連のラウンド動画の再生中に、当該ラウンド動画に関連した挿入キャラクタ画像を表示させる構成としたが、これに限られず、ラウンド動画の態様とは関連しない特定画像をラウンド動画とは別に表示させる構成としてもよい。この場合、特定画像はラウンド動画が再生される期間のうち一部の期間において表示される構成としてもよいし、ラウンド動画が再生される期間全体に亘って表示させる構成としてもよい。 In the above configuration, the inserted character image related to the round video is displayed during the playback of the series of round videos. It may be configured to be displayed separately. In this case, the specific image may be displayed in a part of the period during which the round moving image is played, or may be displayed over the entire period during which the round moving image is played.

特定画像としては、例えば現状のラウンドが何番目のラウンドであるかを遊技者に教示可能な教示画像や、又はラウンド動画の再生回数を教示可能な教示画像や、大当たり当選となった場合に表示面Gにて表示された大当たり図柄の組み合わせを構成した図柄画像又は当該図柄画像に対応した画像等としてもよい。 As the specific image, for example, a teaching image that can teach the player which round the current round is, a teaching image that can teach the number of times the round video has been played, or a display when a big hit is won. It may be a symbol image constituting a combination of jackpot symbols displayed on the surface G, an image corresponding to the symbol image, or the like.

この場合、例えば教示画像の表示に係る処理としては、ラウンド動画とは別に各種教示用の画像データ(教示用のオブジェクト及び教示用のテクスチャ)を用意して、ラウンド動画に係る画像に対して上記教示用のオブジェクト及び教示用のテクスチャを用いて作成される教示画像を挿入して表示させる構成や、所定の教示画像が含まれたラウンド動画を用意する構成が考えられる。 In this case, for example, as a process related to the display of the teaching image, various image data for teaching (object for teaching and texture for teaching) are prepared separately from the round moving image, and the above is performed for the image related to the round moving image. A configuration in which a teaching image created by using an object for teaching and a texture for teaching is inserted and displayed, or a configuration in which a round moving image including a predetermined teaching image is prepared can be considered.

上記所定の教示画像が含まれたラウンド動画を用意する構成において、教示画像の内容を変更する場合には、当該ラウンド動画に含まれている上記所定の教示画像に対して重なるように変更先の教示画像を描画する。具体的には、上記所定の教示画像が表示される領域に重なるように変更先の教示用のオブジェクトを配置する。これにより、ラウンド動画に含まれている上記所定の教示画像に対して変更先の教示画像が上書きされ、当該変更先の教示画像が表示されることとなる。 In a configuration in which a round moving image including the predetermined teaching image is prepared, when the content of the teaching image is changed, the change destination is changed so as to overlap with the predetermined teaching image included in the round moving image. Draw a teaching image. Specifically, the object for teaching to be changed is arranged so as to overlap the area where the predetermined teaching image is displayed. As a result, the teaching image of the change destination is overwritten on the predetermined teaching image included in the round moving image, and the teaching image of the change destination is displayed.

かかる構成において、挿入キャラクタ画像を挿入表示する場合、当該挿入キャラクタ画像によって上記教示画像が上書きされないように、挿入用オブジェクトと教示用のオブジェクトとの位置関係を設定する。具体的には、ワールド座標系において、視点に対して挿入用オブジェクトよりも近い側に教示用のオブジェクトが配置されるように両者の座標を設定する。これにより、教示画像が挿入キャラクタ画像によって見えなくなるという不都合を回避することができる。 In such a configuration, when the inserted character image is inserted and displayed, the positional relationship between the insertion object and the teaching object is set so that the teaching image is not overwritten by the inserted character image. Specifically, in the world coordinate system, the coordinates of both are set so that the object for teaching is arranged on the side closer to the object for insertion than the object for insertion. This makes it possible to avoid the inconvenience that the teaching image is obscured by the inserted character image.

また、2次元表示を行う構成に対して上記画像挿入の発明を適用してもよい。具体的には、例えば挿入する画像に対応した画像データをスプライトデータとしてメモリモジュール133に対して予め記憶させておくとともに、当該スプライトデータに適用される各種パラメータ情報を記憶させておく。そして、動画像データをデコードすることにより作成される静止画像データをフレームバッファ142に書き込み、当該フレームバッファ142に対して挿入する画像に係るスプライトデータを書き込む処理を実行すればよい。 Further, the invention of image insertion may be applied to a configuration for performing two-dimensional display. Specifically, for example, the image data corresponding to the image to be inserted is stored in advance in the memory module 133 as sprite data, and various parameter information applied to the sprite data is stored. Then, the still image data created by decoding the moving image data may be written in the frame buffer 142, and the sprite data related to the image to be inserted into the frame buffer 142 may be written.

<ラウンド演出を行う場合の別形態>
ラウンド演出を行う場合の別形態について図64〜図68を用いて説明する。
<Another form for round production>
A different form in the case of performing the round effect will be described with reference to FIGS. 64 to 68.

本別形態では、ラウンド動画像データRMD0の構成が異なっている。その異なる点について図64を用いて説明する。図64は、本別形態におけるラウンド動画像データRMD0の構成を説明するための説明図である。 In this different form, the configuration of the round moving image data RMD0 is different. The difference will be described with reference to FIG. FIG. 64 is an explanatory diagram for explaining the configuration of the round moving image data RMD0 in the present alternative mode.

本別形態では、ラウンド動画像データRMD0は、挿入キャラクタ画像が表示されるタイミングにて分割されており、詳細には、ラウンド動画の開始タイミングから、当該各移動キャラクタ画像MP1,MP2がフェードアウトするまでの第1ラウンド動画に対応した第1ラウンド動画像データRMD0aと、第3移動キャラクタ画像MP3が表示されてからラウンド動画の終了タイミングまでの第2ラウンド動画に対応した第2ラウンド動画像データRMD0bと、に分割されている。 In the present alternative mode, the round moving image data RMD0 is divided at the timing when the inserted character image is displayed, and in detail, from the start timing of the round moving image to the fading out of the moving character images MP1 and MP2. 1st round moving image data RMD0a corresponding to the 1st round moving image, and 2nd round moving image data RMD0b corresponding to the 2nd round moving image from the display of the 3rd moving character image MP3 to the end timing of the round moving image. It is divided into.

第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bの圧縮態様について図65を用いて説明する。図65は各ラウンド動画像データRMD0a,RMD0bの圧縮態様を説明するための説明図であって、図65(a)は第1ラウンド動画像データRMD0aの圧縮態様を説明するための説明図、図65(b)は第2ラウンド動画像データRMD0bの圧縮態様を説明するための説明図、図65(c)は各ラウンド動画像データRMD0a,RMD0bのビットレートを説明するためのグラフである。 The compression mode of the first round moving image data RMD0a and the second round moving image data RMD0b will be described with reference to FIG. 65. FIG. 65 is an explanatory diagram for explaining a compression mode of each round moving image data RMD0a and RMD0b, and FIG. 65A is an explanatory diagram and a diagram for explaining a compression mode of the first round moving image data RMD0a. 65 (b) is an explanatory diagram for explaining the compression mode of the second round moving image data RMD0b, and FIG. 65 (c) is a graph for explaining the bit rate of each round moving image data RMD0a and RMD0b.

既に説明した通り、第1ラウンド動画像データRMD0aと、第2ラウンド動画像データRMD0bとは、符号化された圧縮データであり、基準データと、差分データとを有している。この場合、各ラウンド動画の再生時間が同一であり且つ各ラウンド動画像データRMD0a,RMD0bに含まれる基準データが同一であっても、ラウンド動画の内容に応じて、第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bのデータ量が異なる場合が生じる。 As described above, the first round moving image data RMD0a and the second round moving image data RMD0b are encoded compressed data, and have reference data and difference data. In this case, even if the playback time of each round moving image is the same and the reference data included in each round moving image data RMD0a, RMD0b is the same, the first round moving image data RMD0a and The amount of data of the second round moving image data RMD0b may be different.

具体的には、第1ラウンド動画と第2ラウンド動画とを比較すると、第1ラウンド動画の方が第2ラウンド動画よりも移動対象キャラクタの数が多い分だけ、第1ラウンド動画の方が、第2ラウンド動画よりも動きが激しいとともに、複雑なもの(高精細なもの)となっている。このため、図65(a−1)及び図65(b−1)に示すように、第1ラウンド動画像データRMD0aの差分データは、第2ラウンド動画像データRMD0bの差分データよりも大きくなる。 Specifically, when comparing the first round video and the second round video, the first round video has more characters to move than the second round video, so the first round video has more characters. The movement is more intense than the second round video, and it is complicated (high-definition). Therefore, as shown in FIGS. 65 (a-1) and 65 (b-1), the difference data of the first round moving image data RMD0a is larger than the difference data of the second round moving image data RMD0b.

ここで、ラウンド動画像データRMD0全体で割り当てることが可能なデータ量は予め定められており、当該データ量に合うように各ラウンド動画像データRMD0a,RMD0bを調整する必要がある。この場合、各ラウンド動画像データRMD0a,RMD0bのビットレートを調整することにより、ラウンド動画全体の画質を維持しつつ、所望のデータ量に設定することができる。 Here, the amount of data that can be allocated to the entire round moving image data RMD0 is predetermined, and it is necessary to adjust each round moving image data RMD0a and RMD0b so as to match the data amount. In this case, by adjusting the bit rates of the round moving image data RMD0a and RMD0b, it is possible to set a desired amount of data while maintaining the image quality of the entire round moving image.

具体的には、動きが少ないもの又は比較的複雑でないもの(低精細なもの)に対してはビットレートを下げても画質は低下しにくい。一方、動きが大きいものや比較的複雑なものに対してビットレートを下げると、ブロックノイズやモスキートノイズが大量に発生し、画質が大きく低下する。このため、図65(a−2)に示すように、第1ラウンド動画像データRMD0aに対しては比較的大きなビットレートを割り当てることで、比較的大きなデータ量(FS1)を確保し、第1ラウンド動画の画質の低下を抑制する。一方、図65(b−2)に示すように、第2ラウンド動画像データRMD0bに対しては比較的小さなビットレートを割り当てることで、比較的小さなデータ量(FS2)を確保し、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。これにより、ラウンド演出で用いられる一連のラウンド動画の画質の低下を抑制することができる。 Specifically, for those with little movement or relatively uncomplicated ones (low-definition ones), the image quality is unlikely to deteriorate even if the bit rate is lowered. On the other hand, if the bit rate is lowered for a moving object or a relatively complicated object, a large amount of block noise and mosquito noise are generated, and the image quality is greatly deteriorated. Therefore, as shown in FIG. 65 (a-2), a relatively large amount of data (FS1) is secured by allocating a relatively large bit rate to the first round moving image data RMD0a, and the first round is secured. Suppresses the deterioration of the image quality of round moving images. On the other hand, as shown in FIG. 65 (b-2), a relatively small amount of data (FS2) is secured by allocating a relatively small bit rate to the second round moving image data RMD0b, and the second round. It is possible to reduce the amount of moving image data RMD0b. As a result, it is possible to suppress deterioration in the image quality of a series of round moving images used in the round effect.

すなわち、図65(c)に示すように、第1ラウンド動画像データRMD0aのビットレートを上げ、第2ラウンド動画像データRMD0bのビットレートを下げて設定することにより、各ラウンド動画像データRMD0a,RMD0bが同一のビットレートで設定される場合(図65(c)の点線参照)と比較して、トータルのデータ量が同一にも関わらず、ラウンド動画の画質の低下が抑制されている。これにより、ラウンド動画像データRMD0を所望のデータ量に設定しつつ、ラウンド動画の画質の低下を抑制することができる。 That is, as shown in FIG. 65 (c), by increasing the bit rate of the first round moving image data RMD0a and decreasing the bit rate of the second round moving image data RMD0b, each round moving image data RMD0a, Compared with the case where RMD0b is set at the same bit rate (see the dotted line in FIG. 65 (c)), the deterioration of the image quality of the round moving image is suppressed even though the total amount of data is the same. As a result, it is possible to suppress deterioration of the image quality of the round moving image while setting the round moving image data RMD0 to a desired amount of data.

ちなみに、各ラウンド動画像データRMD0a,RMD0bを作成する段階における圧縮処理について詳細に説明すると、各ラウンド動画像データRMD0a,RMD0bは、複数回(具体的には2回)に亘る圧縮処理を行うことにより作成されている。具体的には、先ず1回目の圧縮処理では、予め設定されたラウンド動画像データRMD0全体のデータ量を把握し、そのデータ量となるように各ラウンド動画像データRMD0a,RMD0bに対して割り当てる各データ量FS1,FS2を把握し、それらの各データ量FS1、FS2に対応したビットレートを把握する。そして、2回目の圧縮処理にて、1回目の圧縮処理にて把握されたビットレートを用いて実際の圧縮処理を実行する。これにより、ラウンド動画像データRMD0が予め設定されたデータ量となるようになっている。 Incidentally, to explain in detail the compression process at the stage of creating each round moving image data RMD0a, RMD0b, each round moving image data RMD0a, RMD0b is to be compressed a plurality of times (specifically, twice). Created by. Specifically, in the first compression process, the data amount of the entire round moving image data RMD0 set in advance is grasped, and each round moving image data RMD0a and RMD0b are assigned so as to be the data amount. The data amounts FS1 and FS2 are grasped, and the bit rates corresponding to the respective data amounts FS1 and FS2 are grasped. Then, in the second compression process, the actual compression process is executed using the bit rate grasped in the first compression process. As a result, the round moving image data RMD0 is set to a preset amount of data.

ここで、各ラウンド動画像データRMD0a,RMD0bの圧縮においては、それぞれ個別に設定されたビットレートに基づくデータ量となるように、差分データを簡略化することにより差分データを圧縮し、基準データは簡略化されないようになっている。基準データは各差分データ(Pピクチャデータ及びBピクチャデータ)の基準となるデータであるため、基準データの画質が低下すると、フレーム間圧縮による誤差に起因するラウンド動画全体の画質が著しく低下するからである。 Here, in the compression of each round moving image data RMD0a and RMD0b, the difference data is compressed by simplifying the difference data so that the data amount is based on the bit rate set individually, and the reference data is used as the reference data. It is not simplified. Since the reference data is the reference data for each difference data (P picture data and B picture data), if the image quality of the reference data deteriorates, the image quality of the entire round moving image due to the error due to the inter-frame compression is significantly deteriorated. Is.

また、本別形態では、挿入画像データIPD0が異なっている。具体的には、本別形態における挿入画像データIPD0のサイズは、当該挿入画像データIPD0に係る画像が表示面G全体に表示可能となるように設定されている。そして、挿入画像データIPD0には、第2背景画像BP2に重ねて第1挿入キャラクタ画像IP1が描画された挿入画像データと、第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描画された挿入画像データと、が設けられている。すなわち、本別形態の挿入画像データIPD0は、表示面G全体に表示される一枚の画像そのものを示すものである。なお、以降の説明において挿入画像データIPD0を用いて表示される画像、すなわち第2背景画像BP2に重ねて各挿入キャラクタ画像IP1,IP2のいずれが描画された画像を単に挿入画像とも言う。 Further, in the present different form, the inserted image data IPD0 is different. Specifically, the size of the inserted image data IPD0 in the present alternative mode is set so that the image related to the inserted image data IPD0 can be displayed on the entire display surface G. Then, in the inserted image data IPD0, the inserted image data in which the first inserted character image IP1 is drawn superimposed on the second background image BP2 and the second inserted character image IP2 are drawn superimposed on the second background image BP2. Inserted image data and are provided. That is, the inserted image data IPD0 of the present different form indicates one image itself displayed on the entire display surface G. In the following description, an image displayed using the inserted image data IPD0, that is, an image in which any of the inserted character images IP1 and IP2 is drawn on the second background image BP2 is also simply referred to as an inserted image.

本別形態では、これら分割された各ラウンド動画像データRMD0a,RMDbを所定の間隔を介して順次デコードし、第1ラウンド動画及び第2ラウンド動画を所定の間隔を介して順次再生するとともに、当該間隔中に上記挿入画像データIPD0を用いて、第2背景画像BP2と、各挿入キャラクタ画像IP1,IP2のいずれか一方とが一体となった挿入画像を表示させることにより、一連のラウンド動画を再生させる。 In the present alternative mode, the divided round moving image data RMD0a and RMDb are sequentially decoded at predetermined intervals, and the first round moving image and the second round moving image are sequentially reproduced at predetermined intervals, and the said person concerned. Using the inserted image data IPD0 during the interval, a series of round moving images is reproduced by displaying an inserted image in which either the second background image BP2 and each of the inserted character images IP1 and IP2 are integrated. Let me.

次に、本別形態におけるラウンド演出用の演算処理について図66のフローチャートを用いて説明する。 Next, the arithmetic processing for the round effect in the present alternative mode will be described with reference to the flowchart of FIG.

先ず、ステップS3901では、現状設定されているデータテーブル、詳細には開閉実行モードに対応したデータテーブルに基づいて、挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合には、ステップS3902に進み、現状設定されているデータテーブルに基づいて挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。挿入キャラクタ画像の表示開始タイミングは、開閉実行モードに対応したデータテーブルに予め定められており、詳細には第1ラウンド動画の終了タイミングと同一に設定されている。 First, in step S3901, it is determined whether or not the inserted character image is being displayed based on the currently set data table, specifically, the data table corresponding to the open / close execution mode. If the inserted character image is not being displayed, the process proceeds to step S3902, and it is determined whether or not it is the display start timing of the inserted character image based on the currently set data table. The display start timing of the inserted character image is predetermined in the data table corresponding to the opening / closing execution mode, and is specifically set to be the same as the end timing of the first round moving image.

挿入キャラクタ画像の表示開始タイミングでない場合には、ステップS3903に進み、現状設定されているデータテーブルに基づいてラウンド動画に係る演出が実行中であるか否かを判定する。この場合、第1ラウンド動画又は第2ラウンド動画に係る演出が実行中であるか否かを判定する、
ラウンド動画に係る演出が実行中でない場合には、ステップS3904にて第1ラウンド動画の再生開始タイミングであるか否かを判定する。第1ラウンド動画の再生開始タイミングでない場合には、そのまま本演算処理を終了する一方、第1ラウンド動画の再生開始タイミングである場合には、ステップS3905にてラウンドカウンタRCを1加算する処理を実行し、ステップS3906及びステップS3907にて、第1ラウンド動画像データRMD0aのデコードに係る処理を実行する。
If it is not the display start timing of the inserted character image, the process proceeds to step S3903, and it is determined whether or not the effect related to the round moving image is being executed based on the currently set data table. In this case, it is determined whether or not the production related to the first round moving image or the second round moving image is being executed.
If the effect related to the round moving image is not being executed, it is determined in step S3904 whether or not it is the reproduction start timing of the first round moving image. If it is not the playback start timing of the first round video, this calculation process is terminated as it is, while if it is the playback start timing of the first round video, the process of adding 1 to the round counter RC is executed in step S3905. Then, in step S3906 and step S3907, the process related to the decoding of the first round moving image data RMD0a is executed.

詳細には、ステップS3906にて、VRAM134の展開用バッファ141において第1ラウンド動画像データRMD0aが格納されているアドレスと、当該第1ラウンド動画像データRMD0aをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 Specifically, in step S3906, the address where the first round moving image data RMD0a is stored in the expansion buffer 141 of the VRAM 134 and the first round moving image data RMD0a are decoded and still image data for a plurality of frames. When you create, you need to know the address of the area where the still image data is stored.

そして、ステップS3907では、第1ラウンド動画像データRMD0aのデコード指定情報を設定し、本演算処理を終了する。 Then, in step S3907, the decoding designation information of the first round moving image data RMD0a is set, and this calculation process is terminated.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第1ラウンド動画像データRMD0aのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第1ラウンド動画像データRMD0aのデコード処理を実行する。当該デコード処理は、既に説明した通りであるため、説明を省略する。 When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decoding designation information of the first round moving image data RMD0a is set is created and transmitted to the VDP 135. The moving image recorder of the VDP 135 executes the decoding process of the first round moving image data RMD0a based on the reception of the drawing list in which the decoding designation information is set. Since the decoding process is as described above, the description thereof will be omitted.

ラウンド動画に係る演出が実行中である場合には、ステップS3908〜ステップS3910にてラウンド動画に対応した静止画像データを描画対象として設定する処理を実行する。この場合、デコードされているラウンド動画像データRMD0が第1ラウンド動画像データRMD0aである場合には、第1ラウンド動画に係る静止画像データが描画対象として設定される一方、デコードされているラウンド動画像データRMD0が第2ラウンド動画像データRMD0bである場合には、第2ラウンド動画に係る静止画像データが描画対象として設定される。なお、当該処理の具体的な構成については、既に説明した通りであるため、説明を省略する。 When the effect related to the round moving image is being executed, the process of setting the still image data corresponding to the round moving image as the drawing target is executed in steps S3908 to S3910. In this case, when the decoded round moving image data RMD0 is the first round moving image data RMD0a, the still image data related to the first round moving image is set as the drawing target, while the decoded round moving image is set. When the image data RMD0 is the second round moving image data RMD0b, the still image data related to the second round moving image is set as the drawing target. Since the specific configuration of the process has already been described, the description thereof will be omitted.

その後、ステップS3911にて、ラウンド演出を実行することをVDP135にて特定させるためのラウンド演出指定情報を設定し、本演算処理を終了する。 After that, in step S3911, the round effect designation information for specifying the execution of the round effect by the VDP 135 is set, and the present calculation process is terminated.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、動画用オブジェクトが描画対象として設定されるとともに、当該動画用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、動画用オブジェクトに対してマッピングされる画像データとして静止画像データのアドレスが含まれている。 When the above calculation process is executed, in the subsequent drawing list output process (step S806), the moving object is set as the drawing target, and various parameters applied to the moving object are set. The various parameters include the address of the still image data as the image data mapped to the moving object.

一方、挿入キャラクタ画像の表示開始タイミングである場合には(ステップS3902:YES)、ステップS3912〜ステップS3915にて、挿入キャラクタ画像を描画対象として設定する処理を実行する。 On the other hand, when it is the display start timing of the inserted character image (step S3902: YES), the process of setting the inserted character image as a drawing target is executed in steps S3912 to S3915.

ここで、本別形態の挿入用オブジェクトのサイズは、挿入画像データIPD0のサイズに対応させて設定されている。具体的には、挿入画像データIPD0のサイズと同一になるように挿入用オブジェクトのサイズが設定されている。つまり、本別形態においては、挿入用オブジェクトと動画用オブジェクトとは同一である。 Here, the size of the insertion object of this different form is set corresponding to the size of the inserted image data IPD0. Specifically, the size of the insertion object is set so as to be the same as the size of the inserted image data IPD0. That is, in this different form, the insertion object and the moving object are the same.

なお、ステップS3912〜ステップS3915の具体的な処理構成は既に説明した通りであるため、説明を省略する。 Since the specific processing configurations of steps S3912 to S3915 have already been described, the description thereof will be omitted.

ステップS3912〜ステップS3915の処理の実行後は、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。 After executing the processes of steps S3912 to S3915, the round effect designation information is set in step S3911, and the present calculation process is terminated.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、挿入用オブジェクトが描画対象として設定されるとともに、当該挿入用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、挿入用オブジェクトに対してマッピングされる画像データとして今回のラウンド遊技に対応した挿入画像データのアドレスが含まれる。 When the above arithmetic processing is executed, the insertion object is set as a drawing target and various parameters applied to the insertion object are set in the subsequent drawing list output processing (step S806). The various parameters include the address of the inserted image data corresponding to the current round game as the image data mapped to the insertion object.

ここで、挿入用オブジェクトのサイズは表示面G全体に対応したものとなっており、且つ当該挿入用オブジェクトにマッピングされる挿入画像データIPD0のサイズは表示面G全体に対応したものに設定されている。そして、本別形態における挿入画像データIPD0には、第2背景画像BP2が予め描画されている。これにより、本別形態においては、挿入画像は背景画像として機能する。すなわち、本別形態において挿入画像は、背景画像とキャラクタ画像とを合わせた1の画像であると言える。これにより、ラウンド動画が再生されない状況であっても表示面G全体に所定の画像が表示される。 Here, the size of the insertion object corresponds to the entire display surface G, and the size of the inserted image data IPD0 mapped to the insertion object is set to correspond to the entire display surface G. There is. The second background image BP2 is drawn in advance on the inserted image data IPD0 in the present different form. As a result, in the present different form, the inserted image functions as a background image. That is, it can be said that the inserted image is one image in which the background image and the character image are combined in the present different form. As a result, a predetermined image is displayed on the entire display surface G even in a situation where the round moving image is not reproduced.

挿入キャラクタ画像が表示中である場合(ステップS3901:YES)、ステップS3916に進み、現状設定されているデータテーブルに基づいて第2ラウンド動画の再生開始タイミングであるか否かを判定する。第2ラウンド動画の再生開始タイミングは、挿入画像の表示開始タイミング(第1ラウンド動画の終了タイミング)から所定期間が経過したタイミングに設定されている。 When the inserted character image is being displayed (step S3901: YES), the process proceeds to step S3916, and it is determined whether or not it is the playback start timing of the second round moving image based on the currently set data table. The reproduction start timing of the second round moving image is set to the timing when a predetermined period has elapsed from the display start timing of the inserted image (the end timing of the first round moving image).

第2ラウンド動画の再生開始タイミングでない場合には、ステップS3917及びステップS3918にて、挿入画像の表示を維持するための処理を実行し、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。これらの処理は、既に説明した通りであるため、説明を省略する。 If it is not the playback start timing of the second round moving image, the process for maintaining the display of the inserted image is executed in step S3917 and step S3918, the round effect designation information is set in step S3911, and this calculation process is performed. To finish. Since these processes have already been described, the description thereof will be omitted.

一方、第2ラウンド動画の再生開始タイミングである場合には、ステップS3919及びステップS3920にて、第2ラウンド動画を再生させるための処理を実行する。具体的には、ステップS3919にて、VRAM134の展開用バッファ141において第2ラウンド動画像データRMD0bが格納されているアドレスと、当該第2ラウンド動画像データRMD0bをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 On the other hand, when it is the reproduction start timing of the second round moving image, the process for reproducing the second round moving image is executed in step S3919 and step S3920. Specifically, in step S3919, the address in which the second round moving image data RMD0b is stored in the expansion buffer 141 of the VRAM 134 and the second round moving image data RMD0b are decoded and still images for a plurality of frames are decoded. When the data is created, the address of the area where the still image data is stored and the address are grasped.

そして、ステップS3920では、第2ラウンド動画像データRMD0bのデコード指定情報を設定し、本演算処理を終了する。 Then, in step S3920, the decoding designation information of the second round moving image data RMD0b is set, and this calculation process is terminated.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第2ラウンド動画像データRMD0bのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第2ラウンド動画像データRMD0bのデコード処理を実行する。 When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decoding designation information of the second round moving image data RMD0b is set is created and transmitted to the VDP 135. The moving image recorder of the VDP 135 executes the decoding process of the second round moving image data RMD0b based on the reception of the drawing list in which the decoding designation information is set.

かかる処理によれば、第1ラウンド動画又は第2ラウンド動画の再生中である場合には、動画用オブジェクトが描画対象として設定された描画リストが作成される一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中は、挿入用オブジェクトが描画対象として設定された描画リストが作成される。この場合、1の描画リストに、動画用オブジェクトと挿入用オブジェクトとの双方が設定されないようになっている。 According to this process, when the first round moving image or the second round moving image is being played, a drawing list in which the moving object is set as a drawing target is created, while the end timing of the first round moving image is set. During the period between the start timing of the second round moving image, a drawing list in which the insertion object is set as the drawing target is created. In this case, both the moving object and the insertion object are not set in the drawing list of 1.

ちなみに、ステップS3919及びステップS3920の処理を実行した処理回に対して次の処理回以降は、ステップS3908〜ステップS3911の処理が実行される。これにより、第2ラウンド動画に係る静止画像データが動画用オブジェクトに対してマッピングされる画像データとして設定されることとなる。 Incidentally, with respect to the processing times in which the processing in step S3919 and step S3920 is executed, the processing in steps S3908 to S3911 is executed after the next processing time. As a result, the still image data related to the second round moving image is set as the image data mapped to the moving object.

以上説明した通り、ラウンド演出用の演算処理では、1処理回毎に今回の描画対象が設定される。これにより、1処理回毎に描画リストが設定され、VDP135では1処理回毎に画像が更新されるように描画処理が実行される。つまり、1フレーム毎に画像の更新が行われ、ラウンド動画が再生される期間に亘って、フレームレートは同一に設定されている。 As described above, in the arithmetic processing for round effect, the drawing target of this time is set for each processing. As a result, the drawing list is set for each processing, and the VDP135 executes the drawing processing so that the image is updated for each processing. That is, the image is updated for each frame, and the frame rate is set to be the same for the period during which the round moving image is reproduced.

次に、本別形態におけるラウンド演出用の設定処理について図67(a)のフローチャートを用いて説明する。本別形態におけるラウンド演出用の設定処理は、受信した描画リストにラウンド演出指定情報が設定されている場合には、起動するよう構成されている。 Next, the setting process for the round effect in the present alternative mode will be described with reference to the flowchart of FIG. 67 (a). The setting process for the round effect in the present alternative mode is configured to be activated when the round effect designation information is set in the received drawing list.

先ず、ステップS4001では、描画対象となるオブジェクトを把握する。具体的には、第1ラウンド動画又は第2ラウンド動画が再生中である場合には、動画用オブジェクトが把握される。一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中である場合には、挿入用オブジェクトが把握される。 First, in step S4001, the object to be drawn is grasped. Specifically, when the first round moving image or the second round moving image is being played, the moving object is grasped. On the other hand, when the period is between the end timing of the first round moving image and the start timing of the second round moving image, the insertion object is grasped.

その後、ステップS4002にて、描画リストに基づいて、描画対象のオブジェクトに適用されるパラメータを把握する。その後、ステップS4003にて、上記ステップS4001にて把握された動画用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 After that, in step S4002, the parameters applied to the object to be drawn are grasped based on the drawing list. After that, in step S4003, the setting process for the moving object grasped in step S4001 is executed in the world coordinate system, and this setting process is terminated.

次に、本別形態のラウンド演出用マッピング処理を図67(b)のフローチャートを用いて説明する。 Next, the mapping process for round effect of this different form will be described with reference to the flowchart of FIG. 67 (b).

先ず、ステップS4101では、描画対象となるオブジェクトに対して適用されるパラメータのうち、マッピングする画像データ(テクスチャ)のアドレスを把握する。この場合、描画リストに動画用オブジェクトが設定されている場合には、フレーム番号に対応した静止画像データのアドレスを把握する一方、描画リストに挿入用オブジェクトが設定されている場合には、今回のラウンド遊技に対応した挿入画像データIPD0のアドレスを把握する。 First, in step S4101, among the parameters applied to the object to be drawn, the address of the image data (texture) to be mapped is grasped. In this case, if the video object is set in the drawing list, the address of the still image data corresponding to the frame number is grasped, while if the insertion object is set in the drawing list, this time. Grasp the address of the inserted image data IPD0 corresponding to the round game.

続くステップS4102では、上記ステップS4101にて把握されたアドレスに基づいて、マッピングする画像データ(テクスチャ)を把握する。そして、ステップS4103では、描画対象となるオブジェクトに対して上記ステップS4102にて把握された画像データをマッピングして、本マッピング処理を終了する。 In the following step S4102, the image data (texture) to be mapped is grasped based on the address grasped in the step S4101. Then, in step S4103, the image data grasped in step S4102 is mapped to the object to be drawn, and this mapping process is terminated.

次に、本別形態におけるラウンド演出の実行態様を図68のタイムチャートを用いて説明する。図68(a)は第1ラウンド動画の再生期間を示すタイムチャート、図68(b)は挿入画像の表示期間を示すタイムチャート、図68(c)は第2ラウンド動画の再生期間を示すタイムチャートである。 Next, the execution mode of the round effect in the present alternative mode will be described with reference to the time chart of FIG. 68 (a) is a time chart showing the playback period of the first round moving image, FIG. 68 (b) is a time chart showing the display period of the inserted image, and FIG. 68 (c) is a time showing the playing period of the second round moving image. It is a chart.

先ず、図68(a)に示すように、ラウンド遊技の開始タイミングであるt11のタイミングにて、表示面Gにて第1ラウンド動画の再生が開始される。そして、t12のタイミングにて第1ラウンド動画が終了すると、図68(a)及び図68(b)に示すように、表示面Gには、第1ラウンド動画に代えて挿入画像データIPD0に係る挿入画像が表示される。詳細には、第2背景画像BP2に重なるようにして、第1挿入キャラクタ画像IP1又は第2挿入キャラクタ画像IP2が表示される。 First, as shown in FIG. 68A, the reproduction of the first round moving image is started on the display surface G at the timing of t11, which is the start timing of the round game. Then, when the first round moving image is completed at the timing of t12, as shown in FIGS. 68 (a) and 68 (b), the display surface G relates to the inserted image data IPD0 instead of the first round moving image. The inserted image is displayed. Specifically, the first inserted character image IP1 or the second inserted character image IP2 is displayed so as to overlap the second background image BP2.

その後、図68(b)及び図68(c)に示すように、t13のタイミングにて挿入画像に代えて第2ラウンド動画が開始され、t14のタイミングにて当該第2ラウンド動画が終了する。これにより、表示面Gにて、第1ラウンド動画→挿入画像→第2ラウンド動画の順に画像が表示される1連のラウンド演出が行われることとなる。 After that, as shown in FIGS. 68 (b) and 68 (c), the second round moving image is started in place of the inserted image at the timing of t13, and the second round moving image is ended at the timing of t14. As a result, a series of round effects in which images are displayed in the order of the first round moving image → the inserted image → the second round moving image is performed on the display surface G.

そして、次のラウンド遊技の開始タイミングであるt15のタイミングにて、再度第1ラウンド動画から順次再生される。 Then, at the timing of t15, which is the start timing of the next round game, the first round moving image is sequentially reproduced.

以上詳述した本実施の形態によれば、1連のラウンド動画に係るラウンド動画像データRMD0を、ラウンド動画中の動きの激しさに応じて複数の単位データ(第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0b)に分割した。そして、各ラウンド動画像データRMD0a,RMD0b毎にビットレートを調整することにより、ラウンド動画像データRMD0を予め定められたデータ量に設定しつつ、効率的な画質調整を行うことができる。 According to the present embodiment described in detail above, the round moving image data RMD0 relating to a series of round moving images is divided into a plurality of unit data (first round moving image data RMD0a and) according to the intensity of movement in the round moving image. The second round moving image data RMD0b) was divided. Then, by adjusting the bit rate for each round moving image data RMD0a and RMD0b, it is possible to efficiently adjust the image quality while setting the round moving image data RMD0 to a predetermined amount of data.

詳細には、第1ラウンド動画中の動きが比較的激しいことに起因して差分データが比較的大きくなり易いことが想定される第1ラウンド動画像データRMD0aに対しては、比較的高いビットレートでエンコード処理を行うことにより、第1ラウンド動画の画質を維持することができる。一方、第2ラウンド動画中の動きが比較的穏やかであることに起因して差分データが比較的小さくなり易いことが想定される第2ラウンド動画像データRMD0bに対しては、比較的低いビットレートでエンコード処理を行うことにより、画質を維持しつつ、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。 Specifically, the bit rate is relatively high for the first round moving image data RMD0a, which is assumed that the difference data tends to be relatively large due to the relatively intense movement in the first round moving image. By performing the encoding process with, the image quality of the first round moving image can be maintained. On the other hand, the bit rate is relatively low for the second round moving image data RMD0b, which is assumed that the difference data tends to be relatively small due to the relatively gentle movement in the second round moving image. By performing the encoding process with, it is possible to reduce the amount of data of the second round moving image data RMD0b while maintaining the image quality.

特に、ラウンド動画像データRMD0のデータ量を抑える点に着目すれば、ラウンド動画のフレームレート、具体的には画像の更新タイミングを抑制することも考えられる。しかしながら、フレームレートを変更する構成とすると、現状のフレームレートを把握するための処理等のフレームレートを変更するための処理が別途必要なり、処理負荷の増大化及び上記処理に係るプログラム容量の増大化が懸念される。 In particular, focusing on the point of suppressing the amount of data of the round moving image data RMD0, it is conceivable to suppress the frame rate of the round moving image, specifically, the update timing of the image. However, if the configuration is such that the frame rate is changed, a separate process for changing the frame rate such as a process for grasping the current frame rate is required, which increases the processing load and the program capacity related to the above process. There is concern about the conversion.

これに対して、本別形態によれば、上記フレームレートの変更に係る処理を実行することなく、ラウンド動画像データRMD0のデータ量を抑制することができる。すなわち、データ量の削減を、処理により補償する構成ではなく圧縮態様で実現している。これにより、パチンコ機10に係る処理負荷の増大化を抑制しつつ、ラウンド動画像データRMD0のデータ量の削減を図ることができる。 On the other hand, according to the present alternative mode, it is possible to suppress the data amount of the round moving image data RMD0 without executing the process related to the change of the frame rate. That is, the reduction in the amount of data is realized by a compression mode rather than a configuration that compensates by processing. As a result, it is possible to reduce the amount of round moving image data RMD0 while suppressing an increase in the processing load of the pachinko machine 10.

また、エンコード処理が行われた動画像データのデータ量は、差分データのデータ量に関わらずビットレートに依存する。つまり、エンコーダは、差分データのデータ量に関わらず動画像データのデータとしてビットレートに対応したデータ量を確保することとなる。この場合、差分データが小さくなり易いことが想定される動画に対して比較的高いビットレートでエンコード処理を行った場合、実際には何もデータが格納されていない無駄なデータ量を確保することとなり、データ量の無駄が発生する。これに対して、本別形態によれば、上記無駄なデータの発生を抑制することができるため、データ量の削減を図ることができる。 Further, the data amount of the moving image data subjected to the encoding process depends on the bit rate regardless of the data amount of the difference data. That is, the encoder secures the amount of data corresponding to the bit rate as the data of the moving image data regardless of the amount of the difference data. In this case, when encoding processing is performed at a relatively high bit rate for a video that is expected to have small difference data, it is necessary to secure a useless amount of data in which no data is actually stored. Therefore, the amount of data is wasted. On the other hand, according to the present alternative mode, it is possible to suppress the generation of the above-mentioned useless data, so that the amount of data can be reduced.

また、第1ラウンド動画と第2ラウンド動画との間に挿入画像を表示させ、当該挿入画像を、現在のラウンド演出に係るラウンドに応じて異ならせる構成とした。これにより、1のラウンド動画像データRMD0を用いて、複数態様のラウンド演出を行うことができる。よって、複数態様のラウンド演出を好適に行いつつ、データ量の削減を図ることができる。 Further, the inserted image is displayed between the first round moving image and the second round moving image, and the inserted image is made different according to the round related to the current round effect. As a result, it is possible to perform a plurality of round effects by using the round moving image data RMD0 of 1. Therefore, it is possible to reduce the amount of data while suitably performing a plurality of round effects.

さらに、第1ラウンド動画像データRMD0aをデコードするタイミングと、第2ラウンド動画像データRMD0bをデコードするタイミングとが異なるため、ラウンド動画を再生するためのデコードに係る処理負荷が分散されている。これにより、局所的な処理負荷の増大に起因する処理落ちの発生を抑制することができる。 Further, since the timing of decoding the first round moving image data RMD0a and the timing of decoding the second round moving image data RMD0b are different, the processing load related to the decoding for reproducing the round moving image is distributed. As a result, it is possible to suppress the occurrence of processing omissions due to a local increase in processing load.

なお、本別形態では、ラウンド動画中において場面が切り換わることにより、動きの激しさや複雑さが異なる構成としたが、これに限られず、場面の切り換わりと、動きの激しさ等とが、同期しない構成としてもよい。この場合、場面の切り換わり毎に動画像データを分割する構成としてもよい。これにより、各場面毎に複数の単位動画像データを用意し、これら単位動画像データを組み合わせることにより、一連のラウンド動画の多様化を図ることができる。また、組み合わせ毎に一連の動画像データを用意する構成と比較して、動画像データに係るデータ量の削減を図ることができる。但し、ビットレートの割り当てを好適に行うことができる観点に着目すれば、動きの激しさ等を基準にラウンド動画像データRMD0を分割する構成の方が好ましい。 In this different form, the intensity and complexity of the movement are different due to the switching of scenes in the round movie, but the configuration is not limited to this, and the switching of scenes and the intensity of movement are different. , It may be configured not to synchronize. In this case, the moving image data may be divided for each scene change. As a result, by preparing a plurality of unit moving image data for each scene and combining these unit moving image data, it is possible to diversify a series of round moving images. Further, the amount of data related to the moving image data can be reduced as compared with the configuration in which a series of moving image data is prepared for each combination. However, from the viewpoint that the bit rate can be suitably assigned, the configuration in which the round moving image data RMD0 is divided based on the intensity of movement or the like is preferable.

また、1のラウンド動画を2つの動画像データに分割したが、これに限られず、3つ以上の動画像データに分割する構成としてもよい。但し、動画像データの特性上、1の動画像データ中に、差分データの基準となる規準データが設けられている必要がある。当該基準データは、圧縮対象とはならない又は圧縮するとしても圧縮率が差分データと比較して小さい。このため、ラウンド動画像データRMD0全体のデータ量が却って増大化するおそれがある。よって、1のラウンド動画像データRMD0を複数の動画像データに分割することに起因する基準データの増加と、ビットレートとの調整によるラウンド動画像データRMD0全体のデータ量の削減と、の関係を考慮して、動画像データの分割態様を決定するとよい。具体的には、分割によって生じ得る基準データの増加に起因するデータ量の増加量が、分割した動画像データのビットレート調整により確保可能なデータ量の削減量よりも小さい場合には、動画像データを分割し、上記増加量が上記削減量よりも大きい場合には、分割することなく1の動画像データとして扱うとよい。 Further, although one round moving image is divided into two moving image data, the present invention is not limited to this, and the configuration may be such that it is divided into three or more moving image data. However, due to the characteristics of the moving image data, it is necessary that the reference data that serves as the reference for the difference data is provided in the moving image data of 1. The reference data is not subject to compression, or even if it is compressed, the compression ratio is smaller than that of the differential data. Therefore, the total amount of round moving image data RMD0 may increase. Therefore, the relationship between the increase in the reference data due to the division of one round moving image data RMD0 into a plurality of moving image data and the reduction in the total data amount of the round moving image data RMD0 by adjusting the bit rate. In consideration of this, it is advisable to determine the division mode of the moving image data. Specifically, when the amount of increase in the amount of data due to the increase in the reference data that can occur due to the division is smaller than the amount of reduction in the amount of data that can be secured by adjusting the bit rate of the divided moving image data, the moving image When the data is divided and the increase amount is larger than the reduction amount, it is preferable to treat the data as one moving image data without dividing the data.

また、各ラウンド動画像データRMD0a,RMD0bは基準データのデータ量が同一であると仮定したが、これに限られず、異なる構成であってもよい。また、各ラウンド動画像データRMD0a,RMD0bにより再生される各ラウンド動画の再生時間は同一と仮定したが、これに限られず、異なる構成であってもよい。これらの場合であっても、各ラウンド動画像データRMD0a,RMD0bに係るビットレートを調整することにより、ラウンド動画像データRMD0全体のデータ量を好適に調整することができる。 Further, although it is assumed that the data amounts of the reference data are the same for each round moving image data RMD0a and RMD0b, the data amount is not limited to this, and different configurations may be used. Further, although it is assumed that the reproduction time of each round moving image reproduced by each round moving image data RMD0a and RMD0b is the same, the reproduction time is not limited to this, and different configurations may be used. Even in these cases, the data amount of the entire round moving image data RMD0 can be suitably adjusted by adjusting the bit rate of each round moving image data RMD0a and RMD0b.

また、第1ラウンド動画と第2ラウンド動画との間に所定の期間を設ける構成としたが、これに限られず、例えば第1ラウンド動画と第2ラウンド動画とを連続して表示させる構成としてもよい。この場合、挿入画像を表示しない構成としてもよく、第1ラウンド動画中、第2ラウンド動画中、又は各ラウンド動画に跨って挿入画像を表示する構成としてもよい。 Further, although a predetermined period is provided between the first round video and the second round video, the present invention is not limited to this, and for example, the first round video and the second round video may be continuously displayed. good. In this case, the inserted image may not be displayed, or the inserted image may be displayed in the first round moving image, in the second round moving image, or across each round moving image.

<砂浜背景画像を表示するための構成及び砂浜疾走演出を行うための構成>
次に、砂浜背景を表示するための構成及び砂浜疾走演出を行うための構成について説明する。
<Structure for displaying a sandy beach background image and configuration for performing a sandy beach sprinting effect>
Next, a configuration for displaying the sandy beach background and a configuration for performing the sandy beach sprinting effect will be described.

砂浜背景画像は、砂浜から海を見た場合の画像であり、所定の周期で波が砂浜に打ち寄せられている様子を示す画像である。砂浜背景画像は、図柄の変動表示が行われる場合の背景画像として用いられる。 The sandy beach background image is an image when the sea is viewed from the sandy beach, and is an image showing how waves are rushing to the sandy beach at a predetermined cycle. The sandy beach background image is used as a background image when the variable display of the pattern is performed.

砂浜疾走演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。詳細には、砂浜疾走演出は、開閉実行モードに移行する場合に実行される演出抽選処理にて当該砂浜疾走演出を行うことに当選した場合に実行される演出である。 The sandy beach sprinting effect is an effect that can be executed when a round game is performed in the open / close execution mode. Specifically, the sandy beach sprinting effect is an effect executed when the sandy beach sprinting effect is won in the effect lottery process executed when the mode shifts to the open / close execution mode.

砂浜疾走演出は、複数の図柄画像が砂浜を疾走する演出である。当該演出では、砂浜背景画像に描かれた風景を別の角度、詳細には当該風景をローアングルから見た場合の画像が背景画像として用いられる。 The sandy beach sprinting effect is a production in which multiple symbol images sprint on the sandy beach. In the production, the landscape drawn on the sandy beach background image is used as a background image when the landscape is viewed from another angle, more specifically, the landscape from a low angle.

ここで、本パチンコ機10には、投影パターンとして透視投影と平行投影とが設定されており、表示する画像の内容に応じてこれらの投影パターンを使い分けている。透視投影とは、ワールド座標系に配置された各オブジェクトを所定の視点から見た状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点が所定の視点に向けて直線的に移動するように投影することをいう。これにより、視点からの距離に応じて各オブジェクトに係る画像は変化するように表示される。 Here, in the pachinko machine 10, perspective projection and parallel projection are set as projection patterns, and these projection patterns are used properly according to the content of the image to be displayed. Perspective projection refers to projecting each object placed in the world coordinate system in a state of being viewed from a predetermined viewpoint. Specifically, the vertices of each polygon of each object are linearly directed toward a predetermined viewpoint. Projecting to move. As a result, the image related to each object is displayed so as to change according to the distance from the viewpoint.

これに対して、平行投影は、各オブジェクトをスクリーン領域PC12から見たそのままの状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に移動するように投影することをいう。これにより、所定の視点からの距離に関わらず、各オブジェクトの各画像は常に一定の大きさで表示される。これらの投影パターンの使い分けについては後述する。 On the other hand, parallel projection means projecting each object as it is seen from the screen area PC12, and specifically, the vertices of each polygon of each object move perpendicularly to the screen area PC12. It means to project like this. As a result, each image of each object is always displayed in a constant size regardless of the distance from a predetermined viewpoint. The proper use of these projection patterns will be described later.

砂浜背景画像の表示に際しては、複数のオブジェクトと、当該各オブジェクトそれぞれに対応させて設定された複数のテクスチャが用いられる。 When displaying the sandy beach background image, a plurality of objects and a plurality of textures set corresponding to each of the objects are used.

砂浜背景画像の表示に用いられる複数のオブジェクトについて図69を用いて説明する。図69は各オブジェクトOB1〜OB4を説明するための説明図である。 A plurality of objects used for displaying a sandy beach background image will be described with reference to FIG. 69. FIG. 69 is an explanatory diagram for explaining each object OB1 to OB4.

なお、以降の説明において、特に断りがない限り、ワールド座標系を基準として説明し、視点は+Z方向を向いているとする。 In the following description, unless otherwise specified, the world coordinate system will be used as a reference, and the viewpoint will be oriented in the + Z direction.

図69(a)に示すように、砂浜背景画像の表示に係るオブジェクトとして、砂浜を表示にするのに用いられる砂浜オブジェクトOB1、波を表示するのに用いられる波オブジェクトOB2、海を表示するのに用いられる海オブジェクトOB3及び空を表示するのに用いられる空オブジェクトOB4が設定されている。各オブジェクトOB1〜OB4は矩形の板ポリゴンで構成されており、その長手方向のサイズはスクリーン領域PC12の長手方向のサイズよりも大きく設定されている。 As shown in FIG. 69A, as objects related to the display of the beach background image, the sandy beach object OB1 used for displaying the sandy beach, the wave object OB2 used for displaying the waves, and the sea are displayed. The sea object OB3 used for and the empty object OB4 used for displaying the sky are set. Each of the objects OB1 to OB4 is composed of rectangular plate polygons, and the size in the longitudinal direction thereof is set to be larger than the size in the longitudinal direction of the screen area PC12.

各オブジェクトOB1〜OB4は、特定視点PV1から透視投影された場合に、砂浜から見た海の映像となるように配置される。具体的には、ワールド座標系における特定視点PV1から見て奥行き方向(+Z方向)に向かって、砂浜オブジェクトOB1、波オブジェクトOB2、海オブジェクトOB3、空オブジェクトOB4の順番に配置されるように各オブジェクトOB1〜OB4の座標が設定されている。 Each object OB1 to OB4 is arranged so as to be an image of the sea seen from a sandy beach when perspectively projected from a specific viewpoint PV1. Specifically, each object is arranged in the order of the sandy beach object OB1, the wave object OB2, the sea object OB3, and the empty object OB4 in the depth direction (+ Z direction) when viewed from the specific viewpoint PV1 in the world coordinate system. The coordinates of OB1 to OB4 are set.

また、図69(b)に示すように、砂浜オブジェクトOB1、波オブジェクトOB2及び海オブジェクトOB3はスクリーン領域PC12(投影平面)に対して傾斜して配置されている。これにより、特定視点PV1から透視投影した場合に、各オブジェクトOB1〜OB3により表示される個別画像毎に遠近感(奥行き感)を付与することができる。 Further, as shown in FIG. 69 (b), the sandy beach object OB1, the wave object OB2, and the sea object OB3 are arranged so as to be inclined with respect to the screen area PC12 (projective plane). This makes it possible to give a sense of perspective (a sense of depth) to each individual image displayed by each of the objects OB1 to OB3 when perspectively projected from the specific viewpoint PV1.

また、隣接するオブジェクトの一部がオーバーラップして重なり合うように配置されており、各オブジェクトOB1〜OB3が連続している。具体的には、波オブジェクトOB2の手前側の端部が砂浜オブジェクトOB1の奥側の端部の上に重なっており、海オブジェクトOB3の手前側の端部が波オブジェクトOB2の奥側の端部の上に重なっている。この場合、波オブジェクトOB2は、砂浜オブジェクトOB1及び海オブジェクトOB3に対してオーバーラップしているため、波オブジェクトOB2が傾斜方向に移動しても各オブジェクトOB1〜OB3間の連続性は確保されている。 Further, some of the adjacent objects are arranged so as to overlap and overlap each other, and the objects OB1 to OB3 are continuous. Specifically, the front end of the wave object OB2 overlaps the back end of the sandy beach object OB1, and the front end of the sea object OB3 is the back end of the wave object OB2. It overlaps on top. In this case, since the wave object OB2 overlaps with the sandy beach object OB1 and the sea object OB3, the continuity between the objects OB1 to OB3 is ensured even if the wave object OB2 moves in the inclined direction. ..

なお、空オブジェクトOB4は、海オブジェクトOB3の奥側の端部から連続するように配置されている。当該空オブジェクトOB4は+Y方向に起立して配置されている。 The empty object OB4 is arranged so as to be continuous from the end on the inner side of the sea object OB3. The empty object OB4 is arranged upright in the + Y direction.

各オブジェクトOB1〜OB4に対応させて、複数のテクスチャTD1〜TD4が設けられている。これら各テクスチャTD1〜TD4について図70を用いて説明する。図70は、各テクスチャTD1〜TD4を説明するための説明図である。なお、図面の関係上、各テクスチャTD1〜TD4のうち一部を示す。また、2点鎖線は投影領域を示す。 A plurality of textures TD1 to TD4 are provided corresponding to each object OB1 to OB4. Each of these textures TD1 to TD4 will be described with reference to FIG. 70. FIG. 70 is an explanatory diagram for explaining each texture TD1 to TD4. In addition, due to the relationship with the drawings, a part of the textures TD1 to TD4 is shown. The two-dot chain line indicates the projection area.

図70に示すように、各テクスチャTD1〜TD4は、各オブジェクトOB1〜OB4に対応させて矩形の画像データとして設定されている。各テクスチャTD1〜TD4には、それぞれ貼り付けられるオブジェクトに対応した画像が描かれており、具体的には、砂浜オブジェクトOB1に対応するテクスチャとして砂浜が描かれた砂浜テクスチャTD1が設けられており、波オブジェクトOB2に対応するテクスチャとして波が描かれた波テクスチャTD2が設けられており、海オブジェクトOB3に対応するテクスチャとして海が描かれた海テクスチャTD3が設けられており、空オブジェクトOB4に対応するテクスチャとして空が描かれた空テクスチャTD4が設けられている。 As shown in FIG. 70, each texture TD1 to TD4 is set as rectangular image data corresponding to each object OB1 to OB4. An image corresponding to the object to be pasted is drawn on each texture TD1 to TD4, and specifically, a sandy beach texture TD1 on which a sandy beach is drawn is provided as a texture corresponding to the sandy beach object OB1. A wave texture TD2 with waves drawn is provided as a texture corresponding to the wave object OB2, and a sea texture TD3 with a sea drawn is provided as a texture corresponding to the sea object OB3, which corresponds to the sky object OB4. An empty texture TD4 in which the sky is drawn is provided as a texture.

ここで、各テクスチャTD1〜TD4は、特定視点PV1から各オブジェクトOB1〜OB3を見た場合に奥行き感のある砂浜背景画像となるように設定されている。具体的には、特定視点PV1から実際に見た場合の映像に対応したものであって、全体として所定のパースペクティブが掛かった(遠近感が生じる)画像データが各テクスチャTD1〜TD4として設定されている。この場合、各テクスチャTD1〜TD4は、各オブジェクトOB1〜OB4により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、特定視点PV1と各オブジェクトOB1〜OB4との距離に対応させて設定されている。これにより、各オブジェクトOB1〜OB4が連続して配置されている状況において特定視点PV1から各オブジェクトOB1〜OB4を透視投影した場合に、パースペクティブの整合性が取れた奥行き感のある砂浜背景画像が生成されることとなる。 Here, each texture TD1 to TD4 is set so as to be a sandy beach background image having a sense of depth when each object OB1 to OB3 is viewed from the specific viewpoint PV1. Specifically, the image data corresponding to the image actually viewed from the specific viewpoint PV1 and to which a predetermined perspective is applied as a whole (creating a perspective) is set as each texture TD1 to TD4. There is. In this case, the textures TD1 to TD4 correspond to the distance between the specific viewpoint PV1 and the objects OB1 to OB4 so that the perspectives (perspectives) between the individual images displayed by the objects OB1 to OB4 match. Is set. As a result, when each object OB1 to OB4 is perspectively projected from the specific viewpoint PV1 in a situation where the objects OB1 to OB4 are continuously arranged, a sandy beach background image with a sense of depth with a consistent perspective is generated. Will be done.

以上の通り、各オブジェクトOB1〜OB4を連続させながらスクリーン領域PC12(YZ平面)に対して傾けて配置するとともに、当該各オブジェクトOB1〜OB4に対して貼り付ける各テクスチャTD1〜TD4として、特定視点PV1から見た映像に対応したものであって、全体として所定のパースペクティブが掛かるように各個別画像間のパースペクティブの整合性を取った画像データを用いることにより、板ポリゴンを用いて奥行き感のある砂浜背景画像を作成することができる。これにより、比較的少ない処理負荷及びデータ量で、現実感のある画像を遊技者に対して視認させることができる。 As described above, the objects OB1 to OB4 are arranged at an angle with respect to the screen area PC12 (YZ plane) while being continuous, and the specific viewpoint PV1 is used as the textures TD1 to TD4 to be attached to the objects OB1 to OB4. A sandy beach with a sense of depth using plate polygons by using image data that is consistent with the perspectives between each individual image so that a predetermined perspective is applied as a whole. You can create a background image. This makes it possible for the player to visually recognize a realistic image with a relatively small processing load and data amount.

ちなみに、各個別画像に係るパースペクティブは、各テクスチャTD1〜TD4の画像データよりも、特定視点PV1及び各オブジェクトOB1〜OB4間の距離の方が支配的になっている。つまり、各個別画像に係るパースペクティブは、上記距離の変化に対して大きく変化する。 Incidentally, in the perspective related to each individual image, the distance between the specific viewpoint PV1 and the objects OB1 to OB4 is more dominant than the image data of the textures TD1 to TD4. That is, the perspective related to each individual image changes greatly with the change in the distance.

次に、砂浜疾走演出について説明する。 Next, the sandy beach sprinting effect will be described.

砂浜疾走演出とは、連続する複数フレームに亘って、複数の図柄画像が所定の方向に向けて砂浜を走っているように表示される演出である。この演出では、砂浜背景画像を表示するのに用いた各オブジェクトOB1〜OB4及び各テクスチャTD1〜TD4が用いられる。 The sandy beach sprinting effect is an effect in which a plurality of symbol images are displayed as if they are running on the sandy beach in a predetermined direction over a plurality of continuous frames. In this effect, the objects OB1 to OB4 and the textures TD1 to TD4 used to display the sandy beach background image are used.

ここで、砂浜疾走演出で用いられる背景画像(以降、砂浜背景画像と区別するために演出用背景画像という)は、砂浜背景画像とは視点が異なっている。このため、特定視点PV1に基づいて決定された各テクスチャTD1〜TD4を用いると、パースペクティブの整合性が取れなくなり、違和感のある画像となってしまう。 Here, the background image used in the sandy beach sprinting effect (hereinafter referred to as a production background image to distinguish it from the sandy beach background image) has a different viewpoint from the sandy beach background image. Therefore, if the textures TD1 to TD4 determined based on the specific viewpoint PV1 are used, the perspective becomes inconsistent and the image becomes uncomfortable.

当該現象について図71を用いて説明する。図71は、パースペクティブの変化を説明するための説明図である。なお、説明の便宜上、波オブジェクトOB2及び空オブジェクトOB4を省略し、砂浜オブジェクトOB1及び海オブジェクトOB3を連続させたもので説明する。 This phenomenon will be described with reference to FIG. 71. FIG. 71 is an explanatory diagram for explaining the change in perspective. For convenience of explanation, the wave object OB2 and the sky object OB4 are omitted, and the sandy beach object OB1 and the sea object OB3 are described in succession.

既に説明した通り、砂浜オブジェクトOB1及び海オブジェクトOB3はスクリーン領域PC12に対して傾斜しているため、特定視点PV1及び各オブジェクトOB1,OB3間の距離は、各オブジェクトOB1,OB3の部位に応じて異なっている。具体的には、特定視点PV1から砂浜オブジェクトOB1の手前側の端部までの距離R1、特定視点PV1から海オブジェクトOB3の手前側の端部までの距離R2、特定視点PV1から海オブジェクトOB3の奥側の端部までの距離R3、の順に大きくなっている(R1<R2<R3)。かかる状況において、特定視点PV1を視点として透視投影を行うことにより、各距離R1〜R3に応じたパースペクティブが掛かった画像が得られる。 As described above, since the sandy beach object OB1 and the sea object OB3 are inclined with respect to the screen area PC12, the distance between the specific viewpoint PV1 and the objects OB1 and OB3 differs depending on the parts of the objects OB1 and OB3. ing. Specifically, the distance R1 from the specific viewpoint PV1 to the front end of the sandy beach object OB1, the distance R2 from the specific viewpoint PV1 to the front end of the sea object OB3, and the back of the sea object OB3 from the specific viewpoint PV1. The distance to the end on the side is increased in the order of R3 (R1 <R2 <R3). In such a situation, by performing perspective projection with the specific viewpoint PV1 as a viewpoint, an image with a perspective corresponding to each distance R1 to R3 can be obtained.

この場合、パースペクティブの掛かり具合は各距離R1〜R3の比率に依存している。具体的には、距離R1に対する距離R2の比率が高いほど砂浜オブジェクトOB1のパースペクティブはより掛かる。そして、距離R2に対する距離R3の比率が高いほど海オブジェクトOB3のパースペクティブはより掛かる。 In this case, the degree of perspective engagement depends on the ratio of each distance R1 to R3. Specifically, the higher the ratio of the distance R2 to the distance R1, the greater the perspective of the sandy beach object OB1. The higher the ratio of the distance R3 to the distance R2, the greater the perspective of the sea object OB3.

また、砂浜オブジェクトOB1及び海オブジェクトOB3に対して貼り付けられる各テクスチャTD1、TD3は、各オブジェクトOB1,OB3(実際には波オブジェクトOB2も含む)により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、上記比率を考慮して設定されている。これにより、パースペクティブの整合性が取れた画像を表示させることが可能となっている。 Further, the textures TD1 and TD3 attached to the sandy beach object OB1 and the sea object OB3 are perspectives (perspective) between each individual image displayed by each object OB1 and OB3 (actually including the wave object OB2). ) Is set in consideration of the above ratio. This makes it possible to display an image with consistent perspective.

ここで、視点を特定視点PV1から−Y方向に移動させて別視点PV2に設定した場合、各距離R1〜R3がそれぞれ距離R1’〜R3’に変化し、上記比率が変化する。これにより、透視投影した場合のパースペクティブの掛かり具合が異なることとなる。すると、距離R1〜R3に合わせて設定された各テクスチャTD1,TD3を用いると、各オブジェクトOB1,OB3間におけるパースペクティブの整合性が取れなくなる。これにより、全体として違和感のある画像となる。 Here, when the viewpoint is moved from the specific viewpoint PV1 in the −Y direction and set to another viewpoint PV2, the distances R1 to R3 change to the distances R1 ′ to R3 ′, respectively, and the above ratio changes. As a result, the degree of perspective applied when perspectively projected is different. Then, when the textures TD1 and TD3 set according to the distances R1 to R3 are used, the perspective consistency between the objects OB1 and OB3 cannot be obtained. As a result, the image becomes uncomfortable as a whole.

特に、各オブジェクトOB1,OB3を所定の方向に移動させて画像の更新を行う場合には、各オブジェクトOB1,OB3に係る画像のパースペクティブが異なることに起因する違和感が目立ち易い。具体的には、奥側に表示されている海が、手前側に表示されている砂浜よりも速く移動したりする。 In particular, when the images are updated by moving the objects OB1 and OB3 in a predetermined direction, a sense of discomfort due to the different perspectives of the images related to the objects OB1 and OB3 is likely to be noticeable. Specifically, the sea displayed on the back side moves faster than the sandy beach displayed on the front side.

また、視点から画角を変更すると、パースペクティブの掛かり具合が異なることとなるため、上記パースペクティブのずれが目立ち易くなる。 Further, if the angle of view is changed from the viewpoint, the degree of application of the perspective will be different, so that the deviation of the perspective becomes conspicuous.

これに対して、本実施の形態では、演出用背景画像を作成する場合には、透視投影に代えて平行投影を行う構成とし、さらに奥行き方向の距離に応じて各オブジェクトOB1,OB3のサイズを調整する構成とした。これらの構成について図72を用いて説明する。図72は、演出用背景画像を作成する場合の各オブジェクトOB1,OB3の設定態様を説明するための説明図である。 On the other hand, in the present embodiment, when creating a background image for production, parallel projection is performed instead of perspective projection, and the sizes of the objects OB1 and OB3 are set according to the distance in the depth direction. It was configured to be adjusted. These configurations will be described with reference to FIG. 72. FIG. 72 is an explanatory diagram for explaining a setting mode of each object OB1 and OB3 when creating a background image for effect.

平行投影とは、既に説明した通り、各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に直線的に移動するように投影する手法である。当該平行投影を行う場合、視点からの距離に依存しない画像、すなわち遠近感がない画像が表示される。 As already described, the parallel projection is a method of projecting so that the vertices of each polygon of each object move linearly perpendicular to the screen area PC12. When the parallel projection is performed, an image that does not depend on the distance from the viewpoint, that is, an image without a sense of perspective is displayed.

具体的には、砂浜オブジェクトOB1及び海オブジェクトOB3を平行投影すると、スクリーン領域PC12には、海オブジェクトOB3が砂浜オブジェクトOB1よりも奥側にあるのにも関わらず、両者が視点からの距離に対応したサイズ調整がなされることなく表示される。これにより、両者の間に生じ得るパースペクティブのずれが軽減されることとなる。 Specifically, when the sandy beach object OB1 and the sea object OB3 are projected in parallel, both of them correspond to the distance from the viewpoint even though the sea object OB3 is located behind the sandy beach object OB1 in the screen area PC12. It is displayed without any size adjustment. As a result, the perspective gap that may occur between the two is reduced.

特に、各個別画像に係るパースペクティブは、各テクスチャTD1,TD3に係るパースペクティブよりも、視点及び各オブジェクトOB1,OB3間の距離に基づくパースペクティブの方が支配的となっているため、上記距離の変化に基づくパースペクティブのずれは目立ち易い。 In particular, the perspective related to each individual image is dominated by the perspective based on the viewpoint and the distance between each object OB1 and OB3 rather than the perspective related to each texture TD1 and TD3. The deviation of the perspective based on it is easily noticeable.

これに対して、平行投影を行うことにより、上記距離に基づくパースペクティブ自体が付加されないため、パースペクティブのずれを軽減することが可能となる。 On the other hand, by performing parallel projection, the perspective itself based on the above distance is not added, so that it is possible to reduce the deviation of the perspective.

なお、この場合、各テクスチャTD1,TD3に基づくパースペクティブは反映されるが、当該パースペクティブのずれは、上記距離に基づくパースペクティブのずれよりも目立ちにくい。このため、遊技者としては違和感を抱きにくい。 In this case, the perspective based on each texture TD1 and TD3 is reflected, but the deviation of the perspective is less noticeable than the deviation of the perspective based on the above distance. For this reason, it is difficult for a player to feel uncomfortable.

なお、各テクスチャTD1,TD3のパースペクティブをなくす処理を実行してもよい。これにより、よりパースペクティブの矛盾のない画像を遊技者に対して視認させることができる。 It should be noted that the process of eliminating the perspective of each texture TD1 and TD3 may be executed. This makes it possible for the player to visually recognize an image with a more consistent perspective.

具体的には、例えば各テクスチャTD1,TD3において手前側にマッピングされる領域ほど横方向(X方向)に縮小させ、奥側にマッピングされる領域ほど横方向に拡大させる補正処理を実行するとよい。また、例えば各オブジェクトOB1,OB3を、手前側が長辺で奥側が短辺とする台形オブジェクトとし、当該台形オブジェクトに対してテクスチャをマッピングする構成としてもよい。 Specifically, for example, in each texture TD1 and TD3, it is preferable to execute a correction process in which the area mapped to the front side is reduced in the horizontal direction (X direction), and the area mapped to the back side is enlarged in the horizontal direction. Further, for example, each object OB1 and OB3 may be a trapezoidal object having a long side on the front side and a short side on the back side, and a texture may be mapped to the trapezoidal object.

平行投影を行う場合、本来砂浜よりも遠くに存在するために、砂浜よりも小さく見えるはずの海がサイズ調整されることなく表示されるため、奥行き感のない画像となる。換言すれば、砂浜及び海間の大きさの比率が視点からの距離に対応していないため、奥行き感のない画像となる。 When parallel projection is performed, the sea, which should look smaller than the beach because it is originally located farther than the beach, is displayed without size adjustment, resulting in an image without a sense of depth. In other words, since the ratio of the size between the sandy beach and the sea does not correspond to the distance from the viewpoint, the image has no sense of depth.

これに対して、上記比率が上記視点からの距離に対応するように各オブジェクトOB1,OB3の倍率が設定されている。具体的には、視点からの距離が大きくなるほど、各オブジェクトOB1,OB3の大きさが徐々に小さくなるように各オブジェクトOB1,OB3の大きさが設定されている。 On the other hand, the magnification of each object OB1 and OB3 is set so that the ratio corresponds to the distance from the viewpoint. Specifically, the size of each object OB1 and OB3 is set so that the size of each object OB1 and OB3 gradually decreases as the distance from the viewpoint increases.

より詳細に説明すると、変更された視点から砂浜オブジェクトOB1及び海オブジェクトOB3を透視投影すると、図72に示す領域Aにて砂浜オブジェクトOB1に係る画像である砂浜画像が表示される。そして、図72に示す領域Bにて海オブジェクトOB3に係る画像である海画像が表示される。上記各領域A,Bの大きさの比率は、視点からの距離に依存したものである。 More specifically, when the sandy beach object OB1 and the sea object OB3 are perspectively projected from the changed viewpoint, a sandy beach image which is an image related to the sandy beach object OB1 is displayed in the area A shown in FIG. 72. Then, a sea image, which is an image related to the sea object OB3, is displayed in the area B shown in FIG. 72. The ratio of the sizes of each of the above regions A and B depends on the distance from the viewpoint.

各オブジェクトOB1,OB3のサイズ及び座標(詳細にはY座標)は、平行投影された場合に当該各オブジェクトOB1,OB3に係る画像が表示される領域が上記各領域A,Bと同一となるように設定されている。これにより、擬似的に遠近感のある演出用背景画像が表示されることとなる。 The size and coordinates (specifically, Y coordinates) of each object OB1 and OB3 are such that the area where the image related to each object OB1 and OB3 is displayed is the same as each of the above areas A and B when projected in parallel. Is set to. As a result, a background image for effect with a pseudo perspective is displayed.

なお、説明の便宜上、波オブジェクトOB2を省略した態様で説明したが、波オブジェクトOB2が設定されている状況についても同様である。 For convenience of explanation, the wave object OB2 has been omitted, but the same applies to the situation where the wave object OB2 is set.

上記各画像表示に係る具体的な処理構成について以下に説明する。 A specific processing configuration related to each of the above image displays will be described below.

先ず、砂浜背景用演算処理について図73のフローチャートを用いて説明する。当該砂浜背景用演算処理は、現状設定されているデータテーブルが砂浜背景画像の表示に対応したものである場合に、表示CPU131のタスク処理(図14)における背景用演算処理(ステップS903)にて実行される。 First, the arithmetic processing for the sandy beach background will be described with reference to the flowchart of FIG. 73. The sandy beach background arithmetic processing is performed in the background arithmetic processing (step S903) in the task processing (FIG. 14) of the display CPU 131 when the currently set data table corresponds to the display of the sandy beach background image. Will be executed.

ステップS4201では、砂浜背景画像を表示するのに必要な各オブジェクトOB1〜OB4を把握する。 In step S4201, each object OB1 to OB4 required to display the sandy beach background image is grasped.

その後、ステップS4202にて、各オブジェクトOB1〜OB4の座標及び角度を更新する。具体的には、ワールド座標系に配置された場合に、各オブジェクトOB1〜OB4が奥行き方向(特定視点PV1から遠ざかる方向)に連続して並ぶように且つ空オブジェクトOB4を除く各オブジェクトOB1〜OB4がスクリーン領域PC12に対して所定の角度傾くように各座標を設定する。 After that, in step S4202, the coordinates and angles of the objects OB1 to OB4 are updated. Specifically, when arranged in the world coordinate system, the objects OB1 to OB4 are arranged continuously in the depth direction (direction away from the specific viewpoint PV1), and the objects OB1 to OB4 excluding the empty object OB4 are arranged. Each coordinate is set so as to be tilted at a predetermined angle with respect to the screen area PC12.

続くステップS4203では、各テクスチャのアドレス設定処理を実行する。具体的には、各オブジェクトOB1〜OB4に対して貼り付けられる各テクスチャTD1〜TD4のアドレスを設定する。その後、ステップS4204にてその他のパラメータを更新する演算処理を行う。 In the following step S4203, the address setting process of each texture is executed. Specifically, the address of each texture TD1 to TD4 to be pasted to each object OB1 to OB4 is set. After that, in step S4204, an arithmetic process for updating other parameters is performed.

続くステップS4205では、各オブジェクトOB1〜OB4を透視投影することを特定するための情報である透視投影指定情報を設定する。そして、ステップS4206にてその他の背景用オブジェクトを把握し、ステップS4207にて当該その他の背景用オブジェクトのパラメータの更新に係る演算処理を行い、本砂浜背景用演算処理を終了する。 In the following step S4205, the perspective projection designation information which is the information for specifying the perspective projection of each object OB1 to OB4 is set. Then, in step S4206, other background objects are grasped, in step S4207, arithmetic processing related to updating the parameters of the other background objects is performed, and the main sandy beach background arithmetic processing is completed.

かかる処理が行われた場合、その後に行われる描画リスト出力処理(ステップS806)では、描画対象として各オブジェクトOB1〜OB4が設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用される各種パラメータが設定された描画リストが作成される。また、描画リストには、透視投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1〜OB4を既に説明した通りの位置関係となるように各オブジェクトOB1〜OB4を配置し、透視投影を行う。これにより、遠近感のある画像が作成される。 When such processing is performed, in the drawing list output processing (step S806) performed thereafter, each object OB1 to OB4 is set as a drawing target, and various parameters applied to each of the objects OB1 to OB4 are set. A drawing list with is set is created. Further, perspective projection designation information is set in the drawing list. When the VDP 135 receives the drawing list, the VDP 135 arranges the objects OB1 to OB4 so that the objects OB1 to OB4 have the positional relationship as described above, and performs perspective projection. This creates an image with a sense of perspective.

次に、砂浜疾走演出の背景用演算処理について図74(a)のフローチャートを用いて説明する。砂浜疾走演出の背景用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、表示CPU131のタスク処理(図14)におけるステップS903の背景用演算処理にて実行される。 Next, the calculation process for the background of the sandy beach sprinting effect will be described with reference to the flowchart of FIG. 74 (a). The background calculation process for the sandy beach sprinting effect is executed in the background calculation process in step S903 in the task process (FIG. 14) of the display CPU 131 when the currently set data table corresponds to the sandy beach sprinting effect. Will be done.

先ずステップS4301では、現状設定されているデータテーブルに基づいて、砂浜疾走演出中であるか否かを判定する。 First, in step S4301, it is determined whether or not the sandy beach sprinting effect is in progress based on the currently set data table.

砂浜疾走演出中でない場合には、ステップS4302に進み、砂浜疾走演出の開始タイミングであるか否かを判定する。 If the beach sprinting effect is not in progress, the process proceeds to step S4302 to determine whether or not it is the start timing of the sandy beach sprinting effect.

砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4303〜ステップS4308にて、演出用背景画像を描画するための初期設定処理を実行する。 If it is not the start timing of the sandy beach sprinting effect, this calculation process is terminated as it is, while if it is the start timing of the sandy beach sprinting effect, the initial setting for drawing the background image for the effect in steps S4303 to S4308. Execute the process.

具体的には、先ずステップS4303にて、各オブジェクトOB1〜OB4を把握する処理を実行する。 Specifically, first, in step S4303, a process of grasping each object OB1 to OB4 is executed.

そして、ステップS4304にて、各オブジェクトOB1〜OB4の座標を調整する処理を実行し、更にステップS4305にて、各オブジェクトOB1〜OB4に対して適用される倍率を調整する処理を実行する。具体的には、各オブジェクトOB1〜OB4に対して、演出用背景画像に対応した座標及び倍率を設定する。詳細には、各オブジェクトOB1〜OB4が平行投影された場合に、当該平行投影された領域が砂浜背景画像を表示させる場合の各オブジェクトOB1〜OB4の座標系において別視点PV2から透視投影を行った場合の投影領域と重なるように、各オブジェクトOB1〜OB4の座標及び倍率を設定する。 Then, in step S4304, a process of adjusting the coordinates of each object OB1 to OB4 is executed, and further, in step S4305, a process of adjusting the magnification applied to each of the objects OB1 to OB4 is executed. Specifically, the coordinates and the magnification corresponding to the background image for production are set for each of the objects OB1 to OB4. Specifically, when each object OB1 to OB4 is projected in parallel, perspective projection is performed from another viewpoint PV2 in the coordinate system of each object OB1 to OB4 when the parallel projected area displays a sandy beach background image. The coordinates and magnification of each object OB1 to OB4 are set so as to overlap with the projection area of the case.

その後、ステップS4306にて視点として別視点PV2を設定し、ステップS4307にて、その他のパラメータの初期設定に係る演算処理を実行する。そして、ステップS4308にて、平行投影指定情報を設定する。当該平行投影指定情報は、VDP135において各オブジェクトOB1〜OB4を平行投影するように指示するための情報である。 After that, another viewpoint PV2 is set as a viewpoint in step S4306, and arithmetic processing related to the initial setting of other parameters is executed in step S4307. Then, in step S4308, the parallel projection designation information is set. The parallel projection designation information is information for instructing the parallel projection of each object OB1 to OB4 in VDP135.

その後、ステップS4309にてその他の背景用オブジェクトを把握し、ステップS4310にて当該その他の背景用オブジェクトに対して適用される各種パラメータを更新に係る演算処理を実行して、本演算処理を終了する。 After that, in step S4309, other background objects are grasped, and in step S4310, various parameters applied to the other background objects are updated, and the calculation process is executed to end the calculation process. ..

かかる処理が行われた場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、描画対象として各オブジェクトOB1〜OB4が設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用される各種パラメータが設定される。当該各種パラメータは、各オブジェクトOB1〜OB4が平行投影される場合に対応したものである。 When such a process is performed, each object OB1 to OB4 is set as a drawing target in the drawing list created in the subsequent drawing list output process (step S806), and each object OB1 to OB4 is set. Various parameters to be applied are set. The various parameters correspond to the case where the objects OB1 to OB4 are projected in parallel.

また、上記描画リストには平行投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1〜OB4を把握し、各オブジェクトOB1〜OB4に対して平行投影に対応したパラメータを適用した状態で、別視点PV2を基準とする平行投影を行う。これにより、砂浜背景画像の視点(特定視点PV1)とは異なる視点(別視点PV2)から見た演出用背景画像が作成される。 Further, parallel projection designation information is set in the drawing list. When the VDP135 receives the drawing list, the VDP135 grasps each object OB1 to OB4, applies a parameter corresponding to the parallel projection to each object OB1 to OB4, and parallelizes with reference to another viewpoint PV2. Make a projection. As a result, a background image for directing is created from a viewpoint (another viewpoint PV2) different from the viewpoint (specific viewpoint PV1) of the sandy beach background image.

砂浜疾走演出中である場合には、ステップS4311〜ステップS4314にて、演出用背景画像をスクロールするための処理を実行する。具体的には、先ずステップS4311にて、各オブジェクトOB1〜OB4を把握する。 When the sandy beach sprinting effect is in progress, the process for scrolling the background image for effect is executed in steps S4311 to S4314. Specifically, first, in step S4311, each object OB1 to OB4 is grasped.

続くステップS4312では、視点の位置を更新する処理を実行する。具体的には、現状設定されている視点から第1変位量だけ−X方向に変位させる処理を実行する。 In the following step S4312, a process of updating the position of the viewpoint is executed. Specifically, the process of displacing the first displacement amount in the −X direction from the currently set viewpoint is executed.

その後、ステップS4313にて、各オブジェクトOB1〜OB4に適用されるパラメータを更新する演算処理を実行する。具体的には、各オブジェクトOB1〜OB4を現状の座標から所定の変位量だけ−X方向に移動させる。当該所定の変位量は、−X方向への視点の変位量よりも小さい範囲内で、各オブジェクトOB1〜OB4と視点との距離に応じて設定されている。 After that, in step S4313, an arithmetic process for updating the parameters applied to the objects OB1 to OB4 is executed. Specifically, each object OB1 to OB4 is moved in the −X direction by a predetermined displacement amount from the current coordinates. The predetermined displacement amount is set according to the distance between each object OB1 to OB4 and the viewpoint within a range smaller than the displacement amount of the viewpoint in the −X direction.

具体的には、図74(b)の説明図に示すように、視点と各オブジェクトOB1〜OB4とのZ方向の距離が大きくなるほど、視点に対する各オブジェクトOB1〜OB4の相対速度が小さくなるように、各オブジェクトOB1〜OB4の変位量が設定されている。詳細には、視点と各オブジェクトOB1〜OB4のZ方向の距離との距離が大きくなるほど、各オブジェクトOB1〜OB4の変位量と第1変位量との差分が小さくなるように各オブジェクトOB1〜OB4の変位量が設定されている。これにより、視点に対して手前側に配置されているオブジェクトほど+X方向に速く移動するように見え、視点に対して奥側に配置されているオブジェクトほど+X方向に遅く移動するように見える。よって、擬似的な遠近感を表現することができる。 Specifically, as shown in the explanatory diagram of FIG. 74 (b), as the distance between the viewpoint and the objects OB1 to OB4 in the Z direction increases, the relative speed of the objects OB1 to OB4 with respect to the viewpoint decreases. , The displacement amount of each object OB1 to OB4 is set. Specifically, as the distance between the viewpoint and the distance between the objects OB1 to OB4 in the Z direction increases, the difference between the displacement amount of each object OB1 to OB4 and the first displacement amount becomes smaller. The amount of displacement is set. As a result, the object placed closer to the viewpoint appears to move faster in the + X direction, and the object placed closer to the viewpoint appears to move slower in the + X direction. Therefore, it is possible to express a pseudo perspective.

また、波オブジェクトOB2については、−X方向への変位だけでなく、Y座標及びZ座標についても座標を更新する処理を実行する。具体的には、図69(b)に示すように、波オブジェクトOB2を、傾斜角度を維持した状態で手前側に進むようにY座標及びZ座標を設定する。これにより、波が手前側に打ち寄せてくる様子を表現することができる。 Further, for the wave object OB2, not only the displacement in the −X direction but also the Y coordinate and the Z coordinate are updated. Specifically, as shown in FIG. 69 (b), the Y coordinate and the Z coordinate are set so that the wave object OB2 advances toward the front side while maintaining the inclination angle. This makes it possible to express how the waves are rushing toward you.

すなわち、砂浜オブジェクトOB1に対して波オブジェクトOB2を、視点から見て重なり合うように(詳細にはZ方向にずらして)配置し、当該波オブジェクトOB2を砂浜オブジェクトOB1に対して相対的に変位させることにより、砂浜に対して重なるように波が表示されることとなる。 That is, the wave object OB2 is arranged so as to overlap with the sandy beach object OB1 (specifically, shifted in the Z direction), and the wave object OB2 is displaced relative to the sandy beach object OB1. As a result, the waves will be displayed so as to overlap the sandy beach.

そして、波オブジェクトOB2の初期位置からの変位量が予め特定量となった場合には、座標を維持するとともに、波オブジェクトOB2が徐々に消えていくように一律α値を更新する処理を実行する。そして、一律α値が所定の値(例えば完全透過のα値)となったことに基づいて、再度波オブジェクトOB2を初期位置に配置して一連の処理を実行する。これにより、波が打ち寄せて消えていく様子を繰り返し見せることができ、リアルな波を実現することができる。 Then, when the displacement amount of the wave object OB2 from the initial position becomes a specific amount in advance, the coordinates are maintained and the process of uniformly updating the α value so that the wave object OB2 gradually disappears is executed. .. Then, based on the fact that the uniform α value becomes a predetermined value (for example, the α value of complete transmission), the wave object OB2 is arranged at the initial position again and a series of processes are executed. As a result, it is possible to repeatedly show how the waves hit and disappear, and it is possible to realize realistic waves.

その後、ステップS4314にて平行投影指定情報を設定し、ステップS4309及びステップS4310の処理を実行して、本演算処理を終了する。 After that, the parallel projection designation information is set in step S4314, the processes of steps S4309 and S4310 are executed, and this calculation process is terminated.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、背景用画像を表示するのに必要な各オブジェクトOB1〜OB4が描画対象として設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用されるパラメータ情報が設定される。当該各種パラメータには、視点が−X方向に移動するよう設定されているとともに、視点と各オブジェクトOB1〜OB4との距離が大きくなるに従って当該視点に対する相対速度が小さくなるように各オブジェクトOB1〜OB4の座標の変位量が設定されている。これにより、演出用背景画像が+X方向にスクロールするように表示されることとなる。 When such a process is executed, each of the objects OB1 to OB4 required to display the background image is set as a drawing target in the drawing list created in the subsequent drawing list output process, and each of them. Parameter information applied to objects OB1 to OB4 is set. The various parameters are set so that the viewpoint moves in the −X direction, and the relative speeds of the objects OB1 to OB4 decrease as the distance between the viewpoint and the objects OB1 to OB4 increases. The displacement amount of the coordinates of is set. As a result, the background image for effect is displayed so as to scroll in the + X direction.

なお、視点が移動することにより、投影対象となる領域が各オブジェクトOB1〜OB4の端側の領域にとなった場合には、現状投影対象となっている各オブジェクトOB1〜OB4に対して視点の進行方向の先側に同一の各オブジェクトOB1〜OB4を連続して設定するように構成されている。これにより、視点が各オブジェクトOB1〜OB4よりも速い速度で移動することに起因して演出用背景画像が途切れてしまう不都合を回避することができる。 When the area to be projected becomes the area on the end side of each object OB1 to OB4 due to the movement of the viewpoint, the viewpoint of each object OB1 to OB4 currently to be projected is displayed. It is configured to continuously set the same objects OB1 to OB4 on the front side in the traveling direction. As a result, it is possible to avoid the inconvenience that the background image for production is interrupted due to the viewpoint moving at a speed faster than that of each object OB1 to OB4.

また、各テクスチャTD1〜TD4における視点の移動方向に対応した両端部、具体的にはX方向の両端部は、描かれた模様が連続するように設定されているとよい。これにより、オブジェクトの切れ目が把握されにくいため、遊技者に対して違和感を与えにくい。 Further, it is preferable that both ends corresponding to the moving direction of the viewpoint in each texture TD1 to TD4, specifically, both ends in the X direction are set so that the drawn pattern is continuous. As a result, it is difficult to grasp the breaks in the object, and it is difficult to give the player a sense of discomfort.

次に、砂浜疾走演出の演出用演算処理について図75のフローチャートを用いて説明する。砂浜疾走演出の演出用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、タスク処理(図14)における演出用演算処理(ステップS904)にて実行される処理である。 Next, the arithmetic processing for the production of the sandy beach sprinting effect will be described with reference to the flowchart of FIG. 75. The operation calculation process for the effect of the sandy beach sprinting effect is executed in the effect calculation process (step S904) in the task process (FIG. 14) when the currently set data table corresponds to the sandy beach sprinting effect. It is a process.

先ず、ステップS4401では、現状設定されているデータテーブルに基づいて砂浜疾走演出中であるか否かを判定する。 First, in step S4401, it is determined whether or not the sandy beach sprinting effect is in progress based on the currently set data table.

砂浜疾走演出中でない場合には、ステップS4402に進み、現状設定されているデータテーブルに基づいて砂浜疾走演出の開始タイミングであるか否かを判定する。 If the sandy beach sprinting effect is not in progress, the process proceeds to step S4402, and it is determined whether or not it is the start timing of the sandy beach sprinting effect based on the currently set data table.

砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4403に進み、疾走対象の図柄オブジェクトを把握する。そして、ステップS4404にて当該図柄オブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、図柄オブジェクトが平行投影された場合に、当該図柄オブジェクトに係る画像が砂浜画像に重なるように図柄オブジェクトの座標を設定する。詳細には、砂浜オブジェクトOB1とスクリーン領域PC12との間に図柄オブジェクトを配置する。 If it is not the start timing of the sandy beach sprinting effect, the present calculation process is terminated as it is, while if it is the start timing of the sandy beach sprinting effect, the process proceeds to step S4403 to grasp the symbol object to be sprinted. Then, in step S4404, the arithmetic processing related to the initial setting of various parameter information applied to the symbol object is executed. In this case, when the symbol object is projected in parallel, the coordinates of the symbol object are set so that the image related to the symbol object overlaps the sandy beach image. Specifically, a symbol object is placed between the sandy beach object OB1 and the screen area PC12.

その後、ステップS4405にて、今回の描画対象となる教示用のオブジェクトを把握する。教示用のオブジェクトは、既に説明した通り、遊技状況を遊技者に教示可能となる画像を表示する場合に利用されるオブジェクトであり、詳細には現状のラウンドが何番目のラウンドであるかを教示するためのオブジェクトと、開閉実行モードが連続して行われた回数を示すためのオブジェクトと、が設定されている。ステップS4405では、これらの教示用のオブジェクトを把握する。 After that, in step S4405, the teaching object to be drawn this time is grasped. As already explained, the teaching object is an object used when displaying an image that enables the player to be taught the game situation, and in detail, teaches which round the current round is. An object for performing the operation and an object for indicating the number of times the open / close execution mode is continuously performed are set. In step S4405, these teaching objects are grasped.

そして、ステップS4406にて上記教示用のオブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、教示用のオブジェクトが演出用背景画像の生成に用いられる各オブジェクトOB1〜OB4よりも視点側に配置されるように当該教示用のオブジェクトの座標を設定する。そして、本演算処理を終了する。 Then, in step S4406, the arithmetic processing related to the initial setting of various parameter information applied to the object for teaching is executed. In this case, the coordinates of the teaching object are set so that the teaching object is arranged on the viewpoint side of the objects OB1 to OB4 used to generate the effect background image. Then, this arithmetic processing is terminated.

かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、図柄オブジェクト及び教示用のオブジェクトが描画対象として設定されるとともに、これらのオブジェクトに対して適用されるパラメータが設定される。これらのオブジェクトは演出用背景画像の生成に用いられる各オブジェクトOB1〜OB4よりも視点側に配置されるようになっている。これにより、上記各オブジェクトに対して平行投影が行われることにより、演出用背景画像に対して重なるようにして図柄画像及び教示用画像が表示されることとなる。 When such a process is executed, a symbol object and an object for teaching are set as drawing targets in the drawing list created in the subsequent drawing list output process (step S806), and for these objects. The applicable parameters are set. These objects are arranged on the viewpoint side of the objects OB1 to OB4 used to generate the background image for effect. As a result, parallel projection is performed on each of the above objects, so that the design image and the teaching image are displayed so as to overlap the background image for production.

砂浜疾走演出中である場合には、ステップS4407にて疾走対象の図柄オブジェクトを把握する処理を実行する。そして、ステップS4408にて図柄オブジェクトに適用されるパラメータを更新する演算処理を実行する。具体的には、−X方向の視点の移動に伴って図柄オブジェクトが移動するように図柄オブジェクトの座標を更新する。この場合、視点の変位量と図柄オブジェクトの変位量とを同一に設定する。これにより、視点の移動と図柄オブジェクトの移動とを同期させることができ、図柄画像の移動に伴って視点が追従していくように見せることができる。 When the sandy beach sprinting effect is in progress, the process of grasping the symbol object to be sprinted is executed in step S4407. Then, in step S4408, an arithmetic process for updating the parameters applied to the symbol object is executed. Specifically, the coordinates of the symbol object are updated so that the symbol object moves with the movement of the viewpoint in the −X direction. In this case, the displacement amount of the viewpoint and the displacement amount of the symbol object are set to be the same. As a result, the movement of the viewpoint and the movement of the symbol object can be synchronized, and the viewpoint can be made to appear to follow as the symbol image moves.

続くステップS4409及びステップS4410では、視点の移動に伴う教示用のオブジェクトの更新処理を実行する。具体的には、先ずステップS4409にて教示用のオブジェクトを把握する。そして、ステップS4410にて、教示用のオブジェクトに適用されるパラメータを更新する演算処理実行する。詳細には、−X方向の視点の移動に伴って教示用のオブジェクトが移動するように当該教示用のオブジェクトの座標を更新する。この場合、視点の変位量と教示用のオブジェクトの変位量とを同一に設定する。これにより、視点の移動と教示用のオブジェクトの移動とを同期させることができ、教示用画像を常に表示させることが可能となる。 In the following steps S4409 and S4410, the object for teaching is updated according to the movement of the viewpoint. Specifically, first, the object for teaching is grasped in step S4409. Then, in step S4410, an arithmetic process for updating the parameters applied to the teaching object is executed. Specifically, the coordinates of the teaching object are updated so that the teaching object moves with the movement of the viewpoint in the −X direction. In this case, the displacement amount of the viewpoint and the displacement amount of the object for teaching are set to be the same. As a result, the movement of the viewpoint and the movement of the teaching object can be synchronized, and the teaching image can be always displayed.

なお、上記処理では、便宜上、ステップS4403〜ステップS4406の処理と、ステップS4407〜ステップS4410の処理と、を分けて表示したが、これに限られず、これらの処理を共通化してもよい。この場合、データテーブル上に各更新タイミングにおいて設定すべき画像データを予め設定しておき、更新タイミングとなる度に、当該更新タイミングに対応した上記各種画像データを適宜読み出し、描画に係る設定処理を行う構成とすればよい。 In the above processing, for convenience, the processing of steps S4403 to S4406 and the processing of steps S4407 to S4410 are displayed separately, but the present invention is not limited to this, and these processes may be shared. In this case, the image data to be set at each update timing is set in advance on the data table, and each time the update timing is reached, the various image data corresponding to the update timing is appropriately read out, and the setting process related to drawing is performed. It may be configured to be performed.

次に、砂浜背景画像及び砂浜疾走演出の様子について図76を用いて説明する。図76(a)は砂浜背景画像が表示された表示面Gを示す説明図、図76(b)は砂浜疾走演出の様子を説明するための説明図である。 Next, the sandy beach background image and the state of the sandy beach sprinting effect will be described with reference to FIG. 76. FIG. 76 (a) is an explanatory diagram showing a display surface G on which a sandy beach background image is displayed, and FIG. 76 (b) is an explanatory diagram for explaining a state of a sandy beach sprinting effect.

図76(a)に示すように、砂浜背景画像BP10には、手前側から順に、第1砂画像BP11、第1波画像BP12、第1海画像BP13、第1空画像BP14が表示されている。砂浜背景画像BP10は、遠近感のある画像であり、具体的には例えば第1海画像BP13においては奥側(水平線)に近づくに従って波の間隔及び波の幅が小さくなるようになっている。 As shown in FIG. 76A, the sandy beach background image BP10 displays the first sand image BP11, the first wave image BP12, the first sea image BP13, and the first sky image BP14 in order from the front side. .. The sandy beach background image BP10 is an image with a sense of perspective. Specifically, for example, in the first sea image BP13, the wave interval and the wave width become smaller as it approaches the inner side (horizontal line).

砂浜疾走演出では、図76(b)に示すように、手前側から順に、第2砂画像BP21、第2波画像BP22、第2海画像BP23、第2空画像BP24が表示された画像であって砂浜背景画像BP10とは視点が異なる演出用背景画像BP20が表示される。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に小さく表示されるため、遠近感のある画像となっている。 In the sandy beach sprinting effect, as shown in FIG. 76B, the second sand image BP21, the second wave image BP22, the second sea image BP23, and the second sky image BP24 are displayed in order from the front side. A background image BP20 for directing, which has a different viewpoint from the sandy beach background image BP10, is displayed. In this case, the second sand image BP21 → the second wave image BP22 → the second sea image BP23 → the second sky image BP24 are displayed in smaller order, so that the image has a sense of perspective.

そして、演出用背景画像BP20に対して重なるように図柄画像CP1〜CP3及び教示用画像CP4,CP5が表示される。そして、演出用背景画像BP20が+X方向に対応する方向である右方向に移動することにより、当該図柄画像CP1〜CP3が−X方向に対応する方向である左方向に向けて移動するように見える。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に、移動速度は遅くなっている。これにより、奥側(視点から遠く)にあるものほどゆっくり移動するように見え、遠近感が生じている。 Then, the symbol images CP1 to CP3 and the teaching images CP4 and CP5 are displayed so as to overlap with the effect background image BP20. Then, by moving the background image BP20 for production to the right, which is the direction corresponding to the + X direction, the symbol images CP1 to CP3 appear to move toward the left, which is the direction corresponding to the −X direction. .. In this case, the moving speed becomes slower in the order of the second sand image BP21 → the second wave image BP22 → the second sea image BP23 → the second sky image BP24. As a result, the ones on the far side (farther from the viewpoint) seem to move more slowly, creating a sense of perspective.

以上の通り、各オブジェクトOB1〜OB4を奥行き方向に並べて配置するとともに、各オブジェクトOB1〜OB4に対して貼り付けるテクスチャとして、特定視点PV1から見た場合の画像に対応したものを用意し、これらを透視投影することにより砂浜背景画像BP10を表示させる構成において、特定視点PV1とは異なる別視点PV2に基づく演出用背景画像BP20を表示させる場合には各オブジェクトOB1〜OB4を平行投影する構成とした。これにより、用いるテクスチャの共通化を図りつつ、視点の変更に伴うパースペクティブの整合性のずれを抑制することができる。よって、テクスチャの共通化を図ることができる点でデータ量の削減を図ることができる。 As described above, the objects OB1 to OB4 are arranged side by side in the depth direction, and the textures to be attached to the objects OB1 to OB4 are prepared to correspond to the image when viewed from the specific viewpoint PV1. In the configuration in which the sandy beach background image BP10 is displayed by perspective projection, when displaying the production background image BP20 based on another viewpoint PV2 different from the specific viewpoint PV1, each object OB1 to OB4 is projected in parallel. As a result, it is possible to suppress the deviation of the perspective consistency due to the change of the viewpoint while trying to standardize the textures used. Therefore, it is possible to reduce the amount of data in that the texture can be standardized.

特に、比較的簡素なオブジェクトである板ポリゴンで構成された各オブジェクトOB1〜OB4を投影平面に対して傾斜して配置し、これら各オブジェクトOB1〜OB4を透視投影することにより、比較的少ない処理負荷でパースペクティブが掛かった砂浜背景画像BP10を生成することができる。一方、視点が異なると、透視投影に基づくパースペクティブの掛かり具合のずれが目立ち易くなる。 In particular, by arranging the objects OB1 to OB4 composed of plate polygons, which are relatively simple objects, at an angle with respect to the projection plane and performing perspective projection of each of these objects OB1 to OB4, a relatively small processing load is applied. It is possible to generate a sandy beach background image BP10 with a perspective applied by. On the other hand, when the viewpoints are different, the deviation of the perspective based on the perspective projection becomes more noticeable.

これに対して、視点が異なる演出用背景画像BP20を生成する場合には、パースペクティブを生じさせない平行投影を行うことにより、上記ずれの発生を抑制することができる。 On the other hand, when the production background image BP20 having a different viewpoint is generated, the occurrence of the above-mentioned deviation can be suppressed by performing parallel projection without causing a perspective.

この場合、視点と各オブジェクトOB1〜OB4との距離が大きくなるほど、各オブジェクトOB1〜OB4の倍率を小さくするとともに、視点に対する各オブジェクトOB1〜OB4の相対移動速度を小さくする構成とした。これにより、平行投影により得られる画像を遠近感のある画像に見せることができる。 In this case, as the distance between the viewpoint and the objects OB1 to OB4 increases, the magnification of the objects OB1 to OB4 is reduced, and the relative movement speed of the objects OB1 to OB4 with respect to the viewpoint is reduced. As a result, the image obtained by parallel projection can be made to look like an image with a sense of perspective.

なお、上記構成では、各オブジェクトOB1〜OB4は板状ポリゴンであったが、これに限られず、例えば各オブジェクトOB1〜OB4のいずれかを、表示対象となる画像に対応させて設定された3次元の特定オブジェクトとして構成してもよい。この場合、当該特定オブジェクトに対応させてテクスチャを設け、当該テクスチャを上記特定オブジェクトに貼り付ける構成とする。これにより、上記特定オブジェクトに係る画像については視点の変化に対応することができる一方、他のオブジェクトについては視点の変化に対応することができず、パースペクティブの整合性が取れなくなる事態が生じ得る。これに対して、視点が変化した場合には平行投影を行うことにより、両者のずれを軽減することができる。 In the above configuration, each object OB1 to OB4 is a plate-shaped polygon, but the present invention is not limited to this, and for example, any one of the objects OB1 to OB4 is set to correspond to the image to be displayed in three dimensions. It may be configured as a specific object of. In this case, a texture is provided corresponding to the specific object, and the texture is attached to the specific object. As a result, the image related to the specific object can respond to the change in the viewpoint, while the other objects cannot respond to the change in the viewpoint, and the perspective may not be consistent. On the other hand, when the viewpoint changes, the deviation between the two can be reduced by performing parallel projection.

また、上記構成では、別視点PV2は特定視点PV1を−Y方向に移動した位置としたが、これに限られず、例えばZ方向にずらした位置にしてもよく、任意である。 Further, in the above configuration, the different viewpoint PV2 is set to the position where the specific viewpoint PV1 is moved in the −Y direction, but the position is not limited to this, and may be, for example, a position shifted in the Z direction, which is arbitrary.

また、各オブジェクトOB1〜OB4に係る画像間のパースペクティブの整合性について説明したが、これに限られず、例えば最背面画像等の2次元画像データに係る画像と、1のオブジェクトに係る画像との整合性についても同様である。つまり、1のオブジェクトと2次元画像データとを組み合わせて1の画像を表示させる場合にも視点の変化に伴う透視投影と平行投影との切換を適用することができる。 Further, the consistency of the perspective between the images related to the objects OB1 to OB4 has been described, but the present invention is not limited to this, and the matching between the image related to the two-dimensional image data such as the rearmost image and the image related to one object. The same applies to sex. That is, even when displaying one image by combining one object and two-dimensional image data, switching between perspective projection and parallel projection due to a change in viewpoint can be applied.

上記構成では、砂浜背景画像BP10を表示するのに用いられるテクスチャを、演出用背景画像BP20を表示するのに用いる構成としたが、これに限られず、所定の画像を表示するのに用いられるテクスチャを、上記所定の画像とは視点が異なる画像を表示するのに用いる構成であればよく、具体的な表示内容については任意である。 In the above configuration, the texture used to display the sandy beach background image BP10 is configured to be used to display the production background image BP20, but the texture is not limited to this and is used to display a predetermined image. Any configuration may be used as long as it is used to display an image having a viewpoint different from that of the predetermined image, and the specific display content is arbitrary.

また、上記構成では、視点を−X方向に移動させる構成としたが、これに限られず、移動させない構成としてもよい。この場合、各オブジェクトOB1〜OB4を+X方向に移動させる構成とし、その移動量を視点からの距離に応じて異ならせる構成とするとよい。また、視点の移動方向は−X方向としたが、これに限られず、任意である。 Further, in the above configuration, the viewpoint is moved in the −X direction, but the present invention is not limited to this, and a configuration in which the viewpoint is not moved may be used. In this case, it is preferable to configure each object OB1 to OB4 to move in the + X direction, and to make the movement amount different according to the distance from the viewpoint. Further, the moving direction of the viewpoint is set to the −X direction, but the movement direction is not limited to this and is arbitrary.

上記構成では、各オブジェクトOB1〜OB4を平行投影した場合の領域が、各オブジェクトOB1〜OB4を透視投影した場合の領域と重なるように、各オブジェクトOB1〜OB4の座標及び倍率を設定したが、これに限られない。要は、別視点PV2に対応した画像であって遠近感が生じるように各オブジェクトOB1〜OB4の座標及び倍率を調整する構成であればよい。 In the above configuration, the coordinates and magnification of each object OB1 to OB4 are set so that the area when each object OB1 to OB4 is projected in parallel overlaps with the area when each object OB1 to OB4 is perspectively projected. Not limited to. In short, it may be a configuration in which the coordinates and magnifications of the objects OB1 to OB4 are adjusted so that the image corresponds to the different viewpoint PV2 and a sense of perspective is generated.

さらに、演出用背景画像BP20を表示させる場合に、各オブジェクトOB1〜OB3の傾斜角度を、砂浜背景画像BP10を表示させる場合の傾斜角度から変更する構成としてもよく、各オブジェクトOB1〜OB3の傾斜角度を個別に変更してもよい。 Further, when displaying the background image BP20 for effect, the tilt angle of each object OB1 to OB3 may be changed from the tilt angle when displaying the sandy beach background image BP10, and the tilt angle of each object OB1 to OB3 may be changed. May be changed individually.

また、砂浜疾走演出にて描画対象となる教示用のオブジェクト及び図柄オブジェクトに対する投影パターンとしては、平行投影及び透視投影どちらでもよい。平行投影を行う場合には図柄画像CP1〜CP3及び教示用画像CP4,CP5を見易く表示させることができる一方、透視投影を行う場合には上記各画像CP1〜CP5を立体的に表示させることができる。 Further, as the projection pattern for the teaching object and the design object to be drawn in the sandy beach sprinting effect, either parallel projection or perspective projection may be used. When parallel projection is performed, the symbol images CP1 to CP3 and the teaching images CP4 and CP5 can be displayed in an easy-to-see manner, while when perspective projection is performed, each of the above images CP1 to CP5 can be displayed three-dimensionally. ..

また、教示用のオブジェクトの投影パターンを平行投影に設定し、図柄オブジェクトの投影パターンを透視投影にする構成としてもよい。この場合、教示用画像CP4,CP5を見易く表示させつつ、砂浜疾走演出に係る図柄画像CP1〜CP3を立体的に表示させることができる。 Further, the projection pattern of the object for teaching may be set to parallel projection, and the projection pattern of the design object may be set to perspective projection. In this case, the design images CP1 to CP3 related to the sandy beach sprinting effect can be displayed three-dimensionally while displaying the teaching images CP4 and CP5 in an easy-to-see manner.

<第2の実施形態>
本実施の形態では、表示演出として歪み演出及び瞬き演出を行うための構成を備えている。そして、歪み演出に合わせて描画処理が第1の実施形態と異なっている。以下に、各演出を行うための構成について説明する。なお、第1の実施形態と同様の構成については説明を省略する。
<Second embodiment>
In the present embodiment, a configuration for performing a distortion effect and a blink effect as a display effect is provided. The drawing process is different from that of the first embodiment according to the distortion effect. The configuration for performing each effect will be described below. The description of the same configuration as that of the first embodiment will be omitted.

<歪み演出を行うための構成について>
歪み演出を行うための構成について説明する。
<About the configuration for producing distortion>
The configuration for performing the distortion effect will be described.

歪み演出は、図柄の変動表示が行われる場合に背景画像の一部が歪む演出である。具体的には、背景画像として水中の様子が描かれた画像が表示されている状況において特定方向にスクロールする図柄の変動表示が開始される場合に、背景画像の一部の領域、詳細には図柄に対して当該図柄の進行方向とは逆側の領域が歪むように表示される。これにより、遊技者としては、当該歪みを、図柄がスクロールを開始することにより形成された流れに起因する光の屈折として認識することが想定される。よって、水中での図柄のスクロールをリアルに認識させることができる。 The distortion effect is an effect in which a part of the background image is distorted when the variable display of the pattern is performed. Specifically, when a variable display of a pattern scrolling in a specific direction is started in a situation where an image depicting an underwater state is displayed as a background image, a part of the background image, in detail, The area of the symbol opposite to the traveling direction of the symbol is displayed so as to be distorted. As a result, it is assumed that the player recognizes the distortion as the refraction of light caused by the flow formed by the symbol starting to scroll. Therefore, it is possible to realistically recognize the scrolling of the symbol underwater.

当該歪み演出で用いられる構成について図77を用いて説明する。図77(a)は屈折用オブジェクトOB10を示す説明図、図77(b)及び図77(c)は屈折用オブジェクトOB10を変形させた様子を説明するための説明図、図77(d)は屈折用オブジェクトOB10に対して適用される屈折用αデータSKD1を説明するための説明図である。 The configuration used in the distortion effect will be described with reference to FIG. 77. 77 (a) is an explanatory diagram showing the refraction object OB10, FIGS. 77 (b) and 77 (c) are explanatory views for explaining how the refraction object OB10 is deformed, and FIG. 77 (d) is an explanatory diagram. It is explanatory drawing for demonstrating the refraction α data SKD1 applied to the refraction object OB10.

図77(a)に示すように、屈折用オブジェクトOB10は矩形状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向(詳細にはローカル座標系でのZ方向)への凹凸のない平面状に構成された低精彩の画像データである。 As shown in FIG. 77 (a), the refraction object OB10 is composed of rectangular plate polygons. The plate polygon can be said to be an object with a small number of polygons, and is low-definition image data configured in a plane shape without unevenness in a three-dimensional direction (specifically, the Z direction in the local coordinate system).

屈折用オブジェクトOB10の形状(サイズ)は、歪みを発生させたい歪み領域PE1に対応させて設定されており、具体的には、視野座標系への変換処理を行った場合に歪み領域PE1を覆うことができるように設定されている。詳細には、屈折用オブジェクトOB10の形状は、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように設定されている。このため、屈折用オブジェクトOB10を歪み領域PE1に対して重なるように配置された状態で平行投影が行われた場合には、歪み領域PE1に対して屈折用オブジェクトOB10に係る画像が表示されることとなる。 The shape (size) of the refraction object OB10 is set corresponding to the distortion region PE1 in which distortion is desired to be generated. Specifically, the shape (size) of the refraction object OB10 covers the distortion region PE1 when the conversion process to the visual field coordinate system is performed. It is set to be able to. Specifically, the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1. Therefore, when parallel projection is performed with the refraction object OB10 arranged so as to overlap the distortion region PE1, the image related to the refraction object OB10 is displayed on the distortion region PE1. It becomes.

屈折用オブジェクトOB10には、格子状に頂点座標が設定されている。当該頂点座標には、ローカル3次元座標が設定されており、各頂点座標のZ座標(奥行き方向の座標)は同一に設定されている。 Vertex coordinates are set in a grid pattern on the refraction object OB10. Local three-dimensional coordinates are set for the vertex coordinates, and the Z coordinates (coordinates in the depth direction) of each vertex coordinate are set to be the same.

屈折用オブジェクトOB10の頂点座標は歪み領域PE1に対応させて設定されており、具体的には屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標によって形成される領域が歪み領域PE1と略同一となるように設定されている。 The vertex coordinates of the refraction object OB10 are set corresponding to the distortion region PE1. Specifically, the region formed by the vertex coordinates other than the vertex coordinates constituting the outer edge portion of the refraction object OB10 is the distortion region PE1. It is set to be substantially the same.

上記屈折用オブジェクトOB10は変形可能に構成されている。具体的には、屈折用オブジェクトOB10の各頂点座標のZ座標はそれぞれ個別に変位可能となっており、当該Z座標が変位することにより屈折用オブジェクトOB10は歪むようになっている。 The refraction object OB10 is configured to be deformable. Specifically, the Z coordinate of each vertex coordinate of the refraction object OB10 can be individually displaced, and the refraction object OB10 is distorted by the displacement of the Z coordinate.

屈折用オブジェクトOB10の変形形態について詳細に説明する。本実施の形態では、屈折用オブジェクトOB10の変形形態は複数種類設定されている。当該複数種類の変形形態のうちの第1変形形態の屈折用オブジェクトOB10と、第2変形形態の屈折用オブジェクトOB10とについて図77(b)及び図77(c)を用いて説明する。図77(b)は第1変形形態の屈折用オブジェクトOB10を説明するための説明図、図77(c)は第2変形形態の屈折用オブジェクトOB10を説明するための説明図である。なお、説明の便宜上、以降の説明において、第1変形形態の屈折用オブジェクトOB10を単に第1変形形態OB10aと、第2変形形態の屈折用オブジェクトOB10を単に第2変形形態OB10bという。 The modified form of the refraction object OB10 will be described in detail. In this embodiment, a plurality of types of modified forms of the refraction object OB10 are set. The refraction object OB10 of the first modified form and the refraction object OB10 of the second modified form among the plurality of types of modified forms will be described with reference to FIGS. 77 (b) and 77 (c). 77 (b) is an explanatory diagram for explaining the refraction object OB10 of the first modified form, and FIG. 77 (c) is an explanatory diagram for explaining the refraction object OB10 of the second modified form. For convenience of explanation, in the following description, the refraction object OB10 in the first modified form is simply referred to as the first modified form OB10a, and the refraction object OB10 in the second modified form is simply referred to as the second modified form OB10b.

図77(b)及び図77(c)に示すように、各変形形態OB10a,OB10bは、テクスチャが貼り付けられる板面に凹凸が形成されるように変形している。具体的には、各変形形態OB10a,OB10bは、屈折用オブジェクトOB10の外縁部を構成する頂点座標のZ座標を基準として、歪み領域PE1に対応する各頂点座標のZ座標がそれぞれ所定量だけ変位することにより変形している。詳細には、X方向における両端の頂点座標を固定端とするZ成分を持つ1周期の正弦波が形成され且つY方向における両端の頂点座標を始点及び終点とする円弧が形成されるように歪み領域PE1に含まれる各頂点座標のZ座標が変位している。そして、各変形形態OB10a,OB10bは、上記正弦波の位相がπだけずれている。 As shown in FIGS. 77 (b) and 77 (c), each of the modified forms OB10a and OB10b is deformed so that unevenness is formed on the plate surface to which the texture is attached. Specifically, in each of the modified forms OB10a and OB10b, the Z coordinates of each vertex coordinate corresponding to the strain region PE1 are displaced by a predetermined amount with reference to the Z coordinate of the vertex coordinates constituting the outer edge portion of the refraction object OB10. It is deformed by doing. Specifically, it is distorted so that a one-period sine wave having a Z component whose fixed end is the coordinates of the vertices of both ends in the X direction is formed, and an arc whose start point and end point are the coordinates of the vertices of both ends in the Y direction is formed. The Z coordinate of each vertex coordinate included in the region PE1 is displaced. In each of the modified forms OB10a and OB10b, the phase of the sine wave is deviated by π.

これら各変形形態OB10a,OB10bに対して、背景画像のうち各変形形態OB10a,OB10bが配置される領域に対応した部分のテクスチャがマッピングされることにより、歪み画像が表現される。この場合、所定の更新タイミングとなる度に、屈折用オブジェクトOB10を、X方向への位相が異なる第1変形形態OB10aと第2変形形態OB10bとに交互に変形させることにより、X方向に進行する水の流れに対応した歪み画像を表現することができる。これにより、図柄のX方向のスクロールに伴って、X方向の水の流れが形成されたように視認させることができ、図柄のスクロールと歪み画像との関連付けを好適に行うことができる。 A distorted image is expressed by mapping the texture of the portion of the background image corresponding to the region where the modified forms OB10a and OB10b are arranged to each of the modified forms OB10a and OB10b. In this case, each time the predetermined update timing is reached, the refraction object OB10 is alternately deformed into the first deformed form OB10a and the second deformed form OB10b having different phases in the X direction, thereby advancing in the X direction. It is possible to express a distorted image corresponding to the flow of water. As a result, it is possible to visually recognize that a flow of water in the X direction is formed with the scrolling of the symbol in the X direction, and it is possible to preferably associate the scrolling of the symbol with the distorted image.

また、歪み演出では、屈折用オブジェクトOB10が配置される領域に表示される歪み画像と、その領域の周縁の画像とを馴染ませるために、屈折用αデータSKD1が用いられる。αデータは、既に説明した通り、画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。 Further, in the distortion effect, the refraction α data SKD1 is used in order to blend the distortion image displayed in the region where the refraction object OB10 is arranged and the image on the periphery of the region. As described above, the α data is the transparency information applied to each pixel of the image data, and is stored in advance in the memory module 133 as the image data.

屈折用αデータSKD1は、図77(d)に示すように、その外形が適用対象となる屈折用オブジェクトOB10と一致するようにそのサイズが設定されている。屈折用αデータSKD1は、異なるα値が設定された複数の領域に区分けされている。 As shown in FIG. 77 (d), the size of the refraction α data SKD1 is set so that its outer shape matches the refraction object OB10 to which the object is applied. The refraction α data SKD1 is divided into a plurality of regions in which different α values are set.

屈折用αデータSKD1を区分けする領域は、中央側の透明度よりも縁側の透明度の方が高くなるように形成されている。詳細には、屈折用αデータSKD1は、屈折用αデータSKD1の中央領域に設けられ、不透過情報である「1」が設定された不透過領域SKA0と、当該不透過領域SKA0を囲むように設けられ、部分透過情報(0<α1<1)が設定された第1部分透過領域SKA1と、当該第1部分透過領域SKA1を囲むように設けられ、第1部分透過領域SKA1よりも透過率が高い部分透過情報(0<α2<α1)が設定された第2部分透過領域SKA2と、に区分けされている。 The region that divides the refraction α data SKD1 is formed so that the transparency on the edge side is higher than the transparency on the center side. Specifically, the refraction α data SKD1 is provided in the central region of the refraction α data SKD1 so as to surround the opaque region SKA0 in which the opaque information “1” is set and the opaque region SKA0. It is provided so as to surround the first partial transmission region SKA1 in which the partial transmission information (0 <α1 <1) is set and the first partial transmission region SKA1, and the transmittance is higher than that of the first partial transmission region SKA1. It is divided into a second partial transmission region SKA2 in which high partial transparency information (0 <α2 <α1) is set.

屈折用オブジェクトOB10(第1変形形態OB10a及び第2変形形態OB10bを含む)に対して屈折用αデータSKD1が適用されることにより、屈折用オブジェクトOB10に含まれる各ピクセルに対して屈折用αデータSKD1に含まれるα値が適用される。 By applying the refraction α data SKD1 to the refraction object OB10 (including the first modified form OB10a and the second modified form OB10b), the refraction α data is applied to each pixel included in the refraction object OB10. The α value contained in SKD1 is applied.

また、歪み画像を表示面Gの奥側にて重なる画像と重ね合わせる場合には、その重ね合わせに係る各ドットでは、屈折用αデータSKD1にて定められているα値と屈折用オブジェクトOB10に設定されている一律α値とを基準とした数値情報の融合(すなわち、ブレンディング)が行われる。具体的には、屈折用αデータSKD1に設定されているα値を個別α値とすると、
R:「奥側画像のR値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のR値」×「個別α値」×「一律α値」
G:「奥側画像のG値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のG値」×「個別α値」×「一律α値」
B:「奥側画像のB値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のB値」×「個別α値」×「一律α値」
の演算が行われる。
Further, when the distorted image is superimposed on the overlapping image on the back side of the display surface G, the α value defined in the refraction α data SKD1 and the refraction object OB10 are set at each dot related to the overlap. Numerical information is fused (that is, blending) based on the set uniform α value. Specifically, assuming that the α value set in the refraction α data SKD1 is an individual α value,
R: "R value of the back image" x ("1"-"individual α value" x "uniform α value") + "R value of distorted image" x "individual α value" x "uniform α value"
G: "G value of the back image" x ("1"-"individual α value" x "uniform α value") + "G value of distorted image" x "individual α value" x "uniform α value"
B: "B value of the back image" x ("1"-"individual α value" x "uniform α value") + "B value of distorted image" x "individual α value" x "uniform α value"
The operation of is performed.

屈折用αデータSKD1が適用されることにより、歪み画像は、中央領域から縁側に向かうに従って徐々に透明となる。これにより、歪み画像の縁が背景画像に馴染み、当該歪み画像の縁が目立ちにくくなっている。 By applying the refraction α data SKD1, the distorted image gradually becomes transparent from the central region toward the veranda. As a result, the edges of the distorted image become familiar with the background image, and the edges of the distorted image are less noticeable.

また、歪み画像は、一律α値を反映した状態で表示される。具体的には、一律α値が小さい場合、歪み画像よりも奥側画像が反映される。一方、一律α値が大きい場合には歪み画像が奥側画像よりも反映される。 Further, the distorted image is displayed in a state reflecting a uniform α value. Specifically, when the uniform α value is small, the back side image is reflected rather than the distorted image. On the other hand, when the uniform α value is large, the distorted image is reflected more than the back image.

歪み演出の具体的な処理構成について説明する。 The specific processing configuration of the distortion effect will be described.

図78は、表示CPU131にて実行される歪み演出演算処理を示すフローチャートである。歪み演出演算処理は、タスク処理(図14)におけるステップS904の演出用演算処理において、現状設定されているデータテーブルが歪み演出に対応したデータテーブルである場合に実行される。 FIG. 78 is a flowchart showing a distortion effect calculation process executed by the display CPU 131. The distortion effect calculation process is executed when the currently set data table is a data table corresponding to the distortion effect in the effect calculation process of step S904 in the task process (FIG. 14).

先ず、ステップS4501では、現状設定されているデータテーブルに基づいて、歪み演出の実行中であるか否かを判定する。 First, in step S4501, it is determined whether or not the distortion effect is being executed based on the currently set data table.

歪み演出の実行中でない場合には、ステップS4502に進み、現状設定されているデータテーブルに基づいて、歪み演出の開始タイミングであるか否かを判定する。具体的には、現状設定されているデータテーブルに、歪み演出の開始タイミングであることを特定する情報が設定されているか否かを判定する。当該歪み演出の開始タイミングは図柄の変動開始タイミングと同一に設定されている。これにより、歪み演出は図柄の変動開始が行われる場合に実行されることとなる。 If the distortion effect is not being executed, the process proceeds to step S4502, and it is determined whether or not it is the start timing of the distortion effect based on the currently set data table. Specifically, it is determined whether or not the data table currently set has information for specifying the start timing of the distortion effect. The start timing of the distortion effect is set to be the same as the fluctuation start timing of the symbol. As a result, the distortion effect is executed when the fluctuation of the symbol is started.

開始タイミングでない場合にはそのまま本演算処理を終了する一方、開始タイミングである場合には、ステップS4503〜ステップS4507にて屈折用オブジェクトOB10の初期設定に係る処理を実行する。具体的には、先ずステップS4503にて、屈折用オブジェクトOB10を把握する。そして、ステップS4504にて、当該屈折用オブジェクトOB10の座標の初期設定を行う。 If it is not the start timing, the present calculation process is terminated as it is, while if it is the start timing, the process related to the initial setting of the refraction object OB10 is executed in steps S4503 to S4507. Specifically, first, in step S4503, the refraction object OB10 is grasped. Then, in step S4504, the coordinates of the refraction object OB10 are initially set.

当該座標は、データテーブル上に予め設定されている。詳細には、図柄画像に対して当該図柄画像のスクロール方向とは逆側の領域が歪み領域PE1として設定されており、当該歪み領域PE1に対して重なるように屈折用オブジェクトOB10の座標が設定されている。より詳細には、屈折用オブジェクトOB10が投影された場合に屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標が歪み領域PE1に含まれるように屈折用オブジェクトOB10の座標が設定されている。 The coordinates are preset on the data table. Specifically, the region of the symbol image opposite to the scroll direction of the symbol image is set as the strain region PE1, and the coordinates of the refraction object OB10 are set so as to overlap the strain region PE1. ing. More specifically, when the refraction object OB10 is projected, the coordinates of the refraction object OB10 are set so that the vertex coordinates other than the vertex coordinates constituting the outer edge portion of the refraction object OB10 are included in the distortion region PE1. There is.

その後、ステップS4505にて、一律α値として不透過情報である「1」を設定する。続くステップS4506では、屈折用オブジェクトOB10に適用されるその他のパラメータの演算処理を行う。 After that, in step S4505, "1", which is opaque information, is set as a uniform α value. In the following step S4506, arithmetic processing of other parameters applied to the refraction object OB10 is performed.

そして、ステップS4507にて、座標マッピングデータの初期設定を行う。当該座標マッピングデータについて図79を用いて説明する。図79は座標マッピングデータを説明するための説明図である。詳細には、図79(a)は第1座標マッピングデータMD1を説明するための説明図、図79(b)は第2座標マッピングデータMD2を説明するための説明図である。 Then, in step S4507, the initial setting of the coordinate mapping data is performed. The coordinate mapping data will be described with reference to FIG. 79. FIG. 79 is an explanatory diagram for explaining the coordinate mapping data. In detail, FIG. 79 (a) is an explanatory diagram for explaining the first coordinate mapping data MD1, and FIG. 79 (b) is an explanatory diagram for explaining the second coordinate mapping data MD2.

各座標マッピングデータMD1,MD2は、屈折用オブジェクトOB10を構成する各頂点座標のZ方向の変位量を決定するために用いられるデータである。各座標マッピングデータMD1,MD2には、屈折用オブジェクトOB10の各頂点に対して1対1に対応させてZ方向の変位量が設定されている。詳細には、屈折用オブジェクトOB10の頂点がX方向に10個、Y方向に7個だけマトリックス状に設定されていることに対応させて、屈折用オブジェクトOB10を構成する頂点のうち左上端の頂点に対して適用されるZ方向の変位量をZ(1,1)としてマトリックス状にZ(a,b)(a:1〜10、b:1〜7)が設定されている。なお、説明の便宜上、第1座標マッピングデータMD1に設定されているZ(a,b)をZ1(a,b)と、第2座標マッピングデータMD2に設定されているZ2(a,b)といい、Z(a,b)はZ1(a,b)及びZ2(a,b)の双方を示すものだとする。 The coordinate mapping data MD1 and MD2 are data used for determining the amount of displacement of each vertex coordinate constituting the refraction object OB10 in the Z direction. In each of the coordinate mapping data MD1 and MD2, the displacement amount in the Z direction is set so as to correspond one-to-one with each vertex of the refraction object OB10. Specifically, the upper left corner of the vertices constituting the refraction object OB10 corresponds to the fact that only 10 vertices of the refraction object OB10 are set in a matrix in the X direction and 7 vertices in the Y direction. Z (a, b) (a: 1-10, b: 1-7) are set in a matrix with the displacement amount in the Z direction applied to Z (1,1) as Z (1,1). For convenience of explanation, Z (a, b) set in the first coordinate mapping data MD1 is referred to as Z1 (a, b), and Z2 (a, b) set in the second coordinate mapping data MD2. It is assumed that Z (a, b) indicates both Z1 (a, b) and Z2 (a, b).

Z(a,b)は、屈折用オブジェクトOB10の外縁を形成する各頂点のZ座標を基準とするZ方向の変位量が設定されたものである。詳細には、屈折用オブジェクトOB10の外縁を形成する各頂点に対応したZ(1,b)、Z(10,b),Z(a,1),Z(a,7)には「0」が設定されており、その他のZ(x,y)(x:2〜9、y:2〜6)には、各変形形態OB10a,OB10bに対応した変位量が設定されている。 In Z (a, b), the amount of displacement in the Z direction with respect to the Z coordinate of each vertex forming the outer edge of the refraction object OB10 is set. Specifically, "0" is used for Z (1, b), Z (10, b), Z (a, 1), and Z (a, 7) corresponding to each vertex forming the outer edge of the refraction object OB10. Is set, and in the other Z (x, y) (x: 2-9, y: 2-6), the displacement amount corresponding to each of the modified forms OB10a and OB10b is set.

具体的には、Z1(x,y)は、屈折用オブジェクトOB10が第1変形形態OB10aに変形するよう設定されている。一方、Z2(x,y)は、屈折用オブジェクトOB10が第2変形形態OB10bに変形するよう設定されている。 Specifically, Z1 (x, y) is set so that the refraction object OB10 is transformed into the first deformation form OB10a. On the other hand, Z2 (x, y) is set so that the refraction object OB10 is transformed into the second deformation form OB10b.

ステップS4507では、初期設定として第1座標マッピングデータMD1のアドレス情報を描画リストに設定する処理を実行する。これにより、第1座標マッピングデータMD1のアドレス情報が設定された描画リストが作成される。そして、VDP135では、当該アドレス情報に基づいて第1座標マッピングデータMD1を取得し、屈折用オブジェクトOB10の各頂点に対して、当該各頂点に対応するZ座標の変位量の分だけ変位させることで、屈折用オブジェクトOB10を第1変形形態OB10aに変形させる処理を実行する。 In step S4507, a process of setting the address information of the first coordinate mapping data MD1 in the drawing list is executed as an initial setting. As a result, a drawing list in which the address information of the first coordinate mapping data MD1 is set is created. Then, the VDP135 acquires the first coordinate mapping data MD1 based on the address information and displaces each vertex of the refraction object OB10 by the amount of displacement of the Z coordinate corresponding to each vertex. , The process of transforming the refraction object OB10 into the first deformation form OB10a is executed.

なお、ステップS4507では、現状どちらの座標マッピングデータが設定されているかを表示CPU131にて特定するための処理を実行する。具体的には、ワークRAM132には、現状設定されている座標マッピングデータを特定するための情報を格納する特定記憶領域が設けられている。ステップS4507では、当該特定記憶領域に対して、第1座標マッピングデータMD1に対応した情報を設定する。 In step S4507, the display CPU 131 executes a process for specifying which coordinate mapping data is currently set. Specifically, the work RAM 132 is provided with a specific storage area for storing information for specifying the currently set coordinate mapping data. In step S4507, information corresponding to the first coordinate mapping data MD1 is set for the specific storage area.

ステップS4507の処理の実行後は、ステップS4508〜ステップS4510にて、屈折用αデータSKD1の設定を行う。具体的には、ステップS4508にて屈折用αデータSKD1を把握し、ステップS4509にて、屈折用αデータSKD1の座標を屈折用オブジェクトOB10と同一座標に設定する。そして、ステップS4510にて屈折用αデータSKD1に適用されるその他のパラメータの演算処理を行う。 After executing the process of step S4507, the refraction α data SKD1 is set in steps S4508 to S4510. Specifically, in step S4508, the refraction α data SKD1 is grasped, and in step S4509, the coordinates of the refraction α data SKD1 are set to the same coordinates as the refraction object OB10. Then, in step S4510, calculation processing of other parameters applied to the refraction α data SKD1 is performed.

その後、ステップS4511にてその他の演出用オブジェクトを把握し、ステップS4512にて当該演出用オブジェクトに適用されるパラメータの演算処理を行う。 After that, the other effect objects are grasped in step S4511, and the parameter calculation process applied to the effect object is performed in step S4512.

続くステップS4513では、VDP135にて歪み演出が行われることを特定するための歪み演出指定情報を設定し、本演算処理を終了する。 In the following step S4513, the distortion effect designation information for specifying that the distortion effect is performed by the VDP 135 is set, and the present calculation process is terminated.

かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成された描画リストには、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1は同一座標に設定されている。 When such a process is executed, at least the refraction object OB10 and the refraction α data SKD1 are set in the drawing list created in the subsequent drawing list output process (step S806). In this case, the refraction object OB10 and the refraction α data SKD1 are set to the same coordinates.

また、当該描画リストには、第1座標マッピングデータMD1のアドレス情報及び歪み演出指定情報が設定されている。 Further, the address information of the first coordinate mapping data MD1 and the distortion effect designation information are set in the drawing list.

一方、歪み演出実行中である場合(ステップS4501:YES)、ステップS4514にて、現状設定されているデータテーブルに基づいて、透明化期間中であるか否かを判定する。具体的には、歪み演出に対応したデータテーブルには、透明化期間であることを特定するための情報が設定されている。当該透明化期間は、歪み演出の終了タイミングに対して複数フレーム(例えば10フレーム)前のタイミングから歪み演出の終了タイミングまでの期間に設定されている。ステップS4514では、現状設定されているデータテーブルに当該情報が設定されているか否かを判定する。 On the other hand, when the distortion effect is being executed (step S4501: YES), it is determined in step S4514 whether or not the transparency period is in progress based on the currently set data table. Specifically, information for specifying that the transparency period is set is set in the data table corresponding to the distortion effect. The transparency period is set to a period from the timing before a plurality of frames (for example, 10 frames) to the end timing of the distortion effect with respect to the end timing of the distortion effect. In step S4514, it is determined whether or not the information is set in the currently set data table.

透明化期間中でない場合には、ステップS4515にて屈折用オブジェクトOB10を把握し、ステップS4516にてパラメータの演算処理を実行する。この場合、初期設定された各種パラメータを維持する。 If it is not during the transparency period, the refraction object OB10 is grasped in step S4515, and the parameter calculation process is executed in step S4516. In this case, the various default parameters are maintained.

その後、ステップS4517にて、屈折用オブジェクトOB10の変形を更新する処理、すなわち座標マッピングデータを更新する処理を実行する。具体的には、特定記憶領域に記憶されている情報に基づいて、前の処理回にて設定された座標マッピングデータを把握する。そして、前の処理回にて把握された座標マッピングデータとは異なる座標マッピングデータのアドレスを設定するとともに、特定記憶領域に今回設定した座標マッピングデータに対応した情報を格納する。例えば、前の処理回にて第1座標マッピングデータMD1が設定された場合には第2座標マッピングデータMD2を設定し、前の処理回にて第2座標マッピングデータMD2が設定された場合には第1座標マッピングデータMD1を設定する。 After that, in step S4517, a process of updating the deformation of the refraction object OB10, that is, a process of updating the coordinate mapping data is executed. Specifically, the coordinate mapping data set in the previous processing times is grasped based on the information stored in the specific storage area. Then, the address of the coordinate mapping data different from the coordinate mapping data grasped in the previous processing time is set, and the information corresponding to the coordinate mapping data set this time is stored in the specific storage area. For example, if the first coordinate mapping data MD1 is set in the previous processing time, the second coordinate mapping data MD2 is set, and if the second coordinate mapping data MD2 is set in the previous processing time, the second coordinate mapping data MD2 is set. The first coordinate mapping data MD1 is set.

そして、ステップS4508〜ステップS4513の処理を実行し、本演算処理を終了する。 Then, the processes of steps S4508 to S4513 are executed, and the present calculation process is terminated.

以上の処理が実行された場合、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定された描画リストが作成される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1に対して適用されるパラメータは維持されている。 When the above processing is executed, a drawing list in which at least the refraction object OB10 and the refraction α data SKD1 are set is created. In this case, the parameters applied to the refraction object OB10 and the refraction α data SKD1 are maintained.

また、今回作成された描画リストには、前回作成された描画リストに設定された座標マッピングデータとは異なる座標マッピングデータのアドレスが設定されているとともに、歪み演出指定情報が設定されている。 Further, in the drawing list created this time, the address of the coordinate mapping data different from the coordinate mapping data set in the drawing list created last time is set, and the distortion effect designation information is set.

透明化期間中である場合(ステップS4514:YES)、ステップS4518にて屈折用オブジェクトOB10を把握する。そして、ステップS4519にて一律α値を更新する。具体的には、一律α値を所定値(例えば0.1)だけ減算する処理を実行する。 If the transparency period is in progress (step S4514: YES), the refraction object OB10 is grasped in step S4518. Then, in step S4519, the α value is uniformly updated. Specifically, a process of subtracting a uniform α value by a predetermined value (for example, 0.1) is executed.

その後、ステップS4520にてその他のパラメータの演算処理を実行し、ステップS4521にて座標マッピングデータの更新処理を実行する。そして、ステップS4508〜ステップS4513の処理を実行して、本演算処理を終了する。これらの処理については既に説明した通りであるため、説明を省略する。 After that, the calculation process of other parameters is executed in step S4520, and the coordinate mapping data update process is executed in step S4521. Then, the processes of steps S4508 to S4513 are executed to end the calculation process. Since these processes have already been described, the description thereof will be omitted.

以上の処理が実行された場合、屈折用オブジェクトOB10に適用される一律α値が異なる描画リストが作成される。当該一律α値は、フレーム毎に徐々に小さくなる。 When the above processing is executed, drawing lists having different uniform α values applied to the refraction object OB10 are created. The uniform α value gradually decreases for each frame.

ここで、透明化期間と一律α値の減算値とは対応させて設定されている。具体的には、歪み演出の終了タイミングにおいて一律α値が「0」となるように、減算値と透明化期間とが設定されている。詳細には、透明化期間に係るフレーム数=1/減算値となるように両者が設定されている。これにより、屈折用オブジェクトOB10に貼り付けられた画像が徐々に消えていき、歪み演出の終了タイミングでは完全に消えるようになっている。 Here, the transparency period and the subtraction value of the uniform α value are set in correspondence with each other. Specifically, the subtraction value and the transparency period are set so that the α value uniformly becomes “0” at the end timing of the distortion effect. In detail, both are set so that the number of frames related to the transparency period = 1 / subtraction value. As a result, the image attached to the refraction object OB10 gradually disappears, and disappears completely at the end timing of the distortion effect.

なお、タスク処理(図14)の図柄用演算処理(ステップS905)では、歪み演出の開始と同期して、図柄の変動表示の開始に係る処理が実行される。具体的には、各図柄画像が所定の方向(左方向)に向けてスクロールするための処理が実行される。 In the symbol calculation process (step S905) of the task process (FIG. 14), the process related to the start of the variable display of the symbol is executed in synchronization with the start of the distortion effect. Specifically, a process for scrolling each symbol image in a predetermined direction (left direction) is executed.

次に、本実施の形態におけるVDP135にて行われる描画処理について図80のフローチャートを用いて説明する。当該描画処理は、予め定められた周期にて定期的に行われるループ処理であり、詳細には描画リストが作成される周期(20msec)よりも短い周期で行われる。この場合、描画処理の実行に係る時間は、描画リストの受信間隔よりも短く設定されている。これにより、描画処理が行われている最中に新たな描画リストが受信されてないようになっている。 Next, the drawing process performed by the VDP 135 in the present embodiment will be described with reference to the flowchart of FIG. The drawing process is a loop process that is periodically performed at a predetermined cycle, and in detail, is performed at a cycle shorter than the cycle (20 msec) in which the drawing list is created. In this case, the time required to execute the drawing process is set shorter than the reception interval of the drawing list. As a result, a new drawing list is not received while the drawing process is being performed.

さらに、描画処理の実行に係る時間と、描画リストが作成され当該描画リストを受信するまでの時間とを合わせた時間が、画像の更新間隔よりも短くなるように設定されている。これにより、画像の更新間隔よりも描画に係る時間が長くなる事態が生じないようになっている。 Further, the total time of the time required for executing the drawing process and the time required for the drawing list to be created and the drawing list to be received is set to be shorter than the image update interval. This prevents the situation where the drawing time is longer than the image update interval.

先ず、ステップS4601にて、新たな描画リストを受信したか否かを判定する。新たな描画リストを受信していない場合にはそのまま本処理を終了する一方、新たな描画リストを受信している場合には、ステップS4602〜ステップS4608にて先に背景用の描画データ(背景画像)を作成する。 First, in step S4601, it is determined whether or not a new drawing list has been received. If the new drawing list is not received, this process is terminated as it is, while if a new drawing list is received, the drawing data for the background (background image) is first obtained in steps S4602 to S4608. ) Is created.

具体的には、先ずステップS4602にて背景用の設定処理を実行する。そして、当該ステップS4602にて把握された最背面画像及び背景用のオブジェクトに対して、ステップS4603〜ステップS4608の処理を実行する。これにより、背景用の描画データが先に作成され、背景用のバッファに書き込まれる。 Specifically, first, the background setting process is executed in step S4602. Then, the processes of steps S4603 to S4608 are executed for the rearmost image and the background object grasped in step S4602. As a result, the drawing data for the background is created first and written to the buffer for the background.

その後、ステップS4609〜ステップS4616の処理を実行することにより、演出及び図柄用の描画データを作成する。そして、ステップS4617にて描画データ合成処理を実行し、本描画処理を終了する。 After that, by executing the processes of steps S4609 to S4616, drawing data for the effect and the design is created. Then, the drawing data synthesis process is executed in step S4617, and the main drawing process is terminated.

かかる構成によれば、演出用及び図柄用の描画データの作成に係る処理を実行する前段階で、背景画像の作成が完了している。これにより、演出用及び図柄用の描画データの作成に係る処理を実行する場合に、背景画像を用いることが可能となっている。 According to this configuration, the creation of the background image is completed before the processing related to the creation of the drawing data for the effect and the design is executed. This makes it possible to use the background image when executing the process related to the creation of the drawing data for the effect and the design.

次に、歪み演出用の設定処理について図81のフローチャートを用いて説明する。歪み演出用の設定処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4609の演出用の設定処理にて実行される。 Next, the setting process for distortion effect will be described with reference to the flowchart of FIG. The setting process for the distortion effect is executed in the setting process for the effect in step S4609 of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list.

先ず、ステップS4701では、描画リストに設定されている屈折用オブジェクトOB10を把握する。 First, in step S4701, the refraction object OB10 set in the drawing list is grasped.

その後ステップS4702にて、描画リストに設定されている座標マッピングデータのアドレス情報に基づいて、今回適用される座標マッピングデータを把握する。続くステップS4703では、ステップS4702にて把握された座標マッピングデータを用いて屈折用オブジェクトOB10を変形させる。 After that, in step S4702, the coordinate mapping data applied this time is grasped based on the address information of the coordinate mapping data set in the drawing list. In the following step S4703, the refraction object OB10 is deformed using the coordinate mapping data grasped in step S4702.

具体的には、座標マッピングデータを参照することにより、屈折用オブジェクトOB10を構成する各頂点に対応するZ方向の変位量を把握する。そして、ローカル座標系における各頂点のZ座標を、把握されたZ方向の変位量だけ変位させる。これにより、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形する。 Specifically, by referring to the coordinate mapping data, the amount of displacement in the Z direction corresponding to each vertex constituting the refraction object OB10 is grasped. Then, the Z coordinate of each vertex in the local coordinate system is displaced by the grasped displacement amount in the Z direction. As a result, the refraction object OB10 is transformed into the first modified form OB10a or the second modified form OB10b.

その後、ステップS4704にて第2変形形態OB10bに対して適用される各種パラメータを把握する。そして、ステップS4705にて、第1変形形態OB10a又は第2変形形態OB10bについてワールド座標系への設定処理を実行し、ステップS4706に進む。 After that, in step S4704, various parameters applied to the second modified form OB10b are grasped. Then, in step S4705, the setting process for the first modified form OB10a or the second modified form OB10b is executed in the world coordinate system, and the process proceeds to step S4706.

ステップS4706では、その他の演出用オブジェクトを把握し、ステップS4707では当該演出用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS4708にて、その他の演出用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 In step S4706, other effect objects are grasped, and in step S4707, the parameters applied to the effect object are grasped. Then, in step S4708, the setting process for the other effect objects is executed in the world coordinate system, and the setting process is terminated.

上記のように設定処理が実行されることにより、屈折用オブジェクトOB10を変形することで形成された第1変形形態OB10a又は第2変形形態OB10bがワールド座標系に配置される。 By executing the setting process as described above, the first modified form OB10a or the second modified form OB10b formed by deforming the refraction object OB10 is arranged in the world coordinate system.

次に、歪み演出用テクスチャマッピング処理について図82のフローチャートを用いて説明する。歪み演出用テクスチャマッピング処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4615における色情報の設定処理にて実行される。 Next, the texture mapping process for distortion effect will be described with reference to the flowchart of FIG. The texture mapping process for distortion effect is executed in the color information setting process in step S4615 of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list.

歪み演出用テクスチャマッピング処理では、屈折用オブジェクトOB10(詳細には各変形形態OB10a,OB10bのいずれか)に対して貼り付けられるテクスチャとして背景画像の一部を用いる処理を実行する。 In the texture mapping process for distortion effect, a process of using a part of the background image as a texture to be attached to the refraction object OB10 (specifically, any of the modified forms OB10a and OB10b) is executed.

ステップS4801では、今回の描画対象として設定されている背景画像を把握する。具体的には、描画処理(図80)のステップS4608にて背景用のバッファに書き込まれた背景用の描画データを把握する。 In step S4801, the background image set as the drawing target this time is grasped. Specifically, the drawing data for the background written in the buffer for the background is grasped in step S4608 of the drawing process (FIG. 80).

続くステップS4802では、ステップS4801にて把握された背景画像を用いて、屈折用オブジェクトOB10に貼り付けるテクスチャを作成する処理を実行する。具体的には、把握された背景画像をトリミングすることにより、当該背景画像のうち屈折用オブジェクトOB10に係る領域、具体的には屈折用オブジェクトOB10が投影される領域に対応した部分の画像データを抜き出す。この場合、当該画像データのサイズが屈折用オブジェクトOB10のサイズと同一になるように抜き出す。 In the following step S4802, a process of creating a texture to be attached to the refraction object OB10 is executed using the background image grasped in step S4801. Specifically, by trimming the grasped background image, the image data of the portion of the background image corresponding to the region related to the refraction object OB10, specifically, the region corresponding to the region on which the refraction object OB10 is projected can be obtained. Extract. In this case, the image data is extracted so that the size is the same as the size of the refraction object OB10.

なお、トリミングの際には、背景用のバッファに書き込まれている背景用の描画データ自体は変更せず、別途バッファを用いて行う。 At the time of trimming, the drawing data for the background written in the buffer for the background is not changed, and a separate buffer is used.

その後、ステップS4803にて、屈折用オブジェクトOB10(第1変形形態OB10a又は第2変形形態OB10b)に対して、ステップS4802にて抜き出した部分の画像データをテクスチャとして貼り付ける。この場合、ラップマッピング手法又はUVラッピング手法で行う。 Then, in step S4803, the image data of the portion extracted in step S4802 is pasted as a texture on the refraction object OB10 (first modified form OB10a or second modified form OB10b). In this case, the wrap mapping method or the UV wrapping method is used.

その後、ステップS4804にて、描画リストに基づいてその他のオブジェクトに対して貼り付けられるテクスチャを把握し、ステップS4805にて各オブジェクトに対してテクスチャを貼り付けて本処理を終了する。 After that, in step S4804, the texture to be pasted to other objects is grasped based on the drawing list, and in step S4805, the texture is pasted to each object to end this process.

かかる構成によれば、屈折用オブジェクトOB10に対して、当該屈折用オブジェクトOB10の投影領域に対応した背景画像が貼り付けられる。この場合、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形した状態で投影されることにより、屈折用オブジェクトOB10の投影領域に対応する歪み領域PE1の背景画像が歪む。これにより、歪みに対応したテクスチャを別途設けることなく、背景画像の一部が歪む様子を表現することができる。 According to such a configuration, a background image corresponding to the projection region of the refraction object OB10 is attached to the refraction object OB10. In this case, the background image of the distortion region PE1 corresponding to the projection region of the refraction object OB10 is distorted by projecting the refraction object OB10 in a deformed state in the first deformation form OB10a or the second deformation form OB10b. As a result, it is possible to express how a part of the background image is distorted without separately providing a texture corresponding to the distortion.

ここで、既に説明した通り、屈折用オブジェクトOB10に貼り付けられるテクスチャのサイズと屈折用オブジェクトOB10のサイズとは同一に設定されている。これにより、他の領域に表示される画像の画質と比較して、屈折用オブジェクトOB10が変形することによって生じ得る歪み画像の画質の低下が目立ちにくい。 Here, as described above, the size of the texture attached to the refraction object OB10 and the size of the refraction object OB10 are set to be the same. As a result, the deterioration in the image quality of the distorted image that may occur due to the deformation of the refraction object OB10 is less noticeable than the image quality of the image displayed in the other area.

なお、歪み演出を実行する場合における描画処理(図80)のステップS4616の演出及び図柄用の描画データ作成処理では、平行投影で投影することで描画データを作成する。これにより、視点からの距離を考慮して屈折用オブジェクトOB10のサイズを設定する必要がないため、屈折用オブジェクトOB10のサイズの設定を簡単に行うことができる。 In the effect of step S4616 of the drawing process (FIG. 80) and the drawing data creation process for the design in the case of executing the distortion effect, the drawing data is created by projecting by parallel projection. As a result, it is not necessary to set the size of the refraction object OB10 in consideration of the distance from the viewpoint, so that the size of the refraction object OB10 can be easily set.

但し、平行投影に限られず透視投影を行う構成としてもよい。この場合、屈折用オブジェクトOB10が投影された場合に当該屈折用オブジェクトOB10の投影領域が歪み領域PE1に対応するように、視点からの距離を考慮して屈折用オブジェクトOB10のサイズ及び屈折用オブジェクトOB10の座標が設定されているとよい。 However, the configuration is not limited to parallel projection, and may be configured to perform perspective projection. In this case, the size of the refraction object OB10 and the refraction object OB10 are considered in consideration of the distance from the viewpoint so that the projection area of the refraction object OB10 corresponds to the distortion area PE1 when the refraction object OB10 is projected. It is good that the coordinates of are set.

次に、歪み演出用融合処理について図83のフローチャートを用いて説明する。歪み演出用融合処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)の描画データ合成処理(ステップS4617)において実行される。なお、説明の便宜上、フレームバッファ142のうち、変形した屈折用オブジェクトOB10が投影された領域に含まれるドットに対応する単位エリアを対象として説明し、その他の領域に含まれるドットに対応する単位エリアについては説明を省略する。さらに、最初に対象となるドットは予め定められているとする。 Next, the fusion process for distortion effect will be described with reference to the flowchart of FIG. The distortion effect fusion process is executed in the drawing data composition process (step S4617) of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list. For convenience of explanation, the unit area corresponding to the dots included in the projected region of the deformed refraction object OB10 in the frame buffer 142 will be described, and the unit area corresponding to the dots included in the other regions will be described. The description of is omitted. Further, it is assumed that the target dot is predetermined.

先ずステップS4901では、演出用の描画データに基づいて、屈折用オブジェクトOB10が投影された領域に含まれるドットのうち今回の対象ドットに対応した対象ピクセルの数値情報を把握する。当該数値情報が歪み画像の数値情報(「m」とする)に対応する。 First, in step S4901, the numerical information of the target pixel corresponding to the current target dot among the dots included in the region where the refraction object OB10 is projected is grasped based on the drawing data for the effect. The numerical information corresponds to the numerical information (referred to as "m") of the distorted image.

そして、ステップS4902にて、屈折用αデータSKD1に基づいて、今回の対象ドットに対応する個別α値を把握し、ステップS4903にて、描画リストに基づいて屈折用オブジェクトOB10に対して適用される一律α値を把握する。 Then, in step S4902, the individual α value corresponding to the target dot this time is grasped based on the refraction α data SKD1, and in step S4903, it is applied to the refraction object OB10 based on the drawing list. Grasp the uniform α value.

続くステップS4904では、背景用の描画データに基づいて、背景画像における今回の対象ドットに対応する対象ピクセルの数値情報を把握する。当該数値情報が奥側画像の数値情報(「n」とする)に対応する。 In the following step S4904, the numerical information of the target pixel corresponding to the current target dot in the background image is grasped based on the drawing data for the background. The numerical information corresponds to the numerical information (referred to as "n") of the back image.

そして、ステップS4905にて、上記ステップS4901〜ステップS4904の処理により把握された把握結果に基づいて融合処理(ブレンディング処理)を実行し、その融合結果を、フレームバッファ142における各単位エリアのうち今回の対象ドットに対応した単位エリアに書き込む。 Then, in step S4905, the fusion process (blending process) is executed based on the grasped result grasped by the process of the above steps S4901 to S4904, and the fusion result is obtained by the current unit area in the frame buffer 142. Write in the unit area corresponding to the target dot.

上記融合処理では、先に説明した演算式が用いられる。すなわち、n×(1−「個別α値」×「一律α値」)+m×「個別α値」×「一律α値」の演算を行う。 In the above fusion process, the arithmetic expression described above is used. That is, the operation of n × (1- “individual α value” × “uniform α value”) + m × “individual α value” × “uniform α value” is performed.

続くステップS4906では、屈折用オブジェクトOB10の投影領域に含まれる全ドットについて融合処理が完了しているか否かを判定する。完了していない場合には、ステップS4907にて対象ドットを更新する処理を実行し、ステップS4901に戻る。これにより、新たな対象ドットに対して融合処理を実行することとなる。完了している場合には、本融合処理を終了する。 In the following step S4906, it is determined whether or not the fusion process is completed for all the dots included in the projection region of the refraction object OB10. If it is not completed, the process of updating the target dot is executed in step S4907, and the process returns to step S4901. As a result, the fusion process is executed for the new target dot. If it is completed, the fusion process is terminated.

以上の処理が実行されることにより、歪み画像と背景画像との融合が行われることとなる。つまり、一律α値が「1」である場合には、外縁部に向かうに従って透明となる歪み画像が表示される。一方、一律α値が「0」である場合には、背景画像がそのまま表示される。 By executing the above processing, the distorted image and the background image are fused. That is, when the uniform α value is “1”, a distorted image that becomes transparent toward the outer edge portion is displayed. On the other hand, when the uniform α value is “0”, the background image is displayed as it is.

次に、歪み演出の様子について図84を用いて説明する。図84は、歪み演出を説明するための説明図であり、図84(a)は歪み演出が開始される前の画像を説明するための説明図、図84(b)は第1変形形態OB10aに基づく歪み画像を説明するための説明図、図84(c)は第2変形形態OB10bに基づく歪み画像を説明するための説明図である。なお、図面の関係上、表示面Gの一部を示すとともに、歪み演出の対象となる図柄画像CP11及び海中の様子を示す背景画像の一部として2つの珊瑚画像CP12のみを表示するが、実際には複数の個別画像及び最背面画像が表示される。 Next, the state of the distortion effect will be described with reference to FIG. 84. FIG. 84 is an explanatory diagram for explaining the distortion effect, FIG. 84 (a) is an explanatory diagram for explaining an image before the distortion effect is started, and FIG. 84 (b) is a first modified form OB10a. An explanatory diagram for explaining a distorted image based on the above, FIG. 84 (c) is an explanatory diagram for explaining a distorted image based on the second modified form OB10b. Due to the drawing, a part of the display surface G is shown, and only two coral images CP12 are displayed as a part of the pattern image CP11 to be the target of the distortion effect and the background image showing the state in the sea. A plurality of individual images and the rearmost image are displayed in.

図84(a)に示すように、歪み演出が開始される前には、図柄画像CP11が停止表示されている。この場合、表示面Gにおける歪み領域PE1、具体的には図柄画像CP11に対して当該図柄画像CP11のスクロール方向(左方向)とは逆側の領域(右側領域)には、珊瑚が描かれた2つの珊瑚画像CP12が並んで表示されている。 As shown in FIG. 84A, the symbol image CP11 is stopped and displayed before the distortion effect is started. In this case, coral is drawn in the distortion region PE1 on the display surface G, specifically, in the region (right region) opposite to the scroll direction (left direction) of the symbol image CP11 with respect to the symbol image CP11. Two coral images CP12 are displayed side by side.

歪み演出が開始されると、図柄画像CP11が左方向にスクロール移動する。この場合、図84(b)に示すように、歪み領域PE1には、膨張した膨張珊瑚画像CP13と収縮した収縮珊瑚画像CP14が描かれた第1歪み画像CP15が表示される。この場合、膨張珊瑚画像CP13が図柄画像CP11側に表示され、収縮珊瑚画像CP14がそれとは反対側に表示される。 When the distortion effect is started, the symbol image CP11 scrolls to the left. In this case, as shown in FIG. 84 (b), the first distorted image CP15 in which the expanded coral image CP13 and the contracted contracted coral image CP14 are drawn is displayed in the strain region PE1. In this case, the expanded coral image CP13 is displayed on the symbol image CP11 side, and the contracted coral image CP14 is displayed on the opposite side.

歪み演出の開始タイミングに対して次のフレームでは、図8(c)に示すように、歪み領域PE1には、膨張珊瑚画像CP13及び収縮珊瑚画像CP14の位置関係が逆になった第2歪み画像CP16が表示される。 In the next frame with respect to the start timing of the distortion effect, as shown in FIG. 8C, the second distortion image in which the positional relationship between the expansion coral image CP13 and the contraction coral image CP14 is reversed in the distortion region PE1. CP16 is displayed.

その後、フレーム毎に各歪み画像CP15,CP16が交互に表示される。これにより、図柄画像CP11に対して当該図柄画像CP11の進行方向とは逆側の領域にて水中の流れが形成されたことに起因して揺らいでいるように見える。 After that, the distorted images CP15 and CP16 are alternately displayed for each frame. As a result, it appears that the symbol image CP11 is swaying due to the formation of an underwater flow in the region opposite to the traveling direction of the symbol image CP11.

そして、図柄画像CP11のスクロール(歪み演出)が開始されてから、所定数のフレームが更新されたことに基づいて、歪み領域PE1には、徐々に膨張珊瑚画像CP13及び収縮珊瑚画像CP14に代えて、珊瑚画像CP12が表示される。 Then, after the scrolling (distortion effect) of the symbol image CP11 is started, the strain region PE1 is gradually replaced with the expanded coral image CP13 and the contracted coral image CP14 based on the fact that a predetermined number of frames are updated. , Coral image CP12 is displayed.

以上の通り、図柄画像CP11の変動表示が行われる場合に、歪み領域PE1に各歪み画像CP15,CP16を交互に表示することにより、図柄画像CP11のスクロールにより水中に流れが形成されて奥側の背景が揺らいだように見せることができる。これにより、水中における図柄のスクロールを、よりリアルに表現することが可能となる。 As described above, when the variable display of the symbol image CP11 is performed, by alternately displaying the distorted images CP15 and CP16 in the strain region PE1, a flow is formed in the water by scrolling the symbol image CP11, and the back side is formed. You can make the background look like it's shaking. This makes it possible to express the scrolling of the symbol underwater more realistically.

この場合、屈折用オブジェクトOB10を第1変形形態OB10a又は第2変形形態OB10bに変形させ、これらに対して背景画像の一部をテクスチャとして貼り付けることにより各歪み画像CP15,CP16を作成した。これにより、歪みを表現するためのテクスチャを別途用意する必要がないため、画像を歪ませるのに要するデータ量の削減を図ることができる。 In this case, the refraction object OB10 is transformed into the first modified form OB10a or the second modified form OB10b, and a part of the background image is attached to these as a texture to create the distorted images CP15 and CP16. As a result, it is not necessary to separately prepare a texture for expressing the distortion, so that the amount of data required to distort the image can be reduced.

また、屈折用オブジェクトOB10の描画に係る処理を実行する前に背景画像の描画データを作成し、当該描画データを用いて屈折用オブジェクトOB10への貼付対象となるテクスチャを作成する構成とした。これにより、屈折用オブジェクトOB10に対して貼り付けるテクスチャを予め用意しておく必要がないため、テクスチャのデータ量の更なる削減を図ることができる。 Further, the drawing data of the background image is created before the processing related to the drawing of the refraction object OB10 is executed, and the texture to be attached to the refraction object OB10 is created by using the drawing data. As a result, it is not necessary to prepare a texture to be attached to the refraction object OB10 in advance, so that the amount of texture data can be further reduced.

具体的には、背景用の各種オブジェクトをワールド座標系に配置し、これらを投影することにより歪み対象となる描画データ、すなわち背景用の2次元画像データを取得する。その後、屈折用オブジェクトOB10を配置し且つ変形させた状態で当該屈折用オブジェクトOB10に対して歪み対象となる描画データをテクスチャとして貼り付け且つ投影する構成とした。これにより、テクスチャの作成に係る処理を描画処理の一部として用いることができるため、処理負荷の軽減を図ることができる。換言すれば、描画処理の途中段階で作成される画像をテクスチャとして用いることができる。 Specifically, various objects for the background are arranged in the world coordinate system, and by projecting these, drawing data to be distorted, that is, two-dimensional image data for the background is acquired. After that, the drawing data to be distorted is pasted and projected as a texture on the refraction object OB10 in a state where the refraction object OB10 is arranged and deformed. As a result, the process related to the creation of the texture can be used as a part of the drawing process, so that the processing load can be reduced. In other words, an image created in the middle of the drawing process can be used as a texture.

ここで、テクスチャの各単位領域(ピクセル)には、色情報として3色分の数値情報が格納されている。このため、Z方向の変位量のみが設定されている座標マッピングデータと比較して、情報量が大きくなり易い。この点、上記構成によれば、情報量が比較的少ない座標マッピングデータのみを用いて各歪み画像CP15,CP16を表示することができるため、各歪み画像CP15,CP16に係るテクスチャを別途設ける構成と比較して、歪み演出に係るデータ量を小さくすることができる。 Here, in each unit area (pixel) of the texture, numerical information for three colors is stored as color information. Therefore, the amount of information tends to be larger than that of the coordinate mapping data in which only the displacement amount in the Z direction is set. In this regard, according to the above configuration, since the distorted images CP15 and CP16 can be displayed using only the coordinate mapping data having a relatively small amount of information, the textures related to the distorted images CP15 and CP16 are separately provided. In comparison, the amount of data related to the distortion effect can be reduced.

また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定し屈折用オブジェクトOB10を変形させる場合に当該屈折用オブジェクトOB10の外縁部のZ座標は変更しない構成とした。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界が目立つことを回避することができる。 Further, when the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1, the outer edge of the refraction object OB10 is deformed. The Z coordinate of the part is not changed. As a result, it is possible to prevent the boundary between the image related to the refraction object OB10 and the other image from being conspicuous.

さらに、各歪み画像CP15,CP16の外縁部に向かうに従って当該各歪み画像CP15,CP16が透明となるように屈折用αデータSKD1を設けた。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界をより好適に目立ちにくくすることができる。 Further, the refraction α data SKD1 was provided so that the distorted images CP15 and CP16 became transparent toward the outer edges of the distorted images CP15 and CP16. As a result, the boundary between the image related to the refraction object OB10 and the other images can be more preferably made inconspicuous.

そして、歪み演出が終了する場合には、各歪み画像CP15,CP16を徐々に透明にする構成とした。これにより、各歪み画像CP15,CP16から珊瑚画像CP12に移り変わる場合に当該移り変わりを目立ちにくくすることができる。 Then, when the distortion effect is completed, the distortion images CP15 and CP16 are gradually made transparent. As a result, when the distorted images CP15 and CP16 are transferred to the coral image CP12, the transition can be made inconspicuous.

なお、上記構成では、歪みを表現する場面として、図柄画像CP11が変動表示を開始する場面を設定したが、これに限られず、任意である。例えば、物体が高速移動することによって生じる衝撃波を表現するのに用いてもよく、場面の切換、図柄画像CP11を別の図柄画像に切り換える場合に用いてもよい。この場合、歪ませたい領域(歪み領域PE1)に合わせて屈折用オブジェクトOB10の形状を設定する。 In the above configuration, the scene in which the symbol image CP11 starts the variable display is set as the scene for expressing the distortion, but the scene is not limited to this and is arbitrary. For example, it may be used to express a shock wave generated by a high-speed movement of an object, or may be used to switch a scene or to switch a symbol image CP11 to another symbol image. In this case, the shape of the refraction object OB10 is set according to the region to be distorted (distortion region PE1).

また、歪みを表現する演出に限られず、画像の一部又は全部を変化させる表示演出に対して本発明を適用することができる。例えば屈折用オブジェクトOB10に対して適用されるパラメータを変更することにより画像の一部を拡大又は縮小させる構成としてもよく、回転させる構成としてもよい。さらに、表示面Gに表示されている画像の一部を他の領域と比較して透明にしてもよい。 Further, the present invention is not limited to the effect of expressing distortion, and the present invention can be applied to a display effect of changing a part or all of an image. For example, a configuration may be configured in which a part of the image is enlarged or reduced by changing the parameters applied to the refraction object OB10, or a configuration may be configured in which the image is rotated. Further, a part of the image displayed on the display surface G may be made transparent as compared with other areas.

さらに、例えば、投影された場合に表示面G全体を表示可能な特定オブジェクトを設け、当該特定オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける。そして、予め定められた更新タイミングとなる度に、上記特定オブジェクトを複数の部品オブジェクトに分割し、当該部品オブジェクトをそれぞれ独立して移動させることにより、表示面Gに表示されていた背景画像が割れたように視認させる演出を行うことができる。これにより、場面の切換等を好適に行うことができる。 Further, for example, a specific object capable of displaying the entire display surface G when projected is provided, and the drawing data of the background image stored in the background buffer is pasted as it is for the specific object. Then, each time the update timing is set, the specific object is divided into a plurality of component objects, and the component objects are moved independently, whereby the background image displayed on the display surface G is cracked. It is possible to create an effect that makes the object visually visible. This makes it possible to suitably switch scenes and the like.

また、上記構成によれば、屈折用オブジェクトOB10に対して貼り付けられるテクスチャが屈折用オブジェクトOB10と同一のサイズとなるように背景画像をトリミングする構成としたが、これに限られず、例えば異なるサイズとなるようにトリミングする構成としてもよい。この場合、屈折用オブジェクトOB10のサイズに合わせて拡大又は縮小処理を実行するとよい。これにより、上記拡大又は縮小処理により屈折用オブジェクトOB10尾に貼り付けられる画像が歪むため、歪み画像をより歪ませることができる。但し、上記構成の場合、歪み画像と他の画像との境界が目立ち易くなるため、当該境界の目立ち易さを考慮すれば上記構成の方がよい。 Further, according to the above configuration, the background image is trimmed so that the texture attached to the refraction object OB10 has the same size as the refraction object OB10, but the background image is not limited to this, and the size is different, for example. It may be configured to be trimmed so as to be. In this case, it is advisable to perform enlargement or reduction processing according to the size of the refraction object OB10. As a result, the image attached to the refraction object OB10 tail is distorted by the enlargement or reduction process, so that the distorted image can be further distorted. However, in the case of the above configuration, the boundary between the distorted image and another image becomes conspicuous, so the above configuration is better in consideration of the conspicuousness of the boundary.

また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定したが、これに限られず、例えば上記表示領域が歪み領域PE1と一致するように屈折用オブジェクトOB10の形状を設定してもよい。この場合、屈折用オブジェクトOB10を変形させる場合には屈折用オブジェクトOB10の外縁部を構成する頂点座標についても変位させる構成とするとよい。 Further, the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1, but the shape is not limited to this, and the display area is, for example, the distortion area PE1. The shape of the refraction object OB10 may be set so as to match. In this case, when the refraction object OB10 is deformed, the coordinates of the vertices constituting the outer edge portion of the refraction object OB10 may also be displaced.

また、上記構成では、第1座標マッピングデータMD1及び第2座標マッピングデータMD2を交互に用いることにより、背景画像が揺らいだように見せる構成としたが、これに限られず、例えば徐々に歪みが大きくなる又は小さくなる演出及びこれらの演出を組み合わせた演出を実行する構成としてもよい。 Further, in the above configuration, the first coordinate mapping data MD1 and the second coordinate mapping data MD2 are alternately used to make the background image appear to be shaken, but the configuration is not limited to this, and for example, the distortion gradually increases. It may be configured to execute an effect that becomes or becomes smaller and an effect that combines these effects.

上記構成では、歪みの対象は背景画像の一部であったが、これに限られず、例えば背景画像の全部を歪ませる構成としてもよい。この場合、表示面G全体を覆うことが可能な屈折用オブジェクトを設け、当該屈折用オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける構成とする。 In the above configuration, the object of distortion is a part of the background image, but the present invention is not limited to this, and for example, the entire background image may be distorted. In this case, a refraction object capable of covering the entire display surface G is provided, and the drawing data of the background image stored in the background buffer is pasted as it is on the refraction object.

また、背景画像に限られず、図柄画像、所定のキャラクタ画像又は表示面Gに表示されている画像そのものの全部又は一部を歪ませる構成としてもよい。この場合、屈折用オブジェクトの描画に係る処理を実行する前に、歪ませたい対象を含む画像に係る描画データを予め作成しておき、屈折用オブジェクトの描画に係る処理において、上記描画データに基づいて屈折用オブジェクトに対して貼り付けるテクスチャを作成して、貼り付ける構成とするよい。 Further, the configuration is not limited to the background image, and may be configured to distort all or part of the pattern image, the predetermined character image, or the image itself displayed on the display surface G. In this case, before executing the process related to the drawing of the refraction object, drawing data related to the image including the object to be distorted is created in advance, and in the process related to the drawing of the refraction object, the drawing data is based on the above drawing data. It is good to create a texture to be pasted on the object for refraction and paste it.

また、上記構成では、屈折用オブジェクトOB10の変形を各座標マッピングデータMD1,MD2を用いることで実現したが、これに限られず、例えば4次元関数(x、y、z、t)を定義し、当該4次元関数に基づいて各頂点のZ方向の変位量を導出することにより屈折用オブジェクトOB10を変形させる構成としてもよい。この場合、歪み演出に係るデータ量の更なる削減を図ることができる。但し、VDP135の処理負荷の増大化、高精細な歪みに起因する関数の複雑化等に鑑みれば、各座標マッピングデータMD1,MD2を用いる構成の方が好ましい。 Further, in the above configuration, the deformation of the refraction object OB10 is realized by using the coordinate mapping data MD1 and MD2, but the present invention is not limited to this, and for example, a four-dimensional function (x, y, z, t) is defined. The object OB10 for refraction may be deformed by deriving the amount of displacement of each vertex in the Z direction based on the four-dimensional function. In this case, the amount of data related to the distortion effect can be further reduced. However, in view of the increase in the processing load of the VDP135, the complexity of the function due to the high-definition distortion, and the like, the configuration using each coordinate mapping data MD1 and MD2 is preferable.

なお、上記構成では、屈折用オブジェクトOB10を、当該屈折用オブジェクトOB10の板面に凹凸が形成されるように各頂点座標のZ座標を変位させて変形させたが、これに限られず、例えばX座標及びY座標の少なくとも一方を変位させる構成としてもよい。この場合、格子状に配置された各頂点により渦が形成されるように各頂点のXY座標を設定するとよい。これにより、各頂点に対応させてテクスチャを貼り付けることにより歪んだ画像を表現することが可能となる。但し、処理負荷の観点に着目すれば、Z方向の変位のみの方がよい。 In the above configuration, the refraction object OB10 is deformed by displacing the Z coordinate of each apex coordinate so that unevenness is formed on the plate surface of the refraction object OB10, but the present invention is not limited to this, for example, X. It may be configured to displace at least one of the coordinates and the Y coordinate. In this case, it is advisable to set the XY coordinates of each vertex so that a vortex is formed by each vertex arranged in a grid pattern. This makes it possible to express a distorted image by pasting a texture corresponding to each vertex. However, from the viewpoint of processing load, it is better to use only the displacement in the Z direction.

また、上記構成では、先に背景用の描画データ(2次元画像データ)を作成した後に、演出用及び図柄用の描画データを作成する構成としたが、これに限られず、例えば第1の実施の形態のように、背景用、演出用及び図柄用の各オブジェクトをワールド座標系に配置し、当該各オブジェクトに対して投影することで各描画データを作成する構成としてもよい。この場合、2回描画処理を実行する構成とするとよい。具体的には、1回目では屈折用オブジェクトOB10を除く各オブジェクトを配置し投影することにより各描画データを作成し、2回目では屈折用オブジェクトOB10を含む各オブジェクトを配置し投影して各描画データを作成する。この場合、2回目の描画処理にて、1回目の描画処理にて作成された背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを作成する構成とする。これにより、背景画像の一部をテクスチャとして用いることができる。但し、上記構成の場合、同一処理を重複して行う必要があるため、無駄な処理が増え、処理負荷の増大化が懸念される。この点に着目すれば、先に背景用の描画データを作成した後に、演出用及び図柄用の描画データを作成する構成の方が優れている。 Further, in the above configuration, the drawing data for the background (two-dimensional image data) is first created, and then the drawing data for the effect and the design is created. However, the present invention is not limited to this, and for example, the first implementation. Each drawing data may be created by arranging objects for background, effect, and design in the world coordinate system and projecting them on each object as in the form of. In this case, it is preferable to execute the drawing process twice. Specifically, in the first time, each drawing data is created by arranging and projecting each object except the refraction object OB10, and in the second time, each object including the refraction object OB10 is arranged and projected, and each drawing data is projected. To create. In this case, in the second drawing process, the texture to be attached to the refraction object OB10 is created by using the drawing data for the background created in the first drawing process. As a result, a part of the background image can be used as a texture. However, in the case of the above configuration, since it is necessary to perform the same processing more than once, there is a concern that unnecessary processing will increase and the processing load will increase. Focusing on this point, the configuration in which the drawing data for the background is first created and then the drawing data for the effect and the design is created is superior.

また、変形対象となる画像が更新される構成であってもよい。例えば、図柄画像CP11のスクロールに伴って歪み領域PE1を順次スクロールさせる構成としてもよい。この場合、所定の更新タイミング(例えば各フレーム)毎に屈折用オブジェクトOB10の座標を更新するとともに、歪み演出用マッピング処理(図82)におけるトリミング処理(ステップS4802)においてトリミングする領域を、屈折用オブジェクトOB10の座標に合わせて変更するようにするとよい。これにより、データ量の増大化を招くことなく、歪み領域PE1の変位に好適に対応することができる。 Further, the image to be transformed may be updated. For example, the distortion region PE1 may be sequentially scrolled as the symbol image CP11 scrolls. In this case, the coordinates of the refraction object OB10 are updated at each predetermined update timing (for example, each frame), and the area to be trimmed in the trimming process (step S4802) in the distortion effect mapping process (FIG. 82) is set as the refraction object. It is advisable to change it according to the coordinates of OB10. As a result, it is possible to suitably cope with the displacement of the strain region PE1 without causing an increase in the amount of data.

また、歪み領域PE1を固定しつつ背景画像を変位させる構成としてもよい。この場合であっても、フレーム毎に背景画像に係る背景用の描画データを生成し、さらにフレーム毎に当該背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを生成する構成であるため、変位した背景画像を歪ませることができる。 Further, the background image may be displaced while the distortion region PE1 is fixed. Even in this case, the drawing data for the background related to the background image is generated for each frame, and the drawing data for the background is used for each frame to generate the texture to be pasted on the refraction object OB10. Therefore, the displaced background image can be distorted.

なお、背景画像の変位としては、所定の方向への背景画像のスクロールが考えられる。当該スクロールは、背景画像を構成するオブジェクトの移動又は視点の移動により実現することができる。 As the displacement of the background image, scrolling of the background image in a predetermined direction can be considered. The scrolling can be realized by moving the objects constituting the background image or moving the viewpoint.

また、画像の一部を加工して表示演出を行う構成は、2次元表示に係る構成に適用してもよい。具体的には、メモリモジュール133に複数種類のスプライトデータを記憶させておき、当該スプライトデータを用いて所定の画像に係る描画データを生成する。そして、当該描画データをフレームバッファ142に設けられた仮バッファに記憶させておき、当該描画データの一部を抜き出し、当該抜き出したデータをスプライトデータとして扱う構成とするとよい。これにより、描画データに係る画像の一部を拡大又は縮小したり、所定の方向に移動させたりする表示演出を行うことができる。 Further, the configuration in which a part of the image is processed to produce a display effect may be applied to the configuration related to the two-dimensional display. Specifically, a plurality of types of sprite data are stored in the memory module 133, and drawing data related to a predetermined image is generated using the sprite data. Then, the drawing data may be stored in a temporary buffer provided in the frame buffer 142, a part of the drawing data may be extracted, and the extracted data may be treated as sprite data. As a result, it is possible to perform a display effect such as enlarging or reducing a part of the image related to the drawing data or moving the image in a predetermined direction.

さらに抜き出したデータを別のスプライトデータに対して重ねることにより、抜き出したデータに係る画像に上書きすることもできる。 Further, by superimposing the extracted data on another sprite data, it is possible to overwrite the image related to the extracted data.

また、屈折用オブジェクトOB10に対して貼り付けるテクスチャは、投影することにより作成されたものであったが、これに限られず、例えば予めメモリモジュール133に記憶させておく構成としてもよい。但し、テクスチャのデータ量の増大化に着目すれば、投影することで作成する構成の方がよい。 Further, the texture to be attached to the refraction object OB10 is created by projection, but is not limited to this, and may be stored in the memory module 133 in advance, for example. However, if we focus on increasing the amount of texture data, it is better to create it by projecting it.

また、屈折用オブジェクトOB10は板状ポリゴンであったが、これに限られず、任意の形状のポリゴンを用いてもよい。但し、処理負荷の観点に着目すれば、板状ポリゴンである構成の方がよい。 Further, the refraction object OB10 is a plate-shaped polygon, but the present invention is not limited to this, and a polygon having any shape may be used. However, from the viewpoint of processing load, it is better to use a plate-shaped polygon.

上記構成では、屈折用オブジェクトOB10の変形形態を、第1変形形態OB10aと第2変形形態OB10bとに交互に切り換えることで、歪みを表現したが、これに限られず、例えば2つの屈折用オブジェクトOB10を設け、各屈折用オブジェクトOB10をそれぞれ第1変形形態OB10aと、第2変形形態OB10bとに変形させて、両者を短辺部にて連結させる構成としてもよい。この場合、連結したものを所定の方向にスクロールさせる構成とするとよい。この場合であっても、揺らいだ画像を好適に表示させることができる。 In the above configuration, the distortion is expressed by alternately switching the modified form of the refracting object OB10 between the first modified form OB10a and the second modified form OB10b, but the distortion is expressed, but the present invention is not limited to this, and for example, two refraction objects OB10. The object OB10 for refraction may be transformed into a first modified form OB10a and a second modified form OB10b, respectively, and both may be connected at a short side portion. In this case, it is preferable to have a configuration in which the connected objects are scrolled in a predetermined direction. Even in this case, the fluctuated image can be preferably displayed.

<瞬き演出を行うための構成について>
次に、瞬き演出を行うための構成について説明する。
<About the configuration for blinking effect>
Next, the configuration for performing the blinking effect will be described.

瞬き演出とは、所定のキャラクタ画像が瞬きをする演出である。 The blinking effect is an effect in which a predetermined character image blinks.

当該瞬き演出では、所定のキャラクタ画像を表示するのに用いられるベースオブジェクトOB21及びベーステクスチャTD11と、目の部分を変更するのに用いられる部分オブジェクトOB22及び部分テクスチャTD12とが用いられる。これらの各構成について図85を用いて説明する。図85(a)はベースオブジェクトOB21及び部分オブジェクトOB22を説明するための説明図、図85(b)はベーステクスチャTD11を説明するための説明図、図85(c)は部分テクスチャTD12を説明するための説明図である。なお、ベースオブジェクトOB21と部分オブジェクトOB22との関係を説明するために、図85(a)においてベースオブジェクトOB21と部分オブジェクトOB22とを重ねて示すとともに、部分オブジェクトOB22を点線で示す。さらに、ベーステクスチャTD11と部分テクスチャTD12との関係を説明するために、図85(b)において部分テクスチャTD12の外形を点線で示す。 In the blinking effect, the base object OB21 and the base texture TD11 used to display a predetermined character image, and the partial object OB22 and the partial texture TD12 used to change the eye portion are used. Each of these configurations will be described with reference to FIG. 85. 85 (a) is an explanatory diagram for explaining the base object OB21 and the partial object OB22, FIG. 85 (b) is an explanatory diagram for explaining the base texture TD11, and FIG. 85 (c) explains the partial texture TD12. It is an explanatory diagram for this. In order to explain the relationship between the base object OB21 and the partial object OB22, the base object OB21 and the partial object OB22 are shown in an overlapping manner in FIG. 85A, and the partial object OB22 is shown by a dotted line. Further, in order to explain the relationship between the base texture TD11 and the partial texture TD12, the outer shape of the partial texture TD12 is shown by a dotted line in FIG. 85 (b).

ベースオブジェクトOB21は、図85(a)に示すように、複数の部品オブジェクトからなる1単位のオブジェクトであり、各部品オブジェクトに適用されるパラメータを更新することで3D画像のキャラクタに動きや変化を与えることができる。 As shown in FIG. 85 (a), the base object OB21 is a unit object composed of a plurality of component objects, and by updating the parameters applied to each component object, the character of the 3D image can be moved or changed. Can be given.

また、ベースオブジェクトOB21において、キャラクタの頭部に対応した頭部オブジェクトOB31に貼り付けるテクスチャとしてベーステクスチャTD11が設定されている。ベーステクスチャTD11は、図85(b)に示すように、顔が描かれた画像データである。ベーステクスチャTD11は頭部オブジェクトOB31に対応させた矩形状の画像データとして設定されている。具体的には、ベーステクスチャTD11は、3次元の頭部オブジェクトOB31を2次元に展開した場合の画像データに対応させて設定されており、展開した画像データと同一の形状となるように縦横ピクセル数が設定されている。当該ベーステクスチャTD11が頭部オブジェクトOB31に対して貼り付けられることにより、顔が表現されることとなる。 Further, in the base object OB21, the base texture TD11 is set as a texture to be attached to the head object OB31 corresponding to the head of the character. As shown in FIG. 85B, the base texture TD11 is image data on which a face is drawn. The base texture TD11 is set as rectangular image data corresponding to the head object OB31. Specifically, the base texture TD11 is set corresponding to the image data when the three-dimensional head object OB31 is expanded in two dimensions, and the vertical and horizontal pixels have the same shape as the expanded image data. The number is set. The face is expressed by attaching the base texture TD11 to the head object OB31.

なお、髪型については、頭部オブジェクトOB31とは別に髪型オブジェクトOB32が設けられているとともに、当該髪型オブジェクトOB32に対して貼り付ける髪型テクスチャが設けられている。これらを用いて髪型を表現し、髪型オブジェクトOB32と頭部オブジェクトOB31とを重ねあわせることにより、キャラクタの頭部を表現する。 As for the hairstyle, a hairstyle object OB32 is provided separately from the head object OB31, and a hairstyle texture to be attached to the hairstyle object OB32 is provided. The hairstyle is expressed using these, and the head of the character is expressed by superimposing the hairstyle object OB32 and the head object OB31.

また、ベーステクスチャTD11は矩形状の画像データとして設定されている構成としたが、これに限られず、頭部オブジェクトOB31の形状に合わせて異なる形状の画像データとして設定してもよい。 Further, although the base texture TD11 is configured to be set as rectangular image data, the present invention is not limited to this, and the base texture TD11 may be set as image data having a different shape according to the shape of the head object OB31.

部分オブジェクトOB22は、当該部分オブジェクトOB22が投影された場合にベースオブジェクトOB21における目の表示領域を覆うことが可能となるようにその形状及びサイズが設定されている。具体的には、部分オブジェクトOB22は、図85(a)に示すように、ベースオブジェクトOB21において目が表示される領域と同一の形状となる矩形板状ポリゴンで構成されている。これにより、ワールド座標系においてベースオブジェクトOB21が配置され、視点とベースオブジェクトOB21との間であって且つベースオブジェクトOB21において目が表示される領域に対して重なるように部分オブジェクトOB22が配置された状態で平行投影が行われた場合には、ベーステクスチャTD11の目に代えて、部分オブジェクトOB22の画像が表示されることとなる。この場合、部分オブジェクトOB22に対して、ベーステクスチャTD11の目とは態様が異なるテクスチャが貼り付けられることにより、目の態様が異なるキャラクタ画像が表示される。 The shape and size of the partial object OB22 are set so as to be able to cover the display area of the eyes in the base object OB21 when the partial object OB22 is projected. Specifically, as shown in FIG. 85A, the partial object OB22 is composed of rectangular plate-shaped polygons having the same shape as the area where the eyes are displayed in the base object OB21. As a result, the base object OB21 is arranged in the world coordinate system, and the partial object OB22 is arranged between the viewpoint and the base object OB21 and so as to overlap the area where the eyes are displayed in the base object OB21. When parallel projection is performed in, the image of the partial object OB22 is displayed instead of the eyes of the base texture TD11. In this case, a character image having a different aspect of the eyes is displayed by pasting a texture having a different aspect from the eyes of the base texture TD11 to the partial object OB22.

当該部分オブジェクトOB22に対して貼り付けるテクスチャとして複数種類(具体的には3種類)の部分テクスチャTD12が設けられている。 A plurality of types (specifically, three types) of partial textures TD12 are provided as textures to be attached to the partial object OB22.

部分テクスチャTD12について説明すると、部分テクスチャTD12のサイズは部分オブジェクトOB22と同一に設定されており、具体的には、部分オブジェクトOB22の形状と同一となるように、部分テクスチャTD12の各縦横ピクセル数が設定されている。このため、部分オブジェクトOB22に対して部分テクスチャTD12は変形することなく貼り付けられることとなる。 Explaining the partial texture TD12, the size of the partial texture TD12 is set to be the same as that of the partial object OB22, and specifically, the number of vertical and horizontal pixels of the partial texture TD12 is set to be the same as the shape of the partial object OB22. It is set. Therefore, the partial texture TD12 is attached to the partial object OB22 without being deformed.

この場合、ベーステクスチャTD11のピクセル数は頭部オブジェクトOB31全体の大きさに対応させて設定されており、部分テクスチャTD12のピクセル数は頭部オブジェクトOB31のうち目の部分に対応させて設定されているため、図85(b)に示すように、部分テクスチャTD12の方がベーステクスチャTD11よりもサイズが小さく、データ量が少ない画像データとなっている。 In this case, the number of pixels of the base texture TD11 is set corresponding to the size of the entire head object OB31, and the number of pixels of the partial texture TD12 is set corresponding to the eye part of the head object OB31. Therefore, as shown in FIG. 85B, the partial texture TD12 has a smaller size than the base texture TD11, and the amount of data is small.

部分テクスチャTD12には目が開いた状態の画像データである第1部分テクスチャTD21(図85(c−1)参照)と、目が開いた状態と目が閉じた状態との中間状態の画像データである第2部分テクスチャTD22(図85(c−2)参照)と、目が閉じた状態の第3部分テクスチャTD23(図85(c−3)参照)と、が設定されている。第1部分テクスチャTD21は、ベーステクスチャTD11の目の部分と同一の画像が描かれたテクスチャである。 The partial texture TD12 contains image data in an intermediate state between the first partial texture TD21 (see FIG. 85 (c-1)), which is image data in a state where the eyes are open, and a state in which the eyes are open and the eyes are closed. The second partial texture TD22 (see FIG. 85 (c-2)) and the third partial texture TD23 with the eyes closed (see FIG. 85 (c-3)) are set. The first partial texture TD21 is a texture on which the same image as the eye portion of the base texture TD11 is drawn.

部分オブジェクトOB22に対して貼り付けるテクスチャを第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャTD23→第2部分テクスチャTD22→第1部分テクスチャTD21を1周期として順次切り換えることにより、瞬きを表現することができる。 Blinking is performed by sequentially switching the texture to be pasted to the partial object OB22 from the first partial texture TD21 → the second partial texture TD22 → the third partial texture TD23 → the second partial texture TD22 → the first partial texture TD21 as one cycle. Can be expressed.

瞬き演出の具体的な処理構成について説明する。 The specific processing configuration of the blinking effect will be described.

図86は、表示CPU131にて実行される瞬き演出用演算処理を示すフローチャートである。瞬き演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理において、現状設定されているデータテーブルが瞬き演出に対応したものである場合に起動される。 FIG. 86 is a flowchart showing a blinking effect arithmetic process executed by the display CPU 131. The blinking effect calculation process is started when the currently set data table corresponds to the blinking effect in the effect calculation process in step S904 of the task process (FIG. 14).

先ずステップS5001にて、現状設定されているデータテーブルに基づいて、瞬き演出中であるか否かを判定する。 First, in step S5001, it is determined whether or not the blinking effect is being performed based on the currently set data table.

瞬き演出の実行中でない場合には、ステップS5002に進み、現状設定されているデータテーブルに基づいて、瞬き演出の開始タイミングであるか否かを判定する。 If the blinking effect is not being executed, the process proceeds to step S5002, and it is determined whether or not it is the start timing of the blinking effect based on the currently set data table.

瞬き演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、瞬き演出の開始タイミングである場合には、ステップS5003に進み、ベースオブジェクトOB21を把握する。そして、ステップS5004に進み、ベーステクスチャTD11を含むベースオブジェクトOB21に対して貼り付けられる各種テクスチャのアドレス情報を設定する。 If it is not the start timing of the blinking effect, the present calculation process is terminated as it is, while if it is the start timing of the blinking effect, the process proceeds to step S5003 to grasp the base object OB21. Then, the process proceeds to step S5004, and the address information of various textures to be pasted to the base object OB21 including the base texture TD11 is set.

その後、ステップS5005にて、ベースオブジェクトOB21に対して適用されるその他のパラメータの初期設定に係る演算処理を行う。 After that, in step S5005, arithmetic processing related to the initial setting of other parameters applied to the base object OB21 is performed.

続くステップS5006では、部分オブジェクトOB22を把握する。そして、ステップS5007にて当該部分オブジェクトOB22の初期座標を設定する。初期座標はデータテーブルに予め設定されており、具体的には、ワールド座標系に変換した場合にベースオブジェクトOB21よりも前側(視点側)であって投影(平行投影)した場合にベースオブジェクトOB21において目が表示される領域と重なるように配置されるよう設定されている。 In the following step S5006, the partial object OB22 is grasped. Then, in step S5007, the initial coordinates of the partial object OB22 are set. The initial coordinates are set in advance in the data table. Specifically, when converted to the world coordinate system, the base object OB21 is on the front side (viewpoint side) of the base object OB21 and is projected (parallel projection). It is set to overlap the area where the eyes are displayed.

その後、ステップS5008では、部分テクスチャTD12のアドレス情報の初期設定を行う。具体的には、第1部分テクスチャTD21のアドレス情報を設定する。そして、ステップS5009にてその他のパラメータの初期設定に係る演算処理を実行する。 After that, in step S5008, the address information of the partial texture TD12 is initially set. Specifically, the address information of the first partial texture TD21 is set. Then, in step S5009, the arithmetic processing related to the initial setting of other parameters is executed.

その後、ステップS5010にて瞬き演出指定情報を描画リストに設定して本演算処理を終了する。当該瞬き演出指定情報は、VDP135において瞬き演出に係る描画処理を実行することを特定するのに用いられる情報である。 After that, in step S5010, the blinking effect designation information is set in the drawing list, and this calculation process is terminated. The blink effect designation information is information used to specify that the drawing process related to the blink effect is executed in the VDP 135.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、ベースオブジェクトOB21及び部分オブジェクトOB22が描画対象として設定されるとともに、各オブジェクトOB21,OB22に対応したパラメータが設定される。この場合、投影した場合にベースオブジェクトOB21の頭部オブジェクトOB31及びベーステクスチャTD11による目の画像に重なるように部分オブジェクトOB22及び第1部分テクスチャTD21による目の画像が表示されるように各オブジェクトOB21,OB22の座標が設定されている。また、上記描画リストには、瞬き演出指定情報が設定されている。 When such processing is executed, the base object OB21 and the partial object OB22 are set as drawing targets in the drawing list created in the subsequent drawing list output processing, and the parameters corresponding to the respective objects OB21 and OB22 are set. Set. In this case, each object OB21, so that the image of the eyes by the partial object OB22 and the first partial texture TD21 is displayed so as to overlap the image of the eyes by the head object OB31 and the base texture TD11 of the base object OB21 when projected. The coordinates of OB22 are set. In addition, blinking effect designation information is set in the drawing list.

一方、瞬き演出中である場合には、ステップS5011〜ステップS5013にて、ベースオブジェクトOB21の設定に係る処理を実行する。具体的には、ステップS5011にて、ベースオブジェクトOB21を把握し、ステップS5012にて各種テクスチャのアドレスを設定する。そして、ステップS5013にてその他のパラメータの演算処理を行う。この場合、初期設定された各種パラメータを維持する処理を実行する。 On the other hand, when the blinking effect is being produced, the process related to the setting of the base object OB21 is executed in steps S501 to S5013. Specifically, in step S5011, the base object OB21 is grasped, and in step S5012, the addresses of various textures are set. Then, in step S5013, calculation processing of other parameters is performed. In this case, the process of maintaining the various initially set parameters is executed.

その後、ステップS5014〜ステップS5018にて部分オブジェクトOB22の設定に係る処理を実行する。具体的には、先ずステップS5014にて部分オブジェクトOB22を把握する。そして、ステップS5015にて、現状設定されているデータテーブルに基づいて、部分テクスチャTD12の更新タイミングであるか否かを判定する。具体的には、瞬き演出に対応したデータテーブルには、所定数のフレーム毎に部分テクスチャTD12の更新タイミングを特定するための情報が設定されている。ステップS5015では、上記情報が設定されているか否かを判定する。 After that, in steps S5014 to S5018, the process related to the setting of the partial object OB22 is executed. Specifically, first, the partial object OB22 is grasped in step S5014. Then, in step S5015, it is determined whether or not it is the update timing of the partial texture TD12 based on the currently set data table. Specifically, in the data table corresponding to the blinking effect, information for specifying the update timing of the partial texture TD 12 is set for each predetermined number of frames. In step S5015, it is determined whether or not the above information is set.

部分テクスチャTD12の更新タイミングでない場合には、ステップS5016に進み、前回の部分テクスチャTD12のアドレス情報を設定する。そして、ステップS5017にてその他のパラメータの演算処理を実行し、ステップS5010にて瞬き演出指定情報を設定し、本演算処理を終了する。 If it is not the update timing of the partial texture TD12, the process proceeds to step S5016, and the address information of the previous partial texture TD12 is set. Then, the calculation process of other parameters is executed in step S5017, the blinking effect designation information is set in step S5010, and this calculation process is terminated.

かかる処理が実行された場合、その後の描画リスト出力処理では、前回作成された描画リストと同一の描画リストが作成される。 When such a process is executed, in the subsequent drawing list output process, the same drawing list as the previously created drawing list is created.

一方、部分テクスチャTD12の更新タイミングである場合には、ステップS5018に進み、前回の部分テクスチャに対して次の部分テクスチャのアドレス情報を設定する処理を実行する。具体的には、瞬き演出に対応したデータテーブルには、部分オブジェクトOB22に対する貼付対象となる各部分テクスチャTD21〜TD23の順序が予め設定されている。詳細には、第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャ→第2部分テクスチャTD22を1周期として設定されている。ステップS5018では、上記周期に基づいて、前回の描画リストにおいて設定された部分テクスチャに対して次の部分テクスチャを把握し、当該次の部分テクスチャに対応したアドレスを設定する処理を実行する。 On the other hand, when it is the update timing of the partial texture TD12, the process proceeds to step S5018, and the process of setting the address information of the next partial texture for the previous partial texture is executed. Specifically, in the data table corresponding to the blinking effect, the order of the partial textures TD21 to TD23 to be attached to the partial object OB22 is preset. Specifically, the first partial texture TD21 → the second partial texture TD22 → the third partial texture → the second partial texture TD22 is set as one cycle. In step S5018, based on the above cycle, the next partial texture is grasped with respect to the partial texture set in the previous drawing list, and the process of setting the address corresponding to the next partial texture is executed.

そして、ステップS5017及びステップS5010の処理を実行して本演算処理を終了する。 Then, the processing of step S5017 and step S5010 is executed to end this arithmetic processing.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、前回作成された描画リストと比較して、部分オブジェクトOB22に対して貼り付けられる部分テクスチャTD12が異なっている。 When such a process is executed, the drawing list created in the subsequent drawing list output process has a different partial texture TD12 pasted to the partial object OB22 as compared with the drawing list created last time. ..

VDP135は、瞬き演出指定情報が設定された描画リストを受信した場合、各オブジェクトOB21,OB22に設定されている座標に基づいてワールド座標系への設定を行う。そして、ベースオブジェクトOB21に対してベーステクスチャTD11を含む各種テクスチャをマッピングするとともに、部分オブジェクトOB22に対して今回描画リストに設定されている部分テクスチャTD12をマッピングし、演出及び図柄用の描画データ作成処理にて、各オブジェクトOB21,OB22を平行投影し、描画データを作成する。これにより、目の部分が部分テクスチャTD12の画像に置き換わったキャラクタ画像が作成される。 When the VDP 135 receives the drawing list in which the blinking effect designation information is set, the VDP 135 sets the world coordinate system based on the coordinates set in each of the objects OB21 and OB22. Then, various textures including the base texture TD11 are mapped to the base object OB21, and the partial texture TD12 set in the drawing list this time is mapped to the partial object OB22 to create drawing data for the effect and the design. In, the objects OB21 and OB22 are projected in parallel to create drawing data. This creates a character image in which the eye portion is replaced with the image of the partial texture TD12.

この場合、部分テクスチャTD12の更新タイミングに係る描画リストには、前回の描画リストとは異なる部分テクスチャTD12が設定されているため、表示面Gには、前回の処理により表示されたキャラクタ画像と比較して、目の態様が異なるキャラクタ画像が表示されることとなる。 In this case, since the partial texture TD12 different from the previous drawing list is set in the drawing list related to the update timing of the partial texture TD12, the display surface G is compared with the character image displayed by the previous processing. Then, a character image having a different eye aspect is displayed.

次に、瞬き演出の様子について図87を用いて説明する。図87は、瞬き演出を説明するための説明図であり、具体的には図87(a)は瞬き演出の開始タイミングにおいて表示面Gに表示される画像を説明するための説明図、図87(b)及び図87(c)はキャラクタ画像CP22の表示態様の移り変わりを時系列で示した説明図である。なお、説明の便宜上、キャラクタ画像CP22以外の画像を省略して示すが、実際には背景画像及び図柄画像等が表示される。 Next, the state of the blinking effect will be described with reference to FIG. 87. FIG. 87 is an explanatory diagram for explaining the blinking effect, and specifically, FIG. 87 (a) is an explanatory diagram for explaining an image displayed on the display surface G at the start timing of the blinking effect, FIG. 87. (B) and FIG. 87 (c) are explanatory views showing changes in the display mode of the character image CP22 in chronological order. For convenience of explanation, images other than the character image CP22 are omitted, but actually, a background image, a pattern image, and the like are displayed.

瞬き演出が開始される場合、図87(a)に示すように、ベースオブジェクトOB21及びベーステクスチャTD11を含む各種テクスチャを用いて作成されたベース画像CP21を有するキャラクタ画像CP22が表示される。この場合、ベース画像CP21における重ね合わせ領域PE2(詳細には目の領域)には、部分オブジェクトOB22及び第1部分テクスチャTD21を用いて作成された第1部分画像CP23が表示される。 When the blinking effect is started, as shown in FIG. 87 (a), the character image CP22 having the base image CP21 created by using various textures including the base object OB21 and the base texture TD11 is displayed. In this case, the first partial image CP23 created by using the partial object OB22 and the first partial texture TD21 is displayed in the overlap region PE2 (specifically, the eye region) in the base image CP21.

なお、既に説明した通り、第1部分テクスチャTD21に描かれている目の画像は、ベース画像CP21における目の画像と同一であるため、実際にはベース画像CP21と同一の画像が表示されることとなる。 As described above, since the eye image drawn on the first partial texture TD21 is the same as the eye image in the base image CP21, the same image as the base image CP21 is actually displayed. It becomes.

その後、部分テクスチャTD12の更新タイミングとなることに基づいて、図87(b)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第2部分テクスチャTD22を用いて作成された第2部分画像CP24が表示される。 After that, based on the update timing of the partial texture TD12, as shown in FIG. 87 (b), the overlap region PE2 has a second portion created by using the partial object OB22 and the second partial texture TD22. Image CP24 is displayed.

そして、次の更新タイミングとなることに基づいて、図87(c)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第3部分テクスチャTD23を用いて作成された第3部分画像CP25が表示される。 Then, based on the next update timing, as shown in FIG. 87 (c), the third partial image CP25 created by using the partial object OB22 and the third partial texture TD23 in the overlap region PE2. Is displayed.

以上のように、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25の順に更新されることにより、目が徐々に閉じていく様子が表現される。 As described above, by updating in the order of the first partial image CP23 → the second partial image CP24 → the third partial image CP25, the appearance of the eyes gradually closing is expressed.

その後、更新タイミングとなる度に、重ね合わせ領域PE2には、第2部分画像CP24→第1部分画像CP23が表示される。 After that, every time the update timing is reached, the second partial image CP24 → the first partial image CP23 is displayed in the overlap region PE2.

すなわち、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25→第2部分画像CP24→第1部分画像CP23→…、という順序で繰り返し画像が更新されることにより、キャラクタ画像CP22が瞬きをしているように見える。 That is, the character image CP22 is repeatedly updated in the order of the first partial image CP23 → the second partial image CP24 → the third partial image CP25 → the second partial image CP24 → the first partial image CP23 → ... It looks like it's blinking.

以上の通り、キャラクタ画像CP22の目の部分に対して局所的に部分オブジェクトOB22を配置し、所定の更新タイミングとなる度に当該部分オブジェクトOB22に対して貼り付ける部分テクスチャTD12を更新することにより、キャラクタ画像CP22の瞬きを表現することができる。この場合、部分テクスチャTD12はベーステクスチャTD11の一部の領域のテクスチャであるため、ベーステクスチャTD11と比較してデータ量が小さい。これにより、ベーステクスチャTD11を複数用意する構成と比較して、瞬き演出を行うのに必要なデータ量の削減を図ることができる。 As described above, the partial object OB22 is locally placed on the eye portion of the character image CP22, and the partial texture TD12 to be attached to the partial object OB22 is updated every time the predetermined update timing is reached. The blink of the character image CP22 can be expressed. In this case, since the partial texture TD12 is a texture in a part of the base texture TD11, the amount of data is smaller than that of the base texture TD11. As a result, it is possible to reduce the amount of data required for blinking effect as compared with the configuration in which a plurality of base texture TD11s are prepared.

すなわち、ベース画像CP21を、変化対象となる部位と変化対象とならない部位とに区分けし、変化対象となる部位のみに対応したテクスチャを設け、当該テクスチャとベース画像CP21とを用いてキャラクタ画像の動作を表現する構成とした。これにより、ベース画像CP21全体に係るテクスチャ、すなわちベーステクスチャTD11を複数用意する必要がない。よって、データ量の削減を図りつつ、特定キャラクタ画像の一部を変化させることが可能となる。 That is, the base image CP21 is divided into a part to be changed and a part not to be changed, a texture corresponding only to the part to be changed is provided, and the operation of the character image is performed by using the texture and the base image CP21. It was made to express. As a result, it is not necessary to prepare a plurality of textures related to the entire base image CP21, that is, the base texture TD11. Therefore, it is possible to change a part of the specific character image while reducing the amount of data.

この場合、例えば頭部オブジェクトOB31を、目の部分に対応した目オブジェクトと、目よりも下の部分に対応した第1オブジェクトと、目よりも上の部分に対応した第2オブジェクトとに分割し、当該目オブジェクトに対して貼り付けるテクスチャを変更することにより、瞬きを表現する構成も考えられる。しかしながら、かかる構成の場合、頭部オブジェクトOB31を分割することに起因して描画対象となるオブジェクト数が増加し、把握対象となる頂点数が増加する。このため、処理負荷の増大化が懸念される。 In this case, for example, the head object OB31 is divided into an eye object corresponding to the eye portion, a first object corresponding to the portion below the eyes, and a second object corresponding to the portion above the eyes. , A configuration that expresses blinking is also conceivable by changing the texture to be pasted on the eye object. However, in the case of such a configuration, the number of objects to be drawn increases due to the division of the head object OB31, and the number of vertices to be grasped increases. Therefore, there is a concern that the processing load will increase.

これに対して、本形態によれば、1の頭部オブジェクトOB31と、描画に係る処理負荷が比較的少ない板状ポリゴンである1の部分オブジェクトOB22とで瞬きを実現することができる。これにより、瞬き演出を行うのに要する処理負荷の増大化を抑制することができる。 On the other hand, according to this embodiment, blinking can be realized by one head object OB31 and one partial object OB22 which is a plate-shaped polygon having a relatively small processing load related to drawing. As a result, it is possible to suppress an increase in the processing load required for performing the blinking effect.

なお、瞬きについて説明したが、これに限られず、1単位の個別画像の一部を変化させる場合に本発明を適用することができる。具体的には、変化対象となる領域に対して重なるように部分オブジェクトを配置し、当該部分オブジェクトに対して当該領域に表示される変化後の部分画像に対応した部分テクスチャを貼り付ければよい。例えば、口を変える場合、服の模様を一部変更する場合にも本発明を適用することができる。 Although blinking has been described, the present invention is not limited to this, and the present invention can be applied when a part of an individual image of one unit is changed. Specifically, the partial object may be arranged so as to overlap the area to be changed, and the partial texture corresponding to the changed partial image displayed in the area may be pasted to the partial object. For example, the present invention can be applied when changing the mouth or when partially changing the pattern of clothes.

また、瞬き演出を行う場合に、ベース画像CP21の目の画像と同一の第1部分テクスチャTD21を用意して、当該第1部分テクスチャTD21を用いて第1部分画像CP23を表示させる構成としたが、これに限られず、第1部分テクスチャTD21を用意しない構成としてもよい。これにより、瞬き演出に要するデータ量の削減を好適に図ることができる。この場合、瞬き演出に対応したデータテーブルに、ベース画像CP21をそのまま表示する期間であることを特定するための情報を設定し、ステップS5013の処理の実行後に、当該期間中であるか否かを判定する処理を実行する。当該判定処理にて、ベース画像CP21をそのまま表示する期間であると判定した場合には、部分オブジェクトOB22の設定に係る処理(ステップS5014〜ステップS5017)を実行することなく、本演算処理を終了する。一方、ベース画像CP21をそのまま表示する期間でないと判定した場合には、部分オブジェクトOB22の設定に係る処理を実行する構成とするとよい。これにより、ベース画像CP21の一部を流用して瞬き演出を行うことが可能となる。但し、上記判定処理に係る処理負荷分だけ瞬き演出用演算処理の処理負荷が大きくなることに着目すれば、第1部分テクスチャTD21を予め用意しておく構成の方がよい。 Further, when performing the blinking effect, the first partial texture TD21 which is the same as the eye image of the base image CP21 is prepared, and the first partial image CP23 is displayed by using the first partial texture TD21. However, the configuration is not limited to this, and the first partial texture TD21 may not be prepared. As a result, it is possible to suitably reduce the amount of data required for blinking effect. In this case, information for specifying that the base image CP21 is to be displayed as it is is set in the data table corresponding to the blinking effect, and after the processing of step S5013 is executed, whether or not the period is in effect is determined. Execute the judgment process. If it is determined in the determination process that the period is for displaying the base image CP21 as it is, the calculation process is terminated without executing the process related to the setting of the partial object OB22 (steps S5014 to S5017). .. On the other hand, if it is determined that the period is not the period for displaying the base image CP21 as it is, it is preferable to execute the process related to the setting of the partial object OB22. This makes it possible to divert a part of the base image CP21 to perform a blinking effect. However, paying attention to the fact that the processing load of the blinking effect arithmetic processing increases by the processing load related to the determination processing, it is better to prepare the first partial texture TD 21 in advance.

特に、一般的に定期処理では、最大負荷が付与された場合であっても処理落ちしないように設計する必要がある。このため、上記構成の場合、上記判定処理及び部分オブジェクトOB22の設定に係る処理が実行された場合であっても処理落ちしないように設計する必要がある。これに対して、第1部分テクスチャTD21を用意する構成の場合、上記判定処理が必要なく、その分だけ余裕を持たせることができる。これにより、瞬き演出に要するテクスチャのデータ量の削減と、瞬き演出に起因する処理負荷の増大化の抑制とのバランスを取ることができる。 In particular, in general, in periodic processing, it is necessary to design so that the processing does not drop even when the maximum load is applied. Therefore, in the case of the above configuration, it is necessary to design so that the processing does not fail even when the processing related to the determination processing and the setting of the partial object OB22 is executed. On the other hand, in the case of the configuration in which the first partial texture TD21 is prepared, the above determination process is not necessary, and a margin can be provided by that amount. As a result, it is possible to balance the reduction of the amount of texture data required for the blinking effect and the suppression of the increase in the processing load caused by the blinking effect.

なお、瞬きの途中態様の様子を示す第2部分テクスチャTD22を設ける構成としたが、これに限られず、例えば第1部分テクスチャTD21及び第3部分テクスチャTD23に基づいて中間態様の部分テクスチャを作成する構成としてもよい。この場合、中間態様の部分テクスチャに係る画像データを用意する必要がないため、データ量の削減を図ることができる。但し、中間態様の部分テクスチャの作成に係る処理負荷を考慮すれば、中間態様の部分テクスチャを予め用意しておく構成の方が好ましい。 It should be noted that the configuration is such that the second partial texture TD22 showing the state of the intermediate aspect of blinking is provided, but the present invention is not limited to this, and for example, the partial texture of the intermediate aspect is created based on the first partial texture TD21 and the third partial texture TD23. It may be configured. In this case, since it is not necessary to prepare the image data related to the partial texture of the intermediate aspect, the amount of data can be reduced. However, considering the processing load related to the creation of the partial texture of the intermediate mode, it is preferable to prepare the partial texture of the intermediate mode in advance.

上記構成においては、部分オブジェクトOB22を設け、ベースオブジェクトOB21に対して部分オブジェクトOB22が重なるように両者の位置関係を設定することで瞬き演出を実現させる構成としたが、これに限られず、部分オブジェクトOB22を設けない構成としてもよい。この場合、部分テクスチャTD12を頭部オブジェクトOB31における目の領域に対して直接上書きする構成としてもよい。具体的には、ベーステクスチャTD11が貼り付けられた頭部オブジェクトOB31の目の領域に対応する頂点に対応付けて部分テクスチャTD12のUV座標を設定し、当該部分テクスチャTD12を上記目の領域に貼り付ける処理を実行する。但し、部分オブジェクトOB22は板ポリゴンであるため、当該部分オブジェクトOB22を構成する頂点の数は頭部オブジェクトOB31における目の領域を形成する頂点の数よりも少なくなり易い。このため、部分オブジェクトOB22を用いて瞬き演出を行う構成の方が、マッピングに係る処理負荷が軽くなり易い。 In the above configuration, the partial object OB22 is provided, and the positional relationship between the two is set so that the partial object OB22 overlaps with the base object OB21 to realize the blinking effect. However, the present invention is not limited to this. The configuration may be such that the OB 22 is not provided. In this case, the partial texture TD12 may be directly overwritten on the eye area in the head object OB31. Specifically, the UV coordinates of the partial texture TD12 are set in association with the vertices corresponding to the eye region of the head object OB31 to which the base texture TD11 is pasted, and the partial texture TD12 is pasted in the eye region. Execute the process of attaching. However, since the partial object OB22 is a plate polygon, the number of vertices constituting the partial object OB22 tends to be smaller than the number of vertices forming the eye region in the head object OB31. Therefore, the processing load related to the mapping tends to be lighter in the configuration in which the blinking effect is performed using the partial object OB22.

さらに、髪型オブジェクトOB32に対して貼り付けるテクスチャを複数種類設け、当該髪型オブジェクトOB32に貼り付けるテクスチャを場面に応じて切り換える構成としてもよい。 Further, a plurality of types of textures to be attached to the hairstyle object OB32 may be provided, and the textures to be attached to the hairstyle object OB32 may be switched according to the situation.

<その他の実施形態>
なお、上述した各実施形態の記載内容に限定されず、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能である。例えば以下のように変更してもよい。ちなみに、以下の別形態の構成を、上記実施の形態の構成に対して、個別に適用してもよく、組み合わせて適用してもよい。
<Other embodiments>
It should be noted that the description is not limited to the contents of each of the above-described embodiments, and various modifications and improvements can be made without departing from the spirit of the present invention. For example, it may be changed as follows. Incidentally, the following configuration of another embodiment may be applied individually or in combination to the configuration of the above embodiment.

(1)描画データを作成する上で必要となる画像データを、その必要となったタイミングでメモリモジュール133から読み出すのではなく、その必要となるタイミングよりも前に事前にVRAM134に読み出しておく構成としてもよい。このような事前読み出しを行うことにより、描画データの作成を好適に行うことが可能となる。特に、メモリモジュール133としてNAND型フラッシュメモリを用いる場合には、読み出しに要する時間がNOR型フラッシュメモリよりも長時間化してしまう傾向にあるため、このような構成に、上記事前読み出しの構成を適用すると効果的である。なお、VDP135において使用される画像データに加えて又は代えて、表示CPU131において使用されるプログラムやデータが事前に読み出される構成としてもよい。 (1) The image data required for creating the drawing data is not read from the memory module 133 at the required timing, but is read into the VRAM 134 in advance before the required timing. May be. By performing such pre-reading, it becomes possible to suitably create drawing data. In particular, when a NAND flash memory is used as the memory module 133, the time required for reading tends to be longer than that of the NOR flash memory. Therefore, the pre-reading configuration is applied to such a configuration. Then it is effective. In addition to or in place of the image data used in the VDP 135, the program or data used in the display CPU 131 may be read in advance.

(2)演出用の描画データが書き込まれる演出用のバッファと、図柄用の描画データが書き込まれる図柄用のバッファとが個別に設けられており、最終的な生成データの生成に際しては、背景用のバッファに書き込まれた描画データと、演出用のバッファに書き込まれた描画データと、図柄用の描画データに書き込まれた描画データと、が合成される構成としてもよい。また、これに代えて、第1演出用の描画データが作成されるバッファと、第2演出用の描画データが作成されるバッファとが存在していて、第1演出用の描画データは背景用の描画データと図柄用の描画データとの間に存在し、第2演出用の描画データは最前面に存在するように、描画データの合成が行われる構成としてもよい。 (2) A buffer for the effect in which the drawing data for the effect is written and a buffer for the design in which the drawing data for the pattern is written are separately provided, and when the final generated data is generated, it is used for the background. The drawing data written in the buffer of the above, the drawing data written in the buffer for effect, and the drawing data written in the drawing data for the design may be combined. Further, instead of this, there is a buffer in which drawing data for the first effect is created and a buffer in which drawing data for the second effect is created, and the drawing data for the first effect is for the background. The drawing data may be combined so that the drawing data exists between the drawing data of the above and the drawing data for the design and the drawing data for the second effect exists in the foreground.

(3)カメラ(視点)がワールド座標系に配置される画像データ毎に個別に設定される構成としたが、これに代えて、ワールド座標系に配置される全画像データに対して単一のカメラが共通して設定される構成としてもよい。 (3) The camera (viewpoint) is set individually for each image data placed in the world coordinate system, but instead of this, a single camera (viewpoint) is used for all image data placed in the world coordinate system. The camera may be set in common.

(4)ワールド座標系に配置された画像データは、背景画像、演出画像及び図柄画像の単位で投影される構成としたが、背景画像及び演出画像の単位でまとめて投影される構成としてもよく、演出画像及び図柄画像の単位でまとめて投影される構成としてもよく、全てがまとめて投影される構成としてもよい。 (4) The image data arranged in the world coordinate system is projected in units of a background image, a production image, and a pattern image, but it may be projected in units of a background image and a production image. , The structure may be such that the effect image and the pattern image are projected together in units, or the structure may be such that all are projected together.

(5)上作動口23への入賞に係る保留情報と下作動口24への入賞に係る保留情報とが区別して記憶されるとともに、下作動口24への入賞に係る保留情報が優先して消化される構成を適用してもよく、これとは逆に上作動口23への入賞に係る保留情報が優先して消化される構成を適用してもよい。 (5) The holding information related to the prize in the upper operating port 23 and the holding information related to the winning in the lower operating port 24 are stored separately, and the holding information related to the winning in the lower operating port 24 has priority. A configuration to be digested may be applied, and conversely, a configuration in which the pending information relating to the winning of the upper operating port 23 is preferentially digested may be applied.

また、上記構成において、複数の作動口が上下に並設されているのではなく、上作動口23に対応した第1作動口と、下作動口24に対応した第2作動口とが左右に並設された構成としてもよく、これら両作動口が斜めに並設された構成としてもよい。さらにまた、発射ハンドル41の操作態様に応じて、第1作動口への入賞のみ又は第2作動口への入賞のみを狙えるように、両作動口を離間して配置する構成としてもよい。 Further, in the above configuration, the plurality of operating ports are not arranged side by side, but the first operating port corresponding to the upper operating port 23 and the second operating port corresponding to the lower operating port 24 are left and right. It may be a configuration in which both actuation ports are arranged side by side, or a configuration in which both of these operating ports are arranged diagonally. Furthermore, depending on the operation mode of the firing handle 41, both operating ports may be arranged apart from each other so that only the winning of the first operating port or the winning of the second operating port can be aimed at.

また、上記構成において、メイン表示部33に、上作動口23への入賞に基づき取得された保留情報の当否判定の結果を表示する第1表示領域と、下作動口24への入賞に基づき取得された保留情報の当否判定の結果を表示する第2表示領域とを設けてもよい。この場合、上作動口23への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第1表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。また、下作動口24への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第2表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。 Further, in the above configuration, the main display unit 33 has a first display area for displaying the result of the winning / failing determination of the hold information acquired based on the winning of the upper operating port 23, and the acquisition based on the winning of the lower operating port 24. A second display area may be provided to display the result of the hit / miss determination of the reserved information. In this case, the variable display of the pattern in the first display area is based on the fact that the hold information acquired based on the winning of the upper operating port 23 is subject to the hit / fail judgment or based on the hit / fail judgment. Is started and the stop result corresponding to the hit / fail judgment is displayed, and the variation display of one game round is terminated. In addition, the variable display of the pattern is displayed in the second display area prior to the holding information acquired based on the winning of the lower operating port 24 or based on the fact that the winning / failing judgment is made. At the same time as the start, the stop result corresponding to the hit / fail judgment is displayed, and the variation display of one game round is terminated.

(6)上作動口23への入賞に係る保留情報が当否判定の対象となった場合と、下作動口24への入賞に係る保留情報が当否判定の対象となった場合とで、遊技者が得られる利益が異なる構成としてもよい。また、上記各実施形態のように作動口を複数設ける構成においては、作動口の数は2個に限定されることはなく、3個以上であってもよい。また、作動口が1個のみ設けられた構成としてもよい。 (6) The player depends on the case where the hold information related to the winning of the upper operating port 23 is the target of the winning / failing judgment and the case where the holding information related to the winning of the lower operating port 24 is the target of the winning / failing judgment. May be configured so that the profits obtained are different. Further, in the configuration in which a plurality of operating ports are provided as in each of the above embodiments, the number of operating ports is not limited to two, and may be three or more. Further, the configuration may be such that only one operating port is provided.

(7)主制御装置50から出力されるコマンドに基づいて、音声発光制御装置60により表示制御装置70,130が制御される構成に代えて、主制御装置50から出力されるコマンドに基づいて、表示制御装置70,130が音声発光制御装置60を制御する構成としてもよい。また、音声発光制御装置60と表示制御装置70,130とが別々に設けられた構成に代えて、両制御装置が一の制御装置として設けられた構成としてもよく、それら両制御装置のうち一方の機能が主制御装置50に集約されていてもよく、それら両制御装置の両機能が主制御装置50に集約されていてもよい。また、主制御装置50から音声発光制御装置60に出力されるコマンドの構成も任意である。 (7) Based on the command output from the main control device 50, instead of the configuration in which the display control devices 70 and 130 are controlled by the voice emission control device 60, based on the command output from the main control device 50. The display control devices 70 and 130 may be configured to control the voice emission control device 60. Further, instead of the configuration in which the voice emission control device 60 and the display control devices 70 and 130 are separately provided, a configuration in which both control devices are provided as one control device may be used, and one of the two control devices may be provided. Functions may be integrated in the main control device 50, or both functions of both control devices may be integrated in the main control device 50. Further, the configuration of the command output from the main control device 50 to the voice emission control device 60 is also arbitrary.

(8)上記各実施形態とは異なる他のタイプのパチンコ機等、例えば特別装置の特定領域に遊技球が入ると電動役物が所定回数開放するパチンコ機や、特別装置の特定領域に遊技球が入ると権利が発生して大当たりとなるパチンコ機、他の役物を備えたパチンコ機、アレンジボール機、雀球等の遊技機にも、本発明を適用できる。 (8) Other types of pachinko machines different from the above embodiments, for example, pachinko machines in which the electric accessory is opened a predetermined number of times when the game ball enters a specific area of the special device, or a game ball in a specific area of the special device. The present invention can also be applied to a pachinko machine, which is a big hit when a right is entered, a pachinko machine equipped with other accessories, an arrange ball machine, a game machine such as a sparrow ball, and the like.

また、弾球式でない遊技機、例えば、複数種の図柄が周方向に付された複数の周回体として複数のリールを備え、メダルの投入及びスタートレバーの操作によりリールの回転を開始し、ストップスイッチが操作されることでリールが停止した後に、表示窓から視認できる有効ライン上に特定図柄又は特定図柄の組み合わせが成立していた場合にはメダルの払い出し等といった特典を遊技者に付与するスロットマシンにも、本発明を適用できる。この場合、スロットマシンの各種制御に対して本発明を適用できるとともに、リールとは別に液晶表示装置といった表示装置を備えた構成においては当該表示制御装置における画像の表示に係る制御に対して本発明を適用できる。 In addition, a non-bullet type gaming machine, for example, a plurality of reels as a plurality of orbiters with a plurality of types of symbols attached in the circumferential direction is provided, and the reels are started to rotate by inserting medals and operating the start lever, and then stopped. A slot that gives the player benefits such as paying out medals when a specific symbol or a combination of specific symbols is established on the effective line that can be seen from the display window after the reel is stopped by operating the switch. The present invention can also be applied to a machine. In this case, the present invention can be applied to various controls of the slot machine, and in a configuration provided with a display device such as a liquid crystal display device in addition to the reel, the present invention is applied to the control related to the display of images in the display control device. Can be applied.

また、取込装置を備え、貯留部に貯留されている所定数の遊技球が取込装置により取り込まれた後にスタートレバーが操作されることによりリールの回転を開始する、パチンコ機とスロットマシンとが融合された遊技機にも、本発明を適用できる。 In addition, a pachinko machine and a slot machine that are equipped with a take-in device and start the rotation of the reel by operating the start lever after a predetermined number of game balls stored in the storage unit are taken in by the take-in device. The present invention can also be applied to a gaming machine in which the above is fused.

<上記実施形態から抽出される発明群について>
以下、上述した実施形態から抽出される発明群の特徴について、必要に応じて効果等を示しつつ説明する。なお以下においては、理解の容易のため、上記実施形態において対応する構成を括弧書き等で適宜示すが、この括弧書き等で示した具体的構成に限定されるものではない。
<About the invention group extracted from the above embodiment>
Hereinafter, the characteristics of the invention group extracted from the above-described embodiments will be described while showing the effects and the like as necessary. In the following, for the sake of easy understanding, the corresponding configurations in the above-described embodiment are appropriately shown in parentheses or the like, but the present invention is not limited to the specific configurations shown in the parentheses or the like.

<特徴A群>
特徴A1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記データ生成手段は、
複数の個別画像を含む画像群を前記表示部に表示させる場合に適用する前記パラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)と、
当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic A group>
Features A1. A display means (design display device 31) having a display unit (display surface G) and
When an image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152), and the update timing is set in advance. Display control means (display circuit 155 of VDP135) for updating the contents of the image, and
Equipped with
In a gaming machine, the data generation means generates the generated data based on using the image data and applying the parameter data that determines the display mode of the image by the image data.
The data generation means is
Derivation means for deriving the parameter data to be applied when displaying an image group including a plurality of individual images on the display unit (a function for executing the processing of steps S2204, S2208 and S2212 in VDP135, or step S2305 in VDP135. , Step S2310, step S2317),
Based on the use of the specific image data in a state where the parameter data derived by the derivation means is applied to the specific image data (object PC17 for particle dispersion), the generated data for displaying the image group on the display unit. Means for image groups that enable generation (a function of executing the processing of steps S2206, S2210 and S2214 in the VDP135, or a function of executing the processing of steps S2307, S2313 and S2319 in the VDP135) and
Equipped with
The derivation means sets the first parameter data (for example, the first key data KD1) applied when displaying the image group at the first update timing and the second update timing after the first update timing. Using the second parameter data (for example, the second key data KD2) applied when displaying the image group, the image group is displayed at the update timing between the first update timing and the second update timing. A gaming machine characterized by having a specific derivation means (a function of executing the process of step S2208 in the VDP 135 or a function of executing the process of step S2310 in the VDP 135) for deriving the specific parameter data applied when displaying. ..

特徴A1によれば、複数の個別画像を含む画像群が表示されることにより、表示内容の複雑化が可能となり、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。 According to the feature A1, by displaying an image group including a plurality of individual images, it is possible to complicate the display contents and increase the interest of the player in the image displayed on the display unit. Become.

この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。 In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived by using the first parameter data and the second parameter data, the specific parameter data is derived. The data capacity can be reduced in that it is not necessary to store the data in advance, and it is possible to ensure the continuity of the first parameter data and the second parameter data.

さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。 Furthermore, the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing are the first parameter data and the second parameter as specific parameter data. It is derived collectively using data. As a result, the parameter data to be referred to when deriving the parameter data among the plurality of individual images included in the image group corresponds to the same update timing. Therefore, the processing load for deriving the specific parameter data can be reduced.

特徴A2.前記画像群には、第1個別画像(例えば粒子単体画像PT1)と第2個別画像(例えば粒子単体画像PT2)とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータとを含む前記特定パラメータデータを導出するものであることを特徴とする特徴A1に記載の遊技機。
Feature A2. The image group includes a first individual image (for example, a single particle image PT1) and a second individual image (for example, a single particle image PT2).
The first parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image.
The second parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image.
The specific derivation means is applied when the parameter data applied when displaying the first individual image and the case of displaying the second individual image by using the first parameter data and the second parameter data. The gaming machine according to feature A1, wherein the specific parameter data including the parameter data to be obtained is derived.

特徴A2によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。 According to the feature A2, each of the first parameter data, the second parameter data, and the specific parameter data has parameter data corresponding to each of the first individual image and the second individual image included in the image group. Become. As a result, in a configuration in which the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing are collectively derived as specific parameter data, the time is required. When the display mode of the first individual image and the second individual image is changed with the progress of the above, it is possible to make the changing mode correspond to each individual image.

特徴A3.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであることを特徴とする特徴A1又はA2に記載の遊技機。 Feature A3. The game according to feature A1 or A2, wherein the specific derivation means derives the specific parameter data by blending the first parameter data and the second parameter data in a predetermined ratio. Machine.

特徴A3によれば、第1パラメータデータと第2パラメータデータとをそのまま利用しながら特定パラメータデータを導出することが可能となる。 According to the feature A3, it is possible to derive the specific parameter data while using the first parameter data and the second parameter data as they are.

特徴A4.前記画像群には、第1個別画像と第2個別画像とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、
前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用される第1特定パラメータデータと、前記第2個別画像を表示させる場合に適用される第2特定パラメータデータとを含む前記特定パラメータデータを導出するものでり、
且つ、特定の更新タイミングにて前記特定パラメータデータを導出する場合において、前記第1特定パラメータデータを導出する場合における前記所定の比率と、前記第2特定パラメータデータを導出する場合における前記所定の比率とが同一であることを特徴とする特徴A3に記載の遊技機。
Feature A4. The image group includes a first individual image and a second individual image.
The first parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image.
The second parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image.
The specific derivation means is
Using the first parameter data and the second parameter data, the first specific parameter data applied when displaying the first individual image and the second applied when displaying the second individual image. 2 The specific parameter data including the specific parameter data is derived.
Moreover, in the case of deriving the specific parameter data at a specific update timing, the predetermined ratio in the case of deriving the first specific parameter data and the predetermined ratio in the case of deriving the second specific parameter data. The gaming machine according to feature A3, which is characterized by being the same as.

特徴A4によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。 According to the feature A4, each of the first parameter data, the second parameter data, and the specific parameter data has parameter data corresponding to each of the first individual image and the second individual image included in the image group. Become. As a result, in a configuration in which parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is collectively derived as specific parameter data, the time is required. When the display mode of the first individual image and the second individual image is changed with the progress of the above, it is possible to make the changing mode correspond to each individual image.

また、このように各個別画像に対応した各パラメータデータを含むようにして特定パラメータデータを導出する構成において、第1個別画像に対応した第1特定パラメータデータを導出する場合に用いられる所定の比率と、第2個別画像に対応した第2特定パラメータデータを導出する場合に用いられる所定の比率とが同一となっている。これにより、所定の比率の情報を共通して使用することが可能となり、所定の比率がそれぞれ異なる構成に比べて処理負荷の軽減が図られる。 Further, in the configuration in which the specific parameter data is derived so as to include the parameter data corresponding to each individual image in this way, the predetermined ratio used when deriving the first specific parameter data corresponding to the first individual image is used. The predetermined ratio used when deriving the second specific parameter data corresponding to the second individual image is the same. As a result, the information of the predetermined ratio can be used in common, and the processing load can be reduced as compared with the configuration in which the predetermined ratio is different.

特徴A5.前記第1更新タイミングと前記第2更新タイミングとの間には、前記画像群の表示態様が変更される更新タイミングが複数存在しており、
前記特定導出手段は、前記第1更新タイミングと前記第2更新タイミングとの間にて前記画像群の表示態様が変更される複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとを用いて前記特定パラメータデータを導出するものであることを特徴とする特徴A1乃至A4のいずれか1に記載の遊技機。
Feature A5. Between the first update timing and the second update timing, there are a plurality of update timings in which the display mode of the image group is changed.
The specific derivation means has the first parameter data and the second parameter at each of a plurality of update timings in which the display mode of the image group is changed between the first update timing and the second update timing. The gaming machine according to any one of features A1 to A4, characterized in that the specific parameter data is derived using the data.

特徴A5によれば、第1更新タイミングと第2更新タイミングとの間に含まれる複数の更新タイミングのそれぞれにおいて同一の特定パラメータデータを用いるのではなく、それぞれの更新タイミングにて個別に特定パラメータデータが導出される構成であるため、第1パラメータデータから第2パラメータデータへと除々に近付くようにパラメータデータを導出することが可能となる。これにより、画像群の表示態様を一連のものとして遊技者に視認させることが可能となる。 According to the feature A5, the same specific parameter data is not used for each of the plurality of update timings included between the first update timing and the second update timing, but the specific parameter data is individually specified at each update timing. Is derived, so that the parameter data can be derived so as to gradually approach the second parameter data from the first parameter data. This makes it possible for the player to visually recognize the display mode of the image group as a series.

また、複数の更新タイミングのそれぞれにおいて用いられるパラメータデータが第1パラメータデータと第2パラメータデータとを用いて導出される構成であるため、それらパラメータデータを予め記憶させておく構成に比べ、データ容量の削減が図られる。さらにまた、それら複数のパラメータデータは、いずれも第1パラメータデータと第2パラメータデータとを用いて導出されるため、それら複数のパラメータデータを導出する上で参照すべきパラメータデータの種類を変更する必要が生じない。よって、処理負荷の軽減が図られる。 Further, since the parameter data used at each of the plurality of update timings is derived using the first parameter data and the second parameter data, the data capacity is compared with the configuration in which the parameter data is stored in advance. Is reduced. Furthermore, since the plurality of parameter data are all derived using the first parameter data and the second parameter data, the type of parameter data to be referred to when deriving the plurality of parameter data is changed. No need arises. Therefore, the processing load can be reduced.

特徴A6.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであり、
前記データ生成手段は、前記複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとをブレンドする場合における前記所定の比率を決定する比率決定手段(表示CPU131におけるステップS2109の処理を実行する機能、又はVDP135におけるステップS2309の処理を実行する機能)を備え、
当該比率決定手段は、前記複数の更新タイミングにおいて一の更新タイミングから次の更新タイミングとなった場合の前記所定の比率の変化量と、当該次の更新タイミングからさらに次の更新タイミングとなった場合の前記所定の比率の変化量とが同一となるように前記決定を行うものであることを特徴とする特徴A5に記載の遊技機。
Feature A6. The specific derivation means derives the specific parameter data by blending the first parameter data and the second parameter data in a predetermined ratio.
The data generation means is a ratio determining means (processing of step S2109 in the display CPU 131) for determining the predetermined ratio when the first parameter data and the second parameter data are blended at each of the plurality of update timings. (Or a function to execute the process of step S2309 in VDP135).
The ratio determining means is a change amount of the predetermined ratio when one update timing is changed to the next update timing in the plurality of update timings, and a case where the next update timing is further changed from the next update timing. The gaming machine according to feature A5, wherein the determination is made so that the amount of change in the predetermined ratio is the same.

特徴A6によれば、第1更新タイミングと第2更新タイミングとの間の複数の更新タイミングのそれぞれでは、一定の変化量で所定の比率を変更していくだけでよいため、所定の比率を変化させる上での構成の簡素化が図られる。 According to the feature A6, at each of the plurality of update timings between the first update timing and the second update timing, it is only necessary to change the predetermined ratio by a constant amount of change, so that the predetermined ratio is changed. The above configuration is simplified.

特徴A7.一の更新タイミングにおける画像を表示させるのに必要は画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を出力する描画指示手段(表示CPU131)を備え、
前記表示制御手段は、前記描画指示手段にて指示されている情報に従って画像の表示を行わせるものであり、
当該表示制御手段が、前記特定導出手段を有していることを特徴とする特徴A1乃至A6のいずれか1に記載の遊技機。
Feature A7. It is provided with a drawing instruction means (display CPU 131) that outputs drawing instruction information (drawing list) including at least information for designating image data and parameter data applied to the image data, which is necessary for displaying an image at one update timing. ,
The display control means causes the image to be displayed according to the information instructed by the drawing instruction means.
The gaming machine according to any one of features A1 to A6, wherein the display control means has the specific derivation means.

特徴A7によれば、描画指示手段側において特定パラメータデータを導出する必要がないため、当該描画指示手段の処理負荷の軽減が図られる。 According to the feature A7, since it is not necessary to derive the specific parameter data on the drawing instruction means side, the processing load of the drawing instruction means can be reduced.

特徴A8.前記第1パラメータデータ、前記第2パラメータデータ及び前記特定パラメータデータは、前記画像群が表示される位置を決定するための座標情報を含んでいることを特徴とする特徴A1乃至A7のいずれか1に記載の遊技機。 Feature A8. One of the features A1 to A7, wherein the first parameter data, the second parameter data, and the specific parameter data include coordinate information for determining a position where the image group is displayed. The game machine described in.

特徴A8によれば、既に説明したような優れた効果を奏しながら、画像群に含まれる各個別画像の位置が変化していく画像を表示することが可能となる。 According to the feature A8, it is possible to display an image in which the position of each individual image included in the image group changes while achieving the excellent effect as described above.

特徴A9.前記特定パラメータデータに対応した座標情報は、前記画像群に含まれる各個別画像の位置が、前記第1パラメータデータにより定まる位置と、前記第2パラメータデータにより定まる位置とを結ぶ仮想直線上となるようにする座標情報であることを特徴とする特徴A8に記載の遊技機。 Feature A9. The coordinate information corresponding to the specific parameter data is on a virtual straight line connecting the position of each individual image included in the image group to the position determined by the first parameter data and the position determined by the second parameter data. The gaming machine according to feature A8, which is characterized by coordinate information.

特徴A9によれば、第1パラメータデータにより定まる位置から、第2パラメータデータにより定まる位置へと移動しているように画像群を表示させる場合において、それらの両位置を結ぶ直線上を移動するように特定パラメータデータを導出するだけでよいため、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出する上で、当該導出に際しての処理負荷の軽減が図られる。 According to the feature A9, when the image group is displayed as if it is moving from the position determined by the first parameter data to the position determined by the second parameter data, it moves on a straight line connecting both positions. Since it is only necessary to derive the specific parameter data, the processing load at the time of deriving the specific parameter data can be reduced in deriving the specific parameter data using the first parameter data and the second parameter data.

特徴A10.前記導出手段は、前記第1パラメータデータ及び前記第2パラメータデータを記憶手段(メモリモジュール133)から読み出すことで導出するものであることを特徴とする特徴A1乃至A9のいずれか1に記載の遊技機。 Feature A10. The game according to any one of features A1 to A9, wherein the derivation means is derived by reading the first parameter data and the second parameter data from a storage means (memory module 133). Machine.

特徴A10によれば、第1更新タイミングにおいては第1パラメータデータを読み出して用い、第2更新タイミングにおいては第2パラメータデータを読み出して用いるだけでよいため、それら更新タイミングにおける処理負荷の軽減が図られる。その一方、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいては、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出すればよいため、それだけパラメータデータを記憶しておくためのデータ容量が削減できる。つまり、本構成によれば、データ容量及び処理負荷の両方のバランスを図りながら、画像群を用いた表示を行うことが可能となる。 According to the feature A10, it is only necessary to read and use the first parameter data at the first update timing and read and use the second parameter data at the second update timing, so that the processing load at those update timings can be reduced. Will be. On the other hand, at the update timing between the first update timing and the second update timing, the specific parameter data may be derived using the first parameter data and the second parameter data, so that the parameter data is stored accordingly. The amount of data to keep can be reduced. That is, according to this configuration, it is possible to perform display using an image group while balancing both the data capacity and the processing load.

特徴A11.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備え、
前記特定画像データは、オブジェクトの画像データに対応しており、前記画像群に含まれる前記複数の個別画像はそれぞれ、前記オブジェクトの画像データの各頂点データに対応していることを特徴とする特徴A1乃至A10のいずれか1に記載の遊技機。
Feature A11. The data generation means is an arrangement means (a function of executing the processing of steps S1002 to S1004 in VDP135) for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. The image data of the object is projected onto the viewpoint setting means (function for executing the process of step S1006 in VDP135) and the projection plane set based on the viewpoint, and the data is projected on the projection plane. A drawing setting means (a function of executing the process of steps S101 to S1012 in VDP135) for generating generated data is provided.
The specific image data corresponds to the image data of the object, and each of the plurality of individual images included in the image group corresponds to each vertex data of the image data of the object. The gaming machine according to any one of A1 to A10.

特徴A11によれば、3次元情報を利用したリアルな画像表示を可能とした構成において、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。 According to the feature A11, in a configuration that enables realistic image display using three-dimensional information, one object may be arranged in a virtual three-dimensional space when displaying an image group, so that the processing load can be reduced. However, it is possible to display a group of images.

特徴A12.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定画像データの使用指示情報が含まれている場合、前記特定画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A11に記載の遊技機。
Feature A12. The arrangement means has drawing instruction means (display CPU 131) that includes information for designating image data necessary for displaying an image at one update timing and drawing instruction information (drawing list) including at least parameter data applied to the image data. ) Is output, and by arranging the image data in the virtual three-dimensional space according to the information instructed by the drawing instruction information, it is possible to generate the generated data corresponding to the drawing instruction information. It is something to do
When displaying the image group, the drawing instruction means includes the use instruction information of the specific image data in the drawing instruction information.
When the drawing instruction information includes the use instruction information of the specific image data, the arrangement means generates data for displaying the image group by arranging the specific image data in the virtual three-dimensional space. The gaming machine according to feature A11, which is characterized in that it enables generation.

特徴A12によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。 According to the feature A12, when the image group is displayed, the drawing instruction means only needs to include the usage instruction information for one object in the drawing instruction information, so that the processing load required for setting the drawing instruction information can be reduced. At the same time, the data capacity of drawing instruction information can be reduced.

特徴A13.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、複数の個別画像を含む画像群を前記表示部に表示させる場合に適用するパラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)を備え、
前記配置手段は、当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
Feature A13. Arrangement means for arranging image data of objects that are three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (Function to execute the process of step S1006 in VDP135) and the image data of the object is projected on the projection plane set based on the viewpoint, and the generated data (drawing data) is based on the data projected on the projection plane. ), And the data generation means (display CPU 131, geometry calculation unit 151, rendering unit 152) having the drawing setting means (function for executing the process of steps S101 to S1012 in VDP135). A storage means for storing (frame buffer 142) and
A display control means (display circuit 155 of VDP135) that outputs and displays an image corresponding to the generated data stored in the storage means to the display means (design display device 31), and
In a gaming machine equipped with
The data generation means has a function of executing processing of steps S2204, S2208 and S2212 in VDP135 for deriving parameter data to be applied when displaying an image group including a plurality of individual images on the display unit. Alternatively, the VDP 135 includes step S2305, step S2310, and step S2317).
The arrangement means uses the specific image data in a state where the parameter data derived by the derivation means is applied to the specific image data (object PC17 for particle dispersion), and the image group is displayed on the display unit. Means for image groups that enable generation of generated data to be displayed (a function of executing the processes of steps S2206, S2210 and S2214 in the VDP135, or a function of executing the processes of steps S2307, S2313 and S2319 in the VDP135). When,
Equipped with
The derivation means sets the first parameter data (for example, the first key data KD1) applied when displaying the image group at the first update timing and the second update timing after the first update timing. Using the second parameter data (for example, the second key data KD2) applied when displaying the image group, the image group is displayed at the update timing between the first update timing and the second update timing. A gaming machine characterized by having a specific derivation means (a function of executing the process of step S2208 in the VDP 135 or a function of executing the process of step S2310 in the VDP 135) for deriving the specific parameter data applied when displaying. ..

特徴A13によれば、3次元情報を利用したリアルな画像表示が可能となり、さらには複数の個別画像を含む画像群が表示されることにより表示内容の複雑化が可能となる。よって、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。 According to the feature A13, it is possible to display a realistic image using three-dimensional information, and further, it is possible to complicate the display contents by displaying an image group including a plurality of individual images. Therefore, it is possible to increase the player's interest in the image displayed on the display unit.

この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。 In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived by using the first parameter data and the second parameter data, the specific parameter data is derived. The data capacity can be reduced in that it is not necessary to store the data in advance, and it is possible to ensure the continuity of the first parameter data and the second parameter data.

さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。 Furthermore, the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing are the first parameter data and the second parameter as specific parameter data. It is derived collectively using data. As a result, the parameter data to be referred to when deriving the parameter data among the plurality of individual images included in the image group corresponds to the same update timing. Therefore, the processing load for deriving the specific parameter data can be reduced.

特徴A14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示制御手段は、特定の生成データを用いることにより、複数の個別画像を含む画像群を同時に表示させる構成であり、
前記画像群を表示させるために前記配置手段により前記仮想3次元空間に配置される画像データは、当該画像群に含まれる前記複数の個別画像のそれぞれが、各頂点データに対応付けられている特定オブジェクトの画像データ(粒子分散用オブジェクトPC17)であることを特徴とする遊技機。
Feature A14. Arrangement means for arranging image data of objects that are three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (Function to execute the process of step S1006 in VDP135), the image data of the object is projected on the projection plane set based on the viewpoint, and the generated data is generated based on the data projected on the projection plane. Generated data (drawing data) generated by a data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) having a drawing setting means (a function of executing the process of steps S101 to S1012 in VDP135). A storage means for storing (frame buffer 142) and
A display control means (display circuit 155 of VDP135) that outputs and displays an image corresponding to the generated data stored in the storage means to the display means (design display device 31), and
In a gaming machine equipped with
The display control means is configured to simultaneously display an image group including a plurality of individual images by using specific generated data.
In the image data arranged in the virtual three-dimensional space by the arrangement means for displaying the image group, each of the plurality of individual images included in the image group is associated with each vertex data. A gaming machine characterized by being image data of an object (object PC17 for particle dispersion).

特徴A14によれば、3次元情報を利用したリアルな画像表示が可能となる。この場合に、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。 According to the feature A14, a realistic image display using three-dimensional information becomes possible. In this case, when displaying the image group, one object may be arranged in the virtual three-dimensional space, so that the image group can be displayed while reducing the processing load.

特徴A15.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定オブジェクトの画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定オブジェクトの画像データの使用指示情報が含まれている場合、当該特定オブジェクトの画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A14に記載の遊技機。
Feature A15. The arrangement means has drawing instruction means (display CPU 131) that includes information for designating image data necessary for displaying an image at one update timing and drawing instruction information (drawing list) including at least parameter data applied to the image data. ) Is output, and by arranging the image data in the virtual three-dimensional space according to the information instructed by the drawing instruction information, it is possible to generate the generated data corresponding to the drawing instruction information. It is something to do
When displaying the image group, the drawing instruction means includes the use instruction information of the image data of the specific object in the drawing instruction information.
When the drawing instruction information includes the use instruction information of the image data of the specific object, the arrangement means displays the image group by arranging the image data of the specific object in the virtual three-dimensional space. The gaming machine according to feature A14, characterized in that it enables generation of generated data.

特徴A15によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。 According to the feature A15, when the image group is displayed, the drawing instruction means only needs to include the usage instruction information for one object in the drawing instruction information, so that the processing load required for setting the drawing instruction information can be reduced. At the same time, the data capacity of drawing instruction information can be reduced.

上記特徴A群の発明は、以下の課題に対して効果的である。 The invention of the above-mentioned feature A group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where the image is displayed using the two-dimensional image data, the image data for displaying the background and the image data for displaying the character etc. are stored in the memory for the image data. Has been done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated for a storage means such as VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set on the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the polygon. Generated data is generated by projecting a polygon with a texture attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a three-dimensional image is displayed.

ここで、個別画像の表示方向を複雑なものとしたり、複数の個別画像を同時に表示させることにより、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となると考えられる。しかしながら、このような画像の表示を行う場合に、処理負荷が極端に増加してしまうことや、データ容量が極端に増加してしまうことは好ましくない。 Here, it is considered that the player's interest in the image displayed on the display unit can be increased by complicating the display direction of the individual image or displaying a plurality of individual images at the same time. However, when displaying such an image, it is not preferable that the processing load is extremely increased or the data capacity is extremely increased.

本発明は、上記例示した事情等に鑑みてなされたものであり、処理負荷を抑えながら、表示演出を良好に行うことが可能な遊技機を提供することを目的とするものである。 The present invention has been made in view of the above-exemplified circumstances and the like, and an object of the present invention is to provide a gaming machine capable of performing a good display effect while suppressing a processing load.

<特徴B群>
特徴B1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記配置手段による前記仮想3次元空間への配置対象となるオブジェクトの画像データには、複数の面を定めることが可能なデータを有し且つそれら複数の面データ(面データSD)によって3次元形状を定めることが可能な多面オブジェクトの画像データ(海面用オブジェクトPC19)が含まれており、
前記データ生成手段は、
複数の更新タイミングに亘って前記多面オブジェクトの画像データに対応した多面画像を表示させるべく前記仮想3次元空間に前記多面オブジェクトの画像データを配置する場合に、前記多面画像の表示態様が変更されるように前記複数の面データのうち少なくとも一部についての前記仮想3次元空間への配置態様を変更させる配置態様変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135における海面表示用の設定処理を実行する機能)と、
当該配置態様変更手段により前記配置態様が変更された前記面データに対して適用する色情報を、当該面データの配置態様に応じて当該面データ単位で変更させることにより、前記多面画像の少なくとも一部の領域の表示色が複数の更新タイミング間において異なることとなる画像表示を可能とする表示色変更手段(VDP135における海面表示用の色情報設定処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Characteristic B group>
Feature B1. Arrangement means for arranging image data of objects that are three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (Function to execute the process of step S1006 in VDP135) and the image data of the object is projected on the projection plane set based on the viewpoint, and the generated data (drawing data) is based on the data projected on the projection plane. ), And the data generation means (display CPU 131, geometry calculation unit 151, rendering unit 152) having the drawing setting means (function for executing the process of steps S101 to S1012 in VDP135). A storage means for storing (frame buffer 142) and
A display control means (VDP135) that displays an image corresponding to the generated data stored in the storage means on the display means (design display device 31) and updates the contents of the image when a predetermined update timing is reached. Display circuit 155) and
In a gaming machine equipped with
The image data of the object to be arranged in the virtual three-dimensional space by the arrangement means has data capable of defining a plurality of surfaces, and the three-dimensional shape is formed by the plurality of surface data (surface data SD). Image data of a multi-faceted object (object PC19 for sea surface) that can be defined is included.
The data generation means is
When the image data of the multi-faceted object is arranged in the virtual three-dimensional space in order to display the multi-faceted image corresponding to the image data of the multi-faceted object over a plurality of update timings, the display mode of the multi-faceted image is changed. As described above, an arrangement mode changing means for changing the arrangement mode of at least a part of the plurality of surface data in the virtual three-dimensional space (a function of executing arithmetic processing for sea surface display in the display CPU 131, for sea surface display in VDP 135). Function to execute the setting process of) and
By changing the color information applied to the surface data whose arrangement mode has been changed by the arrangement mode changing means in units of the surface data according to the arrangement mode of the surface data, at least one of the multifaceted images. Display color changing means (a function to execute color information setting processing for sea surface display in VDP135) that enables image display in which the display color of the area is different between a plurality of update timings, and
A gaming machine characterized by being equipped with.

特徴B1によれば、複数の面データのうち少なくとも一部についての配置態様が変更されるとともに、当該配置態様が変更された面データに適用される色情報がその配置態様の変更に伴って変更される。これにより、表示演出を複雑化させることが可能となり、表示演出への遊技者の興味を高めることが可能となる。 According to the feature B1, the arrangement mode of at least a part of the plurality of surface data is changed, and the color information applied to the surface data whose arrangement mode is changed is changed according to the change of the arrangement mode. Will be done. This makes it possible to complicate the display effect and increase the player's interest in the display effect.

また、上記色情報の変更は、面データの配置態様に応じて当該面データ単位で行われる。これにより、色情報が変更されるパターンに対応させて多数のテクスチャを事前に記憶させておかなくても、面データの配置態様に応じた色情報の設定を行うことが可能となる。よって、データ容量の増大化を抑制しながら、表示演出への遊技者の興味を高めることが可能となる。 Further, the change of the color information is performed in the surface data unit according to the arrangement mode of the surface data. This makes it possible to set the color information according to the arrangement mode of the surface data without storing a large number of textures in advance corresponding to the pattern in which the color information is changed. Therefore, it is possible to increase the player's interest in the display effect while suppressing the increase in the data capacity.

なお、「前記配置態様変更手段は、前記配置態様を変更させる場合、前記複数の面データのうち少なくとも一部について、向き、形状及びサイズのうち少なくとも一つを変更させる」という構成が上記構成に含まれる。 In addition, the configuration that "when the arrangement mode is changed, the arrangement mode changing means changes at least one of the orientation, the shape, and the size of at least a part of the plurality of surface data" is in the above configuration. included.

特徴B2.前記配置態様変更手段は、前記複数の面データのうち一部の面データの配置態様を変更させ、且つ他の面データの配置態様を当該一部の面データに対する配置態様の変更に対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1に記載の遊技機。 Feature B2. The arrangement mode changing means is a means for changing the arrangement mode of a part of the surface data among the plurality of surface data and making the arrangement mode of the other surface data correspond to the change of the arrangement mode for the part of the surface data. The gaming machine according to feature B1, characterized in that it is provided with (a function of executing a normal parameter setting process in VDP135).

特徴B2によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。 According to the feature B2, it is possible to individually control the arrangement mode of the surface data while not losing the continuity between the surface data.

特徴B3.前記配置態様変更手段は、前記多面画像において対応する領域が相互に連続しない非連続の面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つ前記多面画像において対応する領域が前記非連続の面データに対応する領域と連続する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記非連続の面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1又はB2に記載の遊技機。 Feature B3. The arrangement mode changing means changes a predetermined parameter that is at least one of orientation, shape, and size for discontinuous surface data (surface data SD1 to be applied) in which the corresponding regions in the multifaceted image are not continuous with each other. Means for making the predetermined parameter of the surface data (surface data SD2 for buffering) in which the corresponding region in the multi-faceted image corresponds to the region corresponding to the discontinuous surface data correspond to the discontinuous surface data. The gaming machine according to feature B1 or B2, characterized in that it is provided with (a function of executing a normal parameter setting process in VDP135).

特徴B3によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。特に、配置態様を積極的に変更させる対象を非連続の面データとし、当該非連続の面データに連続する面データについては、上記非連続の面データに対応させることにより、このような切り分けを行わずに配置態様の変更を行う構成に比べて、各面データ間の連続性を担保するための調整に要する処理負荷の軽減が図られる。 According to the feature B3, it is possible to individually control the arrangement mode of the surface data while not losing the continuity between the surface data. In particular, the target for which the arrangement mode is positively changed is the discontinuous surface data, and the surface data continuous with the discontinuous surface data is separated by corresponding to the discontinuous surface data. Compared with the configuration in which the arrangement mode is changed without performing the adjustment, the processing load required for the adjustment for ensuring the continuity between the surface data can be reduced.

なお、上記特徴B3のより具体的な構成としては、
「前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記頂点データを相互に共有していない面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つそれら変更対象となった面データと頂点データを共有する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記変更対象となった面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えている」
という構成が考えられる。
As a more specific configuration of the above feature B3,
"Each surface data is defined by a plurality of vertex data, and the predetermined plurality of surface data share some vertex data with each other.
The arrangement mode changing means changes a predetermined parameter, which is at least one of orientation, shape, and size, with respect to the surface data (surface data SD1 to be applied) that does not share the vertex data with each other, and changes them. Means for associating the predetermined parameter of the surface data (surface data SD2 for buffering) that shares the target surface data and the vertex data with the surface data to be changed (normal parameter setting process in VDP135). Has a function to execute) "
The configuration is conceivable.

特徴B4.前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記各頂点データの座標を個別に変更させることにより、前記各面データの向き、形状及びサイズのうち少なくとも一つを変更させるものであることを特徴とする特徴B1又はB2に記載の遊技機。
Feature B4. Each of the surface data is defined by a plurality of vertex data, and the predetermined plurality of surface data share a part of the vertex data with each other.
The feature B1 or the means for changing the arrangement mode is characterized in that at least one of the orientation, shape, and size of the surface data is changed by individually changing the coordinates of the vertex data. The gaming machine described in B2.

特徴B4によれば、一の頂点データの座標を変更することで、複数の面データの向き、形状及びサイズのうち少なくとも一つを変更することが可能となる。このように面データ単位でパラメータを制御するのではなく、頂点データ単位でパラメータを制御することで、面データ間の連続性を担保させるための処理構成をあえて設定しなくても、面データの配置態様を個別に制御することが可能となる。 According to the feature B4, by changing the coordinates of one vertex data, it is possible to change at least one of the orientation, shape and size of the plurality of surface data. By controlling the parameters in units of vertex data instead of controlling the parameters in units of surface data in this way, it is not necessary to set a processing configuration to ensure continuity between surface data. It is possible to individually control the arrangement mode.

特徴B5.前記配置態様変更手段は、
前記複数の面データの各配置態様を個別に変更させることを可能とする個別制御データ(第1法線マップデータND1、第2法線マップデータND2)を記憶手段(メモリモジュール133)から読み出すデータ読出手段(VDP135におけるステップS2503を実行する機能)と、
前記個別制御データを前記多面オブジェクトの画像データに適用する場合の態様を前記複数の更新タイミング間において異ならせる適用変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B4のいずれか1に記載の遊技機。
Feature B5. The arrangement mode changing means is
Data for reading individual control data (first normal map data ND1, second normal map data ND2) from a storage means (memory module 133), which makes it possible to individually change each arrangement mode of the plurality of surface data. Reading means (function to execute step S2503 in VDP135) and
A function of executing the processing of the application changing means (step S2506, step S2507, step S2511 and step S2512 in VDP135) in which the mode in which the individual control data is applied to the image data of the multifaceted object is different between the plurality of update timings. )When,
The gaming machine according to any one of features B1 to B4.

特徴B5によれば、予め記憶された個別制御データを利用して面データの配置態様を変更させる構成において、その個別制御データを利用しながら、複数の更新タイミング間において多面画像の表示態様を変更させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。 According to the feature B5, in the configuration in which the arrangement mode of the surface data is changed by using the individual control data stored in advance, the display mode of the multi-faceted image is changed between a plurality of update timings while using the individual control data. It is possible to make it. Therefore, it is possible to achieve the excellent effects as described above while balancing both the data capacity and the processing load.

特徴B6.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5に記載の遊技機。
Feature B6. The individual control data has a plurality of unit control data (unit normal data UND), and the unit control data is applied to the surface data or data that defines the surface data.
The application changing means changes the correspondence between the target data to which the unit control data is applied and the unit control data in the image data of the multifaceted object according to the switching of the update timing (in VDP135). The gaming machine according to feature B5, which comprises a function of executing the processes of step S2506, step S2507, step S2511, and step S2512).

特徴B6によれば、単位制御データを適用する対象のデータと当該単位制御データとの対応関係を切り換えることによって複数の更新タイミング間において多面画像の表示態様を変更させる構成であるため、個別制御データを利用しながら多面画像の表示態様を変更させる構成において処理負荷を軽減することが可能となる。 According to the feature B6, since the display mode of the multi-faceted image is changed between a plurality of update timings by switching the correspondence between the target data to which the unit control data is applied and the unit control data, the individual control data. It is possible to reduce the processing load in a configuration in which the display mode of the multi-faceted image is changed while using the above.

特徴B7.前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して複数の前記単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5又はB6に記載の遊技機。 Feature B7. The application changing means is a plurality of application means (step S2506, step S2507 in VDP135) for reflecting the contents of a plurality of the unit control data for one data of the target to which the unit control data is applied in the image data of the multifaceted object. , The gaming machine according to feature B5 or B6, characterized in that it is provided with a function of executing the processing of step S2511 and step S2512).

特徴B7によれば、単位制御データを参照しながら配置態様を変更させる構成において、その変更させる配置態様の多様化が図られる。 According to the feature B7, in the configuration in which the arrangement mode is changed while referring to the unit control data, the arrangement mode to be changed can be diversified.

特徴B8.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記データ読出手段は、複数の前記個別制御データを前記記憶手段から読み出すものであり、
前記適用変更手段は、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して、前記複数の個別制御データのそれぞれの単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の個別制御データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴B5又はB6に記載の遊技機。
Feature B8. The individual control data has a plurality of unit control data (unit normal data UND), and the unit control data is applied to the surface data or data that defines the surface data.
The data reading means reads a plurality of the individual control data from the storage means.
The application change means
A plurality of application means (step S2507 and step in VDP135) for reflecting the content of each unit control data of the plurality of individual control data with respect to one data of the target to which the unit control data is applied in the image data of the multifaceted object. Function to execute the processing of S2512) and
In the image data of the multi-faceted object, the correspondence between the target data to which the unit control data is applied and the unit control data is changed according to the switching of the update timing, and the change of the correspondence is changed to the plurality of individual control data. Correspondence relationship changing means (function for executing the processing of step S2506 and step S2511 in VDP135) and
The gaming machine according to the feature B5 or B6, which comprises the above-mentioned feature B5 or B6.

特徴B8によれば、遊技機設計段階における個別制御データの設計の容易化を図りながら、配置態様を複雑に変化させることが可能となる。 According to the feature B8, it is possible to change the arrangement mode in a complicated manner while facilitating the design of the individual control data at the game machine design stage.

特徴B9.前記配置態様変更手段は、
複数の前記面データを含む一群のデータについてまとめて配置態様を変更させる第1変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135におけるステップS2504及びステップS2509を実行する機能)と、
当該第1変更手段により配置態様が変更された前記一群のデータに含まれる各面データの配置態様を個別に変更させる第2変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B8のいずれか1に記載の遊技機。
Feature B9. The arrangement mode changing means is
With the first changing means for collectively changing the arrangement mode of a group of data including the plurality of surface data (a function of executing arithmetic processing for sea level display in the display CPU 131, a function of executing steps S2504 and S2509 in VDP135). ,
Processing of the second changing means (step S2506, step S2507, step S2511 and step S2512 in VDP135) for individually changing the arrangement mode of each surface data included in the group of data whose arrangement mode is changed by the first changing means. Function to execute) and
The gaming machine according to any one of features B1 to B8.

特徴B9によれば、大きな流れに沿って配置態様を変更するようにしながら、面データ単位での配置態様を複雑に変化させることが可能となる。 According to the feature B9, it is possible to change the arrangement mode in the surface data unit in a complicated manner while changing the arrangement mode along a large flow.

なお、このような作用効果を生じさせるより具体的な構成としては、「前記第1変更手段により変更される配置態様の種類は、位置、向き及びサイズの少なくとも一つであり、前記第2変更手段により変更される配置態様の種類には、前記第1変更手段により変更される配置対象の種類の少なくとも一部が含まれている」構成が考えられる。 In addition, as a more specific configuration that causes such an action and effect, "the type of the arrangement mode changed by the first changing means is at least one of the position, the orientation, and the size, and the second changing means. The type of arrangement mode changed by the means includes at least a part of the types of arrangement targets changed by the first changing means. "

また、「前記多面オブジェクトの画像データには、前記一群のデータが複数含まれており、前記第1変更手段は、それら複数の一群のデータの配置態様を個別に変更させるものである」構成が考えられる。 Further, the configuration "the image data of the multi-faceted object includes a plurality of data of the group, and the first changing means individually changes the arrangement mode of the data of the plurality of groups". Conceivable.

特徴B10.前記表示色変更手段は、
前記配置態様変更手段による変更対象となった配置態様に応じて、前記面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702〜ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記配置態様とは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B9のいずれか1に記載の遊技機。
Feature B10. The display color changing means is
A classification specifying means (step S2702-step in VDP135) for specifying whether or not the color information applied to the surface data is included in the predetermined classification according to the layout mode to be changed by the layout mode changing means. Function to execute S2705) and
Color information for selecting color information applied to the surface data specified to be included in the predetermined category by the category specifying means from a plurality of stages of color information based on a parameter of a type different from the arrangement mode. Selection means (function to execute steps S2706 and S2707 in VDP135) and
The gaming machine according to any one of features B1 to B9.

特徴B10によれば、配置態様に応じて色情報を変化させながら、さらに配置態様とは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、リアルな画像表示を実現することが可能となる。 According to the feature B10, the color information is determined based on the parameters different from the arrangement mode while changing the color information according to the arrangement mode, so that the color information can be set in a complicated manner. This makes it possible to realize a realistic image display.

特徴B11.前記配置態様変更手段は、前記面データの向きを少なくとも変更させるものであり、
前記表示色変更手段は、前記視点に対する前記面データの角度に基づき、当該面データに適用する色情報を変更させるものであることを特徴とする特徴B1乃至B10のいずれか1に記載の遊技機。
Feature B11. The arrangement mode changing means at least changes the orientation of the surface data.
The gaming machine according to any one of features B1 to B10, wherein the display color changing means changes the color information applied to the surface data based on the angle of the surface data with respect to the viewpoint. ..

特徴B11によれば、面の向きに応じた色情報の設定を行うことが可能となり、多面画像の表示をリアルに行うことが可能となる。 According to the feature B11, it is possible to set the color information according to the orientation of the surface, and it is possible to realistically display the multi-faceted image.

特徴B12.前記表示色変更手段は、
前記配置態様変更手段により変更された前記面データの向きに応じて、当該面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702〜ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記向きとは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B11に記載の遊技機。
Feature B12. The display color changing means is
A category specifying means (step S2702- in VDP135) for specifying whether or not the color information applied to the surface data is included in the predetermined category according to the orientation of the surface data changed by the arrangement mode changing means. Function to execute step S2705) and
Color information selection that selects color information applied to the surface data specified to be included in the predetermined category by the category specifying means from a plurality of stages of color information based on a parameter of a type different from the orientation. Means (function to execute steps S2706 and S2707 in VDP135) and
The gaming machine according to feature B11, characterized in that the machine is equipped with.

特徴B12によれば、面の向きに応じて色情報を変化させながら、さらに面の向きとは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、多面画像の表示をリアルに行うことが可能となる。 According to the feature B12, the color information is determined based on a parameter different from the orientation of the surface while changing the color information according to the orientation of the surface, so that the color information can be set in a complicated manner. This makes it possible to realistically display a multi-faceted image.

特徴B13.前記色情報選択手段は、前記区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記視点からの所定方向の距離に基づき、複数段階の色情報の中から選択するものであることを特徴とする特徴B12に記載の遊技機。 Feature B13. The color information selection means obtains color information applied to the surface data specified to be included in the predetermined category by the category specifying means in a plurality of stages of color information based on a distance in a predetermined direction from the viewpoint. The gaming machine according to feature B12, which is characterized in that it is selected from among them.

特徴B13によれば、面の向きだけでなく面の位置に応じて色情報が変化するため、多面画像の表示をリアルに行うことが可能となる。 According to the feature B13, since the color information changes not only according to the orientation of the surface but also according to the position of the surface, it is possible to realistically display the multi-faceted image.

上記特徴B群の発明は、以下の課題に対して効果的である。 The invention of the above-mentioned feature B group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, an object that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the object. Generated data is generated by projecting the textured object onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a three-dimensional image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the interest of the player in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity is extremely increased.

<特徴C群>
特徴C1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic C group>
Features C1. A display means (design display device 31) having a display unit (display surface G) and
When an image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152), and the update timing is set in advance. Display control means (display circuit 155 of VDP135) for updating the contents of the image, and
In a gaming machine equipped with
The display mode of the image in the display unit includes a mode in which the player recognizes that a plurality of individual images are displayed in a positional relationship shifted in the depth direction of the display unit. ,
The data generation means is an individual image displayed so that the player can recognize that it exists on the front side in the depth direction with respect to a predetermined reference position in the depth direction, and the back side in the depth direction. The target individual image, which is at least one of the individual images displayed so as to be recognized by the player as being present in, is contoured as compared with the image recognized by the player as being present at the reference position. A gaming machine characterized in that it is equipped with a blur setting means (a function of executing an adjustment process for focusing effect in VDP135) so that a line becomes blurred and is displayed in a blurred state.

特徴C1によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。 According to the feature C1, it is possible to perform a display effect as if the reference position is in focus, and it is possible to perform a display effect with a sense of depth.

特徴C2.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記生成データは、色情報が設定された単位データを多数有しており、
前記ぼかし設定手段は、
前記設定用記憶手段に設定された前記画像データに対応したデータであって前記各単位データを生じさせる各データのそれぞれについて前記奥行きパラメータを導出するパラメータ導出手段(VDP135におけるステップS3101〜ステップS3107を実行する機能)と、
前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していないデータに対してぼかし発生処理を実行することにより、当該データに対応した画像部分がぼかした状態で表示されるようにするぼかし実行手段(VDP135におけるステップS3110〜ステップS3115を実行する機能)と、
を備えていることを特徴とする特徴C1に記載の遊技機。
Feature C2. The data generation means generates the generated data based on setting the image data, and further sets the image data in a state where the depth parameter corresponding to the display position in the depth direction is applied. Based on this, the display mode is such that the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction.
The generated data has a large number of unit data in which color information is set.
The blur setting means is
Parameter derivation means (steps S3101 to S3107 in VDP135) for deriving the depth parameter for each of the data corresponding to the image data set in the setting storage means and generating the unit data is executed. Function to do) and
By executing the blur generation process for the data whose depth parameter does not correspond to the reference parameter corresponding to the reference position, the blur execution is performed so that the image portion corresponding to the data is displayed in a blurred state. Means (function to execute steps S310 to S3115 in VDP135) and
The gaming machine according to feature C1, characterized in that the machine is equipped with.

特徴C2によれば、ぼかした状態とするための画像データを予め記憶させておく必要がないため、データ容量の削減を図りながら、ぼかした状態での表示を行うことが可能となる。また、各単位データを生じさせる各データのそれぞれについて奥行きパラメータが導出される構成であるため、ぼかした状態の表示を細かく制御することが可能となる。 According to the feature C2, since it is not necessary to store the image data for the blurred state in advance, it is possible to display the image in the blurred state while reducing the data capacity. Further, since the depth parameter is derived for each of the data that causes each unit data, it is possible to finely control the display of the blurred state.

特徴C3.前記表示手段における表示演出として、前記ぼかした状態での表示が複数の更新タイミングに亘って行われるぼかし表示演出が含まれており、
前記パラメータ導出手段は、前記奥行きパラメータの導出を、1回の前記ぼかし表示演出の一の更新タイミングと他の更新タイミングとのそれぞれにおいて行うものであることを特徴とする特徴C2に記載の遊技機。
Feature C3. The display effect in the display means includes a blur display effect in which the display in the blurred state is performed over a plurality of update timings.
The gaming machine according to feature C2, wherein the parameter derivation means derives the depth parameter at each of one update timing and another update timing of the blur display effect. ..

特徴C3によれば、表示演出の進行に応じて、ぼかした状態の表示を変化させることが可能となる。 According to the feature C3, it is possible to change the display in the blurred state according to the progress of the display effect.

特徴C4.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記パラメータ導出手段は、前記投影後の2次元情報のデータに含まれる各単位データのそれぞれについて前記奥行きパラメータを導出するものであり、
前記ぼかし実行手段は、前記投影後の2次元情報のデータに対して、前記奥行きパラメータを利用して前記ぼかし発生処理を実行するものであることを特徴とする特徴C2又はC3に記載の遊技機。
Feature C4. The data generation means is an arrangement means (a function of executing the processing of steps S1002 to S1004 in VDP135) for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. 2D information projected on the projection plane by projecting the image data of the object onto the viewpoint setting means (function for executing the process of step S1006 in VDP135) and the projection plane set based on the viewpoint. It is provided with a drawing setting means (a function of executing the process of steps S101 to S1012 in VDP135) for generating generated data which is two-dimensional information based on the data of the above.
The parameter derivation means derives the depth parameter for each unit data included in the projected two-dimensional information data.
The gaming machine according to feature C2 or C3, wherein the blur execution means executes the blur generation process using the depth parameter with respect to the data of the two-dimensional information after projection. ..

特徴C4によれば、奥行きパラメータの導出やぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、これら処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature C4, since the depth parameter is derived and the blur generation processing is performed not for the three-dimensional information data but for the two-dimensional information data, the processing load is reduced. However, it is possible to achieve the above-mentioned excellent effects.

特徴C5.前記ぼかし実行手段は、前記ぼかし発生処理として、前記投影後の2次元情報のデータに含まれる単位データの色情報をその周囲の単位データの色情報とブレンディングさせる処理(VDP135におけるステップS3206、ステップS3212及びステップS3217を実行する機能)を実行するものであることを特徴とする特徴C4に記載の遊技機。 Feature C5. The blur execution means, as the blur generation process, is a process of blending the color information of the unit data included in the two-dimensional information data after projection with the color information of the surrounding unit data (steps S3206 and S3212 in VDP135). The gaming machine according to feature C4, characterized in that the function of executing step S3217) is executed.

特徴C5によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。この場合に、そのブレンディングさせる処理は、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C5, since the process of blending is executed when the blur occurs, it is possible to display the blurred state according to the type of the image displayed in the display effect of the blurred state. , It is possible to preferably display the blurred state. In this case, since the blending process is not performed on the three-dimensional information data but on the two-dimensional information data, the blurred state is displayed while reducing the processing load. Can be preferably performed.

特徴C6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記ぼかし設定手段は、前記投影後の2次元情報のデータに対してぼかし発生処理を実行することにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C5のいずれか1に記載の遊技機。
Feature C6. The data generation means is an arrangement means (a function of executing the processing of steps S1002 to S1004 in VDP135) for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. 2D information projected on the projection plane by projecting the image data of the object onto the viewpoint setting means (function for executing the process of step S1006 in VDP135) and the projection plane set based on the viewpoint. It is provided with a drawing setting means (a function of executing the process of steps S101 to S1012 in VDP135) for generating generated data which is two-dimensional information based on the data of the above.
The blur setting means is characterized in that the target individual image is displayed in a blurred state by executing a blur generation process on the data of the two-dimensional information after projection. The gaming machine according to any one of the features C1 to C5.

特徴C6によれば、ぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature C6, since the blurring generation process is not performed on the three-dimensional information data but on the two-dimensional information data, the processing load is reduced as described above. It is possible to achieve an excellent effect.

特徴C7.前記ぼかし設定手段は、前記ぼかした状態での表示を行う場合、特別画像(教示用の個別画像CH15,CH16)については、前記基準位置に対して前記奥行き方向にずれた位置に存在していると遊技者に認識されるように表示されるとしても、前記ぼかした状態での表示対象から除外するものであることを特徴とする特徴C1乃至C6のいずれか1に記載の遊技機。 Feature C7. When the blur setting means displays in the blurred state, the special images (individual images CH15 and CH16 for teaching) are present at positions deviated from the reference position in the depth direction. The gaming machine according to any one of features C1 to C6, which is characterized in that it is excluded from the display target in the blurred state even if it is displayed so as to be recognized by the player.

特徴C7によれば、ぼかした状態での表示を行う場合、基準位置に対してずれた位置に存在しているように表示されている個別画像に対して一律にぼかした状態での表示を適用しようとすると、遊技者に認識させるべき情報を認識させづらくしてしまう可能性が生じる。これに対して、特別画像については、基準位置に存在しているように表示されているか否かに関係なく、ぼかした状態での表示対象から除外する構成としたことにより、上記のような不都合の発生を抑制しながら、ぼかした状態での表示を実現することが可能となる。 According to feature C7, when displaying in a blurred state, the display in a uniformly blurred state is applied to individual images that are displayed as if they exist at a position deviated from the reference position. Attempting to do so may make it difficult for the player to recognize the information to be recognized. On the other hand, the special image is excluded from the display target in the blurred state regardless of whether or not it is displayed as if it exists at the reference position, which causes the above-mentioned inconvenience. It is possible to realize the display in a blurred state while suppressing the occurrence of.

なお、前記特別画像には、遊技者に遊技状況を教示するために用いられる教示用画像が含まれる。 The special image includes a teaching image used to teach the player the game situation.

特徴C8.前記特別画像は、前記基準位置に対して前記奥行き方向の手前側に存在していると遊技者に認識されるように表示される画像であることを特徴とする特徴C7に記載の遊技機。 Feature C8. The gaming machine according to feature C7, wherein the special image is an image displayed so that the player can recognize that the special image exists on the front side in the depth direction with respect to the reference position.

特徴C8によれば、特別画像がぼかした状態の表示対象から除外される構成において、それが意図的に除外されていると遊技者に認識させ易くなる。よって、ぼかした状態の表示演出に違和感を与えることなく、特別画像をぼかした状態の表示対象から除外することが可能となる。 According to the feature C8, in the configuration in which the special image is excluded from the display target in the blurred state, it becomes easy for the player to recognize that the special image is intentionally excluded. Therefore, it is possible to exclude the special image from the display target in the blurred state without giving a sense of discomfort to the display effect in the blurred state.

特徴C9.遊技者による操作を受け付ける操作受付手段(演出用操作装置48)を備え、
前記ぼかし設定手段は、前記操作受付手段に対する遊技者の操作に基づき、前記基準位置を変更させるものであることを特徴とする特徴C1乃至C8のいずれか1に記載の遊技機。
Feature C9. Equipped with an operation receiving means (operation device 48 for directing) that accepts operations by the player.
The gaming machine according to any one of features C1 to C8, wherein the blur setting means changes the reference position based on the operation of the player with respect to the operation receiving means.

特徴C9によれば、ぼかした状態の表示演出の画一化が抑えられ、当該表示演出への注目度を高めることが可能となる。 According to the feature C9, the standardization of the display effect in the blurred state is suppressed, and it is possible to increase the degree of attention to the display effect.

特徴C10.前記ぼかし設定手段は、予め定められた第1表示期間(遊技回)では前記ぼかした状態の表示を行わず、前記ぼかした状態の表示に要する処理を除いた処理の処理負荷が前記第1表示期間よりも低い第2表示期間(ラウンド遊技)にて前記ぼかした状態の表示を行うものであることを特徴とする特徴C1乃至C9のいずれか1に記載の遊技機。 Feature C10. The blur setting means does not display the blurred state during the predetermined first display period (game times), and the processing load of the processing excluding the processing required for displaying the blurred state is the first display. The gaming machine according to any one of features C1 to C9, characterized in that the blurred state is displayed in a second display period (round game) lower than the period.

特徴C10によれば、ぼかした状態の表示を行う場合における更新タイミングの処理負荷が極端に増加してしまうことが抑制される。 According to the feature C10, it is suppressed that the processing load of the update timing in the case of displaying the blurred state is extremely increased.

特徴C11.前記データ生成手段は、画像データを設定することに基づき前記生成データを生成するものであり、
前記ぼかし設定手段は、前記画像データによって決定付けられる少なくとも一部の色情報をその周囲の色情報とブレンディングさせることにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C10のいずれか1に記載の遊技機。
Feature C11. The data generation means generates the generated data based on setting the image data.
The blur setting means blends at least a part of the color information determined by the image data with the surrounding color information so that the target individual image is displayed in a blurred state. The gaming machine according to any one of features C1 to C10.

特徴C11によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C11, since the process of blending is executed when the blurring occurs, it is possible to display the blurred state according to the type of the image displayed in the display effect of the blurred state. , It is possible to preferably display the blurred state.

特徴C12.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記ぼかし設定手段は、前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していない画像データに対してぼかし発生処理を実行することにより、当該画像データに対応した前記対象個別画像がぼかした状態で表示されるようにするものであり、
前記基準パラメータは、前記基準位置が前記奥行き方向の所定範囲に対応するように所定のパラメータ範囲を有していることを特徴とする特徴C1乃至C11のいずれか1に記載の遊技機。
Feature C12. The data generation means generates the generated data based on setting the image data, and further sets the image data in a state where the depth parameter corresponding to the display position in the depth direction is applied. Based on this, the display mode is such that the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction.
The blur setting means blurs the target individual image corresponding to the image data by executing a blur generation process on the image data whose depth parameter does not correspond to the reference parameter corresponding to the reference position. It is intended to be displayed in the state,
The gaming machine according to any one of features C1 to C11, wherein the reference parameter has a predetermined parameter range so that the reference position corresponds to the predetermined range in the depth direction.

特徴C12によれば、被写界深度をある程度広げた状態で、ぼかした状態の表示を行うことが可能となる。よって、ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C12, it is possible to display a blurred state with the depth of field widened to some extent. Therefore, it is possible to preferably display the blurred state.

特徴C13.前記ぼかし設定手段は、前記基準位置から前記奥行き方向に所定距離だけ離れた位置に存在していると遊技者に認識される画像よりも、当該所定距離よりも前記奥行き方向に遠い位置に存在していると遊技者に認識される画像の方が前記ぼかした状態で表示される度合いが大きくなるようにするものであることを特徴とする特徴C1乃至C12のいずれか1に記載の遊技機。 Feature C13. The blur setting means exists at a position farther in the depth direction than the predetermined distance from an image recognized by the player as being present at a position separated by a predetermined distance in the depth direction from the reference position. The gaming machine according to any one of features C1 to C12, characterized in that the image recognized by the player is displayed in a blurred state to a greater degree.

特徴C13によれば、ぼかした状態の表示をよりリアルに行うことが可能となる。 According to the feature C13, it is possible to display the blurred state more realistically.

特徴C14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
Feature C14. Arrangement means for arranging image data of objects that are three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (Function to execute the process of step S1006 in VDP135) and the image data of the object is projected on the projection plane set based on the viewpoint, and the generated data (drawing data) is based on the data projected on the projection plane. ), And the data generation means (display CPU 131, geometry calculation unit 151, rendering unit 152) having the drawing setting means (function for executing the process of steps S101 to S1012 in VDP135). A storage means for storing (frame buffer 142) and
A display control means (display circuit 155 of VDP135) that outputs and displays an image corresponding to the generated data stored in the storage means to the display means (design display device 31), and
In a gaming machine equipped with
The display mode of the image in the display unit includes a mode in which the player recognizes that a plurality of individual images are displayed in a positional relationship shifted in the depth direction of the display unit. ,
The data generation means is an individual image displayed so that the player can recognize that it exists on the front side in the depth direction with respect to a predetermined reference position in the depth direction, and the back side in the depth direction. The target individual image, which is at least one of the individual images displayed so as to be recognized by the player as being present in, is contoured as compared with the image recognized by the player as being present at the reference position. A gaming machine characterized in that it is equipped with a blur setting means (a function of executing an adjustment process for focusing effect in VDP135) so that a line becomes blurred and is displayed in a blurred state.

特徴C14によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。 According to the feature C14, it is possible to perform a display effect as if the reference position is in focus, and it is possible to perform a display effect with a sense of depth.

上記特徴C群の発明は、以下の課題に対して効果的である。 The invention of the above-mentioned feature C group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where the image is displayed using the two-dimensional image data, the image data for displaying the background and the image data for displaying the character etc. are stored in the memory for the image data. Has been done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated for a storage means such as VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, an object that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the object. Drawing data is created by projecting an object with a texture attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the drawing data, so that a three-dimensional image is displayed.

ここで、表示演出への遊技者の注目度を高めるためには、よりリアルな画像表示を行うことが好ましく、この点について未だ改良の余地がある。 Here, in order to increase the player's attention to the display effect, it is preferable to display a more realistic image, and there is still room for improvement in this respect.

<特徴D群>
特徴D1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101〜ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
<Characteristic D group>
Feature D1. A display means (design display device 31) having a display unit (display surface G) and
When an image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152), and the update timing is set in advance. Display control means (display circuit 155 of VDP135) for updating the contents of the image, and
Equipped with
In a gaming machine, the data generation means generates the generated data based on using the image data and applying the parameter data that determines the display mode of the image by the image data.
The generated data has a large number of unit data in which color information is set.
The data generation means is a set data derivation means (step in VDP135) for deriving set data (normal map data ND1, ND2, blur map data) to be used for each generation unit data that generates each unit data. A function for executing S2503 and a function for executing steps S3101 to S3107 in VDP135) are provided, and each unit parameter data included in the aggregate data derived by the aggregate data derivation means is applied to the generation unit data. By generating the generated data and changing at least one of the method of applying the aggregated data and the content of the aggregated data to be applied, the generated data in which the same type of individual images are displayed in different modes is generated. A game machine characterized by being something to do.

特徴D1によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。 According to the feature D1, since each unit parameter data group is treated as a set data, the processing can be simplified with respect to the handling of the data. In addition, by changing at least one of the method of applying the set data and the content of the set data to be applied, the generated data in which the same type of individual image is displayed in different modes is generated. It is possible to diversify the display effect while suppressing the amount of image data stored in advance.

特徴D2.前記集合データ導出手段は、記憶手段(メモリモジュール133)から前記集合データ(第1法線マップデータND1、第2法線マップデータND2)を読み出すことで当該集合データを導出するものであることを特徴とする特徴D1に記載の遊技機。 Feature D2. The set data derivation means derives the set data by reading the set data (first normal map data ND1 and second normal map data ND2) from the storage means (memory module 133). The gaming machine according to the feature D1.

特徴D2によれば、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D2, it is possible to achieve the above-mentioned excellent effect while reducing the processing load.

特徴D3.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出される前記集合データ(第1法線マップデータND1、第2法線マップデータND2)は、前記仮想3次元空間に配置されている前記オブジェクトの画像データに対して適用されることを特徴とする特徴D1又はD2に記載の遊技機。
Feature D3. The data generation means is an arrangement means (a function of executing the processing of steps S1002 to S1004 in VDP135) for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. 2D information projected on the projection plane by projecting the image data of the object onto the viewpoint setting means (function for executing the process of step S1006 in VDP135) and the projection plane set based on the viewpoint. It is provided with a drawing setting means (a function of executing the process of steps S101 to S1012 in VDP135) for generating generated data which is two-dimensional information based on the data of the above.
The set data (first normal map data ND1 and second normal map data ND2) derived by the set data derivation means is applied to the image data of the object arranged in the virtual three-dimensional space. The gaming machine according to feature D1 or D2, characterized in that it is played.

特徴D3によれば、集合データを利用して3次元情報の画像データの配置態様を変更することが可能となるため、リアルな画像表示を実現しながら、さらに複雑な画像表示を行うことが可能となる。この場合に、その複雑な画像表示を行う場合において、上記のとおり集合データを利用する構成であるため、データ容量及び処理負荷の両方のバランスを図ることが可能となる。 According to the feature D3, since it is possible to change the arrangement mode of the image data of the three-dimensional information by using the set data, it is possible to perform a more complicated image display while realizing a realistic image display. It becomes. In this case, in the case of performing the complicated image display, since the configuration uses the aggregate data as described above, it is possible to balance both the data capacity and the processing load.

特徴D4.前記集合データ導出手段は、前記画像データが設定された状態において、当該設定された状態に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであり、
前記データ生成手段は、その導出された前記集合データを、前記画像データから作成されたデータに対して適用することに基づき、前記生成データを生成するものであることを特徴とする特徴D1乃至D3のいずれか1に記載の遊技機。
Feature D4. The set data derivation means derives the set data (blurring map data) by specifying the unit parameter data (Z value) corresponding to the set state in the state where the image data is set. It is a thing
The data generation means is characterized in that the generated data is generated based on applying the derived set data to the data created from the image data. The gaming machine according to any one of.

特徴D4によれば、集合データを予め記憶させておく必要がないため、データ容量の削減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D4, since it is not necessary to store the set data in advance, it is possible to achieve the above-mentioned excellent effect while reducing the data capacity.

特徴D5.前記集合データ導出手段は、前記集合データを用いて前記生成データが生成される状況において、各生成データのそれぞれに対応した前記集合データを導出するものであることを特徴とする特徴D4に記載の遊技機。 Feature D5. Described in feature D4, the set data deriving means derives the set data corresponding to each of the generated data in a situation where the generated data is generated using the set data. Gaming machine.

特徴D5によれば、各更新タイミングにおいて異なる集合データを用いることが可能となり、表示演出の多様化を図ることが可能となる。また、この場合であっても、集合データは予め記憶されているのではなく、その都度作成されるため、データ容量の削減を図りながら、表示演出の多様化を図ることが可能となる。 According to the feature D5, it is possible to use different set data at each update timing, and it is possible to diversify the display effect. Further, even in this case, since the set data is not stored in advance but is created each time, it is possible to diversify the display effect while reducing the data capacity.

特徴D6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段は、前記配置手段による前記オブジェクトの画像データの配置態様に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであることを特徴とする特徴D4又はD5に記載の遊技機。
Feature D6. The data generation means is an arrangement means (a function of executing the processing of steps S1002 to S1004 in VDP135) for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. 2D information projected on the projection plane by projecting the image data of the object onto the viewpoint setting means (function for executing the process of step S1006 in VDP135) and the projection plane set based on the viewpoint. It is provided with a drawing setting means (a function of executing the process of steps S101 to S1012 in VDP135) for generating generated data which is two-dimensional information based on the data of the above.
The set data derivation means derives the set data (blurring map data) by specifying the unit parameter data (Z value) according to the placement mode of the image data of the object by the placement means. The gaming machine according to the feature D4 or D5.

特徴D6によれば、3次元情報の画像データを利用することでリアルな画像表示を実現した構成において、そのリアルな画像表示を可能とするデータ設定態様に則して集合データが作成されるため、集合データの利用がリアルな画像表示に悪影響を及してしまわないようにすることが可能となる。 According to feature D6, in a configuration that realizes a realistic image display by using image data of three-dimensional information, aggregate data is created according to a data setting mode that enables the realistic image display. , It is possible to prevent the use of aggregate data from adversely affecting the realistic image display.

特徴D7.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出された前記集合データ(ぼかしマップデータ)は、前記投影後の2次元情報のデータに対して適用されることを特徴とする特徴D1乃至D6のいずれか1に記載の遊技機。
Feature D7. The data generation means is an arrangement means (a function of executing the processing of steps S1002 to S1004 in VDP135) for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. 2D information projected on the projection plane by projecting the image data of the object onto the viewpoint setting means (function for executing the process of step S1006 in VDP135) and the projection plane set based on the viewpoint. It is provided with a drawing setting means (a function of executing the process of steps S101 to S1012 in VDP135) for generating generated data which is two-dimensional information based on the data of the above.
The description in any one of features D1 to D6, wherein the set data (blurred map data) derived by the set data derivation means is applied to the data of the two-dimensional information after projection. Game machine.

特徴D7によれば、集合データは、3次元情報のデータに対して適用されるのではなく、2次元情報のデータに対して適用される構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D7, since the set data is not applied to the data of the three-dimensional information but is applied to the data of the two-dimensional information, the above is made while reducing the processing load. It is possible to produce excellent effects such as.

特徴D8.前記データ生成手段は、前記集合データの前記各単位パラメータデータを前記各生成用単位データに適用する場合の態様を複数の更新タイミング間において異ならせることに基づき、同一種類の個別画像の表示態様が変化していくことに対応した前記生成データを生成する生成実行手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能、ステップS1010〜ステップS1012を実行する機能)を備えていることを特徴とする特徴D1乃至D7のいずれか1に記載の遊技機。 Feature D8. The data generation means has different display modes of the same type of individual images among a plurality of update timings when the unit parameter data of the aggregate data is applied to the unit data for generation. It is provided with a generation execution means (a function of executing the processes of step S2506, step S2507, step S2511, and step S2512 in VDP135, and a function of executing steps S101 to S1012) to generate the generated data corresponding to the change. The gaming machine according to any one of features D1 to D7.

特徴D8によれば、単一の集合データを利用しながら、複数の更新タイミング間において同一種類の個別画像の表示態様を変化させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。 According to the feature D8, it is possible to change the display mode of the same type of individual image between a plurality of update timings while using a single set data. Therefore, it is possible to achieve the excellent effects as described above while balancing both the data capacity and the processing load.

特徴D9.前記生成実行手段は、前記各単位パラメータデータと前記各生成用単位データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8に記載の遊技機。 Feature D9. The generation execution means changes the correspondence between each unit parameter data and each generation unit data according to the switching of the update timing (step S2506, step S2507, step S2511 and step S in VDP135). The gaming machine according to feature D8, which is characterized by having a function of executing the process of S2512).

特徴D9によれば、単位パラメータデータと生成用単位データとの対応関係を切り換えることで、複数の更新タイミング間において画像の表示態様を変更させる構成であるため、集合データを利用しながら画像の表示態様を変更させる構成において、処理負荷を軽減することが可能となる。 According to the feature D9, since the display mode of the image is changed between a plurality of update timings by switching the correspondence between the unit parameter data and the unit data for generation, the image is displayed while using the aggregate data. It is possible to reduce the processing load in the configuration that changes the mode.

特徴D10.前記生成実行手段は、前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、複数の単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8又はD9に記載の遊技機。 Feature D10. The generation execution means is a plurality of application means (steps S2506 and S2507 in VDP135) that reflect the contents of a plurality of unit parameter data with respect to one data to which the unit parameter data is applied in each generation unit data. , The gaming machine according to feature D8 or D9, characterized in that it is provided with a function of executing the processing of step S2511 and step S2512).

特徴D10によれば、単位パラメータデータを参照しながら表示態様を変更させる構成において、その変更させる表示態様の多様化が図られる。 According to the feature D10, in the configuration in which the display mode is changed while referring to the unit parameter data, the display mode to be changed can be diversified.

特徴D11.前記集合データ導出手段は、前記集合データを複数導出するものであり、
前記生成実行手段は、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、前記複数の集合データのそれぞれの単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象のデータと当該単位パラメータデータとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の集合データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴D8に記載の遊技機。
Feature D11. The set data derivation means derives a plurality of the set data.
The generation execution means is
A plurality of application means (step S2507 and step S2512 in VDP135) for reflecting the content of each unit parameter data of the plurality of aggregate data for one data to which the unit parameter data is applied in each generation unit data. Function to execute the processing of) and
In each of the generation unit data, the correspondence between the target data to which the unit parameter data is applied and the unit parameter data is changed according to the switching of the update timing, and the change of the correspondence is changed of the plurality of set data. Correspondence relationship changing means (function for executing the process of step S2506 and step S2511 in VDP135) to be performed for each, and
The gaming machine according to feature D8, characterized in that the machine is equipped with.

特徴D11によれば、遊技機設計段階における集合データの設計の容易化を図りながら、表示態様を複雑に変化させることが可能となる。 According to the feature D11, it is possible to change the display mode in a complicated manner while facilitating the design of the set data at the game machine design stage.

特徴D12.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101〜ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
Feature D12. Arrangement means for arranging image data of objects that are three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (Function to execute the process of step S1006 in VDP135) and the image data of the object is projected on the projection plane set based on the viewpoint, and the generated data (drawing data) is based on the data projected on the projection plane. ), And the data generation means (display CPU 131, geometry calculation unit 151, rendering unit 152) having the drawing setting means (function for executing the process of steps S101 to S1012 in VDP135). A storage means for storing (frame buffer 142) and
A display control means (display circuit 155 of VDP135) that outputs and displays an image corresponding to the generated data stored in the storage means to the display means (design display device 31), and
In a gaming machine equipped with
The generated data has a large number of unit data in which color information is set.
The data generation means is a set data derivation means (step in VDP135) for deriving set data (normal map data ND1, ND2, blur map data) to be used for each generation unit data that generates each unit data. A function for executing S2503 and a function for executing steps S3101 to S3107 in VDP135) are provided, and each unit parameter data included in the aggregate data derived by the aggregate data derivation means is applied to the generation unit data. By generating the generated data and changing at least one of the method of applying the aggregated data and the content of the aggregated data to be applied, the generated data in which the same type of individual images are displayed in different modes is generated. A game machine characterized by being something to do.

特徴D12によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。 According to the feature D12, since each unit parameter data group is treated as a set data, the processing can be simplified with respect to the handling of the data. In addition, by changing at least one of the method of applying the set data and the content of the set data to be applied, the generated data in which the same type of individual image is displayed in different modes is generated. It is possible to diversify the display effect while suppressing the amount of image data stored in advance.

上記特徴D群の発明は、以下の課題に対して効果的である。 The invention of the above-mentioned feature D group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where the image is displayed using the two-dimensional image data, the image data for displaying the background and the image data for displaying the character etc. are stored in the memory for the image data. Has been done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated for a storage means such as VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, an object that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the object. Drawing data is created by projecting an object with a texture attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the drawing data, so that a three-dimensional image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the interest of the player in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity is extremely increased.

<特徴E群>
特徴E1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、前記オブジェクトの画像データに対してテクスチャの画像データを設定するテクスチャ設定手段(VDPにおける特別キャラクタ用のテクスチャマッピング処理を実行する機能)を備え、
前記オブジェクトの画像データとして所定個別画像(特別キャラクタ)を表示させる場合に用いられる所定オブジェクトデータ(特別オブジェクトPC20)が含まれており、さらに前記テクスチャの画像データとして前記所定オブジェクトデータに対して設定される所定テクスチャデータ(第1部分テクスチャPC21〜PC23、第2部分テクスチャPC24〜PC27)が含まれており、
前記所定テクスチャデータは、
前記所定オブジェクトデータの第1パーツデータ(本体パーツ部BP)に対して設定される第1テクスチャデータ(第1部分テクスチャPC21〜PC23)と、
前記所定オブジェクトデータの第2パーツデータ(付属パーツ部AP1〜AP4)に対して設定される第2テクスチャデータ(第2部分テクスチャPC24〜PC27)と、
が含まれており、
前記テクスチャ設定手段は、
前記第1パーツデータに対して設定する前記第1テクスチャデータの種類を変更する第1設定手段(VDP135におけるステップS3401〜ステップS3403を実行する機能)と、
前記第2パーツデータに対して前記第2テクスチャデータを設定する場合において、当該第2パーツデータに対する当該第2テクスチャデータの設定位置関係を変更する第2設定手段(VDP135におけるステップS3405〜ステップS3409を実行する機能)と、
を備えていることを特徴とする遊技機。
<Characteristic E group>
Features E1. Arrangement means for arranging image data of objects that are three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (Function to execute the process of step S1006 in VDP135) and the image data of the object is projected on the projection plane set based on the viewpoint, and the generated data (drawing data) is based on the data projected on the projection plane. ), And the data generation means (display CPU 131, geometry calculation unit 151, rendering unit 152) having the drawing setting means (function for executing the process of steps S101 to S1012 in VDP135). A storage means for storing (frame buffer 142) and
A display control means (VDP135) that displays an image corresponding to the generated data stored in the storage means on the display means (design display device 31) and updates the contents of the image when a predetermined update timing is reached. Display circuit 155) and
In a gaming machine equipped with
The data generation means includes a texture setting means (a function of executing a texture mapping process for a special character in VDP) for setting a texture image data with respect to the image data of the object.
Predetermined object data (special object PC20) used when displaying a predetermined individual image (special character) is included as image data of the object, and is further set for the predetermined object data as image data of the texture. Predetermined texture data (first partial texture PC21 to PC23, second partial texture PC24 to PC27) is included.
The predetermined texture data is
The first texture data (first part texture PC21 to PC23) set for the first part data (main body part part BP) of the predetermined object data, and
The second texture data (second part textures PC24 to PC27) set for the second part data (attached parts parts AP1 to AP4) of the predetermined object data, and
Is included,
The texture setting means is
A first setting means (a function of executing steps S3401 to S3403 in VDP135) for changing the type of the first texture data set for the first part data, and
When the second texture data is set for the second part data, the second setting means (steps S3405 to S3409 in VDP135) for changing the setting positional relationship of the second texture data with respect to the second part data is performed. Function to execute) and
A gaming machine characterized by being equipped with.

特徴E1によれば、所定個別画像の外観を変化させる場合において、設定するテクスチャデータの種類をまとめて変更するのではなく、テクスチャデータの一部である第1テクスチャデータについては種類を変更する一方、テクスチャデータの他の一部である第2テクスチャデータについては第2パーツデータに対する設定位置関係を変更させる構成である。これにより、所定個別画像の一部については外観を複雑に変化させるようにしながら、他の一部については外観の変化の複雑さを低減する代わりにデータ容量の削減が図られる。よって、データ容量と処理負荷とのバランスを図りながら、上記のように所定個別画像の外観を変化させることが可能となる。 According to the feature E1, when changing the appearance of a predetermined individual image, the type of the first texture data that is a part of the texture data is changed instead of changing the types of the texture data to be set collectively. The second texture data, which is another part of the texture data, has a configuration in which the set positional relationship with respect to the second part data is changed. As a result, the appearance of a part of the predetermined individual image can be changed in a complicated manner, and the data capacity of the other part can be reduced instead of reducing the complexity of the change in the appearance. Therefore, it is possible to change the appearance of the predetermined individual image as described above while balancing the data capacity and the processing load.

特徴E2.前記所定個別画像において前記第2パーツデータが占める割合は、前記第1パーツデータが占める割合よりも小さいことを特徴とする特徴E1に記載の遊技機。 Feature E2. The gaming machine according to feature E1, wherein the ratio occupied by the second part data in the predetermined individual image is smaller than the ratio occupied by the first part data.

特徴E2によれば、テクスチャデータの種類ではなく設定位置関係が変更される領域は、テクスチャデータの設定位置関係ではなく種類が変更される領域に比べて、外観を変化させる場合においてその変化が乏しいものとなるが、前者の領域の方が小さいため、所定個別画像全体としては外観が大きく変化していると遊技者に認識させることが可能となる。 According to the feature E2, the area where the set positional relationship is changed instead of the texture data type is less changed when the appearance is changed than the area where the type is changed instead of the set positional relationship of the texture data. However, since the former area is smaller, it is possible to make the player recognize that the appearance of the predetermined individual image as a whole has changed significantly.

特徴E3.前記所定オブジェクトデータに対応した所定個別画像において前記第1パーツデータが占める領域には、当該所定個別画像において特定の外縁部分に対する相対位置が変化しない画像部分(目や口の模様部分)が存在していることを特徴とする特徴E1又はE2に記載の遊技機。 Feature E3. In the area occupied by the first part data in the predetermined individual image corresponding to the predetermined object data, there is an image portion (eye or mouth pattern portion) in which the relative position with respect to the specific outer edge portion does not change in the predetermined individual image. The gaming machine according to the feature E1 or E2, which is characterized in that it is used.

特徴E3によれば、相対位置が変化すると好ましくない画像部分については、第1テクスチャデータとして設定されているため、当該画像部分を含めた領域の外観の変化を好適に行うことが可能となる。 According to the feature E3, since the image portion that is not preferable when the relative position changes is set as the first texture data, it is possible to suitably change the appearance of the region including the image portion.

特徴E4.前記第2テクスチャデータは、一方の境界部分に設定されている色情報がその逆側の境界部分に設定されている色情報に対して連続性を有していることを特徴とする特徴E1乃至E3のいずれか1に記載の遊技機。 Feature E4. The second texture data is characterized in that the color information set in one boundary portion has continuity with respect to the color information set in the boundary portion on the opposite side. The gaming machine according to any one of E3.

特徴E4によれば、第2テクスチャデータの設定位置関係を変化していった場合において、所定個別画像に模様の境界が生じてしまうことが抑制される。 According to the feature E4, when the setting positional relationship of the second texture data is changed, it is possible to prevent the boundary of the pattern from being generated in the predetermined individual image.

特徴E5.前記第2パーツデータ及び前記第2テクスチャデータの組合せは、複数存在しており、
前記第2設定手段は、一の前記第2テクスチャデータの設定位置関係を変更する場合には他の前記第2テクスチャデータの設定位置関係を変更するものであることを特徴とする特徴E1乃至E4のいずれか1に記載の遊技機。
Feature E5. There are a plurality of combinations of the second part data and the second texture data.
The second setting means is characterized in that when the setting positional relationship of one of the second texture data is changed, the setting positional relationship of the other second texture data is changed, the features E1 to E4. The gaming machine according to any one of.

特徴E5によれば、第2テクスチャデータが複数存在している構成において、それら第2テクスチャデータの設定に要する処理負荷の軽減が図られる。 According to the feature E5, in a configuration in which a plurality of second texture data exist, the processing load required for setting the second texture data can be reduced.

上記特徴E群の発明は、以下の課題に対して効果的である。 The invention of the above-mentioned feature E group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, an object that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the object. Generated data is generated by projecting the textured object onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a three-dimensional image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the interest of the player in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity is extremely increased.

<特徴F群>
特徴F1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した1の動画を前記複数の更新タイミング分の期間に亘って表示させる表示演出を実行する表示演出実行手段(表示CPU131においてラウンド演出用の演算処理を実行する機能、VDP135におけるラウンド演出用の設定処理及びラウンド演出用マッピング処理を実行する機能)と、
を備え、
前記表示演出実行手段は、前記表示演出の演出期間のうち一部の特定期間において所定の画像を挿入することにより、前記1の動画を用いて複数種類の表示パターンの表示演出を実行可能に構成されていることを特徴とする遊技機。
<Characteristic F group>
Features F1. A display means (design display device 31) having a display unit (display surface G) and
A display storage means (memory module 133) that stores image data in advance, and
Display control means (display CPU131, VDP135) for displaying an image on the display unit using image data stored in the display storage means, and
In a gaming machine equipped with
The display storage means stores compressed moving image data used for reproducing a moving image, and stores the compressed moving image data.
The display control means is
An expansion means (video decoder) that expands any of the moving image data into the expansion area and creates still image data for multiple update timings for the image corresponding to the moving image data.
By using the still image data for a plurality of update timings expanded by the expansion means in the order specified in the moving image data, one moving image corresponding to the moving image data can be used for the plurality of update timings. Display effect execution means for executing display effect to be displayed over the period of (a function of executing arithmetic processing for round effect in the display CPU 131, a function of executing setting process for round effect and mapping process for round effect in VDP135). When,
Equipped with
The display effect executing means is configured to be capable of executing a display effect of a plurality of types of display patterns using the moving image of 1 by inserting a predetermined image in a specific period of a part of the effect period of the display effect. A gaming machine characterized by being played.

特徴F1によれば、1の動画を用いて複数種類の表示パターンの表示演出を実行することにより、表示演出毎に動画像データを用意する構成と比較して、表示演出に要するデータ量の削減を図ることができる。よって、表示演出の多様化を図りつつ、データ量の増大化を抑制することができる。 According to the feature F1, by executing the display effect of a plurality of types of display patterns using one moving image, the amount of data required for the display effect is reduced as compared with the configuration in which the moving image data is prepared for each display effect. Can be planned. Therefore, it is possible to suppress an increase in the amount of data while diversifying the display effect.

特徴F2.前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記表示演出実行手段は、前記特定期間において前記所定画像データを用いて前記所定の画像を表示させ得るものであることを特徴とする特徴F1に記載の遊技機。
Feature F2. The display storage means stores predetermined image data (inserted image data IPD0) that is image data used for displaying the predetermined image and has a smaller amount of data than the moving image data.
The gaming machine according to feature F1, wherein the display effect executing means can display the predetermined image using the predetermined image data in the specific period.

特徴F2によれば、所定画像データを用いて所定の画像が表示される。当該所定画像データは動画像データよりも少ないデータ量に設定されている。これにより、表示演出毎に動画像データを用意する構成と比較して、少ないデータ量で表示演出の多様化を図ることができる。 According to the feature F2, a predetermined image is displayed using the predetermined image data. The predetermined image data is set to a data amount smaller than that of the moving image data. As a result, it is possible to diversify the display effect with a smaller amount of data as compared with the configuration in which the moving image data is prepared for each display effect.

また、所定画像データを用いて所定の画像を表示させる構成の方が、所定の画像を作成して表示させる構成と比較して、所定の画像の作成に係る処理を実行する必要がない分だけ所定の画像の表示に係る処理負荷が軽くなり易い。これにより、表示演出に係るデータ量の削減を図りつつ、所定の画像を表示させるのに要する処理負荷を軽減させることができ、データ量の削減と処理負荷とのバランスを図ることができる。 Further, the configuration in which the predetermined image is displayed using the predetermined image data is compared with the configuration in which the predetermined image is created and displayed, and the process related to the creation of the predetermined image does not need to be executed. The processing load related to the display of a predetermined image tends to be light. As a result, it is possible to reduce the processing load required to display a predetermined image while reducing the amount of data related to the display effect, and it is possible to balance the reduction in the amount of data and the processing load.

特徴F3.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に代えて前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。 Feature F3. The gaming machine according to feature F1 or feature F2, wherein the display effect executing means displays the predetermined image in place of the image related to the moving image in the specific period.

特徴F3によれば、特定期間において動画に係る画像が表示される場合と所定の画像が表示される場合とがある。これにより、表示演出の表示パターンの1つとして1の動画に係る画像の表示を用いることができる。よって、少ないデータ量で表示演出の多様化を図ることができる。 According to the feature F3, an image related to a moving image may be displayed or a predetermined image may be displayed in a specific period. As a result, it is possible to use the display of the image related to one moving image as one of the display patterns of the display effect. Therefore, it is possible to diversify the display effect with a small amount of data.

なお、本特徴の具体的な構成としては、「前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に対して前記所定の画像を上書きするものである」ことが考えられる。かかる構成によれば、動画表示に係る処理にて特別な処理を行うことなく、1の動画に係る画像に代えて所定の画像を表示させることができる。 As a specific configuration of this feature, it is conceivable that "the display effect executing means overwrites the predetermined image on the image related to the moving image 1 in the specific period". According to such a configuration, it is possible to display a predetermined image in place of the image related to one moving image without performing any special processing in the processing related to the moving image display.

特徴F4.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像と、前記所定の画像とを重ね合わせることで合成画像を作成し、当該合成画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。 Features F4. The display effect executing means is characterized in that a composite image is created by superimposing the image related to the moving image of 1 and the predetermined image in the specific period, and the composite image is displayed. The gaming machine according to feature F1 or feature F2.

特徴F4によれば、1の動画に係る画像と所定の画像との合成画像が表示されるため、1の動画に係る画像を用いて、当該1の動画に係る画像とは異なる画像を表示させることができる。 According to the feature F4, a composite image of the image related to the moving image 1 and the predetermined image is displayed. Therefore, the image related to the moving image 1 is used to display an image different from the image related to the moving image 1. be able to.

特に、動画像データの特性上、当該動画像データは、更新タイミング毎の連続するデータを保持する必要がある。この点、本特徴によれば、当該連続するデータを用いて合成画像を作成する構成としたことにより、当該連続するデータを好適に利用することができ、表示演出全体に係るデータ量の削減を好適に行うことができる。 In particular, due to the characteristics of moving image data, it is necessary for the moving image data to hold continuous data for each update timing. In this respect, according to this feature, by creating a composite image using the continuous data, the continuous data can be suitably used, and the amount of data related to the entire display effect can be reduced. It can be preferably performed.

また、特徴F2との関係によれば、所定の画像のみで画像表示を行う構成と比較して、所定の画像の表示領域を小さくすることができるため、所定画像データのデータ量の削減を図ることができる。これにより、所定の画像を表示するのに要するデータ量を少なくすることができる。 Further, according to the relationship with the feature F2, the display area of the predetermined image can be made smaller as compared with the configuration in which the image is displayed only with the predetermined image, so that the amount of the predetermined image data can be reduced. be able to. As a result, the amount of data required to display a predetermined image can be reduced.

特徴F5.仮想3次元空間内にオブジェクトの画像データを配置する配置手段(VDP135におけるラウンド演出用の設定処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記画像データを投影させることで作成された投影データを用いて生成データを生成するとともに、前記視点が向く方向に複数の前記画像データが並んでいる場合、その並んでいる各部分において前記視点が向く方向における当該視点からの距離が小さい側の部分を優先して前記生成データに反映させる描画用設定手段(VDP135における演出用の描画データ作成処理を実行する機能)と、によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)を備え、
前記表示制御手段は、前記記憶手段に記憶された生成データに対応した画像を前記表示部に表示させるものであり、
前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記オブジェクトには、
前記動画像データから生成される静止画像データがテクスチャとして貼り付けられる第1オブジェクト(動画用オブジェクト)と、
前記所定画像データがテクスチャとして貼り付けられる第2オブジェクト(挿入用オブジェクト)と、
が含まれており、
前記配置手段は、前記特定期間において、前記視点が向く方向における当該視点からの距離が、前記第1オブジェクトよりも前記第2オブジェクトの方が小さくなるように、前記各オブジェクトを配置するものであることを特徴とする特徴F3又は特徴F4に記載の遊技機。
Feature F5. Arrangement means for arranging image data of objects in virtual 3D space (function to execute setting processing for round effect in VDP135) and viewpoint setting means for setting viewpoint in the virtual 3D space (camera coordinate system in VDP135) The generated data is generated using the projection data created by projecting the image data onto the projection plane set based on the viewpoint, and the direction in which the viewpoint faces. When a plurality of the image data are lined up in the row, the drawing setting means for reflecting the portion of each lined up portion having a small distance from the viewpoint in the direction facing the viewpoint in the generated data ( A function for executing drawing data creation processing for production in VDP135) and a storage means (frame buffer 142) for storing generated data (drawing data) generated by the VDP135 are provided.
The display control means causes the display unit to display an image corresponding to the generated data stored in the storage means.
The display storage means stores predetermined image data (inserted image data IPD0) that is image data used for displaying the predetermined image and has a smaller amount of data than the moving image data.
The object
The first object (object for moving image) to which the still image data generated from the moving image data is pasted as a texture, and
A second object (object for insertion) to which the predetermined image data is pasted as a texture, and
Is included,
The arrangement means arranges each object so that the distance from the viewpoint in the direction in which the viewpoint faces is smaller for the second object than for the first object in the specific period. The gaming machine according to feature F3 or feature F4.

特徴F5によれば、第1オブジェクトに対して、動画像データから生成される静止画像データがテクスチャとして貼り付けられ、当該静止画像データが更新タイミングとなる度に更新されることにより、1の動画が表示される。また、第2オブジェクトに対して、所定画像データがテクスチャとして貼り付けられることにより、所定の画像が表示される。この場合、所定の画像に係る第2オブジェクトが1の動画に係る第1オブジェクトよりも前面側に配置されるため、陰面消去の構成により1の動画に係る画像に対して重なるように所定の画像が表示される。これにより、3次元画像を表示するための陰面消去の構成を利用して、1の動画に係る画像に代えて所定の画像を表示させたり、1の動画に係る画像と所定の画像とを合成させたりすることができる。 According to the feature F5, the still image data generated from the moving image data is pasted as a texture on the first object, and the still image data is updated every time the update timing is reached, so that one moving image is obtained. Is displayed. Further, a predetermined image is displayed by pasting the predetermined image data as a texture on the second object. In this case, since the second object related to the predetermined image is arranged on the front side of the first object related to the moving image 1, the predetermined image is overlapped with the image related to the moving image 1 due to the configuration of the hidden surface elimination. Is displayed. As a result, a predetermined image is displayed in place of the image related to the moving image 1 or the image related to the moving image 1 and the predetermined image are combined by using the configuration of the hidden surface erasing for displaying the three-dimensional image. Can be made to.

特徴F6.前記各オブジェクトは、少なくとも一方の面に前記各テクスチャが貼り付けられる板状オブジェクトであることを特徴とする特徴F5に記載の遊技機。 Feature F6. The gaming machine according to feature F5, wherein each object is a plate-shaped object to which each texture is attached to at least one surface.

特徴F6によれば、各画像データの貼付対象として、比較的処理負荷が少ない板状オブジェクトを用いることにより、処理負荷の軽減を図ることができる。 According to the feature F6, the processing load can be reduced by using a plate-shaped object having a relatively small processing load as a target for pasting each image data.

特徴F7.前記動画像データには、所定の単位で分割された第1単位動画像データ(第1ラウンド動画像データRMD0a)と第2単位動画像データ(第2ラウンド動画像データRMD0b)とが含まれており、
前記表示演出実行手段は、前記第1単位動画像データによる動画を表示させた後、前記特定期間が経過したことに基づいて前記第2単位動画像データによる動画を表示させることにより、前記1の動画を表示させるものであり、
前記表示演出実行手段は、前記特定期間に亘って前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。
Feature F7. The moving image data includes a first unit moving image data (first round moving image data RMD0a) and a second unit moving image data (second round moving image data RMD0b) divided into predetermined units. Ori,
The display effect executing means displays the moving image based on the first unit moving image data, and then displays the moving image based on the second unit moving image data based on the elapse of the specific period. It displays a video,
The gaming machine according to feature F1 or feature F2, wherein the display effect executing means displays the predetermined image over the specific period.

特徴F7によれば、単一の動画像データを用いるのではなく、少なくとも第1単位動画像データ及び第2単位動画像データを用いて1の動画が表示される。これにより、例えば、上記1の動画表示の開始時に第1単位動画像データに対して展開用の処理を実行し、その後第2単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両動画像データ分の展開がまとめて行われる構成に比べ、上記1の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。 According to the feature F7, one moving image is displayed using at least the first unit moving image data and the second unit moving image data instead of using a single moving image data. Thereby, for example, it is possible to execute the expansion process for the first unit moving image data at the start of the moving image display of 1 above, and then execute the expansion process for the second unit moving image data. It becomes. In this case, it is possible to suppress the local increase in the processing load when starting the moving image display in 1 above, as compared with the configuration in which the expansion of the dual motion image data is performed collectively.

かかる構成において、所定の画像は、第1単位動画像データによる動画表示と、第2単位動画像データによる動画表示との間に設けられた所定の期間に亘って表示される。これにより、所定の画像を介して、分割した各動画像データに係る動画表示が連続して表示されることとなり、遊技者に1の動画として認識させることができる。 In such a configuration, the predetermined image is displayed over a predetermined period provided between the moving image display by the first unit moving image data and the moving image display by the second unit moving image data. As a result, the moving image display related to each divided moving image data is continuously displayed via the predetermined image, and the player can be made to recognize it as one moving image.

また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。 Further, according to such a configuration, it is not necessary to simultaneously perform the processing related to the moving image display and the processing related to the predetermined image display. This makes it possible to reduce the processing load related to image display.

特徴F8.前記表示演出実行手段は、前記特定期間において表示対象となる前記所定の画像を変更可能であることを特徴とする特徴F1乃至F7のいずれか1に記載の遊技機。 Feature F8. The gaming machine according to any one of features F1 to F7, wherein the display effect executing means can change the predetermined image to be displayed in the specific period.

特徴F8によれば、表示演出が実行される度に特定期間において表示させる所定の画像を異ならせることにより、異なる表示演出であるように認識させることができる。これにより、表示演出の表示パターンの更なる多様化を図ることができる。 According to the feature F8, it is possible to recognize that the display effect is different by changing the predetermined image to be displayed in a specific period each time the display effect is executed. As a result, it is possible to further diversify the display pattern of the display effect.

なお、本特徴の具体的な構成としては、例えば「前記表示用記憶手段には、表示内容が相違する複数種類の所定画像データが記憶されており、前記表示演出実行手段は、前記複数種類の所定画像データのうちいずれかを選択する選択手段を備え、前記選択手段により選択された所定画像データを用いて前記特定期間において前記選択手段により選択された所定画像データに対応した画像を表示させるものである」構成が考えられる。 As a specific configuration of this feature, for example, "the display storage means stores a plurality of types of predetermined image data having different display contents, and the display effect executing means has the plurality of types. It is provided with a selection means for selecting any one of the predetermined image data, and the predetermined image data selected by the selection means is used to display an image corresponding to the predetermined image data selected by the selection means in the specific period. The configuration is conceivable.

特徴F9.前記表示演出実行手段は、予め定められた特定条件が成立した場合には、前記動画が複数回繰り返し表示されるようにするものであり、前記複数回の動画表示のうち所定回数目の動画表示における前記特定期間では前記所定の画像として第1所定画像を表示させ、前記所定回数目の動画表示とは異なる回数目の動画表示における前記特定期間では前記第1所定画像とは異なる第2所定画像を表示させるものであることを特徴とする特徴F8に記載の遊技機。 Features F9. The display effect executing means is such that when a predetermined specific condition is satisfied, the moving image is repeatedly displayed a plurality of times, and the moving image is displayed a predetermined number of times out of the plurality of times. In the specific period in the above, the first predetermined image is displayed as the predetermined image, and in the specific period in the moving image display of the number of times different from the moving image display of the predetermined number of times, the second predetermined image different from the first predetermined image is displayed. The gaming machine according to the feature F8, which is characterized in that the image is displayed.

特徴F9によれば、動画表示が繰り返し実行される場合がある。この場合、所定回数目の動画表示と当該所定回数目とは異なる回数目の動画表示とで、表示される所定の画像が異なるため、全体としてはバリエーションが異なる表示演出が実行されることとなる。これにより、当該表示演出が繰り返し行われることに起因する当該表示演出への注目度の低下を抑制することができる。 According to the feature F9, the moving image display may be repeatedly executed. In this case, since the predetermined image to be displayed is different between the moving image display of the predetermined number of times and the moving image display of the number of times different from the predetermined number of times, the display effect having different variations as a whole is executed. .. As a result, it is possible to suppress a decrease in the degree of attention to the display effect due to the repeated display effect.

特徴F10.予め定められた抽選契機に基づいて、遊技状態を遊技者に有利な特定遊技状態に移行させるか否かを判定する判定手段(主制御装置50における当否判定処理を実行する機能)と、
前記判定手段の判定結果が、前記遊技状態を前記特定遊技状態に移行させることに対応した移行対応結果である場合に、前記特定遊技状態に移行させる移行手段(主制御装置50における遊技状態移行処理を実行する機能)と、
を備え、
特定遊技状態では、当該特定遊技状態の所定のタイミングにて開始され、予め定められた終了条件が成立するまで継続される特定単位遊技が複数回繰り返し行われ、
前記表示演出実行手段は、前記特定単位遊技が行われる度に実行されるものであり、1の特定遊技状態中における前記特定単位遊技の実行回数に応じて、異なる前記所定の画像を表示させることが可能であることを特徴とする特徴F8又は特徴F9に記載の遊技機。
Feature F10. A determination means (a function for executing a hit / fail determination process in the main control device 50) for determining whether or not to shift the gaming state to a specific gaming state advantageous to the player based on a predetermined lottery opportunity.
When the determination result of the determination means is the transition correspondence result corresponding to the transition of the gaming state to the specific gaming state, the transition means for shifting to the specific gaming state (game state transition processing in the main control device 50). Function to execute) and
Equipped with
In the specific game state, the specific unit game that starts at a predetermined timing of the specific game state and continues until a predetermined end condition is satisfied is repeatedly performed a plurality of times.
The display effect executing means is executed every time the specific unit game is performed, and different predetermined images are displayed according to the number of times the specific unit game is executed in one specific game state. The gaming machine according to the feature F8 or the feature F9, which is characterized by being capable of.

特徴F10によれば、特定遊技状態中は、特定単位遊技が複数回繰り返し行われる。この場合、特定単位遊技が行われる度に1の動画を用いた表示演出が実行される。これにより、当該表示演出が繰り返し実行されることにより、特定単位遊技が繰り返し行われていることを遊技者が把握することができる。 According to the feature F10, the specific unit game is repeated a plurality of times during the specific game state. In this case, each time a specific unit game is played, a display effect using one moving image is executed. As a result, the player can grasp that the specific unit game is repeatedly performed by repeatedly executing the display effect.

この場合、同一の表示演出が実行されると、遊技者の表示演出への注目度が低下する。かといって、全く異なる表示演出を実行する構成とすると、データ量の増大化という不都合が生じ得る。 In this case, when the same display effect is executed, the player's attention to the display effect decreases. On the other hand, if the configuration is such that a completely different display effect is executed, the inconvenience of increasing the amount of data may occur.

これに対して、本特徴によれば、特定単位遊技の実行回数に応じて所定の画像を異ならせることにより、特定単位遊技が繰り返し行われる特定遊技状態において1の動画像データを用いてバリエーションの異なる表示演出を実行することが可能となり、上記不都合を回避することができる。 On the other hand, according to this feature, by making a predetermined image different according to the number of executions of the specific unit game, a variation can be made using the moving image data of 1 in the specific game state in which the specific unit game is repeatedly performed. It is possible to execute different display effects, and the above-mentioned inconvenience can be avoided.

上記特徴F群は以下の課題に対して効果的である。 The above-mentioned feature F group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. These gaming machines include a control board on which a CPU is mounted and elements such as a memory in which a control program related to the game is stored are mounted, and a series of games are controlled by the control board. It is also known that the CPU and the memory are not individually mounted on the control board, but are mounted on the control board in an integrated state.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。 Among the above-mentioned gaming machines, those equipped with a display device having a display unit, such as a liquid crystal display device, are known. In such a game machine, a memory for image data in which image data is stored in advance is mounted, and a predetermined image is displayed on the display unit using the image data read from the memory.

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。 Further, as image data, a configuration including moving image data is also known. Since the amount of moving image data is larger than that of still image data, it is stored in the image data memory in a compressed state. When playing a moving image related to the compressed moving image data, the moving image data is expanded into a predetermined memory area using a decoder to obtain a plurality of still image data, and the plurality of still image data are updated. It is necessary to use them in a predetermined order each time the timing is reached.

ここで、表示演出の多様化を図るべく、複数種類の動画を再生したい場合がある。この場合、動画像データを複数種類設け、当該複数種類の動画像データのうちいずれかをデコードして当該動画像データに係る動画を再生する構成が考えられる。しかしながら、かかる構成では、動画像データのデータ量の増大化が懸念される。 Here, in order to diversify the display effect, it may be desired to play a plurality of types of moving images. In this case, it is conceivable to provide a plurality of types of moving image data, decode any one of the plurality of types of moving image data, and reproduce the moving image related to the moving image data. However, in such a configuration, there is a concern that the amount of moving image data will increase.

<特徴G群>
特徴G1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した画像の動画を前記複数の更新タイミング分の表示期間に亘って表示させる動画像表示実行手段(VDP135における動画像用の設定処理を実行する機能)と、
を備え、
前記動画像データは、当該動画像データにより表示される動画の態様に応じて、複数の単位動画像データに分割されており、
前記動画像表示実行手段は、前記各単位動画像データによる動画を、予め定められた順序で順次表示することにより、一連の動画を表示させるものであり、
前記各単位動画像データは、当該各単位動画像データにより表示される各動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なるようにして圧縮されていることを特徴とする遊技機。
<Characteristic G group>
Features G1. A display means (design display device 31) having a display unit (display surface G) and
A display storage means (memory module 133) that stores image data in advance, and
Display control means (display CPU131, VDP135) for displaying an image on the display unit using image data stored in the display storage means, and
In a gaming machine equipped with
The display storage means stores compressed moving image data used for reproducing a moving image, and stores the compressed moving image data.
The display control means is
An expansion means (video decoder) that expands any of the moving image data into the expansion area and creates still image data for multiple update timings for the image corresponding to the moving image data.
By using the still image data for a plurality of update timings expanded by the expansion means in the order specified in the moving image data, the moving image of the image corresponding to the moving image data can be used for the plurality of update timings. Video display execution means (function to execute setting processing for video in VDP135) to be displayed over the display period of
Equipped with
The moving image data is divided into a plurality of unit moving image data according to the mode of the moving image displayed by the moving image data.
The moving image display executing means displays a series of moving images by sequentially displaying moving images based on the unit moving image data in a predetermined order.
Each unit moving image data is characterized in that the amount of data allocated to each unit moving image data is different depending on the mode of each moving image displayed by the unit moving image data. A game machine to play.

特徴G1によれば、単一の動画像データを用いるのではなく、各単位動画像データを順次用いることにより一連の動画表示が行われる。これにより、例えば、上記一連の動画表示の開始時に1の単位動画像データに対して展開用の処理を実行し、その後、他の単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両単位動画像データ分の展開がまとめて行われる構成に比べ、上記一連の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。 According to the feature G1, a series of moving images are displayed by sequentially using each unit moving image data instead of using a single moving image data. As a result, for example, at the start of the series of moving image display, one unit moving image data can be subjected to the expansion process, and then the other unit moving image data can be expanded. It will be possible. In this case, it is possible to suppress the local increase in the processing load when starting the above-mentioned series of moving image display, as compared with the configuration in which the expansion of both unit moving image data is performed collectively.

かかる構成において、各単位動画像データにより表示される動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なる。これにより、動画の態様に応じて画質を調整することができるため、効率的な画質の調整を行うことができる。 In such a configuration, the amount of data allocated to each unit moving image data differs depending on the mode of the moving image displayed by each unit moving image data. As a result, the image quality can be adjusted according to the mode of the moving image, so that the image quality can be efficiently adjusted.

特徴G2.前記表示期間には、前記動画の態様が異なる第1区間及び第2区間が含まれており、
前記単位動画像データには、
前記第1区間に対応した第1単位動画像データ(第1ラウンド動画像データRMD0a)と、
前記第2区間に対応した第2単位動画像データ(第2ラウンド動画像データRMD0b)と、
が設けられており、
前記第1単位動画像データと前記第2単位動画像データとで、単位期間当たりにおける画像表示を行うためのデータ量が異なるよう設定されていることを特徴とする特徴G1に記載の遊技機。
Feature G2. The display period includes a first section and a second section in which the mode of the moving image is different.
The unit moving image data includes
The first unit moving image data (first round moving image data RMD0a) corresponding to the first section and
The second unit moving image data (second round moving image data RMD0b) corresponding to the second section and
Is provided,
The gaming machine according to feature G1, wherein the amount of data for displaying an image per unit period is set to be different between the first unit moving image data and the second unit moving image data.

特徴G2によれば、各単位動画像データの単位期間当たりにおける画像表示を行うためのデータ量を異ならせることにより、各単位動画像データにより表示される動画の画質の低下を抑制しつつ、動画像データ全体のデータ量の削減を図ることができる。 According to the feature G2, by making the amount of data for displaying the image per unit period of each unit moving image data different, the moving image is suppressed while suppressing the deterioration of the image quality of the moving image displayed by each unit moving image data. It is possible to reduce the amount of data of the entire image data.

特徴G3.前記第1区間及び前記第2区間は、各更新タイミング間における画像の変化量が相対的に大小となる大変化区間及び小変化区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2に記載の遊技機。
Feature G3. The first section and the second section are a large change section and a small change section in which the amount of change in the image between each update timing is relatively large or small.
The gaming machine according to feature G2, wherein the first unit moving image data has a larger amount of data for displaying an image per unit period than the second unit moving image data.

特徴G3によれば、画像の変化量が比較的大きい大変化区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。 According to the feature G3, a relatively large amount of data is allocated to the first unit moving image data corresponding to a large change section in which the amount of change in the image is relatively large, so that block noise, mosquito noise, etc. are generated. It's hard to do.

一方、画像の変化量が比較的小さい小変化区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。 On the other hand, since a relatively small amount of data is allocated to the second unit moving image data corresponding to the small change section in which the amount of change in the image is relatively small, the data amount of the second unit moving image data can be reduced. Can be planned.

特徴G4.前記第1区間及び前記第2区間は、静止画像データに係る画像の精細さが相対的に高低となる高精細区間及び低精細区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2又は特徴G3に記載の遊技機。
Features G4. The first section and the second section are a high-definition section and a low-definition section in which the fineness of the image related to the still image data is relatively high and low.
The first unit moving image data is described in feature G2 or feature G3, which is characterized in that a larger amount of data for displaying an image per unit period is set than the second unit moving image data. Gaming machine.

特徴G4によれば、画像の精細さが比較的高い高精細区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。 According to the feature G4, a relatively large amount of data is allocated to the first unit moving image data corresponding to the high-definition section having a relatively high image fineness, so that block noise, mosquito noise, etc. are generated. It's hard to do.

一方、画像の細かさが比較的低い低精細区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。 On the other hand, for the second unit moving image data corresponding to the low-definition section where the fineness of the image is relatively low, a relatively small amount of data will be allocated, so the data amount of the second unit moving image data can be reduced. Can be planned.

特徴G5.前記更新タイミングの間隔は、各区間に関わらず同一に設定されていることを特徴とする特徴G2乃至G4のいずれか1に記載の遊技機。 Feature G5. The gaming machine according to any one of features G2 to G4, wherein the update timing interval is set to be the same regardless of each section.

特徴G5によれば、更新タイミングの間隔は各区間に関わらず同一に設定されているため、各区間に応じて更新タイミングの間隔の変更を行う構成と比較して、当該変更に係る処理分だけ、動画の表示に係る処理負荷の軽減を図ることができるとともに、その変更に係る処理を実行するプログラム分だけプログラム容量の削減を図ることができる。 According to the feature G5, since the update timing interval is set to be the same regardless of each section, only the processing amount related to the change is compared with the configuration in which the update timing interval is changed according to each section. , The processing load related to the display of the moving image can be reduced, and the program capacity can be reduced by the amount of the program that executes the processing related to the change.

また、この場合であっても、単位期間当たりにおける画像表示を行うためのデータ量を調整することにより、画質の低下を抑制しつつ、動画像データ全体のデータ量を所定量に圧縮することができる。 Even in this case, by adjusting the amount of data for displaying the image per unit period, it is possible to compress the total amount of moving image data to a predetermined amount while suppressing the deterioration of the image quality. can.

特徴G6.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記表示制御手段は、
前記所定画像データを用いて前記表示部に前記所定の画像を表示させる所定画像表示実行手段(表示CPU131のステップS3510〜ステップS3516の処理を実行する機能、VDP135のステップS3704〜ステップS3707、ステップS3804〜ステップS3807の処理を実行する機能)を備え、前記動画像表示実行手段及び前記所定画像表示実行手段の双方を同時に実行することにより、前記動画と前記所定の画像とを同時に表示させることが可能であることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Feature G6. Predetermined image data (inserted image data IPD0) corresponding to a predetermined image is stored in the display storage means.
The display control means is
A predetermined image display executing means for displaying the predetermined image on the display unit using the predetermined image data (a function of executing the process of steps S351 to S3516 of the display CPU 131, steps S3704 to S3707, and steps S3804 to VDP135). The function of executing the process of step S3807) is provided, and the moving image and the predetermined image can be displayed at the same time by simultaneously executing both the moving image display executing means and the predetermined image display executing means. The gaming machine according to any one of features G1 to G5, characterized in that it is present.

特徴G6によれば、動画と所定の画像とを組み合わせることにより、画像の表示態様の多様化を図ることができる。 According to the feature G6, by combining a moving image and a predetermined image, it is possible to diversify the display mode of the image.

この場合、動画像及び所定の画像を同時に表示させるために、動画像表示及び所定の画像表示双方の表示制御に係る処理を実行する必要がある。このため、処理負荷の増大化が懸念される。 In this case, in order to display the moving image and the predetermined image at the same time, it is necessary to execute the processing related to the display control of both the moving image display and the predetermined image display. Therefore, there is a concern that the processing load will increase.

これに対して、特徴G5との関係によれば、更新タイミングの間隔の変更に係る処理負荷の分だけ、動画の表示中の処理負荷を軽減することができる。これにより、動画像及び所定の画像双方を同時に表示させる場合に処理落ちすることを抑制することができる。 On the other hand, according to the relationship with the feature G5, the processing load during display of the moving image can be reduced by the amount of the processing load related to the change of the update timing interval. As a result, it is possible to prevent processing failure when both a moving image and a predetermined image are displayed at the same time.

特徴G7.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記動画像表示実行手段は、前記複数の単位動画像データのうち所定の単位動画像データによる動画を表示させた場合には、当該所定の単位動画像データによる動画表示から所定の期間が経過したことに基づいてその後の単位動画像データによる動画を表示させるものであり、
前記表示制御手段は、
前記所定の期間に亘って前記所定画像データを用いて前記表示部に前記所定の画像を表示させる手段(表示CPU131におけるステップS3912〜ステップS3915の処理を実行する機能)を備えていることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Feature G7. Predetermined image data (inserted image data IPD0) corresponding to a predetermined image is stored in the display storage means.
When the moving image display executing means displays a moving image based on a predetermined unit moving image data among the plurality of unit moving image data, a predetermined period has elapsed from the moving image display based on the predetermined unit moving image data. Based on this, the video based on the subsequent unit moving image data is displayed.
The display control means is
It is characterized in that it is provided with means for displaying the predetermined image on the display unit using the predetermined image data for the predetermined period (a function of executing the processes of steps S3912 to S3915 in the display CPU 131). The gaming machine according to any one of G1 to G5.

特徴G7によれば、所定の単位動画像データによる動画表示とその後の単位動画像データによる動画表示との間に設けられた所定の期間に亘って所定の画像が表示される。これにより、所定の画像を介して、分割した両単位動画像データに係る動画表示が連続して表示されることとなり、遊技者に一連の動画として認識させることができる。 According to the feature G7, a predetermined image is displayed for a predetermined period provided between the moving image display by the predetermined unit moving image data and the subsequent moving image display by the unit moving image data. As a result, the moving image display related to the divided double-unit moving image data is continuously displayed via the predetermined image, and the player can be made to recognize it as a series of moving images.

また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。 Further, according to such a configuration, it is not necessary to simultaneously perform the processing related to the moving image display and the processing related to the predetermined image display. This makes it possible to reduce the processing load related to image display.

上記特徴G群は以下の課題に対して効果的である。 The above-mentioned feature G group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. These gaming machines include a control board on which a CPU is mounted and elements such as a memory in which a control program related to the game is stored are mounted, and a series of games are controlled by the control board. It is also known that the CPU and the memory are not individually mounted on the control board, but are mounted on the control board in an integrated state.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。 Among the above-mentioned gaming machines, those equipped with a display device having a display unit, such as a liquid crystal display device, are known. In such a game machine, a memory for image data in which image data is stored in advance is mounted, and a predetermined image is displayed on the display unit using the image data read from the memory.

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。 Further, as image data, a configuration including moving image data is also known. Since the amount of moving image data is larger than that of still image data, it is stored in the image data memory in a compressed state. When playing a moving image related to the compressed moving image data, the moving image data is expanded into a predetermined memory area using a decoder to obtain a plurality of still image data, and the plurality of still image data are updated. It is necessary to use them in a predetermined order each time the timing is reached.

ここで、画像データ用のメモリの記憶容量と他の画像データとの関係から、動画像データのデータ量を、予め定められた設定量となるように圧縮する必要が生じる場合がある。この場合、動画像データの圧縮態様によっては、動画像データを用いた動画の画質が低下し、当該動画への注目度が低下するという不都合が生じ得る。 Here, due to the relationship between the storage capacity of the memory for image data and other image data, it may be necessary to compress the data amount of the moving image data to a predetermined set amount. In this case, depending on the compression mode of the moving image data, there may be a disadvantage that the image quality of the moving image using the moving image data is lowered and the degree of attention to the moving image is lowered.

<特徴H群>
特徴H1.オブジェクトの画像データ及び当該オブジェクトに貼り付けられるテクスチャの画像データを含む各種画像データが記憶された画像データ記憶手段(メモリモジュール133)と、仮想3次元空間内に前記オブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、前記オブジェクトに対して前記テクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記テクスチャが貼り付けられたオブジェクトを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)と、を有するデータ生成手段(表示CPU131及びVDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記オブジェクトには、変形対象として設定された変形対象オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記データ生成手段は、当該変形対象オブジェクトを変形させることにより、前記画像の少なくとも一部を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic H group>
Features H1. An image data storage means (memory module 133) in which various image data including image data of an object and image data of a texture attached to the object are stored, and an arrangement means (VDP135) for arranging the object in a virtual three-dimensional space. (Function for executing the processes of step S4602, step S4609, and step S4610) and the viewpoint setting means for setting the viewpoint in the virtual three-dimensional space (conversion process to the camera coordinate system and conversion process to the field coordinate system in VDP135). (Function to be executed), a pasting means for pasting the texture to the object (a function to execute the color information setting process in VDP135), and the texture to be pasted on a projection plane set based on the viewpoint. Setting means for drawing to generate generated data (drawing data) based on the data projected on the projection plane (a function to create a drawing list in the display CPU 131 and a function to execute drawing processing in VDP135). A storage means (frame buffer 142) for storing generated data generated by the data generation means (display CPU 131 and VDP 135) having the above and
A display control means (display CPU 131 and display CPU 131) that displays an image corresponding to the generated data stored in the storage means on the display unit (display surface G) and updates the contents of the image when a predetermined update timing is reached. VDP135) and
In a gaming machine equipped with
The object includes a transformation target object (refraction object OB10) set as a transformation target.
The data generation means is a distortion forming means that distorts at least a part of the image by deforming the object to be deformed (a function of executing distortion effect calculation processing in the display CPU 131, and various processes for distortion effect in VDP135). A gaming machine characterized by having a function to execute.

特徴H1によれば、変形対象オブジェクトを変形させることにより、表示部に表示される画像の少なくとも一部を歪ませることができる。これにより、画像を歪ませるために専用のテクスチャを用意する必要がない。よって、データ量の増大化を抑制しつつ、画像の歪みを比較的容易に表現することができる。 According to the feature H1, at least a part of the image displayed on the display unit can be distorted by deforming the object to be deformed. This eliminates the need to prepare a dedicated texture to distort the image. Therefore, it is possible to express the distortion of the image relatively easily while suppressing the increase in the amount of data.

特徴H2.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴H1に記載の遊技機。 Feature H2. The distortion forming means is described in the feature H1 characterized in that the deformation target object is deformed by individually updating at least a part of the coordinates of each vertex constituting the deformation target object. Game machine.

特徴H2によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像が歪んだように視認させることができる。 According to the feature H2, the coordinates of at least a part of the vertices in each vertex constituting the deformation target object are updated, so that the individual image based on the deformation target object can be visually recognized as distorted.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記歪み形成手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 It should be noted that "coordinate mapping data for designating the coordinates at each vertex constituting the transformation target object is provided, and a plurality of types of the coordinate mapping data are set so that the designated coordinates are different from each other. The strain forming means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referred to every time a predetermined update timing is reached, so that the object to be deformed is deformed. Is to be transformed so that it fluctuates. " According to such a configuration, the fluctuation of the image can be expressed, and the coordinates of each vertex of the object to be deformed are individually set in comparison with the configuration in which the calculation formula of each coordinate is given and calculated from the calculation formula. The processing load required for this can be reduced.

特徴H3.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴H2に記載の遊技機。 Feature H3. Described in feature H2, the strain forming means does not change the coordinates of the vertices constituting the deformation target object and which are related to the outer edge of the individual image based on the deformation target object. Game machine.

特徴H3によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、画像の一部を歪ませることができる。 According to the feature H3, since the coordinates of the vertices related to the outer edge of the individual image based on the deformed object are not changed, the boundary between the individual image based on the deformed object and the surrounding image is not conspicuous. This makes it possible to distort a part of the image while blending the two.

特徴H4.前記変形対象オブジェクトは、歪みの対象となる画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴H1乃至H3のいずれか1に記載の遊技機。 Features H4. The gaming machine according to any one of features H1 to H3, wherein the deformation target object is a plate-shaped object having a plane set corresponding to an image to be distorted.

特徴H4によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、歪ませるための処理負荷の軽減を図ることができる。 According to the feature H4, the deformation target object can be easily deformed by using a relatively simple plate-shaped object as the deformation target object. This makes it possible to reduce the processing load for distorting.

特徴H5.前記歪み形成手段は、所定の画像を表示させるための所定のオブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記所定の画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴H1乃至H4のいずれか1に記載の遊技機。 Feature H5. The distortion forming means arranges the deformation target object on the viewpoint side of the predetermined object for displaying the predetermined image, and applies image data corresponding to the predetermined image to the deformation target object as the texture. The gaming machine according to any one of the features H1 to H4, which is characterized in that it is attached as.

特徴H5によれば、変形対象オブジェクトを変形させることにより所定の画像が歪むこととなる。これにより、歪ませる場合と歪ませない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。 According to the feature H5, the predetermined image is distorted by deforming the object to be deformed. As a result, it is possible to standardize the processing in that it is not necessary to make the processing for a predetermined object different between the case of distorting and the case of not distorting.

また、歪ませる場合と歪ませない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、歪ませる場合と歪ませない場合との切換を比較的容易に行うことができる。 Further, since it is possible to deal with the case of distorting and the case of not distorting depending on whether or not the object to be deformed is placed, it is relatively easy to switch between the case of distorting and the case of not distorting. ..

特徴H6.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記所定のオブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記所定のオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記所定の画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記所定の画像に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記歪み形成手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像を歪ませるものであることを特徴とする特徴H5に記載の遊技機。
Feature H6. The arrangement means includes means for arranging the predetermined object among a plurality of objects set as display targets (a function of executing the process of step S4602 in the VDP 135).
The drawing setting means projects the predetermined object and generates predetermined generated data corresponding to the image including the predetermined image based on the data projected on the projection plane (process of step S4608 in VDP135). Has the ability to execute)
The data generation means generates textures to be attached to the object to be deformed by extracting image data corresponding to the predetermined image included in the predetermined generation data (steps S4801 and S4802 in VDP135). It has a function to execute the processing of
The distortion forming means arranges at least the deformation target object in the virtual three-dimensional space, attaches the texture generated by the texture generation means to the deformation target object, and further projects the deformation target object. The gaming machine according to feature H5, which is characterized in that the predetermined image is distorted by the result.

特徴H6によれば、所定のオブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、所定の画像を歪ませることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature H6, the predetermined generated data is generated by performing the first projection on the predetermined object, and the texture to be attached to the object to be deformed is generated using the predetermined generated data. Then, the predetermined image can be distorted by performing the second projection on the object to be deformed to which the texture is pasted. As a result, it is possible to reduce the amount of data in that it is not necessary to store the texture pasted on the object to be deformed in advance.

また、変形対象オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 Further, since the texture pasted to the object to be transformed has a structure generated by projecting a predetermined object, the image related to the texture is actually displayed using the predetermined object. It can resemble a predetermined image. This makes it possible to blend the image based on the object to be transformed with the image around it.

特徴H7.前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴H6に記載の遊技機。
Feature H7. The predetermined image is configured to be updatable at each update timing.
The predetermined generated data is generated every time the update timing is reached.
The texture generation means is characterized in that it generates a texture to be attached to the deformation target object by using the predetermined generation data generated at the update timing each time the update timing is reached. The gaming machine described in H6.

特徴H7によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、所定の画像が更新された場合であっても、当該更新された所定の画像を歪ませることができる。 According to the feature H7, predetermined generation data is generated every time the update timing is reached, and a texture to be attached to the object to be deformed is generated. As a result, even when a predetermined image is updated, the updated predetermined image can be distorted.

なお、「前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記所定のオブジェクトが配置される座標を更新することにより、前記所定の画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。 As a specific configuration of "the predetermined image is configured to be updatable every time the update timing is reached", for example, "the arrangement means is the predetermined object each time the update timing is reached". The configuration is such that the predetermined image is scrolled in a predetermined direction by updating the coordinates in which the image is arranged, or the viewpoint is moved in a predetermined direction each time the update timing is reached. Conceivable.

特徴H8.前記歪み形成手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像が歪んだ歪み画像に対応した歪み生成データ(演出及び図柄用の描画データ)を作成するものであり、
前記データ生成手段は、前記所定生成データと前記歪み生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴H6又は特徴H7に記載の遊技機。
Feature H8. The distortion forming means arranges the deformation target object in the virtual three-dimensional space, attaches a corresponding texture to the deformation target object, and further projects the deformation target object to obtain the predetermined image. Creates distortion generation data (drawing data for effects and patterns) corresponding to distorted distortion images.
The data generation means is characterized by including a synthesis means (a function of executing the process of step S4617 in VDP135) for generating 1 generation data by synthesizing the predetermined generation data and the strain generation data. The gaming machine according to the feature H6 or the feature H7.

特徴H8によれば、所定の画像に係る所定生成データを生成する処理と、歪み生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。 According to the feature H8, the process of generating the predetermined generated data related to the predetermined image and the process of generating the strain generation data are separated, and the generated data of 1 is generated by synthesizing the two. , The process of generating the texture to be pasted on the object to be transformed can be used as the process of generating the generated data of 1. This makes it possible to reduce the processing load.

また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。 Further, according to the above-mentioned features, it is possible to reduce the number of objects that are overlapped in two projections. This makes it possible to reduce the processing load caused by overlapping arrangements, overlapping projections, and the like.

特徴H9.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴H1乃至H8のいずれか1に記載の遊技機。
Feature H9. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the object to the object.
In the various parameter information, the individual reflection value information (individual α) that determines the degree of reflecting the color information of the texture attached to the object on the display unit for each predetermined unit area (pixel). Value) is included,
By adjusting the individual reflection value information applied to the deformation target object, the distortion forming means makes it difficult for the color information related to the individual image based on the deformation target object to be reflected toward the outer edge of the individual image. The gaming machine according to any one of the features H1 to H8, which is characterized in that it is to be.

特徴H9によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、歪んだ画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。 According to the feature H9, the color information related to the individual image is less likely to be reflected toward the outer edge of the individual image based on the object to be deformed. As a result, an image that is more familiar with other areas is displayed on the outer edge side of the individual image based on the object to be deformed. Therefore, the boundary between the area where the distorted image is displayed and the other area can be made inconspicuous.

特徴H10.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴H1乃至H9のいずれか1に記載の遊技機。
Feature H10. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the object to the object.
The various parameter information includes reflection value information (uniform α value) that determines the degree to which the color information of the texture attached to the object is reflected on the display unit.
The distortion forming means gradually adjusts the reflected value information applied to the deformed object so as not to gradually reflect the color information related to the individual image based on the deformed object (). The gaming machine according to any one of features H1 to H9, characterized in that the display CPU 131 is provided with a function of executing the process of step S4519.

特徴H10によれば、歪みを表現していた画像は徐々に消えていくため、歪みが消えていく過程が目立ちにくい。これにより、歪みが消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature H10, the image expressing the distortion gradually disappears, so that the process of disappearing the distortion is inconspicuous. As a result, it is possible to reduce the discomfort given to the player when the distortion disappears.

特徴H11.前記歪ませる対象となる画像は、前記表示部全体に表示される背景画像の一部であることを特徴とする特徴H1乃至H10のいずれか1に記載の遊技機。 Features H11. The gaming machine according to any one of features H1 to H10, wherein the image to be distorted is a part of a background image displayed on the entire display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を歪ませるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the amount of image data tends to be larger than that of the individual image displayed on a part of the display unit. Therefore, if a plurality of types of background image data are prepared in order to distort a part of the background image, the amount of data tends to be large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を歪ませることができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, a part of the background image can be distorted without preparing a plurality of types of background image data, so that the amount of data can be suitably reduced.

上記特徴H群は以下の課題に対して効果的である。 The above-mentioned feature H group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set on the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the polygon. Generated data is generated by projecting a polygon with a texture attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a three-dimensional image is displayed.

ここで、遊技への注目度を高めるために、表示部に表示される画像をよりリアルに表現する演出が行われる場合がある。当該演出としては、例えば光の屈折に基づく空間の歪みを表現する演出がある。この場合、例えば光の屈折の反映度を演算により導出させる構成とすると、処理負荷の増大化が懸念される。一方、光の屈折を反映した画像データを予め記憶しておく構成とすると、データ量の増大化が懸念される。 Here, in order to increase the degree of attention to the game, an effect of expressing the image displayed on the display unit more realistically may be performed. As the effect, for example, there is an effect of expressing the distortion of space based on the refraction of light. In this case, for example, if the degree of reflection of the refraction of light is derived by calculation, there is a concern that the processing load will increase. On the other hand, if the image data reflecting the refraction of light is stored in advance, there is a concern that the amount of data will increase.

<特徴I群>
特徴I1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、複数種類の画像データを用いて所定の第1生成データ(背景用の描画データ)を生成し、少なくとも前記第1生成データを利用して前記第1生成データとは異なる第2生成データ(演出及び図柄用の描画データ、又は1の描画データ)を生成するものであり、
前記表示制御手段は、少なくとも前記第2生成データを用いて前記表示部に画像を表示させることを特徴とする遊技機。
<Characteristic I group>
Features I1. A display means (design display device 31) having a display unit (display surface G) and
An image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (the function of creating the drawing list in the display CPU 131 and the function of executing the drawing process in the VDP 135), and the image is predetermined. Display control means (display CPU 131 and VDP 135) that update the contents of the image when the update timing comes, and
In a gaming machine equipped with
The data generation means generates predetermined first generation data (drawing data for a background) using a plurality of types of image data, and uses at least the first generation data to be different from the first generation data. 2 Generates data (drawing data for effect and design, or 1 drawing data).
The display control means is a gaming machine characterized in that an image is displayed on the display unit using at least the second generated data.

特徴I1によれば、第1生成データが生成され、当該生成された第1生成データを用いて第2生成データが生成される。これにより、第2生成データを用いた画像表示を行うことにより、第1生成データに係る画像を用いた画像を表示させることができる。よって、表示演出の多様化を図ることができるとともに、第1生成データを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature I1, the first generated data is generated, and the second generated data is generated using the generated first generated data. As a result, by displaying the image using the second generated data, it is possible to display the image using the image related to the first generated data. Therefore, it is possible to diversify the display effect and reduce the amount of data in that it is not necessary to store the first generated data in advance.

特徴I2.前記データ生成手段は、前記第1生成データの少なくとも一部を加工し、当該加工されたデータを用いて前記第2生成データを生成するものであることを特徴とする特徴I1に記載の遊技機。 Feature I2. The gaming machine according to feature I1, wherein the data generation means processes at least a part of the first generated data and uses the processed data to generate the second generated data. ..

特徴I2によれば、第1生成データの少なくとも一部が加工されて第2生成データが生成される。これにより、第1生成データをそのまま用いる構成と比較して、表示される画像のバリエーションの多様化を図ることができる。 According to the feature I2, at least a part of the first generated data is processed to generate the second generated data. This makes it possible to diversify the variations of the displayed image as compared with the configuration in which the first generated data is used as it is.

特徴I3.前記データ生成手段は、予め定められた対象画像が複数の更新タイミングに亘って移り変わる表示演出が行われるように、前記対象画像に係る前記第1生成データを生成し、当該第1生成データの少なくとも一部を加工して前記対象画像の移り変わりに対応した前記第2生成データを生成可能であることを特徴とする特徴I2に記載の遊技機。 Feature I3. The data generation means generates the first generation data related to the target image so that the display effect in which the predetermined target image changes over a plurality of update timings is performed, and at least the first generation data. The gaming machine according to feature I2, wherein the second generation data corresponding to the transition of the target image can be generated by processing a part of the target image.

特徴I3によれば、第1生成データ及び第2生成データを用いることにより複数の更新タイミングに亘って対象画像が移り変わる表示演出を実行することができる。これにより、表示演出の多様化を図ることができるとともに、上記移り変わりに対応した画像データを更新タイミング毎に用意しなくてよい点でデータ量の削減を図ることができる。 According to the feature I3, by using the first generated data and the second generated data, it is possible to execute a display effect in which the target image changes over a plurality of update timings. As a result, it is possible to diversify the display effect and reduce the amount of data in that it is not necessary to prepare the image data corresponding to the above-mentioned transition at each update timing.

特徴I4.前記データ生成手段は、前記第1生成データと前記第2生成データとを合成することにより、1の更新タイミングに対応する前記生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴I1又は特徴I2に記載の遊技機。 Feature I4. The data generation means has a function of executing the processing of step S4617 in the VDP 135 for generating the generated data corresponding to the update timing of 1 by synthesizing the first generated data and the second generated data. ), The gaming machine according to the feature I1 or the feature I2.

特徴I4によれば、第1生成データと第2生成データとを合成することにより1の更新タイミングに対応する生成データが生成されるため、第2生成データで用いられる第1生成データを生成するための処理を、上記生成データを生成するための処理に流用することができる。これにより、1の更新タイミングにて、第1生成データを生成しつつ上記生成データを生成する場合の処理負荷の軽減を図ることができる。 According to the feature I4, since the generated data corresponding to the update timing of 1 is generated by synthesizing the first generated data and the second generated data, the first generated data used in the second generated data is generated. Can be diverted to the process for generating the above-mentioned generated data. As a result, it is possible to reduce the processing load when the generated data is generated while the first generated data is generated at the update timing of 1.

特徴I5.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135における各種描画データ生成処理を実行する機能)と、
を備え、
前記オブジェクトには、前記第2生成データを生成する場合に用いられる特定オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記第2生成データは、少なくとも前記特定オブジェクトが配置され、当該特定オブジェクトが投影されることにより生成されるものであり、
前記貼付手段は、前記第2生成データを生成する場合には、前記特定オブジェクト(屈折用オブジェクトOB10)に貼り付けられるテクスチャとして、前記第1生成データの少なくとも一部を用いることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I5. The data generation means is
Arrangement means for arranging objects in a virtual three-dimensional space (a function for executing the processes of step S4602, step S4609, and step S4610 in VDP135) and
A viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (a function of executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in VDP135) and
A pasting means for pasting a texture on the object (a function for executing color information setting processing in VDP135) and
A drawing setting means (a function of executing various drawing data generation processes in VDP135) that projects the object on a projection plane set based on the viewpoint and generates the generated data based on the data projected on the projection plane. )When,
Equipped with
The object includes a specific object (refraction object OB10) used when generating the second generated data.
The second generated data is generated by arranging at least the specific object and projecting the specific object.
The pasting means is characterized in that when the second generated data is generated, at least a part of the first generated data is used as a texture to be pasted on the specific object (refraction object OB10). The gaming machine according to any one of I1 to I4.

特徴I5によれば、特定オブジェクトに対して貼り付けられるテクスチャとして、第1生成データの少なくとも一部が用いられる。これにより、特定オブジェクトに貼り付けるテクスチャを予め記憶しておく必要がない点でデータ量の削減を図ることができる。 According to the feature I5, at least a part of the first generated data is used as the texture to be attached to the specific object. As a result, it is possible to reduce the amount of data in that it is not necessary to store the texture to be pasted on the specific object in advance.

特徴I6.前記データ生成手段は、
仮想3次元空間内において表示対象となっている複数のオブジェクトのうち所定のオブジェクトを配置する第1配置手段(VDP135におけるステップS4602の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
少なくとも前記所定のオブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第1配置手段により配置された前記所定のオブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記第1生成データを生成する第1描画用設定手段(VDP135におけるステップS4608の処理を実行する機能)と、
前記第1生成データを用いて、予め定められた特定オブジェクト(屈折用オブジェクトOB10)に対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)と、
前記仮想3次元空間内において少なくとも前記特定オブジェクトを配置する第2配置手段(VDP135におけるステップS4609及びステップS4610の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第2配置手段により配置されたオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記第2生成データを生成する第2描画用設定手段(VDP135におけるステップS4616の処理を実行する機能)と、
を備え、
前記貼付手段は、前記特定オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付けるものであることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I6. The data generation means is
A first placement means (a function of executing the process of step S4602 in VDP135) for arranging a predetermined object among a plurality of objects to be displayed in the virtual three-dimensional space, and
A viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (a function of executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in VDP135) and
At least a pasting means (a function for executing color information setting processing in VDP135) for pasting a texture on the predetermined object, and
The first generated data is generated based on the data projected on the projection plane by projecting the predetermined object arranged by the first arrangement means onto the projection plane set based on the viewpoint. 1 Drawing setting means (function to execute the process of step S4608 in VDP135) and
A texture generation means (a function of executing the processes of steps S4801 and S4802 in VDP135) for generating a texture to be attached to a predetermined specific object (refraction object OB10) using the first generation data, and
A second arrangement means (a function of executing the processes of steps S4609 and S4610 in VDP135) for arranging at least the specific object in the virtual three-dimensional space, and
For the second drawing, the object arranged by the second arrangement means is projected onto the projection plane set based on the viewpoint, and the second generation data is generated based on the data projected on the projection plane. Setting means (function to execute the process of step S4616 in VDP135) and
Equipped with
The gaming machine according to any one of features I1 to I4, wherein the sticking means sticks a texture generated by the texture generating means to the specific object.

特徴I6によれば、所定のオブジェクトに対して1回目の投影を行うことにより第1生成データが生成され、当該第1生成データを用いて特定オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた特定オブジェクトに対して2回目の投影を行うことにより、第2生成データを生成することができる。これにより、特定オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature I6, the first generation data is generated by performing the first projection on a predetermined object, and the texture to be pasted on the specific object is generated by using the first generation data. Then, the second generation data can be generated by performing the second projection on the specific object to which the texture is pasted. As a result, it is possible to reduce the amount of data in that it is not necessary to store the texture pasted to the specific object in advance.

また、特定オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、所定オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 Further, since the texture pasted to the specific object is configured to be generated by projecting a predetermined object, the predetermined image related to the texture is actually displayed using the predetermined object. It can be resembled to the image of. As a result, the image based on the predetermined object and the image around it can be blended.

さらに、第2生成データを生成するための処理と同様の処理で、特定オブジェクトに対して貼り付けるテクスチャを生成することができるため、処理の流用を図ることができる。 Further, since the texture to be pasted to the specific object can be generated by the same process as the process for generating the second generated data, the process can be diverted.

特徴I7.前記特定オブジェクトは、変形対象として設定された変形対象オブジェクトであり、
前記配置手段は、変化対象として設定された変化対象画像を表示させるためのオブジェクトに対して前記視点側から重なるように前記変形対象オブジェクトを配置する手段(VDP135における屈折用オブジェクトOB10を配置する機能)を備え、
前記データ生成手段は、前記変形対象オブジェクトを変形させることにより前記変化対象画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させるための機能)を備えていることを特徴とする特徴I5又は特徴I6に記載の遊技機。
Feature I7. The specific object is a transformation target object set as a transformation target, and is a transformation target object.
The arranging means is a means for arranging the deformation target object so as to overlap the object for displaying the change target image set as the change target from the viewpoint side (a function of arranging the refraction object OB10 in the VDP 135). Equipped with
The data generating means is characterized by having a changing means (a function for displaying the distorted images CP15 and CP16 in the display CPU 131 and the VDP 135) for changing the changing target image by deforming the deforming target object. The gaming machine according to the feature I5 or the feature I6.

特徴I7によれば、変形対象オブジェクトに対して貼り付けるテクスチャを記憶させておくことなく変化対象画像を変化させることができる。 According to the feature I7, the change target image can be changed without storing the texture to be attached to the transformation target object.

特徴I8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴I7に記載の遊技機。 Feature I8. The game according to feature I7, wherein the changing means deforms the deformation target object by individually updating at least a part of the coordinates of each vertex constituting the deformation target object. Machine.

特徴I8によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。 According to the feature I8, the individual image based on the transformation target object can be changed by updating the coordinates of at least a part of the vertices in each vertex constituting the transformation target object.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 It should be noted that "coordinate mapping data for designating the coordinates at each vertex constituting the transformation target object is provided, and a plurality of types of the coordinate mapping data are set so that the designated coordinates are different from each other. The changing means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referred to every time a predetermined update timing is reached, so that the object to be transformed changes. It is something that deforms so that it fluctuates. " According to such a configuration, the fluctuation of the image can be expressed, and the coordinates of each vertex of the object to be deformed are individually set in comparison with the configuration in which the calculation formula of each coordinate is given and calculated from the calculation formula. The processing load required for this can be reduced.

特徴I9.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴I8に記載の遊技機。 Feature I9. The game according to feature I8, wherein the changing means does not change the coordinates of the vertices constituting the deformation target object and which are related to the outer edge of the individual image based on the deformation target object. Machine.

特徴I9によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象画像を変化させることができる。 According to the feature I9, since the coordinates of the vertices related to the outer edge of the individual image based on the deformed object are not changed, the boundary between the individual image based on the deformed object and the surrounding image is not conspicuous. As a result, it is possible to change the image to be changed while blending the two.

特徴I10.前記変形対象オブジェクトは、前記変化対象画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴I7乃至I9のいずれか1に記載の遊技機。 Feature I10. The gaming machine according to any one of features I7 to I9, wherein the deformation target object is a plate-shaped object having a plane set corresponding to the change target image.

特徴I10によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象画像を変化させるための処理負荷の軽減を図ることができる。 According to the feature I10, the deformation target object can be easily deformed by using a relatively simple plate-shaped object as the deformation target object. This makes it possible to reduce the processing load for changing the image to be changed.

特徴I11.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴I7乃至I10のいずれか1に記載の遊技機。 Feature I11. The changing means executes distortion forming means for distorting the image to be changed by deforming the object to be deformed (a function of executing a distortion effect calculation process on the display CPU 131, and various processes for distortion effect on the VDP 135). The gaming machine according to any one of features I7 to I10, which is characterized in that it is a function).

特徴I11によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。 According to the feature I11, the distortion of the image can be expressed by deforming the object to be deformed.

特徴I12.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴I7乃至I11のいずれか1に記載の遊技機。
Feature I12. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the object to the object.
In the various parameter information, the individual reflection value information (individual α) that determines the degree of reflecting the color information of the texture attached to the object on the display unit for each predetermined unit area (pixel). Value) is included,
By adjusting the individual reflection value information applied to the transformation target object, the change means becomes less likely to reflect the color information related to the individual image based on the transformation target object toward the outer edge of the individual image. The gaming machine according to any one of features I7 to I11, which is characterized in that it is to be used.

特徴I12によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化した画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。 According to the feature I12, the color information related to the individual image is less likely to be reflected toward the outer edge of the individual image based on the object to be deformed. As a result, an image that is more familiar with other areas is displayed on the outer edge side of the individual image based on the object to be deformed. Therefore, the boundary between the area where the changed image is displayed and the other area can be made inconspicuous.

特徴I13.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴I7乃至I12のいずれか1に記載の遊技機。
Feature I13. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the object to the object.
The various parameter information includes reflection value information (uniform α value) that determines the degree to which the color information of the texture attached to the object is reflected on the display unit.
The changing means gradually adjusts the reflected value information applied to the deformed object so as not to gradually reflect the color information related to the individual image based on the deformed object (display). The gaming machine according to any one of features I7 to I12, characterized in that the CPU 131 is provided with a function of executing the process of step S4519.

特徴I13によれば、変形対象オブジェクトに基づく画像は徐々に消えていくため、当該画像が消えていく過程が目立ちにくい。これにより、変形対象オブジェクトに基づく画像が消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature I13, since the image based on the object to be deformed gradually disappears, the process of disappearing the image is not conspicuous. As a result, it is possible to reduce the discomfort given to the player when the image based on the object to be deformed disappears.

特徴I14.前記第1生成データは、前記表示部全体に表示される背景画像に係る画像データであることを特徴とする特徴I1乃至I13のいずれか1に記載の遊技機。 Feature I14. The gaming machine according to any one of features I1 to I13, wherein the first generated data is image data related to a background image displayed on the entire display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を加工するために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the amount of image data tends to be larger than that of the individual image displayed on a part of the display unit. Therefore, if a plurality of types of background image data are prepared in order to process a part of the background image, the amount of data tends to be large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を用いた演出を行うことができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, it is possible to perform an effect using a part of the background image without preparing a plurality of types of background image data, so that the amount of data can be suitably reduced.

上記特徴I群は以下の課題に対して効果的である。 The above-mentioned feature I group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where the image is displayed using the two-dimensional image data, the image data for displaying the background and the image data for displaying the character etc. are stored in the memory for the image data. Has been done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated for a storage means such as VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set on the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the polygon. Generated data is generated by projecting a polygon with a texture attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a three-dimensional image is displayed.

ここで、表示演出への注目度を高めるには、表示演出の多様化を図ることが考えられる。しかしながら、当該表示演出の多様化を図るために画像データを複数設ける構成とすると、データ量の増大化が懸念される。 Here, in order to increase the degree of attention to the display effect, it is conceivable to diversify the display effect. However, if a plurality of image data are provided in order to diversify the display effect, there is a concern that the amount of data will increase.

<特徴J群>
特徴J1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、前記表示部に表示される特定個別画像(背景画像、キャラクタ画像CP22)の一部である変化対象部位(歪み領域PE1、重ね合わせ領域PE2)を、特定画像データを用いて変化させることにより前記特定個別画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させる機能、及び各部分画像CP23〜CP25を表示させる機能)を備えていることを特徴とする遊技機。
<Characteristic J group>
Features J1. A display means (design display device 31) having a display unit (display surface G) and
An image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (the function of creating the drawing list in the display CPU 131 and the function of executing the drawing process in the VDP 135), and the image is predetermined. Display control means (display CPU 131 and VDP 135) that update the contents of the image when the update timing comes, and
In a gaming machine equipped with
The data generation means uses the specific image data to generate a change target portion (distortion region PE1, overlay region PE2) that is a part of the specific individual image (background image, character image CP22) displayed on the display unit. It is characterized by having a changing means (a function of displaying each distorted image CP15, CP16 in the display CPU 131 and VDP135, and a function of displaying each partial image CP23 to CP25) by changing the specific individual image. A game machine to play.

特徴J1によれば、特定画像データを用いることにより変化対象画像を変化させることで特定個別画像を変化させることができる。これにより、表示演出の多様化を図ることができる。この場合、特定画像データは変化対象部位を変化させるためのものであるため、特定個別画像全体に対応する画像データと比較して、特定画像データに係るデータ量を小さくすることができる。よって、表示演出の多様化を図りつつ、当該多様化に伴うデータ量の増大化を抑制することができる。 According to the feature J1, the specific individual image can be changed by changing the change target image by using the specific image data. This makes it possible to diversify the display effect. In this case, since the specific image data is for changing the change target portion, the amount of data related to the specific image data can be reduced as compared with the image data corresponding to the entire specific individual image. Therefore, it is possible to suppress the increase in the amount of data due to the diversification while aiming at the diversification of the display effect.

特徴J2.前記データ生成手段は、前記特定個別画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記変化手段は、前記変化対象部位において前記所定生成データに係る画像に代えて前記特定画像データに基づく画像が表示されるようにするものであることを特徴とする特徴J1に記載の遊技機。
Feature J2. The data generation means includes means for generating predetermined generated data corresponding to the specific individual image (a function of executing the process of step S4608 in the VDP 135).
The gaming machine according to feature J1, wherein the changing means is such that an image based on the specific image data is displayed in place of the image related to the predetermined generated data at the changing target portion.

特徴J2によれば、変化対象部位において所定生成データに係る画像に代えて特定画像データに基づく画像が表示されることにより、特定個別画像が変化する。これにより、所定生成データに係る画像と特定画像データに係る画像とを組み合わせる構成と比較して、変化対象部位の変化を容易に行うことができる。 According to the feature J2, the specific individual image is changed by displaying the image based on the specific image data in place of the image related to the predetermined generated data at the change target portion. As a result, it is possible to easily change the change target portion as compared with the configuration in which the image related to the predetermined generated data and the image related to the specific image data are combined.

特徴J3.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616及びステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、前記変化対象部位に対応させて設定された特定テクスチャであり、
前記変化手段は、前記特定テクスチャを用いて前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Feature J3. The data generation means is
Arrangement means for arranging objects in a virtual three-dimensional space (a function for executing the processes of step S4602, step S4609, and step S4610 in VDP135) and
A viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (a function of executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in VDP135) and
A pasting means for pasting a texture to the object (a function of executing the processes of steps S4607 and S4615 in VDP135) and
A drawing setting means (step S4608, step S4616 and step S4617 in VDP135) that projects the object onto a projection plane set based on the viewpoint and generates the generated data based on the data projected on the projection plane. Function to execute processing) and
Equipped with
The object includes a specific object used for displaying the specific individual image and in which the change target portion is set.
The specific image data is a specific texture set corresponding to the change target portion, and is
The gaming machine according to feature J1 or feature J2, wherein the changing means changes an image displayed on the change target portion by using the specific texture.

特徴J3によれば、特定テクスチャを用いて変化対象部位に表示される画像を変化させることができる。この場合、特定テクスチャは変化対象部位に対応させて設定されているため、特定オブジェクト全体に係るテクスチャを用意する構成と比較して、特定テクスチャのデータ量が小さくなり易い。これにより、データ量の削減を図ることができる。 According to the feature J3, the image displayed on the change target portion can be changed by using the specific texture. In this case, since the specific texture is set corresponding to the change target portion, the amount of data of the specific texture tends to be smaller than the configuration in which the texture related to the entire specific object is prepared. As a result, the amount of data can be reduced.

特徴J4.前記オブジェクトには、前記変化対象部位に対応させて形成された板状オブジェクトが含まれており、
前記変化手段は、前記変化対象部位に対して前記板状オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記板状オブジェクトを配置し、前記板状オブジェクトに対して前記特定テクスチャを貼り付けることにより、前記変化対象部位の画像を前記特定テクスチャに対応した画像に変化させるものであることを特徴とする特徴J3に記載の遊技機。
Features J4. The object includes a plate-shaped object formed corresponding to the change target site.
The changing means arranges the specific object and the plate-shaped object so that the plate-shaped object overlaps the change target portion from the viewpoint side, and attaches the specific texture to the plate-shaped object. The gaming machine according to feature J3, wherein the image of the change target portion is changed into an image corresponding to the specific texture.

特徴J4によれば、板状オブジェクトは比較的頂点が少ないポリゴンであるため、板状オブジェクトの頂点数が特定オブジェクトにおける変化対象部位に対応する頂点数よりも少なくない易い。これにより、特定オブジェクトの変化対象部位に対して特定テクスチャを貼り付ける構成と比較して、特定テクスチャを貼り付ける処理負荷を軽減することができる。 According to the feature J4, since the plate-shaped object is a polygon having relatively few vertices, the number of vertices of the plate-shaped object is likely to be not less than the number of vertices corresponding to the change target portion in the specific object. As a result, it is possible to reduce the processing load of pasting the specific texture as compared with the configuration of pasting the specific texture to the change target portion of the specific object.

また、変化させる場合と変化させない場合とを、板状オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。 Further, since it is possible to correspond between the case of changing and the case of not changing depending on whether or not the plate-shaped object is arranged, it is possible to switch between the case of changing and the case of not changing relatively easily.

特徴J5.前記特定テクスチャは複数種類用意されており、
前記変化手段は、予め定められた更新タイミングとなる度に、前記複数種類の特定テクスチャを予め定められた順序で用いることにより、前記変化対象部位において一連の動作が行われるようにするものであることを特徴とする特徴J4に記載の遊技機。
Feature J5. Multiple types of the specific texture are prepared,
The change means uses the plurality of types of specific textures in a predetermined order each time a predetermined update timing is reached, so that a series of operations can be performed at the change target portion. The gaming machine according to the feature J4.

特徴J5によれば、用いる特定テクスチャが予め定められた順序で用いられることにより、変化対象部位にて一連の動作が行われる。この場合、1の特定テクスチャのデータ量は特定オブジェクト全体のテクスチャのデータ量よりも小さくなっているため、一連の動作に係るデータ量を大幅に小さくすることができる。これにより、少ないデータ量で上記一連の動作に係る画像の表示を行うことができる。 According to the feature J5, a series of operations are performed at the change target portion by using the specific textures to be used in a predetermined order. In this case, since the amount of data of one specific texture is smaller than the amount of data of the texture of the entire specific object, the amount of data related to a series of operations can be significantly reduced. As a result, it is possible to display an image related to the above series of operations with a small amount of data.

特徴J6.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616、ステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、変形対象として設定された変形対象オブジェクトであり、
前記変化手段は、前記変化対象部位に対して前記変形対象オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Features J6. The data generation means is
Arrangement means for arranging objects in a virtual three-dimensional space (a function for executing the processes of step S4602, step S4609, and step S4610 in VDP135) and
A viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (a function of executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in VDP135) and
A pasting means for pasting a texture to the object (a function of executing the processes of steps S4607 and S4615 in VDP135) and
A drawing setting means (step S4608, step S4616, step S4617 in VDP135) that projects the object onto a projection plane set based on the viewpoint and generates the generated data based on the data projected on the projection plane. Function to execute processing) and
Equipped with
The object includes a specific object used for displaying the specific individual image and in which the change target portion is set.
The specific image data is a transformation target object set as a transformation target, and is a transformation target object.
The changing means arranges the specific object and the deformation target object so that the deformation target object overlaps the change target portion from the viewpoint side, and deforms the transformation target object to cause the change target portion. The gaming machine according to the feature J1 or the feature J2, which is characterized in that the image displayed in is changed.

特徴J6によれば、変化対象部位と重なるように変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、変形対象オブジェクトに基づく個別画像が変化し、変化対象部位に表示される画像が変化することとなる。これにより、画像を変化させるための画像データとしてテクスチャを複数用意する必要がない点でデータ量の削減を図ることができる。 According to the feature J6, by arranging the deformation target object so as to overlap with the change target part and deforming the deformation target object, the individual image based on the transformation target object is changed, and the image displayed on the change target part is displayed. It will change. As a result, it is possible to reduce the amount of data in that it is not necessary to prepare a plurality of textures as image data for changing the image.

特徴J7.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴J6に記載の遊技機。 Feature J7. The game according to feature J6, wherein the changing means deforms the deformation target object by individually updating at least a part of the coordinates of each vertex constituting the deformation target object. Machine.

特徴J7によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。 According to the feature J7, the individual image based on the transformation target object can be changed by updating the coordinates of at least a part of the vertices in each vertex constituting the transformation target object.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 It should be noted that "coordinate mapping data for designating the coordinates at each vertex constituting the transformation target object is provided, and a plurality of types of the coordinate mapping data are set so that the designated coordinates are different from each other. The changing means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referred to every time a predetermined update timing is reached, so that the object to be transformed changes. It is something that deforms so that it fluctuates. " According to such a configuration, the fluctuation of the image can be expressed, and the coordinates of each vertex of the object to be deformed are individually set in comparison with the configuration in which the calculation formula of each coordinate is given and calculated from the calculation formula. The processing load required for this can be reduced.

特徴J8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴J7に記載の遊技機。 Features J8. The game according to feature J7, wherein the changing means does not change the coordinates of the vertices constituting the deformation target object and which are related to the outer edge of the individual image based on the deformation target object. Machine.

特徴J8によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変化対象部位に係る画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象部位の画像を変化させることができる。 According to the feature J8, since the coordinates of the vertices related to the outer edge of the individual image based on the object to be deformed are not changed, the boundary between the image related to the change target portion and the image around it is not conspicuous. As a result, it is possible to change the image of the change target portion while blending the two.

特徴J9.前記変形対象オブジェクトは、前記変化対象部位に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴J6乃至J8のいずれか1に記載の遊技機。 Features J9. The gaming machine according to any one of features J6 to J8, wherein the deformation target object is a plate-shaped object having a plane set corresponding to the change target portion.

特徴J9によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象部位を変化させるための処理負荷の軽減を図ることができる。 According to the feature J9, by using a relatively simple plate-shaped object as the object to be deformed, the object to be deformed can be easily deformed. As a result, it is possible to reduce the processing load for changing the change target portion.

特徴J10.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象部位に係る画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴J6乃至J9のいずれか1に記載の遊技機。 Features J10. The changing means is a distortion forming means (a function of executing a distortion effect calculation process in the display CPU 131) for distorting an image related to the change target portion by deforming the object to be transformed, and various processes for distortion effect in the VDP135. The gaming machine according to any one of the features J6 to J9, which is characterized in that it is a function of executing the above.

特徴J10によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。 According to the feature J10, the distortion of the image can be expressed by deforming the object to be deformed.

特徴J11.前記変化手段は、前記特定オブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記変化対象部位に表示される画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴J6乃至J10のいずれか1に記載の遊技機。 Features J11. The changing means arranges the deformation target object on the viewpoint side of the specific object, and attaches image data corresponding to the image displayed on the change target portion to the deformation target object as the texture. The gaming machine according to any one of the features J6 to J10.

特徴J11によれば、変形対象オブジェクトを変形させることにより変化対象部位の画像が変化することとなる。これにより、変化させる場合と変化させない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。 According to the feature J11, the image of the change target portion is changed by deforming the transformation target object. As a result, it is possible to standardize the processing in that it is not necessary to make the processing for a predetermined object different between the case where the object is changed and the case where the object is not changed.

また、変化させる場合と変化させない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。 Further, since it is possible to correspond between the case where the object is changed and the case where the object is not changed depending on whether or not the object to be transformed is arranged, it is relatively easy to switch between the case where the object is changed and the case where the object is not changed.

特徴J12.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記特定オブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記特定オブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記特定個別画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記特定個別画像の前記変化対象部位に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記変化手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像を変化させるものであることを特徴とする特徴J11に記載の遊技機。
Features J12. The placement means includes means for arranging the specific object among a plurality of objects set as display targets (a function of executing the process of step S4602 in the VDP 135).
The drawing setting means projects the specific object and generates predetermined generated data corresponding to the image including the specific individual image based on the data projected on the projection plane (process of step S4608 in VDP135). Has a function to execute)
The data generation means is a texture generation means (in VDP135) that generates a texture to be attached to the deformation target object by extracting image data corresponding to the change target portion of the specific individual image included in the predetermined generation data. A function for executing the processes of steps S4801 and S4802) is provided.
The changing means arranges at least the deformation target object in the virtual three-dimensional space, attaches the texture generated by the texture generation means to the deformation target object, and further projects the deformation target object. The gaming machine according to feature J11, characterized in that the image of the change target portion is changed accordingly.

特徴J12によれば、特定オブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、変化対象部位に係る画像を変化させることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature J12, predetermined generation data is generated by performing the first projection on a specific object, and a texture to be pasted on the deformation target object is generated using the predetermined generation data. Then, by performing the second projection on the deformation target object to which the texture is pasted, the image related to the change target portion can be changed. As a result, it is possible to reduce the amount of data in that it is not necessary to store the texture pasted on the object to be deformed in advance.

また、変形対象オブジェクトに対して貼り付けられるテクスチャは、特定オブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に特定オブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 Further, since the texture pasted to the object to be transformed has a configuration generated by projecting a specific object, a predetermined image related to the above texture is actually displayed using the specific object. It can resemble an image. This makes it possible to blend the image based on the object to be transformed with the image around it.

さらに、特定オブジェクトに対して貼り付けるテクスチャを生成する処理と、変化対象部位の画像を変化させる処理とが投影するという点で共通しているため、両者の処理構成の共通化を図ることができる。 Furthermore, since the process of generating a texture to be pasted on a specific object and the process of changing the image of the change target part are common in that they are projected, it is possible to standardize the processing configurations of both. ..

特徴J13.前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴J12に記載の遊技機。
Feature J13. The specific individual image is configured to be updatable at each update timing.
The predetermined generated data is generated every time the update timing is reached.
The texture generation means is characterized in that it generates a texture to be attached to the deformation target object by using the predetermined generation data generated at the update timing each time the update timing is reached. The gaming machine described in J12.

特徴J13によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、特定個別画像が更新された場合であっても、当該更新された特定個別画像を変化させることができる。 According to the feature J13, predetermined generation data is generated every time the update timing is reached, and a texture to be attached to the object to be deformed is generated. As a result, even when the specific individual image is updated, the updated specific individual image can be changed.

なお、「前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記特定オブジェクトが配置される座標を更新することにより、前記特定個別画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。 As a specific configuration of "the specific individual image is configured to be updatable every time the update timing is reached", for example, "the arrangement means is such that the specific object is configured every time the update timing is reached". A configuration in which the specific individual image is scrolled in a predetermined direction by updating the arranged coordinates, a configuration in which the viewpoint is moved in a predetermined direction each time the update timing is reached, and the like are considered. Be done.

特徴J14.前記変化手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像が変化した変化生成データを作成するものであり、
前記データ生成手段は、前記所定生成データと前記変化生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴J12又は特徴J13に記載の遊技機。
Feature J14. The changing means arranges the deformation target object in the virtual three-dimensional space, attaches a corresponding texture to the deformation target object, and further projects the deformation target object to obtain the change target portion. It creates change generation data in which the image has changed.
The data generation means is characterized by comprising a synthesis means (a function of executing the process of step S4617 in VDP135) for generating the generation data of 1 by synthesizing the predetermined generation data and the change generation data. The gaming machine according to the feature J12 or the feature J13.

特徴J14によれば、特定個別画像を含む画像に対応した所定生成データを生成する処理と、変化生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。 According to the feature J14, the process of generating the predetermined generated data corresponding to the image including the specific individual image and the process of generating the change generation data are separated, and the generated data of 1 is generated by synthesizing the two. Therefore, the process of generating the texture to be pasted on the object to be deformed can be used as the process of generating the generated data of 1. This makes it possible to reduce the processing load.

また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。 Further, according to the above-mentioned features, it is possible to reduce the number of objects that are overlapped in two projections. This makes it possible to reduce the processing load caused by overlapping arrangements, overlapping projections, and the like.

特徴J15.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記個別反映値情報を調整することにより、前記特定画像データに基づく画像に係る前記色情報が当該画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴J1乃至J14のいずれか1に記載の遊技機。
Feature J15. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the image data to the image data.
The various parameter information includes individual reflection value information (individual α value) that determines the degree to which the color information of the image data is reflected in the display unit for each predetermined unit area (pixel).
By adjusting the individual reflection value information applied to the specific image data, the changing means makes it difficult for the color information related to the image based on the specific image data to be reflected toward the outer edge of the image. The gaming machine according to any one of the features J1 to J14, which is characterized in that it is to be used.

特徴J15によれば、特定画像データに基づく画像の外縁に向かうに従って当該画像に係る色情報が反映されにくくなっている。これにより、特定画像データに基づく画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化対象部位の画像と他の領域の画像との境界を目立ちにくくすることができる。 According to the feature J15, the color information related to the image becomes less likely to be reflected toward the outer edge of the image based on the specific image data. As a result, an image that is more familiar with other areas is displayed on the outer edge side of the image based on the specific image data. Therefore, the boundary between the image of the change target portion and the image of the other region can be made inconspicuous.

特徴J16.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記反映値情報を段階的に調整することにより、徐々に前記特定画像データの色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴J1乃至J15のいずれか1に記載の遊技機。
Features J16. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the image data to the image data.
The various parameter information includes reflected value information (uniform α value) that determines the degree to which the color information of the image data is reflected in the display unit.
The changing means gradually adjusts the reflected value information applied to the specific image data so as not to gradually reflect the color information of the specific image data (in the display CPU 131, step S4519). The gaming machine according to any one of features J1 to J15, characterized in that it has a function of executing processing).

特徴J16によれば、変化対象部位に表示される特定画像データに基づく画像は徐々に消えていくため、変化画像が消えていく過程が目立ちにくい。これにより、変化画像が消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature J16, since the image based on the specific image data displayed on the change target portion gradually disappears, the process of the change image disappearing is not conspicuous. As a result, it is possible to reduce the sense of discomfort given to the player when the changing image disappears.

特徴J17.前記特定個別画像は、前記表示部に表示される背景画像の一部であることを特徴とする特徴J1乃至J16のいずれか1に記載の遊技機。 Feature J17. The gaming machine according to any one of features J1 to J16, wherein the specific individual image is a part of a background image displayed on the display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を変化させるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the amount of image data tends to be larger than that of the individual image displayed on a part of the display unit. Therefore, if a plurality of types of background image data are prepared in order to change a part of the background image, the amount of data tends to be large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、当該背景画像の一部を変化させることができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, since a part of the background image can be changed without preparing a plurality of types of background image data, the amount of data can be suitably reduced.

上記特徴J群は以下の課題に対して効果的である。 The above-mentioned feature J group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where the image is displayed using the two-dimensional image data, the image data for displaying the background and the image data for displaying the character etc. are stored in the memory for the image data. Has been done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated for a storage means such as VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set on the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the polygon. Generated data is generated by projecting a polygon with a texture attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a three-dimensional image is displayed.

ここで、表示部に表示されている画像の一部を変化させる表示演出を行うことで、表示演出の多様化を図ることが可能となると考えられる。しかしながら、当該表示演出を行うために例えば表示部全体の画像データを設ける構成とすると、データ量の増大化が懸念される。 Here, it is considered that it is possible to diversify the display effect by performing a display effect that changes a part of the image displayed on the display unit. However, if, for example, the image data of the entire display unit is provided in order to perform the display effect, there is a concern that the amount of data will increase.

<特徴K群>
特徴K1.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる所定オブジェクト(各オブジェクトOB1〜OB4)が含まれており、さらに前記テクスチャには、前記所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記所定オブジェクトを見た場合の画像に対応した所定テクスチャ(各テクスチャTD1〜TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Characteristic K group>
Features K1. Arrangement means for arranging objects that are three-dimensional information in a virtual three-dimensional space (functions that execute the processes of steps S1002 to S1004 in VDP135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (in VDP135). A function for executing the processes of steps S1005 and S1006), a pasting means for pasting a texture on the object (a function for executing a color information setting process in VDP135), and a projection plane set based on the viewpoint. Projection means for projecting the object (a function of executing the processes of steps S1010 and S1011 in VDP135) and drawing setting means for generating generated data (drawing data) based on the data projected on the projection plane (drawing data). A storage means (frame buffer 142) for storing the generated data generated by the data generation means (display CPU 131, VDP135) having the function of executing the process of steps S101 to S1012 in the VDP135, and the storage means (frame buffer 142).
A display control means (VDP135) that displays an image corresponding to the generated data stored in the storage means on the display unit (display surface G) and updates the contents of the image when a predetermined update timing is reached. ,
In a gaming machine equipped with
The object includes a predetermined object (each object OB1 to OB4) used when displaying a predetermined first predetermined image (sandy beach background image BP10) on the display unit, and the texture further includes the said object. It is a texture pasted to a predetermined object, and includes a predetermined texture (each texture TD1 to TD4) corresponding to an image when the predetermined object is viewed from a predetermined specific viewpoint.
The projection means comprises perspective projection and parallel projection as projection patterns for projecting the object onto the projection plane.
The data generation means is
A first generation means for generating generation data corresponding to the first predetermined image using the predetermined object and the predetermined texture by setting the viewpoint to the specific viewpoint and setting the projection pattern to the perspective projection. (A function to execute arithmetic processing for sandy beach background in the display CPU 131, and a function to execute drawing processing in VDP135),
By changing the viewpoint from the specific viewpoint to a predetermined modified viewpoint and setting the projection pattern to the parallel projection, a second predetermined image different from the first predetermined image using the predetermined object and the predetermined texture. A second generation means (a function of executing the background arithmetic processing of the sandy beach sprinting effect in the display CPU 131 and a function of executing the drawing processing in the VDP 135) to generate the generation data corresponding to the above.
A gaming machine characterized by being equipped with.

特徴K1によれば、視点を特定視点に設定し且つ投影パターンとして透視投影を設定し、さらに所定テクスチャを所定オブジェクトに対して貼り付けることにより、所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。 According to the feature K1, the first predetermined image is set without complicating the predetermined object by setting the viewpoint to a specific viewpoint, setting the perspective projection as the projection pattern, and further pasting the predetermined texture to the predetermined object. Can be made into an image with a sense of perspective.

かかる構成において、所定テクスチャは、特定視点から所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間で遠近感が整合しない。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。 In such a configuration, since the predetermined texture corresponds to the image when the predetermined object is viewed from the specific viewpoint, the image displayed by the predetermined object and the predetermined texture when the viewpoint is changed from the specific viewpoint to the changed viewpoint, and others. Perspective does not match with the image of. Therefore, the second predetermined image becomes an image with a sense of discomfort, which may give a sense of discomfort to the player.

これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 On the other hand, according to this feature, since the second predetermined image is generated by performing perspective projection without considering the depth, between the image displayed by the predetermined object and the predetermined texture and the other image. It is possible to match the perspective of the image. This makes it possible to display two different predetermined images while using the same texture. Therefore, it is possible to diversify the display effect while suppressing the increase in the amount of data.

特徴K2.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる複数の所定オブジェクト(各オブジェクトOB1〜OB4)が含まれており、さらに前記テクスチャには、前記各所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記各所定オブジェクトを見た場合の画像に対応した複数の所定テクスチャ(各テクスチャTD1〜TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像(演出用背景画像BP20)に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
Feature K2. Arrangement means for arranging objects that are three-dimensional information in a virtual three-dimensional space (functions that execute the processes of steps S1002 to S1004 in VDP135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (in VDP135). A function for executing the processes of steps S1005 and S1006), a pasting means for pasting a texture on the object (a function for executing a color information setting process in VDP135), and a projection plane set based on the viewpoint. Projection means for projecting the object (a function of executing the processes of steps S1010 and S1011 in VDP135) and drawing setting means for generating generated data (drawing data) based on the data projected on the projection plane (drawing data). A storage means (frame buffer 142) for storing the generated data generated by the data generation means (display CPU 131, VDP135) having the function of executing the process of steps S101 to S1012 in the VDP135, and the storage means (frame buffer 142).
A display control means (VDP135) that displays an image corresponding to the generated data stored in the storage means on the display unit (display surface G) and updates the contents of the image when a predetermined update timing is reached. ,
In a gaming machine equipped with
The object includes a plurality of predetermined objects (each object OB1 to OB4) used when displaying a predetermined first predetermined image (sandy beach background image BP10) on the display unit, and the texture further includes. , A plurality of predetermined textures (each texture TD1 to TD4) corresponding to an image when the predetermined object is viewed from a predetermined specific viewpoint, which is a texture attached to each predetermined object. And
The projection means comprises perspective projection and parallel projection as projection patterns for projecting the object onto the projection plane.
The data generation means is
By setting the viewpoint to the specific viewpoint and setting the projection pattern to the perspective projection, the first generation data corresponding to the first predetermined image is generated using the predetermined object and the predetermined texture. Generation means (a function of executing arithmetic processing for a sandy beach background in the display CPU 131 and a function of executing drawing processing in VDP135) and
By changing the viewpoint from the specific viewpoint to a predetermined modified viewpoint and setting the projection pattern to the parallel projection, a second image different from the first predetermined image using the predetermined object and the predetermined texture. A second generation means (a function of executing the background arithmetic processing of the sandy beach sprinting effect in the display CPU 131 and a function of executing the drawing process in the VDP 135) for generating the generated data corresponding to the predetermined image (the background image BP20 for the effect).
A gaming machine characterized by being equipped with.

特徴K2によれば、投影パターンとして透視投影を設定するとともに、各所定オブジェクトを奥行き方向に異なる位置に配置し、さらに各所定テクスチャを各所定オブジェクトに対して貼り付けることにより、各所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。 According to the feature K2, each predetermined object is complicated by setting perspective projection as a projection pattern, arranging each predetermined object at a different position in the depth direction, and pasting each predetermined texture to each predetermined object. The first predetermined image can be made into an image with a sense of perspective.

かかる構成において、各所定テクスチャは、特定視点から各所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると、ある所定オブジェクト及びそれに対応した所定テクスチャにより表示される画像と、他の所定オブジェクト及びそれに対応した所定テクスチャとにより表示される画像との間で遠近感が整合しなくなる。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。 In such a configuration, each predetermined texture corresponds to an image when each predetermined object is viewed from a specific viewpoint. Therefore, when the viewpoint is changed from the specific viewpoint to the changed viewpoint, the predetermined object and the corresponding predetermined texture are used. The perspective becomes inconsistent between the displayed image and the image displayed by the other predetermined object and the corresponding predetermined texture. Therefore, the second predetermined image becomes an image with a sense of discomfort, which may give a sense of discomfort to the player.

これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、両者の間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 On the other hand, according to this feature, since the second predetermined image is generated by performing perspective projection without considering the depth, it is possible to match the perspective between the two. This makes it possible to display two different predetermined images while using the same texture. Therefore, it is possible to diversify the display effect while suppressing the increase in the amount of data.

特徴K3.前記第2生成手段は、前記各所定オブジェクトを用いて表示される各画像をそれぞれ同一方向に移動させることにより前記第2所定画像が移動するように前記生成データを生成するものであることを特徴とする特徴K2に記載の遊技機。 Feature K3. The second generation means is characterized in that the generated data is generated so that the second predetermined image moves by moving each image displayed by using each predetermined object in the same direction. The gaming machine described in the feature K2.

特徴K3によれば、各所定オブジェクトを用いて表示される各画像を同一方向に移動させることにより、第2所定画像を移動させることができ、表示演出の多様化を図ることができる。一方、各画像を同一方向に移動させると、各画像間の遠近感の不整合が目立ち易くなり、第2所定画像が移動する表示演出が違和感のあるものとなり易い。 According to the feature K3, by moving each image displayed by using each predetermined object in the same direction, the second predetermined image can be moved, and the display effect can be diversified. On the other hand, when each image is moved in the same direction, the inconsistency in perspective between the images becomes conspicuous, and the display effect of moving the second predetermined image tends to be uncomfortable.

これに対して、特徴K2によれば、平行投影を行うことにより第2所定画像に対応した生成データを生成する構成としたことにより、上記不整合を目立ちにくくすることができるため、上記表示演出を好適に行うことができる。 On the other hand, according to the feature K2, the above-mentioned inconsistency can be made inconspicuous by the configuration in which the generated data corresponding to the second predetermined image is generated by performing the parallel projection. Can be preferably performed.

特徴K4.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記第2生成手段は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるほど、当該各所定オブジェクトに対して適用される前記倍率情報を小さく設定するものであることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Features K4. The data generation means generates the generated data based on applying the parameter information that determines the display mode of the image by the object to the object.
The parameter information includes magnification information of the object.
The feature K2 or the second generation means is characterized in that the magnification information applied to each predetermined object is set smaller as the distance between the change viewpoint and each predetermined object becomes larger. Feature The gaming machine described in K3.

特徴K4によれば、変更視点を基準として遠い位置に配置されている所定オブジェクトに係る画像ほど小さく表示される。これにより、擬似的に遠近感が生じるため、平行投影において遠近感のある画像を表現することができる。 According to the feature K4, the image related to the predetermined object arranged at a distant position with respect to the change viewpoint is displayed smaller. As a result, a pseudo perspective is generated, so that an image with a perspective can be expressed in parallel projection.

特徴K5.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記各所定オブジェクトを平行投影した場合の当該各所定オブジェクトが投影される領域が前記各所定オブジェクトを透視投影した場合の領域と同一となるように、前記各所定オブジェクトの倍率情報及び座標が設定されていることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Feature K5. The data generation means generates the generated data based on applying the parameter information that determines the display mode of the image by the object to the object.
The parameter information includes magnification information of the object.
The magnification information and coordinates of each predetermined object are set so that the area on which each predetermined object is projected when the predetermined objects are projected in parallel is the same as the area when the predetermined objects are perspectively projected. The gaming machine according to the feature K2 or the feature K3, which is characterized by being

特徴K5によれば、各所定オブジェクトを平行投影することにより得られる画像を、各所定オブジェクトを透視投影することにより得られる画像に似せることができる。これにより、平行投影により得られた画像を、あたかも透視投影により得られる遠近感のある画像のように見せることができる。 According to the feature K5, the image obtained by parallel-projecting each predetermined object can be made to resemble the image obtained by perspective-projecting each predetermined object. As a result, the image obtained by parallel projection can be made to look as if it were an image with a sense of perspective obtained by perspective projection.

特徴K6.前記第2生成手段は、少なくとも前記各所定オブジェクトを所定の速度で移動させる移動手段(表示CPU131におけるステップS4313の処理を実行する機能)を備え、
前記各所定オブジェクトの移動速度は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるに従って前記変更視点に対する前記各所定オブジェクトの相対速度が小さくなるように設定されていることを特徴とする特徴K2乃至K5のいずれか1に記載の遊技機。
Features K6. The second generation means includes at least a moving means for moving each predetermined object at a predetermined speed (a function of executing the process of step S4313 in the display CPU 131).
The moving speed of each predetermined object is set so that the relative speed of each predetermined object with respect to the change viewpoint decreases as the distance between the change viewpoint and each predetermined object increases. The gaming machine according to any one of K2 to K5.

特徴K6によれば、変更視点からの距離が大きい所定オブジェクトほどゆっくり移動するように見え、変更視点からの距離が小さい所定オブジェクトほど速く移動するように見える。これにより、平行投影を行う構成において擬似的に遠近感を発生させることができる。 According to the feature K6, the predetermined object having a longer distance from the changing viewpoint seems to move slowly, and the predetermined object having a smaller distance from the changing viewpoint seems to move faster. This makes it possible to generate a pseudo perspective in a configuration in which parallel projection is performed.

特徴K7.前記各所定オブジェクトはそれぞれ板状オブジェクトであり、
前記各板状オブジェクトは、前記投影平面に対して傾斜した状態で前記特定視点の奥行き方向に並べて配置されており、
前記各所定オブジェクトに対して貼り付けられるテクスチャは、前記特定視点から見た場合の画像に対応するように前記傾斜に対応させて設定されていることを特徴とする特徴K2乃至K6のいずれか1に記載の遊技機。
Feature K7. Each predetermined object is a plate-shaped object, and is a plate-shaped object.
The plate-shaped objects are arranged side by side in the depth direction of the specific viewpoint in a state of being inclined with respect to the projection plane.
One of the features K2 to K6, wherein the texture attached to each predetermined object is set corresponding to the inclination so as to correspond to the image when viewed from the specific viewpoint. The gaming machine described in.

特徴K7によれば、透視投影を行うことにより比較的簡素な板状オブジェクトを用いて遠近感のある画像を生成することができるため、当該画像の表示に係る処理負荷を軽減することができる。一方、視点が変更することに起因する各個別画像間における遠近感のずれが目立ち易い。 According to the feature K7, since a perspective image can be generated by using a relatively simple plate-shaped object by performing perspective projection, the processing load related to the display of the image can be reduced. On the other hand, the difference in perspective between each individual image due to the change of the viewpoint is easily noticeable.

これに対して、上記特徴K2によれば、平行投影することにより、視点の変更に伴う遠近感のずれを抑制することができる。 On the other hand, according to the above-mentioned feature K2, by performing parallel projection, it is possible to suppress a shift in perspective due to a change in viewpoint.

上記特徴K群は以下の課題に対して効果的である。 The above-mentioned feature K group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko gaming machines, slot machines, and the like are known as a type of gaming machine. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set on the virtual 3D space, and a texture that is 2D image data such as characters and patterns is pasted on the polygon. Generated data is generated by projecting a polygon with a texture attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a three-dimensional image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出の多様化を図ることが好ましい。その一方、表示演出の多様化を図る上で、データ量の極端な増大化は好ましくない。 Here, in order to increase the interest of the player in the display effect, it is preferable to diversify the display effect. On the other hand, in order to diversify the display effect, it is not preferable to extremely increase the amount of data.

以下に、以上の各特徴を適用し得る各種遊技機の基本構成を示す。 The basic configurations of various gaming machines to which the above features can be applied are shown below.

パチンコ遊技機:遊技者が操作する操作手段と、その操作手段の操作に基づいて遊技球を発射する遊技球発射手段と、その発射された遊技球を所定の遊技領域に導く球通路と、遊技領域内に配置された各遊技部品とを備え、それら各遊技部品のうち所定の通過部を遊技球が通過した場合に遊技者に特典を付与する遊技機。 Pachinko gaming machine: An operating means operated by a player, a game ball launching means for launching a game ball based on the operation of the operating means, a ball passage for guiding the launched game ball to a predetermined game area, and a game. A gaming machine that includes each gaming component arranged in an area and grants a privilege to a player when a gaming ball passes through a predetermined passing portion of each gaming component.

スロットマシン等の回胴式遊技機:複数の絵柄を可変表示させる絵柄表示装置を備え、始動操作手段の操作に起因して前記複数の絵柄の可変表示が開始され、停止操作手段の操作に起因して前記複数の絵柄の可変表示が停止され、その停止後の絵柄に応じて遊技者に特典を付与する遊技機。 Rotating machine such as a slot machine: Equipped with a picture display device that variably displays a plurality of pictures, the variable display of the plurality of pictures is started due to the operation of the start operation means, and is caused by the operation of the stop operation means. A gaming machine in which the variable display of the plurality of symbols is stopped, and a privilege is given to the player according to the symbols after the stop.

10…パチンコ機、31…図柄表示装置、48…演出用操作装置、131…表示CPU、133…メモリモジュール、135…VDP、142…フレームバッファ、151…ジオメトリ演算部、152…レンダリング部、155…表示回路、AP1〜AP4…付属パーツ部、BP…本体パーツ部、CH15…教示用の個別画像、CH16…教示用の個別画像、KD1…第1キーデータ、KD2…第2キーデータ、ND1…第1法線マップデータ、ND2…第2法線マップデータ、PC17…粒子分散用オブジェクト、PC19…海面用オブジェクト、PC20…特別オブジェクト、PC21〜PC23…第1部分テクスチャ、PC24〜PC27…第2部分テクスチャ、PT1…粒子単体画像、PT2…粒子単体画像、SD…面データ、SD1…適用対象の面データ、SD2…緩衝用の面データ、RMD0…ラウンド動画像データ、IPD0…挿入画像データ、IP1…第1挿入キャラクタ画像、IP2…第2挿入キャラクタ画像、RMD0a…第1ラウンド動画像データ、RMD0b…第2ラウンド動画像データ、OB1…砂浜オブジェクト、OB2…波オブジェクト、OB3…海オブジェクト、OB4…空オブジェクト、TD1…砂浜テクスチャ、TD2…波テクスチャ、TD3…海テクスチャ、TD4…空テクスチャ、PV1…特定視点、PV2…別視点、BP10…砂浜背景画像、BP20…演出用背景画像、OB10…屈折用オブジェクト、SKD1…屈折用αデータ、MD1…第1座標マッピングデータ、MD2…第2座標マッピングデータ、CP13…膨張珊瑚画像、CP14…収縮珊瑚画像、CP15…第1歪み画像、CP16…第2歪み画像、PE1…歪み領域、OB21…ベースオブジェクト、OB22…部分オブジェクト、OB31…頭部オブジェクト、TD11…ベーステクスチャ、TD12…部分テクスチャ、TD21〜TD23…第1〜第3部分テクスチャ、CP21…ベース画像、CP23〜CP25…第1〜第3部分画像、PE2…重ね合わせ領域。 10 ... Pachinko machine, 31 ... Design display device, 48 ... Production operation device, 131 ... Display CPU, 133 ... Memory module, 135 ... VDP, 142 ... Frame buffer, 151 ... Geometry calculation unit, 152 ... Rendering unit, 155 ... Display circuit, AP1 to AP4 ... Attached parts, BP ... Main body parts, CH15 ... Individual image for teaching, CH16 ... Individual image for teaching, KD1 ... 1st key data, KD2 ... 2nd key data, ND1 ... 1 normal map data, ND2 ... 2nd normal map data, PC17 ... particle dispersion object, PC19 ... sea surface object, PC20 ... special object, PC21-PC23 ... 1st partial texture, PC24-PC27 ... 2nd partial texture , PT1 ... Particle single image, PT2 ... Particle single image, SD ... Surface data, SD1 ... Applicable surface data, SD2 ... Buffer surface data, RMD0 ... Round moving image data, IPD0 ... Insert image data, IP1 ... First 1 Inserted character image, IP2 ... 2nd inserted character image, RMD0a ... 1st round moving image data, RMD0b ... 2nd round moving image data, OB1 ... sandy beach object, OB2 ... wave object, OB3 ... sea object, OB4 ... empty object , TD1 ... sandy beach texture, TD2 ... wave texture, TD3 ... sea texture, TD4 ... sky texture, PV1 ... specific viewpoint, PV2 ... different viewpoint, BP10 ... sandy beach background image, BP20 ... production background image, OB10 ... refraction object, SKD1 ... Refraction α data, MD1 ... First coordinate mapping data, MD2 ... Second coordinate mapping data, CP13 ... Expansion coral image, CP14 ... Shrinking coral image, CP15 ... First distortion image, CP16 ... Second distortion image, PE1 ... Distortion area, OB21 ... Base object, OB22 ... Partial object, OB31 ... Head object, TD11 ... Base texture, TD12 ... Partial texture, TD21 to TD23 ... First to third partial texture, CP21 ... Base image, CP23 to CP25 ... 1st to 3rd partial images, PE2 ... Overlapping area.

Claims (1)

表示部を有する表示手段と、
データ生成手段によって生成された生成データを用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段と、
を備えている遊技機において、
前記データ生成手段は、前記表示部に表示される特定個別画像の一部である変化対象部位を、特定画像データを用いて変化させることにより前記特定個別画像を変化させる変化手段を備えていることを特徴とする遊技機。
A display means having a display unit and
A display control means for displaying an image on the display unit using the generated data generated by the data generation means and updating the contents of the image when a predetermined update timing is reached.
In a gaming machine equipped with
The data generation means includes a changing means for changing the specific individual image by changing the change target portion which is a part of the specific individual image displayed on the display unit by using the specific image data. A gaming machine featuring.
JP2021132108A 2019-11-06 2021-08-16 game machine Active JP7120408B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021132108A JP7120408B2 (en) 2019-11-06 2021-08-16 game machine

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019201627A JP2020018919A (en) 2019-11-06 2019-11-06 Game machine
JP2021132108A JP7120408B2 (en) 2019-11-06 2021-08-16 game machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019201627A Division JP2020018919A (en) 2019-11-06 2019-11-06 Game machine

Publications (3)

Publication Number Publication Date
JP2021178228A true JP2021178228A (en) 2021-11-18
JP2021178228A5 JP2021178228A5 (en) 2022-04-11
JP7120408B2 JP7120408B2 (en) 2022-08-17

Family

ID=69587788

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019201627A Withdrawn JP2020018919A (en) 2019-11-06 2019-11-06 Game machine
JP2021132108A Active JP7120408B2 (en) 2019-11-06 2021-08-16 game machine

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019201627A Withdrawn JP2020018919A (en) 2019-11-06 2019-11-06 Game machine

Country Status (1)

Country Link
JP (2) JP2020018919A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002272960A (en) * 2001-03-15 2002-09-24 Heiwa Corp Game machine
JP2005185701A (en) * 2003-12-26 2005-07-14 Sankyo Kk Game machine
JP2005224373A (en) * 2004-02-12 2005-08-25 Sankyo Kk Game machine
JP2005270129A (en) * 2004-03-22 2005-10-06 Aruze Corp Game machine
JP2009119121A (en) * 2007-11-16 2009-06-04 Newgin Corp Game machine

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264580A (en) * 1994-03-17 1995-10-13 Toshiba Corp Method for transmitting video signal and video signal transmitter and receiver
JPH1155626A (en) * 1997-08-04 1999-02-26 Matsushita Electric Ind Co Ltd Television signal coder and television signal recorder
JP5124786B2 (en) * 2007-12-26 2013-01-23 株式会社大一商会 Game machine
JP2019201628A (en) * 2018-05-17 2019-11-28 久知 竹内 Tablet

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002272960A (en) * 2001-03-15 2002-09-24 Heiwa Corp Game machine
JP2005185701A (en) * 2003-12-26 2005-07-14 Sankyo Kk Game machine
JP2005224373A (en) * 2004-02-12 2005-08-25 Sankyo Kk Game machine
JP2005270129A (en) * 2004-03-22 2005-10-06 Aruze Corp Game machine
JP2009119121A (en) * 2007-11-16 2009-06-04 Newgin Corp Game machine

Also Published As

Publication number Publication date
JP2020018919A (en) 2020-02-06
JP7120408B2 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
JP5703736B2 (en) Game machine
JP6131972B2 (en) Game machine
JP5703735B2 (en) Game machine
JP5482642B2 (en) Game machine
JP5565292B2 (en) Game machine
JP6015791B2 (en) Game machine
JP5910672B2 (en) Game machine
JP6702403B2 (en) Amusement machine
JP5783285B2 (en) Game machine
JP6311762B2 (en) Game machine
JP6015792B2 (en) Game machine
JP6011659B2 (en) Game machine
JP5703733B2 (en) Game machine
JP5703734B2 (en) Game machine
JP2017121589A (en) Game machine
JP6604394B2 (en) Game machine
JP6614261B2 (en) Game machine
JP6614262B2 (en) Game machine
JP7283599B2 (en) game machine
JP7120408B2 (en) game machine
JP6311763B2 (en) Game machine
JP6315047B2 (en) Game machine
JP2021175556A (en) Game machine
JP2020138037A (en) Game machine
JP2018015579A (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R150 Certificate of patent or registration of utility model

Ref document number: 7120408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150