JP6702403B2 - Amusement machine - Google Patents

Amusement machine Download PDF

Info

Publication number
JP6702403B2
JP6702403B2 JP2018238731A JP2018238731A JP6702403B2 JP 6702403 B2 JP6702403 B2 JP 6702403B2 JP 2018238731 A JP2018238731 A JP 2018238731A JP 2018238731 A JP2018238731 A JP 2018238731A JP 6702403 B2 JP6702403 B2 JP 6702403B2
Authority
JP
Japan
Prior art keywords
display
data
executed
mode
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018238731A
Other languages
Japanese (ja)
Other versions
JP2019042582A (en
Inventor
英明 大室
英明 大室
岡村 鉉
鉉 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2018238731A priority Critical patent/JP6702403B2/en
Publication of JP2019042582A publication Critical patent/JP2019042582A/en
Application granted granted Critical
Publication of JP6702403B2 publication Critical patent/JP6702403B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Pinball Game Machines (AREA)
  • Display Devices Of Pinball Game Machines (AREA)

Description

本発明は遊技機に関するものである。 The present invention relates to a gaming machine.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。当該遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる(例えば特許文献1参照)。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. It is known that these gaming machines are equipped with a display device having a display unit, such as a liquid crystal display device. In the gaming machine, a memory for image data in which image data is stored in advance is mounted, and a predetermined image is displayed on the display unit using the image data read from the memory ( For example, see Patent Document 1).

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きくなり易く、画像データ用のメモリには圧縮された状態で記憶されている場合がある。 Further, a configuration including moving image data as image data is also known. The data amount of moving image data tends to be larger than that of still image data, and may be stored in a compressed state in a memory for image data.

特開2004−208830号公報JP, 2004-208830, A

ここで、表示演出への遊技者の興味を高めるうえで、動画像データを用いた表示演出は好ましい一方、データ量の増大化は好ましくない。 Here, in order to increase the player's interest in the display effect, the display effect using the moving image data is preferable, but the increase in the data amount is not preferable.

本発明は、上記例示した事情等に鑑みてなされたものであり、動画像データのデータ量の増大化を抑制しつつ、表示演出を好適に行うことが可能な遊技機を提供することを目的とするものである。 The present invention has been made in view of the above-exemplified circumstances and the like, and an object of the present invention is to provide a gaming machine capable of favorably performing a display effect while suppressing an increase in the amount of moving image data. It is what

本発明は、
表示部を有する表示手段と、
画像データを予め記憶した表示用記憶手段と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段と、
遊技者に有利な遊技状態となった場合に遊技球を受け入れ可能となるように開放する入賞手段と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、静止画像データを作成する展開手段と、
当該展開手段により展開された静止画像データを用いることにより、その動画像データに対応した画像の動画を所定の表示期間に亘って表示させる表示演出を実行する表示演出実行手段と、
を備え、
前記表示演出実行手段は、
予め定められた挿入画像を前記表示部に表示することにより特定演出を実行可能な第1手段と、
前記第1手段による前記特定演出以前に表示される第1動画像データによる動画と、前記特定演出以後に表示される第2動画像データによる動画と、を前記表示部に表示可能な第2手段と、
を備え、
前記第1手段及び前記第2手段により、前記入賞手段開放状態とすることにより実行される一のラウンド遊技に対応する一連の表示演出を実行可能であり、
前記第1動画像データに割り当てられるデータ量が、前記第2動画像データに割り当てられるデータ量よりも多くなるようにして圧縮されており、
前記挿入画像が前記第2動画像データによる動画と重複して表示され得ることを特徴とする。
The present invention is
Display means having a display part;
Display storage means for storing image data in advance,
Display control means for displaying an image on the display section using image data stored in the display storage means;
A winning means for opening the game ball so that it can be accepted when the game state is advantageous to the player
In a gaming machine equipped with
The display storage means stores compressed moving image data used to reproduce a moving image,
The display control means,
Expanding means for expanding any of the moving image data in the expansion area to create still image data,
By using the still image data expanded by the expanding means, display effect executing means for executing a display effect of displaying a moving image of an image corresponding to the moving image data for a predetermined display period,
Equipped with
The display effect executing means,
A first means capable of executing a specific effect by displaying a predetermined insertion image on the display unit;
Second means capable of displaying, on the display unit, a moving image based on the first moving image data displayed before the specific effect by the first means and a moving image based on the second moving image data displayed after the specific effect. When,
Equipped with
By the first means and the second means is capable of executing a series of display effect corresponding to one round game to be executed by an open state the winning unit,
The data amount assigned to the first moving image data is compressed so as to be larger than the data amount assigned to the second moving image data,
The insertion image may be displayed so as to overlap with a moving image based on the second moving image data.

本発明によれば、動画像データのデータ量の増大化を抑制しつつ、表示演出を好適に行うことが可能となる。 According to the present invention, it is possible to preferably perform a display effect while suppressing an increase in the amount of moving image data.

パチンコ機を示す正面図である。It is a front view showing a pachinko machine. (a)〜(j)図柄表示装置の表示面における表示内容を説明するための説明図である。It is explanatory drawing for demonstrating the display content on the display surface of (a)-(j) symbol display device. (a),(b)図柄表示装置の表示面における表示内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the display content on the display surface of a symbol display device. パチンコ機の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a pachinko machine. 当否抽選などに用いられる各種カウンタの内容を説明するための説明図である。It is an explanatory view for explaining the contents of various counters used for win/win lottery. 主制御装置にて実行されるタイマ割込み処理を示すフローチャートである。It is a flow chart which shows timer interruption processing performed in a main control unit. 主制御装置にて実行される通常処理を示すフローチャートである。It is a flow chart which shows the normal processing performed in the main control unit. 主制御装置にて実行される遊技回制御処理を示すフローチャートである。It is a flow chart which shows game time control processing performed with a main control unit. 主制御装置にて実行される変動開始処理を示すフローチャートである。It is a flow chart which shows the change start processing performed by the main controller. 主制御装置の処理構成の別形態であってメイン処理を示すフローチャートである。6 is a flowchart showing a main process which is another mode of the process configuration of the main control device. 主制御装置の処理構成の別形態であってタイマ割込み処理を示すフローチャートである。7 is a flowchart showing a timer interrupt process which is another form of the process configuration of the main control device. 表示CPUにて実行されるメイン処理を示すフローチャートである。It is a flow chart which shows the main processing performed by the display CPU. 表示CPUにて実行されるV割込み処理を示すフローチャートである。It is a flow chart which shows V interruption processing performed by a display CPU. 表示CPUにて実行されるタスク処理を示すフローチャートである。It is a flowchart which shows the task process performed by a display CPU. (a)〜(c)描画リストの内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of (a)-(c) drawing list. VDPにて実行される描画処理を示すフローチャートである。7 is a flowchart showing a drawing process executed by VDP. 描画処理の実行に伴い描画データが作成される様子を説明するための説明図である。FIG. 9 is an explanatory diagram for explaining a situation in which drawing data is created in accordance with execution of drawing processing. VDPにて実行されるZバッファを用いた隠面処理を示すフローチャートである。It is a flow chart which shows hidden surface processing using a Z buffer performed by VDP. 表示CPUにて実行されるマスク用の演算処理を示すフローチャートである。It is a flow chart which shows the calculation processing for masks performed by the display CPU. (a),(b)第1のマスク表示の具体的な内容を説明するための説明図である。(A), (b) It is an explanatory view for explaining the specific contents of the first mask display. (a)〜(d)第2のマスク表示の具体的な内容を説明するための説明図である。It is explanatory drawing for demonstrating the specific content of (a)-(d) 2nd mask display. 表示CPUにて実行されるマスク用の演算処理を示すフローチャートである。It is a flow chart which shows the calculation processing for masks performed by the display CPU. 表示CPUにて実行される操作発生コマンド対応処理を示すフローチャートである。It is a flow chart which shows operation generation command corresponding processing performed by a display CPU. 表示CPUにて実行される表示モード背景用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for a display mode background performed by a display CPU. 表示CPUにて実行される図柄用演算処理を示すフローチャートである。It is a flowchart showing a symbol calculation process executed by the display CPU. VDPにて実行される背景用の設定処理を示すフローチャートである。7 is a flowchart showing background setting processing executed by VDP. VDPにて実行される背景用の描画データ作成処理を示すフローチャートである。7 is a flowchart showing background drawing data creation processing executed by VDP. 第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを示すタイミングチャートである。7 is a timing chart showing a timing at which separate storage data for the first display mode and separate storage data for the second display mode are created. (a),(b)連結オブジェクトを説明するための説明図である。It is explanatory drawing for demonstrating (a), (b) connection object. 表示CPUにて実行される連結オブジェクト用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the connection object performed by a display CPU. VDPにて実行される連結オブジェクト演出用の設定処理を示すフローチャートである。It is the flowchart which shows the setting processing for connection object production which is executed with VDP. (a)〜(c)連結オブジェクト演出を説明するための説明図である。It is explanatory drawing for demonstrating (a)-(c) connection object production. (a)は粒子分散用オブジェクトを説明するための説明図であり、(b)は粒子分散用テクスチャを説明するための説明図であり、(c)〜(e)はキーデータを説明するための説明図である。(A) is an explanatory view for explaining an object for particle dispersion, (b) is an explanatory view for explaining a texture for particle dispersion, and (c) to (e) are for explaining key data. FIG. (a)は表示CPUにて実行される連結オブジェクト用の演算処理を示すフローチャートであり、(b)はブレンド用テーブルを説明するための説明図である。(A) is a flowchart showing a calculation process for a connected object executed by the display CPU, and (b) is an explanatory diagram for explaining a blending table. VDPにて実行される粒子分散演出用の設定処理を示すフローチャートである。It is the flowchart which shows the setting processing for the particle dispersion production which is executed with VDP. (a)は粒子分散演出を説明するための説明図であり、(b−1)及び(b−2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。(A) is explanatory drawing for demonstrating a particle dispersion production, (b-1) and (b-2) are for demonstrating simply what kind of locus|trajectory each particle single image displaces. FIG. VDPにて実行される粒子分散演出用の設定処理の別形態を示すフローチャートである。It is a flowchart which shows another form of the setting process for particle dispersion production performed by VDP. (a)は海面用オブジェクトを説明するための説明図であり、(b)は法線マップデータを説明するための説明図である。(A) is an explanatory view for explaining a sea surface object, and (b) is an explanatory view for explaining normal line map data. (a),(b)一対の法線マップデータを海面用オブジェクトに適用する手法を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the method of applying a pair of normal line map data to the object for sea surfaces. (a)〜(c)各面データに対する変更データの適用の仕方を説明するための説明図である。It is explanatory drawing for demonstrating how to apply the change data with respect to each surface data of (a)-(c). (a)は表示CPUにて実行される海面表示用の演算処理を示すフローチャートであり、(b)は海面用アニメーションデータを説明するための説明図である。(A) is a flowchart which shows the arithmetic processing for sea surface display performed by a display CPU, (b) is explanatory drawing for demonstrating the animation data for sea surfaces. VDPにて実行される海面表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting processing for sea surface display performed by VDP. VDPにて実行される法線パラメータの設定処理を示すフローチャートである。8 is a flowchart showing a normal parameter setting process executed by VDP. (a)〜(c)各面データに色情報を設定する手法を説明するための説明図である。It is explanatory drawing for demonstrating the method of setting color information to each surface data of (a)-(c). (a)はVDPにて実行される海面表示用の色情報設定処理を示すフローチャートであり、(b)はVDPにて実行される海面用の調整処理を示すフローチャートである。(A) is a flowchart showing a sea surface display color information setting process executed by VDP, and (b) is a flowchart showing a sea surface adjustment process executed by VDP. (a)は海面表示を説明するための説明図であり、(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。(A) is an explanatory view for explaining the sea surface display, and (b) is an explanatory view for simply explaining the setting mode of the color information of the area where the sea surface display is performed. VDPにて実行される海面表示用の色情報設定処理の別形態を示すフローチャートである。9 is a flowchart showing another mode of the sea surface display color information setting process executed by the VDP. 表示CPUにて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。It is the flowchart which shows the production arithmetic processing in opening and closing execution mode which is executed with the indicatory CPU. (a)はVDPにおいてピントを調整する上で用いられるVRAMの各エリアを説明するための説明図であり、(b)はVDPにて実行される描画データ合成処理を示すフローチャートである。(A) is an explanatory view for explaining each area of the VRAM used for adjusting the focus in the VDP, and (b) is a flowchart showing a drawing data synthesizing process executed in the VDP. (a)はVDPにて実行されるピント演出用の調整処理を示すフローチャートであり、(b)はピント範囲及び各ぼかし範囲を説明するための説明図である。(A) is a flow chart which shows the adjustment processing for focus production performed by VDP, and (b) is an explanatory view for explaining a focus range and each blurring range. (a)はVDPにて実行されるぼかし発生処理を示すフローチャートであり、(b−1)及び(b−2)はぼかし発生処理に際しての単位エリアの抽出態様を説明するための説明図である。(A) is a flowchart showing a blurring generation process executed in VDP, and (b-1) and (b-2) are explanatory diagrams for explaining a unit area extraction mode in the blurring generation process. .. (a)はピント表示が行われていない状態を説明するための説明図であり、(b)はピント表示が行われている状態を説明するための説明図である。(A) is an explanatory view for explaining a state in which focus display is not performed, and (b) is an explanatory view for explaining a state in which focus display is performed. (a)は特別オブジェクトを説明するための説明図であり、(b−1)〜(b−3)は第1部分テクスチャを説明するための説明図であり、(c−1)〜(c−4)は第2部分テクスチャを説明するための説明図である。(A) is an explanatory view for explaining a special object, (b-1) to (b-3) are explanatory views for explaining a first partial texture, and (c-1) to (c). -4) is an explanatory view for explaining the second partial texture. 表示CPUにて実行される特別キャラクタ用の演算処理を示すフローチャートである。It is a flow chart which shows the calculation processing for special characters performed by the display CPU. VDPにて実行される特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。It is a flowchart which shows the texture mapping process for special characters performed by VDP. (a),(b)模様変更表示の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of (a), (b) pattern change display. ラウンド動画像データのデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure of round moving image data. (a)ラウンド動画像データによる表示内容を説明するための説明図であり、(b)挿入画像データによる表示内容を説明するための説明図である。(A) It is explanatory drawing for demonstrating the display content by round moving image data, (b) It is explanatory drawing for demonstrating the display content by insertion image data. 表示CPUにより実行されるラウンド演出用の演算処理を示すフローチャートである。It is the flowchart which shows the calculation processing for the round production which is executed by the display CPU. 動画デコーダによるデコード処理を示すフローチャートである。It is a flowchart which shows the decoding process by a moving image decoder. VDPにより実行されるラウンド演出用の設定処理を示すフローチャートである。It is the flowchart which shows the setting processing for the round production which is executed with VDP. VDPにより実行されるラウンド演出用マッピング処理を示すフローチャートである。It is the flowchart which shows the round production mapping processing which is executed with VDP. (a)〜(d)ラウンド演出の様子を説明するための説明図である。It is explanatory drawing for demonstrating the mode of (a)-(d) round production. 別形態におけるラウンド動画像データのデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure of the round moving image data in another form. (a)第1ラウンド動画像データの圧縮態様を説明するための説明図であり、(b)第2ラウンド動画像データの圧縮態様を説明するための説明図であり、(c)各ラウンド動画像データのビットレートを説明するためのグラフである。(A) It is explanatory drawing for demonstrating the compression aspect of 1st round moving image data, (b) It is explanatory drawing for demonstrating the compression aspect of 2nd round moving image data, (c) Each round moving image 6 is a graph for explaining a bit rate of image data. 別形態におけるラウンド演出用の演算処理を示すフローチャートである。It is a flowchart which shows the calculation process for round effects in another form. (a)別形態におけるラウンド演出用の設定処理を示すフローチャートであり、(b)別形態におけるラウンド演出用マッピング処理を示すフローチャートである。(A) It is a flowchart which shows the setting process for round effects in another form, and (b) It is a flowchart which shows the mapping process for round effects in another form. ラウンド演出の実行態様を説明するためのタイムチャートである。It is a time chart for explaining an execution mode of a round effect. (a),(b)砂浜背景画像を表示させるのに用いられる各オブジェクトを説明するための説明図である。(A), (b) It is an explanatory view for explaining each object used for displaying a beach background image. 砂浜背景画像を表示させるのに用いられる各テクスチャを説明するための説明図である。It is an explanatory view for explaining each texture used for displaying a beach background image. 視点が変更されることによるパースペクティブの変化を説明するための説明図である。It is explanatory drawing for demonstrating the change of a perspective by changing a viewpoint. 演出用背景画像を作成する場合の各オブジェクトの設定態様を説明するための説明図である。It is explanatory drawing for demonstrating the setting aspect of each object at the time of creating a production background image. 砂浜背景用演算処理を示すフローチャートである。It is a flowchart which shows the beach background calculation process. (a)砂浜疾走演出の背景用演算処理を示すフローチャートであり、(b)各オブジェクトの視点からの距離と当該視点に対する相対速度との関係を説明するための説明図である。It is a flowchart which shows the calculation processing for backgrounds of (a) sandy beach dash production, and (b) is explanatory drawing for demonstrating the relationship between the distance from the viewpoint of each object, and the relative speed with respect to the said viewpoint. 砂浜疾走演出の演出用演算処理を示すフローチャートである。It is the flowchart which shows the calculation processing for production of the sandy beach dash production. (a)砂浜背景画像が表示された表示面を示す説明図であり、(b)砂浜疾走演出の様子を説明するための説明図である。(A) It is explanatory drawing which shows the display surface in which the beach background image was displayed, (b) It is explanatory drawing for demonstrating the mode of sandy beach dash production. (a)屈折用オブジェクトを説明するための説明図であり、(b)第1変形形態を説明するための説明図であり、(c)第2変形形態を説明するための説明図であり、(d)屈折用αデータを説明するための説明図である。(A) It is explanatory drawing for demonstrating the refraction object, (b) It is explanatory drawing for demonstrating 1st modification, (c) It is explanatory drawing for demonstrating 2nd modification, (D) It is an explanatory view for explaining α data for refraction. 歪み演出演算処理を示すフローチャートである。It is a flow chart which shows distortion production calculation processing. (a)第1座標マッピングデータを説明するための説明図であり、(b)第2座標マッピングデータを説明するための説明図である。(A) It is an explanatory view for explaining the 1st coordinate mapping data, and (b) is an explanatory view for explaining the 2nd coordinate mapping data. 第2の実施形態における描画処理を示すフローチャートである。It is a flow chart which shows the drawing processing in a 2nd embodiment. 歪み演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for distortion production. 歪み演出用テクスチャマッピング処理を示すフローチャートである。It is a flowchart which shows the texture mapping process for distortion production. 歪み演出用融合処理を示すフローチャートである。It is a flow chart which shows fusion processing for distortion production. 歪み演出の様子を説明するための説明図である。It is an explanatory view for explaining the situation of distortion production. (a)ベースオブジェクト及び部分オブジェクトを説明するための説明図であり、(b)ベーステクスチャを説明するための説明図であり、(c)各部分テクスチャを説明するための説明図である。(A) It is explanatory drawing for demonstrating a base object and a partial object, (b) It is explanatory drawing for demonstrating a base texture, (c) It is explanatory drawing for demonstrating each partial texture. 瞬き演出用演算処理を示すフローチャートである。It is a flow chart which shows calculation processing for blink production. 瞬き演出の様子を説明するための説明図である。It is explanatory drawing for demonstrating the state of blink production.

<第1の実施形態>
以下、遊技機の一種であるパチンコ遊技機(以下、「パチンコ機」という)の一実施形態を、図面に基づいて説明する。図1はパチンコ機10の正面図である。
<First Embodiment>
Hereinafter, an embodiment of a pachinko gaming machine (hereinafter referred to as "pachinko machine"), which is a type of gaming machine, will be described with reference to the drawings. FIG. 1 is a front view of a pachinko machine 10.

パチンコ機10は、図1に示すように、当該パチンコ機10の外殻を形成する外枠11と、この外枠11に対して前方に回動可能に取り付けられた遊技機本体12とを有する。遊技機本体12は、内枠(図示略)と、その内枠の前方に配置される前扉枠14と、内枠の後方に配置される裏パックユニット(図示略)とを備えている。 As shown in FIG. 1, the pachinko machine 10 has an outer frame 11 forming an outer shell of the pachinko machine 10 and a gaming machine body 12 rotatably attached to the outer frame 11 in a forward direction. .. The gaming machine main body 12 includes an inner frame (not shown), a front door frame 14 arranged in front of the inner frame, and a back pack unit (not shown) arranged behind the inner frame.

遊技機本体12のうち内枠が、左右両側部のうち一方を支持側として外枠11に回動可能に支持されている。また、内枠には、前扉枠14が回動可能に支持されており、左右両側部のうち一方を支持側として前方へ回動可能とされている。また、内枠には、裏パックユニットが回動可能に支持されており、左右両側部のうち一方を支持側として後方へ回動可能とされている。 The inner frame of the gaming machine body 12 is rotatably supported by the outer frame 11 with one of the left and right side portions being the support side. A front door frame 14 is rotatably supported on the inner frame, and is rotatable forward with one of the left and right side portions being the support side. A back pack unit is rotatably supported on the inner frame, and is rotatable rearward with one of the left and right side portions being the support side.

なお、遊技機本体12には、その回動先端部に施錠装置(図示略)が設けられており、遊技機本体12を外枠11に対して開放不能に施錠状態とする機能を有しているとともに、前扉枠14を内枠に対して開放不能に施錠状態とする機能を有している。これらの各施錠状態は、パチンコ機10前面にて露出させて設けられたシリンダ錠17に対して解錠キーを用いて解錠操作を行うことにより、それぞれ解除される。 The gaming machine main body 12 is provided with a locking device (not shown) at its rotating front end, and has a function of locking the gaming machine main body 12 with respect to the outer frame 11 so that it cannot be opened. In addition, it has a function of locking the front door frame 14 against the inner frame so that it cannot be opened. Each of these locked states is released by performing an unlocking operation on the cylinder lock 17 exposed on the front surface of the pachinko machine 10 using an unlocking key.

内枠には遊技盤20が搭載されている。遊技盤20には前後方向に貫通する大小複数の開口部が形成されている。各開口部には一般入賞口21,可変入賞装置22,上作動口23,下作動口24,スルーゲート25、可変表示ユニット26、メイン表示部33及び役物用表示部34等がそれぞれ設けられている。 A game board 20 is mounted on the inner frame. The game board 20 is formed with a plurality of large and small openings penetrating in the front-rear direction. A general winning opening 21, a variable winning device 22, an upper operating opening 23, a lower operating opening 24, a through gate 25, a variable display unit 26, a main display portion 33, and a accessory display portion 34 are provided in each opening. ing.

一般入賞口21、可変入賞装置22、上作動口23及び下作動口24への入球が発生すると、それが遊技盤20の背面側に配設された検知センサ(図示略)により検知され、その検知結果に基づいて所定数の賞球の払い出しが実行される。その他に、遊技盤20の最下部にはアウト口27が設けられており、各種入賞口等に入らなかった遊技球はアウト口27を通って遊技領域から排出される。また、遊技盤20には、遊技球の落下方向を適宜分散、調整等するために多数の釘28が植設されていると共に、風車等の各種部材が配設されている。 When a ball enters the general winning opening 21, the variable winning device 22, the upper working opening 23, and the lower working opening 24, it is detected by a detection sensor (not shown) arranged on the back side of the game board 20, A predetermined number of prize balls are paid out based on the detection result. In addition, an outlet 27 is provided at the bottom of the game board 20, and game balls that have not entered various winning openings are discharged from the game area through the outlet 27. Further, on the game board 20, a large number of nails 28 are planted in order to appropriately disperse and adjust the falling direction of the game balls, and various members such as a wind turbine are arranged.

ここで、入球とは、所定の開口部を遊技球が通過することを意味し、開口部を通過した後に遊技領域から排出される態様だけでなく、開口部を通過した後に遊技領域から排出されない態様も含まれる。但し、以下の説明では、アウト口27への遊技球の入球と明確に区別するために、可変入賞装置22、上作動口23、下作動口24又はスルーゲート25への遊技球の入球を、入賞とも表現する。 Here, the entry ball means that the game ball passes through a predetermined opening, and not only the aspect of being discharged from the game area after passing through the opening, but also discharging from the game area after passing through the opening. The mode which is not performed is also included. However, in the following description, in order to be clearly distinguished from the game ball entering the outlet 27, the game ball entering the variable winning device 22, the upper operating port 23, the lower operating port 24 or the through gate 25. Is also referred to as a prize.

上作動口23及び下作動口24は、作動口装置としてユニット化されて遊技盤20に設置されている。上作動口23及び下作動口24は共に上向きに開放されている。また、上作動口23が上方となるようにして両作動口23,24は鉛直方向に並んでいる。下作動口24には、左右一対の可動片よりなるガイド片(サポート片)としての電動役物24aが設けられている。電動役物24aの閉鎖状態(非サポート状態又は非ガイド状態)では遊技球が下作動口24に入賞できず、電動役物24aが開放状態(サポート状態又はガイド状態)となることで下作動口24への入賞が可能となる。 The upper working port 23 and the lower working port 24 are unitized as a working port device and installed on the game board 20. Both the upper working port 23 and the lower working port 24 are open upward. Further, the two working ports 23, 24 are arranged in the vertical direction so that the upper working port 23 faces upward. The lower working port 24 is provided with an electric accessory 24a as a guide piece (support piece) composed of a pair of left and right movable pieces. In the closed state (non-supported state or non-guided state) of the electric accessory 24a, the game ball cannot enter the lower working opening 24, and the electric working object 24a is in the open state (supported or guided state) so that the lower working opening is reached. It is possible to win 24 prizes.

可変入賞装置22は、遊技盤20の背面側へと通じる大入賞口22aを備えているとともに、当該大入賞口22aを開閉する開閉扉22bを備えている。開閉扉22bは、通常は遊技球が入賞できない又は入賞し難い閉鎖状態になっており、内部抽選において開閉実行モードへの移行に当選した場合に遊技球が入賞しやすい所定の開放状態に切り換えられるようになっている。ここで、開閉実行モードとは、大当たり当選となった場合に移行することとなるモードである。当該開閉実行モードについては、後に詳細に説明する。可変入賞装置22の開放態様としては、所定時間(例えば30sec)の経過又は所定個数(例えば10個)の入賞を1ラウンドとして、複数ラウンド(例えば15ラウンド)を上限として可変入賞装置22が繰り返し開放される態様がある。 The variable winning device 22 is provided with a big winning opening 22a that leads to the back side of the game board 20, and an opening/closing door 22b that opens and closes the big winning opening 22a. The opening/closing door 22b is normally in a closed state in which game balls cannot be won or is difficult to win, and when the shift to the open/close execution mode is won in the internal lottery, it is switched to a predetermined open state in which the game balls are easily won. It is like this. Here, the open/close execution mode is a mode to be shifted to when the jackpot is won. The opening/closing execution mode will be described later in detail. As an opening mode of the variable winning device 22, the variable winning device 22 is repeatedly opened with a predetermined time (for example, 30 seconds) or a predetermined number (for example, 10) of winnings as one round and a plurality of rounds (for example, 15 rounds) as an upper limit. There is a mode.

メイン表示部33及び役物用表示部34は、遊技領域の下部側に設けられている。メイン表示部33では、上作動口23又は下作動口24への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が表示によって明示される。つまり、本パチンコ機10では、上作動口23への入賞と下作動口24への入賞とが内部抽選において区別されておらず、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が共通の表示領域であるメイン表示部33にて明示される。そして、上作動口23又は下作動口24への入賞に基づく内部抽選の結果が開閉実行モードへの移行に対応した当選結果であった場合には、メイン表示部33にて所定の停止結果が表示されて変動表示が停止された後に、開閉実行モードへ移行する。 The main display portion 33 and the accessory display portion 34 are provided on the lower side of the game area. On the main display portion 33, the variable display of the pattern is performed with the winning of the upper operating opening 23 or the lower operating opening 24 as a trigger, and as a result of the stop of the variable display, the winning of the upper operating opening 23 or the lower operating opening 24 is achieved. The result of the internal lottery performed based on this is clearly displayed. That is, in the pachinko machine 10, the winning of the upper working opening 23 and the winning of the lower working opening 24 are not distinguished in the internal lottery, and the winning is performed based on the winning of the upper working opening 23 or the lower working opening 24. The result of the extracted internal lottery is clearly shown on the main display section 33 which is a common display area. When the result of the internal lottery based on the winning of the upper operating opening 23 or the lower operating opening 24 is the winning result corresponding to the shift to the opening/closing execution mode, the predetermined stop result is displayed on the main display unit 33. After it is displayed and the variable display is stopped, the mode is changed to the open/close execution mode.

なお、メイン表示部33は、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT、ドットマトリックス等その他のタイプの表示装置によって構成されていてもよい。また、メイン表示部33にて変動表示される絵柄としては、複数種の文字が変動表示される構成、複数種の記号が変動表示される構成、複数種のキャラクタが変動表示される構成又は複数種の色が切り換え表示される構成などが考えられる。 The main display unit 33 is composed of a segment display in which a plurality of segment light emitting units are arranged in a predetermined manner, but the present invention is not limited to this, and a liquid crystal display device, an organic EL display device, It may be configured by another type of display device such as a CRT or a dot matrix. In addition, as the pattern variably displayed on the main display unit 33, a plurality of types of characters are variably displayed, a plurality of types of symbols are variably displayed, a plurality of types of characters are variably displayed, or a plurality of types are used. A configuration in which the colors of the seeds are switched and displayed can be considered.

役物用表示部34では、スルーゲート25への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、スルーゲート25への入賞に基づいて行われた内部抽選の結果が表示によって明示される。スルーゲート25への入賞に基づく内部抽選の結果が電役開放状態への移行に対応した当選結果であった場合には、役物用表示部34にて所定の停止結果が表示されて変動表示が停止された後に、電役開放状態へ移行する。電役開放状態では、下作動口24に設けられた電動役物24aが所定の態様で開放状態となる。 On the accessory display unit 34, the variable display of the pattern is performed with the winning of the through-gate 25 as a trigger, and the result of the internal lottery performed based on the winning of the through-gate 25 is displayed as the stop result of the variable display. It is specified by the display. If the result of the internal lottery based on the winning in the through gate 25 is the winning result corresponding to the transition to the electric role open state, a predetermined stop result is displayed on the accessory display unit 34 and the variable display is displayed. After the power supply is stopped, the state changes to the electric power release state. In the electric role open state, the electric accessory 24a provided in the lower operation port 24 is opened in a predetermined manner.

可変表示ユニット26には、絵柄の一種である図柄を変動表示する図柄表示装置31が設けられている。また、可変表示ユニット26には、図柄表示装置31を囲むようにしてセンターフレーム32が配設されている。このセンターフレーム32は、その上部がパチンコ機10前方に延出している。これにより、図柄表示装置31の表示面の前方を遊技球が落下していくのが防止されており、遊技球の落下により表示面の視認性が低下するといった不都合が生じない構成となっている。 The variable display unit 26 is provided with a symbol display device 31 that variably displays a symbol, which is a type of symbol. Further, the variable display unit 26 is provided with a center frame 32 so as to surround the symbol display device 31. An upper portion of the center frame 32 extends forward of the pachinko machine 10. As a result, the game sphere is prevented from falling in front of the display surface of the symbol display device 31, and there is no inconvenience that the visibility of the display surface is lowered due to the fall of the game sphere. ..

図柄表示装置31は、液晶ディスプレイを備えた液晶表示装置として構成されており、後述する表示制御装置により表示内容が制御される。なお、図柄表示装置31は、液晶表示装置であることに限定されることはなく、プラズマディスプレイ装置、有機EL表示装置又はCRTといった他の表示装置であってもよい。 The symbol display device 31 is configured as a liquid crystal display device including a liquid crystal display, and the display content is controlled by a display control device described later. The symbol display device 31 is not limited to the liquid crystal display device, and may be another display device such as a plasma display device, an organic EL display device, or a CRT.

図柄表示装置31では、上作動口23又は下作動口24への入賞に基づいて図柄の変動表示が開始される。すなわち、メイン表示部33において変動表示が行われる場合には、それに合わせて図柄表示装置31において変動表示が行われる。そして、例えば、遊技結果が大当たり結果となる遊技回では、図柄表示装置31では予め設定されている有効ライン上に所定の組み合わせの図柄が停止表示される。 In the symbol display device 31, variable display of symbols is started based on winning in the upper working opening 23 or the lower working opening 24. That is, when the variable display is performed on the main display unit 33, the variable display is performed on the symbol display device 31 accordingly. Then, for example, in the game times when the game result is a big hit result, the symbols of a predetermined combination are stopped and displayed on the activated line set in advance in the symbol display device 31.

図柄表示装置31の表示内容について、図2及び図3を参照して詳細に説明する。図2は図柄表示装置31にて変動表示される図柄を個々に示す図であり、図3は図柄表示装置31の表示面Gを示す図である。 The display contents of the symbol display device 31 will be described in detail with reference to FIGS. 2 and 3. 2 is a diagram showing individually the symbols variably displayed on the symbol display device 31, and FIG. 3 is a diagram showing a display surface G of the symbol display device 31.

図2(a)〜(j)に示すように、絵柄の一種である図柄は、「1」〜「9」の数字が各々付された9種類の主図柄と、貝形状の絵図柄からなる副図柄とにより構成されている。より詳しくは、タコ等の9種類のキャラクタ図柄に「1」〜「9」の数字がそれぞれ付されて主図柄が構成されている。 As shown in FIGS. 2(a) to 2(j), a design, which is a kind of design, is composed of nine types of main designs to which the numbers "1" to "9" are respectively attached, and a shell-shaped design. It is composed of sub-patterns. More specifically, the numbers of "1" to "9" are respectively added to nine types of character designs such as octopus to constitute the main design.

図3(a)に示すように、図柄表示装置31の表示面Gには、複数の表示領域として、上段・中段・下段の3つの図柄列SA1,SA2,SA3が設定されている。各図柄列SA1〜SA3は、主図柄と副図柄が所定の順序で配列されて構成されている。詳細には、上図柄列SA1には、「1」〜「9」の9種類の主図柄が数字の降順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。下図柄列SA3には、「1」〜「9」の9種類の主図柄が数字の昇順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。 As shown in FIG. 3A, on the display surface G of the symbol display device 31, as a plurality of display areas, three symbol rows SA1, SA2, and SA3 in the upper, middle, and lower rows are set. Each symbol row SA1 to SA3 is configured by arranging a main symbol and a sub symbol in a predetermined order. Specifically, in the upper symbol array SA1, nine types of main symbols “1” to “9” are arranged in descending order of numbers, and one sub symbol is arranged between each main symbol. .. In the lower symbol row SA3, nine types of main symbols “1” to “9” are arranged in ascending order of the numbers, and one sub symbol is arranged between each main symbol.

つまり、上図柄列SA1と下図柄列SA3は18個の図柄により構成されている。これに対し、中図柄列SA2には、数字の昇順に「1」〜「9」の9種類の主図柄が配列された上で「9」の主図柄と「1」の主図柄との間に「4」の主図柄が付加的に配列され、これら各主図柄の間に副図柄が1つずつ配されている。つまり、中図柄列SA2に限っては、10個の主図柄が配されて20個の図柄により構成されている。そして、表示面Gでは、これら各図柄列SA1〜SA3の図柄が周期性をもって所定の向きにスクロールするように変動表示される。 That is, the upper symbol row SA1 and the lower symbol row SA3 are composed of 18 symbols. On the other hand, in the middle symbol row SA2, nine types of main symbols "1" to "9" are arranged in ascending order of numbers, and then between the main symbol "9" and the main symbol "1". The main symbols of "4" are additionally arranged, and one sub symbol is arranged between each of the main symbols. That is, only in the middle symbol row SA2, 10 main symbols are arranged and constituted by 20 symbols. Then, on the display surface G, the symbols in these symbol columns SA1 to SA3 are variably displayed so as to scroll in a predetermined direction with periodicity.

図3(b)に示すように、表示面Gは、図柄列毎に3個の図柄が停止表示されるようになっており、結果として3×3の計9個の図柄が停止表示されるようになっている。また、表示面Gには、5つの有効ライン、すなわち左ラインL1、中ラインL2、右ラインL3、右下がりラインL4、右上がりラインL5が設定されている。そして、上図柄列SA1→下図柄列SA3→中図柄列SA2の順に変動表示が停止し、いずれかの有効ラインに同一の数字が付された図柄の組み合わせが形成された状態で全図柄列SA1〜SA3の変動表示が終了すれば、後述する通常大当たり結果又は15R確変大当たり結果の発生として大当たり動画が表示されるようになっている。 As shown in FIG. 3B, on the display surface G, three symbols are stopped and displayed for each symbol row, and as a result, a total of 9 symbols of 3×3 are stopped and displayed. It is like this. Further, five effective lines, that is, a left line L1, a middle line L2, a right line L3, a right downward line L4, and a right upward line L5 are set on the display surface G. Then, the variable display is stopped in the order of the upper symbol row SA1, the lower symbol row SA3, and the middle symbol row SA2, and all symbol rows SA1 are formed in a state in which a combination of symbols having the same numeral on any of the activated lines is formed. When the variable display of SA3 is finished, the jackpot moving image is displayed as the occurrence of a normal jackpot result or a 15R certainty variation jackpot result described later.

本パチンコ機10では、奇数番号(1,3,5,7,9)が付された主図柄は「特定図柄」に相当し、15R確変大当たり結果が発生する場合には、同一の特定図柄の組み合わせが停止表示される。また、偶数番号(2,4,6,8)が付された主図柄は「非特定図柄」に相当し、通常大当たり結果が発生する場合には、同一の非特定図柄の組み合わせが停止表示される。 In this pachinko machine 10, the main symbol with an odd number (1, 3, 5, 7, 9) is equivalent to the "specific symbol", and if the 15R probability variation jackpot result occurs, the same specific symbol The combination is stopped and displayed. Further, the main symbols with even numbers (2, 4, 6, 8) are equivalent to "non-specific symbols", and when a normal jackpot result occurs, the same non-specific symbol combination is stopped and displayed. It

また、後述する明示2R確変大当たり結果となる場合には、同一の図柄の組み合わせとは異なる所定の図柄の組み合わせが形成された状態で全図柄列SA1〜SA3の変動表示が終了し、その後に、明示用動画が表示されるようになっている。 Further, in the case of an explicit 2R probability variation jackpot result described later, the variable display of all the symbol rows SA1 to SA3 ends in a state where a predetermined symbol combination different from the same symbol combination is formed, and thereafter, An explicit video is displayed.

なお、図柄表示装置31における図柄の変動表示の態様は上記のものに限定されることはなく任意であり、図柄列の数、図柄列における図柄の変動表示の方向、各図柄列の図柄数などは適宜変更可能である。また、図柄表示装置31にて変動表示される絵柄は上記のような図柄に限定されることはなく、例えば絵柄として数字のみが変動表示される構成としてもよい。 The manner of variable display of the symbols in the symbol display device 31 is not limited to the above, but is arbitrary, and the number of symbol columns, the direction of variable display of symbols in the symbol column, the number of symbols in each symbol column, etc. Can be changed as appropriate. Further, the picture variably displayed on the picture display device 31 is not limited to the above-mentioned picture, and for example, only numbers may be variably displayed as the picture.

また、いずれかの作動口23,24への入賞に基づいて、メイン表示部33及び図柄表示装置31にて変動表示が開始され、所定の停止結果を表示し上記変動表示が停止されるまでが遊技回の1回に相当する。 Also, based on the winning of any one of the operation ports 23, 24, the variable display is started on the main display section 33 and the symbol display device 31, and a predetermined stop result is displayed until the variable display is stopped. It is equivalent to one game.

センターフレーム32の前面側における左上部分には、メイン表示部33及び図柄表示装置31に対応した第1保留発光部35が設けられている。遊技球が上作動口23又は下作動口24に入賞した個数は最大4個まで保留され、第1保留発光部35の点灯によってその保留個数が表示されるようになっている。 In the upper left portion on the front surface side of the center frame 32, a first display light emitting portion 35 corresponding to the main display portion 33 and the symbol display device 31 is provided. The maximum number of game balls that have won in the upper operating port 23 or the lower operating port 24 is reserved, and the reserved number is displayed by turning on the first reserved light emitting unit 35.

センターフレーム32の右上部分には、役物用表示部34に対応した第2保留発光部36が設けられている。遊技球がスルーゲート25を通過した回数は最大4回まで保留され、第2保留発光部36の点灯によってその保留個数が表示されるようになっている。なお、各保留発光部35,36の機能が図柄表示装置31の一部の領域における表示により果たされる構成としてもよい。 In the upper right portion of the center frame 32, a second holding light emitting portion 36 corresponding to the accessory display portion 34 is provided. The number of times the game ball has passed through the through gate 25 is reserved up to four times, and the number of reservations is displayed by turning on the second reserved light emitting unit 36. The functions of the hold light emitting units 35 and 36 may be performed by the display in a partial area of the symbol display device 31.

遊技盤20には、レール部37が取り付けられており、当該レール部37により誘導レールが構成され、内枠において遊技盤20の下方に搭載された遊技球発射機構(図示略)から発射された遊技球が遊技領域の上部に案内されるようになっている。遊技球発射機構は、前扉枠14に設けられた発射ハンドル41が操作されることにより遊技球の発射動作が行われる。 A rail portion 37 is attached to the game board 20, the guide rail is configured by the rail portion 37, and the guide rail is launched from a game ball launching mechanism (not shown) mounted below the game board 20 in the inner frame. The game ball is designed to be guided to the upper part of the game area. The game ball launching mechanism launches a game ball by operating the launch handle 41 provided on the front door frame 14.

内枠の前面側全体を覆うようにして前扉枠14が設けられている。前扉枠14には、図1に示すように、遊技領域のほぼ全域を前方から視認することができるようにした窓部42が形成されている。窓部42は、略楕円形状をなし、図示しない窓パネルが嵌め込まれている。窓パネルは、ガラスによって無色透明に形成されているが、これに限定されることはなく合成樹脂によって無色透明に形成してもよい。 A front door frame 14 is provided so as to cover the entire front surface side of the inner frame. As shown in FIG. 1, the front door frame 14 is formed with a window portion 42 that allows the substantially entire game area to be viewed from the front. The window 42 has a substantially elliptical shape, and a window panel (not shown) is fitted therein. The window panel is made of glass to be colorless and transparent, but the present invention is not limited to this, and it may be made of synthetic resin to be colorless and transparent.

窓部42の周囲には、発光手段が設けられている。当該発光手段の一部として表示発光部44が窓部42の上方に設けられている。また、表示発光部44の左右両側には、遊技状態に応じた効果音などが出力されるスピーカ部45が設けられている。 A light emitting means is provided around the window 42. A display light emitting section 44 is provided above the window section 42 as a part of the light emitting means. Further, speaker units 45 are provided on the left and right sides of the display light emitting unit 44 to output a sound effect or the like according to the game state.

前扉枠14における窓部42の下方には、手前側へ膨出した上側膨出部46と下側膨出部47とが上下に並設されている。上側膨出部46内側には上方に開口した上皿46aが設けられており、下側膨出部47内側には同じく上方に開口した下皿47aが設けられている。上皿46aは、後述する払出装置より払い出された遊技球を一旦貯留し、一列に整列させながら遊技球発射機構側へ導くための機能を有する。また、下皿47aは、上皿46a内にて余剰となった遊技球を貯留する機能を有する。上皿46a及び下皿47aには、裏パックユニットに搭載された払出装置から払い出された遊技球が排出される。 Below the window portion 42 of the front door frame 14, an upper bulge portion 46 and a lower bulge portion 47 that bulge toward the front side are arranged in parallel vertically. An upper plate 46a that opens upward is provided inside the upper bulging portion 46, and a lower plate 47a that also opens upward is provided inside the lower bulging part 47. The upper plate 46a has a function of temporarily storing the game balls dispensed from a dispenser described later and guiding them to the game ball launching mechanism side while aligning them in a line. In addition, the lower plate 47a has a function of storing game balls that have become redundant in the upper plate 46a. The game balls paid out from the payout device mounted on the back pack unit are discharged to the upper plate 46a and the lower plate 47a.

上側膨出部46においてパチンコ機10前方を向く領域には、遊技者により手動操作される操作部を具備する演出用操作装置48が設けられている。演出用操作装置48の操作部は、図柄表示装置31の表示面Gなどにおける演出内容を所定の演出内容とするために遊技者により手動操作される。 In the area of the upper bulging portion 46 that faces the front of the pachinko machine 10, a performance operation device 48 including an operation portion that is manually operated by the player is provided. The operation unit of the effect operation device 48 is manually operated by the player so that the effect content on the display surface G of the symbol display device 31 or the like becomes a predetermined effect content.

内枠の背面側には、主制御装置と、音声発光制御装置と、表示制御装置とが搭載されている。また、内枠の背面に対しては既に説明したとおり裏パックユニットが設けられており、当該裏パックユニットには、払出装置を含む払出機構部と、払出制御装置と、電源及び発射制御装置とが搭載されている。以下、パチンコ機10の電気的な構成について説明する。 A main control device, a sound emission control device, and a display control device are mounted on the back side of the inner frame. Further, as described above, the back pack unit is provided on the back surface of the inner frame, and the back pack unit includes a payout mechanism section including a payout device, a payout control device, a power supply and a firing control device. Is installed. The electrical configuration of the pachinko machine 10 will be described below.

<パチンコ機10の電気的構成>
図4は、パチンコ機10の基本的な電気的構成を示すブロック図である。
<Electrical structure of the pachinko machine 10>
FIG. 4 is a block diagram showing the basic electrical configuration of the pachinko machine 10.

<主制御装置50>
主制御装置50は、遊技の主たる制御を司る主制御基板51を具備している。なお、主制御装置50において主制御基板51などを収容する基板ボックスに対して、その開放の痕跡を残すための痕跡手段を付与する又はその開放の痕跡を残すための痕跡構造を設けておくようにしてもよい。当該痕跡手段としては、基板ボックスを構成する複数のケース体を分離不能に結合するとともにその分離に際して所定部位の破壊を要する結合部(カシメ部)の構成や、引き剥がしにして粘着層が接着対象に残ることで剥がされたことの痕跡を残す封印シールを複数のケース体間の境界を跨ぐようにして貼り付ける構成が考えられる。また、痕跡構造としては、基板ボックスを構成する複数のケース体間の境界に対して接着剤を塗布する構成が考えられる。
<Main controller 50>
The main controller 50 includes a main control board 51 that controls the main game. In the main controller 50, a trace means for leaving a trace of the opening is provided or a trace structure for leaving a trace of the opening is provided to the substrate box that accommodates the main control substrate 51 and the like. You can Examples of the trace means include a structure of a joint portion (a caulking portion) that requires inseparable joining of a plurality of case bodies that form a substrate box and requires destruction of a predetermined portion at the time of separation, or an adhesive layer that is peeled off to attach an adhesive layer. It is conceivable that a sealing sticker that leaves a trace that it has been peeled off by being left behind is attached so as to straddle the boundary between a plurality of case bodies. In addition, as the trace structure, a configuration in which an adhesive is applied to a boundary between a plurality of case bodies forming the substrate box can be considered.

主制御基板51には、MPU52が搭載されている。MPU52には、当該MPU52により実行される各種の制御プログラムや固定値データを記憶したROM53と、そのROM53内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM54と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。 An MPU 52 is mounted on the main control board 51. The MPU 52 includes a ROM 53 that stores various control programs executed by the MPU 52 and fixed value data, and a memory that temporarily stores various data when the control program stored in the ROM 53 is executed. A RAM 54, an interrupt circuit, a timer circuit, a data input/output circuit, various counter circuits as a random number generator, and the like are incorporated.

なお、ROM53として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM53と、RAM54とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。 As the ROM 53, a storage means (that is, a non-volatile storage means) that can be randomly accessed when reading the control program or the fixed value data and does not require external power supply for storage is used. In addition, the configuration in which the control/calculation unit, the ROM 53, and the RAM 54 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions may be included as separate chips. It may be configured to be mounted.

MPU52には、入力ポート及び出力ポートがそれぞれ設けられている。MPU52の入力側には、電源及び発射制御装置57が接続されている。電源及び発射制御装置57は、例えば、遊技場等における商用電源(外部電源)に接続されている。そして、その商用電源から供給される外部電力に基づいて主制御基板51に対して各々に必要な動作電力を生成するとともに、その生成した動作電力を供給する。ちなみに、当該動作電力は主制御基板51だけでなく、払出制御装置55や後述する表示制御装置130といった他の機器にも供給される。 The MPU 52 is provided with an input port and an output port, respectively. A power supply and firing control device 57 is connected to the input side of the MPU 52. The power supply and launch control device 57 is connected to, for example, a commercial power supply (external power supply) in a game arcade or the like. Then, based on the external power supplied from the commercial power supply, the operating power necessary for each is generated for the main control board 51, and the generated operating power is supplied. Incidentally, the operating power is supplied not only to the main control board 51, but also to other devices such as a payout control device 55 and a display control device 130 described later.

なお、MPU52と電源及び発射制御装置57との電力経路上に停電監視基板を設けてもよい。この場合、当該停電監視基板により停電の発生が監視され、停電の発生が確認された場合にはMPU52に対して停電信号が送信されるようにすることで、MPU52において停電時用の処理を実行することが可能となる。 A power failure monitoring board may be provided on the power path between the MPU 52 and the power supply/launch control device 57. In this case, the occurrence of a power failure is monitored by the power failure monitoring board, and when the occurrence of a power failure is confirmed, a power failure signal is transmitted to the MPU 52, so that the MPU 52 executes the processing for a power failure. It becomes possible to do.

また、MPU52の入力側には、図示しない各種センサが接続されている。当該各種センサの一部として、一般入賞口21、可変入賞装置22、上作動口23、下作動口24及びスルーゲート25といった入賞対応入球部に対して1対1で設けられた検知センサが含まれており、MPU52において各入球部への入賞判定(入球判定)が行われる。また、MPU52では上作動口23及び下作動口24への入賞に基づいて大当たり発生抽選及び大当たり結果種別抽選を実行するとともに、各遊技回のリーチ発生抽選や表示継続期間の決定抽選を実行する。 Various sensors (not shown) are connected to the input side of the MPU 52. As a part of the various sensors, a detection sensor provided in a one-to-one correspondence with the winning portion corresponding to the winning portion, such as the general winning opening 21, the variable winning device 22, the upper working opening 23, the lower working opening 24 and the through gate 25. This is included, and the MPU 52 makes a prize determination (ball entry determination) for each ball entry portion. In addition, the MPU 52 executes the jackpot occurrence lottery and the jackpot result type lottery based on the winning of the upper operation mouth 23 and the lower operation mouth 24, and also executes the reach occurrence lottery for each game time and the determination lottery of the display continuation period.

ここで、MPU52にて各種抽選を行うための構成について説明する。 Here, a configuration for performing various lottery in the MPU 52 will be described.

MPU52は遊技に際し各種カウンタ情報を用いて、大当たり発生抽選、メイン表示部33の表示の設定、図柄表示装置31の図柄表示の設定、役物用表示部34の表示の設定などを行うこととしており、具体的には、図5に示すように、大当たり発生抽選に使用する大当たり乱数カウンタC1と、確変大当たり結果や通常大当たり結果等の大当たり種別を判定する際に使用する大当たり種別カウンタC2と、図柄表示装置31が外れ変動する際のリーチ発生抽選に使用するリーチ乱数カウンタC3と、大当たり乱数カウンタC1の初期値設定に使用する乱数初期値カウンタCINIと、メイン表示部33及び図柄表示装置31における変動表示時間を決定する変動種別カウンタCSとを用いることとしている。さらに、下作動口24の電動役物24aを電役開放状態とするか否かの抽選に使用する電動役物開放カウンタC4を用いることとしている。 The MPU 52 uses various counter information during the game to perform jackpot occurrence lottery, display setting of the main display unit 33, symbol display setting of the symbol display device 31, display setting of the accessory display unit 34, and the like. , Specifically, as shown in FIG. 5, jackpot random number counter C1 used for jackpot occurrence lottery, jackpot type counter C2 used when determining jackpot type such as probability variation jackpot result or normal jackpot result, and a symbol Reach random number counter C3 used for reach generation lottery when the display device 31 fluctuates and deviates, random number initial value counter CINI used for initial value setting of the jackpot random number counter C1, and fluctuations in the main display portion 33 and the symbol display device 31. The fluctuation type counter CS that determines the display time is used. Further, the electric accessory release counter C4 used for the lottery for determining whether or not the electric accessory 24a of the lower operation port 24 is in the power open state is used.

各カウンタC1〜C3,CINI,CS,C4は、その更新の都度前回値に1が加算され、最大値に達した後0に戻るループカウンタとなっている。各カウンタは短時間間隔で更新され、その更新値がRAM54の所定領域に設定された抽選カウンタ用バッファ54aに適宜格納される。このうち抽選カウンタ用バッファ54aにおいて、大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3に対応した情報は、上作動口23又は下作動口24への入賞が発生した場合に、取得情報記憶手段としての保留球格納エリア54bに格納される。 Each of the counters C1 to C3, CINI, CS, and C4 is a loop counter in which 1 is added to the previous value each time it is updated, and after reaching the maximum value, it returns to 0. Each counter is updated at short time intervals, and the updated value is appropriately stored in the lottery counter buffer 54a set in a predetermined area of the RAM 54. Of these, in the lottery counter buffer 54a, the information corresponding to the jackpot random number counter C1, the jackpot type counter C2, and the reach random number counter C3 is obtained information storage when a winning is generated in the upper working opening 23 or the lower working opening 24. It is stored in the reserved ball storage area 54b as a means.

保留球格納エリア54bは、保留用エリアREと、実行エリアAEとを備えている。保留用エリアREは、第1保留エリアRE1、第2保留エリアRE2、第3保留エリアRE3及び第4保留エリアRE4を備えており、上作動口23又は下作動口24への入賞履歴に合わせて、抽選カウンタ用バッファ54aに格納されている大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報が保留情報として、いずれかの保留エリアRE1〜RE4に格納される。 The reserve ball storage area 54b includes a reserve area RE and an execution area AE. The holding area RE includes a first holding area RE1, a second holding area RE2, a third holding area RE3, and a fourth holding area RE4, and according to the winning history of the upper working opening 23 or the lower working opening 24. Numerical value information of the jackpot random number counter C1, the jackpot type counter C2, and the reach random number counter C3 stored in the lottery counter buffer 54a are stored in any of the holding areas RE1 to RE4 as holding information.

この場合、第1保留エリアRE1〜第4保留エリアRE4には、上作動口23又は下作動口24への入賞が複数回連続して発生した場合に、第1保留エリアRE1→第2保留エリアRE2→第3保留エリアRE3→第4保留エリアRE4の順に各数値情報が時系列的に格納されていく。このように4つの保留エリアRE1〜RE4が設けられていることにより、上作動口23又は下作動口24への遊技球の入賞履歴が最大4個まで保留記憶されるようになっている。また、保留用エリアREは、保留数記憶エリアNAを備えており、当該保留数記憶エリアNAには上作動口23又は下作動口24への入賞履歴を保留記憶している数を特定するための情報が格納される。 In this case, in the first holding area RE1 to the fourth holding area RE4, when the winnings to the upper working opening 23 or the lower working opening 24 occur successively a plurality of times, the first holding area RE1→the second holding area RE1. Numerical information is stored in time series in the order of RE2→third holding area RE3→fourth holding area RE4. Since the four holding areas RE1 to RE4 are provided in this way, the winning history of the game balls to the upper working opening 23 or the lower working opening 24 can be held and stored up to a maximum of four. Further, the holding area RE is provided with a holding number storage area NA, and in order to specify the holding number storage area NA, the number of the winning history stored in the upper working opening 23 or the lower working opening 24 is held and stored. Information is stored.

なお、保留記憶可能な数は、4個に限定されることはなく任意であり、2個、3個又は5個以上といったように他の複数であってもよく、単数であってもよい。 Note that the number that can be reserved and stored is not limited to four, and may be any number, and may be another number such as two, three, or five or more, or may be a single number.

実行エリアAEは、メイン表示部33の変動表示を開始する際に、保留用エリアREの第1保留エリアRE1に格納された各値を移動させるためのエリアであり、1遊技回の開始に際しては実行エリアAEに記憶されている各種数値情報に基づいて、当否判定などが行われる。 The execution area AE is an area for moving each value stored in the first holding area RE1 of the holding area RE when starting the variable display of the main display portion 33, and at the start of one game time. Based on various numerical information stored in the execution area AE, the judgment of win/fail is made.

上記各カウンタについて詳細に説明する。 Each of the above counters will be described in detail.

各カウンタについて詳しくは、大当たり乱数カウンタC1は、例えば0〜599の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。特に大当たり乱数カウンタC1が1周した場合、その時点の乱数初期値カウンタCINIの値が当該大当たり乱数カウンタC1の初期値として読み込まれる。なお、乱数初期値カウンタCINIは、大当たり乱数カウンタC1と同様のループカウンタである(値=0〜599)。大当たり乱数カウンタC1は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 For details of each counter, the jackpot random number counter C1 is configured to be sequentially incremented by 1 in the range of 0 to 599, for example, and then returned to 0 after reaching the maximum value. In particular, when the jackpot random number counter C1 makes one round, the value of the random number initial value counter CINI at that time is read as the initial value of the jackpot random number counter C1. The random number initial value counter CINI is a loop counter similar to the jackpot random number counter C1 (value=0 to 599). The big hit random number counter C1 is regularly updated and is stored in the reserved ball storage area 54b at the timing when the game ball wins the upper working opening 23 or the lower working opening 24.

大当たり当選となる乱数の値は、ROM53における当否情報群記憶手段としての当否テーブル記憶エリアに当否テーブルとして記憶されている。当否テーブルとしては、低確率モード用の当否テーブルと、高確率モード用の当否テーブルとが設定されている。つまり、本パチンコ機10は、当否抽選手段における抽選モードとして、低確率モードと高確率モードとが設定されている。 The value of the random number that is a big hit is stored as a win/loss table in a win/loss table storage area as a win/loss information group storage unit in the ROM 53. As the win/loss table, a win/loss table for the low probability mode and a win/loss table for the high probability mode are set. That is, in the pachinko machine 10, the low-probability mode and the high-probability mode are set as the lottery modes in the win/loss lottery means.

上記抽選に際して低確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は2個である。一方、上記抽選に際して高確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は20個である。なお、低確率モードよりも高確率モードの方の当選確率が高くなるのであれば、上記当選となる乱数の数は任意である。 In the gaming state in which the win/loss table for the low-probability mode is referred to in the lottery, the number of random numbers that is a big hit is two. On the other hand, in the gaming state in which the high probability mode win/loss table is referred to in the above-mentioned lottery, the number of random numbers to be a big win is 20. If the winning probability in the high-probability mode is higher than that in the low-probability mode, the number of random numbers to be won is arbitrary.

大当たり種別カウンタC2は、0〜29の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。大当たり種別カウンタC2は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 The jackpot type counter C2 is configured to be incremented by 1 in the range of 0 to 29, and returns to 0 after reaching the maximum value. The jackpot type counter C2 is regularly updated and is stored in the reserved ball storage area 54b at the timing when the game ball wins the upper working opening 23 or the lower working opening 24.

本パチンコ機10では、複数の大当たり結果が設定されている。これら複数の大当たり結果は、(1)開閉実行モードにおける可変入賞装置22の開閉制御の態様、(2)開閉実行モード終了後の当否抽選手段における抽選モード、(3)開閉実行モード終了後の下作動口24の電動役物24aにおけるサポートモード、という3つの条件に差異を設けることにより、複数の大当たり結果が設定されている。 In this pachinko machine 10, a plurality of jackpot results are set. These plural jackpot results are (1) a mode of the opening/closing control of the variable winning device 22 in the opening/closing execution mode, (2) a lottery mode in the winning/losing lottery means after the opening/closing execution mode, and (3) a bottom after the opening/closing execution mode. A plurality of jackpot results are set by differentiating three conditions of the support mode in the electric accessory 24a of the operation port 24.

開閉実行モードにおける可変入賞装置22の開閉制御の態様としては、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が相対的に高低となるように高頻度入賞モードと低頻度入賞モードとが設定されている。具体的には、高頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が15回(高頻度用回数)行われるとともに、1回の開放は30sec(高頻度時間)が経過するまで又は大入賞口22aへの入賞個数が10個(高頻度個数)となるまで継続される。一方、低頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が2回(低頻度用回数)行われるとともに、1回の開放は0.2sec(低頻度時間)が経過するまで又は大入賞口22aへの入賞個数が6個(低頻度個数)となるまで継続される。 As an aspect of the opening/closing control of the variable winning device 22 in the opening/closing execution mode, the high frequency is set so that the frequency of winning the variable winning device 22 from the start to the end of the opening/closing execution mode is relatively high. A frequency winning mode and a low frequency winning mode are set. Specifically, in the high-frequency winning mode, the special winning opening 22a is opened and closed 15 times (high-frequency use number) from the start to the end of the opening/closing execution mode, and one opening is 30 seconds (high-frequency time). ) Has elapsed or until the number of winnings to the special winning opening 22a reaches 10 (high frequency number). On the other hand, in the low frequency winning mode, the special winning opening 22a is opened and closed twice (the number of times of low frequency use) from the start to the end of the opening and closing execution mode, and one opening is 0.2 sec (low frequency time). Is continued or until the number of winnings to the special winning opening 22a becomes 6 (the number of low-frequency winnings).

本パチンコ機10では、発射ハンドル41が遊技者により操作されている状況では、0.6secに1個の遊技球が遊技領域に向けて発射されるように遊技球発射機構58が駆動制御される。これに対して、低頻度入賞モードでは、上記のとおり1回の大入賞口22aの開放時間は0.2secとなっている。つまり、低頻度入賞モードでは、遊技球の発射周期よりも1回の大入賞口22aの開放時間が短くなっている。したがって、低頻度入賞モードにかかる開閉実行モードでは実質的に遊技球の入賞が発生しない。 In this pachinko machine 10, when the firing handle 41 is operated by the player, the game ball firing mechanism 58 is drive-controlled so that one game ball is fired toward the game area in 0.6 sec. .. On the other hand, in the low frequency winning mode, the opening time of one big winning opening 22a is 0.2 sec as described above. That is, in the low frequency winning mode, the opening time of the special winning opening 22a once is shorter than the firing cycle of the game ball. Therefore, in the opening/closing execution mode according to the low frequency winning mode, the winning of the game ball does not substantially occur.

なお、高頻度入賞モード及び低頻度入賞モードにおける大入賞口22aの開閉回数、1回の開放に対する開放制限時間及び1回の開放に対する開放制限個数は、高頻度入賞モードの方が低頻度入賞モードよりも、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が高くなるのであれば、上記の値に限定されることはなく任意である。具体的には、高頻度入賞モードの方が低頻度入賞モードよりも、開閉回数が多い、1回の開放に対する開放制限時間が長い又は1回の開放に対する開放制限個数が多く設定されていればよい。 The number of times the special winning opening 22a is opened/closed in the high-frequency winning mode and the low-frequency winning mode, the opening time limit for one opening, and the opening limit number for one opening are different in the high-frequency winning mode from the low-frequency winning mode. The value is not limited to the above value as long as the frequency of winning the variable winning device 22 from the start to the end of the opening/closing execution mode is high. Specifically, the high-frequency winning mode has a larger number of opening and closing times than the low-frequency winning mode, and if the opening limit time for one opening is long or the opening limit number for one opening is set to be large. Good.

但し、高頻度入賞モードと低頻度入賞モードとの間での特典の差異を明確にする上では、低頻度入賞モードにかかる開閉実行モードでは、実質的に可変入賞装置22への入賞が発生しない構成とするとよい。例えば、高頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも短く設定する一方、低頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも長く設定する構成としてもよい。また、遊技球の発射間隔及び1回の大入賞口22aの開放時間が上記のものでなかったとしても、低頻度入賞モードでは、前者よりも後者の方が短くなるように設定することで、実質的に可変入賞装置22への入賞が発生しない構成を容易に実現することができる。 However, in order to clarify the difference in privilege between the high-frequency winning mode and the low-frequency winning mode, in the opening/closing execution mode of the low-frequency winning mode, the winning of the variable winning device 22 does not substantially occur. It is good to have a configuration. For example, in the high frequency winning mode, the product of the game cycle of the game ball and the opening limit number is set to be shorter than the opening time limit for one opening, while in the low frequency winning mode, the one time opening is performed. The product of the game cycle of the game ball and the release limit number may be set to be longer than the release limit time. Also, even if the interval between shooting game balls and the opening time of one big winning opening 22a is not the above, in the low frequency winning mode, by setting the latter to be shorter than the former, It is possible to easily realize a configuration in which substantially no prize is won in the variable winning device 22.

下作動口24の電動役物24aにおけるサポートモードとしては、遊技領域に対して同様の態様で遊技球の発射が継続されている状況で比較した場合に、下作動口24の電動役物24aが単位時間当たりに開放状態となる頻度が相対的に高低となるように、低頻度サポートモード(低頻度サポート状態又は低頻度ガイド状態)と高頻度サポートモード(高頻度サポート状態又は高頻度ガイド状態)とが設定されている。 As a support mode of the lower working port 24 in the electric accessory 24a, when compared in a situation where the game balls are continuously emitted in a similar manner to the game area, the electric working object 24a in the lower working port 24 is Low-frequency support mode (low-frequency support state or low-frequency guide state) and high-frequency support mode (high-frequency support state or high-frequency guide state) so that the frequency of the open state per unit time is relatively high or low. And are set.

具体的には、低頻度サポートモードと高頻度サポートモードとでは、電動役物開放カウンタC4を用いた電動役物開放抽選における電役開放状態当選となる確率は同一(例えば、共に4/5)となっているが、高頻度サポートモードでは低頻度サポートモードよりも、電役開放状態当選となった際に電動役物24aが開放状態となる回数が多く設定されており、さらに1回の開放時間が長く設定されている。この場合、高頻度サポートモードにおいて電役開放状態当選となり電動役物24aの開放状態が複数回発生する場合において、1回の開放状態が終了してから次の開放状態が開始されるまでの閉鎖時間は、1回の開放時間よりも短く設定されている。さらにまた、高頻度サポートモードでは低頻度サポートモードよりも、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で最低限確保される確保時間として短い時間が選択されるように設定されている。 Specifically, in the low-frequency support mode and the high-frequency support mode, the probability that the electric role open state wins in the electric role open lottery using the electric role open counter C4 is the same (for example, both are 4/5). However, in the high frequency support mode, the number of times the electric accessory 24a is in the open state when the electric role is released is set to be larger than in the low frequency support mode, and one more opening is performed. The time is set long. In this case, in the high-frequency support mode, when the electric power open state is won, and the electric accessory 24a is opened a plurality of times, it is closed from the end of one open state to the start of the next open state. The time is set shorter than one opening time. Furthermore, the high-frequency support mode is shorter than the low-frequency support mode in that the minimum secured time required for the next electric accessory release lottery after one electric accessory release lottery is performed is shorter. Is set to be selected.

上記のように高頻度サポートモードでは、低頻度サポートモードよりも下作動口24への入賞が発生する確率が高くなる。換言すれば、低頻度サポートモードでは、下作動口24よりも上作動口23への入賞が発生する確率が高くなるが、高頻度サポートモードでは、上作動口23よりも下作動口24への入賞が発生する確率が高くなる。そして、下作動口24への入賞が発生した場合には、所定個数の遊技球の払出が実行されるため、高頻度サポートモードでは、遊技者は持ち球をあまり減らさないようにしながら遊技を行うことができる。 As described above, in the high frequency support mode, there is a higher probability that a prize will be awarded to the lower working opening 24 than in the low frequency support mode. In other words, in the low frequency support mode, the probability of winning a prize in the upper working opening 23 is higher than in the lower working opening 24, but in the high frequency support mode, the winning in the lower working opening 24 is higher than that in the upper working opening 23. The probability of winning a prize increases. Then, when a prize is given to the lower working opening 24, a predetermined number of game balls are paid out, so in the high-frequency support mode, the player plays the game while not reducing the number of balls that he holds. be able to.

なお、高頻度サポートモードを低頻度サポートモードよりも単位時間当たりに電役開放状態となる頻度を高くする上での構成は、上記のものに限定されることはなく、例えば電動役物開放抽選における電役開放状態当選となる確率を高くする構成としてもよい。また、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間(例えば、スルーゲート25への入賞に基づき役物用表示部34にて実行される変動表示の時間)が複数種類用意されている構成においては、高頻度サポートモードでは低頻度サポートモードよりも、短い確保時間が選択され易い又は平均の確保時間が短くなるように設定されていてもよい。さらには、開放回数を多くする、開放時間を長くする、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間を短くする(すなわち、役物用表示部34における1回の変動表示時間を短くする)、係る確保時間の平均時間を短くする及び当選確率を高くするのうち、いずれか1条件又は任意の組み合わせの条件を適用することで、低頻度サポートモードに対する高頻度サポートモードの有利性を高めてもよい。 The configuration for increasing the frequency of the high frequency support mode being in the electric role open state per unit time is higher than that of the low frequency support mode is not limited to the above-mentioned one. It is also possible to adopt a configuration in which the probability of winning the electric role open state in is increased. In addition, a securing time that is secured when the next electric accessory release lottery is performed after one electric accessory release lottery is performed (for example, in the accessory display unit 34 based on the winning of the through gate 25). In a configuration in which multiple types of variable display time) are prepared, the high-frequency support mode is set so that a shorter securing time is easier to select or the average securing time is shorter than in the low-frequency support mode. It may have been done. Furthermore, the number of times of opening is increased, the opening time is increased, and the securing time that is secured when the next electric accessory release lottery is performed after one electric accessory release lottery is performed (that is, , Shortening one time variable display time on the accessory display 34), shortening the average time of the securing time and increasing the winning probability, any one condition or a condition of any combination is applied. Therefore, the advantage of the high frequency support mode over the low frequency support mode may be increased.

大当たり種別カウンタC2に対する遊技結果の振分先は、ROM53における振分情報群記憶手段としての振分テーブル記憶エリアに振分テーブルとして記憶されている。そして、かかる振分先として、通常大当たり結果と、明示2R確変大当たり結果と、15R確変大当たり結果とが設定されている。 The distribution destination of the game result for the jackpot type counter C2 is stored as a distribution table in the distribution table storage area as distribution information group storage means in the ROM 53. Then, the normal jackpot result, the explicit 2R certainty variation jackpot result, and the 15R certainty variation jackpot result are set as the distribution destinations.

通常大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが低確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。但し、この高頻度サポートモードは、移行後において遊技回数が終了基準回数(具体的には、100回)に達した場合に低頻度サポートモードに移行する。換言すれば、通常大当たり結果は、通常大当たり状態(低確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。 The normal jackpot result is a jackpot result in which the opening/closing execution mode becomes the high frequency winning mode, and after the opening/closing execution mode ends, the winning/winning lottery mode becomes the low probability mode and the support mode becomes the high frequency support mode. However, the high frequency support mode shifts to the low frequency support mode when the number of games reaches the end reference number (specifically, 100 times) after the shift. In other words, the normal jackpot result is a jackpot result of shifting the game state to the normal jackpot state (low probability corresponding special game state).

明示2R確変大当たり結果は、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、明示2R確変大当たり結果は、明示2R確変大当たり状態(明示高確率対応遊技状態)へ遊技状態を移行させる大当たり結果である。 The explicit 2R probability variable jackpot result is a jackpot result in which the opening/closing execution mode becomes the low-frequency winning mode, and after the opening/closing execution mode ends, the winning/winning lottery mode becomes the high-probability mode and the support mode becomes the high-frequency support mode. .. These high-probability mode and high-frequency support mode are continued until the lottery result in the winning/winning lottery is a big hit state winning and the big hit state is brought about. In other words, the explicit 2R certainty variation jackpot result is a jackpot result of shifting the gaming state to the explicit 2R certainty variation jackpot state (explicit high probability corresponding gaming state).

15R確変大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、15R確変大当たり結果は、15R確変大当たり状態(高確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。 The 15R probability variable jackpot result is a jackpot result in which the opening/closing execution mode becomes the high-frequency winning mode, and after the opening/closing execution mode ends, the winning/winning lottery mode becomes the high-probability mode and the support mode becomes the high-frequency support mode. These high-probability mode and high-frequency support mode are continued until the lottery result in the winning/winning lottery is a big hit state winning and the big hit state is brought about. In other words, the 15R certainty variation jackpot result is a jackpot result of shifting the gaming state to the 15R certainty variation jackpot state (high probability corresponding special gaming state).

なお、上記各遊技状態との関係で通常遊技状態とは、当否抽選モードが低確率モードであり、サポートモードが低頻度サポートモードである状態をいう。 The normal game state in relation to each of the above-mentioned game states means a state in which the winning/winning lottery mode is the low probability mode and the support mode is the low frequency support mode.

振分テーブルでは、「0〜29」の大当たり種別カウンタC2の値のうち、「0〜9」が通常大当たり結果に対応しており、「10〜14」が明示2R確変大当たり結果に対応しており、「15〜29」が15R確変大当たり結果に対応している。 In the distribution table, among the values of the jackpot type counter C2 of “0 to 29”, “0 to 9” correspond to the normal jackpot result, and “10 to 14” correspond to the explicit 2R certainty variation jackpot result. "15-29" corresponds to the 15R probability variation jackpot result.

上記のように、確変大当たり結果として、明示2R確変大当たり結果が設定されていることにより、確変大当たり結果の態様が多様化する。すなわち、2種類の確変大当たり結果を比較した場合、遊技者にとっての有利度合いは、開閉実行モードにおいて高頻度入賞モードとなり且つサポートモードでは高頻度サポートモードとなる15R確変大当たり結果が最も高く、開閉実行モードにおいて低頻度入賞モードとなるもののサポートモードでは高頻度サポートモードとなる明示2R確変大当たり結果が最も低くなる。これにより、遊技の単調化が抑えられ、遊技への注目度を高めることが可能となる。 As described above, since the explicit 2R probability variation jackpot result is set as the probability variation jackpot result, the manner of the probability variation jackpot result is diversified. That is, when comparing two types of probability variation jackpot results, the degree of advantage for the player is that the 15R probability variation jackpot result is the highest in the high-frequency winning mode in the opening/closing execution mode and the high frequency support mode in the support mode. In the support mode, which is the low-frequency winning mode, the high-frequency support mode is the high-frequency support mode. As a result, the monotony of the game can be suppressed, and the attention of the game can be increased.

なお、確変大当たり結果の一種として、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードがそれまでのモードに維持されることとなる非明示2R確変大当たり結果(非明示高確率対応遊技結果又は潜伏確変状態となる結果)が含まれていてもよい。この場合、確変大当たり結果のさらなる多様化が図られる。 As a kind of probability variation jackpot result, the opening/closing execution mode becomes the low frequency winning mode, and after the opening/closing execution mode ends, the win/loss lottery mode becomes the high-probability mode and the support mode is maintained to the previous mode. The non-explicit 2R certainty variation jackpot result (the result of the non-explicit high probability corresponding game result or the latent probability variation state) may be included. In this case, the probability variation jackpot result is further diversified.

さらにまた、当否抽選における外れ結果の一種として、低頻度入賞モードの開閉実行モードに移行するとともに、その終了後において当否抽選モード及びサポートモードの移行が発生しない特別外れ結果が含まれていてもよい。上記のような非明示2R確変大当たり結果と当該特別外れ結果との両方が設定されている構成においては、開閉実行モードが低頻度入賞モードに移行すること、及びサポートモードがそれまでのモードに維持されることで共通しているのに対して、当否抽選モードの移行態様が異なっていることにより、例えば通常遊技状態において非明示2R確変大当たり結果又は特別外れ結果の一方が発生した場合に、それが実際にいずれの結果に対応しているのかを遊技者に予測させることが可能となる。 Furthermore, as a kind of the miss result in the win/win lottery, a special miss result which does not occur in the win/win lottery mode and the support mode after the transition to the opening/closing execution mode of the low frequency winning mode may be included. .. In the configuration in which both the implicit 2R probability variation jackpot result and the special outlying result are set as described above, the opening/closing execution mode shifts to the low frequency winning mode, and the support mode is maintained to the previous mode. It is common to be done, but because the transition mode of the win/loss lottery mode is different, for example, when one of the implicit 2R certainty variation jackpot result or special outlier result occurs in the normal gaming state, It is possible to make the player predict which result actually corresponds to.

リーチ乱数カウンタC3は、例えば0〜238の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。リーチ乱数カウンタC3は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 The reach random number counter C3 is configured such that the reach random number counter C3 is incremented by 1 in the range of 0 to 238, for example, and returns to 0 after reaching the maximum value. The reach random number counter C3 is regularly updated and is stored in the reserved ball storage area 54b at the timing when the game ball wins the upper working opening 23 or the lower working opening 24.

ここで、本パチンコ機10には、図柄表示装置31における表示演出の一種として期待演出が設定されている。期待演出とは、図柄の変動表示を行うことが可能な図柄表示装置31を備え、開閉実行モードが高頻度入賞モードとなる遊技回では変動表示後の停止表示結果が特別表示結果となる遊技機において、図柄表示装置31における図柄の変動表示が開始されてから停止表示結果が導出表示される前段階で、前記特別表示結果となり易い変動表示状態であると遊技者に思わせるための表示状態をいう。 Here, in the pachinko machine 10, an expected effect is set as a kind of display effect in the symbol display device 31. The expected effect is provided with a symbol display device 31 capable of performing variable display of symbols, and in the game times in which the open/close execution mode is the high frequency winning mode, the stop display result after the variable display is the special display result. In the above, in the stage before the variable display of the symbols on the symbol display device 31 is started and before the stop display result is derived and displayed, the display state for making the player think that the variable display state is likely to be the special display result is displayed. Say.

期待演出には、上記リーチ表示と、当該リーチ表示が発生する前段階などにおいてリーチ表示の発生や特別表示結果の発生を期待させるための予告表示との2種類が設定されている。 Two types of expected display are set: the reach display and a notice display for expecting the reach display or the special display result in a stage before the reach display occurs.

リーチ表示には、図柄表示装置31の表示面Gに表示される複数の図柄列のうち一部の図柄列について図柄を停止表示させることで、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性があるリーチ図柄の組み合わせを表示し、その状態で残りの図柄列において図柄の変動表示を行う表示状態が含まれる。また、上記のようにリーチ図柄の組み合わせを表示した状態で、残りの図柄列において図柄の変動表示を行うとともに、その背景画像において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものや、リーチ図柄の組み合わせを縮小表示させる又は非表示とした上で、表示面の略全体において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものが含まれる。 In the reach display, the symbols are stopped and displayed for a part of the plurality of symbol columns displayed on the display surface G of the symbol display device 31, so that a combination of the jackpot symbols corresponding to the occurrence of the high frequency winning mode. A combination of reach symbols that may be satisfied is displayed, and in that state, a display state in which the symbols are variably displayed in the remaining symbol columns is included. In addition, while displaying the combination of reach symbols as described above, while performing variable display of the symbols in the remaining symbol columns, and displaying the predetermined character or the like as a moving image in the background image, the reach effect is performed. , A combination of reach patterns is reduced or hidden, and a predetermined character or the like is displayed as a moving image on substantially the entire display surface to provide a reach effect.

図柄の変動表示に係るリーチ表示について具体的には、図柄の変動表示を終了させる前段階として、図柄表示装置31の表示面内の予め設定された有効ライン上に、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性のあるリーチ図柄の組み合わせを停止表示させることによりリーチラインを形成させ、当該リーチラインが形成されている状況下において最終停止図柄列により図柄の変動表示を行うことである。 Regarding the reach display related to the variable display of the symbols, specifically, as a pre-stage for ending the variable display of the symbols, on the preset effective line in the display surface of the symbol display device 31, the occurrence of the high frequency winning mode is generated. A reach line is formed by stopping and displaying the reach symbol combination in which the corresponding jackpot symbol combination may be established, and the variable display of the symbol is displayed by the final stop symbol row in the situation where the reach line is formed. Is to do.

図3の表示内容について具体的に説明すると、最初に上段の図柄列SA1において図柄の変動表示が終了され、さらに下段の図柄列SA3において図柄の変動表示が終了された状態において、いずれかの有効ラインL1〜L5に同一の数字が付された主図柄が停止表示されることでリーチラインが形成され、当該リーチラインが形成されている状況化において中段の図柄列SA2において図柄の変動表示が行われることでリーチ表示となる。そして、高頻度入賞モードが発生する場合には、リーチラインを形成している主図柄と同一の数字が付された主図柄がリーチライン上に停止表示されるようにして中段の図柄列SA2における図柄の変動表示が終了される。 Explaining the display contents of FIG. 3 concretely, first, the variable display of symbols is ended in the upper symbol row SA1, and the variable display of symbols is further ended in the lower symbol row SA3. A reach line is formed by stopping and displaying the main symbols having the same numbers on the lines L1 to L5, and in the situation where the reach line is formed, the variable display of the symbols is displayed in the middle symbol row SA2. Reach display will be given. Then, when the high-frequency winning mode occurs, the main symbol with the same number as the main symbol forming the reach line is stopped and displayed on the reach line, and in the middle symbol row SA2. The variable display of symbols is ended.

予告表示には、図柄表示装置31の表示面において図柄の変動表示が開始されてから、全ての図柄列SA1〜SA3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列SA1〜SA3上の図柄とは別にキャラクタを表示させる態様が含まれる。また、背景画像をそれまでの態様とは異なる所定の態様とするものや、図柄列SA1〜SA3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。かかる予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示の行われる場合の方がリーチ表示の行われない場合よりも高確率で発生するように設定されている。 In the notice display, in a situation where the symbols are variably displayed in all the symbol columns SA1 to SA3 after the variable display of the symbols is started on the display surface of the symbol display device 31, or a part of the symbol columns. In a situation in which the symbols are variably displayed in a plurality of symbol columns, a mode in which the character is displayed separately from the symbols on the symbol columns SA1 to SA3 is included. Further, a background image having a predetermined mode different from the previous modes and a pattern on the symbol arrays SA1 to SA3 having a predetermined mode different from the previous modes are also included. Such advance notice display can occur in both game times when the reach display is performed and when the reach display is not performed, but the reach display is higher than the case where the reach display is not performed. It is set to occur with a probability.

リーチ表示は、高頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行され、低頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行されない。また、開閉実行モードに移行しない遊技回では、ROM53のリーチ用テーブル記憶エリアに記憶されたリーチ用テーブルを参照して、所定のタイミングで取得したリーチ乱数カウンタC3がリーチ表示の発生に対応している場合に実行される。一方、予告表示を行うか否かの決定は、主制御装置50において行うのではなく、音声発光制御装置60において行われる。 The reach display is executed irrespective of the value of the reach random number counter C3 in the game time of shifting to the open/close execution mode which is the high frequency winning mode, and the reach random number in the game time of shifting to the opening/closing execution mode of the low frequency winning mode. It is not executed regardless of the value of the counter C3. Further, in the game time that does not shift to the open/close execution mode, the reach random number counter C3 acquired at a predetermined timing corresponds to the occurrence of the reach display by referring to the reach table stored in the reach table storage area of the ROM 53. Is executed if On the other hand, the decision as to whether or not to display the advance notice is made not by the main controller 50 but by the sound emission controller 60.

変動種別カウンタCSは、例えば0〜198の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。変動種別カウンタCSは、メイン表示部33における変動表示時間と、図柄表示装置31における図柄の変動表示時間とをMPU52において決定する上で用いられる。変動種別カウンタCSは、後述する通常処理が1回実行される毎に1回更新され、当該通常処理内の残余時間内でも繰り返し更新される。そして、メイン表示部33における変動表示の開始時及び図柄表示装置31による図柄の変動開始時における変動パターン決定に際して変動種別カウンタCSのバッファ値が取得される。なお、変動表示時間の決定に際しては、ROM53の変動表示時間テーブル記憶エリアに予め記憶されている変動表示時間テーブルが参照される。 The fluctuation type counter CS is configured to be incremented by 1 in order within the range of 0 to 198, for example, and then returns to 0 after reaching the maximum value. The fluctuation type counter CS is used when the MPU 52 determines the fluctuation display time on the main display portion 33 and the fluctuation display time of the symbol on the symbol display device 31. The variation type counter CS is updated once every time a normal process described below is executed once, and is repeatedly updated within the remaining time in the normal process. Then, the buffer value of the fluctuation type counter CS is acquired when the fluctuation display is started on the main display portion 33 and the fluctuation pattern is determined by the symbol display device 31 at the start of the fluctuation of the symbol. When determining the variable display time, the variable display time table stored in advance in the variable display time table storage area of the ROM 53 is referred to.

電動役物開放カウンタC4は、例えば、0〜250の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。電動役物開放カウンタC4は定期的に更新され、スルーゲート25に遊技球が入賞したタイミングで電役保留エリア54cに格納される。そして、所定のタイミングにおいて、その格納された電動役物開放カウンタC4の値によって電動役物24aを開放状態に制御するか否かの抽選が行われる。 The electric accessory release counter C4 is configured so that, for example, it is sequentially incremented by 1 in the range of 0 to 250, and then returns to 0 after reaching the maximum value. The electric accessory release counter C4 is periodically updated and is stored in the electric accessory holding area 54c at the timing when the game ball wins the through gate 25. Then, at a predetermined timing, a lottery is performed on whether or not the electric accessory 24a is controlled to the open state by the stored value of the electric accessory release counter C4.

MPU52の出力側には、払出制御装置55が接続されているとともに、電源及び発射制御装置57が接続されている。払出制御装置55には、例えば、上記入賞対応入球部への入賞判定結果に基づいて賞球コマンドが送信される。払出制御装置55は、主制御装置50から受信した賞球コマンドに基づいて、払出装置56により賞球や貸し球の払出制御を行う。電源及び発射制御装置57には、発射ハンドル41が操作されていることに基づいて発射許可コマンドが送信される。電源及び発射制御装置57は、主制御装置50から受信した発射許可コマンドに基づいて、遊技球発射機構58を駆動させ遊技球を遊技領域に向けて発射させる。 On the output side of the MPU 52, a payout control device 55 is connected, and a power supply and firing control device 57 is connected. To the payout control device 55, for example, a prize ball command is transmitted based on the result of the prize determination to the prize-corresponding ball portion. The payout control device 55 causes the payout device 56 to perform payout control of prize balls and loan balls based on the prize ball command received from the main control device 50. A firing permission command is transmitted to the power supply and firing control device 57 based on the operation of the firing handle 41. The power supply and launch control device 57 drives the game ball launching mechanism 58 to launch the game ball toward the game area based on the launch permission command received from the main control device 50.

また、MPU52の出力側には、メイン表示部33及び役物用表示部34が接続されており、これらメイン表示部33及び役物用表示部34の表示制御がMPU52により直接行われる。つまり、各遊技回に際しては、MPU52においてメイン表示部33の表示制御が実行される。また、電動役物24aを開放状態とするか否かの抽選結果を明示する場合に、MPU52において役物用表示部34の表示制御が実行される。 Further, the main display unit 33 and the accessory display unit 34 are connected to the output side of the MPU 52, and the display control of the main display unit 33 and the accessory display unit 34 is directly performed by the MPU 52. That is, at each game time, the display control of the main display unit 33 is executed in the MPU 52. Further, when the lottery result indicating whether or not the electric accessory 24a is to be opened is specified, the display control of the accessory display unit 34 is executed in the MPU 52.

また、MPU52の出力側には、可変入賞装置22の開閉扉22bを開閉動作させる可変入賞駆動部、及び下作動口24の電動役物24aを開閉動作させる電動役物駆動部が接続されている。つまり、開閉実行モードにおいては大入賞口22aが開閉されるように、MPU52において可変入賞駆動部の駆動制御が実行される。また、電動役物24aの開放状態当選となった場合には、電動役物24aが開閉されるように、MPU52において電動役物駆動部の駆動制御が実行される。 Further, the output side of the MPU 52 is connected to a variable winning a prize driving unit that opens and closes the opening/closing door 22b of the variable winning device 22, and an electric auditors product driving unit that opens and closes the electric auditors product 24a of the lower working port 24. .. That is, in the open/close execution mode, the MPU 52 executes the drive control of the variable winning drive unit so that the special winning opening 22a is opened and closed. When the electric accessory 24a is in the open state, the MPU 52 executes drive control of the electric accessory driving unit so that the electric accessory 24a is opened and closed.

また、MPU52の出力側には、音声発光制御装置60が接続されており、当該音声発光制御装置60に対して演出用の各種コマンドを送信する。 Further, an audio emission control device 60 is connected to the output side of the MPU 52, and various production commands are transmitted to the audio emission control device 60.

<主制御装置50のMPU52にて実行される処理>
次に、MPU52にて実行される処理について説明する。
<Processing executed by MPU 52 of main controller 50>
Next, the processing executed by the MPU 52 will be described.

MPU52は、電源の立ち上げ後において所定の遊技進行用処理を繰り返し実行する。本パチンコ機10では、当該遊技進行用処理として、第1の周期で繰り返し実行される通常処理と、第1の周期よりも短い第2の周期で起動され、通常処理に対して割り込んで実行されるタイマ割込み処理と、が設定されている。 The MPU 52 repeatedly executes a predetermined game progression process after the power is turned on. In the pachinko machine 10, as the game progression process, a normal process that is repeatedly executed in a first cycle and a second cycle that is shorter than the first cycle are activated, and the normal process is interrupted and executed. Timer interrupt processing is set.

図6は、タイマ割込み処理を示すフローチャートである。なお、本処理はMPU52により定期的に(例えば2msec周期で)起動される。 FIG. 6 is a flowchart showing the timer interrupt processing. It should be noted that this processing is activated by the MPU 52 periodically (for example, in a cycle of 2 msec).

先ずステップS101では、読み込み処理を実行する。当該読み込み処理では、各種入賞検知センサの状態を読み込み、これら各種入賞検知センサの状態を判定して入賞検知情報を保存する処理を実行する。また、賞球の発生に対応した入賞検知センサにおいて遊技球の入賞が検知されている場合には、払出制御装置55に対して賞球の払い出し指示を行うための賞球コマンドを設定する。 First, in step S101, a reading process is executed. In the reading process, the states of the various winning detection sensors are read, the states of these various winning detection sensors are determined, and the processing of saving the winning detection information is executed. When the winning detection sensor corresponding to the generation of the winning balls detects the winning of the game balls, it sets a winning ball command for instructing the payout controller 55 to pay out the winning balls.

続くステップS102では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。 In a succeeding step S102, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is incremented by 1, and is cleared to 0 when the counter value reaches the maximum value.

続くステップS103では、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4の更新を実行する。具体的には、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4をそれぞれ1加算すると共に、それらのカウンタ値が最大値に達した際それぞれ0にクリアする。 In a succeeding step S103, the jackpot random number counter C1, the jackpot type counter C2, the reach random number counter C3, and the electric accessory release counter C4 are updated. Specifically, the jackpot random number counter C1, the jackpot type counter C2, the reach random number counter C3, and the electric accessory release counter C4 are each incremented by 1, and when they reach their maximum values, they are cleared to 0.

続くステップS104では、スルーゲート25への入賞に伴うスルー用の入賞処理を実行する。スルー用の入賞処理では、電役保留エリア54cに記憶されている役物保留記憶数が4未満であることを条件として、前記ステップS103にて更新した電動役物開放カウンタC4の値を電役保留エリア54cに格納する。 In a succeeding step S104, a through winning process associated with winning of the through gate 25 is executed. In the through winning process, the value of the electric accessory release counter C4 updated in step S103 described above is changed to the electric role, provided that the number of the accessory holding storages stored in the electric role holding area 54c is less than 4. It is stored in the holding area 54c.

その後、ステップS105にて、作動口23,24への入賞に伴う作動口用の入賞処理を実行する。作動口用の入賞処理では、上作動口23又は下作動口24への入賞が発生していた場合には、保留球格納エリア54bに記憶されている始動保留記憶数が上限数(例えば、「4」)未満であることを条件として、前記ステップS103にて更新した大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報を保留球格納エリア54bの保留用エリアREに格納する。この場合、保留用エリアREの空き保留エリアRE1〜RE4のうち最初の保留エリア、すなわち現状の始動保留記憶数と対応する保留エリアに格納する。ステップS105の処理を実行した後に、本タイマ割込み処理を終了する。 After that, in step S105, the winning process for the working openings associated with the winning of the working openings 23, 24 is executed. In the winning process for the working opening, when a winning is generated in the upper working opening 23 or the lower working opening 24, the number of starting pending memories stored in the pending ball storage area 54b is the upper limit number (for example, " 4”), the numerical information of the jackpot random number counter C1, the jackpot type counter C2, and the reach random number counter C3 updated in step S103 is stored in the holding area RE of the holding ball storage area 54b. .. In this case, it is stored in the first holding area among the empty holding areas RE1 to RE4 of the holding area RE, that is, in the holding area corresponding to the current starting holding storage number. After the processing of step S105 is executed, the timer interrupt processing ends.

図7は、通常処理を示すフローチャートである。通常処理は電源投入に伴い起動されるメイン処理が実行された後に開始される処理である。その概要として、ステップS201〜ステップS209の処理が4msec周期の処理として実行され、その残余時間でステップS210及びステップS211のカウンタ更新処理が実行される構成となっている。 FIG. 7 is a flowchart showing normal processing. The normal process is a process that is started after the main process started when the power is turned on is executed. As an outline, the processing of steps S201 to S209 is executed as a processing of a cycle of 4 msec, and the counter updating processing of steps S210 and S211 is executed in the remaining time.

ステップS201では、タイマ割込み処理又は前回の通常処理で設定したコマンド等の出力データをサブ側の各制御装置に送信する。具体的には、賞球コマンドの有無を判定し、賞球コマンドが設定されていればそれを払出制御装置55に対して送信する。また、所定の演出用コマンドが設定されている場合にはそれを音声発光制御装置60に対して送信する。 In step S201, output data such as a command set in the timer interrupt process or the previous normal process is transmitted to each sub-side control device. Specifically, the presence/absence of a prize ball command is determined, and if the prize ball command is set, it is transmitted to the payout control device 55. If a predetermined effect command is set, it is transmitted to the sound emission control device 60.

続くステップS202では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、カウンタ値が最大値に達した際にはカウンタ値を0にクリアする。 In a succeeding step S202, the fluctuation type counter CS is updated. Specifically, the variation type counter CS is incremented by 1, and the counter value is cleared to 0 when the counter value reaches the maximum value.

続くステップS203では、各遊技回における遊技を制御するための遊技回制御処理を実行する。この遊技回制御処理では、大当たり判定、図柄表示装置31による図柄の変動表示の設定、及びメイン表示部33の表示制御などを行う。 In a succeeding step S203, a game time control process for controlling a game in each game time is executed. In this game time control processing, jackpot determination, setting of variable display of symbols by the symbol display device 31, display control of the main display unit 33, and the like are performed.

その後、ステップS204では、遊技状態を移行させるための遊技状態移行処理を実行する。遊技状態移行処理では、大当たり当選に対応した遊技回が終了している場合に開閉実行モードへの移行処理を実行し、可変入賞装置22の開閉処理を開始する。なお、開閉実行モードを開始する場合、開閉実行モード中、及び開閉実行モードを終了する場合などに、開閉実行モード用の各種コマンドを音声発光制御装置60に送信する。また、開閉実行モードが終了した場合には、当該モードの開始契機となった遊技回に係る大当たり種別に対応させて、当否抽選モードの移行やサポートモードの移行を実行する。 Then, in step S204, a game state transition process for shifting the game state is executed. In the game state transition processing, when the game times corresponding to the jackpot winning have been completed, the transition processing to the opening/closing execution mode is executed, and the opening/closing processing of the variable winning device 22 is started. It should be noted that various commands for the open/close execution mode are transmitted to the sound emission control device 60 when the open/close execution mode is started, during the open/close execution mode, and when the open/close execution mode is ended. In addition, when the opening/closing execution mode ends, the shift of the win/loss lottery mode or the shift of the support mode is executed in correspondence with the jackpot type related to the game times that triggered the start of the mode.

続くステップS205では、デモ表示用処理を実行する。デモ表示用処理では、開閉実行モード中ではない状況で遊技回の終了後において新たな遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、0.1sec)が経過したか否かの判定処理を実行する。また、MPU52への電力供給が開始されてから又はパチンコ機10がリセットされてから、新たに遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、3sec)が経過したか否かの判定処理を実行する。そして、経過していると判定した場合には、デモ表示用のコマンドを音声発光制御装置60に送信する。 In a succeeding step S205, a demo display process is executed. In the demo display process, a predetermined start waiting period (for example, 0.1 sec) for demonstrating without a new game time being started after the game time is ended in a situation where the opening/closing execution mode is not in progress The determination process of whether or not it is performed is executed. In addition, since the power supply to the MPU 52 is started or the pachinko machine 10 is reset, a predetermined start waiting period (for example, 3 seconds) for starting the demo is elapsed without the game time being newly started. The determination process of whether or not it is performed is executed. When it is determined that the time has elapsed, a command for demonstration display is transmitted to the sound emission control device 60.

なお、デモ表示とは、予め定められた開始待ち期間が経過している場合に、図柄表示装置31の表示面Gにて表示される開始待ち演出のことをいう。デモ画像では、図柄列SA1〜SA3上に停止表示されている図柄が所定の動作を行っている画像が表示されるが、これに限定されることはなく、例えば、図柄が所定の動作を行っている画像の表示の後に又はそれに代えてメーカ名、機種名若しくは所定のキャラクタによる動画が表示される構成としてもよい。また、図柄列SA1〜SA3上において変動表示される図柄のアニメーションによりデモ表示を行う構成においては、当該図柄として、直前の遊技回で最終停止表示された図柄を用いる構成としてもよい。この場合、デモ表示の多様化が図られる。 The demo display means a start waiting effect displayed on the display surface G of the symbol display device 31 when a predetermined start waiting period has elapsed. In the demo image, an image in which the symbols stopped and displayed on the symbol arrays SA1 to SA3 are performing a predetermined operation is displayed, but the image is not limited to this, and, for example, the symbol performs a predetermined operation. After the image is displayed, or instead of it, a maker name, a model name, or a moving image of a predetermined character may be displayed. Further, in the configuration in which the demo display is performed by the animation of the symbols that are variably displayed on the symbol columns SA1 to SA3, the symbol that is finally stopped and displayed in the last game may be used as the symbol. In this case, the demo display can be diversified.

続くステップS206では、下作動口24に設けられた電動役物24aを駆動制御するための電役サポート用処理を実行する。この電役サポート用処理では、RAM54の電役保留エリア54cに格納されている情報を用いて電動役物24aを開放状態とするか否かの判定、電動役物24aの開閉処理及び役物用表示部34の表示制御などを行う。 In a succeeding step S206, an electric role support process for driving and controlling the electric accessory 24a provided in the lower operation port 24 is executed. In the electric power support process, the information stored in the electric power holding area 54c of the RAM 54 is used to determine whether to open the electric accessory 24a, the opening/closing process of the electric accessory 24a, and the accessory use. The display of the display unit 34 is controlled.

その後、ステップS207では、遊技球発射制御処理を実行する。遊技球発射制御処理では、電源及び発射制御装置57から発射許可信号を入力していることを条件として、所定期間(例えば、0.6sec)に1回、遊技球発射機構58のソレノイドを励磁する。これにより、遊技球が遊技領域に向けて打ち出される。 Then, in step S207, a game ball launch control process is executed. In the game ball launch control process, the solenoid of the game ball launch mechanism 58 is excited once in a predetermined period (for example, 0.6 sec) on condition that a launch permission signal is input from the power supply and the launch control device 57. .. As a result, the game ball is launched toward the game area.

続くステップS208では、RAM54に電断フラグが格納されているか否かを判定する。電断フラグは、電断の発生が確認された場合に格納され、次回のメイン処理にて消去されるフラグである。 In a succeeding step S208, it is determined whether or not the power interruption flag is stored in the RAM 54. The power failure flag is a flag that is stored when the occurrence of power failure is confirmed, and is erased in the next main process.

電断フラグが格納されていない場合は、繰り返し実行される複数の処理の最後の処理が終了したこととなるので、ステップS209にて次の通常処理の実行タイミングに至ったか否か、すなわち前回の通常処理の開始から所定時間(本実施の形態では4msec)が経過したか否かを判定する。そして、次の通常処理の実行タイミングに至るまでの残余時間内において、乱数初期値カウンタCINI及び変動種別カウンタCSの更新を繰り返し実行する。 If the power interruption flag is not stored, it means that the last process of the plurality of processes to be repeatedly executed has been completed, so whether or not the execution timing of the next normal process is reached in step S209, that is, It is determined whether or not a predetermined time (4 msec in the present embodiment) has elapsed from the start of the normal processing. Then, the random number initial value counter CINI and the variation type counter CS are repeatedly updated within the remaining time until the execution timing of the next normal process.

つまり、ステップS210では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。また、ステップS211では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、それらのカウンタ値が最大値に達した際0にクリアする。 That is, in step S210, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is incremented by 1, and is cleared to 0 when the counter value reaches the maximum value. Further, in step S211, the fluctuation type counter CS is updated. Specifically, the fluctuation type counter CS is incremented by 1, and when the counter values reach their maximum values, they are cleared to 0.

ここで、ステップS201〜S207の各処理の実行時間は遊技の状態に応じて変化するため、次の通常処理の実行タイミングに至るまでの残余時間は一定でなく変動する。故に、かかる残余時間を使用して乱数初期値カウンタCINIの更新を繰り返し実行することにより、乱数初期値カウンタCINI(すなわち、大当たり乱数カウンタC1の初期値)をランダムに更新することができ、同様に変動種別カウンタCSについてもランダムに更新することができる。 Here, since the execution time of each process of steps S201 to S207 changes according to the state of the game, the remaining time until the execution timing of the next normal process changes rather than being constant. Therefore, the random number initial value counter CINI (that is, the initial value of the jackpot random number counter C1) can be updated at random by repeatedly updating the random number initial value counter CINI using the remaining time, and in the same manner. The fluctuation type counter CS can also be updated at random.

一方、ステップS208にて、電断フラグが格納されていると判定した場合は、電源遮断が発生したことになるので、ステップS212以降の電断時処理を実行する。つまり、ステップS212では、タイマ割込み処理の発生を禁止し、その後、ステップS213にてRAM判定値を算出、保存し、ステップS214にてRAM54のアクセスを禁止した後に、電源が完全に遮断して処理が実行できなくなるまで無限ループを継続する。 On the other hand, if it is determined in step S208 that the power failure flag is stored, it means that power shutoff has occurred, and therefore, the processing at the time of power failure after step S212 is executed. That is, in step S212, the generation of the timer interrupt process is prohibited, after that, the RAM determination value is calculated and stored in step S213, and the access to the RAM 54 is prohibited in step S214. Continue infinite loop until can no longer be executed.

次に、ステップS203の遊技回制御処理を図8等のフローチャートを参照して説明する。 Next, the game number control process of step S203 will be described with reference to the flowchart of FIG.

遊技回制御処理では、先ずステップS301にて、開閉実行モード中か否かを判定する。開閉実行モード中である場合には、ステップS302以降の処理を実行することなく、本遊技回制御処理を終了する。つまり、開閉実行モード中である場合には、作動口23,24への入賞が発生しているか否かに関係なく、遊技回が開始されることはない。 In the game time control process, first in step S301, it is determined whether or not the opening/closing execution mode is in effect. If it is in the open/close execution mode, the present game number control processing is ended without executing the processing of step S302 and thereafter. That is, in the open/close execution mode, the game game is not started regardless of whether or not a prize has been paid to the operating ports 23, 24.

開閉実行モード中でない場合には、ステップS302にて、メイン表示部33が変動表示中であるか否かを判定する。メイン表示部33が変動表示中でない場合には、ステップS303〜ステップS305の遊技回開始用処理に進む。 When it is not in the open/close execution mode, it is determined in step S302 whether or not the main display unit 33 is in the variable display. If the main display portion 33 is not in the variable display, the process proceeds to the game times start process of steps S303 to S305.

遊技回開始用処理では、先ずステップS303にて、始動保留球数Nが「0」であるか否かを判定する。始動保留球数Nが「0」である場合とは、保留球格納エリア54bに保留情報が記憶されていないことを意味する。したがって、そのまま本遊技回制御処理を終了する。 In the game game starting process, first in step S303, it is determined whether or not the number N of balls to be reserved for starting is "0". The case where the number N of starting reserved balls is "0" means that the reserved information is not stored in the reserved ball storage area 54b. Therefore, this game time control processing is ended as it is.

始動保留球数Nが「0」でない場合には、ステップS304にて保留球格納エリア54bの保留用エリアREに記憶されているデータを変動表示用に設定するためのデータ設定処理を実行する。具体的には、保留用エリアREの第1保留エリアRE1に格納されているデータを実行エリアAEにシフトする。その後、第1保留エリアRE1〜第4保留エリアRE4に格納されているデータを下位エリア側に順にシフトさせる。その後、ステップS305にて変動開始処理を実行した後に、本遊技回制御処理を終了する。 If the number N of starting reserved balls is not "0", a data setting process for setting the data stored in the reserved area RE of the reserved ball storage area 54b for variable display is executed in step S304. Specifically, the data stored in the first holding area RE1 of the holding area RE is shifted to the execution area AE. After that, the data stored in the first holding area RE1 to the fourth holding area RE4 are sequentially shifted to the lower area side. After that, the variation start process is executed in step S305, and then the present game number control process is ended.

ステップS305の変動開始処理について、図9のフローチャートを参照しながら説明する。 The fluctuation start process of step S305 will be described with reference to the flowchart of FIG.

ステップS401にて、今回の変動開始処理に対応した保留情報が大当たり当選に対応しているか否かを判定するための当否判定処理を実行する。具体的には実行エリアAEにシフトされた保留情報のうち大当たり乱数カウンタC1に係る数値情報と、現状の当否抽選モードに対応した当否テーブルとを参照して、大当たり当選となるか否かを判定する。 In step S401, a win/loss determination process for determining whether or not the pending information corresponding to the current variation start process corresponds to the jackpot win. Specifically, it is determined whether or not the jackpot is won by referring to the numerical information relating to the jackpot random number counter C1 among the holding information shifted to the execution area AE and the winning/losing table corresponding to the current winning/winning lottery mode. To do.

続くステップS402では大当たり当選であるか否かを判定する。大当たり当選である場合には、ステップS403にて種別判定処理を実行する。種別判定処理では、実行エリアAEにシフトされた保留情報のうち大当たり種別カウンタC2に係る数値情報と、振分テーブルとを参照して、大当たり種別を特定する。 In a succeeding step S402, it is determined whether or not the jackpot is won. If the jackpot is won, type determination processing is executed in step S403. In the type determination process, the jackpot type is specified by referring to the numerical information relating to the jackpot type counter C2 of the pending information shifted to the execution area AE and the distribution table.

続くステップS404では、大当たり結果に対応した停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている大当たり結果用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この大当たり結果用の停止結果テーブルには、メイン表示部33に停止表示される絵柄の態様の種類が、大当たり結果の種類毎に相違させて設定されており、ステップS404では、ステップS403にて特定した大当たり結果の種類に応じた絵柄の態様の情報をRAM54に記憶する。 In a succeeding step S404, a stop result setting process corresponding to the jackpot result is executed. Specifically, in the game time related to the current fluctuation start, the information of the mode of the picture finally stopped and displayed on the main display unit 33 is specified from the stop result table for the jackpot result stored in advance in the ROM 53, The specified information is stored in the RAM 54. In the stop result table for the jackpot result, the type of the mode of the pattern stopped and displayed on the main display unit 33 is set to be different for each type of the jackpot result, and in step S404, the type is specified in step S403. The RAM 54 stores information on the form of the pattern according to the type of the jackpot result.

一方、ステップS402にて、大当たり当選ではないと判定した場合には、ステップS405にて、外れ時用の停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている外れ時用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この場合に選択される絵柄の態様の情報は、大当たり結果の場合に選択される絵柄の態様の情報とは異なっている。 On the other hand, if it is determined in step S402 that the jackpot has not been won, in step S405, a stop result setting process for out-of-coupling is executed. Specifically, the information of the mode of the pattern to be finally stopped and displayed on the main display unit 33 in the game time related to the start of fluctuation is specified from the stop result table for the time of dislocation stored in the ROM 53 in advance, The specified information is stored in the RAM 54. The information on the pattern mode selected in this case is different from the information on the pattern mode selected in the case of the jackpot result.

ステップS404又はステップS405の処理を実行した後は、ステップS406にて、変動表示時間の設定処理を実行する。 After the process of step S404 or step S405 is executed, the variable display time setting process is executed in step S406.

かかる処理では、RAM54の抽選カウンタ用バッファ54aにおける変動種別カウンタ用バッファに格納されている変動種別カウンタCSの値を取得する。また、今回の遊技回において図柄表示装置31にてリーチ表示が発生するか否かを判定する。具体的には、今回の変動開始に係る遊技回が大当たり結果である場合には、リーチ表示が発生すると判定する。また、大当たり結果ではない場合であっても、実行エリアAEに格納されているリーチ乱数カウンタC3に係る数値情報がリーチ発生に対応した数値情報である場合には、リーチ表示が発生すると判定する。 In this process, the value of the fluctuation type counter CS stored in the fluctuation type counter buffer in the lottery counter buffer 54a of the RAM 54 is acquired. In addition, it is determined whether or not the reach display is generated on the symbol display device 31 at the current game time. Specifically, when the number of game times related to the variation start this time is a jackpot result, it is determined that the reach display is generated. Further, even when the result is not the big hit result, it is determined that the reach display is generated when the numerical value information regarding the reach random number counter C3 stored in the execution area AE is the numerical value information corresponding to the occurrence of the reach.

リーチ表示が発生すると判定した場合には、ROM53に記憶されているリーチ発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報をRAM54に設けられた変動表示時間カウンタにセットする。一方、リーチ表示が発生しないと判定した場合には、ROM53に記憶されているリーチ非発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報を上記変動表示時間カウンタにセットする。ちなみに、リーチ非発生用変動表示時間テーブルを参照して取得され得る変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得され得る変動表示時間と異なっている。 When it is determined that the reach display is generated, the reach display variable display time table stored in the ROM 53 is referred to, the change display time information corresponding to the value of the present change type counter CS is acquired, and the change is obtained. The display time information is set in the variable display time counter provided in the RAM 54. On the other hand, when it is determined that the reach display does not occur, the variable display time information corresponding to the current value of the variation type counter CS is acquired by referring to the reach display table for reach non-occurrence stored in the ROM 53. Then, the variable display time information is set in the variable display time counter. Incidentally, the fluctuation display time that can be acquired by referring to the reach display variable display time table is different from the fluctuation display time that can be acquired by referring to the reach generation fluctuation display time table.

なお、リーチ非発生時における変動表示時間情報は、始動保留球数の数が多いほど、変動表示時間が短くなるように設定されている。また、サポートモードが高頻度サポートモードである状況においては低頻度サポートモードである状況よりも、保留情報の数が同一である場合で比較して、短い変動表示時間が選択されるようにリーチ非発生用変動表示時間テーブルが設定されている。但し、これに限定されることはなく、始動保留球数やサポートモードに応じて変動表示時間が変動しない構成としてもよく、上記の関係とは逆であってもよい。さらには、リーチ発生時における変動表示時間に対して、上記構成を適用してもよい。また、各種大当たり結果の場合、外れリーチ時の場合及びリーチ非発生の場合のそれぞれに対して個別に変動表示時間テーブルが設定されていてもよい。 The variable display time information when the reach is not generated is set such that the variable display time becomes shorter as the number of starting pending balls increases. In addition, when the support mode is the high-frequency support mode, compared with the case where the support frequency is the low-frequency support mode, the reach non-reach time is selected so that a shorter variable display time is selected, compared with the case where the number of hold information is the same. The variable display time table for generation is set. However, the present invention is not limited to this, and a configuration in which the variable display time does not vary depending on the number of balls to be held for start-up and the support mode may be adopted, and the above relationship may be reversed. Further, the above configuration may be applied to the variable display time when the reach occurs. Further, the variable display time table may be set individually for each of the various jackpot results, the case of the out-reach, and the case of the non-reach occurrence.

ステップS406にて、変動表示時間の設定処理を実行した後は、ステップS407にて、変動用コマンド及び種別コマンドを設定する。変動用コマンドには、変動表示時間の情報が含まれる。ここで、上記のとおりリーチ非発生用変動表示時間テーブルを参照して取得される変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得される変動表示時間と異なっているため、変動用コマンドにリーチ発生の有無の情報が含まれていなかったとしても、サブ側の制御装置である音声発光制御装置60では変動表示時間の情報からリーチ発生の有無を特定することは可能である。この点、変動用コマンドには、リーチ発生の有無を示す情報が含まれているとも言える。なお、変動用コマンドにリーチ発生の有無を直接示す情報が含まれていてもよい。 After the variable display time setting process is executed in step S406, the variation command and the type command are set in step S407. The variation command includes information on the variation display time. As described above, the fluctuation display time acquired by referring to the reach non-occurrence variable display time table is different from the fluctuation display time acquired by referring to the reach occurrence variable display time table. Even if the use command does not include the information about the presence or absence of the reach occurrence, the voice emission control device 60 which is the sub-side control device can identify the presence or absence of the reach occurrence from the information of the variable display time. In this respect, it can be said that the variation command includes information indicating whether or not reach has occurred. It should be noted that the variation command may include information directly indicating whether or not the reach has occurred.

また、種別コマンドには、遊技結果の情報が含まれる。つまり、種別コマンドには、遊技結果の情報として、通常大当たり結果の情報、明示2R確変大当たり結果の情報、15R確変大当たり結果の情報、及び外れ結果の情報のいずれかが含まれる。 Further, the type command includes information on the game result. That is, the type command includes, as the game result information, any one of the normal jackpot result information, the explicit 2R certainty variation jackpot result information, the 15R certainty variation jackpot result information, and the outlier result information.

ステップS407にて設定された変動用コマンド及び種別コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。ステップS407の処理を実行した後は、ステップS408にてメイン表示部33において絵柄の変動表示を開始させる。その後、本変動開始処理を終了する。 The variation command and the type command set in step S407 are transmitted to the sound emission control device 60 in step S201 in the normal process (FIG. 7). After executing the process of step S407, the variable display of the pattern is started on the main display unit 33 in step S408. Then, this fluctuation start process is terminated.

遊技回制御処理(図8)の説明に戻り、メイン表示部33が変動表示中である場合には、ステップS306〜ステップS309の処理を実行する。当該処理では、先ずステップS306にて、今回の遊技回の変動表示時間が経過したか否かを判定する。 Returning to the explanation of the game number control process (FIG. 8 ), when the main display section 33 is in the variable display, the processes of steps S306 to S309 are executed. In the process, first, in step S306, it is determined whether or not the variation display time of the current game time has elapsed.

変動表示時間が経過していない場合には、ステップS307にて変動表示用処理を実行する。変動表示用処理では、メイン表示部33における表示態様を変更する。その後、本遊技回制御処理を終了する。 If the variable display time has not elapsed, the variable display process is executed in step S307. In the variable display process, the display mode on the main display unit 33 is changed. Then, this game time control processing is ended.

変動表示時間が経過している場合には、ステップS308にて変動終了処理を実行する。変動終了処理では、上記ステップS404又はステップS405の処理にてRAM54に記憶した情報を特定し、その情報に対応した絵柄の態様がメイン表示部33にて表示されるように当該メイン表示部33を表示制御する。 If the variation display time has elapsed, variation end processing is executed in step S308. In the fluctuation ending process, the information stored in the RAM 54 in the process of step S404 or step S405 is specified, and the main display unit 33 is displayed so that the pattern mode corresponding to the information is displayed on the main display unit 33. Display control.

続くステップS309では、変動終了コマンドを設定する。ここで設定された変動終了コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。音声発光制御装置60では、受信した変動終了コマンドに基づいて、その遊技回における演出を終了させる。また、それに対応したコマンドが、音声発光制御装置60から表示制御装置70に送信され、表示制御装置70ではその遊技回における最終停止図柄の組み合わせを確定表示(最終停止表示)させる。その後、本遊技回制御処理を終了する。 In a succeeding step S309, a fluctuation end command is set. The fluctuation end command set here is transmitted to the sound emission control device 60 in step S201 in the normal process (FIG. 7). The sound emission control device 60 ends the effect in the game time based on the received variation end command. Further, a command corresponding thereto is transmitted from the voice emission control device 60 to the display control device 70, and the display control device 70 finalizes and displays the final stop symbol combination in the game time (final stop display). Then, this game time control processing is ended.

<主制御装置50のMPU52における処理構成の別形態>
MPU52にて実行される処理構成は、上記のものに限定されることはなく、以下の処理構成であってもよい。図10及び図11は、MPU52における処理の別形態を説明するためのフローチャートであり、図10は動作電力の供給が開始された場合に実行されるメイン処理を示し、図11は当該メイン処理に対して定期的に割り込んで起動されるタイマ割込み処理を示す。
<Another Mode of Processing Configuration in MPU 52 of Main Controller 50>
The processing configuration executed by the MPU 52 is not limited to the above, and may be the following processing configuration. 10 and 11 are flowcharts for explaining another mode of the processing in the MPU 52, FIG. 10 shows the main processing executed when the supply of operating power is started, and FIG. 11 shows the main processing. A timer interrupt process that is periodically interrupted and activated is shown.

図10に示すように、メイン処理では先ずステップS501にて、電源投入に伴う立ち上げ処理を実行する。続くステップS502では、RAM54のアクセスを許可する。その後、ステップS503では、電源及び発射制御装置57に設けられたRAM消去スイッチがオンされているか否かを判定し、続くステップS504ではRAM54に電断フラグが格納されているか否かを判定する。また、ステップS505ではRAM判定値を算出し、続くステップS506では、そのRAM判定値が電源遮断時に保存したRAM判定値と一致するか否か、すなわち記憶保持されたデータの有効性を判定する。 As shown in FIG. 10, in the main process, first, in step S501, a startup process associated with power-on is executed. In the following step S502, access to the RAM 54 is permitted. Then, in step S503, it is determined whether or not the RAM erasing switch provided in the power supply and firing control device 57 is turned on, and in subsequent step S504, it is determined whether or not the power interruption flag is stored in the RAM 54. In step S505, the RAM determination value is calculated, and in the subsequent step S506, it is determined whether or not the RAM determination value matches the RAM determination value stored when the power is shut off, that is, the validity of the stored and held data.

RAM消去スイッチがオンされておらず、さらに電断フラグが格納されているとともにRAM判定値が正常である場合には、ステップS507にてRAM54から電断フラグを消去するとともに、ステップS508にてRAM判定値を消去する。その後、ステップS509にて割込み許可を設定し、ステップS510にて乱数初期値カウンタCINIの更新を実行し、ステップS511にて変動種別カウンタCSの更新を実行する。そして、ステップS509〜ステップS511の処理を実行した後は、ステップS509に戻り、ステップS509〜ステップS511の処理を繰り返す。 If the RAM erase switch is not turned on, and the power interruption flag is stored and the RAM determination value is normal, the power interruption flag is erased from the RAM 54 in step S507 and the RAM is determined in step S508. Delete the judgment value. After that, the interrupt permission is set in step S509, the random number initial value counter CINI is updated in step S510, and the fluctuation type counter CS is updated in step S511. Then, after executing the processes of steps S509 to S511, the process returns to step S509, and the processes of steps S509 to S511 are repeated.

なお、ステップS509にて割込み許可の設定を行った直後に割込み禁止の設定を行う構成としてもよい。この場合、後述するタイマ割込み処理は、割込み禁止の設定が行われている状況において起動タイミングとなった場合には、次回の割込み許可の設定が行われるまでその実行が待機される構成としてもよい。 Note that the configuration may be such that the interrupt prohibition setting is performed immediately after the interrupt permission setting is performed in step S509. In this case, the timer interrupt processing described later may be configured to wait for execution until the next interrupt enable setting is made when the start timing comes in a situation where the interrupt disable setting is made. ..

一方、RAM消去スイッチが押されていれば、ステップS512〜ステップS513の処理に移行する。また、電源遮断の発生情報が設定されていない場合や、RAM判定値により記憶保持されたデータの異常が確認された場合も同様にステップS512〜ステップS513の処理に移行する。 On the other hand, if the RAM erase switch is pressed, the process proceeds to steps S512 to S513. Also, when the power-off occurrence information is not set or when the abnormality of the data stored and held is confirmed by the RAM determination value, the process similarly proceeds to steps S512 to S513.

ステップS512では、RAM54の使用領域を「0」にクリアし、ステップS513では、RAM54の初期設定を実行する。その後、ステップS509〜ステップS511の処理に移行する。 In step S512, the used area of the RAM 54 is cleared to "0", and in step S513, the RAM 54 is initialized. After that, the process proceeds to steps S509 to S511.

図11は、当該別形態におけるタイマ割込み処理を示すフローチャートである。 FIG. 11 is a flowchart showing a timer interrupt process in the another mode.

タイマ割込み処理では、ステップS601〜ステップS605にて、上記ステップS101〜ステップS105と同様の処理を実行する。 In the timer interrupt process, in steps S601 to S605, the same processes as steps S101 to S105 are executed.

その後、ステップS606にて、変動種別カウンタCSの更新処理を実行し、ステップS607にて遊技回制御処理を実行し、ステップS608にて遊技状態移行処理を実行し、ステップS609にてデモ表示用処理を実行し、ステップS610にて電役サポート用処理を実行し、ステップS611にて遊技球発射制御処理を実行し、ステップS612にて外部出力処理を実行する。その後、本タイマ割込み処理を終了する。これら各処理の詳細な内容は、上記図7〜図9を参照して説明した内容と同様である。 After that, in step S606, the variation type counter CS is updated, in step S607 game time control processing is executed, in step S608 game state transition processing is executed, and in step S609 demo display processing. Then, in step S610, electric power combination support processing is executed, in step S611 a game ball launch control processing is executed, and in step S612 external output processing is executed. After that, this timer interrupt processing ends. The detailed content of each of these processes is the same as the content described with reference to FIGS.

<音声発光制御装置60>
次に、音声発光制御装置60について説明する。
<Voice emission control device 60>
Next, the sound emission control device 60 will be described.

音声発光制御装置60は、図4に示すように、MPU62が搭載された音声発光制御基板61を具備している。MPU62には、当該MPU62により実行される各種の制御プログラムや固定値データを記憶したROM63と、そのROM63内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM64と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。 The sound emission control device 60, as shown in FIG. 4, includes a sound emission control board 61 on which an MPU 62 is mounted. The MPU 62 includes a ROM 63 in which various control programs executed by the MPU 62 and fixed value data are stored, and a memory for temporarily storing various data in executing the control programs stored in the ROM 63. A RAM 64, an interrupt circuit, a timer circuit, a data input/output circuit, various counter circuits as a random number generator, etc. are built in.

なお、ROM63として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM63と、RAM64とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。 As the ROM 63, a storage means (that is, a non-volatile storage means) that can be randomly accessed when reading a control program or fixed value data and that does not require external power supply for storage is used. In addition, the configuration in which the control/calculation unit, the ROM 63, and the RAM 64 are integrated into one chip is not essential, and each function may be mounted as a separate chip. It may be configured to be mounted.

MPU62には、入力ポート及び出力ポートがそれぞれ設けられている。MPU62の入力側には演出用操作装置48及び主制御装置50が接続されているとともに、MPU62の出力側には各種発光部35,36,44、スピーカ部45及び表示制御装置130が接続されている。 The MPU 62 is provided with an input port and an output port, respectively. The operation device 48 for production and the main control device 50 are connected to the input side of the MPU 62, and the various light emitting parts 35, 36, 44, the speaker part 45 and the display control device 130 are connected to the output side of the MPU 62. There is.

MPU62では、主制御装置50から送信された変動用コマンドを受信することで、遊技回用の演出を開始させる必要があることを認識し、遊技回用演出開始処理を実行する。また、主制御装置50から送信された終了コマンドを受信することで、遊技回用の演出を終了させる必要があることを認識し、遊技回用演出終了処理を実行する。また、主制御装置50から送信された大当たり演出用の各種コマンドを受信することで、大当たり演出を開始させる必要があること又は進行させる必要があることを認識し、大当たり演出用処理を実行する。また、主制御装置50から送信されたデモ表示用のコマンドを受信することで、デモ表示を開始させる必要があることを認識し、デモ表示用処理を実行する。 The MPU 62 receives the variation command transmitted from the main control device 50, recognizes that it is necessary to start the game game effect, and executes the game game effect start process. Further, by receiving the end command transmitted from the main control device 50, it recognizes that it is necessary to end the game use effect, and executes the game use effect ending process. Further, by receiving various commands for the jackpot effect transmitted from the main control device 50, it recognizes that the jackpot effect needs to be started or progressed, and the jackpot effect processing is executed. Further, by receiving the demo display command transmitted from the main control device 50, it recognizes that it is necessary to start the demo display, and executes the demo display process.

なお、MPU62において主制御装置50からコマンドを受信するとは、主制御装置50からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。 Note that receiving a command from the main control device 50 in the MPU 62 is not limited to a configuration in which the command is directly received from the main control device 50, and includes a configuration in which a command relayed to the relay board is received.

遊技回用演出開始処理では、変動用コマンド及び種別コマンドの両コマンドに基づいて、該当遊技回の変動表示時間を把握する変動表示時間の把握処理と、リーチ表示の有無を把握するリーチ表示把握処理と、大当たり結果の有無を把握する大当たり結果発生の把握処理と、大当たり結果が発生する場合における大当たり種別を把握する大当たり種別の把握処理と、を実行する。また、リーチ表示把握処理、大当たり結果発生の把握処理及び大当たり種別の把握処理における把握結果に基づいて、本遊技回において図柄表示装置31の表示面Gに最終停止表示させる図柄の種類を決定する図柄種別把握処理を実行する。そして、上記各把握処理の結果に基づいて、変動表示時間の情報及び表示演出の種類の情報を含む変動パターンコマンドと、最終停止表示させる図柄の種類の情報を含む図柄指定コマンドを、表示制御装置130に送信する。 In the game time production start process, based on both the variation command and the type command, the variation display time grasping process for grasping the variation display time of the corresponding game time and the reach display grasping process for grasping the presence or absence of the reach display And a jackpot result occurrence grasping process for grasping the presence or absence of the jackpot result and a jackpot type grasping process for grasping the jackpot type when the jackpot result occurs. Also, based on the grasping result in the reach display grasping process, the jackpot result occurrence grasping process, and the jackpot type grasping process, the symbol for determining the type of the symbol to be finally stopped and displayed on the display surface G of the symbol display device 31 in this game time. Execute the type recognition process. Then, based on the result of each of the grasping process, a variation pattern command including information on the variation display time and information on the type of display effect, and a symbol designating command including information on the type of symbol to be finally stopped and displayed. To 130.

また、遊技回用演出開始処理では、上記各把握処理の他に、予告表示を行うか否かの予告表示抽選処理を実行する。この場合、当該抽選処理では、予告表示の種別抽選についても実行される。そして、予告表示の発生当選である場合には、予告表示の種別の情報を含む予告コマンドを、表示制御装置130に送信する。 Further, in the game reproduction effect starting process, in addition to the above-described grasping processes, a notice display lottery process for performing a notice display is executed. In this case, in the lottery process, the type of lottery for the notice display is also executed. Then, when the advance notice display has been won, the advance notice command including the information of the type of the advance notice display is transmitted to the display control device 130.

また、遊技回用演出開始処理では、上記各処理の処理結果に基づいて、遊技回用の表示発光テーブルと遊技回用の音声テーブルとをROM63から読み出す。遊技回用の表示発光テーブルにより、該当する遊技回の進行過程における表示発光部44の発光態様が規定される。また、遊技回用の音声テーブルにより、該当する遊技回の進行過程におけるスピーカ部45からの出力態様が規定される。 Further, in the game turn effect start process, the display light emitting table for game turn and the voice table for game turn are read from the ROM 63 based on the processing result of each of the above processes. The display light emission table for game times defines the light emission mode of the display light emitting unit 44 in the course of progress of the corresponding game time. In addition, the voice table for game times defines the output mode from the speaker unit 45 in the progress process of the corresponding game times.

遊技回用演出終了処理では、現状の遊技回における表示発光部44の発光制御及びスピーカ部45の音声出力制御を終了する。また、当該遊技回用演出終了処理では、遊技回用演出を終了させるべき情報を含む終了コマンドを、表示制御装置130に送信する。 In the game game effect ending process, the light emission control of the display light emitting unit 44 and the voice output control of the speaker unit 45 in the current game time are ended. Further, in the game turning effect ending process, an end command including information for ending the game turning effect is transmitted to the display control device 130.

大当たり演出用処理では、受信している大当たり演出用の各種コマンドに基づいて、オープニング時、各ラウンド時、各ラウンド間及びエンディング時などの演出態様を把握し、その把握結果に対応した大当たり演出用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、大当たり演出用の表示発光テーブルと大当たり演出用の音声テーブルとをROM63から読み出し、大当たり演出中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。 In the jackpot performance process, based on the received various commands for jackpot performance, it grasps the production mode at the time of opening, each round, between each round, and ending, and the jackpot performance corresponding to the grasped result. Is transmitted to the display control device 130. Further, based on the grasped result, the display light emission table for the big hit effect and the sound table for the big hit effect are read from the ROM 63, and the light emitting mode of the display light emitting unit 44 and the sound output mode from the speaker unit 45 during the big hit effect. Stipulate.

デモ表示用処理では、受信しているデモ表示用のコマンドに基づいて、デモ表示の演出態様を把握し、その把握結果に対応したデモ表示用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、デモ表示用の表示発光テーブルとデモ表示用の音声テーブルとをROM63から読み出し、デモ表示中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。 In the demo display process, the presentation mode of the demo display is grasped based on the received demo display command, and the demo display command corresponding to the grasped result is transmitted to the display control device 130. Further, based on the grasped result, the display light emission table for demonstration display and the voice table for demo display are read out from the ROM 63, and the light emission mode of the display light emission unit 44 and the voice output mode from the speaker unit 45 during the demo display. Stipulate.

なお、主制御装置50から送信されたコマンドに基づいてMPU62にて実行される処理は、上記処理以外にも、第1保留発光部35や第2保留発光部36を発光制御するための処理が含まれる。 The processing executed by the MPU 62 based on the command transmitted from the main control device 50 is not limited to the above processing, but includes processing for controlling the light emission of the first holding light emitting unit 35 and the second holding light emitting unit 36. included.

また、MPU62では、演出用操作装置48の操作部が操作されたことに基づき当該演出用操作装置48から送信される操作信号を受信することで、演出用操作装置48が操作されたことを認識し、操作対応処理を実行する。また、操作されている状態が解除された場合にも操作信号の立下りによってそれを認識し、操作対応処理を実行する。 Further, the MPU 62 recognizes that the effect operation device 48 has been operated by receiving an operation signal transmitted from the effect operation device 48 based on the operation unit of the effect operation device 48 being operated. Then, the operation corresponding process is executed. Further, even when the operated state is released, it is recognized by the fall of the operation signal and the operation handling process is executed.

ここで、演出用操作装置48の操作に対応した演出の一部として、演出用操作装置48が操作されたことに基づき、表示モードが変更される演出が実行される。表示モードとは、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。かかる表示モードの詳細な内容、及び演出用操作装置48の操作に基づく表示モードの切り換えに係る処理構成については後に詳細に説明する。 Here, as a part of the effect corresponding to the operation of the effect operation device 48, an effect in which the display mode is changed is executed based on the operation of the effect operation device 48. The display mode is a state in which the type of the standby image displayed until the game time is started and the type of the game time image displayed in the situation where the game time is being executed are set to a predetermined type. The display mode of is set. The detailed contents of the display mode and the processing configuration for switching the display mode based on the operation of the effect operation device 48 will be described in detail later.

<表示制御装置130>
表示制御装置130のハード構成について説明する。
<Display control device 130>
The hardware configuration of the display control device 130 will be described.

表示制御装置130は、図4に示すように、表示CPU131と、ワークRAM132と、メモリモジュール133と、VRAM134と、ビデオディスプレイプロセッサ(VDP)135と、が搭載された表示制御基板136を備えている。 As shown in FIG. 4, the display control device 130 includes a display control board 136 on which a display CPU 131, a work RAM 132, a memory module 133, a VRAM 134, and a video display processor (VDP) 135 are mounted. .

表示CPU131は、表示制御装置130においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU131は表示制御基板136に搭載された入力ポート137に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート137を通じて表示CPU131に入力される。なお、表示CPU131において音声発光制御装置60からコマンドを受信するとは、音声発光制御装置60からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。 The display CPU 131 has a function as a main control unit in the display control device 130, and reads, interprets, and executes a control program and the like. Specifically, the display CPU 131 is connected to an input port 137 mounted on the display control board 136 via a bus, and various commands transmitted from the sound emission control device 60 are input to the display CPU 131 via the input port 137. To be done. Note that the reception of a command from the voice emission control device 60 in the display CPU 131 is not limited to the configuration of directly receiving the command from the voice emission control device 60, and includes the configuration of receiving the command relayed to the relay board. Be done.

表示CPU131は、バスを介してワークRAM132、メモリモジュール133及びVRAM134と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール133に記憶された各種データをワークRAM132やVRAM134に転送させる転送指示を行う。また、表示CPU131は、バスを介してVDP135と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置31に3次元画像(3D画像)を表示させるための描画指示を行う。以下、メモリモジュール133、ワークRAM132、VRAM134及びVDP135について説明する。 The display CPU 131 is connected to the work RAM 132, the memory module 133, and the VRAM 134 via a bus, and based on the command received from the voice light emission control device 60, various data stored in the memory module 133 is stored in the work RAM 132 or the VRAM 134. Send a transfer instruction. Further, the display CPU 131 is connected to the VDP 135 via a bus, and based on a command received from the sound emission control device 60, a drawing instruction for causing the symbol display device 31 to display a three-dimensional image (3D image). To do. The memory module 133, the work RAM 132, the VRAM 134, and the VDP 135 will be described below.

メモリモジュール133は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、3次元画像を表示するための各種画像データを予め記憶している記憶手段である。当該メモリモジュール133は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール133は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。 The memory module 133 is a storage unit that stores control data including a control program and fixed value data in advance, and various image data for displaying a three-dimensional image in advance. The memory module 133 has a non-volatile semiconductor memory that does not require external power supply for storage. Incidentally, although the storage capacity is 4 Gbits, such a storage capacity is arbitrary as long as the control in the display control device 130 is executed well. Further, the memory module 133 is used as a non-writing and read-only memory (ROM) when the pachinko machine 10 is used.

メモリモジュール133に記憶されている各種画像データには、図柄表示装置31に表示される図柄やキャラクタなどのオブジェクト用の画像データと、当該オブジェクトに貼り付けられるテクスチャ用の画像データと、1フレーム分の画像において最背面の画像を構成する背面用の画像データとが含まれている。 The various image data stored in the memory module 133 includes image data for objects such as symbols and characters displayed on the symbol display device 31, image data for texture attached to the object, and one frame worth. Image data for the back surface that constitutes the rearmost image.

ここで、オブジェクトとは、仮想3次元空間に相当する3次元の座標系であるワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。また、ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。オブジェクト用の画像データには、例えばサーフェスモデルを適用するため、オブジェクト毎に予め設定された基準座標を原点として、各ポリゴンの頂点座標情報が設定されている。つまり、各オブジェクト用の画像データでは、自己完結のローカル座標系において各ポリゴンの相対位置(すなわち、向きやサイズ)が3次元的に定義されている。 Here, the object is a three-dimensional virtual object arranged in a world coordinate system, which is a three-dimensional coordinate system corresponding to a virtual three-dimensional space, and is three-dimensional information composed of a plurality of polygons. A polygon is a polygonal plane defined by a plurality of three-dimensional coordinate vertices. In order to apply a surface model, for example, to the image data for an object, vertex coordinate information of each polygon is set with the reference coordinates preset for each object as the origin. That is, in the image data for each object, the relative position (that is, direction and size) of each polygon is three-dimensionally defined in the self-contained local coordinate system.

テクスチャとは、オブジェクトの各ポリゴンに貼り付ける画像であり、テクスチャがオブジェクトに貼り付けられることにより、オブジェクトに対応する画像、例えば図柄やキャラクタなどを含む表示画像が生成される。テクスチャ用の画像データの持ち方は、任意であるが、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。 The texture is an image attached to each polygon of the object, and by attaching the texture to the object, an image corresponding to the object, for example, a display image including a design, a character, etc. is generated. The method of holding the image data for texture is arbitrary, but for example, it includes at least a combination of bitmap format data and a color palette table that is referred to when determining a display color at each pixel of the bitmap image. There is.

最背面の画像は、2次元画像(2D画像)を構成している。背面用の画像データの持ち方は、任意であるが、例えば2次元の静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。ちなみに、当該背面用の画像データがワールド座標系に配置される場合には板ポリゴンが利用される。 The image on the backmost surface constitutes a two-dimensional image (2D image). The method of holding the image data for the back side is arbitrary, but for example, it is stored and held as JPEG format data in a state in which two-dimensional still image data is compressed. Incidentally, when the image data for the back surface is arranged in the world coordinate system, a plate polygon is used.

ワークRAM132は、メモリモジュール133から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM132は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、ワークRAM132は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The work RAM 132 is a storage unit for temporarily storing the control data read from the memory module 133 and transferred, and also temporarily storing a flag and the like. The work RAM 132 has a volatile semiconductor memory that requires external power supply for storage and, in detail, a DRAM is used as the semiconductor memory. However, the RAM is not limited to DRAM, and other RAM such as SRAM may be used. Note that the storage capacity is 1 Gbit, but the storage capacity is arbitrary as long as the control in the display control device 130 is satisfactorily executed. Further, the work RAM 132 is used for both reading and writing when the pachinko machine 10 is used.

ワークRAM132には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から制御用データが転送される。そして、表示CPU131は、ワークRAM132に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。 Based on the data transfer instruction from the display CPU 131 to the memory module 133, the control data is transferred from the memory module 133 to the work RAM 132. Then, the display CPU 131 reads the control data transferred to the work RAM 132 into an internal memory area (register group) as necessary, and executes various processes.

VRAM134は、図柄表示装置31に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM134は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該VRAM134は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The VRAM 134 is a storage unit for temporarily storing various data necessary for outputting an image to the symbol display device 31. The VRAM 134 includes a volatile semiconductor memory that requires external power supply to retain the memory, and in detail, an SDRAM is used as the semiconductor memory. However, the RAM is not limited to SDRAM, and other RAM such as DRAM, SRAM, or dual port RAM may be used. Although the storage capacity is 2 Gbits, the storage capacity is arbitrary as long as the control in the display control device 130 is well executed. Further, the VRAM 134 is used for both reading and writing when the pachinko machine 10 is used.

VRAM134は展開用バッファ141を備えており、展開用バッファ141には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から画像データが転送される。この場合、当該画像データは、その画像データを用いたVDP135における処理の実行タイミングとなるまでに事前に転送される。また、VRAM134には、VDP135により描画データ(生成データ)が作成されるフレームバッファ142が設けられている。また、VRAM134には、Zバッファ143、スクリーン用バッファ144及びモード用バッファ145が設けられているが、これらの詳細については後に説明する。 The VRAM 134 includes a development buffer 141, and image data is transferred from the memory module 133 to the development buffer 141 based on a data transfer instruction from the display CPU 131 to the memory module 133. In this case, the image data is transferred in advance before the execution timing of the process in the VDP 135 using the image data. Further, the VRAM 134 is provided with a frame buffer 142 in which drawing data (generation data) is created by the VDP 135. Further, the VRAM 134 is provided with a Z buffer 143, a screen buffer 144 and a mode buffer 145, the details of which will be described later.

VDP135は、表示CPU131からの描画指示に基づき、展開用バッファ141に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置31に対して描画を行う画像生成デバイスであり、図柄表示装置31において液晶表示部31aを駆動制御するように組み込まれた画像処理デバイス31bを操作する一種の描画回路である。VDP135はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。 The VDP 135 is an image generation device that draws on the symbol display device 31 by specifically processing the data stored and held in the expansion buffer 141 based on a drawing instruction from the display CPU 131. It is a kind of drawing circuit that operates the image processing device 31b incorporated to drive and control the liquid crystal display unit 31a in the symbol display device 31. Since the VDP 135 is formed as an IC chip, it is also called a "drawing chip", and the substance thereof should be called a microcomputer chip containing a drawing-specific firmware.

詳細には、VDP135は、ジオメトリ演算部151と、レンダリング部152と、レジスタ153と、表示モード制御部154と、表示回路155と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU131用のI/F156及びVRAM134用のI/F157と接続されている。 More specifically, the VDP 135 includes a geometry calculation unit 151, a rendering unit 152, a register 153, a display mode control unit 154, and a display circuit 155. Further, these circuits are connected to each other via a bus, and also connected to the I/F 156 for the display CPU 131 and the I/F 157 for the VRAM 134.

表示CPU131用のI/F156は、表示CPU131から送信された描画指示情報としての描画リストをレジスタ153に記憶させる。ジオメトリ演算部151は、レジスタ153に格納された描画リストに基づいて、配置対象として指定されているオブジェクトをワールド座標系内に配置する。また、ジオメトリ演算部151は、オブジェクトをワールド座標系内に配置する場合及び配置した後に、各種の座標変換処理を実行する。そして、最終的に表示面Gのスクリーン座標に対応する3次元空間に対応させて、オブジェクトをクリッピングする。 The I/F 156 for the display CPU 131 causes the register 153 to store the drawing list as the drawing instruction information transmitted from the display CPU 131. The geometry calculation unit 151 arranges the object designated as the arrangement target in the world coordinate system based on the drawing list stored in the register 153. In addition, the geometry calculation unit 151 executes various coordinate conversion processes when and after placing the object in the world coordinate system. Then, finally, the object is clipped in correspondence with the three-dimensional space corresponding to the screen coordinates of the display surface G.

レンダリング部152は、レジスタ153に格納された描画リストに基づいて、クリッピングされた各オブジェクトに対して光源調整や、テクスチャの貼付を行い、オブジェクトの外観を決定する。また、レンダリング部152は、各オブジェクトを所定の2次元平面上に投影させて2次元データを作成するとともに、深度情報に基づく各種調整を行い2次元データである1フレーム分の描画データをフレームバッファ142に作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置31の表示面Gにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるのに必要なデータのことをいう。 The rendering unit 152 adjusts the light source and pastes the texture on each clipped object based on the drawing list stored in the register 153, and determines the appearance of the object. In addition, the rendering unit 152 projects each object onto a predetermined two-dimensional plane to create two-dimensional data, and also performs various adjustments based on the depth information to render one frame of drawing data, which is two-dimensional data, into a frame buffer. 142. The drawing data for one frame means the data required to display the image at one update timing in the configuration in which the image on the display surface G of the symbol display device 31 is updated at a predetermined update timing. Say.

なお、ジオメトリ演算部151及びレンダリング部152が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリをVDP135に内蔵させ、当該制御プログラムと描画リストの内容によってジオメトリ演算部151及びレンダリング部152が処理を実行する構成としてもよい。また、メモリモジュール133から制御プログラムを事前に読み出す構成としてもよい。また、ジオメトリ演算部151及びレンダリング部152がプログラムを利用することなく、描画リストに対応したハード回路の動作のみで処理を実行する構成としてもよい。 Note that all the control programs for operating the geometry calculation unit 151 and the rendering unit 152 may be provided by the drawing list. A memory in which the control program is stored in advance is incorporated in the VDP 135, and the control program and the drawing list are included. The geometry calculation unit 151 and the rendering unit 152 may be configured to execute processing depending on the contents of the above. Further, the control program may be read in advance from the memory module 133. Further, the geometry calculation unit 151 and the rendering unit 152 may be configured to execute the process only by the operation of the hardware circuit corresponding to the drawing list without using the program.

ここで、フレームバッファ142には、複数のフレーム領域142a,142bが設けられている。具体的には、第1フレーム領域142aと、第2フレーム領域142bとが設けられている。これら各フレーム領域142a,142bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域142a,142bにはそれぞれ、液晶表示部31a(すなわち表示面G)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。 Here, the frame buffer 142 is provided with a plurality of frame areas 142a and 142b. Specifically, a first frame area 142a and a second frame area 142b are provided. Each of these frame areas 142a and 142b is set to a capacity capable of storing drawing data for one frame. Specifically, each of the frame regions 142a and 142b includes a large number of unit areas corresponding to dots (pixels) of the liquid crystal display unit 31a (that is, the display surface G) at a predetermined magnification. Each unit area has a storage capacity capable of storing data for specifying which color is displayed. More specifically, the full color system is adopted, and it is possible to set 256 colors for each of R (red), G (green), and B (blue) in each dot. Correspondingly, 1 byte (8 bits) is assigned to each RGB color in each unit area. That is, each unit area has a storage capacity of at least 3 bytes.

なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。 The storage capacity is not limited to the full-color method. For example, in a configuration in which only 256 colors can be displayed in each dot, the storage capacity required to store color information in each unit area may be 1 byte.

フレームバッファ142に第1フレーム領域142a及び第2フレーム領域142bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置31への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ142として、ダブルバッファ方式が採用されている。 Since the frame buffer 142 is provided with the first frame area 142a and the second frame area 142b, in the situation where drawing is executed on the symbol display device 31 using drawing data created in one frame area. The drawing data to be used in the future is created for other frame areas. That is, the double buffer method is adopted as the frame buffer 142.

表示回路155では、第1フレーム領域142a又は第2フレーム領域142bに作成された描画データに基づいて液晶表示部31aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路155に接続された出力ポート138を介して図柄表示装置31に出力される。詳細には、出力対象のフレーム領域142a,142bから表示回路155へ描画データが転送される。その転送された描画データは図柄表示装置31の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置31の各ドットに対応した画像信号が生成されて出力される。なお、表示回路155からは水平同期信号又は垂直同期信号などの同期信号も出力される。 The display circuit 155 generates an image signal corresponding to each dot of the liquid crystal display unit 31a based on the drawing data created in the first frame area 142a or the second frame area 142b, and the image signal is displayed in the display circuit 155. It is output to the symbol display device 31 via the connected output port 138. Specifically, the drawing data is transferred from the output target frame areas 142a and 142b to the display circuit 155. The transferred drawing data is subjected to resolution adjustment by a scaler (not shown) so as to correspond to the resolution of the pattern display device 31, and converted into gradation data. Then, based on the gradation data, an image signal corresponding to each dot of the symbol display device 31 is generated and output. The display circuit 155 also outputs a synchronizing signal such as a horizontal synchronizing signal or a vertical synchronizing signal.

また、表示モード制御部154では、表示モードに対応した画像の表示を行う場合に、レジスタ153に格納された描画リストに基づいて、所定の処理を実行する。当該所定の処理については後に説明する。 In addition, the display mode control unit 154 executes a predetermined process based on the drawing list stored in the register 153 when displaying an image corresponding to the display mode. The predetermined process will be described later.

<表示CPU131における基本的な処理>
次に、表示CPU131における基本的な処理について説明する。
<Basic processing in display CPU 131>
Next, basic processing in the display CPU 131 will be described.

<メイン処理>
先ず、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合に起動されるメイン処理について説明する。図12はメイン処理を示すフローチャートである。
<Main processing>
First, the main process that is started when the supply of operating power to the display CPU 131 is started or when the pachinko machine 10 is reset will be described. FIG. 12 is a flowchart showing the main processing.

メイン処理では、先ずステップS701にて、初期設定処理を実行する。 In the main process, first, in step S701, an initial setting process is executed.

初期設定処理では、表示回路155のスケーラの初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bに作成される描画データに基づいて画像信号が出力される場合に、その画像信号が液晶表示部31aのドット数に対応させて出力されるように、VDP135に対して解像度初期調整用コマンドを送信する。この初期調整値は、パチンコ機10の設計段階において調整されており、その調整結果が解像度初期調整用コマンドとして設定されている。 In the initial setting process, a scaler initial adjustment process of the display circuit 155 is executed. In the initial adjustment processing, when the image signal is output based on the drawing data created in each of the frame areas 142a and 142b of the VRAM 134, the image signal is output corresponding to the number of dots of the liquid crystal display unit 31a. As described above, the resolution initial adjustment command is transmitted to the VDP 135. The initial adjustment value is adjusted at the design stage of the pachinko machine 10, and the adjustment result is set as a resolution initial adjustment command.

VDP135に解像度初期調整用コマンドが送信されることで、VDP135のレジスタ153におけるスケーラの解像度調整用のエリアに初期調整値に対応した数値情報が格納される。これにより、VDP135から図柄表示装置31に画像信号が出力される場合、描画データに対応した画像信号が液晶表示部31aのドット数に調整された状態で出力される。 By transmitting the resolution initial adjustment command to the VDP 135, numerical information corresponding to the initial adjustment value is stored in the scaler resolution adjustment area in the register 153 of the VDP 135. Thereby, when the image signal is output from the VDP 135 to the symbol display device 31, the image signal corresponding to the drawing data is output in a state adjusted to the number of dots of the liquid crystal display unit 31a.

また、初期設定処理では、地色の初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bの単位エリアに初期値として設定される数値情報が初期数値情報となるように、VDP135に対して地色初期調整用コマンドを送信する。この初期数値情報は、パチンコ機10の設計段階において調整されており、その調整結果が地色初期調整用コマンドとして設定されている。 Further, in the initial setting process, an initial adjustment process of the background color is executed. In the initial adjustment process, a ground color initial adjustment command is transmitted to the VDP 135 so that the numerical information set as the initial value in the unit area of each of the frame areas 142a and 142b of the VRAM 134 becomes the initial numerical information. This initial numerical value information is adjusted at the design stage of the pachinko machine 10, and the adjustment result is set as a ground color initial adjustment command.

VDP135は地色初期調整用コマンドが送信されることで、VDP135のレジスタ153における地色調整用のエリアに初期数値情報が格納される。これにより、描画データが作成される場合に初期数値情報からの更新が行われなかった単位エリアに対応したドットでは、地色が表示されることとなる。なお、初期の地色として本パチンコ機10では黒色が設定されているが、これに限定されることはなく任意である。 The VDP 135 stores the initial numerical value information in the area for ground color adjustment in the register 153 of the VDP 135 by transmitting the ground color initial adjustment command. As a result, the ground color is displayed at the dots corresponding to the unit areas for which the initial numerical value information was not updated when the drawing data was created. Although black is set as the initial ground color in the pachinko machine 10, it is not limited to this and is arbitrary.

ステップS701にて初期設定処理を実行した後は、ステップS702にて、各種割込みを許可する。これにより、表示CPU131においてコマンド割込み処理及びV割込み処理を実行することが許容される。その後、メイン処理では、ステップS702の処理を繰り返す。 After executing the initial setting process in step S701, various interrupts are permitted in step S702. This allows the display CPU 131 to execute command interrupt processing and V interrupt processing. Then, in the main process, the process of step S702 is repeated.

<コマンド割込み処理>
次に、コマンド割込み処理について説明する。
<Command interrupt processing>
Next, the command interruption process will be described.

コマンド割込み処理は、音声発光制御装置60からストローブ信号を受信した場合に、その時点で実行されている処理が何であったとしても最優先で起動される処理である。コマンド割込み処理では、入力ポート137にて受信しているコマンドを、ワークRAM132に設けられたコマンドバッファに転送し、さらにコマンドを新たに受信したことを示すフラグを対応するエリアにセットする。その後、コマンド割込み処理を終了し、当該コマンド割込み処理の起動前の処理に復帰する。 The command interruption process is a process that is activated with the highest priority when a strobe signal is received from the sound emission control device 60, whatever the process is being executed at that time. In the command interrupt processing, the command received at the input port 137 is transferred to the command buffer provided in the work RAM 132, and a flag indicating that a command has been newly received is set in the corresponding area. After that, the command interrupt process is terminated, and the process before the activation of the command interrupt process is restored.

<V割込み処理>
次に、V割込み処理について、図13のフローチャートを参照しながら説明する。V割込み処理は、予め定められた周期、具体的には20msec周期で繰り返し起動される。
<V interrupt processing>
Next, the V interrupt processing will be described with reference to the flowchart of FIG. The V interrupt process is repeatedly activated in a predetermined cycle, specifically, a 20 msec cycle.

なお、VDP135は図柄表示装置31に1フレーム分の画像信号を出力する場合、表示面Gの左上の隅角部分にあるドットから画像信号の出力を始めて、当該ドットを一端に含む横ライン上に並ぶドットに対して順次画像信号を出力するとともに、各横ラインに対して上から順に左から右のドットへと画像信号を出力する。そして、表示面Gの右下の隅角部分にあるドットに対して最後に画像信号を出力する。この場合に、VDP135は当該最後のドットに対して画像信号を出力したタイミングで、表示CPU131へV割込み信号を出力して1フレームの画像の更新が完了したことを表示CPU131に認識させる。このV割込み信号の出力周期は20msecとなっている。この点、V割込み処理は、V割込み信号の受信に同期して起動されると見なすこともできる。但し、V割込み信号を受信していなくても、前回のV割込み処理が起動されてから20msecが経過している場合には、新たにV割込み処理が起動される。 When the VDP 135 outputs the image signal for one frame to the symbol display device 31, it starts outputting the image signal from the dot in the upper left corner portion of the display surface G, and on the horizontal line including the dot at one end. The image signals are sequentially output to the aligned dots, and the image signals are sequentially output to the dots from left to right for each horizontal line. Then, the image signal is finally output to the dots in the lower right corner portion of the display surface G. In this case, the VDP 135 outputs a V interrupt signal to the display CPU 131 at the timing of outputting the image signal for the last dot, and causes the display CPU 131 to recognize that the update of the image for one frame is completed. The output cycle of this V interrupt signal is 20 msec. In this respect, the V interrupt processing can be regarded as being activated in synchronization with the reception of the V interrupt signal. However, even if the V interrupt signal is not received, if 20 msec has elapsed since the previous V interrupt process was started, the V interrupt process is newly started.

V割込み処理では、先ずステップS801にて、コマンド解析処理を実行する。具体的には、ワークRAM132のコマンドバッファに格納されているコマンドの内容を解析する。続くステップS802では、ステップS801の解析結果に基づいて、新規コマンドを受信しているか否かを判定する。新規コマンドを受信している場合には、ステップS803にて、コマンド対応処理を実行する。 In the V interrupt process, first, in step S801, a command analysis process is executed. Specifically, the contents of the command stored in the command buffer of the work RAM 132 are analyzed. In the following step S802, it is determined based on the analysis result of step S801 whether a new command is received. If a new command has been received, command corresponding processing is executed in step S803.

コマンド対応処理では、受信しているコマンドに対応したプログラムを実行するためのデータテーブルをメモリモジュール133から読み出す。データテーブルとは、受信したコマンドに対応した動画を図柄表示装置31の表示面Gに表示させる場合において、画像の各更新タイミングにおける1フレーム分の画像を表示させるのに必要な処理が定められた情報群である。 In the command handling process, the data table for executing the program corresponding to the received command is read from the memory module 133. The data table is defined as the processing required to display an image for one frame at each image update timing when a moving image corresponding to the received command is displayed on the display surface G of the symbol display device 31. It is an information group.

ここで、表示CPU131が音声発光制御装置60から受信するコマンドとしては、既に説明したとおり、変動パターンコマンド、図柄指定コマンド及び予告コマンドがある。これらのコマンドを受信した場合、それら各コマンドに対応した遊技回用演出を図柄表示装置31にて実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては終了コマンドがあり、当該コマンドを受信した場合には現状実行されている遊技回用演出を最終停止させるために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、大当たり演出用の各種コマンドがあり、当該コマンドを受信した場合には大当たり演出を実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、デモ表示用のコマンドがあり、当該コマンドを受信した場合にはデモ表示を実行するために必要なデータテーブルを読み出す。さらに読み出したデータテーブルに基づき、処理を実行する場合に必要な他のプログラムデータも読み出す。 Here, as the commands that the display CPU 131 receives from the sound emission control device 60, there are a fluctuation pattern command, a symbol designating command, and a notice command, as already described. When these commands are received, the data table necessary for executing the game rendition corresponding to each of these commands on the symbol display device 31 is read. Further, as the command to be received, there is an end command, and when the command is received, the data table necessary for finally stopping the currently playing game diversion effect is read. Further, as the command to be received, there are various commands for jackpot performance, and when the command is received, the data table necessary for executing the jackpot performance is read. Further, as the command to be received, there is a command for demo display, and when the command is received, the data table necessary for executing the demo display is read. Further, based on the read data table, other program data necessary for executing the processing is also read.

ステップS803にてコマンド対応処理を実行した後は、ステップS804にて、ポインタ更新処理を実行する。当該ポインタ更新処理では、データテーブルに設定されているポインタの情報を、1フレーム分進めるように更新する。これにより、今回の更新タイミングに対応した1フレーム分の画像を表示させるために必要な処理を、表示CPU131において把握することが可能となる。 After executing the command corresponding process in step S803, the pointer updating process is executed in step S804. In the pointer update processing, the pointer information set in the data table is updated so as to advance by one frame. As a result, it becomes possible for the display CPU 131 to grasp the processing required to display the image for one frame corresponding to the update timing of this time.

続くステップS805では、タスク処理を実行する。タスク処理では、今回の更新タイミングに対応した1フレーム分の画像を表示させるために、VDP135に描画指示を行う上で必要なパラメータの演算を行う。当該タスク処理の詳細については後に説明する。 In the following step S805, task processing is executed. In the task processing, in order to display an image for one frame corresponding to the update timing of this time, the parameters necessary for giving a drawing instruction to the VDP 135 are calculated. Details of the task processing will be described later.

続くステップS806では、描画リスト出力処理を実行する。描画リスト出力処理では、今回の処理回に係る更新タイミングに対応した1フレーム分の画像を表示させるための描画リストを作成し、その作成した描画リストをVDP135に送信する。この場合、当該描画リストでは、直前のタスク処理にて把握された画像が描画対象となり、さらに当該タスク処理にて更新したパラメータの情報が合わせて設定される。VDP135では、この描画リストに従ってVRAM134のフレーム領域142a,142bに描画データを作成する。このVDP135における処理については後に詳細に説明する。その後、本V割込み処理を終了する。 In a succeeding step S806, a drawing list output process is executed. In the drawing list output process, a drawing list for displaying an image for one frame corresponding to the update timing of the current processing time is created, and the created drawing list is transmitted to the VDP 135. In this case, in the drawing list, the image grasped in the immediately preceding task process is the drawing target, and the parameter information updated in the task process is also set. The VDP 135 creates drawing data in the frame areas 142a and 142b of the VRAM 134 according to this drawing list. The processing in the VDP 135 will be described later in detail. Then, this V interrupt process is completed.

<表示CPU131におけるタスク処理>
ここで、タスク処理について、図14のフローチャートを参照しながら説明する。
<Task processing in display CPU 131>
Here, the task processing will be described with reference to the flowchart of FIG.

タスク処理では先ずステップS901にて、制御開始用の設定処理を実行する。制御開始用の設定処理では、今回の処理回で表示CPU131において新たに制御(演算)を開始する個別画像を設定するための処理を実行する。なお、個別画像とは、背面用の画像データなどの静止画像データにより規定される一の2次元画像や、オブジェクト用の画像データとテクスチャ用の画像データとの組み合わせにより規定される一の3次元画像のことである。 In the task process, first, in step S901, a control start setting process is executed. In the setting process for control start, a process for setting an individual image for newly starting control (calculation) in the display CPU 131 at the current processing time is executed. The individual image is a two-dimensional image defined by still image data such as image data for the back surface, or a three-dimensional image defined by a combination of image data for an object and image data for a texture. It is an image.

制御開始用の設定処理について具体的には、先ず現状設定されているデータテーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM132において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータを設定する。 Regarding the setting process for control start, specifically, it is first determined based on the currently set data table whether or not there is an individual image to be the control start target in the current process. If it exists, it searches the work RAM 132 for a free buffer area for performing various calculations in controlling the individual image, and makes a one-to-one correspondence with the individual image grasped as the control start target. To secure a free buffer area. Further, the initialization process is executed for all the secured free buffer areas, and the control start parameters corresponding to the individual images are set in the initialized free buffer areas.

続くステップS902では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。 In a succeeding step S902, the control update target is grasped. This control update target is an individual image for which the control start processing has been completed and which may be included in the image for one frame after the current processing.

続くステップS903では、背景用演算処理を実行する。背景用演算処理では、背景の画像を構成することとなる最背面用の画像や、背景用キャラクタについて、ワールド座標系内における座標、回転角度、スケール、明暗を付けるためのライトの情報、投影を行うためのカメラの情報、及びZテスト指定などといった描画リストを作成する上で必要な各種パラメータを演算して導き出す処理を実行する。 In a succeeding step S903, background calculation processing is executed. In the background calculation process, the coordinates of the background image that forms the background image and the characters for the background, coordinates in the world coordinate system, rotation angle, scale, light information for adding and contrasting light, and projection A process for calculating and deducing various parameters necessary for creating a drawing list such as camera information for performing and a Z test designation is executed.

続くステップS904では、演出用演算処理を実行する。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる個別画像について、上記各種パラメータを演算して導き出す処理を実行する。 In a succeeding step S904, effect calculation processing is executed. In the effect calculation process, a process of calculating and deriving the various parameters described above is executed for individual images to be displayed in various effects such as reach display, notice display, and jackpot effect.

続くステップS905では、図柄用演算処理を実行する。図柄用演算処理では、各遊技回において変動表示の対象となる図柄の画像について、上記各種パラメータを演算して導き出す処理を実行する。 In a succeeding step S905, symbol calculation processing is executed. In the symbol calculation process, a process of calculating and deriving the various parameters described above is performed for the image of the symbol to be displayed in a variable manner in each game.

ちなみに、ステップS903〜ステップS905の各処理では、ステップS901にて設定された制御開始用のパラメータを更新する処理を実行する。また、ステップS903〜ステップS905の各処理では、個別画像の各種パラメータを画像更新タイミングとなる度に特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、メモリモジュール133に予め記憶されており、個別画像の種類に応じて定められている。 By the way, in each process of steps S903 to S905, a process of updating the control start parameter set in step S901 is executed. Further, in each processing of steps S903 to S905, animation data set so as to change various parameters of the individual image according to a specific pattern each time the image update timing is reached is used. This animation data is stored in advance in the memory module 133 and is determined according to the type of individual image.

その後、ステップS906にてワールド座標系への配置対象の把握処理を実行した後に、本タスク処理を終了する。ワールド座標系への配置対象の把握処理では、上記ステップS903〜ステップS905の各処理により制御更新対象となった各個別画像のうち、今回の描画リストにおいて描画対象として設定する個別画像を把握する処理を実行する。当該把握は、現状設定されているデータテーブルに基づいて行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。 After that, in step S906, the process of grasping the arrangement target in the world coordinate system is executed, and then this task process is ended. In the grasping process of the arrangement target in the world coordinate system, a process of grasping the individual image to be set as the drawing target in the current drawing list among the individual images which are the control update targets by the processes of steps S903 to S905. To execute. The grasping is performed based on the currently set data table. The individual image grasped here is set as a drawing target in the drawing list.

つまり、表示CPU131にて制御対象となる個別画像の方が、VDP135にて制御対象となる個別画像よりも多く設定されているため、ステップS906においてその調整を行っている。但し、これに限定されることはなく、表示CPU131において制御対象となる個別画像と、VDP135において制御対象となる個別画像とが同一である構成としてもよく、この場合、ステップS906の処理を実行する必要がなくなる。 That is, since the number of individual images to be controlled by the display CPU 131 is set to be larger than the number of individual images to be controlled by the VDP 135, the adjustment is performed in step S906. However, the present invention is not limited to this, and the individual image to be controlled by the display CPU 131 and the individual image to be controlled by the VDP 135 may be the same, and in this case, the process of step S906 is executed. There is no need.

なお、ステップS901の制御開始用の設定処理において、表示CPU131の処理負荷を分散させるべく、各個別画像の制御開始タイミングが分散させて設定されている構成としてもよい。 In the setting process for control start in step S901, the control start timing of each individual image may be set in a dispersed manner so as to disperse the processing load of the display CPU 131.

<VDP135における基本的な処理>
次に、VDP135にて実行される基本的な処理について説明する。
<Basic processing in VDP135>
Next, the basic processing executed by the VDP 135 will be described.

VDP135では、表示CPU131から送信されたコマンドに基づいてレジスタ153の値を設定する処理、表示CPU131から送信された描画リストに基づいてフレームバッファ142のフレーム領域142a,142bに描画データを作成する処理、フレーム領域142a,142bに作成された描画データに基づいて図柄表示装置31に画像信号を出力する処理が少なくとも実行される。 In the VDP 135, a process of setting the value of the register 153 based on the command transmitted from the display CPU 131, a process of creating drawing data in the frame areas 142a and 142b of the frame buffer 142 based on the drawing list transmitted from the display CPU 131, At least a process of outputting an image signal to the symbol display device 31 is executed based on the drawing data created in the frame areas 142a and 142b.

上記各処理のうち、レジスタ153の値を設定する処理は、表示CPU131用のI/F156に付随する図示しない回路によって、コマンドを受信した場合にその都度実行される。また、描画データを作成する処理は、ジオメトリ演算部151及びレンダリング部152の協同により、予め定められた周期(例えば、20msec)で繰り返し実行される。また、画像信号を出力する処理は、表示回路155によって、予め定められた画像信号の出力開始タイミングとなることで実行される。 Of the above processes, the process of setting the value of the register 153 is executed each time a command is received by a circuit (not shown) attached to the I/F 156 for the display CPU 131. Further, the process of creating the drawing data is repeatedly executed at a predetermined cycle (for example, 20 msec) by the cooperation of the geometry calculation unit 151 and the rendering unit 152. The process of outputting the image signal is executed by the display circuit 155 at a predetermined image signal output start timing.

以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU131からVDP135に送信される描画リストの内容について説明する。図15(a)〜(c)は描画リストの内容を説明するための説明図である。 Hereinafter, the process of creating the drawing data will be described in detail. Prior to the description of the process, the content of the drawing list transmitted from the display CPU 131 to the VDP 135 will be described. 15A to 15C are explanatory diagrams for explaining the contents of the drawing list.

描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像を、第1フレーム領域142a及び第2フレーム領域142bのうちいずれを作成対象とするかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、各種指定情報が設定されている。各種指定情報の内容については後に説明する。なお、VDP135にて取り扱う画像データとして動画像データが含まれている場合には、ヘッダ情報において、デコード指定の有無及びデコード対象となる動画像データがメモリモジュール133において記憶されているアドレスの情報が設定されていてもよい。 Header information is set in the drawing list. In the header information, target buffer information, which is information indicating which one of the first frame area 142a and the second frame area 142b is to be created, is set for the image for one frame related to the drawing list. There is. Further, various designation information is set in the header information. The contents of various designation information will be described later. When moving image data is included as the image data handled by the VDP 135, the presence or absence of decoding designation and the information of the address where the moving image data to be decoded is stored in the memory module 133 is included in the header information. It may be set.

描画リストには、上記ヘッダ情報以外にも、今回の描画データの作成に際してワールド座標系への配置対象となる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させてパラメータの情報が設定されている。 In the drawing list, in addition to the above header information, a plurality of types of image data to be placed in the world coordinate system at the time of creating the drawing data this time are set, and further information on the drawing order of each image data, The parameter information of each image data is set. Specifically, the drawing order information is set so as to be serially-numbered numerical information, and the parameter information is set in a one-to-one correspondence with each numerical information.

図15(a)の描画リストでは、背面用の画像データが最初の描画対象として設定されているとともに、背景用オブジェクトAが2番目、背景用オブジェクトBが3番目、・・・として設定されている。また、これら背景用の画像データよりも後の順番として、演出用の画像データが設定されており、例えば演出用オブジェクトAがm番目、演出用オブジェクトBがm+1番目、・・・として設定されている。また、これら演出用の画像データよりも後の順番として、図柄用の画像データが設定されており、例えば図柄用オブジェクトAがn番目、図柄用オブジェクトBがn+1番目、・・・として設定されている。 In the drawing list of FIG. 15A, the back image data is set as the first drawing target, the background object A is set as the second, the background object B is set as the third, and so on. There is. Further, the image data for effect is set as an order after the image data for background, for example, the object A for effect is set as the m-th, the object for effect B is set as the m+1-th, and so on. There is. Further, as the order after the image data for these effects, the image data for symbols is set, for example, the object A for symbols is set as the nth, the object for symbols B is set as the n+1th, and so on. There is.

なお、描画リストにおいて各画像データが設定されている順番は上記のものに限定されることはなく、設定されている順番が上記のものとは逆の順番であってもよく、図柄用の画像データの後に演出用の画像データ又は背景用の画像データが設定されていてもよく、所定の演出用の画像データと他の演出用の画像データとの間の順番に図柄用の画像データが設定されていてもよい。 The order in which each image data is set in the drawing list is not limited to the above order, and the set order may be the reverse of the above order. Image data for production or image data for background may be set after the data, and image data for symbols is set in the order between predetermined image data for production and image data for other production. It may have been done.

パラメータの情報P(1),P(2),P(3),・・・,P(m),P(m+1),・・・,P(n),P(n+1),・・・には、複数種類のパラメータが設定されている。背面用の画像データのパラメータP(1)について具体的には、図15(b)に示すように、メモリモジュール133において背面用の画像データが記憶されているエリアのアドレスの情報と、背面用の画像データを設定する場合におけるワールド座標系内の位置を示す座標の情報(X値の情報,Y値の情報,Z値の情報)と、背面用の画像データを設定する場合におけるワールド座標系内の回転角度を示す回転角度の情報と、背面用の画像データの初期状態として設定されているスケールに対して、ワールド座標系に設定する際の倍率を示すスケールの情報と、背面用の画像データを設定する場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、が設定されている。 Parameter information P(1), P(2), P(3),..., P(m), P(m+1),..., P(n), P(n+1),. Has multiple types of parameters set. Regarding the back side image data parameter P(1), specifically, as shown in FIG. 15B, the address information of the area where the back side image data is stored in the memory module 133 and the back side image data are stored. Information (X-value information, Y-value information, Z-value information) indicating the position in the world coordinate system when setting the image data of, and the world coordinate system when setting the back-side image data Angle information that indicates the rotation angle inside, and scale information that indicates the magnification when setting the world coordinate system for the scale that is set as the initial state of the image data for the back side, and the image for the back side Information of a uniform α value indicating the entire transparent information (or transparent information) when setting data is set.

ここで、座標の情報は、オブジェクト用の画像データの全頂点について個別に設定される。また、この座標の情報はオブジェクト用の画像データに対して設定されているが、テクスチャ用の画像データには設定されていない。テクスチャ用の画像データは、各ピクセルの座標値が、オブジェクト用の画像データの各頂点に関連付けて予め定められている。この座標値は、ワールド座標系における座標値とは異なるUV座標値であり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されている。このUV座標値はテクスチャマッピングする際にVDP135により参照される。 Here, the coordinate information is individually set for all vertices of the image data for the object. Further, this coordinate information is set for the image data for the object, but is not set for the image data for the texture. In the image data for texture, the coordinate value of each pixel is predetermined in association with each vertex of the image data for object. This coordinate value is a UV coordinate value different from the coordinate value in the world coordinate system, and is stored in the memory module 133 in a state of being attached to a combination of object image data and texture image data. This UV coordinate value is referred to by the VDP 135 when performing texture mapping.

パラメータ(P1)には、背面用の画像データを描画用の仮想2次元平面上に投影する場合における仮想カメラの座標及び向きの情報を含むカメラの情報と、背面用の画像データをレンダリングする場合における陰影を決定する仮想光源の位置及び向きの情報を含むライトの情報と、が設定されている。 In the parameter (P1), the camera information including the coordinate and orientation information of the virtual camera when the back image data is projected on the virtual two-dimensional plane for drawing, and the back image data are rendered. And light information including information on the position and orientation of the virtual light source that determines the shadow at.

パラメータ(P1)には、隠面消去を行う手法の一種であるZバッファ法の適用有無を示すZテスト指定の情報が設定されている。Zバッファ法とは、ワールド座標系内において多数のオブジェクトや2次元画像が奥行き方向(Z軸方向)に重なった場合に、Z軸上に並ぶ各ピクセル(又は各ボクセル、各画素、各ポリゴン)について視点からの距離を順次参照し、最も視点に近いピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに設定する深度調整用の処理方法である。当該Zバッファ法を適用する場合に、VRAM134に設けられたZバッファ143が利用される。Zバッファ143を利用した隠面処理の具体的な処理構成については後に説明する。 In the parameter (P1), Z test designation information indicating whether or not the Z buffer method, which is a kind of hidden surface erasing method, is applied is set. The Z-buffer method is each pixel (or each voxel, each pixel, each polygon) arranged on the Z-axis when many objects and two-dimensional images are overlapped in the depth direction (Z-axis direction) in the world coordinate system. Is sequentially referred to the distance from the viewpoint, and the numerical information set to the pixel closest to the viewpoint is set to the corresponding unit area in the frame areas 142a and 142b. When applying the Z buffer method, the Z buffer 143 provided in the VRAM 134 is used. A specific processing configuration of the hidden surface processing using the Z buffer 143 will be described later.

なお、上記隠面消去を行う手法としてZバッファ法以外にも、Zソート法が設定されている。Zソート法とは、Z軸上に並ぶ各ピクセルについて、各ピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに順次設定する深度調整用の処理方法である。当該Zソート法を適用する場合には、各ピクセルに設定されているα値が参照されて、Z軸上に並ぶ各ピクセルの色情報に対応した数値情報に対して対応するα値が適用された状態で、それら数値情報の加算処理や融合用の演算処理が実行されることとなる。Zソートによる隠面処理の具体的な処理構成の説明は省略するが、エフェクト画像を表示させる場合に起動される。 In addition to the Z-buffer method, the Z-sort method is set as a method for performing the hidden surface removal. The Z sort method is a processing method for depth adjustment in which, for each pixel arranged on the Z axis, the numerical information set for each pixel is sequentially set in the corresponding unit area in the frame regions 142a and 142b. When the Z sorting method is applied, the α value set for each pixel is referred to, and the corresponding α value is applied to the numerical information corresponding to the color information of each pixel arranged on the Z axis. In this state, the addition processing of these numerical information and the calculation processing for fusion are executed. The description of the specific processing configuration of the hidden surface processing by Z sort is omitted, but it is activated when the effect image is displayed.

パラメータ(P1)には、αデータの適用有無及び適用対象を示すαデータ指定の情報と、フォグの適用有無及び適用対象を示すフォグ指定の情報と、背景画像を表示するために作成された背景画像用の描画データについて別保存の有無を示す別保存指定の情報と、が設定されている。 The parameter (P1) includes α data designation information indicating whether or not α data is applied and an application target, fog designation information indicating whether fog is applied or not, and a background created to display a background image. Information for specifying separate saving indicating whether or not separate saving is performed for drawing data for an image is set.

ここで、α値とは対応するピクセルの透過情報のことである。このα値の描画リスト上における設定の仕方として、上記一律α値を指定する方法と、αデータ指定を行う方法とがある。一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU131における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、2次元の静止画像データやテクスチャ用の画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。当該αデータは、同一の静止画像データ又は同一のテクスチャ用の画像データの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。 Here, the α value is the transmission information of the corresponding pixel. As a method of setting the α value on the drawing list, there are a method of designating the uniform α value and a method of designating α data. The uniform α value is transparency information applied to all pixels of one image data, and is numerical information derived as a calculation result in the display CPU 131. The uniform α value is uniformly applied to all pixels of the image data. On the other hand, the α data is transparency information applied to each pixel of two-dimensional still image data and texture image data, and is stored in the memory module 133 in advance as image data. The α data can have different transparency information for each pixel within the range of the same still image data or the image data for the same texture. This α data has a larger data capacity than the program data for setting a uniform α value.

上記のように一律α値とαデータとが設定されていることにより、2次元の静止画像データやテクスチャ用の画像データの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。 By uniformly setting the α value and the α data as described above, the transparency of the two-dimensional still image data or the image data for texture is not controlled finely in pixel units, but is uniform for all pixels. In the situation where it is only necessary to control with .alpha., it is possible to reduce the required data capacity by being able to deal with a uniform .alpha. value, and it is also possible to finely control the transparency in pixel units by applying .alpha. data.

フォグとは、ワールド座標系において所定方向、具体的にはZ軸方向の位置に対する明るさの度合いを調整するための情報である。フォグは、霧を表現したり、洞窟内を表現したりする場合に使用される。ここで、1フレーム分の画像の全体に対して単一のフォグを適用してもよい。この場合、1フレーム分の画像に一定の態様でフォグがかかることとなる。また、これに代えて、1フレーム分の画像の全体に対して複数のフォグを適用してもよい。この場合、Z軸方向の奥側に配置されているオブジェクトに対してその他のオブジェクトと同様のフォグを適用すると暗すぎることで質感がでないような状況において、当該オブジェクトには別のフォグを設定する構成とするとよい。これにより、上記質感を損なわせないようにしつつ、フォグを設定することによる効果を得ることができる。 The fog is information for adjusting the degree of brightness with respect to a position in a predetermined direction in the world coordinate system, specifically, the Z-axis direction. Fog is used to represent fog and the inside of a cave. Here, a single fog may be applied to the entire image for one frame. In this case, fog is applied to the image for one frame in a fixed manner. Alternatively, a plurality of fogs may be applied to the entire image for one frame. In this case, if a fog similar to other objects is applied to an object arranged on the back side in the Z-axis direction, the fog is too dark to give a texture, and another fog is set for the object. It is good to have a configuration. Accordingly, it is possible to obtain the effect of setting the fog while preventing the above texture from being impaired.

別保存とは、一旦作成した背景画像用の描画データをその後のフレームにおいてそのまま使用するために、フレーム領域142a,142bとは別に設けられたモード用バッファ145に書き込み保存しておくことをいう。モード用バッファ145には、図4に示すように、各表示モードに1対1で対応するように、第1モード用領域145aと、第2モード用領域145bとが設けられている。この別保存の具体的な内容については、後に詳細に説明する。 The separate saving means that the once created drawing data for the background image is written and saved in the mode buffer 145 provided separately from the frame areas 142a and 142b so that it can be used as it is in the subsequent frames. As shown in FIG. 4, the mode buffer 145 is provided with a first mode area 145a and a second mode area 145b so as to correspond to each display mode on a one-to-one basis. The specific content of this separate storage will be described later in detail.

パラメータP(2)といった他のパラメータでは、図15(c)に示すように、上記図15(b)の各種情報のうち、背面用の画像データの情報に代えて、オブジェクトの情報とテクスチャの情報とが設定されている。これらの情報としては、メモリモジュール133においてオブジェクトやテクスチャが記憶されているエリアのアドレスの情報が設定されている。 For other parameters such as the parameter P(2), as shown in FIG. 15C, of the various information shown in FIG. 15B, the information of the object and the texture are replaced in place of the information of the image data for the back surface. Information and are set. As these pieces of information, information on addresses of areas in which objects and textures are stored in the memory module 133 is set.

VDP135における描画処理について、図16のフローチャートを参照しながら説明する。なお、以下の説明では、描画処理の実行に伴い描画データが作成される様子を、図17を参照しながら説明する。 Drawing processing in the VDP 135 will be described with reference to the flowchart of FIG. In the following description, how drawing data is created as the drawing process is performed will be described with reference to FIG.

先ずステップS1001では、表示CPU131から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS1002にて、背景用の設定処理を実行する。 First, in step S1001, it is determined whether a new drawing list is received from the display CPU 131. If a new drawing list has been received, background setting processing is executed in step S1002.

背景用の設定処理では、今回の描画リストにて指定されている画像データのうち、背景画像を表示するための背面用の画像データ及びキャラクタ用のオブジェクトを把握する。そして、それら画像データやキャラクタ用のオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。 In the setting process for the background, out of the image data designated in the drawing list this time, the image data for the back face for displaying the background image and the object for the character are grasped. Then, it is determined whether or not the image data and the character object are already arranged in the world coordinate system.

配置されていない場合には、ワールド座標系への配置を行うために参照する空きバッファ領域を画像データ毎に検索し、空きバッファ領域を確保した場合にはその領域の初期化処理を実行する。その後、メモリモジュール133においてその画像データが記憶されているアドレスを把握して読み出すとともに、描画リストに指定された座標、回転角度及びスケールとなるように、その画像データについてのローカル座標系の座標値をワールド座標系の座標値に変換させるワールド変換処理を実行して、上記確保したバッファ領域に設定する。 If not arranged, a free buffer area to be referred to for arrangement in the world coordinate system is searched for each image data, and if a free buffer area is secured, initialization processing of that area is executed. After that, the memory module 133 grasps and reads the address where the image data is stored, and at the same time, the coordinate value of the local coordinate system for the image data is set so that the coordinates, the rotation angle, and the scale are designated in the drawing list. The world conversion processing for converting the coordinate value into the coordinate value of the world coordinate system is executed, and is set in the secured buffer area.

配置されている場合には、既に確保されたバッファ領域に設定されている各種パラメータの更新処理を実行する。また、背景用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない背景用の画像データを消去する制御終了処理を実行する。 If it is arranged, update processing of various parameters set in the already secured buffer area is executed. Further, in the background setting process, a control ending process is executed to erase the background image data not specified in the current drawing list among the image data already arranged in the world coordinate system.

続くステップS1003では、演出用の設定処理を実行する。演出用の設定処理では、今回の描画リストにて指定されている画像データのうち、演出画像を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、演出用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない演出用の画像データを消去する制御終了処理を実行する。 In a succeeding step S1003, effect setting processing is executed. In the setting process for effect, the object for displaying the effect image is grasped from the image data specified in the current drawing list. Then, it is determined whether or not the grasped object is already arranged in the world coordinate system. If they are not arranged, the process for starting the arrangement is executed as in the case described in the background setting process. If it is arranged, update processing of various parameters is executed. Further, in the setting process for effect, a control ending process for deleting the image data for effect which is not specified in the current drawing list among the image data already arranged in the world coordinate system is executed.

続くステップS1004では、図柄用の設定処理を実行する。図柄用の設定処理では、今回の描画リストにて指定されている画像データのうち、図柄を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、図柄用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない図柄用の画像データを消去する制御終了処理を実行する。 In a succeeding step S1004, a setting process for symbols is executed. In the design setting process, the object for displaying the design is grasped in the image data specified in the drawing list this time. Then, it is determined whether or not the grasped object is already arranged in the world coordinate system. If they are not arranged, the process for starting the arrangement is executed as in the case described in the background setting process. If it is arranged, update processing of various parameters is executed. Further, in the symbol setting process, a control end process is executed to erase the image data for symbols not designated in the current drawing list among the image data already arranged in the world coordinate system.

上記ステップS1002〜ステップS1004の処理が実行されることにより、図17に示すように、X軸,Y軸,Z軸で規定されたワールド座標系内に、描画リストにより配置対象として指定されている最背面画像PC1と、各種オブジェクトPC2〜PC10とが、同じく描画リストにより指定されている座標、回転角度及びスケールで配置されたシーンの設定が完了する。 As a result of the processing in steps S1002 to S1004 being executed, as shown in FIG. 17, it is designated as an arrangement target by the drawing list in the world coordinate system defined by the X axis, Y axis, and Z axis. The setting of the scene in which the rearmost image PC1 and the various objects PC2 to PC10 are arranged at the coordinates, rotation angles, and scales that are also designated by the drawing list is completed.

なお、図17においては、最背面画像PC1や各種オブジェクトPC2〜PC10が配置されている様子を簡易的に示している。また、最背面画像PC1は、各種オブジェクトPC2〜PC10の全てに対してZ軸方向の座標が奥側に設定されている必要はなく、例えば、最背面画像PC1が曲げられた状態又は傾斜した状態で配置されていることにより、一部のオブジェクトよりもZ軸方向の座標が手前側となる構成としてもよい。但し、この一部のオブジェクトとX軸方向の座標及びY軸方向の座標が同一である最背面画像PC1の領域は、そのオブジェクトよりもZ軸方向の座標が奥側であることにより、全てのオブジェクトが最背面画像PC1により覆われない状態となる。 It should be noted that FIG. 17 simply shows a state in which the rearmost image PC1 and various objects PC2 to PC10 are arranged. Further, the backmost image PC1 does not need to have the coordinates in the Z-axis direction set to the back side with respect to all of the various objects PC2 to PC10. For example, the backmost image PC1 is bent or tilted. By arranging in, the coordinates in the Z-axis direction may be on the front side of some objects. However, the area of the backmost image PC1 in which the coordinates in the X-axis direction and the coordinates in the Y-axis direction are the same as those of some of the objects, the coordinates in the Z-axis direction are behind the object, The object is in a state where it is not covered by the rearmost image PC1.

続くステップS1005では、カメラ座標系(カメラ空間)への変換処理を実行する。カメラ座標系への変換処理では、描画リストにより指定されたカメラの情報により、視点の座標及び向きを決定するとともに、その視点の座標及び向きに基づいて、ワールド座標系を、視点を原点としたカメラ座標系(カメラ空間)に変換する。これにより、図17に示すように、カメラ形状で示す視点PC11が設定され、それに対応した座標系が設定された状態となる。 In the following step S1005, conversion processing to the camera coordinate system (camera space) is executed. In the conversion process to the camera coordinate system, the coordinates and the direction of the viewpoint are determined based on the information of the camera specified by the drawing list, and the world coordinate system is used as the origin of the viewpoint based on the coordinates and the direction of the viewpoint. Convert to camera coordinate system (camera space). As a result, as shown in FIG. 17, the viewpoint PC11 indicated by the camera shape is set, and the coordinate system corresponding thereto is set.

ここで、カメラの情報は、個別画像(最背面画像PC1及び各種オブジェクトPC2〜PC10)毎に設定されており、実際には個別画像毎にカメラ座標系が存在することとなる。このように個別画像毎にカメラ座標系が設定されることにより、視点切換を個別に行うことが可能となり、描画データの作成の自由度が高められる。但し、説明の便宜上、図17には全ての個別画像が単一の視点に設定されている状態を示す。 Here, the camera information is set for each individual image (the backmost image PC1 and various objects PC2 to PC10), and in reality, a camera coordinate system exists for each individual image. By setting the camera coordinate system for each individual image in this way, viewpoint switching can be performed individually, and the degree of freedom in creating drawing data is increased. However, for convenience of explanation, FIG. 17 shows a state in which all individual images are set to a single viewpoint.

続くステップS1006では、視野座標系(視野空間)への変換処理を実行する。視野座標系への変換処理では、上記各カメラ座標系を、視点からの視野(視野角)に対応する視野座標系に変換する。これにより、各個別画像について、対応する視点の視野内に含まれている場合にはそれが抽出されるとともに、視点から近い個別画像が拡大されるとともに、視点から遠い個別画像が縮小される。 In a succeeding step S1006, conversion processing to the visual field coordinate system (visual field space) is executed. In the conversion processing into the visual field coordinate system, each of the camera coordinate systems described above is converted into a visual field coordinate system corresponding to the visual field (viewing angle) from the viewpoint. As a result, for each individual image, if it is included in the visual field of the corresponding viewpoint, it is extracted, the individual image near the viewpoint is enlarged, and the individual image far from the viewpoint is reduced.

続くステップS1007では、クリッピング処理を実行する。クリッピング処理では、ステップS1006にて抽出された各個別画像が、それぞれ対応する視点を共通の原点として把握される。そして、その状態で描画対象のフレーム領域142a,142b(すなわち、図柄表示装置31の表示面G)に応じたスクリーン領域PC12(図17を参照)に対応する空間を基準として、ステップS1006にて抽出された各個別画像をクリッピングする。 In a succeeding step S1007, clipping processing is executed. In the clipping process, each individual image extracted in step S1006 is recognized with the corresponding viewpoint as a common origin. Then, in this state, the space corresponding to the screen area PC12 (see FIG. 17) corresponding to the drawing target frame areas 142a and 142b (that is, the display surface G of the symbol display device 31) is used as a reference for extraction in step S1006. Clip each clipped individual image.

続くステップS1008では、ライティング処理を実行する。ライティング処理では、描画リストにより指定されたライトの情報により、仮想光源の種類、座標及び向きを決定するとともに、上記クリッピング処理により抽出された各オブジェクトについて上記仮想光源に基づき陰影や反射等を演算する。 In a succeeding step S1008, a lighting process is executed. In the lighting process, the type, coordinates, and direction of the virtual light source are determined based on the light information specified by the drawing list, and the shadows, reflections, etc. of each object extracted by the clipping process are calculated based on the virtual light source. ..

続くステップS1009では、色情報の設定処理を実行する。色情報の設定処理では、上記クリッピング処理により抽出された各オブジェクトに対して、ピクセル単位(すなわちポリゴン単位)又は頂点単位で、色情報を設定することで、各オブジェクトの外観を決定する。かかる色情報の設定処理では、基本的に、上記クリッピング処理により抽出された各オブジェクトに対して、それぞれに対応するテクスチャを貼り付けるテクスチャマッピング処理が実行される。また、状況によっては、バンプマッピングや透明度マッピングなどの処理が実行される。 In a succeeding step S1009, a color information setting process is executed. In the color information setting process, the appearance of each object is determined by setting the color information for each object extracted by the clipping process in pixel units (that is, polygon units) or vertex units. In the color information setting process, basically, a texture mapping process for attaching a texture corresponding to each object extracted by the clipping process is executed. Further, depending on the situation, processing such as bump mapping and transparency mapping is executed.

その後、ステップS1010及びステップS1011にて、ステップS1007にて抽出され、さらにライティング処理や色情報の設定処理が完了した各個別画像を、仮想2次元平面であるスクリーン領域PC12に投影(例えば、透視投影や平行投影)することで描画データを作成する。 Then, in steps S1010 and S1011, each individual image extracted in step S1007 and further subjected to the lighting process and the color information setting process is projected onto the screen area PC12 that is a virtual two-dimensional plane (for example, perspective projection). Or parallel projection) to create drawing data.

具体的には、先ずステップS1010にて、背景用の描画データ作成処理を実行する。背景用の描画データ作成処理では、背景画像として設定されている最背面画像及びオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、背景用の描画データを作成する。 Specifically, first, in step S1010, background drawing data creation processing is executed. In the drawing data creation process for the background, the drawing data for the background is created by projecting the backmost image and the object set as the background image onto the screen area PC12 while performing hidden surface removal.

ここで、VRAM134には、図4に示すようにスクリーン用バッファ144が設けられており、スクリーン用バッファ144には背景用の描画データが書き込まれる背景用のバッファと、演出用の描画データ及び図柄用の描画データがまとめて書き込まれる演出及び図柄用のバッファとが設定されている。また、背景用のバッファ、演出及び図柄用のバッファには、スクリーン領域PC12のピクセル数と同一のドット数のエリアが設定されている。ステップS1010にて作成される背景用の描画データは、背景用のバッファに書き込まれる。なお、描画リストにおいて背景用の画像データが指定されていない場合には、背景用の描画データは作成されない。 Here, the VRAM 134 is provided with a screen buffer 144 as shown in FIG. 4, and a background buffer in which the drawing data for the background is written in the screen buffer 144 and the drawing data and the design for the effect. The effect and the pattern buffer in which the drawing data for writing are collectively written are set. An area having the same number of dots as the number of pixels of the screen area PC12 is set in the background buffer and the effect and symbol buffer. The background drawing data created in step S1010 is written in the background buffer. If the image data for the background is not specified in the drawing list, the drawing data for the background is not created.

続くステップS1011では、演出及び図柄用の描画データ作成処理を実行する。演出及び図柄用の描画データ作成処理では、演出画像として設定されているオブジェクト及び図柄として設定されているオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、スクリーン用バッファ144における演出及び図柄用のバッファに演出及び図柄用の描画データを作成する。なお、描画リストにおいて演出及び図柄用の画像データが指定されていない場合には、演出及び図柄用の描画データは作成されない。 In the following step S1011 a drawing data creation process for effect and design is executed. In the rendering data creation process for the effect and the pattern, the object set as the effect image and the object set as the pattern are projected onto the screen area PC12 while the hidden surface is erased, and thus the screen buffer is created. In the buffer for effect and symbol in 144, drawing data for effect and symbol is created. If the image data for effects and symbols is not specified in the drawing list, the drawing data for effects and symbols is not created.

その後、ステップS1012にて、描画データ合成処理を実行した後に、本描画処理を終了する。ステップS1012の描画データ合成処理では、ステップS1010及びステップS1011の処理によりそれぞれ個別にスクリーン用バッファ144に作成されている背景用の描画データと、演出及び図柄用の描画データとを合成して、その合成結果を描画対象のフレーム領域142a,142bに1フレーム分の描画データとして書き込む。 After that, in step S1012, the drawing data composition process is executed, and then the present drawing process is ended. In the drawing data synthesizing process of step S1012, the background drawing data and the drawing data for the effect and the pattern created individually in the screen buffer 144 by the processes of step S1010 and step S1011 are combined, and The composition result is written in the drawing target frame areas 142a and 142b as drawing data for one frame.

この場合、その書き込む順序は、背景用の描画データ→演出及び図柄用の描画データの順序で奥側から手前側に並ぶように規定されている。したがって、描画対象のフレーム領域142a,142bに対して、先ず背景用の描画データを書き込み、次に演出及び図柄用の描画データを書き込む。この際、描画の実行対象となったピクセルに完全透過のα値が設定されている場合には奥側の画像がそのまま利用され、半透過のα値が設定されている場合にはα値を基準とした比率での奥側の画像と手前側の画像との融合が行われ、不透過のα値が設定されている場合には奥側の画像に対する手前側の画像の上書きが行われるように、融合用の演算が実行される。 In this case, the writing order is defined such that the drawing data for the background, the drawing data for the effect, and the drawing data for the design are arranged in order from the back side to the front side. Therefore, in the drawing target frame areas 142a and 142b, the drawing data for the background is first written, and then the drawing data for the effect and the pattern is written. At this time, if the completely transparent α value is set for the pixel for which drawing is performed, the image on the back side is used as is, and if the semi-transparent α value is set, the α value is set. The image on the back side and the image on the front side are fused at the standard ratio, and when the opaque α value is set, the image on the front side is overwritten on the image on the back side. Then, the fusion operation is executed.

ここで、融合用の演算についてより詳細に説明すると、描画対象のフレーム領域142a,142bにおける各ドットのRGBの各数値情報は、演出及び図柄用の描画データにおける描画対象となったピクセルに設定されているα値を基準として、
R:「奥側画像のR値」×(「1」−「α値」)+「手前側画像のR値」×「α値」
G:「奥側画像のG値」×(「1」−「α値」)+「手前側画像のG値」×「α値」
B:「奥側画像のB値」×(「1」−「α値」)+「手前側画像のB値」×「α値」
となる。
Here, the fusion calculation will be described in more detail. The RGB numerical value information of each dot in the drawing target frame areas 142a and 142b is set to the pixel that is the drawing target in the rendering data for effect and design. Based on the α value
R: “R value of back side image”×(“1”−“α value”)+“R value of front side image”דα value”
G: “G value of back side image”×(“1”−“α value”)+“G value of front side image”דα value”
B: “B value of the back side image”×(“1”−“α value”)+“B value of the front side image”דα value”
Becomes

ちなみに、各描画データは1フレーム分の面積を有するように規定されているが、演出及び図柄用の描画データにおいて投影が行われなかったブランク部分については完全透過のα値が設定されている。 By the way, although each drawing data is defined to have an area for one frame, an α value of complete transparency is set for a blank portion that is not projected in the drawing data for effect and design.

上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路155から図柄表示装置31に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分後の描画データの作成と並行して行われる。また、表示回路155は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域142a,142bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、描画データの描画対象となっているフレーム領域142a,142bが画像信号を出力するための出力対象とならないように規制されている。 The drawing data for one frame is created so as to be completed within the range of 20 msec cycle. Further, an image signal is output from the display circuit 155 to the symbol display device 31 based on the created drawing data, but since the double buffer method is adopted as already described, the output of the image signal is the output. This is performed in parallel with the creation of drawing data for one frame after that frame. Further, the display circuit 155 has a selector circuit which alternately switches the frame regions 142a and 142b to be referred to each time the output of the image signal for one frame is completed. The frame areas 142a and 142b, which are drawing targets, are regulated so as not to be output targets for outputting image signals.

なお、上記ステップS1002〜ステップS1007までがジオメトリ演算部151により実行される処理であり、上記ステップS1008〜ステップS1012がレンダリング部152により実行される処理である。 Note that steps S1002 to S1007 described above are processes executed by the geometry calculation unit 151, and steps S1008 to S1012 described above are processes executed by the rendering unit 152.

<Zバッファ143を利用したマスク表示>
次に、Zバッファ143を利用したマスク表示について説明する。
<Mask display using Z buffer 143>
Next, the mask display using the Z buffer 143 will be described.

Zバッファ143は、既に説明したとおり、Zバッファ法による隠面消去を行う場合に利用される。ここで、VDP135にて実行されるZバッファを用いた隠面処理について、図18のフローチャートを参照しながら説明する。 As described above, the Z buffer 143 is used when performing hidden surface removal by the Z buffer method. Now, the hidden surface processing using the Z buffer executed by the VDP 135 will be described with reference to the flowchart of FIG.

Zバッファを用いた隠面処理は、描画リストにてZテスト指定がなされている場合に、描画処理(図16)におけるステップS1010及びステップS1011の各描画データ作成処理にて起動される。また、表示CPU131は、Zテスト指定を行う場合、Zバッファを用いた隠面処理において基準となるスクリーン領域PC12のZ軸を、ワールド座標系のZ軸に対して平行となるように設定し、Z軸方向に平行な方向に並ぶ各ピクセル間において表示対象とするピクセルを決定する。 The hidden surface process using the Z buffer is activated in each drawing data creation process of step S1010 and step S1011 in the drawing process (FIG. 16) when the Z test is designated in the drawing list. Further, when the Z test is designated, the display CPU 131 sets the Z axis of the screen area PC12, which is the reference in the hidden surface processing using the Z buffer, so as to be parallel to the Z axis of the world coordinate system. A pixel to be displayed is determined between pixels arranged in a direction parallel to the Z-axis direction.

ステップS1010の背景用の描画データ作成処理では、背面用の画像及び背景用のオブジェクトが隠面処理の対象となり、ステップS1011の演出及び図柄用の描画データ作成処理では、演出用のオブジェクト及び図柄用のオブジェクトが隠面処理の対象となる。また、演出及び図柄用の描画データ作成処理における隠面処理では、演出用のオブジェクト及び図柄用のオブジェクトのいずれがも設定されていないブランク部分については、完全透過のα値が設定される。 In the background drawing data creation process of step S1010, the back image and the background object are targets of the hidden surface process, and in the rendering and design drawing data creation process of step S1011, the rendering object and the design object are used. Object is the target of hidden surface treatment. Further, in the hidden surface process in the drawing data creation process for the effect and the design, the completely transparent α value is set for the blank portion in which neither the effect object nor the design object is set.

Zバッファ143は1個のみ設定されており、スクリーン用バッファ144における背景用のバッファと同一のドット数のエリアを有しているとともに、演出及び図柄用のバッファと同一のドット数のエリアを有している。 Only one Z buffer 143 is set, and it has an area with the same number of dots as the background buffer in the screen buffer 144 and an area with the same number of dots as the effect and symbol buffer. is doing.

先ずステップS1101では、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS1102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。 First, in step S1101, an individual image included on the Z axis of the current projection target dot in the screen region PC12 (see FIG. 17) is set as a target pixel of the individual image that is the current test target. Understand the set Z value. In a succeeding step S1102, the Z value set in the area of the dot corresponding to the drawing target dot in the Z buffer 143 is grasped.

続くステップS1103では、ステップS1101にて把握した個別画像のZ値が、ステップS1102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS1104に進み、ステップS1101にて把握したZ値を、Zバッファ143におけるステップS1102にて参照したドットのエリアに上書きする。続くステップS1105では、ステップS1101にて参照したピクセルに設定されている色情報といった描画用の数値情報を、スクリーン用バッファ144における描画対象のバッファにおいて、今回の投影対象ドットのエリアに上書きする。その後に、ステップS1106に進む。 In a succeeding step S1103, it is determined whether or not the Z value of the individual image grasped in step S1101 corresponds to the front side in the Z axis direction with respect to the Z value of the Z buffer 143 grasped in step S1102. If it corresponds to the front side, the process proceeds to step S1104, and the Z value grasped in step S1101 is overwritten in the dot area referred to in step S1102 in the Z buffer 143. In the following step S1105, the numerical value information for drawing such as the color information set in the pixel referred to in step S1101 is overwritten in the area of the projection target dot of this time in the drawing target buffer in the screen buffer 144. Then, it progresses to step S1106.

一方、ステップS1103にて、手前側に対応していないと判定した場合には、ステップS1104〜ステップS1105の処理を実行することなく、ステップS1106に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合には、Zバッファ143の更新は行われないとともに、既に設定されている描画用の数値情報がそのまま保持される。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われるとともに、描画用の数値情報も更新される。 On the other hand, if it is determined in step S1103 that the front side is not supported, the process proceeds to step S1106 without executing the processes of steps S1104 to S1105. That is, when the Z value of the pixel to be tested is the same as the Z value already set for the target dot of the Z buffer 143 or is on the far side in the Z axis direction, the Z buffer 143 is updated. At the same time, the already set numerical information for drawing is retained as it is. On the other hand, when the Z value of the test target pixel is on the front side in the Z axis direction from the Z value already set for the target dot of the Z buffer 143, the Z buffer 143 is updated. , Numerical information for drawing is also updated.

ステップS1106では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS1101に戻り、新たな対象ピクセルに対してZテストを行う。 In step S1106, it is determined whether the Z test is completed for all target pixels included on the Z axis with the projection target dot as a reference. If not completed, the process returns to step S1101 and a Z test is performed on a new target pixel.

完了している場合には、ステップS1107にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS1108にて、投影対象ドットを更新した後にステップS1101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には本隠面処理を終了する。 If it is completed, it is determined in step S1107 whether the Z test is completed for all the dots in the screen area PC12. If not completed, the projection target dot is updated in step S1108 and then the process returns to step S1101 to perform the Z test on the new projection target dot. If it is completed, this hidden surface processing is ended.

上記のように隠面処理が実行されることにより、Z軸上に複数の個別画像が並んだとしても、視点に近い側の個別画像のみが表示されることとなる。ここで、本実施形態では、当該隠面処理を利用して背景用のキャラクタのマスク(すなわち、部分表示)が実行される。そして、このマスクは、表示CPU131においてオブジェクトのZ値をマスク用に設定することで行われる。 By performing the hidden surface processing as described above, even if a plurality of individual images are arranged on the Z axis, only the individual image closer to the viewpoint is displayed. Here, in the present embodiment, masking (that is, partial display) of the character for the background is executed by using the hidden surface processing. Then, this mask is performed by setting the Z value of the object for the mask in the display CPU 131.

以下、表示CPU131にて実行されるマスク用の演算処理について、図19のフローチャートを参照しながら説明する。なお、当該マスク用の演算処理は、データテーブルにおいて参照したエリアにマスク用の演算処理を実行すべきことが示されている場合に、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。 The masking calculation process executed by the display CPU 131 will be described below with reference to the flowchart of FIG. It should be noted that the mask calculation process is the same as the background calculation process of step S903 in the task process (FIG. 14) when it is indicated in the data table that the mask reference process should be executed. Is executed.

先ずステップS1201では、現状設定されているデータテーブルに基づいて、今回の処理回が第1のマスク表示に対応しているか否かを判定する。ここで、マスク表示として、第1のマスク表示と第2のマスク表示とが設定されている。第1のマスク表示は、キャラクタを一部表示させた状態を複数フレームに亘って維持させる表示態様であり、第2のマスク表示は、キャラクタの全体を表示させた状態からマスクするピクセルを複数フレームに亘って除々に増加させ最終的に消滅させる表示態様である。 First, in step S1201, it is determined based on the currently set data table whether or not the current processing time corresponds to the first mask display. Here, the first mask display and the second mask display are set as the mask display. The first mask display is a display mode in which a state in which a character is partially displayed is maintained for a plurality of frames, and the second mask display is in a state in which pixels to be masked are displayed in a plurality of frames from the state in which the entire character is displayed. It is a display mode that gradually increases over time and finally disappears.

第1のマスク表示に対応している場合には、ステップS1202にて、現状設定されているデータテーブルに基づいてマスク対象のオブジェクトを把握する。続くステップS1203では、現状設定されているデータテーブルに基づいて、ステップS1202にて把握したオブジェクトにおいてマスク対象となるピクセルを把握する。 If it corresponds to the first mask display, the object to be masked is grasped based on the currently set data table in step S1202. In the following step S1203, the pixels to be masked are grasped in the object grasped in step S1202 based on the currently set data table.

その後、ステップS1204にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいてマスク対象となっているピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、マスク対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 After that, after the Z value setting process is executed in step S1204, the present calculation process is ended. In the Z value setting process, the pixel that is the mask target in the object is set so that the Z value is on the back side of the rearmost image, and the pixel that is not the mask target is set as follows. The Z value is set so as to correspond to the position that should be originally displayed, which is on the front side of the rearmost image.

上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第1のマスク表示が表示面Gにて行われる。第1のマスク表示の具体的な内容について、図20を参照しながら説明する。なお、説明の便宜上、図20では、3次元画像を2次元画像として示す。 The masking arithmetic process is executed as described above, and the drawing list including the object with the Z value set as a drawing target is transmitted to the VDP 135, so that the VDP 135 uses the Z buffer as the hidden surface process. The hidden surface processing (FIG. 18) is executed, and finally the first mask display is performed on the display surface G. The specific contents of the first mask display will be described with reference to FIG. Note that, for convenience of explanation, in FIG. 20, the three-dimensional image is shown as a two-dimensional image.

図20(a)は第1のマスク表示が行われることなく通常通りにキャラクタCH1が表示される場合を示している。また、図20(a―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(a―2)は表示面Gでの表示態様を示す。この場合、図20(a―1)に示すように、各ピクセルには最背面の画像よりも手前側となるようにZ値が設定されているため、図20(a―2)に示すようにキャラクタCH1はその全体が表示される。 FIG. 20A shows a case where the character CH1 is displayed as usual without performing the first mask display. Further, FIG. 20(a-1) is an image diagram of the Z value designated in the display CPU 131 for each pixel of the object PC 13 corresponding to the character CH1, and FIG. 20(a-2) is the display surface G. A display mode is shown. In this case, as shown in FIG. 20(a-1), the Z value is set to each pixel so as to be closer to the front side than the rearmost image. Therefore, as shown in FIG. 20(a-2). The entire character CH1 is displayed.

図20(b)は第1のマスク表示が行われる場合を示している。また、図20(b―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(b―2)は表示面Gでの表示態様を示す。この場合、図20(b―1)に示すように、各ピクセルの一部には最背面の画像よりも手前側となるようにZ値が設定されているが、残りのピクセルには最背面の画像よりも奥側となるようにZ値が設定されている。したがって、図20(b―2)に示すように、キャラクタCH1は上記手前側となるようにZ値が設定されたピクセルに対応した箇所のみが表示される。 FIG. 20B shows a case where the first mask display is performed. Further, FIG. 20(b-1) is an image diagram of the Z value designated by the display CPU 131 for each pixel of the object PC 13 corresponding to the character CH1, and FIG. 20(b-2) is on the display surface G. A display mode is shown. In this case, as shown in FIG. 20(b-1), the Z value is set so that a part of each pixel is on the front side of the image on the back surface, but the remaining pixels are on the back surface. The Z value is set to be on the back side of the image. Therefore, as shown in FIG. 20(b-2), the character CH1 is displayed only at the portion corresponding to the pixel for which the Z value is set so as to be on the front side.

なお、同一のキャラクタCH1について第1のマスク表示用に対応したZ値の設定パターンが、表示CPU131の制御プログラムで複数種類設定されている構成としてもよい。この場合、同一のキャラクタCH1について第1のマスク表示の態様を複数種類設定することが可能となる。 A plurality of Z value setting patterns corresponding to the first mask display for the same character CH1 may be set by the control program of the display CPU 131. In this case, it is possible to set a plurality of first mask display modes for the same character CH1.

マスク用の演算処理(図19)の説明に戻り、ステップS1201にて、今回の処理回が第1のマスク表示に対応していないと判定した場合には、今回の処理回は第2のマスク表示に対応していることを意味しているため、ステップS1205に進む。ステップS1205では、現状設定されているデータテーブルに基づいて、第2のマスク表示の開始タイミングであるか否かを判定する。 Returning to the description of the calculation processing for masks (FIG. 19), if it is determined in step S1201 that the current processing time does not correspond to the first mask display, the current processing time is the second mask display. Since it means that the display is supported, the process advances to step S1205. In step S1205, it is determined whether it is the start timing of the second mask display based on the currently set data table.

開始タイミングである場合には、ステップS1206にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握する。続くステップS1207では、現状設定されているデータテーブルに基づいて、マスク用の専用テーブルを読み出す。このマスク用の専用テーブルは、今回の第2のマスク表示が完了するまで記憶保持される。続くステップS1208では、上記マスク用の専用テーブルに初期消去対象として設定されているピクセルを把握する。 If it is the start timing, in step S1206, the object to be masked is grasped based on the currently set data table. In the following step S1207, the dedicated mask table is read based on the currently set data table. This mask dedicated table is stored and held until the second mask display this time is completed. In a succeeding step S1208, the pixel set as the initial erasing target in the mask dedicated table is grasped.

その後、ステップS1209にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1208にて初期消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、初期消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 After that, after the Z value setting process is executed in step S1209, the present calculation process is ended. In the Z value setting process, in the above-mentioned object, with respect to the pixel grasped as the initial erasing target in step S1208, the Z value is set so as to be on the back side of the rearmost image, and the pixel is set as the initial erasing target. For pixels that are not formed, the Z value is set so as to correspond to the position on the front side of the rearmost image and should be originally displayed.

一方、ステップS1205にて開始タイミングでないと判定した場合には、ステップS1210に進む。ステップS1210では、ワークRAM132に設定されている消去対象カウンタを更新する。続くステップS1211では、現状読み出されているマスク用の専用テーブルにおいて、ステップS1210にて更新した消去対象カウンタの値に対応したデータを確認し、消去対象のピクセルを把握する。 On the other hand, when it is determined in step S1205 that it is not the start timing, the process proceeds to step S1210. In step S1210, the erase target counter set in the work RAM 132 is updated. In the following step S1211, the data corresponding to the value of the erase target counter updated in step S1210 is confirmed in the currently read mask dedicated table, and the pixel to be erased is grasped.

その後、ステップS1212にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1211にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 After that, the Z value setting process is executed in step S1212, and then the present calculation process is ended. In the Z value setting process, in the above-described object, the pixel that is recognized as the deletion target in step S<b>1211 is set so that the Z value is on the back side of the rearmost image and is the deletion target. For a pixel that does not exist, its Z value is set so as to correspond to a position on the front side of the rearmost image and which should be originally displayed.

上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第2のマスク表示が表示面Gにて行われる。第2のマスク表示の具体的な内容について、図21を参照しながら説明する。なお、説明の便宜上、図21では、3次元画像を2次元画像として示す。 The masking arithmetic process is executed as described above, and the drawing list including the object with the Z value set as a drawing target is transmitted to the VDP 135, so that the VDP 135 uses the Z buffer as the hidden surface process. The hidden surface processing (FIG. 18) is executed, and finally the second mask display is performed on the display surface G. The specific contents of the second mask display will be described with reference to FIG. For convenience of explanation, the three-dimensional image is shown as a two-dimensional image in FIG.

図21(a)はマスク用の専用テーブルに設定されている情報のイメージ図を示しており、図21(b)は第2のマスク表示が行われることなく通常通りにキャラクタCH2が表示される場合を示している。図21(a)に示すように、キャラクタCH2に対応したオブジェクトPC14は複数のピクセルを有しており、マスク用の専用テーブルでは、それら複数のピクセルが複数ずつグループ分けされているとともに各グループに対して消去対象となるフレーム順序が設定されている。具体的には、「a1」として示すグループが初期消去対象として設定されており、その後は、「a2」として示すグループ→「a3」として示すグループ→「a4」として示すグループ→「a5」として示すグループの順序で消去対象となる。 FIG. 21(a) shows an image diagram of information set in the mask dedicated table, and FIG. 21(b) shows the case where the character CH2 is displayed as usual without the second mask display. Is shown. As shown in FIG. 21A, the object PC14 corresponding to the character CH2 has a plurality of pixels, and in the dedicated table for the mask, the plurality of pixels are grouped into a plurality of groups and each group is divided into groups. On the other hand, the frame order to be erased is set. Specifically, the group shown as “a1” is set as the initial deletion target, and thereafter, the group shown as “a2”→the group shown as “a3”→the group shown as “a4”→shown as “a5” It becomes a deletion target in the order of the group.

第2のマスク表示が開始され、「a1」として示すグループが消去対象となったフレームにおいては、図21(c)に示すように、「a1」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。また、その後のフレームにおいて、「a2」として示すグループが消去対象となった場合には、図21(d)に示すように、「a1」のグループに加え、「a2」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。そして、最終的に「a5」として示すグループが消去対象となったフレームにおいては、キャラクタCH2が表示されない状態となる。 In the frame in which the second mask display is started and the group indicated by “a1” is the deletion target, as shown in FIG. 21C, the pixel portion corresponding to the group of “a1” is missing. The character CH2 is displayed. Further, in the subsequent frame, when the group indicated by “a2” is to be erased, as shown in FIG. 21D, in addition to the group of “a1”, the pixel corresponding to the group of “a2” is added. The character CH2 is displayed in a state where the part is missing. Then, the character CH2 is not displayed in the frame in which the group finally indicated as "a5" is the deletion target.

以上のとおり、Zバッファ143を利用してオブジェクトのマスクを行うことができる。また、本構成によれば、表示CPU131のプログラム上でマスク用の演算を行うだけでよく、VDP135において画像データの一種であるマスクデータを設定する必要が生じない。したがって、画像データを記憶しておくのに必要な記憶容量を増加させることなく、マスク表示を行うことができる。 As described above, the Z buffer 143 can be used to mask an object. Further, according to this configuration, it is only necessary to perform the masking operation on the program of the display CPU 131, and it is not necessary to set the mask data which is a kind of image data in the VDP 135. Therefore, the mask display can be performed without increasing the storage capacity required for storing the image data.

また、表示CPU131においては各オブジェクトのZ値を調整するだけでよいため、表示CPU131の処理負荷をさほど増加させることなく上記マスク表示を行うことができる。また、第1のマスク表示及び第2のマスク表示といった複数種類のマスク表示を、上記のような優れた効果を奏することができる。 Further, since the display CPU 131 only needs to adjust the Z value of each object, the mask display can be performed without significantly increasing the processing load of the display CPU 131. In addition, a plurality of types of mask displays such as the first mask display and the second mask display can exhibit the excellent effects as described above.

また、非表示とする部分には最背面画像よりも奥側のZ値が設定される。最背面画像はいずれのフレームにおいても常に背面を構成する画像であるため、Z軸(奥行き方向)の位置として絶対的な基準となる。これを基準に非表示とする部分のZ値を設定することで、非表示とする場合のZ値の設定態様を画一的なものとすることが可能となり、当該Z値の設定に係る処理の処理負荷の軽減が図られる。 In addition, a Z value on the back side of the backmost image is set in the hidden portion. The rearmost image is an image that always forms the rear surface in any frame, and thus serves as an absolute reference as a position on the Z axis (depth direction). By setting the Z value of the part to be hidden based on this, it becomes possible to make the setting mode of the Z value in the case of non-display uniform, and the process related to the setting of the Z value. The processing load of is reduced.

なお、第1のマスク表示及び第2のマスク表示のいずれか一方のみが設定されている構成としてもよい。また、第2のマスク表示において複数のピクセル毎に消去されるのではなく、1ピクセル毎に消去される構成としてもよく、消去対象となったピクセルが再度表示対象に設定されることがある構成としてもよい。 Note that only one of the first mask display and the second mask display may be set. Further, in the second mask display, instead of erasing every plurality of pixels, the erasing may be performed for each pixel, and the erasing target pixel may be set as the display target again. May be

また、上記Z値の設定を逆に行うことで、複数フレーム分の表示期間に亘ってキャラクタが順次消去されるのではなく、複数フレーム分の表示期間に亘ってキャラクタが順次出現するように表示される構成としてもよい。 By setting the Z value in reverse, the characters are not sequentially erased over the display period for a plurality of frames, but are displayed so that the characters sequentially appear over the display period for a plurality of frames. It may be configured to be.

<Zバッファ143を利用したマスク処理の別形態>
Zバッファ143を利用したマスク表示の別形態について説明する。
<Another mode of mask processing using Z buffer 143>
Another mode of mask display using the Z buffer 143 will be described.

図22は表示CPU131にて実行されるマスク用の演算処理の別形態を示すフローチャートである。 FIG. 22 is a flowchart showing another form of the masking arithmetic processing executed by the display CPU 131.

先ずステップS1301では、現状設定されているデータテーブルに基づいて、開始タイミングであるか否かを判定する。開始タイミングである場合には、ステップS1302にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握するとともに、ステップS1303にて、現状設定されているデータテーブルに基づいて、初期マスク用テーブルを読み出す。 First, in step S1301, it is determined based on the currently set data table whether or not it is the start timing. When it is the start timing, in step S1302, the object to be masked is grasped based on the currently set data table, and in step S1303, based on the currently set data table, the initial setting is performed. Read the mask table.

続くステップS1304では、マスク抽選処理を実行する。マスク抽選処理では、ワークRAM132に設けられた抽選用カウンタに現状設定されている数値情報を読み出し、その数値情報に対応した消去対象の情報を、ステップS1303にて読み出した初期マスク用テーブルから抽出する。 In a succeeding step S1304, mask lottery processing is executed. In the mask lottery process, the numerical information currently set in the lottery counter provided in the work RAM 132 is read, and the information to be erased corresponding to the numerical information is extracted from the initial mask table read in step S1303. ..

抽選用カウンタは、例えばメイン処理(図12)にてステップS702の処理を実行する度に更新されるように構成されており、さらにはカウンタ値が1周した場合には初期値がランダムに選択される構成となっている。また、初期マスク用テーブルでは、抽選用カウンタの各カウンタ値に1対1で対応させて消去対象の情報が設定されているとともに、その消去対象の情報は、マスク対象のオブジェクトを構成する全ピクセルのうち複数のピクセルを1グループとして、各グループと1対1で対応している。 The lottery counter is configured to be updated each time the process of step S702 is executed in the main process (FIG. 12), for example, and when the counter value makes one round, the initial value is randomly selected. It is configured to be. In addition, in the initial masking table, the information to be erased is set in a one-to-one correspondence with the respective counter values of the lottery counter, and the information to be erased is all the pixels that make up the object to be masked. Of these, a plurality of pixels are set as one group and each group has a one-to-one correspondence.

続くステップS1305では、ステップS1304にて取得した消去対象の情報から、消去対象のピクセルを把握する。その後、ステップS1306にてZ値の設定処理を実行した後に、本演算処理を終了する。このZ値の設定処理では、上記オブジェクトにおいて、ステップS1305にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 In the following step S1305, the pixel to be erased is grasped from the information to be erased acquired in step S1304. After that, after the Z value setting process is executed in step S1306, the present calculation process is ended. In the Z value setting process, in the above object, the pixel that is grasped as the erasure target in step S1305 is set so that the Z value is on the back side of the rearmost image and is the erasure target. For a pixel that does not exist, its Z value is set so as to correspond to the position that should be originally displayed, which is on the front side of the rearmost image.

一方、ステップS1301にて開始タイミングではないと判定した場合には、ステップS1307に進む。ステップS1307では、既に読み出されている初期マスク用テーブルから、既に消去対象として設定された消去対象の情報が除外されるように、そのマスク用テーブルを書き換える。例えば、既に消去対象として設定された消去対象の情報に対応している上記カウンタ値が、他の消去対象の情報に重複して割り当てられるように、書き換える。この割り当てはランダムに行われてもよく、テーブル上で直下位のカウンタ値に対応した消去対象の情報に割り当てられる構成としてもよい。 On the other hand, when it is determined in step S1301 that it is not the start timing, the process proceeds to step S1307. In step S1307, the mask table is rewritten so that the erase target information already set as the erase target is excluded from the already read initial mask table. For example, the counter value corresponding to the information to be erased that has already been set as the erase target is rewritten so that the counter value is redundantly assigned to other information to be erased. This allocation may be performed randomly, or may be configured to be allocated to the information to be erased corresponding to the counter value immediately below in the table.

その後、ステップS1307にて書き換えたマスク用テーブルを利用して、ステップS1304〜ステップS1306の処理を実行した後に、本演算処理を終了する。 After that, the mask table rewritten in step S1307 is used to execute the processes of steps S1304 to S1306, and then the present calculation process is ended.

以上のとおり、本別形態によれば、消去対象となるピクセルがランダムに選択されることとなるため、マスク表示の態様を多様化することができる。 As described above, according to this another mode, the pixels to be erased are randomly selected, so that the mask display mode can be diversified.

なお、Zバッファ143を利用したマスク表示を、背景用のキャラクタではなく、演出用のキャラクタや図柄に対して適用してもよい。例えば、演出用のキャラクタに対して適用する場合、隠面処理が背景用の画像データ及び演出用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。また、図柄に対して適用する場合、隠面処理が背景用の画像データ、演出用の画像データ及び図柄用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。 The mask display using the Z buffer 143 may be applied not to the background character but to the effect character or the design. For example, when applied to a character for production, the hidden surface processing is executed collectively for the image data for the background and the image data for the presentation, so that the backmost surface is processed in the same manner as the above-mentioned configuration. The Z values of the display target and the non-display target may be distributed based on the Z value of the image. Further, when applied to the design, the hidden surface processing is executed collectively for the image data for the background, the image data for the effect, and the image data for the design, so that similar to the above configuration. The Z values of the display target and the non-display target may be distributed based on the Z value of the rearmost image.

また、隠面処理が背景、演出及び図柄に対して個別に行われる場合であっても、VDP135において最背面画像よりも奥側のZ値が設定されているピクセルは描画対象としないと定められているのであれば、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。 Further, even when the hidden surface processing is performed individually for the background, the effect, and the design, it is determined that the pixel for which the Z value on the back side of the rearmost image is set in the VDP 135 is not the drawing target. If so, the Z values of the display object and the non-display object may be distributed with reference to the Z value of the rearmost image, as in the above configuration.

また、表示対象及び非表示対象のZ値の振分が、最背面画像のZ値を基準にして行われるのではなく、例えば非表示対象のZ値として視点よりも手前のZ値が設定され、表示対象のZ値として視点よりも奥側のZ値が設定される構成としてもよい。 Further, the Z values of the display target and the non-display target are not distributed based on the Z value of the rearmost image, but a Z value in front of the viewpoint is set as the Z value of the non-display target, for example. The Z value on the back side of the viewpoint may be set as the Z value to be displayed.

また、Zバッファ143を利用した隠面処理は、ワールド座標系のZ軸を基準に行われるのではなく、視点の向く方向を基準に行われる構成としてもよい。 The hidden surface processing using the Z buffer 143 may be performed not based on the Z axis of the world coordinate system but based on the direction in which the viewpoint is directed.

<表示モードの切換に係る構成>
次に、表示モードの切換に係る構成について説明する。
<Structure for switching display modes>
Next, a configuration related to switching of display modes will be described.

表示モードとは、既に説明したとおり、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。具体的には、第1表示モードと第2表示モードとが設定されている。 As described above, the display mode is a state in which the type of the standby image displayed until the game time is started or the type of the game time image displayed when the game time is being executed is set to a predetermined type. That is, a plurality of display modes are set. Specifically, the first display mode and the second display mode are set.

第1表示モードと第2表示モードとでは、背景画像の表示態様及び各図柄の表示態様が相互に異なっている。具体的には、同一の番号が付された図柄で比較した場合、第1表示モードと第2表示モードとで図柄の外形や形状は同一となっているが、色や模様が異なっている。また、背景画像については、第1表示モードと第2表示モードとで、最背面画像の種類が異なっているとともに、最背面画像の手前にて表示されるキャラクタの数及び種類が異なっており、表示されるキャラクタの数は第1表示モードの方が第2表示モードよりも多く設定されている。 The display mode of the background image and the display mode of each symbol are different between the first display mode and the second display mode. Specifically, when comparing the symbols with the same number, the outer shapes and shapes of the symbols are the same in the first display mode and the second display mode, but the colors and the patterns are different. Regarding the background image, the type of the backmost image is different between the first display mode and the second display mode, and the number and types of characters displayed in front of the backmost image are different. The number of characters to be displayed is set to be larger in the first display mode than in the second display mode.

表示モードの切換は、演出用操作装置48の操作に基づき行われる。具体的には、遊技回や開閉実行モードが実行されていない状況で演出用操作装置48が操作されることで、表示モードが順次切り換えられるようになっている。また、遊技回が実行されている状況における所定の条件下で演出用操作装置48が操作されたことに基づき切り換えられるようになっている。 The switching of the display mode is performed based on the operation of the effect operation device 48. Specifically, the display mode can be sequentially switched by operating the production operating device 48 in a situation where the game time and the opening/closing execution mode are not executed. In addition, switching is performed based on the operation device 48 for effect being operated under a predetermined condition in the situation where the game time is being executed.

表示モードの切換に係る具体的な処理構成を説明する。 A specific processing configuration for switching the display mode will be described.

図23は、表示CPU131にて実行される操作発生コマンド対応処理を示すフローチャートである。操作発生コマンド対応処理はV割込み処理(図13)におけるステップS803のコマンド対応処理にて実行される。 FIG. 23 is a flowchart showing the operation generation command handling process executed by the display CPU 131. The operation occurrence command handling process is executed by the command handling process of step S803 in the V interrupt process (FIG. 13).

先ずステップS1401では、音声発光制御装置60からモード切換用の操作発生コマンドを受信しているか否かを判定する。受信していない場合にはそのまま本操作コマンド対応処理を終了し、受信している場合にはステップS1402に進む。 First, in step S1401, it is determined whether or not an operation generation command for mode switching is received from the sound emission control device 60. If it has not been received, this operation command handling process is terminated as it is, and if it has been received, the process proceeds to step S1402.

ステップS1402では、第1切換可能期間であるか否かを判定する。第1切換可能期間とは、遊技回及び開閉実行モードのいずれもが実行されていない期間である。第1切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1402では、現状設定されているデータテーブルに基づいて第1切換可能期間であるか否かを判定する。第1切換可能期間である場合には、ステップS1403にて、ワークRAM132に設けられた所定のエリアに対して第1切換実行フラグをセットする。 In step S1402, it is determined whether it is the first switchable period. The first switchable period is a period during which neither the game times nor the opening/closing execution mode is executed. Information for specifying whether it is the first switchable period is set in the data table, and in step S1402, it is determined whether the first switchable period is based on the currently set data table. . If it is the first switchable period, in step S1403, the first switch execution flag is set in a predetermined area provided in the work RAM 132.

一方、第1切換可能期間ではない場合には、ステップS1404に進み、第2切換可能期間であるか否かを判定する。第2切換可能期間とは、遊技回が実行されている状況において開始タイミングから実行途中における予め定められた基準タイミングまでの期間である。具体的には、図柄表示装置31にて遊技回用演出が実行される場合、全図柄列SA1〜SA3での図柄の変動表示を開始→全図柄列SA1〜SA3での高速変動表示→低速変動表示を経由した各図柄列SA1〜SA3の順次停止という表示の流れを含む。この場合に、第2切換可能期間は、全図柄列SA1〜SA3での図柄の変動表示が開始されてから全図柄列SA1〜SA3での高速変動表示が終了するタイミングまでの期間である。 On the other hand, if the period is not the first switchable period, the process advances to step S1404 to determine whether it is the second switchable period. The second switchable period is a period from the start timing to a predetermined reference timing in the middle of execution in the situation where the game game is being executed. Specifically, when the game diversion effect is executed on the symbol display device 31, variable display of symbols in all symbol columns SA1 to SA3 is started→High speed variable display in all symbol columns SA1 to SA3→Low velocity fluctuation It includes a display flow of sequentially stopping each symbol sequence SA1 to SA3 via the display. In this case, the second switchable period is a period from the start of the variable display of the symbols in all the symbol columns SA1 to SA3 to the timing at which the high-speed variable display in all the symbol columns SA1 to SA3 ends.

なお、図柄の変動表示の態様を、全図柄列SA1〜SA3での図柄の変動表示を開始→全図柄列SA1〜SA3の加速期間→全図柄列SA1〜SA3での高速変動表示(高速は一定速度)→低速変動表示(低速は一定速度)を経由した各図柄列SA1〜SA3の順次停止という表示の流れとしてもよい。この場合、第2切換可能期間を、全図柄列SA1〜SA3での高速変動表示が実行されている期間としてもよい。 In addition, the mode of variable display of the symbols starts the variable display of the symbols in all the symbol columns SA1 to SA3 → the acceleration period of all the symbol columns SA1 to SA3 → the high speed variable display in all the symbol columns SA1 to SA3 (the high speed is constant. The display flow may be a sequential stop of each of the symbol arrays SA1 to SA3 via a speed)→low speed fluctuation display (low speed is a constant speed). In this case, the second switchable period may be a period during which the high-speed variable display in all the symbol arrays SA1 to SA3 is being executed.

また、高速変動表示と低速変動表示との間に中速変動表示が含まれていてもよい。つまり、図柄の変動表示の態様は、2段階、3段階又は4段階以上といったように複数段階で切り換わるのであれば具体的な段階数は任意である。この場合、第2切換可能期間を、各段階のうち遊技者における図柄の識別性が低い低識別な段階の期間としてもよい。 Further, a middle speed fluctuation display may be included between the high speed fluctuation display and the low speed fluctuation display. In other words, the mode of variable display of symbols is arbitrary as long as it is switched in a plurality of stages such as 2 stages, 3 stages or 4 stages or more. In this case, the second switchable period may be a period of a low discriminating stage in which the player's symbol discriminating property is low among the stages.

また、図柄の変動表示の流れにおいて相対的に低識別態様での変動表示→高識別態様での変動表示という状態を含むのであれば具体的な変動態様は任意であり、例えばいずれの態様であっても変動速度は同一であるが、低識別態様での変動表示では図柄が透明、半透明、中抜き又は一部を除いた状態で表示され、高識別態様での変動表示では図柄の全体が表示される構成としてもよい。この場合、第2切換可能期間を、低識別態様での変動表示が行われている期間としてもよい。 Further, in the flow of the variable display of the symbols, the specific variable mode is arbitrary as long as it includes the state of the variable display in the relatively low identification mode → the variable display in the high identification mode, for example, any mode. Even though the speed of change is the same, the variable display in the low identification mode displays the pattern as transparent, semitransparent, hollow or partially removed, and the variable display in the high identification mode displays the entire pattern. It may be configured to be displayed. In this case, the second switchable period may be the period during which the variable display is performed in the low identification mode.

第2切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1404では、現状設定されているデータテーブルに基づいて第2切換可能期間であるか否かを判定する。第2切換可能期間ではないと判定した場合には、そのまま本操作発生コマンド対応処理を終了し、第2切換可能期間である場合には、ステップS1405にて、ワークRAM132に設けられた所定のエリアに対して第2切換実行フラグをセットする。 Information for specifying whether it is the second switchable period is set in the data table, and in step S1404, it is determined whether it is the second switchable period based on the currently set data table. .. If it is determined that it is not the second switchable period, the operation corresponding to the operation generation command is ended as it is, and if it is the second switchable period, a predetermined area provided in the work RAM 132 in step S1405. The second switching execution flag is set for.

ステップS1403及びステップS1405のいずれかの処理を実行した後は、ステップS1406に進む。ステップS1406では、表示モード用のカウンタを更新する。 After performing the processing of either step S1403 or step S1405, the process proceeds to step S1406. In step S1406, the display mode counter is updated.

表示モード用のカウンタとは、表示CPU131にて現状の表示モードを特定するためのカウンタであり、ワークRAM132に設けられている。表示モード用のカウンタには各表示モードに1対1で対応させてカウンタ値が設定されている。本実施形態では上記のとおり表示モードとして第1表示モード及び第2表示モードの2種類が設定されているため、上記カウンタ値として第1表示モードに対応した「0」の数値と、第2表示モードに対応した「1」の数値とが設定されている。この場合、表示モード用のカウンタの初期値は「0」として設定されているため、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合には第1表示モードが設定される。 The display mode counter is a counter for the display CPU 131 to specify the current display mode, and is provided in the work RAM 132. A counter value is set in the display mode counter in a one-to-one correspondence with each display mode. In the present embodiment, since two types of display modes, the first display mode and the second display mode, are set as described above, the counter value is “0” corresponding to the first display mode and the second display mode. The numerical value of "1" corresponding to the mode is set. In this case, since the initial value of the display mode counter is set to “0”, the first value is set when the supply of operating power to the display CPU 131 is started or when the pachinko machine 10 is reset. 1 display mode is set.

ステップS1406では、演出用操作装置48が1回操作される度に表示モードが予め定められた順序に従って順次切り換えられるように表示モード用のカウンタを更新する。具体的には、表示モード用のカウンタが「0」であり第1表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第2表示モードに切り換えるとともに、表示モード用のカウンタが「1」であり第2表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第1表示モードに切り換える。ステップS1406の処理を実行した後に、本操作発生コマンド対応処理を終了する。 In step S1406, the display mode counter is updated so that the display mode is sequentially switched according to a predetermined order each time the effect operation device 48 is operated once. Specifically, when the process of step S1406 is executed in a situation where the display mode counter is “0” and the first display mode is set, the second display mode counter is set to “1”. When the process of step S1406 is executed in the situation where the display mode counter is "1" and the second display mode is set while switching to the display mode, the display mode counter is set to "1". 1 Switch to display mode. After the processing of step S1406 is executed, the processing corresponding to this operation generation command is ended.

次に、表示CPU131にて実行される表示モード背景用の演算処理について、図24のフローチャートを参照しながら説明する。表示モード背景用の演算処理は、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。なお、大当たり演出を実行する場合などには表示モードに対応した背景画像は表示されないため表示モード背景用の演算処理は実行されず、待機画像を表示する場合や遊技回用の演出を実行する場合などに表示モード背景用の演算処理が実行される。 Next, the calculation processing for the display mode background executed by the display CPU 131 will be described with reference to the flowchart of FIG. The display mode background calculation process is executed in the background calculation process of step S903 in the task process (FIG. 14). In addition, when performing a jackpot effect, the background image corresponding to the display mode is not displayed, so the calculation processing for the display mode background is not executed, and when the standby image is displayed or when the game time effect is executed. For example, the calculation processing for the display mode background is executed.

先ずステップS1501では、ワークRAM132に設けられた表示モード用のカウンタを参照し、第1表示モードであるか否かを判定する。第1表示モードである場合には、ステップS1502にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第1最背面画像を把握する。続くステップS1503では、その把握した第1最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1504にて、現状設定されているデータテーブルに基づいて、第1表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1505では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 First, in step S1501, the display mode counter provided in the work RAM 132 is referenced to determine whether or not the display mode is the first display mode. In the case of the first display mode, in step S1502, the first rearmost image to be updated this time is grasped based on the currently set data table. In the following step S1503, various parameters of the grasped first rearmost image are calculated to update the control information. In subsequent step S1504, an object corresponding to the first display mode, which is an object to be updated for the background, is grasped based on the currently set data table. In subsequent step S1505, various parameters of the grasped object are calculated to update the control information.

一方、第2表示モードである場合には、ステップS1506にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第2最背面画像を把握する。続くステップS1507では、その把握した第2最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1508にて、現状設定されているデータテーブルに基づいて、第2表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1509では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 On the other hand, in the case of the second display mode, in step S1506, the second rearmost image to be updated this time is grasped based on the currently set data table. In subsequent step S1507, various parameters of the grasped second backmost image are calculated to update the control information. In the following step S1508, the object corresponding to the second display mode, which is the object to be updated for the background, is grasped based on the currently set data table. In subsequent step S1509, various parameters of the grasped object are calculated to update the control information.

なお、ステップS1502の処理の実行タイミングでは、第1最背面画像及び第1表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。また、ステップS1506の処理の実行タイミングでは、第2最背面画像及び第2表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。 At the execution timing of the process of step S1502, the control start setting process (step S901) for the first background image and the background object corresponding to the first display mode is completed. At the execution timing of the process of step S1506, the control start setting process (step S901) for the second background image and the background object corresponding to the second display mode is completed.

ステップS1505又はステップS1509の処理を実行した後は、ステップS1510にて、ワークRAM132に第1切換実行フラグ又は第2切換実行フラグのいずれかがセットされているか否かを判定する。いずれかの切換実行フラグがセットされている場合には、ステップS1511にて、処理負荷の大きい状況であるか否かを判定する。 After executing the processing of step S1505 or step S1509, it is determined in step S1510 whether the first switching execution flag or the second switching execution flag is set in the work RAM 132. If any of the switching execution flags is set, it is determined in step S1511 whether the processing load is large.

処理負荷の大きい状況とは、今回の描画リストに指定された画像データに対するジオメトリ演算及びレンダリングの両方がVDP135にて実行される場合に、処理落ちが発生する程度にVDP135の処理負荷が大きい又は処理落ちが発生しないまでもVDP135の処理負荷が比較的大きい状況のことをいう。なお、処理負荷の大きい状況か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1511の判定を行う。 The situation where the processing load is large means that when the geometry calculation and the rendering for the image data specified in the rendering list this time are both executed by the VDP 135, the processing load of the VDP 135 is large or the processing load is high enough to cause processing loss. This is a situation in which the processing load on the VDP 135 is relatively large even before the drop occurs. Information regarding whether or not the processing load is large is defined in the data table, and the determination in step S1511 is performed based on the information.

処理負荷の大きい状況ではない場合には、ステップS1512にて、今回の表示モードに対応した背景画像は別保存済みであるか否かを判定する。ここで、別保存とは、各表示モードに対応した背景画像を表示させるための背景用の描画データを個別に保存するとともにその保存している状態を維持することである。別保存に際しては、VRAM134に設けられたモード用バッファ145が用いられる(図4を参照)。 When the processing load is not large, it is determined in step S1512 whether or not the background image corresponding to the current display mode has been separately saved. Here, the separate storage means that the drawing data for the background for displaying the background image corresponding to each display mode is individually saved and the saved state is maintained. For another storage, the mode buffer 145 provided in the VRAM 134 is used (see FIG. 4).

モード用バッファ145には、第1表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第1モード用領域145aと、第2表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第2モード用領域145bと、が設けられている。また、VDP135には、背景用の描画データを第1モード用領域145a及び第2モード用領域145bのいずれかへ書き込む機能と、その書き込まれた背景用の描画データを読み出してスクリーン用バッファ144に書き込む機能と、を有する表示モード制御部154を備えている。 In the mode buffer 145, in order to display the first mode area 145a in which drawing data for the background for displaying the background image corresponding to the first display mode and the background image corresponding to the second display mode are displayed. A second mode area 145b in which drawing data for the background is written. Further, the VDP 135 has a function of writing the drawing data for the background into either the first mode area 145a or the second mode area 145b, and reading the written background drawing data into the screen buffer 144. A display mode control unit 154 having a writing function is provided.

別保存済みではない場合にはステップS1513にて別保存の実行指定情報を記憶した後に、本演算処理を終了し、別保存済みである場合にはそのまま本演算処理を終了する。 If it has not been separately saved, the execution designation information of separately saved is stored in step S1513, and then this operation processing is ended. If it is already saved separately, this operation processing is ended as it is.

上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1513の処理が実行されている場合には別保存の実行指定情報が設定される。別保存の実行指定情報には、別保存を実行すべきことを示す情報が含まれているとともに、別保存先のアドレスの情報も含まれている。 When the calculation processing for the display mode background is executed as described above, the drawing list created by the subsequent drawing list output processing includes the background display corresponding to either the first display mode or the second display mode. The information of the instruction to use the image data is set. If the process of step S1513 is being executed, the separately designated execution designation information is set. The separately-storing execution designation information includes information indicating that the separately-storing should be executed, and also includes information on the address of the separately-storing destination.

一方、処理負荷の大きい状況である場合(ステップS1511:YES)には、ステップS1514にて、切換先の表示モードの背景画像が別保存済みであるか否かを判定する。別保存済みではない場合にはそのまま本演算処理を終了する。一方、別保存済みである場合にはステップS1515にて別保存データの使用指定情報を記憶した後に、本演算処理を終了する。 On the other hand, when the processing load is large (step S1511: YES), it is determined in step S1514 whether the background image of the display mode of the switching destination has been separately saved. If it has not been stored separately, this operation processing is ended as it is. On the other hand, if it has already been stored separately, in step S1515, the use designation information of the separately stored data is stored, and then the present arithmetic processing ends.

上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード及び第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1515の処理が実行されている場合には別保存データの使用指定情報が設定される。別保存データの使用指定情報には、別保存データを使用すべきことを示す情報が含まれているとともに、その別保存データが保存されているアドレスの情報も含まれている。 When the calculation processing for the display mode background is executed as described above, the drawing list created by the subsequent drawing list output processing includes the background display corresponding to either the first display mode or the second display mode. The information of the instruction to use the image data is set. If the process of step S1515 is being executed, the use designation information of the separate storage data is set. The separate storage data use designation information includes information indicating that the separate storage data should be used, and also includes information on the address where the separate storage data is stored.

次に、表示CPU131にて実行される図柄用演算処理について、図25のフローチャートを参照しながら説明する。図柄用演算処理はタスク処理(図14)のステップS905にて実行される。 Next, the symbol calculation process executed by the display CPU 131 will be described with reference to the flowchart of FIG. The symbol calculation process is executed in step S905 of the task process (FIG. 14).

先ずステップS1601では、現状設定されているデータテーブルに基づいて、図柄について制御更新用の処理を実行する必要があるか否かを判定する。実行する必要がない場合として大当たり演出を実行している場合が含まれ、実行する必要がある場合として遊技回用の演出を実行している場合及び待機画像を表示している場合が含まれる。実行する必要がない場合にはそのまま本図柄用演算処理を終了し、実行する必要がある場合にはステップS1602にて、現状設定されているデータテーブルに基づいて、遊技回の実行中であるか否かを判定する。 First, in step S1601, based on the currently set data table, it is determined whether or not it is necessary to execute the control update process for the symbol. The case where the jackpot effect is executed is included as a case where it is not necessary to execute, and the case where the effect for game play is executed and the case where the standby image is displayed are included as a case where it is necessary to execute. When it is not necessary to execute, the symbol calculation process is terminated as it is, and when it is necessary to execute, in step S1602, based on the currently set data table, is the game time being executed? Determine whether or not.

遊技回の実行中でない場合には、ステップS1603にて、ワークRAM132に第1切換実行フラグがセットされているか否かを判定する。第1切換実行フラグがセットされている場合には、ステップS1604にて、制御対象の図柄を切換先の表示モードに対応させて変更する。具体的には、ワークRAM132において図柄の制御を行う上で確保されている各空きバッファ領域のパラメータ用の情報はそのまま保持させながら、制御対象の図柄の情報(例えば記憶されているアドレスの情報)のみを切換先の表示モードに対応した情報に書き換える。なお、ステップS1603及びステップS1604の処理が、タスク処理(図14)における制御開始用の設定処理(ステップS901)にて実行される構成としてもよい。また、ステップS1603にて肯定判定をした場合に第1切換実行フラグをクリアする。 If the game game is not being executed, it is determined in step S1603 whether or not the first switching execution flag is set in the work RAM 132. If the first switching execution flag is set, in step S1604, the symbol to be controlled is changed corresponding to the display mode of the switching destination. Specifically, while holding the information for the parameters of each free buffer area secured for controlling the symbols in the work RAM 132, the information of the symbols to be controlled (for example, the information of the stored addresses) Rewrite only the information corresponding to the display mode of the switching destination. The processing of steps S1603 and S1604 may be configured to be executed by the control start setting processing (step S901) in the task processing (FIG. 14). In addition, when the affirmative determination is made in step S1603, the first switching execution flag is cleared.

ステップS1603にて否定判定をした場合又はステップS1604の処理を実行した場合は、ステップS1605に進む。ステップS1605では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1606にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。 If a negative determination is made in step S1603 or the processing of step S1604 is executed, the process proceeds to step S1605. In step S1605, the object of the symbol to be controlled is grasped based on the currently set data table, and in the following step S1606, various parameters of the object are calculated and updated. After that, the calculation process for this symbol ends.

上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した図柄用の画像データの使用指示の情報が設定される。 When the symbol calculation process is executed as described above, in the drawing list created in the subsequent drawing list output process, the image data for the pattern corresponding to either the first display mode or the second display mode. Information of the usage instruction of is set.

遊技回の実行中である場合(ステップS1602:YES)には、ステップS1607にて、現状設定されているデータテーブルに基づいて、全図柄列SA1〜SA3において高速変動表示中であるか否かを判定する。全図柄列SA1〜SA3において高速変動表示中である場合には、ステップS1608にて、ワークRAM132に第2切換実行フラグがセットされているか否かを判定する。 When the game times are being executed (step S1602: YES), in step S1607, based on the currently set data table, whether or not high speed fluctuation display is being performed in all the symbol columns SA1 to SA3. judge. When the high speed fluctuation display is being performed in all the symbol columns SA1 to SA3, it is determined in step S1608 whether or not the second switching execution flag is set in the work RAM 132.

第2切換実行フラグがセットされている場合には、ステップS1609にて、制御対象の図柄を切換先の表示モードに対応させて変更させることが可能であるか否かを判定する。これは今回の描画リストに対応した描画処理(図16)がVDP135にて実行される場合に、制御対象の図柄を切換先の表示モードに対応させて変更させようとすると、処理落ちが発生するか否かを基準として、処理落ちが発生しないのであれば変更させることが可能となり、処理落ちが発生するのであれば変更させることが不可であると判定される。 If the second switching execution flag is set, it is determined in step S1609 whether or not the symbol to be controlled can be changed corresponding to the display mode of the switching destination. This is because when the drawing process (FIG. 16) corresponding to the drawing list this time is executed by the VDP 135 and the pattern to be controlled is changed in accordance with the display mode of the switching destination, a process omission occurs. Based on whether or not the processing omission occurs, it can be changed, and if the processing omission occurs, it is determined that the change cannot be performed.

例えば、今回の描画リストにおいて表示モードの切換に対応した背景用の画像データが新たに設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じるため、VDP135の処理負荷を大きくなる。したがって、この場合は、図柄を変更させることが不可であると判定される。一方、今回の描画リストにおいて背景用の画像データとして別保存データが設定されている場合、又は前回の描画リストに係る表示モードと同一の表示モードに対応した背景用の画像データが設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じないため、VDP135の処理負荷は比較的小さくなる。したがって、この場合は、図柄を変更させることが可能であると判定される。 For example, when the background image data corresponding to the display mode switching is newly set in the drawing list this time, it is necessary to newly set the image data in the world coordinate system in the VDP 135. The processing load on the VDP 135 increases. Therefore, in this case, it is determined that the symbol cannot be changed. On the other hand, when another saved data is set as the image data for the background in the drawing list this time, or when the image data for the background corresponding to the same display mode as the display mode related to the previous drawing list is set. Therefore, it is not necessary to newly set the image data in the world coordinate system in the VDP 135, so that the processing load of the VDP 135 becomes relatively small. Therefore, in this case, it is determined that the design can be changed.

なお、変更させることが可能か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1609の判定を行う。また、ステップS1608にて肯定判定をした場合に第2切換実行フラグをクリアする。 It should be noted that the information as to whether or not it can be changed is defined in the data table, and the determination in step S1609 is performed based on that information. In addition, when the affirmative determination is made in step S1608, the second switching execution flag is cleared.

ステップS1609にて、変更させることが可能であると判定した場合には、ステップS1610にて、制御対象の図柄を切換先の表示モードに対応させて変更する。この処理の具体的な内容は、ステップS1604と同様である。ステップS1610の処理を実行した後はステップS1613に進む。 When it is determined in step S1609 that the pattern can be changed, the symbol to be controlled is changed in step S1610 in accordance with the display mode of the switching destination. The specific content of this processing is the same as in step S1604. After executing the processing of step S1610, the process proceeds to step S1613.

一方、ステップS1609にて、変更させることが可能ではないと判定した場合には、ステップS1611にて、ワークRAM132に設けられた所定のエリアに対して変更待機フラグをセットした後に、ステップS1613に進む。変更待機フラグは、制御対象の図柄の変更が待機されていることを表示CPU131にて特定するためのフラグである。変更待機フラグがセットされている場合には、ステップS1608にて、第2切換実行フラグがセットされていないと判定されたとしても、ステップS1612の処理が実行されることで、ステップS1609の処理が実行される。なお、第2切換実行フラグ及び変更待機フラグの両方がセットされていない場合には、そのままステップS1613に進む。また、変更待機フラグはステップS1612にて肯定判定をした際にクリアされる。 On the other hand, if it is determined in step S1609 that the change is not possible, the change standby flag is set for a predetermined area provided in the work RAM 132 in step S1611, and then the process proceeds to step S1613. .. The change standby flag is a flag for the display CPU 131 to specify that the change of the symbol to be controlled is waiting. When the change standby flag is set, even if it is determined in step S1608 that the second switching execution flag is not set, the process of step S1612 is executed, and thus the process of step S1609 is executed. Executed. If neither the second switching execution flag nor the change standby flag is set, the process directly proceeds to step S1613. Further, the change standby flag is cleared when a positive determination is made in step S1612.

ステップS1613では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1614にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。 In step S1613, the object of the symbol to be controlled is grasped based on the currently set data table, and in the following step S1614, various parameters of the object are calculated and updated. After that, the calculation process for this symbol ends.

上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。この場合に、ステップS1609にて、切換先の表示モードに対応した図柄に変更させることができないと判定した場合には、切換元の表示モードに対応した図柄の画像データの使用指示の情報がそのまま描画リストに設定される。そうすると、最終的に表示モードに対応しない図柄が表示面Gに表示されることとなるが、第2切換実行フラグがセットされるタイミングは高速変動表示中であるため、遊技者は上記の状態を認識することができない又は認識しづらい。 When the symbol calculation process is executed as described above, in the drawing list created in the subsequent drawing list output process, the instruction to use the image data for the pattern corresponding to the first display mode or the second display mode is given. Information is set. In this case, when it is determined in step S1609 that the design corresponding to the display mode of the switching destination cannot be changed, the information of the instruction to use the image data of the design corresponding to the display mode of the switching source remains unchanged. It is set in the drawing list. Then, finally, a symbol that does not correspond to the display mode will be displayed on the display surface G, but since the timing at which the second switching execution flag is set is the high speed variable display, the player changes the above state. Cannot be recognized or difficult to recognize.

また、切換先の表示モードに対応した図柄に変更させることができない場合には、変更待機フラグがセットされて、その後の処理回で変更が行われる。これにより、VDP135において処理落ちを発生させないようにしつつ、表示モードの切換を良好に行うことができる。なお、高速変動表示が行われている範囲で、切換先の表示モードに対応した図柄の変更が行われるように、VDP135の処理負荷が調整されている。 If the symbol corresponding to the display mode of the switching destination cannot be changed, the change standby flag is set, and the change is performed in the subsequent processing times. As a result, it is possible to favorably switch the display mode while preventing the processing drop in the VDP 135. The processing load of the VDP 135 is adjusted so that the design corresponding to the display mode of the switching destination is changed within the range where the high-speed variable display is being performed.

高速変動表示中ではない場合(ステップS1607:NO)には、ステップS1615に進む。ステップS1615では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1616にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。 When the high speed fluctuation display is not being performed (step S1607: NO), the process proceeds to step S1615. In step S1615, the object of the symbol to be controlled is grasped based on the currently set data table, and in step S1616, various parameters of the object are calculated and updated. After that, the calculation process for this symbol ends. When the symbol calculation process is executed as described above, in the drawing list created in the subsequent drawing list output process, the instruction to use the image data for the pattern corresponding to the first display mode or the second display mode is given. Information is set.

次に、VDP135にて実行される背景用の設定処理を、図26のフローチャートを参照しながら説明する。なお、背景用の設定処理は、描画処理(図16)におけるステップS1002にて実行される。 Next, the background setting process executed by the VDP 135 will be described with reference to the flowchart of FIG. The background setting process is executed in step S1002 in the drawing process (FIG. 16).

先ずステップS1701では、今回の描画リストにおいて別保存データの使用指定が設定されているか否かを判定する。設定されている場合には、ステップS1702にて、その指定に対応した別保存データを背景用の描画データとして設定するための情報をレジスタ153に記憶させる。 First, in step S1701, it is determined whether or not the use designation of separate saved data is set in the drawing list this time. If set, in step S1702, the register 153 stores information for setting the separately stored data corresponding to the designation as background drawing data.

設定されていない場合(ステップS1701:NO)又はステップS1702の処理を実行した後は、ステップS1703に進む。ステップS1703では、今回の描画リストに指定されている最背面画像を把握するとともに、ステップS1704にて、その最背面画像について指定されている各種パラメータを把握する。その後、ステップS1705にて、その最背面画像について、ワールド座標系への設定処理を実行する。この設定に係る内容は、既に説明したとおりである。 If not set (step S1701: NO) or after executing the process of step S1702, the process proceeds to step S1703. In step S1703, the rearmost image specified in the current drawing list is grasped, and in step S1704, various parameters specified for the rearmost image are grasped. After that, in step S1705, the setting process to the world coordinate system is executed for the rearmost image. The contents related to this setting are as already described.

続くステップS1706では、今回の描画リストに指定されている背景用のオブジェクトを把握するとともに、ステップS1707にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS1708にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本背景用の設定処理を終了する。 In the following step S1706, the background object designated in the current drawing list is grasped, and in step S1707, various parameters designated for the object are grasped. Then, in step S1708, the setting process for the world coordinate system is executed for the object, and then the setting process for the background is ended.

上記のように背景用の設定処理が実行されることにより、別保存データの使用指定が設定されていない状況だけでなく、別保存データの使用指定が設定されている状況であっても、描画リストにて指定されている画像データをワールド座標系に設定することができる。そして、これに伴って、例えば今回の描画リストが表示モードの切換に係るものである場合には、切換先の表示モードに対応した画像データの制御開始用の設定を行うことができる。 By performing the setting process for the background as described above, it is possible to draw not only in the situation where the use specification of separate save data is not set, but also in the situation where the use specification of separate save data is set. The image data specified in the list can be set in the world coordinate system. Along with this, for example, when the drawing list this time relates to the switching of the display mode, the setting for starting the control of the image data corresponding to the display mode of the switching destination can be performed.

次に、VDP135にて実行される背景用の描画データ作成処理を、図27のフローチャートを参照しながら説明する。なお、背景用の描画データ作成処理は、描画処理(図16)におけるステップS1010にて実行される。 Next, the background drawing data creation processing executed by the VDP 135 will be described with reference to the flowchart of FIG. The background drawing data creation process is executed in step S1010 in the drawing process (FIG. 16).

先ずステップS1801では、レジスタ153に別保存データの使用設定の情報がセットされているか否かを判定する。セットされていない場合には、ステップS1802にて、隠面処理を実行して、スクリーン用バッファ144に背景用の描画データを作成する。隠面処理については、既に説明したとおりである。 First, in step S1801, it is determined whether or not the information on the use setting of the separate storage data is set in the register 153. If not set, the hidden surface processing is executed in step S1802 to create background drawing data in the screen buffer 144. The hidden surface treatment has already been described.

続くステップS1803では、今回の描画リストにおいて別保存の実行指定が設定されているか否かを判定する。設定されていない場合には、そのまま本描画データ作成処理を終了する。設定されている場合には、ステップS1804にて、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち対象となるモード用領域へ、ステップS1802にて作成された背景用の描画データを書き込む。これにより、背景用の描画データの別保存が行われる。その後に、本描画データ作成処理を終了する。 In a succeeding step S1803, it is determined whether or not a separate save execution designation is set in the drawing list this time. If it has not been set, this drawing data creation processing is terminated. If set, in step S1804, the target mode area of the first mode area 145a and the second mode area 145b of the mode buffer 145 is set to the background mode created in step S1802. Write the drawing data of. As a result, the drawing data for the background is separately stored. After that, the main drawing data creation process ends.

一方、ステップS1801にて、レジスタ153に別保存データの使用設定の情報がセットされている場合には、ステップS1805に進む。ステップS1805では、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち、今回指定されているモード用領域から別保存データを読み出し、その読み出した別保存データを、今回の背景用の描画データとして、スクリーン用バッファ144に書き込む。その後に、本描画データ作成処理を終了する。 On the other hand, if it is determined in step S1801 that the use setting information of the separate storage data is set in the register 153, the process proceeds to step S1805. In step S1805, the separate save data is read from the mode area specified this time among the first mode area 145a and the second mode area 145b of the mode buffer 145, and the read separate save data is read as the current save data. The drawing data for the background is written in the screen buffer 144. After that, the main drawing data creation process ends.

上記のように背景用の描画データ作成処理が実行されることにより、ジオメトリ演算及びレンダリングを通じた背景用の描画データ、又は別保存データに係る背景用の描画データがスクリーン用バッファ144に格納される。また、各表示モードに対応した画像が表示されるフレームにおいては、その後に演出及び図柄用の描画データ作成処理(ステップS1011)が実行されて、演出及び図柄用の描画データが作成されるとともに、描画データ合成処理(ステップS1012)が実行されて、1フレーム分の描画データが作成される。 By executing the background drawing data creation processing as described above, the background drawing data through the geometry calculation and rendering, or the background drawing data related to the separately stored data is stored in the screen buffer 144. .. Further, in the frame in which the image corresponding to each display mode is displayed, the rendering data for the effect and the design (step S1011) is executed thereafter, and the rendering data for the effect and the symbol is created, The drawing data composition process (step S1012) is executed to create drawing data for one frame.

ここで、第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを、図28のタイミングチャートを参照しながら説明する。 Here, the timing at which the separately stored data for the first display mode and the separately stored data for the second display mode are created will be described with reference to the timing chart of FIG. 28.

図28(A)は第1表示モードに対応した背景用の描画データPD1を示し、図28(B)は第2表示モードに対応した背景用の描画データPD2を示す。また、図28(a)はパチンコ機10の電源のON/OFFの状態を示し、図28(b)は第1表示モードの有無を示し、図28(c)は第2表示モードの有無を示し、図28(d)は第1表示モード用の別保存データの有無を示し、図28(e)は第2表示モード用の別保存データの有無を示す。 FIG. 28(A) shows background drawing data PD1 corresponding to the first display mode, and FIG. 28(B) shows background drawing data PD2 corresponding to the second display mode. 28A shows the ON/OFF state of the power of the pachinko machine 10, FIG. 28B shows the presence/absence of the first display mode, and FIG. 28C shows the presence/absence of the second display mode. 28(d) shows the presence/absence of separate storage data for the first display mode, and FIG. 28(e) shows the presence/absence of separate storage data for the second display mode.

t1のタイミングでパチンコ機10の電源がON操作されることで、表示CPU131への電力供給が開始され、表示CPU131にて処理が開始される。また、表示モードは第1表示モードに設定されているため、t1のタイミングよりも後のタイミングで、第1表示モードに対応した画像を表示させるために、描画リストが表示CPU131からVDP135に出力され、さらにその描画リストに基づきVDP135にて第1表示モードに対応した描画データの作成が開始される。 When the power of the pachinko machine 10 is turned on at the timing of t1, power supply to the display CPU 131 is started, and the processing is started by the display CPU 131. Since the display mode is set to the first display mode, the drawing list is output from the display CPU 131 to the VDP 135 in order to display the image corresponding to the first display mode at a timing after the timing of t1. Then, based on the drawing list, the VDP 135 starts to create drawing data corresponding to the first display mode.

その後、t2のタイミングで、第1表示モードに対応した背景用の描画データPD1の作成が完了することで、その描画データが第1表示モード用の別保存データとしてモード用バッファ145の第1モード用領域145aに記憶される。この第1表示モードに対応した背景用の描画データPD1による背景画像では、図28(A)に示すように、最背面画像の手前にて「A」〜「F」にて示す3次元のキャラクタ画像が表示される。また、第1モード用領域145aに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。また、t2のタイミング又はその後の所定のタイミングで、第1表示モードに対応した画像の表示が開始される。 After that, at the timing of t2, the drawing data PD1 for the background corresponding to the first display mode is completed, so that the drawing data is stored in the first mode of the mode buffer 145 as separate storage data for the first display mode. It is stored in the usage area 145a. In the background image based on the background drawing data PD1 corresponding to the first display mode, as shown in FIG. 28A, the three-dimensional characters indicated by "A" to "F" in front of the rearmost image. The image is displayed. Further, the separate storage data stored in the first mode area 145a is stored and held while the power supply to the VRAM 134 is continued. Further, the display of the image corresponding to the first display mode is started at the timing of t2 or a predetermined timing thereafter.

その後、t3のタイミングで演出用操作装置48が操作されることに基づき、表示モードが第1表示モードから第2表示モードに切り換えられる。そして、第2表示モード用の描画データが作成され、第2表示モードに対応した画像の表示が開始される。また、当該タイミングにおいて第2表示モードに対応した背景用の描画データPD2の作成が完了するため、その描画データが第2表示モード用の別保存データとしてモード用バッファ145の第2モード用領域145bに記憶される。この第2表示モードに対応した背景用の描画データPD2による背景画像では、図28(B)に示すように、最背面画像の手前にて「G」〜「J」にて示す3次元のキャラクタ画像が表示される。また、第2モード用領域145bに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。 After that, the display mode is switched from the first display mode to the second display mode based on the effect operating device 48 being operated at the timing of t3. Then, the drawing data for the second display mode is created, and the display of the image corresponding to the second display mode is started. In addition, since the drawing data PD2 for the background corresponding to the second display mode is completed at the timing, the drawing data is stored as the separate storage data for the second display mode in the second mode area 145b of the mode buffer 145. Memorized in. In the background image based on the background drawing data PD2 corresponding to the second display mode, as shown in FIG. 28B, the three-dimensional characters indicated by "G" to "J" in front of the rearmost image. The image is displayed. Further, the separate storage data stored in the second mode area 145b is stored and held while the power supply to the VRAM 134 is continued.

ここで、第1表示モードに対応した背景用の描画データPD1は、第2表示モードに対応した背景用の描画データPD2に比べて、設定されるオブジェクトの数が多い。そうすると、第2表示モードから第1表示モードの切換がVDP135の処理負荷の大きい状況で行われると、VDP135にて処理落ちが発生してしまうことが懸念される。これに対して、両別保存データのうち、第1表示モード用の別保存データを電源立ち上げ時の初期設定が行われている時間を利用して作成しておくことで、処理負荷の大きい状況で表示モードが第1表示モードに切り換えられた場合には、その別保存データを利用して処理落ちを回避することができる。 Here, the number of objects to be set in the background drawing data PD1 corresponding to the first display mode is larger than that of the background drawing data PD2 corresponding to the second display mode. Then, if the switching from the second display mode to the first display mode is performed in a situation where the processing load on the VDP 135 is large, there is a concern that the VDP 135 may drop processing. On the other hand, the processing load is large because the separate storage data for the first display mode, out of the separate storage data for both, is created by using the time during which the initial setting is performed when the power is turned on. When the display mode is switched to the first display mode under some circumstances, the processing error can be avoided by using the separately stored data.

一方、第2表示モードに対応した背景用の描画データPD2は、その作成にかかるVDP135の処理負荷が小さく、VDP135の処理負荷の大きい状況で第2表示モードへの切換が行われたとしても、処理落ちが発生しないように設定されている。但し、第2表示モードに対応した背景用の描画データPD2についても別保存は行われ、処理落ちが発生しないまでも比較的処理負荷が大きい状況で第2表示モードへの切換が行われた場合には、その別保存データが利用される。 On the other hand, the background drawing data PD2 corresponding to the second display mode has a small processing load on the VDP 135 for creating the background drawing data PD2, and is switched to the second display mode even when the processing load on the VDP 135 is large. It is set to prevent processing omissions. However, when the drawing data PD2 for the background corresponding to the second display mode is also separately stored, and the processing load is relatively large even if the processing omission does not occur, the switching to the second display mode is performed. , The separately stored data is used.

上記のように別保存データが作成されることで、t4〜t9のタイミングで示すように、表示モードの切換が短時間で繰り返し実行された場合などには、それぞれの表示モードにおいて別保存データを利用して背景用の画像を表示することで、処理落ちの発生を阻止することができる。 By creating the separate save data as described above, as shown in the timings of t4 to t9, when the display mode switching is repeatedly executed in a short time, the separate save data is created in each display mode. By displaying the image for the background by utilizing it, it is possible to prevent the occurrence of processing omission.

また、別保存の対象は背景画像であり、図柄といった変動が注目される個別画像は含まれない。これにより、個別画像が変動している状況で表示モードの切換が行われた場合に、別保存データを使用した画像の表示を行ったとしても、変動が注目される個別画像の動きは継続されるため、遊技者が違和感を抱きづらくなる。 In addition, the target of separate storage is the background image, and does not include individual images for which variations such as designs are noticeable. As a result, when the display mode is switched in a situation where the individual image is fluctuating, even if the image is displayed using the separately saved data, the movement of the individual image in which the fluctuation is noticed is continued. Therefore, it is difficult for the player to feel uncomfortable.

なお、表示モードは2段階に限定されることはなく、3段階又は4段階以上設定されていてもよい。この場合であっても、各表示モードに対応した背景用の描画データを別保存しておくことで、表示モードの切換を良好に行うことができる。 The display mode is not limited to two stages, and may be set in three stages or four or more stages. Even in this case, it is possible to favorably switch the display mode by separately storing the drawing data for the background corresponding to each display mode.

また、表示モードの切換タイミングがいずれであっても、図柄の種類の切換が待機されることなく行われる構成としてもよい。また、図柄は表示モード間で相違しない構成としてもよい。 Further, it may be configured such that the switching of the symbol type is performed without waiting, regardless of the display mode switching timing. In addition, the design may be different between the display modes.

また、演出用のキャラクタも表示モードに依存して切り換わる構成としてもよい。この場合、演出用のキャラクタは別保存の対象ではない構成としてもよく、別保存の対象である構成としてもよい。 Further, the effect character may be switched depending on the display mode. In this case, the effect character may not be a target of separate storage, or may be a target of separate storage.

<連結オブジェクトを用いて3次元画像を表示するための構成>
次に、連結オブジェクトを用いて3次元画像を表示するための構成について説明する。
<Structure for displaying three-dimensional image using connected object>
Next, a configuration for displaying a three-dimensional image using a connected object will be described.

連結オブジェクトは、複数の部品オブジェクト(部分オブジェクト)が連結部を関節として連結された一単位のオブジェクトであり、各部品オブジェクトを相対的に変位させることで3次元画像のキャラクタに動きを与えるために設定されている。連結オブジェクトを用いることにより、3次元画像のキャラクタをスムーズに動作させることができる。なお、連結オブジェクトが骨格部と関節部とを有していることに鑑みれば、ボーンモデルと称することもできる。 The connected object is a unit of objects in which a plurality of part objects (partial objects) are connected with a connecting portion as a joint, and in order to give a motion to a character of a three-dimensional image by relatively displacing each part object. It is set. By using the connected object, the character of the three-dimensional image can be smoothly moved. In addition, considering that the connected object has a skeleton portion and a joint portion, it can be referred to as a bone model.

連結オブジェクトは、所定の動作を行うキャラクタを表示するために設定されている。ここで、本実施形態では、共通のキャラクタを表示するための連結オブジェクトが複数種類設定されている。この複数種類の連結オブジェクトについて、図29を参照しながら説明する。 The connected object is set to display a character performing a predetermined action. Here, in this embodiment, a plurality of types of connected objects for displaying a common character are set. The plurality of types of connected objects will be described with reference to FIG.

図29(a),(b)に示すように、共通のキャラクタを表示するために、第1の連結オブジェクトPC15と、第2の連結オブジェクトPC16とが設定されている。これら第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16はそれぞれ複数の連結部CT1,CT2を有しているが、相互に異なる箇所に連結部CT1,CT2が設定されている。 As shown in FIGS. 29A and 29B, a first connected object PC15 and a second connected object PC16 are set in order to display a common character. Each of the first connected object PC15 and the second connected object PC16 has a plurality of connected portions CT1 and CT2, but the connected portions CT1 and CT2 are set at mutually different positions.

具体的には、第1の連結オブジェクトPC15は膝部分に連結部が設けられていないが、肘部分に連結部CT1が設けられており、図29(a―1),(a―2)に示すような動作の表示が可能となっている。一方、第2の連結オブジェクトPC16は肘部分に連結部が設けられていないが、膝部分に連結部CT2が設けられており、図29(b―1),(b―2)に示すような動作の表示が可能となっている。上記のように異なる箇所に連結部が設定されていることにより、第1の連結オブジェクトPC15を使用した場合と第2の連結オブジェクトPC16を使用した場合とで、キャラクタに異なる動作をさせることが可能となる。 Specifically, the first connected object PC15 does not have a connecting portion at the knee portion, but has a connecting portion CT1 at the elbow portion, as shown in FIGS. 29(a-1) and (a-2). It is possible to display the operation as shown. On the other hand, the second connected object PC16 does not have a connecting portion at the elbow portion, but has a connecting portion CT2 at the knee portion, as shown in FIGS. 29(b-1) and (b-2). The operation can be displayed. By setting the connecting parts at different positions as described above, it is possible to make the character perform different actions depending on whether the first connected object PC15 is used or the second connected object PC16 is used. Becomes

なお、両連結オブジェクトPC15,PC16は共通する箇所に連結部CT1,CT2を有しているが、共通する箇所に連結部CT1,CT2を有していない構成としてもよい。また、両連結オブジェクトPC15,PC16に対しては共通のテクスチャがマッピングされるが、それぞれ個別にテクスチャが設定されている構成としてもよい。複数の連結オブジェクトPC15,PC16を用意しておくことでキャラクタに異なる動作をさせることが可能であれば、連結部CT1,CT2の位置やキャラクタの種類は任意である。 Note that the two connected objects PC15 and PC16 have the connecting portions CT1 and CT2 at the common location, but may have a configuration that does not have the connecting portions CT1 and CT2 at the common location. Further, although a common texture is mapped to both connected objects PC15 and PC16, the texture may be set individually for each. The positions of the connecting portions CT1 and CT2 and the types of the characters are arbitrary as long as it is possible to make the character perform different actions by preparing a plurality of connecting objects PC15 and PC16.

以下、上記両連結オブジェクトPC15,PC16を用いてキャラクタが動作している様子を表示するための具体的な処理構成を説明する。 Hereinafter, a specific processing configuration for displaying a state in which a character is moving using the above-described connected objects PC15 and PC16 will be described.

図30は、表示CPU131にて実行される連結オブジェクト用の演算処理を示すフローチャートである。連結オブジェクト用の演算処理はタスク処理(図14)のステップS904における演出用演算処理にて実行される。また、連結オブジェクト用の演算処理は、連結オブジェクトPC15,PC16を用いた演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 30 is a flowchart showing the arithmetic processing for the connected object executed by the display CPU 131. The calculation process for the connected object is executed by the effect calculation process in step S904 of the task process (FIG. 14). In addition, the arithmetic processing for the connected object is started when the data table corresponding to the game time in which the effect using the connected objects PC15 and PC16 is executed is set.

先ずステップS1901では、現状設定されているデータテーブルに基づいて、連結オブジェクトPC15,PC16を用いた演出の実行中(上記キャラクタが表示中)であるか否かを判定する。演出の実行中ではない場合にはステップS1902にて、連結オブジェクトPC15,PC16を用いた演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS1903に進む。 First, in step S1901, it is determined based on the currently set data table whether or not the effect using the linked objects PC15 and PC16 is being executed (the character is being displayed). If the effect is not being executed, it is determined in step S1902 whether or not it is the start timing of the effect using the connected objects PC15 and PC16. If it is not the start timing, the present arithmetic processing is terminated as it is, and if it is the start timing, the process proceeds to step S1903.

ステップS1903では、連結オブジェクト演出の開始指定情報を記憶し、続くステップS1904にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。ちなみに、ステップS1904の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、両連結オブジェクトPC15,PC16に対して制御開始用の処理が完了している。また、制御が開始された両連結オブジェクトPC15,PC16の制御用の情報は、連結オブジェクトPC15,PC16を用いた今回の一連の演出が完了するまではワークRAM132に記憶保持される。 In step S1903, the start designation information of the connected object effect is stored, and in the following step S1904, the first connected object PC15 and the second connected object PC16 are grasped as control targets based on the currently set data table. To do. By the way, at the execution timing of the process of step S1904, the control start process is completed for both connected objects PC15 and PC16 in the immediately preceding control start setting process (step S901). Further, the control information of both connected objects PC15 and PC16 whose control has been started is stored and held in the work RAM 132 until the series of effects of this time using the connected objects PC15 and PC16 is completed.

続くステップS1905では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1906では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。 In subsequent step S1905, various parameters of the first connected object PC15 are calculated to update the control information related to the first connected object PC15. In step S1906, various parameters of the second connected object PC16 are calculated to update the control information related to the second connected object PC16.

続くステップS1907では、第1演出期間の指定情報を記憶する。ここで、連結オブジェクトPC15,PC16を用いた演出は、その全体の演出期間が複数種類の演出期間、具体的には第1演出期間,第2演出期間及び第3演出期間に区分けされている。そして、第1演出期間及び第3演出期間は第1の連結オブジェクトPC15を用いてキャラクタが表示され、第2演出期間は第2の連結オブジェクトPC16を用いてキャラクタが表示される。その後、ステップS1908にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。 In the following step S1907, the designation information of the first effect period is stored. Here, in the effect using the connected objects PC15 and PC16, the entire effect period is divided into a plurality of types of effect periods, specifically, a first effect period, a second effect period, and a third effect period. Then, the character is displayed using the first connected object PC15 during the first effect period and the third effect period, and the character is displayed using the second connected object PC16 during the second effect period. After that, in step S1908, the parameter of the first connected object PC15 of both connected objects PC15 and PC16 is set so as to be specified in the current drawing list.

続くステップS1909では、現状設定されているデータテーブルに基づいて、第1演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ちなみに、ステップS1909の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、今回の更新対象のオブジェクトに対して制御開始用の処理が完了している。その後、ステップS1910にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In a succeeding step S1909, another object for the first effect period and an object to be updated this time is grasped based on the currently set data table. By the way, at the execution timing of the process of step S1909, the control start process is completed for the object to be updated this time in the immediately preceding control start setting process (step S901). Thereafter, in step S1910, various parameters of the other object thus grasped are calculated to update the control information relating to these other objects, and then the present calculation processing is ended.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、連結オブジェクトPC15,PC16を用いた演出を開始させるべきことを示す連結オブジェクト演出の開始指定情報と、第1演出期間であることを示す第1演出期間の指定情報とが、描画リストに設定される。 When the arithmetic process for the connected object is executed as described above, the drawing list created by the subsequent drawing list output process is set with the information of the use instruction of both the connected objects PC15 and PC16 and The parameters of the first connected object PC15 are set for the objects PC15 and PC16. Further, the start designation information of the connected object effect indicating that the effect using the connected objects PC15 and PC16 should be started and the specification information of the first effect period indicating the first effect period are set in the drawing list. To be done.

一方、連結オブジェクトPC15,PC16を用いた演出の実行中である場合(ステップS1901:YES)には、ステップS1911にて、現状設定されているデータテーブルに基づいて、第1演出期間中であるか否かを判定する。第1演出期間中である場合には、ステップS1904〜ステップS1910の処理を実行した後に、本演算処理を終了する。ちなみに、今回は第1演出期間中であるため、当該第1演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1905にてパラメータの演算が行われる。 On the other hand, when the effect using the linked objects PC15 and PC16 is being executed (step S1901: YES), in step S1911, is it during the first effect period based on the currently set data table? Determine whether or not. In the case of the first effect period, after executing the processing of step S1904 to step S1910, the present calculation processing is ended. By the way, since this time is in the first effect period, the first connected object PC15 performs a predetermined first operation (see FIG. 29(a)) along with the progress of the first effect period. First, the parameters are calculated in step S1905.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第1演出期間であることを示す第1演出期間の指定情報が、描画リストに設定される。 When the arithmetic process for the connected object is executed as described above, the drawing list created by the subsequent drawing list output process is set with the information of the use instruction of both the connected objects PC15 and PC16 and The parameters of the first connected object PC15 are set for the objects PC15 and PC16. Further, the designation information of the first effect period indicating that it is the first effect period is set in the drawing list.

ステップS1911にて、第1演出期間中ではないと判定した場合には、ステップS1912にて、現状設定されているデータテーブルに基づいて、第2演出期間中であるか否かを判定する。第2演出期間中である場合には、ステップS1913にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。 If it is determined in step S1911 that it is not in the first effect period, it is determined in step S1912 based on the currently set data table whether or not it is in the second effect period. In the case of the second effect period, in step S1913, the first connected object PC15 and the second connected object PC16 are grasped as control targets based on the currently set data table.

続くステップS1914では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1915では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。ちなみに、今回は第2演出期間中であるため、当該第2演出期間の進行に伴って第2の連結オブジェクトPC16が予め定められた第2の動作(図29(b)を参照)をするように、ステップS1915にてパラメータの演算が行われる。 In the following step S1914, various parameters of the first connected object PC15 are calculated to update the control information related to the first connected object PC15. Further, in step S1915, various parameters of the second connected object PC16 are calculated to update the control information related to the second connected object PC16. By the way, since this time is in the second effect period, the second connected object PC16 performs a predetermined second operation (see FIG. 29(b)) along with the progress of the second effect period. In addition, parameter calculation is performed in step S1915.

続くステップS1916では、第2演出期間の指定情報を記憶し、さらにステップS1917にて、両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のパラメータが今回の描画リストにて指定されるように設定する。 In the following step S1916, the designation information of the second effect period is stored, and in step S1917, the parameter of the second linked object PC16 of both linked objects PC15, PC16 is designated in the current drawing list. Set.

続くステップS1918では、現状設定されているデータテーブルに基づいて、第2演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第2演出期間は第1演出期間よりも演出が発展した状態であり、少なくとも第1演出期間から第2演出期間への切り換えに際して表示されるオブジェクト数は増加する。第1演出期間から第2演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1918の処理の実行タイミングにおいて完了している。その後、ステップS1919にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In a succeeding step S1918, another object for the second effect period which is an object to be updated this time is grasped based on the currently set data table. Here, in the second effect period, the effect is more developed than in the first effect period, and at least the number of objects displayed when switching from the first effect period to the second effect period increases. The control start setting process (step S901) for the object increased by the change from the first effect period to the second effect period is completed at the execution timing of the process of step S1918. Then, in step S1919, the various parameters of the other object thus grasped are calculated to update the control information relating to these other objects, and then the present calculation processing is ended.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第2の連結オブジェクトPC16のパラメータが設定される。また、第2演出期間であることを示す第2演出期間の指定情報が、描画リストに設定される。 When the arithmetic process for the connected object is executed as described above, the drawing list created by the subsequent drawing list output process is set with the information of the use instruction of both the connected objects PC15 and PC16 and The parameters of the second connected object PC16 are set for the objects PC15 and PC16. Further, the designation information of the second effect period indicating that it is the second effect period is set in the drawing list.

ステップS1912にて、第2演出期間中ではないと判定した場合には、第3演出期間であることを意味するため、ステップS1920に進む。ステップS1920では、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。 If it is determined in step S1912 that it is not in the second effect period, it means that it is the third effect period, and therefore the process proceeds to step S1920. In step S1920, the first connected object PC15 and the second connected object PC16 are grasped as control targets based on the currently set data table.

続くステップS1921では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。ちなみに、今回は第3演出期間中であるため、当該第3演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1921にてパラメータの演算が行われる。また、ステップS1922では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。 In subsequent step S1921, various parameters of the first connected object PC15 are calculated to update the control information related to the first connected object PC15. By the way, since this time is in the third effect period, the first connected object PC15 performs a predetermined first operation (see FIG. 29(a)) along with the progress of the third effect period. Then, in step S1921, the parameters are calculated. Further, in step S1922, various parameters of the second connected object PC16 are calculated to update the control information related to the second connected object PC16.

続くステップS1923では、第3演出期間の指定情報を記憶し、さらにステップS1924にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。 In the following step S1923, the designation information of the third effect period is stored, and further, in step S1924, the parameter of the first coupled object PC15 of the coupled objects PC15 and PC16 is designated in the current rendering list. Set.

続くステップS1925では、現状設定されているデータテーブルに基づいて、第3演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第3演出期間は第2演出期間よりも演出が発展した状態であり、少なくとも第2演出期間から第3演出期間への切り換えに際して表示されるオブジェクト数は増加する。第2演出期間から第3演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1925の処理の実行タイミングにおいて完了している。その後、ステップS1926にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In a succeeding step S1925, another object for the third effect period, which is an object to be updated this time, is grasped based on the currently set data table. Here, in the third effect period, the effect is more developed than in the second effect period, and at least the number of objects displayed when switching from the second effect period to the third effect period increases. The control start setting process (step S901) for the increased amount of objects when switching from the second effect period to the third effect period is completed at the execution timing of the process of step S1925. Then, in step S1926, the various parameters of the other object thus grasped are calculated to update the control information relating to these other objects, and then the present calculation processing is ended.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第3演出期間であることを示す第3演出期間の指定情報が、描画リストに設定される。 When the arithmetic process for the connected object is executed as described above, the drawing list created by the subsequent drawing list output process is set with the information of the use instruction of both the connected objects PC15 and PC16 and The parameters of the first connected object PC15 are set for the objects PC15 and PC16. Also, the designation information of the third effect period indicating that it is the third effect period is set in the drawing list.

次に、VDP135にて実行される連結オブジェクト演出用の設定処理を、図31のフローチャートを参照しながら説明する。連結オブジェクト演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、連結オブジェクト演出用の設定処理は、今回の描画リストに連結オブジェクト演出の開始指定、第1演出期間乃至第3演出期間の指定のいずれかが設定されている場合に起動される。 Next, the setting process for the connected object effect executed by the VDP 135 will be described with reference to the flowchart of FIG. The setting process for the connected object effect is executed in the effect setting process of step S1003 in the drawing process (FIG. 16). Further, the setting process for the connected object effect is activated when the start designation of the connected object effect or the designation of the first effect period to the third effect period is set in the current drawing list.

先ずステップS2001では、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されているか否かを判定する。設定されている場合には、ステップS2002にて、今回の描画リストに基づいて、メモリモジュール133において第1の連結オブジェクトPC15が記憶されているアドレスを把握して、当該第1の連結オブジェクトPC15を読み出す。また、ステップS2003にて、今回の描画リストに基づいて、メモリモジュール133において第2の連結オブジェクトPC16が記憶されているアドレスを把握して、当該第2の連結オブジェクトPC16を読み出す。 First, in step S2001, it is determined whether or not the start designation of the connected object effect is set in the current drawing list. If it is set, in step S2002, the address where the first connected object PC15 is stored in the memory module 133 is grasped based on the drawing list this time, and the first connected object PC15 is set. read out. In step S2003, the address where the second connected object PC16 is stored in the memory module 133 is grasped based on the current drawing list, and the second connected object PC16 is read.

続くステップS2004では、第1演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。 In a succeeding step S2004, a uniform α value setting process for the first effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “1” that is opaque information, and the uniform α value of the second connected object PC16 is set to “0” that is completely transparent information. To do. As a result, the preset color information (including the information of the α value set to each pixel from the beginning) is applied as it is to all the pixels of the first connected object PC15, whereas The α value of “0” is uniformly applied to all the pixels of the second connected object PC16.

続くステップS2005では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2006にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the following step S2005, the parameter designated for the first connected object PC15 in the current drawing list is grasped as the parameter of both connected objects PC15 and PC16. Then, in step S2006, the setting process to the world coordinate system is executed for both connected objects PC15 and PC16.

今回は連結オブジェクト演出の開始指定に係る処理回であるため、両連結オブジェクトPC15,PC16のワールド座標系への配置を行う。また、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第1の連結オブジェクトPC15のパラメータを第2の連結オブジェクトPC16にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。 Since this time is the processing time related to the start designation of the connected object effect, both connected objects PC15 and PC16 are arranged in the world coordinate system. Further, the shapes of the two connected objects PC15 and PC16 are substantially the same, but the connected portions of the respective component objects are different. Then, even if the parameters of the first connected object PC15 are applied to the second connected object PC16 as they are, there are pixels whose coordinate designations do not match, but such pixels are subjected to predetermined adjustment on the VDP 135 side. ..

続くステップS2007では、今回の描画リストに指定されている第1演出期間用の他のオブジェクトを把握するとともに、ステップS2008にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2009にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。 In a succeeding step S2007, other objects for the first effect period designated in the drawing list this time are grasped, and in step S2008, various parameters designated for the object are grasped. After that, in step S2009, the setting process for the world coordinate system is executed for the object, and then the setting process for the effect of the connected object is ended.

上記のように連結オブジェクト演出用の設定処理が実行されることにより、ワールド座標系に対して両連結オブジェクトPC15,PC16の配置が同時に開始される。また、両連結オブジェクトPC15,PC16に対して同一のパラメータが適用されるため、ワールド座標系の同一の位置に対して両連結オブジェクトPC15,PC16が重ねて配置される。但し、ステップS2004の処理が実行されていることにより、第2の連結オブジェクトPC16はレンダリングに際して完全透明のオブジェクトとして扱われるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。 By executing the setting process for the connected object effect as described above, the arrangement of both connected objects PC15 and PC16 is started simultaneously in the world coordinate system. Further, since the same parameter is applied to both connected objects PC15 and PC16, both connected objects PC15 and PC16 are arranged so as to overlap at the same position in the world coordinate system. However, since the second connected object PC16 is treated as a completely transparent object at the time of rendering because the processing of step S2004 is executed, the first connected object PC15 of both connected objects PC15 and PC16 is displayed on the display surface G. Only PC15 is displayed.

一方、ステップS2001にて、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されていないと判定した場合には、ステップS2010に進む。ステップS2010では、今回の描画リストにおいて第1演出期間の指定が設定されているか否かを判定する。 On the other hand, if it is determined in step S2001 that the start designation of the linked object effect is not set in the current drawing list, the process proceeds to step S2010. In step S2010, it is determined whether or not the designation of the first effect period is set in the drawing list this time.

設定されている場合には、ステップS2004〜ステップS2009の処理を実行した後に、本設定処理を終了する。この場合、ステップS2006では、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。 If it is set, the process of steps S2004 to S2009 is executed, and then the present setting process is ended. In this case, in step S2006, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are grasped from information of parameters set in the drawing list in association with the first connected object PC15. Update.

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2004の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2005で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第1演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。 By executing the setting process for the connection object effect as described above, various parameters of both connection objects PC15 and PC16 are updated, but since the process of step S2004 is executed, both connection objects are displayed on the display surface G. Of the objects PC15 and PC16, only the first connected object PC15 is displayed. Further, since the parameter updated in step S2005 corresponds to the first connected object PC15, the first connection is performed so that the first operation is performed on the display surface G with the progress of the first effect period. The object PC 15 is displayed.

ステップS2010にて、今回の描画リストにおいて第1演出期間の指定が設定されていないと判定した場合には、ステップS2011に進む。ステップS2011では、今回の描画リストにおいて第2演出期間の指定が設定されているか否かを判定する。 When it is determined in step S2010 that the designation of the first effect period is not set in the current drawing list, the process proceeds to step S2011. In step S2011, it is determined whether or not the designation of the second effect period is set in the drawing list this time.

設定されている場合には、ステップS2012にて、第2演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を完全透過情報である「0」に設定するとともに、第2の連結オブジェクトPC16の一律α値を不透過情報である「1」に設定する。これにより、第2の連結オブジェクトPC16の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第1の連結オブジェクトPC15の全ピクセルに対して「0」のα値が一律に適用される。 If it is set, in step S2012, a process of setting a uniform α value for the second effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “0” which is completely transparent information, and the uniform α value of the second connected object PC16 is set to “1” which is opaque information. To do. As a result, the preset color information (including the information of the α value set to each pixel from the beginning) is applied as it is to all the pixels of the second connected object PC16, whereas The α value of “0” is uniformly applied to all pixels of the connected object PC15 of 1.

続くステップS2013では、今回の描画リストにおいて第2の連結オブジェクトPC16に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2014にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the following step S2013, the parameter specified for the second connected object PC16 in the current drawing list is grasped as the parameter of both connected objects PC15, PC16. Then, in step S2014, the setting process to the world coordinate system is executed for both connected objects PC15 and PC16.

今回は第2演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第2の連結オブジェクトPC16に対応させて設定されているパラメータの情報から把握して更新する。この場合に、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第2の連結オブジェクトPC16のパラメータを第1の連結オブジェクトPC15にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。 Since this time is the processing time relating to the update of the second effect period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set in the drawing list so as to correspond to the second connected object PC16. Check the parameter information and update it. In this case, the shapes of the two connected objects PC15 and PC16 are substantially the same, but the connected parts of the respective component objects are different. Then, even if the parameters of the second connected object PC16 are applied to the first connected object PC15 as they are, there are pixels whose coordinate designations do not match, but such pixels are subjected to a predetermined adjustment on the VDP 135 side. ..

続くステップS2015では、今回の描画リストに指定されている第2演出期間用の他のオブジェクトを把握するとともに、ステップS2016にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2017にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第1演出期間から第2演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2017ではそれに応じた処理を実行する。 In a succeeding step S2015, other objects for the second effect period designated in the drawing list this time are grasped, and in step S2016, various parameters designated for the object are grasped. Then, in step S2017, the setting process for the world coordinate system is executed for the object, and then the setting process for the main connected object effect is finished. Here, when the current processing time is the timing related to switching from the first effect period to the second effect period, the number of objects to be displayed increases, so in step S2017, the corresponding process is executed. ..

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2012の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のみが表示される。また、ステップS2013で更新されるパラメータは、第2の連結オブジェクトPC16に対応しているため、第2演出期間の進行に伴って、表示面Gでは第2の動作を行うように第2の連結オブジェクトPC16が表示される。 By executing the setting process for the connection object effect as described above, various parameters of both connection objects PC15 and PC16 are updated, but since the process of step S2012 is executed, both connection objects are displayed on the display surface G. Of the objects PC15 and PC16, only the second connected object PC16 is displayed. Further, since the parameter updated in step S2013 corresponds to the second connected object PC16, the second connection is performed on the display surface G along with the progress of the second effect period. The object PC 16 is displayed.

ステップS2011にて、今回の描画リストにおいて第2演出期間の指定が設定されていないと判定した場合には、今回の描画リストにおいて第3演出期間の指定が設定されていることを意味するため、ステップS2018に進む。 If it is determined in step S2011 that the designation of the second effect period is not set in the current drawing list, it means that the designation of the third effect period is set in the current drawing list. It proceeds to step S2018.

ステップS2018では、第3演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。 In step S2018, a process for setting a uniform α value for the third effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “1” that is opaque information, and the uniform α value of the second connected object PC16 is set to “0” that is completely transparent information. To do. As a result, the preset color information (including the information of the α value set to each pixel from the beginning) is applied as it is to all the pixels of the first connected object PC15, whereas The α value of “0” is uniformly applied to all the pixels of the second connected object PC16.

続くステップS2019では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2020にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the following step S2019, the parameters specified for the first connected object PC15 in the current drawing list are grasped as the parameters of both connected objects PC15 and PC16. Then, in step S2020, the setting process to the world coordinate system is executed for both connected objects PC15 and PC16.

今回は第3演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。 Since this time is the processing time related to the update of the third effect period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set in the drawing list in association with the first connected object PC15. Check the parameter information and update it.

続くステップS2021では、今回の描画リストに指定されている第3演出期間用の他のオブジェクトを把握するとともに、ステップS2022にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2023にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第2演出期間から第3演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2023ではそれに応じた処理を実行する。 In a succeeding step S2021, other objects for the third effect period designated in the drawing list this time are grasped, and in step S2022, various parameters designated for the object are grasped. Then, in step S2023, the setting process for the world coordinate system is executed for the object, and then the setting process for the effect of the connected object is ended. Here, when the processing time this time is the timing related to the switching from the second effect period to the third effect period, the number of objects to be displayed increases, so in step S2023, a process corresponding to that is executed. ..

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2018の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2019で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第3演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。 By executing the setting process for the connection object effect as described above, various parameters of both connection objects PC15 and PC16 are updated, but since the process of step S2018 is executed, both connection objects are displayed on the display surface G. Of the objects PC15 and PC16, only the first connected object PC15 is displayed. Further, since the parameter updated in step S2019 corresponds to the first connected object PC15, the first connection is performed on the display surface G along with the progress of the third effect period. The object PC 15 is displayed.

次に、連結オブジェクト演出の内容について、図32を参照しながら説明する。 Next, the contents of the connected object effect will be described with reference to FIG.

図32は連結オブジェクト演出を説明するための説明図である。また、図32(a)は第1演出期間を示し、図32(b)は第2演出期間を示し、図32(c)は第3演出期間を示す。なお、図32(a―1),(b―1),(c―1)はワールド座標系のイメージ図であり、図32(a―2),(b―2),(c―2)は表示面Gを示す。また、図32(a―2),(b―2),(c―2)では背景画像や図柄を省略しているが、実際には各演出用の画像の奥側にて背景画像が表示されるとともに手前側にて図柄が表示される。 FIG. 32 is an explanatory diagram for explaining the connected object effect. 32A shows the first effect period, FIG. 32B shows the second effect period, and FIG. 32C shows the third effect period. 32(a-1), (b-1), and (c-1) are image diagrams of the world coordinate system, and FIGS. 32(a-2), (b-2), and (c-2) are The display surface G is shown. Although the background image and the pattern are omitted in FIGS. 32(a-2), (b-2), and (c-2), the background image is actually displayed on the back side of the image for each effect. At the same time, the design is displayed on the front side.

第1演出期間では、図32(a―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(a―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第1演出期間の進行に伴って第1の動作が行われる。また、その他のオブジェクトに対応した画像として、「A」〜「C」に示すキャラクタCH4〜CH6が表示される。 In the first effect period, as shown in FIG. 32(a-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the second connected object PC16 is transparentized. .. Therefore, as shown in FIG. 32(a-2), the character CH3 corresponding to the first connected object PC15 is displayed on the display surface G, and the first motion is performed along with the progress of the first effect period. .. Characters CH4 to CH6 shown in "A" to "C" are displayed as images corresponding to other objects.

第2演出期間では、図32(b―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第1の連結オブジェクトPC15に対しては透明化処理が行われる。したがって、図32(b―2)に示すように、表示面Gには第2の連結オブジェクトPC16に対応したキャラクタCH3が表示され、第2演出期間の進行に伴って第2の動作が行われる。 In the second effect period, as shown in FIG. 32(b-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the first connected object PC15 is subjected to the transparency processing. .. Therefore, as shown in FIG. 32(b-2), the character CH3 corresponding to the second connected object PC16 is displayed on the display surface G, and the second motion is performed as the second effect period progresses. ..

ここで、図32(a―2)と図32(b―2)とで比較した場合、両キャラクタCH3は異なる形状であるかのように示されているが、実際には両連結オブジェクトPC15,PC16に対して同一のテクスチャがマッピングされ、連結部(関節部分)が目立たなくなる。したがって、第1演出期間から第2演出期間に切り換わったとしても、キャラクタCH3に関して表示面Gでは同一、略同一又は同様の画像が表示され、遊技者はその切り換わりを認識しづらくなっている。但し、遊技者が切り換わりの発生を認識しづらいのであれば、両連結オブジェクトPC15,PC16に対して個別にテクスチャが設定されていてもよい。 Here, when comparing FIG. 32(a-2) and FIG. 32(b-2), it is shown that both characters CH3 have different shapes, but in reality, both connected objects PC15, The same texture is mapped to the PC 16 so that the connecting portion (joint portion) becomes inconspicuous. Therefore, even if the first effect period is switched to the second effect period, the same, substantially the same, or similar image is displayed on the display surface G for the character CH3, which makes it difficult for the player to recognize the change. .. However, if it is difficult for the player to recognize the occurrence of switching, textures may be set individually for both connected objects PC15 and PC16.

また、第2演出期間では、その他のオブジェクトに対応した画像として、「A」〜「E」に示すキャラクタCH4〜CH8が表示される。このキャラクタCH4〜CH8の数は、第1演出期間の場合よりも多い数である。 Further, in the second effect period, the characters CH4 to CH8 indicated by "A" to "E" are displayed as images corresponding to other objects. The number of characters CH4 to CH8 is greater than that in the first effect period.

第3演出期間では、図32(c―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(c―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第3演出期間の進行に伴って第1の動作が行われる。また、第3演出期間では、その他のオブジェクトに対応した画像として、「A」〜「G」に示すキャラクタCH4〜CH10が表示される。このキャラクタCH4〜CH10の数は、第2演出期間の場合よりも多い数である。 In the third effect period, as shown in FIG. 32(c-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the transparent processing is performed on the second connected object PC16. .. Therefore, as shown in FIG. 32(c-2), the character CH3 corresponding to the first connected object PC15 is displayed on the display surface G, and the first motion is performed as the third effect period progresses. .. In the third effect period, the characters CH4 to CH10 shown in "A" to "G" are displayed as images corresponding to other objects. The number of characters CH4 to CH10 is greater than that in the second effect period.

以上のとおり、共通のキャラクタに対して複数の連結オブジェクトPC15,PC16が設定されていることにより、関節部分を利用した動作の種類に応じて表示対象となる連結オブジェクトPC15,PC16を切り換えることができる。例えば、複数種類の動作を単一の連結オブジェクトで行おうとすると、それだけ分の連結部及び部品オブジェクトをその単一の連結オブジェクトに対して設定する必要が生じる。そうすると、一の画像データのデータ容量が大きくなってしまい、メモリモジュール133において単一の画像データとして記憶可能な容量を超えてしまうことが懸念され、超えないとしても単一の画像データを扱う上での処理時間や転送時間の長時間化が懸念される。これに対して、複数の連結オブジェクトPC15,PC16として設定されているため、上記のような不都合を生じさせることなく、キャラクタに対して複数種類の動作を行わせることが可能となる。 As described above, since the plurality of connected objects PC15 and PC16 are set for the common character, the connected objects PC15 and PC16 to be displayed can be switched according to the type of motion using the joint portion. .. For example, if a plurality of types of operations are to be performed by a single connected object, it is necessary to set the corresponding number of connected portions and part objects for the single connected object. Then, the data capacity of one image data becomes large, and there is a concern that the memory module 133 may exceed the capacity that can be stored as a single image data. There is a concern that the processing time and transfer time will be longer. On the other hand, since it is set as a plurality of connected objects PC15 and PC16, it is possible to cause the character to perform a plurality of types of motions without causing the inconveniences described above.

また、パチンコ機10の設計段階においては演出の修正が行われる機会が多く、キャラクタの動作についての修正の度に連結オブジェクトの全体の動きを見直していると、設計に要する期間が多大なものとなってしまう。これに対して、上記のように行わせたい動作の種類に応じて複数の連結オブジェクトPC15,PC16を設定することで、演出の修正を行う必要が生じたとしても、既に作成済みの連結オブジェクトPC15,PC16の全てを修正する必要がなくなる。よって、パチンコ機10の設計を良好に行えるようにしながら、キャラクタに対して複数種類の動作を行わせることが可能となる。 In addition, in the design stage of the pachinko machine 10, there are many occasions in which the effects are modified, and if the entire movement of the connected object is reviewed every time the motion of the character is modified, it takes a lot of time for the design. turn into. On the other hand, by setting a plurality of connected objects PC15 and PC16 according to the type of operation to be performed as described above, even if it is necessary to correct the effect, the already-created connected object PC15 , It becomes unnecessary to modify all of the PC 16. Therefore, it is possible to cause the character to perform a plurality of types of motions while allowing the pachinko machine 10 to be designed well.

また、キャラクタを表示させるために連結オブジェクトが切り換えられるタイミングよりも前に切換元のオブジェクトだけでなく切換先のオブジェクトについても、表示CPU131において制御対象とされるとともに、VDP135においてワールド座標系への配置対象とされる。これにより、切換タイミングとなった場合に表示CPU131及びVDP135では、切換先のオブジェクトに対して制御開始処理を実行するのではなく、当該制御開始処理よりも処理負荷が小さい制御更新処理を実行すればよいため、切換タイミングにおける処理負荷が軽減される。 Further, not only the switching source object but also the switching destination object before the timing at which the connected object is switched to display the character is set as the control target in the display CPU 131 and arranged in the world coordinate system in the VDP 135. To be targeted. Thus, when the switching timing comes, the display CPU 131 and the VDP 135 do not execute the control start processing for the switching destination object, but execute the control update processing having a processing load smaller than that of the control start processing. Therefore, the processing load at the switching timing is reduced.

特に、切換タイミングでは、演出が発展し、表示されるオブジェクトの数が増加するため、表示CPU131及びVDP135にとって処理負荷が比較的大きくなるタイミングである。この場合に、切換先のオブジェクトに対して制御開始処理を行う構成を想定すると、表示CPU131やVDP135において処理落ちが発生することが懸念されるが、上記のとおり切換先のオブジェクトについて制御更新処理を実行すればよいため、当該処理落ちの発生を阻止することができる。 In particular, at the switching timing, the effect develops and the number of displayed objects increases, so that the processing load on the display CPU 131 and the VDP 135 becomes relatively large. In this case, assuming a configuration in which the control start processing is performed on the switching destination object, there is a concern that processing omission may occur in the display CPU 131 or the VDP 135. However, as described above, the control updating processing is performed on the switching destination object. Since it may be executed, it is possible to prevent the occurrence of the processing omission.

また、ワールド座標系に両連結オブジェクトPC15,PC16を同時に配置するとともに、適用する一律α値を完全透過情報と不透過情報とで切り換える構成であるため、表示CPU131では両者の切換に関して一律α値の切換指定をすればよく、VDP135ではその指定に従って適用する一律α値を切り換えればよい。よって、表示CPU131及びVDP135の処理構成の複雑化を抑えながら、上記のような優れた効果を奏することができる。 Further, since both connected objects PC15 and PC16 are simultaneously arranged in the world coordinate system and the uniform α value to be applied is switched between the completely transparent information and the non-transparent information, the display CPU 131 has a uniform α value for both switching. Switching may be designated, and in the VDP 135, the uniform α value to be applied may be switched according to the designation. Therefore, the above-described excellent effects can be achieved while suppressing the complication of the processing configuration of the display CPU 131 and the VDP 135.

また、表示CPU131からVDP135には、ワールド座標系に同時に配置される両連結オブジェクトPC15,PC16のうち表示対象の連結オブジェクトに対してのパラメータ情報のみが提供される。これにより、描画リストに設定されるデータ量の軽減が図られる。また、VDP135では、両連結オブジェクトPC15,PC16のパラメータの更新を同一の態様で行えばよいため、VDP135の処理負荷の軽減が図られる。 Further, the display CPU 131 provides the VDP 135 with only the parameter information for the connected object to be displayed of the connected objects PC15 and PC16 that are simultaneously arranged in the world coordinate system. As a result, the amount of data set in the drawing list can be reduced. Further, in the VDP 135, the parameters of both connected objects PC15 and PC16 may be updated in the same manner, so that the processing load of the VDP 135 can be reduced.

なお、第1演出期間〜第3演出期間の切換では、キャラクタの数が増加することに代えて又は加えて、上記複数の連結オブジェクトが用意されているキャラクタとは異なる演出用のキャラクタの動作が新たに追加される構成としてもよく、上記複数の連結オブジェクトが用意されているキャラクタとは別に処理負荷の大きい演出用のキャラクタの表示が開始される構成としてもよい。 In addition, in the switching from the first effect period to the third effect period, instead of or in addition to the increase in the number of characters, the action of the effect character different from the character in which the plurality of connected objects are prepared is performed. The configuration may be newly added, or the configuration may be such that, in addition to the character in which the plurality of connected objects are prepared, the display of the effect character having a large processing load is started.

また、第2の連結オブジェクトPC16の表示CPU131における制御開始タイミングやVDP135における制御開始タイミングは、第1の連結オブジェクトPC15と同一ではなくてもよい。例えば、第1演出期間から第2演出期間への切換タイミングよりも前ではあるが、第1の連結オブジェクトPC15の制御開始タイミングよりも後のタイミングであってもよい。 The control start timing of the display CPU 131 of the second connected object PC 16 and the control start timing of the VDP 135 may not be the same as those of the first connected object PC 15. For example, the timing may be before the switching timing from the first effect period to the second effect period but after the control start timing of the first connected object PC15.

また、演出期間の切換タイミングにおける処理負荷が上記構成よりも増加するが、当該切換タイミングにおいて第2の連結オブジェクトPC16の制御が開始される構成としてもよい。この場合、第1の連結オブジェクトPC15と第2の連結オブジェクトPC16とがワールド座標系に同時に配置されることがないため、一律α値を調整して表示対象を切り換える制御を行わなくてもよい。 Further, although the processing load at the switching timing of the effect period is larger than that of the above configuration, the control of the second connected object PC 16 may be started at the switching timing. In this case, since the first connected object PC15 and the second connected object PC16 are not arranged in the world coordinate system at the same time, it is not necessary to uniformly control the α value and switch the display target.

また、ワールド座標系に同時に配置されている両連結オブジェクトPC15,PC16について、表示対象の切換を一律α値の調整により行うのではなく、レンダリング対象の切換により行う構成としてもよい。この場合、表示対象ではない側の連結オブジェクトは、レンダリングが行われないこととなるため、上記構成よりもレンダリング時の処理負荷が軽減される。 Further, for both connected objects PC15 and PC16 that are simultaneously arranged in the world coordinate system, the display object may be switched not by uniformly adjusting the α value, but by switching the rendering object. In this case, since the connected object on the side that is not the display target is not rendered, the processing load at the time of rendering is reduced as compared with the above configuration.

また、第3演出期間が不具備である構成としてもよく、第4演出期間以上の演出期間が設定されている構成としてもよい。また、一のキャラクタに対して、3個以上の連結オブジェクトが用意されている構成としてもよい。 In addition, the configuration may be such that the third effect period is not provided, or the effect period longer than the fourth effect period may be set. Further, three or more connected objects may be prepared for one character.

<粒子分散演出を行うための構成>
次に、粒子分散演出を行うための構成について説明する。
<Structure for producing particle dispersion>
Next, a configuration for performing the particle dispersion effect will be described.

粒子分散演出とは、連続する複数フレーム(複数の画像更新タイミング)に亘って、多数の粒子単体画像が分散していくかのように表示される演出のことである。この分散に際しては、多数の粒子単体画像における少なくとも一部の画像同士がそれぞれ異なる軌道で変位していくように表示される。粒子分散演出に際しては、多数の粒子単体画像に対して1対1で対応させて設定された多数の頂点データを有する粒子分散用オブジェクトと、当該粒子分散用オブジェクトに対応させて設定され、各頂点データに対応した位置にそれぞれ対応する粒子単体画像を表示させるための多数の単体画像データを有する粒子分散用テクスチャとが用いられる。 The particle dispersion effect is an effect that is displayed as if a large number of single particle images are dispersed over a plurality of consecutive frames (a plurality of image update timings). At the time of this dispersion, at least some of the images of a large number of single particle images are displayed such that they are displaced in different orbits. In the particle dispersion rendering, a particle dispersion object having a large number of vertex data set in a one-to-one correspondence with a large number of single particle images, and a particle dispersion object set in correspondence with the particle dispersion object. A particle-dispersing texture having a large number of single-piece image data for displaying single-piece particle images respectively corresponding to positions corresponding to the data is used.

これら粒子分散用オブジェクト及び粒子分散用テクスチャについて、図33(a)及び図33(b)を参照しながら詳細に説明する。図33(a)は粒子分散用オブジェクトPC17を説明するための説明図であり、図33(b)は粒子分散用テクスチャPC18を説明するための説明図である。 The particle dispersion object and the particle dispersion texture will be described in detail with reference to FIGS. 33(a) and 33(b). FIG. 33(a) is an explanatory diagram for explaining the particle dispersion object PC17, and FIG. 33(b) is an explanatory diagram for explaining the particle dispersion texture PC18.

図33(a)に示すように、粒子分散用オブジェクトPC17は、頂点データと、当該頂点データに対応した座標データと、これら以外である他のデータとを含んでいる。頂点データは、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら頂点データによって粒子分散用オブジェクトPC17における各頂点が識別される。座標データは、各頂点データに1対1で対応させて、座標(1),座標(2),座標(3),・・・,座標(99),座標(100)と多数設定されており、VDP135では、これら座標データによって粒子分散用オブジェクトPC17における各頂点のワールド座標系内における位置が認識される。 As shown in FIG. 33A, the particle dispersion object PC17 includes vertex data, coordinate data corresponding to the vertex data, and other data other than these. A large number of vertex data are set as vertex (1), vertex (2), vertex (3),..., Vertex (99), vertex (100), and in the VDP135, the object for particle dispersion is set by these vertex data. Each vertex on the PC 17 is identified. A large number of coordinate data are set in correspondence with each vertex data in a one-to-one correspondence, such as coordinate (1), coordinate (2), coordinate (3),..., Coordinate (99), coordinate (100). , VDP135 recognizes the position of each vertex in the particle dispersion object PC17 in the world coordinate system based on these coordinate data.

他のデータには、例えば粒子分散用オブジェクトPC17の初期スケールのデータや、全頂点データに対して一律に適用される初期α値のデータや、粒子分散用オブジェクトPC17の初期回転角度のデータなどが含まれている。 Other data include, for example, initial scale data of the particle dispersion object PC17, initial α value data uniformly applied to all vertex data, and initial rotation angle data of the particle dispersion object PC17. include.

図33(b)に示すように、粒子分散用テクスチャPC18は、単体データと、当該単体データに対応した相関データと、当該単体データに対応した単体画像データと、これら以外である他のデータとを含んでいる。単体画像データは、各単体データに1対1で対応させて、単体画像データ(1),単体画像データ(2),単体画像データ(3),・・・,単体画像データ(99),単体画像データ(100)と多数設定されている。各単体画像データは、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。各単体画像データは同一種類の粒子単体画像を表示させるデータとなっている。具体的には「球形の泡」を表示させるデータとなっており、各単体画像データの一部又は全部において当該「球形の泡」の形状、初期状態における大きさ、及び色彩は異なっている。この場合、粒子分散演出を実行する上でのVDP135における処理負荷の軽減を図りながら、同時に表示させる粒子単体画像の数を多くすべく、初期状態におけるスケールで全単体画像データを設定したとしても、表示面Gにて、全粒子単体画像を同時に表示させることが可能な構成となっている。 As shown in FIG. 33B, the particle-dispersion texture PC 18 includes simplex data, correlation data corresponding to the simplex data, simplex image data corresponding to the simplex data, and other data other than these. Is included. The unit image data corresponds to each unit data in a one-to-one manner, and unit image data (1), unit image data (2), unit image data (3),..., Unit image data (99), unit image data Many are set as image data (100). Each single image data includes, for example, at least a combination of bitmap format data and a color palette table referred to when determining a display color at each pixel of the bitmap image. Each single image data is data for displaying the same type of particle single image. Specifically, the data is for displaying "spherical bubbles", and the shape, size in the initial state, and color of the "spherical bubbles" are different in part or all of each single image data. In this case, even if all the single image data are set in the scale in the initial state in order to increase the number of single particle images to be displayed simultaneously while reducing the processing load on the VDP 135 when executing the particle dispersion effect, On the display surface G, it is possible to simultaneously display the single particle images.

なお、各単体画像データの少なくとも一部について又は全部について粒子の種類が相違していてもよい。また、同一種類の粒子であるとともに、その形状、初期状態におけるスケール、及び色彩が同一であってもよい。 Note that the types of particles may be different for at least a part or all of the individual image data. Further, the particles may be of the same type and have the same shape, the same scale and color in the initial state.

粒子分散用テクスチャPC18の単体データは、単体(1),単体(2),単体(3),・・・,単体(99),単体(100)と多数設定されており、VDP135では、これら単体データによって粒子分散用テクスチャPC18に設定されている多数の単体画像データが個別に認識される。相関データは、各単体データに1対1で対応させて、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら相関データによって粒子分散用テクスチャPC18における各単体画像データが粒子分散用オブジェクトPC17における各頂点データのいずれに対応しているかが認識される。 The individual data of the particle dispersion texture PC 18 is set to a large number of single (1), single (2), single (3),..., Single (99), single (100). A large number of individual image data set in the particle dispersion texture PC 18 are individually recognized by the data. Correlation data is associated with each unit data in a one-to-one correspondence, and a large number of vertices (1), vertices (2), vertices (3),..., Vertices (99), vertices (100) are set. , VDP 135 recognizes from the correlation data which single image data in the particle dispersion texture PC 18 corresponds to each vertex data in the particle dispersion object PC 17.

他のデータには、各単体画像データに対して個別に適用されるα値のデータや、各単体画像データに対して一律に適用されるα値のデータなどが含まれている。 Other data includes α value data individually applied to each single image data, α value data uniformly applied to each single image data, and the like.

ここで、粒子分散用オブジェクトPC17における各座標データには、それぞれ初期データが設定されており、これら初期データはそれぞれ異なる座標となっている。粒子分散用オブジェクトPC17の各座標データは書き換え可能となっており、当該粒子分散用オブジェクトPC17がワールド座標系に設定される場合には、上記各座標データが初期データとは異なる座標のデータに書き換えられた状態で設定される。かかる書き換えを行うために使用される書き換え用基準データとして、複数種類のキーデータKD1〜KD3が設定されている。 Here, initial data is set for each coordinate data in the particle dispersion object PC 17, and these initial data have different coordinates. Each coordinate data of the particle dispersion object PC17 is rewritable, and when the particle dispersion object PC17 is set in the world coordinate system, each of the coordinate data is rewritten to data of coordinates different from the initial data. It is set in the specified state. A plurality of types of key data KD1 to KD3 are set as reference data for rewriting used to perform such rewriting.

キーデータKD1〜KD3は、少なくとも2種類設定されており、具体的には、図33(c)〜(e)に示すように、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3の3種類が設定されている。これら各キーデータKD1〜KD3は、それぞれ、相関データと、当該相関データに対応した座標データとを含んでいる。 At least two types of key data KD1 to KD3 are set, and specifically, as shown in FIGS. 33(c) to (e), first key data KD1, second key data KD2, and third key data are set. Three types of KD3 are set. Each of these key data KD1 to KD3 includes correlation data and coordinate data corresponding to the correlation data.

具体的には、第1キーデータKD1の相関データ、第2キーデータKD2の相関データ、及び第3キーデータKD3の相関データはいずれも、適用対象である粒子分散用オブジェクトPC17の各頂点データと1対1で対応させて設定されており、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されている。 Specifically, the correlation data of the first key data KD1, the correlation data of the second key data KD2, and the correlation data of the third key data KD3 are all the respective vertex data of the particle dispersion object PC17 to which they are applied. They are set in a one-to-one correspondence, and a large number of vertices (1), vertices (2), vertices (3),..., Vertices (99), vertices (100) are set.

一方、第1キーデータKD1の座標データ、第2キーデータKD2の座標データ、及び第3キーデータKD3の座標データはそれぞれ、各相関データに1対1で対応させて多数設定されているが、同一の相関データ間で比較した場合において相違している。 On the other hand, the coordinate data of the first key data KD1, the coordinate data of the second key data KD2, and the coordinate data of the third key data KD3 are respectively set in a large number in a one-to-one correspondence with each correlation data. There is a difference when comparing the same correlation data.

具体的には、第1キーデータKD1の座標データは、座標(1−1),座標(2−1),座標(3−1),・・・,座標(99−1),座標(100−1)と多数設定されており、第2キーデータKD2の座標データは、座標(1−2),座標(2−2),座標(3−2),・・・,座標(99−2),座標(100−2)と多数設定されており、第3キーデータKD3の座標データは、座標(1−3),座標(2−3),座標(3−3),・・・,座標(99−3),座標(100−3)と多数設定されている。また、頂点(1)に対応している座標データが、第1キーデータKD1では座標(1−1)、第2キーデータKD2では座標(1−2)、及び第3キーデータKD3では座標(1−3)であり、頂点(100)に対応している座標データが、第1キーデータKD1では座標(100−1)、第2キーデータKD2では座標(100−2)、及び第3キーデータKD3では座標(100−3)であるように、一の頂点データに対してそれぞれ異なる座標データが設定されている。 Specifically, the coordinate data of the first key data KD1 includes coordinates (1-1), coordinates (2-1), coordinates (3-1),..., Coordinates (99-1), coordinates (100 -1) are set in large numbers, and the coordinate data of the second key data KD2 is coordinate (1-2), coordinate (2-2), coordinate (3-2),..., Coordinate (99-2). ), a large number of coordinates (100-2) are set, and the coordinate data of the third key data KD3 includes coordinates (1-3), coordinates (2-3), coordinates (3-3),... A large number of coordinates (99-3) and coordinates (100-3) are set. Further, the coordinate data corresponding to the vertex (1) is coordinate (1-1) in the first key data KD1, coordinate (1-2) in the second key data KD2, and coordinate (1-2) in the third key data KD3. 1-3), and the coordinate data corresponding to the vertex (100) is the coordinate (100-1) in the first key data KD1, the coordinate (100-2) in the second key data KD2, and the third key. In the data KD3, different coordinate data is set for each vertex data so as to have the coordinate (100-3).

ちにみに、各キーデータKD1〜KD3は、α値のデータや、回転角度のデータが設定されていないこととの関係で、粒子分散用オブジェクトPC17よりもデータ容量が小さく設定されている。 Incidentally, the key data KD1 to KD3 are set to have a smaller data capacity than the particle dispersion object PC17 because of the relationship that the α value data and the rotation angle data are not set.

各キーデータKD1〜KD3は、上記のとおり、各粒子単体画像の変位軌道を決定付けるべく設定されているものであり、粒子分散用オブジェクトPC17に対して適用される順序が予め定められている。具体的には、第2キーデータKD2は、第1キーデータKD1よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられ、第3キーデータKD3は、第2キーデータKD2よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられる。粒子分散用オブジェクトPC17をワールド座標系に設定する場合には、上記キーデータKD1〜KD3の座標データが各頂点データに対して適用されることにより、各頂点データに対応した各粒子単体画像がそれぞれの軌道で変位する。 As described above, each of the key data KD1 to KD3 is set to determine the displacement trajectory of each single particle image, and the order of application to the particle dispersion object PC17 is predetermined. Specifically, the second key data KD2 is used when setting the coordinate data on the side in the displacement direction of each particle simpler image than the first key data KD1, and the third key data KD3 is the second key data. It is used when setting the coordinate data on the side of the displacement direction of each particle single image rather than KD2. When the particle dispersion object PC17 is set to the world coordinate system, the coordinate data of the key data KD1 to KD3 is applied to each vertex data, so that each particle single image corresponding to each vertex data is respectively. Displace on the orbit.

この場合に、少なくとも所定のフレーム数間においては複数のキーデータKD1〜KD3、より詳細には2個のキーデータKD1〜KD3の座標データが融合された状態で各頂点データに対して適用される。具体的には、粒子分散演出の最初のフレーム(すなわち画像更新タイミング)における各頂点データの座標データを決定付ける第1キーデータKD1は、最初のフレームよりも後の複数フレームである第1フレーム数(例えば99フレーム)分に相当する第1フレーム期間に亘って用いられる。第2キーデータKD2は、上記第1フレーム期間、当該第1フレーム期間に対して次のフレームに相当する第1切換対象フレーム、及びそれ以降の複数フレームである第2フレーム数分に相当する第2フレーム期間に亘って用いられる。第3キーデータKD3は、上記第2フレーム期間に亘って用いられる。この場合に、上記第1フレーム数と上記第2フレーム数とは同一のフレーム数となっている。 In this case, the plurality of key data KD1 to KD3, more specifically, the coordinate data of the two key data KD1 to KD3 are applied to each vertex data in a fused state at least for a predetermined number of frames. .. Specifically, the first key data KD1 that determines the coordinate data of each vertex data in the first frame (that is, the image update timing) of the particle dispersion effect is the first frame number that is a plurality of frames after the first frame. It is used for the first frame period corresponding to (for example, 99 frames). The second key data KD2 corresponds to the first frame period, the first switching target frame corresponding to the next frame with respect to the first frame period, and the second frame number corresponding to a plurality of subsequent frames. It is used for two frame periods. The third key data KD3 is used over the second frame period. In this case, the first frame number and the second frame number are the same.

なお、第3キーデータKD3の後に第4キーデータが設定されていてもよく、この場合には、第3キーデータKD3は、上記第2フレーム期間、当該第2フレーム期間に対して次のフレームに相当する第2切換対象フレーム、及びそれ以降の複数フレームである第3フレーム数(第1フレーム数及び第2フレーム数と同一フレーム数)分に相当する第3フレーム期間に亘って用いられ、第4キーデータは、上記第3フレーム期間に亘って用いられる。 It should be noted that the fourth key data may be set after the third key data KD3. In this case, the third key data KD3 is stored in the second frame period and the frame next to the second frame period. And a second switching target frame corresponding to the second switching target frame, and a third frame number corresponding to the third frame number (the same number as the first frame number and the second frame number) that is a plurality of subsequent frames, The fourth key data is used over the third frame period.

かかる構成であることにより、上記キーデータKD1〜KD3の数が、粒子分散演出が実行される場合の連続フレーム数よりも少ない数、より詳細には、粒子分散演出に際して、粒子分散用オブジェクトPC17における各頂点データの座標データが変更される回数よりも少ない数に設定されている構成であっても、各粒子単体画像が変位する様子を滑らかに表示することが可能となる。 With such a configuration, the number of the key data KD1 to KD3 is smaller than the number of consecutive frames when the particle dispersion effect is executed, more specifically, in the particle dispersion object PC17 during the particle dispersion effect. Even with the configuration in which the coordinate data of each vertex data is set to a number smaller than the number of times the coordinate data is changed, it is possible to smoothly display the displacement of each single particle image.

以下に、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1〜KD3を用いて粒子分散演出を実行するための具体的な処理構成を説明する。なお、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1〜KD3は、メモリモジュール133に予め記憶されている。 Hereinafter, a specific processing configuration for executing the particle dispersion effect using the particle dispersion object PC17, the particle dispersion texture PC18, and each of the key data KD1 to KD3 will be described. The particle dispersion object PC17, the particle dispersion texture PC18, and the respective key data KD1 to KD3 are stored in advance in the memory module 133.

図34(a)は、表示CPU131にて実行される粒子分散演出用の演算処理を示すフローチャートである。粒子分散演出用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、粒子分散演出用の演算処理は、粒子分散演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 34A is a flowchart showing the calculation process for particle dispersion effect executed by the display CPU 131. The calculation process for the particle dispersion effect is executed by the operation process for effect in step S904 of the task process (FIG. 14). Further, the calculation process for the particle dispersion effect is started when the data table corresponding to the game time in which the particle dispersion effect is executed is set.

先ずステップS2101では、現状設定されているデータテーブルに基づいて、粒子分散演出の実行中であるか否かを判定する。演出の実行中ではない場合にはステップS2102にて、粒子分散演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2103に進む。 First, in step S2101, it is determined based on the currently set data table whether or not the particle dispersion effect is being executed. If the effect is not being executed, it is determined in step S2102 whether it is the timing for starting the particle dispersion effect. If it is not the start timing, this operation processing is ended as it is, and if it is the start timing, the process proceeds to step S2103.

ステップS2103では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。ちなみに、ステップS2103の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、粒子分散用オブジェクトPC17に対して制御開始用の処理が完了している。また、制御が開始された粒子分散用オブジェクトPC17の制御用の情報は、粒子分散演出が完了するまではワークRAM132に記憶保持される。 In step S2103, the particle dispersion object PC17 is grasped as a control target based on the currently set data table. By the way, at the execution timing of the process of step S2103, the control start process is completed for the particle dispersion object PC17 in the immediately preceding control start setting process (step S901). The control information of the particle dispersion object PC17 whose control has been started is stored and held in the work RAM 132 until the particle dispersion effect is completed.

続くステップS2104では、メモリモジュール133から第1キーデータKD1及び第2キーデータKD2を読み出す初期読み出し処理を実行するとともに、ステップS2105では、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新する。その後、ステップS2106にて粒子分散演出の開始指定情報を記憶した後に、本演算処理を終了する。 In a succeeding step S2104, an initial reading process for reading the first key data KD1 and the second key data KD2 from the memory module 133 is executed, and in the step S2105, various parameters other than the coordinates are calculated for the particle dispersion object PC17. , And updates the control information related to the particle dispersion object PC17. After that, in step S2106, after the start designation information of the particle dispersion effect is stored, the calculation process is ended.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2104にて読み出した第1キーデータKD1及び第2キーデータKD2と、上記ステップS2105にて算出したパラメータとが設定される。また、粒子分散演出を開始すべきことを示す粒子分散演出の開始指定情報が、描画リストに設定される。 When the calculation process for the particle dispersion effect is executed as described above, the drawing list created by the subsequent drawing list output process contains the information of the instruction to use the particle dispersion object PC17 of the particle dispersion texture PC18. The first key data KD1 and the second key data KD2 read out in step S2104 and the parameters calculated in step S2105 are set together with the information on the use instruction. Further, the particle dispersion effect start designation information indicating that the particle dispersion effect should be started is set in the drawing list.

ステップS2101にて粒子分散演出中であると判定した場合には、ステップS2107にて、現状設定されているデータテーブルに基づいて、キーデータの更新タイミングであるか否かを判定する。かかる更新タイミングは、上述した第1切換対象フレームに相当する。 When it is determined in step S2101 that the particle dispersion effect is being performed, it is determined in step S2107 based on the currently set data table whether or not it is the update timing of the key data. Such update timing corresponds to the above-mentioned first switching target frame.

キーデータの更新タイミングではない場合(ステップS2107:NO)には、ステップS2108に進む。当該ステップS2108では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。 When it is not the update timing of the key data (step S2107: NO), the process proceeds to step S2108. In step S2108, the particle dispersion object PC17 is grasped as a control target based on the currently set data table.

続くステップS2109では、キーデータのブレンド割合を決定する処理を実行する。かかるブレンド割合を決定する処理では、メモリモジュール133に予め記憶されている図34(b)に示すようなブレンド用テーブルBTを参照することで、現状設定されている2個のキーデータKD1〜KD3の各座標データをブレンドする際のブレンド比率のデータを読み出し、その読み出したデータによる各座標データのブレンドを行う。 In a succeeding step S2109, processing for determining the blending ratio of the key data is executed. In the process for determining the blend ratio, the currently set two key data KD1 to KD3 are referred to by referring to the blend table BT stored in the memory module 133 as shown in FIG. The data of the blend ratio at the time of blending each coordinate data of is read, and each coordinate data is blended by the read data.

ブレンド用テーブルBTについて詳細には、当該ブレンド用テーブルBTには、フレーム数のデータが設定されているとともに、各フレーム数のデータに1対1で対応させて、前側のキーデータに設定されている各座標データに適用すべき比率と、後側のキーデータに設定されている各座標データに適用すべき比率とが設定されている。この場合、フレーム数が1増加する度に、すなわち各粒子単体画像の座標の更新タイミングとなる度に、一定の比率でブレンド割合が変化するようにブレンド用テーブルBTが設定されている。具体的には、前側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が減少し、後側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が増加し、さらに各更新タイミングにおいて前側のキーデータの比率と後側のキーデータの比率との和が100%となるように、ブレンド用テーブルBTが設定されている。 Regarding the blending table BT, in detail, the number of frames is set in the blending table BT, and the data of the number of frames is set in one-to-one correspondence with the key data on the front side. A ratio to be applied to each coordinate data set and a ratio to be applied to each coordinate data set in the rear key data are set. In this case, the blending table BT is set such that the blending ratio changes at a constant rate each time the number of frames increases by 1, that is, each time the coordinates of the individual particle images are updated. Specifically, for the key data on the front side, the ratio when blending by 1% decreases at each update timing, and for the key data on the rear side, 1% at each update timing. The blending table BT is set such that the ratio at the time of blending increases, and the sum of the ratio of the front key data and the ratio of the rear key data becomes 100% at each update timing.

なお、ブレンド用テーブルBTは、各更新タイミングとなるどに1%ずつ比率が変化していくように設定されている構成に限定されることはなく、2%ずつ又は3%ずつといったように2%以上ずつ変化していくように設定されていてもよく、また一定の比率ではなく異なる比率で変化していくように設定されていてもよい。 It should be noted that the blending table BT is not limited to the configuration in which the ratio is changed by 1% at each update timing, and is set to 2% or 3%. It may be set so as to change by at least %, or may be set so as to change at a different ratio instead of a constant ratio.

ステップS2109では、現状設定されているデータテーブルに基づいて、ブレンド用テーブルBTを参照する。また、ステップS2109では、当該データテーブルに設定されている現状のポインタ情報に基づいて、ブレンド用テーブルBTにおいて参照すべきフレーム数を把握するとともに、そのフレーム数に設定されている前側のキーデータの比率と後側のキーデータの比率とを読み出す。この場合、現状設定されているデータテーブルが第1キーデータKD1及び第2キーデータKD2であれば、第1キーデータKD1が前側のキーデータに相当し、第2キーデータKD2が後側のキーデータに相当する。 In step S2109, the blending table BT is referred to based on the currently set data table. In step S2109, the number of frames to be referred to in the blending table BT is grasped based on the current pointer information set in the data table, and the key data of the front side set to the number of frames is stored. The ratio and the ratio of the rear key data are read. In this case, if the currently set data table is the first key data KD1 and the second key data KD2, the first key data KD1 corresponds to the front key data and the second key data KD2 corresponds to the rear key data. Corresponds to data.

その後、ステップS2110にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2111にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。 After that, in step S2110, various parameters other than the coordinates are calculated for the particle dispersion object PC17 to update the control information related to the particle dispersion object PC17, and in step S2111, the particle dispersion effect is produced. After the update designation information is stored, this calculation process is ended.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2109にて決定したブレンド割合のデータと、上記ステップS2110にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。 When the calculation process for the particle dispersion effect is executed as described above, the drawing list created by the subsequent drawing list output process contains the information of the instruction to use the particle dispersion object PC17 of the particle dispersion texture PC18. The blend ratio data set in step S2109 and the parameter calculated in step S2110 are set together with the use instruction information. Further, update designation information of the particle dispersion effect indicating that the particle dispersion effect should be updated is set in the drawing list.

ステップS2107にて、キーデータの更新タイミングであると判定した場合には、ステップS2112に進む。当該ステップS2112では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。 When it is determined in step S2107 that it is the update timing of the key data, the process proceeds to step S2112. In step S2112, the particle dispersion object PC17 is grasped as a control target based on the currently set data table.

続くステップS2113では、新たなキーデータを読み出す処理を実行する。かかる処理では、現状設定されている2個のキーデータのうち後側のキーデータに対して次の順番のキーデータKD1〜KD3をメモリモジュール133から読み出す。具体的には、第1キーデータKD1及び第2キーデータKD2が現状設定されているため、これらのうち後側のキーデータは第2キーデータKD2となり、それに対して次の順番のキーデータは第3キーデータKD3となる。 In a succeeding step S2113, a process of reading new key data is executed. In this processing, the key data KD1 to KD3 in the next order with respect to the rear key data of the currently set two key data is read from the memory module 133. Specifically, since the first key data KD1 and the second key data KD2 are currently set, the rear key data among them is the second key data KD2, while the key data in the next order is It becomes the third key data KD3.

その後、ステップS2114にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2115にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。 After that, in step S2114, various parameters other than the coordinates are calculated for the particle dispersion object PC17 to update the control information related to the particle dispersion object PC17, and in step S2115, the particle dispersion effect is generated. After the update designation information is stored, this calculation process is ended.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2112にて読み出した第3キーデータKD3と、上記ステップS2113にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。 When the calculation process for the particle dispersion effect is executed as described above, the drawing list created by the subsequent drawing list output process contains the information of the instruction to use the particle dispersion object PC17 of the particle dispersion texture PC18. The third key data KD3 read out in step S2112 and the parameter calculated in step S2113 are set together with the information on the use instruction. Further, update designation information of the particle dispersion effect indicating that the particle dispersion effect should be updated is set in the drawing list.

ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2107にて否定判定をし、ステップS2108〜ステップS2111の処理を実行する。この場合においてステップS2109では、第2キーデータKD2を前側のキーデータ及び第2キーデータKD2を後側のキーデータとして、ブレンド割合が順次決定される。 By the way, from the next processing time when the third key data KD3 is newly set, a negative determination is made in step S2107 and the processing of steps S2108 to S2111 is executed until the end timing of the particle dispersion effect. In this case, in step S2109, the blend ratio is sequentially determined using the second key data KD2 as the front key data and the second key data KD2 as the rear key data.

次に、VDP135にて実行される粒子分散演出用の設定処理を、図35のフローチャートを参照しながら説明する。粒子分散演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、粒子分散演出用の設定処理は、今回の描画リストに粒子分散演出の開始指定情報及び粒子分散演出の更新指定情報のいずれかが設定されている場合に起動される。 Next, the particle dispersion effect setting process executed by the VDP 135 will be described with reference to the flowchart in FIG. The particle dispersion effect setting process is executed by the effect setting process of step S1003 in the drawing process (FIG. 16). Further, the setting process for the particle dispersion effect is activated when either the start designation information of the particle dispersion effect or the update designation information of the particle dispersion effect is set in the current drawing list.

先ずステップS2201では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2202にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17をVRAM134の展開用バッファ141に読み出す。その後、ステップS2203では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。 First, in step S2201, it is determined whether or not the particle dispersion effect start designation information is set in the current drawing list. If it is set, in step S2202, the address where the particle dispersion object PC17 is stored in the memory module 133 is grasped based on the drawing list this time, and the particle dispersion object PC17 is stored in the VRAM134. The data is read into the expansion buffer 141. After that, in step S2203, the first key data KD1 and the second key data KD2 set in the current drawing list are stored in the register 153.

続くステップS2204では、初期適用処理を実行する。初期適用処理では、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、第1キーデータKD1に設定されている各座標データに書き換えることにより、各頂点データの開始座標を設定する。また、ステップS2205では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In subsequent step S2204, an initial application process is executed. In the initial application processing, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data set in the first key data KD1 to set the start coordinate of each vertex data. In step S2205, parameters other than the coordinates designated for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2206にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。これにより、第1キーデータKD1に設定されている各座標データに対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 After that, in step S2206, the setting process to the world coordinate system is executed for the particle dispersion object PC17, and then this setting process is ended. As a result, the vertex data of the particle dispersion object PC17 is set at the coordinates corresponding to the coordinate data set in the first key data KD1. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, for each vertex data set in the coordinates as described above, the single particle image data corresponding to each vertex data is obtained. Is set.

一方、ステップS2201にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2207に進む。ステップS2207では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。 On the other hand, when it is determined in step S2201 that the start designation of the particle dispersion effect is not set in the current drawing list, the process proceeds to step S2207. In step S2207, it is determined whether new key data is designated in the current drawing list.

指定されていない場合には、ステップS2008にて、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、今回の描画リストにおいて設定されているブレンド割合のデータに従ってブレンドする。 If not specified, coordinate blending processing is executed in step S2008. In the blending process, the two currently set key data, specifically, the coordinate data of the first key data KD1 and the second key data KD2 in the first frame period are set in the drawing list this time. Blend according to the data of the blending ratio.

この場合、先ず第1キーデータKD1の一の頂点データに対応した座標データを読み出すとともに、第2キーデータKD2の上記頂点データに対応した座標データを読み出す。そして、前者の座標データを(x1,y1,z1)、後者の座標データを(x2,y2,z2)、ブレンド用テーブルBTから読み出した前側のキーデータの比率をrt1、及びブレンド用テーブルBTから読み出した後側のキーデータの比率をrt2とした場合において、ブレンド後の座標データ(x,y,z)が、
x:x1×rt1+x2×rt2
y:y1×rt1+y2×rt2
z:z1×rt1+z2×rt2
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した座標データに対して実行する。
In this case, first, the coordinate data corresponding to one vertex data of the first key data KD1 is read, and the coordinate data corresponding to the above vertex data of the second key data KD2 is read. Then, the former coordinate data is (x1, y1, z1), the latter coordinate data is (x2, y2, z2), the ratio of the front key data read from the blending table BT is rt1, and the blending table BT is When the ratio of the read back key data is rt2, the blended coordinate data (x, y, z) is
x: x1×rt1+x2×rt2
y: y1×rt1+y2×rt2
z: z1×rt1+z2×rt2
Blend so that Further, such blending is executed on the coordinate data corresponding to all the vertex data.

続くステップS2209では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。その後、ステップS2210にて、上記ステップS2208におけるブレンド結果である各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2209において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 In a succeeding step S2209, parameters other than the coordinates designated for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17. After that, in step S2210, each coordinate data as the blending result in step S2208 is set to the particle dispersion object PC17 already set in the world coordinate system, and the parameters grasped in step S2209 are set to the particles. After setting the distribution object PC 17, the present setting process ends.

この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2208におけるブレンド結果である各座標データに書き換える。これにより、ステップS2208のブレンド結果に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 In this case, when setting the coordinate data which is the blend result, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data which is the blend result in step S2208. As a result, each vertex data of the particle dispersion object PC17 is set at the coordinates corresponding to the blending result of step S2208. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, for each vertex data set in the coordinates as described above, the single particle image data corresponding to each vertex data is obtained. Is set.

ステップS2207にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合には、ステップS2211にて、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。 If it is determined in step S2207 that new key data is specified in the current drawing list, key data update processing is executed in step S2211. In the updating process, of the two key data currently stored in the register 153, the key data on the front side, specifically, the first key data KD1 is replaced with the new key data set in the drawing list this time. Specifically, the third key data KD3 is rewritten.

続くステップS2212では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2213では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In the following step S2212, application processing at the time of updating is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. In step S2213, parameters other than the coordinates designated for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2214にて、上記ステップS2212において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2214において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 Then, in step S2214, the coordinate data acquired in step S2212 is set in the particle dispersion object PC17 already set in the world coordinate system, and the parameters acquired in step S2214 are set for the particle dispersion. After setting the object PC 17, the present setting process ends.

この場合、上記ステップS2212にて把握した各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2212にて把握した各座標データに書き換える。これにより、第2キーデータKD2に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 In this case, when setting the coordinate data obtained in step S2212, the coordinate data corresponding to the vertex data of the particle dispersion object PC17 is rewritten with the coordinate data obtained in step S2212. As a result, each vertex data of the particle dispersion object PC17 is set at the coordinates corresponding to the second key data KD2. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, for each vertex data set in the coordinates as described above, the single particle image data corresponding to each vertex data is obtained. Is set.

ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2207にて否定判定をし、ステップS2208〜ステップS2210の処理を実行する。この場合においてステップS2208では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行される。 By the way, from the next processing time when the third key data KD3 is newly set, a negative determination is made in step S2207 and the processing of steps S2208 to S2210 is executed until the end timing of the particle dispersion effect. In this case, in step S2208, coordinate blending is performed using the second key data KD2 and the third key data KD3.

次に、粒子分散演出の内容について、図36を参照しながら説明する。 Next, the content of the particle dispersion effect will be described with reference to FIG.

図36(a)は粒子分散演出を説明するための説明図であり、図36(b−1)及び(b−2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。 FIG. 36(a) is an explanatory diagram for explaining the particle dispersion effect, and FIGS. 36(b-1) and 36(b-2) show in a simplified manner the trajectory of each particle simplex image. It is an explanatory view for explaining.

図36(a)に示すように、粒子分散演出は遊技回用の演出として実行され、具体的には遊技回が終了する場合において一の有効ライン上に大当たり図柄の組み合わせが停止表示された場合に、粒子分散演出が実行される。粒子分散演出では、表示面Gにおいて「球形の泡」である粒子単体画像PTが多数表示されるとともに、それら多数の粒子単体画像PTが連続する複数フレームに亘ってそれぞれ所定の軌道で変位するように表示される。 As shown in FIG. 36(a), the particle dispersion effect is executed as an effect for game times, and specifically, when a combination of jackpot symbols is stopped and displayed on one effective line when the game times are finished. Then, the particle dispersion effect is executed. In the particle dispersion effect, a large number of single particle images PT that are “spherical bubbles” are displayed on the display surface G, and the large number of single particle images PT are displaced in predetermined orbits over a plurality of consecutive frames. Displayed in.

当該所定の軌道について、図36(b−1)及び(b−2)を参照しながら具体的に説明すると、第1キーデータKD1の各座標データが設定された状態では、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b−1)において実線にて示す開始座標に対応した位置にて表示される。この場合、各粒子単体画像PT1〜PT3は、それぞれ異なる位置にて表示される。 The specific trajectory will be specifically described with reference to FIGS. 36(b-1) and (b-2). In the state where each coordinate data of the first key data KD1 is set, the particle single image PT1, Each of the particle single image PT2 and the particle single image PT3 is displayed at a position corresponding to the start coordinate indicated by the solid line in FIG. 36(b-1). In this case, the individual particle images PT1 to PT3 are displayed at different positions.

その後の第1フレーム期間では、第1キーデータKD1及び第2キーデータKD2のブレンド処理が実行されることにより、図36(b−1)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1〜PT3の変位軌道は直線状となっている。 In the subsequent first frame period, the blend processing of the first key data KD1 and the second key data KD2 is executed, so that the particle single image PT1, as shown by the chain double-dashed line in FIG. 36(b-1), The particle single image PT2 and the particle single image PT3 are displayed as if they are displaced in different trajectories. In this case, since the coordinates are determined by blending the first key data KD1 and the second key data KD2, the displacement trajectories of the individual particle images PT1 to PT3 are linear.

第1フレーム期間が経過した場合には、第2キーデータKD2の各座標データが設定されることにより、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b−2)において実線にて示す切換対象座標に対応した位置にて表示される。この場合、各粒子単体画像PT1〜PT3は、それぞれ異なる位置にて表示される。 When the first frame period has elapsed, the coordinate data of the second key data KD2 is set, so that the particle single image PT1, the particle single image PT2, and the particle single image PT3 are respectively displayed in FIG. It is displayed at the position corresponding to the switching target coordinates indicated by the solid line in 2). In this case, the individual particle images PT1 to PT3 are displayed at different positions.

その後の第2フレーム期間では、第2キーデータKD2及び第3キーデータKD3のブレンド処理が実行されることにより、図36(b−2)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1〜PT3の変位軌道は直線状となっている。また、第2フレーム期間における各粒子単体画像PT1〜PT3の軌道は、第1フレーム期間の場合における軌道とは異なっている。 In the subsequent second frame period, the blend processing of the second key data KD2 and the third key data KD3 is executed, so that the particle single image PT1, as shown by the chain double-dashed line in FIG. 36(b-2), The particle single image PT2 and the particle single image PT3 are displayed as if they are displaced in different trajectories. In this case, since the coordinates are determined by blending the first key data KD1 and the second key data KD2, the displacement trajectories of the individual particle images PT1 to PT3 are linear. Further, the trajectories of the individual particle images PT1 to PT3 in the second frame period are different from the trajectories in the first frame period.

以上のとおり、粒子分散演出では、粒子分散用オブジェクトPC17における各頂点データの座標データを、複数種類のキーデータKD1〜KD3のブレンドを利用しながら設定するようにしたことにより、データ容量の削減及び処理負荷の軽減という両者のバランスを図りながら、多数の粒子単体画像が分散していくかのような表示演出を行うことが可能となる。 As described above, in the particle dispersion rendering, the coordinate data of each vertex data in the particle dispersion object PC17 is set while using the blend of the plurality of types of key data KD1 to KD3, thereby reducing the data capacity and It is possible to perform a display effect as if a large number of single particle images are dispersed while achieving a balance between the reduction of the processing load.

すなわち、単体画像データの座標データが全フレーム数に亘って設定されたアニメーションデータを全単体画像データに1対1で対応させて設定する構成も考えられるが、この場合、それだけデータ容量が必要となる。これに対して、上記のように複数種類のキーデータKD1〜KD3のブレンドを利用することで、上記のように全てのアニメーションデータを設定する構成に比べて、必要なデータ容量を削減することが可能となる。 That is, it is conceivable that the animation data, in which the coordinate data of the single image data is set over the entire number of frames, is set in a one-to-one correspondence with all the single image data. Become. On the other hand, by using the blend of the plurality of types of key data KD1 to KD3 as described above, the required data capacity can be reduced as compared with the configuration in which all the animation data is set as described above. It will be possible.

その一方、全単体画像データの座標データをプログラムに基づく処理のみによって算出する構成も考えられるが、この場合、各粒子単体画像が相互に異なる軌道で変位表示されるとすると、それだけ複雑であって膨大なプログラムが必要となる。これに対して、上記のように複数種類のキーデータKD1〜KD3のブレンドを利用することで、座標データを算出するための情報がプログラム側とデータ側とで適度に分散されることとなり、処理負荷の軽減が図られる。 On the other hand, it is conceivable that the coordinate data of all single image data is calculated only by the processing based on the program, but in this case, if each single image of particles is displayed in a different trajectory, it would be complicated. A huge program is needed. On the other hand, by using the blend of the plurality of types of key data KD1 to KD3 as described above, the information for calculating the coordinate data is appropriately dispersed on the program side and the data side, and the processing is performed. The load can be reduced.

また、単体画像データを個別のオブジェクトとして設定するのではなく、粒子分散用オブジェクトPC17の各頂点データに対応させて設定したことにより、表示CPU131からVDP135に送信される描画リストのデータ容量を削減することが可能となる。 Further, the single image data is not set as an individual object but is set corresponding to each vertex data of the particle dispersion object PC 17, so that the data capacity of the drawing list transmitted from the display CPU 131 to the VDP 135 is reduced. It becomes possible.

また、VDP135においても単体画像データを設定するためのオブジェクトを読み出す場合において、各単体画像データに対応した個別のオブジェクトをそれぞれ読み出すのではなく、粒子分散用オブジェクトPC17として読み出すことが可能であるため、当該読み出しに要する処理負荷の軽減が図られる。 Further, in the VDP 135 as well, when an object for setting single image data is read, it is possible to read not the individual objects corresponding to each single image data, but the particle dispersion object PC 17, The processing load required for the reading can be reduced.

また、第1キーデータKD1及び第2キーデータKD2のブレンド処理は、表示CPU131ではなくVDP135にて実行されるため、表示CPU131の処理負荷の軽減を図ることが可能となる。 Further, since the blending process of the first key data KD1 and the second key data KD2 is executed by the VDP 135 instead of the display CPU 131, it is possible to reduce the processing load of the display CPU 131.

<粒子分散演出用の設定処理の別形態>
図37は、VDP135にて実行される粒子分散演出用の設定処理の別形態を説明するためのフローチャートである。
<Another form of setting process for particle dispersion production>
FIG. 37 is a flowchart for explaining another mode of the particle dispersion effect setting process executed by the VDP 135.

先ずステップS2301では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2302にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17を読み出す。その後、ステップS2303では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。 First, in step S2301, it is determined whether or not the particle dispersion effect start designation information is set in the current drawing list. If set, in step S2302, the address where the particle dispersion object PC17 is stored in the memory module 133 is grasped based on the drawing list this time, and the particle dispersion object PC17 is read. After that, in step S2303, the first key data KD1 and the second key data KD2 set in the current drawing list are stored in the register 153.

続くステップS2304では、今回の描画リストに基づいて、メモリモジュール133において第1テクスチャ及び第2テクスチャが記憶されているアドレスを把握する。 In a succeeding step S2304, the address where the first texture and the second texture are stored in the memory module 133 is grasped based on the drawing list of this time.

ここで、本別形態では、各キーデータKD1〜KD3に1対1で対応させてテクスチャも複数種類設定されている。具体的には、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3に1対1で対応させて第1テクスチャ、第2テクスチャ及び第3テクスチャが設定されている。なお、キーデータが4種類以上設定されている構成においては、それに対応させてテクスチャも4種類以上設定されていればよい。 Here, in this another embodiment, a plurality of types of textures are set in a one-to-one correspondence with the respective key data KD1 to KD3. Specifically, the first texture, the second texture, and the third texture are set in a one-to-one correspondence with the first key data KD1, the second key data KD2, and the third key data KD3. In addition, in the structure in which four or more types of key data are set, four or more types of textures may be set correspondingly.

各テクスチャには、図33にて示した粒子分散用テクスチャPC18と同様に、各頂点データに1対1で対応させて単体画像データが設定されている。このように単一の粒子分散用オブジェクトPC17に対して複数種類のテクスチャが設定されていることにより、粒子分散用オブジェクトPC17の一の頂点データに対して設定される単体画像データの種類が複数フレームの経過(すなわち複数の更新タイミングの経過)に伴って変更され、さらに当該変更が粒子分散用オブジェクトPC17の多数の頂点データ、より詳細には全頂点データに対して行われる。 Similar to the particle-dispersing texture PC 18 shown in FIG. 33, individual texture data is set for each texture in a one-to-one correspondence with each vertex data. Since a plurality of types of textures are set for a single particle-dispersion object PC17 in this way, the types of single image data set for one vertex data of the particle-dispersion object PC17 are a plurality of frames. (That is, the progress of a plurality of update timings), and the change is performed on a large number of vertex data of the particle dispersion object PC 17, more specifically, all vertex data.

例えば、第1テクスチャでは、第1の頂点データに対する単体画像データが、第1単体画像(例えば図36に示す「○」)を表示するための第1単体画像データであるのに対して、第2テクスチャでは、第1の頂点データに対する単体画像データが、第2単体画像(例えば図36に示す「□」)を表示するための第2単体画像データとなっている。同様に、第1テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像(例えば図36に示す「△」)を表示するための第3単体画像データであるのに対して、第2テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像とは異なる単体画像(例えば図36に示す「○」)を表示するための単体画像データとなっている。 For example, in the first texture, the single image data for the first vertex data is the first single image data for displaying the first single image (for example, “◯” shown in FIG. 36), whereas In the two-texture, the single image data for the first vertex data is the second single image data for displaying the second single image (for example, “□” shown in FIG. 36). Similarly, in the first texture, the single image data for the second vertex data is the third single image data for displaying the third single image (for example, “Δ” shown in FIG. 36). In the second texture, the single image data for the second vertex data is the single image data for displaying a single image different from the third single image (for example, “◯” shown in FIG. 36).

ステップS2304の処理を実行した後は、ステップS2305にて、上記ステップS2204と同様に、初期適用処理を実行する。これにより、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データが、第1キーデータKD1に設定されている各座標データに対応した開始座標に設定される。 After the process of step S2304 is executed, in step S2305, the initial application process is executed as in step S2204. Thereby, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is set to the start coordinate corresponding to each coordinate data set in the first key data KD1.

その後、ステップS2306にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2307にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第1テクスチャ及び第2テクスチャのうち第1テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第1テクスチャに対応した単体画像が、第1キーデータKD1に対応した座標で表示されることとなる。 Thereafter, in step S2306, parameters other than the coordinates designated for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2307, After performing the setting process to the world coordinate system for the particle dispersion object PC17, this setting process is ended. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the first texture of the first texture and the second texture is set for each vertex data set in the coordinates as described above. Only applies to the particle dispersion object PC17. As a result, the single image corresponding to the first texture is displayed at the coordinates corresponding to the first key data KD1.

一方、ステップS2301にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2308に進む。ステップS2308では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。 On the other hand, if it is determined in step S2301 that the start designation of the particle dispersion effect is not set in the current drawing list, the process proceeds to step S2308. In step S2308, it is determined whether new key data is designated in the current drawing list.

指定されていない場合には、ステップS2309にて、レジスタ153に設けられているブレンド用カウンタの数値情報を1加算されるように更新する。ここで、ブレンド用カウンタとは、複数のキーデータを用いた座標データのブレンドを行う場合、及び複数のテクスチャを用いた単体画像データのブレンドを行う場合において、そのブレンドの割合をVDP135にて特定するためのカウンタである。 If not specified, in step S2309, the numerical information of the blending counter provided in the register 153 is updated so that 1 is added. Here, the blending counter specifies the blending ratio by the VDP 135 when blending coordinate data using a plurality of key data and blending single image data using a plurality of textures. It is a counter for doing.

ブレンド用カウンタは、初期値として「0」が設定されており、カウンタ値が「1」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を99%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を1%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を99%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を1%とする。また、カウンタ値が「2」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を98%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を2%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を98%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を2%とする。また、カウンタ値が「99」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を1%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を99%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を1%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を99%とする。つまり、フレーム数が先に進むほど、前側のキーデータの適用比率が低減される一方、後側のキーデータの適用比率が増加され、同様に前側のテクスチャの適用比率が低減される一方、後側のテクスチャの適用比率が増加される。 The blending counter is set to "0" as an initial value, and when the counter value is "1", the ratio of the key data on the front side (for example, the first key data KD1) is set to 99% and the rear side is set. Of the key data (for example, the second key data KD2) is 1%, the ratio of the front texture (for example, the first texture) is 99%, and the ratio of the rear texture (for example, the second texture) is 1%. %. When the counter value is "2", the ratio of the front key data (for example, the first key data KD1) is set to 98%, and the ratio of the rear key data (for example, the second key data KD2) is set to 2. %, and the ratio of the front texture (for example, the first texture) is 98% and the ratio of the rear texture (for example, the second texture) is 2%. When the counter value is "99", the ratio of the front key data (for example, the first key data KD1) is set to 1% and the ratio of the rear key data (for example, the second key data KD2) is set to 99. %, and the ratio of the front side texture (for example, the first texture) is 1% and the rear side texture (for example, the second texture) is 99%. That is, as the number of frames goes forward, the application ratio of the key data on the front side is reduced, while the application ratio of the key data on the rear side is increased, and similarly, the application ratio of the texture on the front side is reduced, while The application rate of the side texture is increased.

なお、上記のようなブレンド用カウンタの数値情報に対応したブレンド割合の情報は、予めテーブル情報としてメモリモジュール133に記憶されているが、これに限定されることはなく、ブレンド用カウンタの数値情報に対応したブレンド割合の情報を、プログラムにて定められた演算式によって算出する構成としてもよい。 The blend ratio information corresponding to the numerical information of the blending counter as described above is stored in the memory module 133 in advance as table information, but the present invention is not limited to this, and the numerical information of the blending counter is not limited to this. The information of the blend ratio corresponding to may be calculated by an arithmetic expression defined by the program.

続くステップS2310では、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。このブレンドの具体的な演算方法は、上記ステップS2208の場合と同様である。 In a succeeding step S2310, coordinate blending processing is executed. In the blending process, the two currently set key data, specifically, the coordinate data of the first key data KD1 and the second key data KD2 in the first frame period, are updated in step S2309. Blending is performed according to the blending ratio corresponding to the numerical information of the blending counter later. The specific calculation method of this blend is the same as that in step S2208.

続くステップS2311では、テクスチャのブレンド処理を実行する。当該ブレンド処理では、現状把握されている2個のテクスチャ、具体的には第1フレーム期間であれば第1テクスチャ及び第2テクスチャの各単体画像データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。 In the following step S2311, texture blending processing is executed. In the blending process, the two currently known textures, specifically, the individual image data of the first texture and the second texture in the first frame period are used for blending after the updating process of step S2309. Blend according to the blend ratio corresponding to the numerical information of the counter.

例えば、先ず第1テクスチャの一の頂点データに対応した単体画像データを読み出すとともに、第2テクスチャの上記頂点データに対応した単体画像データを読み出す。そして、前者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)におけるRGBの各色情報を(r1,g1,b1)、後者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)を(r2,g2,b2)、ブレンド用カウンタの数値情報に対応した前側のテクスチャの比率をrt3、及びブレンド用カウンタの数値情報に対応した後側のテクスチャの比率をrt4(rt3+rt4=1)とした場合において、ブレンド後の単体画像データ(r,g,b)が、
r:r1×rt3+r2×rt4
g:g1×rt3+g2×rt4
b:b1×rt3+b2×rt4
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した単体画像データに対して実行する。
For example, first, the single image data corresponding to one vertex data of the first texture is read, and the single image data corresponding to the above vertex data of the second texture is read. Then, the RGB color information in the former single image data (here, one pixel for convenience of description) is (r1, g1, b1), and the latter single image data (here, one pixel for convenience of description). (R2, g2, b2), the ratio of the front texture corresponding to the numerical information of the blending counter is rt3, and the ratio of the rear texture corresponding to the numerical information of the blending counter is rt4 (rt3+rt4=1). In this case, the single image data (r, g, b) after blending is
r: r1×rt3+r2×rt4
g: g1×rt3+g2×rt4
b: b1×rt3+b2×rt4
Blend so that Further, such blending is executed on the single image data corresponding to all the vertex data.

その後、ステップS2312にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2313にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。 After that, in step S2312, parameters other than the coordinates designated for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2313, After performing the setting process to the world coordinate system for the particle dispersion object PC17, this setting process is ended.

この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2310におけるブレンド結果である各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、ステップS2311におけるブレンド結果である各単体画像データが適用される。これにより、ステップS2311のブレンド結果に対応した単体画像が、ステップS2310のブレンド結果に対応した座標で表示されることとなる。 In this case, when setting the coordinate data which is the blend result, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data which is the blend result in step S2310. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the individual image data which is the blend result in step S2311 is added to each vertex data set in the coordinates as described above. Applied. As a result, the single image corresponding to the blending result of step S2311 is displayed at the coordinates corresponding to the blending result of step S2310.

ここで、上記のようにVDP135側にてブレンド用カウンタを用いてブレンド割合を導出する構成であるため、表示CPU131においてはブレンド割合を導出するための処理は実行されない。これにより、表示CPU131の処理負荷の軽減が図られる。 Here, since the VDP 135 side is configured to derive the blend ratio using the blend counter as described above, the display CPU 131 does not execute the process for deriving the blend ratio. As a result, the processing load on the display CPU 131 can be reduced.

なお、表示CPU131は、第1キーデータKD1と第2キーデータKD2との組み合わせや、第2キーデータKD2と第3キーデータKD3との組み合わせといった、所定のキーデータの組み合わせを用いる場合におけるそれらキーデータのブレンド割合を変更する回数をVDP135に対して指示し、その指示に従ってVDP135がその所定のキーデータの組み合わせについて各変更回におけるブレンド割合を独自に決定する構成としてもよい。この場合、所定のキーデータの組み合わせとして同一のものを用いる期間が複数種類存在している場合において、特定の期間ではそれ以外の期間に比べてVDP135の処理負荷が大きい場合、その特定の期間では、表示CPU131が指示する変更回数を少なくすることで、VDP135の処理負荷の軽減を図ることが可能となる。また、上記構成において、VDP135が、各変更回において一定の割合でブレンド割合が変更されていくように設定されている構成としてもよく、この場合、指示された変更回数に応じて一義的に各変更回のブレンド割合を導出できるようなデータが設定されていてもよく、演算によって各変更回のブレンド割合を導出する構成としてもよい。 It should be noted that the display CPU 131 uses those keys in the case of using a predetermined combination of key data such as a combination of the first key data KD1 and the second key data KD2 and a combination of the second key data KD2 and the third key data KD3. A configuration may be adopted in which the number of times of changing the blending ratio of data is instructed to the VDP 135, and the VDP 135 independently determines the blending ratio at each changing time for the predetermined combination of key data according to the instruction. In this case, when there are a plurality of types of periods in which the same key data is used as a combination of the predetermined key data, if the processing load of the VDP 135 is larger in a specific period than in the other periods, in that specific period. By reducing the number of changes designated by the display CPU 131, the processing load on the VDP 135 can be reduced. Further, in the above-mentioned configuration, the VDP 135 may be set so that the blend ratio is changed at a constant rate at each change time. In this case, each VDP 135 is uniquely set according to the instructed change frequency. Data may be set so that the blend ratio of the change times can be derived, and the blend ratio of each change time may be derived by calculation.

ステップS2308にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合、ステップS2314にてブレンド用カウンタの初期化を実行する。これにより、次回の処理回からはブレンド割合の算出が最初から開始されることとなる。 If it is determined in step S2308 that new key data is specified in the current drawing list, the blending counter is initialized in step S2314. As a result, the calculation of the blend ratio is started from the beginning from the next processing time.

続くステップS2315では、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。また、ステップS2316では、新たなテクスチャを把握する。当該処理では、レジスタ153に現状記憶されている2個のテクスチャのうち、前側のテクスチャ、具体的には第1テクスチャを、今回の描画リストにおいて設定されている新たなテクスチャ、具体的には第3テクスチャに書き換える。なお、この書き換えに際してはメモリモジュール133からの第3テクスチャの読み出しが行われる。 In a succeeding step S2315, a key data updating process is executed. In the updating process, of the two key data currently stored in the register 153, the key data on the front side, specifically, the first key data KD1 is replaced with the new key data set in the drawing list this time. Specifically, the third key data KD3 is rewritten. Further, in step S2316, a new texture is grasped. In this process, of the two textures currently stored in the register 153, the front texture, specifically the first texture, is replaced with the new texture set in the drawing list this time, specifically the first texture. Rewrite to 3 textures. Note that the third texture is read from the memory module 133 at the time of this rewriting.

続くステップS2317では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2318では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In a succeeding step S2317, application processing at the time of updating is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. In step S2318, parameters other than the coordinates designated for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2319にて、上記ステップS2317において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2318において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 Then, in step S2319, the coordinate data acquired in step S2317 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameters acquired in step S2318 are used for the particle dispersion. After setting the object PC 17, the present setting process ends.

この場合、各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2317にて把握した各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第2テクスチャ及び第3テクスチャのうち第2テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第2テクスチャに対応した単体画像が、第2キーデータKD2に対応した座標で表示されることとなる。 In this case, when setting each coordinate data, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data grasped in step S2317. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the second texture of the second texture and the third texture is set for each vertex data set in the coordinates as described above. Only applies to the particle dispersion object PC17. As a result, the single image corresponding to the second texture is displayed at the coordinates corresponding to the second key data KD2.

ちなみに、第3キーデータKD3及び第3テクスチャが新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2308にて否定判定をし、ステップS2309〜ステップS2313の処理を実行する。この場合においてステップS2310では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行され、ステップS2311では、第2テクスチャ及び第3テクスチャを用いて単体画像データのブレンドが実行される。 By the way, from the next processing time when the third key data KD3 and the third texture are newly set, a negative determination is made in step S2308 until the end timing of the particle dispersion effect, and the processing of steps S2309 to S2313. To execute. In this case, in step S2310, the blending of the coordinates is performed using the second key data KD2 and the third key data KD3, and in step S2311, the blending of the single image data is performed using the second texture and the third texture. It

上記のように粒子分散演出を実行させるための別形態では、演出が進行することに伴って同一のオブジェクトに適用されるテクスチャが相違されることにより、粒子分散演出の表示態様に変化を与えることが可能となり、当該表示演出の単調化が抑えられる。この場合に、表示態様が変更されるフレーム毎に異なるテクスチャが用いられるのではなく、第1の更新タイミングに対応したテクスチャと、それよりも複数の更新タイミング後である第2の更新タイミングに対応したテクスチャとのブレンドを行うことで、それら第1の更新タイミングと第2の更新タイミングとの間において用いる画像データを作成する構成であるため、予め記憶されておくテクスチャの数を減らすことが可能となり、データ容量の削減が図られる。 In another form for executing the particle dispersion effect as described above, the display mode of the particle dispersion effect is changed by the texture applied to the same object being different as the effect progresses. It is possible to prevent the display effect from becoming monotonous. In this case, a different texture is not used for each frame in which the display mode is changed, but a texture corresponding to the first update timing and a second update timing that is a plurality of update timings later than that. It is possible to reduce the number of textures stored in advance because the image data used between the first update timing and the second update timing is created by blending with the textures Therefore, the data capacity can be reduced.

また、各テクスチャは、各キーデータに1対1で対応させて設定されており、さらに各テクスチャの切り換えは、各キーデータの切り換えに合わせて行われる。よって、VDP135における切り換えに係る処理の処理負荷の軽減が図られる。 Further, each texture is set in a one-to-one correspondence with each key data, and the switching of each texture is performed in accordance with the switching of each key data. Therefore, the processing load of the processing related to the switching in the VDP 135 can be reduced.

<粒子分散演出についての他の別形態>
・上記粒子分散演出(図35の場合及び図37の場合)において、キーデータKD1〜KD3の数をより多く設定するとともに、用いるキーデータKD1〜KD3の切り換えが発生するまでのフレーム数を少なく設定する(例えば10フレーム毎)ことで、座標データのブレンドを実行しながら、単体画像が直線状ではなく、曲線状の軌跡を描くように変位表示される構成としてもよい。
<Other forms of particle dispersion production>
In the particle dispersion effect (in the case of FIG. 35 and the case of FIG. 37), the number of key data KD1 to KD3 is set to be larger and the number of frames until the switching of the key data KD1 to KD3 to be used is set to be smaller. By doing so (for example, every 10 frames), while the coordinate data is being blended, the single image may be displaced and displayed so as to draw a curved trajectory instead of a linear trajectory.

・キーデータKD1〜KD3を用いてブレンドを行う対象を、座標データに加えて又は代えて、透明度を設定するためのα値としてもよく、テクスチャマッピングを実行しなくても頂点データの色情報や複数の頂点データからなるポリゴンの色情報を決定することを可能とする頂点カラーとしてもよい。また、オブジェクトに対するテクスチャの相対的な貼り付け位置を決定するためのUV値を変更させて、同一のテクスチャを貼り付ける場合であっても表示態様を変更させるUVスクロールを行う構成においては、そのUV値をキーデータのブレンドを用いて変更する構成としてもよい。 The target to be blended using the key data KD1 to KD3 may be an α value for setting transparency, in addition to or instead of the coordinate data, and color information of the vertex data and the color information of the vertex data may be set without executing texture mapping. It may be a vertex color that makes it possible to determine the color information of a polygon composed of a plurality of vertex data. Further, in the configuration in which the UV value for determining the relative pasting position of the texture with respect to the object is changed and the display mode is changed even when the same texture is pasted, the UV is changed. The value may be changed using blending of key data.

・第1フレーム期間と第2フレーム期間とが同一のフレーム数である構成に限定されることはなく、これらフレーム期間に含まれるフレーム数が異なっていてもよい。この場合、各フレーム期間に応じたブレンド処理を行う必要がある。 The first frame period and the second frame period are not limited to have the same number of frames, and the number of frames included in these frame periods may be different. In this case, it is necessary to perform blending processing according to each frame period.

・単体画像を表示させるための単体画像データの種類が同一である構成としてもよい。この場合、粒子分散用テクスチャPC18において各単体データに対応させて単体画像データを設定しておく必要がないため、当該粒子分散用テクスチャPC18のデータ容量の削減が図られる。 The type of single image data for displaying a single image may be the same. In this case, it is not necessary to set individual image data in the particle-dispersion texture PC 18 in association with each piece of individual data, so that the data capacity of the particle-dispersion texture PC 18 can be reduced.

・2種類のキーデータを用いてブレンドを行う構成に代えて、3種類以上のキーデータを用いてブレンドを行う構成としてもよい。この場合、これら3種類のキーデータをブレンドする比率を適宜変更することにより、単体画像が変位する場合の軌道を直線状ではなく、曲線状とすることが可能となる。また、3種類以上のキーデータを用いてブレンドを行う場合、例えば、それら3種類以上のキーデータから仮想の円弧や球面を算出により想定し、その想定した仮想の円弧や球面に沿って変位していくように単体画像が表示される構成としてもよい。 -Instead of performing the blending by using two types of key data, the blending may be performed by using three or more types of key data. In this case, by appropriately changing the blending ratio of these three types of key data, the trajectory when the single image is displaced can be curved instead of linear. Also, when blending is performed using three or more types of key data, for example, a virtual arc or spherical surface is assumed by calculation from these three or more types of key data, and displacement is performed along the assumed virtual arc or spherical surface. A single image may be displayed as if it were moving.

・VDP135が、キーデータを利用して頂点データを算出する専用の回路を有する構成としてもよい。また、VDP135が、キーデータを利用しない場合において頂点データを算出する専用の回路を有する構成としてもよい。これら回路を個別に有する構成とすることにより、それぞれの頂点データの算出に特化させることが可能となり、頂点データの算出を好適に行うことが可能となる。 The VDP 135 may be configured to have a dedicated circuit that calculates the vertex data using the key data. Further, the VDP 135 may be configured to have a dedicated circuit for calculating the vertex data when the key data is not used. By having these circuits individually, it becomes possible to specialize in the calculation of each vertex data, and the calculation of the vertex data can be performed appropriately.

・上記のようにキーデータを利用してパラメータデータを導出する構成を、スプライトデータといった2次元情報の画像データを利用して画像表示を行う構成に適用してもよい。例えばスプライトデータをフレームバッファ142に設定する場合の座標のパラメータを導出する上で、複数のキーデータのブレンドを行う構成としてもよい。 The configuration for deriving the parameter data using the key data as described above may be applied to a configuration for displaying an image using image data of two-dimensional information such as sprite data. For example, a plurality of key data may be blended in deriving the coordinate parameters when setting the sprite data in the frame buffer 142.

<海面表示を行うための構成>
次に、海面表示を行うための構成について説明する。
<Structure for displaying the sea level>
Next, a configuration for displaying the sea level will be described.

海面表示とは、背景において海面を表示させるための演出であり、さらにその海面が連続する複数フレーム(複数の画像更新タイミング)に亘って、波打つように表示される演出のことである。なお、海面表示は、上述した第1表示モード及び第2表示モードのうち第1表示モードにおいて実行される表示演出である。海面表示に際しては、海面用オブジェクトと、当該海面用オブジェクトの動きを細かく変化させるための法線マップデータとが用いられる。 The sea surface display is an effect for displaying the sea surface in the background, and is an effect in which the sea surface is displayed in a wavy manner over a plurality of consecutive frames (a plurality of image update timings). The sea surface display is a display effect executed in the first display mode of the first display mode and the second display mode described above. When displaying the sea surface, the sea surface object and normal map data for finely changing the movement of the sea surface object are used.

これら海面用オブジェクト及び法線マップデータについて、図38(a),(b)を参照しながら詳細に説明する。図38(a)は海面用オブジェクトPC19を説明するための説明図であり、図38(b)は法線マップデータND1,ND2を説明するための説明図である。 These sea surface objects and normal map data will be described in detail with reference to FIGS. 38(a) and 38(b). FIG. 38A is an explanatory diagram for explaining the sea surface object PC 19, and FIG. 38B is an explanatory diagram for explaining the normal line map data ND1 and ND2.

図38(a)に示すように、海面用オブジェクトPC19は、複数の頂点データによって規定される面データ(ポリゴン)SDを、複数行及び複数列となるように多数有している。この場合、各面データSDは、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(a)において左下角部分の面データSDは第1列第1行の情報を順番情報として有しており、図38(a)において右上角部分の面データSDは第25列第25行の情報を順番情報として有している。 As shown in FIG. 38A, the sea surface object PC 19 has a large number of surface data (polygons) SD defined by a plurality of vertex data in a plurality of rows and a plurality of columns. In this case, each surface data SD has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38A, the surface data SD in the lower left corner has the information in the first column and the first row as order information, and in FIG. 38A, the surface data SD in the upper right corner is the 25th column. It has 25 lines of information as order information.

各面データSDは4個の頂点データによる四角形として定義されているが、これに限定されることはなく、3個の頂点データによる三角形として定義されていてもよく、5個以上の頂点データによる他の多角形として定義されていてもよい。また、任意の一の面データSDは、他の面データSDと隣接しており、当該一の面データSDの頂点データは当該他の面データSDの頂点データを兼用している。つまり、各面データSDは隣り合う面データSD同士において辺が共通している。したがって、基本的には一の頂点データの座標データを変更した場合には、複数の面データSDが変形されることとなり、隣り合う2個の頂点データよりなる一の辺の座標データを変更した場合には、複数の面データSDの向きが変更されることとなる。 Although each surface data SD is defined as a quadrangle with four vertex data, it is not limited to this and may be defined as a triangle with three vertex data, and may be defined with five or more vertex data. It may be defined as another polygon. Further, the arbitrary one surface data SD is adjacent to the other surface data SD, and the vertex data of the one surface data SD also serves as the vertex data of the other surface data SD. That is, in each surface data SD, the sides of the adjacent surface data SD are common. Therefore, basically, when the coordinate data of one vertex data is changed, the plurality of surface data SD are transformed, and the coordinate data of one side composed of two adjacent vertex data is changed. In this case, the directions of the plurality of surface data SD are changed.

海面用オブジェクトPC19には、上記各面データSDの初期状態における座標や面の向きを決定すべく各頂点データの初期座標データが設定されている。また、これ以外にも、海面用オブジェクトPC19の初期スケールのデータや、全頂点データ(又は面データSD)に対して一律に適用される初期α値のデータや、海面用オブジェクトPC19の初期回転角度のデータなどが含まれている。 In the sea surface object PC 19, initial coordinate data of each vertex data is set in order to determine the coordinates in the initial state of each surface data SD and the orientation of the surface. In addition to this, data of the initial scale of the sea surface object PC19, data of an initial α value uniformly applied to all vertex data (or surface data SD), and an initial rotation angle of the sea surface object PC19. Data etc. are included.

ここで、海面用オブジェクトPC19の各面データSDは、隣接する複数の面データSDをまとめることで複数群に区分けされており、具体的には第1面データ群、・・・、第k面データ群(kは2以上の整数であり、本実施の形態ではk=25)を有している。各面データ群に含まれる面データSDの数は、複数である所定数(具体的には25個)で同一となっているが、少なくとも一部の面データ群間において含まれる面データSDの数が異なっていてもよい。なお、図38(a)においては、太線で囲んだ各単位が面データ群に相当する。 Here, each surface data SD of the sea surface object PC 19 is divided into a plurality of groups by collecting a plurality of adjacent surface data SD, and specifically, the first surface data group,..., The k-th surface. It has a data group (k is an integer of 2 or more, and in this embodiment, k=25). The number of surface data SD included in each surface data group is equal to a plurality of predetermined numbers (specifically 25), but the surface data SD included in at least a part of the surface data groups The numbers may be different. Note that, in FIG. 38A, each unit surrounded by a thick line corresponds to a surface data group.

上記各面データ群は、表示CPU131における制御に基づき、それぞれ個別に座標及び面の向きが決定される。詳細には、第1面データ群に含まれる全面データSDが所定の方向を向く同一の面を構成し、その状態において第1面データ群にて基準となる面データSDの座標が所定の座標となるように、第1面データ群に含まれる各面データSDの座標及び面の向きが決定される。つまり、海面用オブジェクトPC19の各面データSDの座標及び向きは、先ず海面データ群の単位で大まかに決定される。以下、この各面データ群の単位で決定された座標及び向きを、第1段階の形態とも言う。 The coordinates and the orientation of the surface of each surface data group are individually determined under the control of the display CPU 131. Specifically, the entire surface data SD included in the first surface data group forms the same surface facing a predetermined direction, and in that state, the coordinates of the reference surface data SD in the first surface data group have predetermined coordinates. Thus, the coordinates and the orientation of each surface data SD included in the first surface data group are determined. That is, the coordinates and direction of each surface data SD of the sea surface object PC 19 are first roughly determined in units of the sea surface data group. Hereinafter, the coordinates and orientation determined in units of each surface data group will also be referred to as the first stage form.

なお、基準となる面データSDは、各面データ群において単一の面データSDであるが、複数の面データSDであってもよい。また、面データSDを基準として座標を設定するのではなく、面データ群の隅角部分を構成する頂点データに対して基準となる座標を設定する構成としてもよく、この場合、隅角部分の全てに対して基準となる座標を設定してもよく、一の隅角部分に対してのみ基準となる座標を設定してもよい。また、海面用オブジェクトPC19を一連のものとすべく、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、上記座標及び面の向きが決定される。 The reference surface data SD is a single surface data SD in each surface data group, but may be a plurality of surface data SD. Further, instead of setting the coordinates with reference to the surface data SD, the reference data may be set with respect to the vertex data forming the corner portion of the surface data group. The reference coordinates may be set for all, or the reference coordinates may be set for only one corner portion. Further, in order to make the sea surface object PC 19 into a series, in the adjacent surface data groups, the coordinates and the orientation of the surface are determined so that the coordinates of the vertex data at the boundary between the two are the same.

法線マップデータND1,ND2は、各面データ群の単位で第1段階の形態が決定された後において、各面データ群に含まれる各面データSDの向きを相互に異ならせるためのデータであり、複数種類、具体的には2種類の法線マップデータND1,ND2がメモリモジュール133に予め記憶されている。各法線マップデータND1,ND2はそれぞれ、各面データSDの向きを第1段階の形態から変化させるための単位法線データUNDを多数有している。なお、以下の説明では、一対の法線マップデータND1,ND2の一方を第1法線マップデータND1、他方を第2法線マップデータND2とも言う。 The normal map data ND1 and ND2 are data for making the orientations of the surface data SD included in each surface data group mutually different after the first-stage form is determined for each surface data group. Yes, a plurality of types, specifically, two types of normal map data ND1 and ND2 are stored in the memory module 133 in advance. Each of the normal line map data ND1 and ND2 has a large number of unit normal line data UND for changing the direction of each surface data SD from the first stage form. In the following description, one of the pair of normal line map data ND1 and ND2 is also referred to as first normal line map data ND1 and the other is also referred to as second normal line map data ND2.

図38(b)は、多数の単位法線データUNDを多数有している法線マップデータND1,ND2のイメージ図であり、複数行及び複数列となるように配列された各四角部分が単位法線データUNDを示す。この場合、各法線マップデータND1,ND2において各単位法線データUNDはそれぞれ、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(b)において左下角部分の単位法線データUNDは第1列第1行の情報を順番情報として有しており、図38(b)において右上角部分の単位法線データUNDは第35列第35行の情報を順番情報として有している。 FIG. 38(b) is an image diagram of the normal map data ND1 and ND2 having a large number of unit normal data UND, in which each square portion arranged in a plurality of rows and a plurality of columns is a unit method. The line data UND is shown. In this case, each unit normal data UND in each normal map data ND1 and ND2 has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38(b), the unit normal data UND in the lower left corner has the information in the first column, first row as the order information, and in FIG. 38(b), the unit normal data UND in the upper right corner is It has the information of the 35th column and the 35th row as order information.

各単位法線データUNDは、各面データSDの向きを第1段階の形態から変化させる場合における方向のデータ及びその方向に変化させる際の変化量のデータ(以下、変更データともいう)を有している。この場合、一の法線マップデータND1,ND2において、一部の単位法線データUND間ではその変化させる方向のデータ及びその方向への変化量のデータが同一となっている。但し、これに限定されることはなく、全ての単位法線データUND間において相違していてもよい。 Each unit normal data UND has data of a direction when the direction of each surface data SD is changed from the first-stage form and data of an amount of change when changing the direction (hereinafter, also referred to as change data). is doing. In this case, in one piece of normal line map data ND1 and ND2, some of the unit normal line data UND have the same data in the changing direction and the same amount of change data in the direction. However, the present invention is not limited to this, and may be different among all the unit normal data UND.

一対の法線マップデータND1,ND2間において、各単位法線データUNDにより決定される変更データとして同一のものは含まれているが、変更データの配列は一致していない。この場合、一対の法線マップデータND1,ND2間における全ての順番情報において、各単位法線データUNDにより決定される変更データが相違していてもよく、少なくとも一部の順番情報において各単位法線データUNDにより決定される変更データが相違している構成としてもよい。各法線マップデータND1,ND2において、単位法線データUNDの数は同一となっているが異なっていもよい。 Between the pair of normal line map data ND1 and ND2, the same change data determined by each unit normal line data UND is included, but the change data sequences do not match. In this case, the change data determined by each unit normal data UND may be different in all the order information between the pair of normal line map data ND1 and ND2, and at least a part of the order information includes each unit method. The change data determined by the line data UND may be different. Although the number of unit normal data UND is the same in each normal map data ND1 and ND2, it may be different.

各法線マップデータND1,ND2における単位法線データUNDの数は、海面用オブジェクトPC19を構成する面データSDの数よりも多く設定されている。かかる構成において、各法線マップデータND1,ND2の単位法線データUNDを海面用オブジェクトPC19の面データSDに適用する場合、全面データSDが各法線マップデータND1,ND2に含まれる範囲において、基準となる面データSDに適用する単位法線データUNDが選択され、その関係を基準とするとともに面データSD側の順番情報と単位法線データUND側の順番情報とを利用することで、上記基準となる面データSD以外の面データSDに対応させる単位法線データUNDが選択される。 The number of unit normal data UND in each of the normal map data ND1 and ND2 is set to be larger than the number of surface data SD forming the sea surface object PC19. In such a configuration, when the unit normal data UND of each normal map data ND1 and ND2 is applied to the surface data SD of the sea surface object PC19, in the range where the whole surface data SD is included in each normal map data ND1 and ND2, By selecting the unit normal data UND to be applied to the reference surface data SD and using the relationship as a reference and using the order information on the surface data SD side and the order information on the unit normal data UND side, The unit normal data UND corresponding to the surface data SD other than the reference surface data SD is selected.

より詳細に説明すると、面データSDを第m列第n行分有している構成において(m及びnは1以上の整数)、基準となる面データSDが第1列第1行であり、それに対応する単位法線データUNDが第s列第t行である場合(s及びtは1以上の整数)、今回使用する単位法線データUNDは第s列〜第(s+m−1)列であって、第t列〜第(t+n−1)行分となる。したがって、それら単位法線データUNDが法線マップデータND1,ND2から読み出される。そして、その読み出された各単位法線データUNDは、第s列第t行の順番情報が第1列第1行となる演算によって順番情報の変換が行われるとともに、その変換後の順番情報と同一の順番情報の面データSDに対応付けられる。 More specifically, in the configuration having the surface data SD for the m-th column and the n-th row (m and n are integers of 1 or more), the reference surface data SD is the first column, the first row, When the corresponding unit normal data UND is the sth column and the tth row (s and t are integers of 1 or more), the unit normal data UND used this time is the sth column to the (s+m-1)th column. Therefore, it corresponds to the t-th column to the (t+n−1)-th row. Therefore, the unit normal data UND are read from the normal map data ND1 and ND2. Then, the read unit normal data UND is converted in order information by an operation in which the order information in the sth column and the tth row becomes the first column and the first row, and the order information after the conversion is performed. Is associated with the surface data SD having the same order information as.

図39(a)及び(b)を参照しながら、一対の法線マップデータND1,ND2を海面用オブジェクトPC19に適用する手法を説明する。 A method of applying the pair of normal line map data ND1 and ND2 to the sea surface object PC19 will be described with reference to FIGS. 39(a) and 39(b).

図39(a)に示すように、法線マップデータND1,ND2を用いて海面用オブジェクトPC19の面データSDの向きを変更させる場合には、一対の法線マップデータND1,ND2が海面用オブジェクトPC19に対して同時に適用される。この場合、海面表示の開始時においては、一方の法線マップデータND1の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。また、他方の法線マップデータND2についても同様に、当該法線マップデータND2の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。 As shown in FIG. 39(a), when the orientation of the surface data SD of the sea surface object PC19 is changed using the normal map data ND1 and ND2, the pair of normal map data ND1 and ND2 is the sea surface object. It is applied to the PC 19 at the same time. In this case, at the start of the sea surface display, the unit normal data UND of the corner portion of one of the normal map data ND1 coincides with the corner portion on the same side of the sea surface object PC19, and the sea surface object PC19 Data setting is performed so that all surface data SD correspond to different unit normal data UND. Similarly, for the other normal map data ND2, the unit normal data UND of the corner portion of the normal map data ND2 matches the corner portion on the same side of the sea surface object PC19, and the sea surface object Data setting is performed so that all surface data SD of the PC 19 correspond to different unit normal data UND.

この場合、同一の面データSDに対して一方の法線マップデータND1の単位法線データUNDと他方の法線マップデータND2の単位法線データUNDとが同時に対応することとなる。これら単位法線データUNDの変更データを面データSDに適用する場合には、一方の法線マップデータND1に対応した変更データによる面データSDの向きと、他方の法線マップデータND2に対応した変更データによる面データSDの向きとの中間の向きとなるように、各変更データのブレンドが実行され、そのブレンドした結果の変更データが面データSDに対して適用される。 In this case, the unit surface normal data UND of one normal map data ND1 and the unit normal data UND of the other normal map data ND2 simultaneously correspond to the same surface data SD. When the modified data of the unit normal data UND is applied to the surface data SD, the orientation of the surface data SD according to the modified data corresponding to one normal map data ND1 and the other normal map data ND2 are applied. The blending of the respective change data is executed so that the orientation becomes an intermediate direction from the orientation of the surface data SD by the modification data, and the modification data resulting from the blending is applied to the surface data SD.

なお、図39(a)では、開始時に基準となる隅角部分の位置が、一方の法線マップデータND1と他方の法線マップデータND2とで異なる構成となっているが、同一であってもよい。この場合であっても、一対の法線マップデータND1,ND2間において変更データの配列が異なっているため、面データSDに適用される変更データの内容が両法線マップデータND1,ND2で同一となる事象が全ての面データSDに対して発生してしまうことはない。 Note that, in FIG. 39A, the position of the corner portion serving as the reference at the start is different between the one normal map data ND1 and the other normal map data ND2, but the positions are the same. Good. Even in this case, since the arrangement of the change data is different between the pair of normal map data ND1 and ND2, the content of the change data applied to the surface data SD is the same in both normal map data ND1 and ND2. The above phenomenon does not occur for all surface data SD.

その後、海面表示におけるフレーム数が進行していくことに伴って、図39(b)に示すように、海面用オブジェクトPC19の基準となる面データSDに対して対応する単位法線データUNDが、両法線マップデータND1,ND2のそれぞれにおいて変更される。但し、この変更に際しては、海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているように変更が行われる。 Then, as the number of frames in the sea surface display progresses, as shown in FIG. 39B, the unit normal data UND corresponding to the surface data SD that is the reference of the sea surface object PC 19 becomes Both normal map data ND1 and ND2 are changed. However, at the time of this change, the change is made so that all the surface data SD of the sea surface object PC 19 correspond to different unit normal data UND.

このように基準となる面データSDに対応する単位法線データUNDを変更させることにより、各面データSDの向きが変更される態様を除々に変化させることが可能となり、海面表示を変化に富んだものとすることが可能となる。また、一対の法線マップデータND1,ND2をブレンドする構成であることにより、パチンコ機10の設計段階において上記変更データのバリエーションをある程度抑えたとしても、面データSDに対して実質的に適用される変更データのバリエーションを増やすことが可能となる。 In this way, by changing the unit normal data UND corresponding to the reference surface data SD, it is possible to gradually change the manner in which the direction of each surface data SD is changed, and the sea surface display is rich in variation. It becomes possible. Further, since the pair of normal line map data ND1 and ND2 are blended, even if the variation of the change data is suppressed to some extent in the design stage of the pachinko machine 10, it is substantially applied to the surface data SD. It is possible to increase the variation of change data.

次に、図40を参照しながら、各面データSDに対する変更データの適用の仕方を説明する。 Next, with reference to FIG. 40, a method of applying the change data to each surface data SD will be described.

既に説明したように各面データSDに対して単位法線データUNDが個別に対応付けられるが、それら全ての面データSDに対して単位法線データUNDによる変更データが適用されるわけではなく、各面データ群において一部の面データSD1に対してのみ単位法線データUNDによる変更データが適用される。詳細には、同一の頂点データを共有する面データSD同士に対して同時に変更データの適用が行われないように、適用対象となる面データSD1が予め定められている。 As described above, the unit normal data UND is individually associated with each surface data SD, but the modified data by the unit normal data UND is not applied to all of the surface data SD, The change data based on the unit normal data UND is applied only to a part of the surface data SD1 in each surface data group. Specifically, the surface data SD1 to be applied is predetermined so that the modification data is not applied simultaneously to the surface data SD that share the same vertex data.

詳細には、各面データ群において変更データが適用される面データSD1は、図40(a)に示すように一部に限られており、それら適用対象の面データSD1間には、他の面データSD2が存在することで、適用対象の面データSD1同士において頂点データを共有していない。また、適用対象の面データSD1は面データ群においてその隅角部分を構成していないため、面データ群間で見た場合であっても、適用対象の面データSD1同士において頂点データを共有していない。このような構成であることにより、法線マップデータND1,ND2を利用してランダムに面データSDの向きを変更する構成であったとしても、適用対象の面データSD1間にはそれら面データSD1の向きの違いを吸収するための緩衝用の面データSD2が存在することとなり、海面用オブジェクトPC19の面としての連続性を担保することが可能となる。 Specifically, the surface data SD1 to which the modified data is applied in each surface data group is limited to a part as shown in FIG. Since the surface data SD2 exists, the vertex data is not shared between the surface data SD1 to be applied. Further, since the surface data SD1 to be applied does not form a corner portion in the surface data group, the vertex data is shared between the surface data SD1 to be applied even when viewed between the surface data groups. Not not. With such a configuration, even if the orientation of the surface data SD is randomly changed by using the normal map data ND1 and ND2, the surface data SD1 is applied between the surface data SD1 to be applied. Since the buffer surface data SD2 for absorbing the difference in the orientation exists, it is possible to ensure the continuity as the surface of the sea surface object PC19.

適用対象の面データSD1に対して変更データが適用されることにより、各面データSDの向きが第1段階の形態から変更される様子を図40(b−1)及び(b−2)に示す。図40(b−1)に示すように、第1段階の形態では、所定の面データ群に含まれる各面データSD1,SD2は、同一の方向を向いており、同一の面を形成している。 FIGS. 40(b-1) and 40(b-2) show how the orientation of each surface data SD is changed from the form of the first stage by applying the modification data to the surface data SD1 to be applied. Show. As shown in FIG. 40(b-1), in the first-stage mode, the surface data SD1 and SD2 included in the predetermined surface data group are oriented in the same direction and form the same surface. There is.

これら面データSD1,SD2のうち、2番目と4番目が適用対象の面データSD1であり、これら2番目及び4番目の面データSD1に対して、両法線マップデータND1,ND2のブレンド結果である変更データが適用される。この際、図40(b−2)に示すように、2番目及び4番目の面データSD1がそれぞれ対応する変更データに基づく向きに変更される。また、適用対象の面データSD1ではなく緩衝用の面データSD2である1番目、3番目及び5番目の各面データSD2は、第1段階の形態からの変化量が最も少ない態様において海面用オブジェクトPC19の面としての連続性を担保するようにして向きが変更される。 Of these surface data SD1 and SD2, the second and fourth surface data SD1 is the application target, and the blending result of both normal line map data ND1 and ND2 with respect to these second and fourth surface data SD1. Some change data applies. At this time, as shown in FIG. 40B-2, the orientations of the second and fourth surface data SD1 are changed based on the corresponding change data. Also, the first, third, and fifth surface data SD2, which is the surface data SD2 for buffering, not the surface data SD1 to be applied, is the sea surface object in the mode in which the amount of change from the first stage form is the smallest. The orientation is changed so as to ensure the continuity of the surface of the PC 19.

以下に、海面用オブジェクトPC19の各面データSDの向きを設定するための具体的な処理構成を説明する。 Hereinafter, a specific processing configuration for setting the orientation of each surface data SD of the sea surface object PC 19 will be described.

図41(a)は、表示CPU131にて実行される海面表示用の演算処理を示すフローチャートである。海面表示用の演算処理は、タスク処理(図14)のステップS903における背景用演算処理にて実行される。また、海面表示用の演算処理は、第1表示モードである状況で実行されるものであり、図24におけるステップS1502〜ステップS1505の処理の一部として実行される。 FIG. 41( a) is a flowchart showing the arithmetic processing for sea level display executed by the display CPU 131. The calculation processing for displaying the sea level is executed by the calculation processing for background in step S903 of the task processing (FIG. 14). The arithmetic processing for displaying the sea level is executed in the first display mode, and is executed as a part of the processing of steps S1502 to S1505 in FIG.

先ずステップS2401では、現状設定されているデータテーブルに基づいて、海面表示の実行中であるか否かを判定する。海面表示の実行中ではない場合にはステップS2402にて、海面表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2403に進む。 First, in step S2401, it is determined based on the currently set data table whether or not the sea surface display is being executed. If the sea surface display is not being executed, it is determined in step S2402 whether it is the sea surface display start timing. If it is not the start timing, the present arithmetic processing is terminated as it is, and if it is the start timing, the process proceeds to step S2403.

ステップS2403では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。ちなみに、ステップS2403の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、海面用オブジェクトPC19に対して制御開始用の処理が完了している。また、制御が開始された海面用オブジェクトPC19の制御用の情報は、海面表示が完了するまではワークRAM132に記憶保持される。 In step S2403, the sea surface object PC 19 is grasped as a control target based on the currently set data table. By the way, at the execution timing of the process of step S2403, the control start process is completed for the sea surface object PC 19 in the immediately preceding control start setting process (step S901). The control information of the sea surface object PC 19 whose control has been started is stored and held in the work RAM 132 until the sea surface display is completed.

続くステップS2404では、第1法線マップデータND1及び第2法線マップデータND2を制御対象としてVDP135に指示するための情報を記憶する。但し、表示CPU131では、これら第1法線マップデータND1及び第2法線マップデータND2を海面用オブジェクトPC19に実際に適用するために必要な演算処理は実行しない。つまり、表示CPU131は、第1法線マップデータND1及び第2法線マップデータND2については、これらデータND1,ND2を使用すべきことをVDP135に対して指示するものの、これらデータND1,ND2を実際に制御するための演算処理を実行しない。これにより、表示CPU131の処理負荷の軽減が図られる。 In the following step S2404, information for instructing the VDP 135 to control the first normal map data ND1 and the second normal map data ND2 as control targets is stored. However, the display CPU 131 does not execute the arithmetic processing necessary to actually apply the first normal map data ND1 and the second normal map data ND2 to the sea surface object PC19. In other words, although the display CPU 131 instructs the VDP 135 to use the data ND1 and ND2 for the first normal map data ND1 and the second normal map data ND2, these data ND1 and ND2 are actually used. Do not execute the arithmetic processing for controlling. As a result, the processing load on the display CPU 131 can be reduced.

続くステップS2405では、メモリモジュール133から海面用アニメーションデータをワークRAM132に読み出す。図41(b)は海面用アニメーションデータADを説明するための説明図である。海面用アニメーションデータADは、海面用オブジェクトPC19を面データ群の単位で制御するためのデータであり、当該海面用アニメーションデータADによって各面データ群の基準座標及び向きが決定されることで、海面用オブジェクトPC19について第1段階の形態が決定される。 In a succeeding step S2405, the sea surface animation data is read from the memory module 133 to the work RAM 132. FIG. 41B is an explanatory diagram for explaining the animation data AD for the sea surface. The sea surface animation data AD is data for controlling the sea surface object PC 19 in units of surface data groups, and the sea surface animation data AD determines the reference coordinates and directions of the respective surface data groups to determine the sea surface. The form of the first stage is determined for the object PC19 for use.

より詳細には、海面用アニメーションデータADには、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには、各面データ群について基準座標のデータ及び向きのデータが設定されている。例えば、第1面データ群に対しては、第1のポインタ情報に対応させて、基準座標のデータ(A1−1)及び向きのデータ(B1−1)が設定されており、第2のポインタ情報に対応させて、基準座標のデータ(A1−2)及び向きのデータ(B1−2)が設定されており、第fのポインタ情報(fは3以上の整数であり、例えば「50」)に対応させて、基準座標のデータ(A1−f)及び向きのデータ(B1−f)が設定されている。また、第2面データ群、・・・、第k面データ群に対しても各ポインタ情報に対応させて基準座標のデータ及び向きのデータが設定されている。 More specifically, a plurality of pointer information is set in the sea surface animation data AD so that the pointer information has a serial number, and each pointer information includes a reference coordinate data and a direction for each surface data group. The data is set. For example, for the first surface data group, the reference coordinate data (A1-1) and the orientation data (B1-1) are set in association with the first pointer information, and the second pointer is set. The reference coordinate data (A1-2) and the orientation data (B1-2) are set corresponding to the information, and the f-th pointer information (f is an integer of 3 or more, for example, “50”). The reference coordinate data (A1-f) and the orientation data (B1-f) are set in correspondence with. Further, also for the second surface data group,..., And the kth surface data group, the reference coordinate data and the orientation data are set in association with each pointer information.

ポインタ情報は、海面表示が行われている状況において1フレーム分進行する場合(画像更新タイミングとなる度)に更新され、ポインタ情報の更新に伴って基準座標のデータ及び向きのデータの組合せが次の順番のものに変更されることとなる。この場合に、それら連続する基準座標のデータ及び向きのデータは、各面データ群において第1段階の形態が動きの連続性を有するように設定されている。 The pointer information is updated when one frame progresses in the situation where the sea surface display is being performed (every time when the image is updated), and the combination of the data of the reference coordinates and the data of the orientation is next as the pointer information is updated. Will be changed to the order of. In this case, the continuous reference coordinate data and the orientation data are set so that the first-stage form has motion continuity in each surface data group.

また、各面データ群間においてポインタ情報の進行に伴う基準座標のデータ及び向きのデータの配列態様は相違しているが、隣接する面データ群間において形態上の連続性が損なわれないようにそれら基準座標のデータ及び向きのデータが設定されている。つまり、複数の辺が他の面データ群と接している面データ群は、それら他の面データ群の基準座標及び向きが決定されれば、それら他の面データ群と接している状態を解除しない限り、基準座標及び向きに制約が生じ、場合によっては一義的に定まることとなる。このような状況において、当該他の面データ群と接している状態を解除しないようにして、各面データ群の基準座標及び向きが予め定められている。具体的には、既に説明したとおり、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、基準座標のデータ及び向きのデータが決定されている。 Also, the arrangement of the reference coordinate data and the orientation data is different between the surface data groups as the pointer information progresses, but the morphological continuity between adjacent surface data groups should not be impaired. The data of the reference coordinates and the data of the orientation are set. In other words, for a surface data group in which multiple sides are in contact with another surface data group, if the reference coordinates and orientations of these other surface data groups are determined, the state in which they are in contact with these other surface data groups is released. Unless otherwise, there will be restrictions on the reference coordinates and orientation, and in some cases it will be uniquely determined. In such a situation, the reference coordinates and the orientation of each surface data group are predetermined so as not to release the state of being in contact with the other surface data group. Specifically, as described above, in the adjacent surface data groups, the reference coordinate data and the orientation data are determined such that the coordinates of the vertex data at the boundary between the two are the same.

図41(a)の説明に戻り、ステップS2405にて海面用アニメーションデータADを読み出した後は、ステップS2406にて、当該海面用アニメーションデータADから初期設定データを把握する。具体的には、開始用のデータとして、第1のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2407にて海面表示の開始指定情報を記憶した後に、本演算処理を終了する。 Returning to the explanation of FIG. 41A, after the sea surface animation data AD is read in step S2405, the initial setting data is grasped from the sea surface animation data AD in step S2406. Specifically, as the start data, a combination of the reference coordinate data and the orientation data set in association with the first pointer information is read out for the entire data group. Then, in step S2407, the sea surface display start designation information is stored, and then the present arithmetic processing is terminated.

上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。さらにまた、上記ステップS2406にて把握した第1段階の形態についての初期設定データが設定されるとともに、海面表示を開始すべきことを示す海面表示の開始指定情報が、描画リストに設定される。 When the arithmetic processing for sea surface display is executed as described above, information on the use instruction of the sea surface object PC 19 is set in the drawing list created in the subsequent drawing list output processing, and the first method is used. Information on the instruction to use the line map data ND1 and the second normal line map data ND2 is set. Furthermore, the initial setting data for the first-stage form ascertained in step S2406 is set, and sea surface display start designation information indicating that sea surface display should be started is set in the drawing list.

ステップS2401にて海面表示の実行中であると判定した場合には、ステップS2408に進む。ステップS2408では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。また、ステップS2409では、現状設定されているデータテーブルに基づいて、第1法線マップデータND1及び第2法線マップデータND2を制御対象として把握する。 When it is determined in step S2401 that the sea level display is being executed, the process proceeds to step S2408. In step S2408, the sea surface object PC 19 is grasped as a control target based on the currently set data table. Further, in step S2409, the first normal map data ND1 and the second normal map data ND2 are grasped as control targets based on the currently set data table.

続くステップS2410では、既にワークRAM132に読み出されている海面用アニメーションデータADのポインタ情報を1増加させるように更新し、ステップS2411にて、その更新後のポインタ情報に対応した更新データを把握する。この把握処理について具体的には、更新用のデータとして、更新後のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2412にて、海面表示の更新指定情報を記憶した後に、本演算処理を終了する。 In the following step S2410, the pointer information of the sea surface animation data AD already read in the work RAM 132 is updated so as to be incremented by 1, and in step S2411, the updated data corresponding to the updated pointer information is grasped. .. Regarding this grasping process, specifically, a combination of the data of the reference coordinates and the data of the direction set corresponding to the updated pointer information is read out for the entire data group as the update data. After that, in step S2412, after the update designation information of the sea level display is stored, the present arithmetic processing is ended.

上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。また、上記ステップS2411にて把握した第1段階の形態についての更新データが描画リストに設定される。さらにまた、海面表示を更新すべきことを示す海面表示の更新指定情報が、描画リストに設定される。 When the arithmetic processing for sea surface display is executed as described above, information on the use instruction of the sea surface object PC 19 is set in the drawing list created in the subsequent drawing list output processing, and the first method is used. Information on the instruction to use the line map data ND1 and the second normal line map data ND2 is set. In addition, the update data regarding the first-stage form ascertained in step S2411 is set in the drawing list. Furthermore, the sea surface display update designation information indicating that the sea surface display should be updated is set in the drawing list.

なお、海面用アニメーションデータADのポインタ情報は、海面表示が実行される全フレーム数に対応していてもよいが、本パチンコ機10では、海面表示が実行される全フレーム数よりもポインタ情報の数が少なく設定されている。この場合、海面表示の実行中においてポインタ情報が最後の順番のものとなってしまうが、最後の順番となった次のフレームにおいては最初のポインタ情報に復帰される。また、このようにポインタ情報がループすることに鑑みて、ポインタ情報が最後の順番における第1段階の形態と、ポインタ情報が最初の順番における第1段階の形態とが海面用オブジェクトPC19の動きとして連続性を有していることが好ましい。 Although the pointer information of the sea surface animation data AD may correspond to the total number of frames where the sea surface display is executed, in the pachinko machine 10, the pointer information of the pointer information is larger than the total number of frames where the sea surface display is executed. The number is set low. In this case, the pointer information is in the last order during the execution of the sea level display, but the pointer information is restored to the first pointer information in the next frame in the last order. In consideration of the looping of the pointer information in this way, the first-stage form in which the pointer information is in the last order and the first-stage form in which the pointer information is in the first order are the movements of the sea surface object PC 19. It is preferable to have continuity.

次に、VDP135にて実行される海面表示用の設定処理を、図42のフローチャートを参照しながら説明する。海面表示用の設定処理は、第1表示モードである状況で実行されるものであり、図26におけるステップS1703〜ステップS1708の処理の一部として実行される。また、海面表示の設定処理は、今回の描画リストに海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。 Next, the sea level display setting process executed by the VDP 135 will be described with reference to the flowchart of FIG. 42. The setting process for the sea surface display is executed in the situation of the first display mode, and is executed as a part of the process of steps S1703 to S1708 in FIG. The sea surface display setting process is activated when either the sea surface display start designation information or the sea surface display update designation information is set in the current drawing list.

先ずステップS2501では、今回の描画リストにおいて海面表示の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2502に進む。 First, in step S2501, it is determined whether or not the sea surface display start designation information is set in the current drawing list. If set, the process advances to step S2502.

ステップS2502では、今回の描画リストに基づいて、メモリモジュール133において海面用オブジェクトPC19が記憶されているアドレスを把握して、当該海面用オブジェクトPC19をVRAM134の展開用バッファ141に読み出す。また、ステップS2503では、今回の描画リストに基づいて、メモリモジュール133において第1法線マップデータND1及び第2法線マップデータND2が記憶されているアドレスを把握して、これら第1法線マップデータND1及び第2法線マップデータND2をVRAM134の展開用バッファ141に読み出す。 In step S2502, the address at which the sea surface object PC 19 is stored in the memory module 133 is grasped based on the drawing list this time, and the sea surface object PC 19 is read into the expansion buffer 141 of the VRAM 134. In step S2503, the addresses at which the first normal map data ND1 and the second normal map data ND2 are stored in the memory module 133 are grasped based on the current drawing list, and the first normal map The data ND1 and the second normal map data ND2 are read into the expansion buffer 141 of the VRAM 134.

続くステップS2504では、今回の描画リストに設定されている初期設定データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2505にて、その把握した初期設定データを適用した状態で海面用オブジェクトPC19をワールド座標系に設定する。これにより、海面用オブジェクトPC19が第1段階の形態となった状態でワールド座標系に設定される。 In subsequent step S2504, the initial setting data (data extracted from the animation data AD for sea surface) set in the drawing list this time is grasped, and in step S2505, the sea surface is applied with the grasped initial setting data. The object PC19 is set in the world coordinate system. As a result, the sea surface object PC 19 is set in the world coordinate system in the state of the first stage form.

続くステップS2506では、第1法線マップデータND1のワールド座標系への初期設定処理を実行するとともに、ステップS2507では、第2法線マップデータND2のワールド座標系への初期設定処理を実行する。これにより、図39(a)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対して第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが対応付けられる。 In a succeeding step S2506, an initial setting process of the first normal map data ND1 to the world coordinate system is executed, and in a step S2507, an initial setting process of the second normal map data ND2 to the world coordinate system is executed. As a result, the unit normal data UND and the second normal line of the first normal map data ND1 with respect to each surface data SD of the sea surface object PC19 are brought into the state described with reference to FIG. The unit normal data UND of the map data ND2 is associated.

その後、ステップS2508にて、法線パラメータの設定処理を実行した後に、本設定処理を終了する。かかる法線パラメータの設定処理について、図43のフローチャートを参照しながら説明する。なお、法線パラメータとは、面データSDの向きを決定付けるパラメータのことであり、具体的には当該面データSDを構成する頂点データの座標を決定付けるものである。 After that, in step S2508, the normal parameter setting process is executed, and then this setting process is terminated. The process of setting the normal line parameter will be described with reference to the flowchart of FIG. The normal parameter is a parameter that determines the orientation of the surface data SD, and specifically determines the coordinates of the vertex data that forms the surface data SD.

法線パラメータの設定処理では、先ずステップS2601にて、レジスタ153に設けられた適用カウンタの初期化処理を実行する。本処理において適用カウンタは、第1法線マップデータND1及び第2法線マップデータND2の単位法線データUNDに設定されている変更データを適用する対象の面データSD1をVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては当該適用対象の面データSD1の数に対応した数値情報が適用カウンタに設定される。 In the normal line parameter setting process, first, in step S2601, the applicable counter provided in the register 153 is initialized. In the present processing, the application counter identifies the surface data SD1 to which the change data set in the unit normal data UND of the first normal map data ND1 and the second normal map data ND2 is applied by the VDP 135. In the state where the application counter is initialized, numerical information corresponding to the number of the applicable surface data SD1 is set in the application counter.

続くステップS2602では、第1法線マップデータND1において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第1法線マップデータND1において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。 In the following step S2602, the change data is read from the unit normal data UND corresponding to the current numerical value information of the applicable counter in the first normal map data ND1. Specifically, first, the surface data SD1 corresponding to the current numerical information of the applicable counter is grasped, and then the unit normal data UND associated with the surface data SD1 in the first normal map data ND1 is grasped. To do. Then, the change data set in the unit normal data UND is read out.

続くステップS2603では、第2法線マップデータND2において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第2法線マップデータND2において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。 In the following step S2603, the changed data is read from the unit normal data UND corresponding to the current numerical value information of the applicable counter in the second normal map data ND2. Specifically, first, the surface data SD1 corresponding to the current numerical information of the applicable counter is grasped, and then the unit normal data UND associated with the surface data SD1 in the second normal map data ND2 is grasped. To do. Then, the change data set in the unit normal data UND is read out.

続くステップS2604では、上記ステップS2602にて第1法線マップデータND1から読み出した変更データと、上記ステップS2603にて第2法線マップデータND2から読み出した変更データとのブレンド処理を実行する。このブレンド処理に際しては、既に説明したとおり、第1法線マップデータND1に対応した変更データによる面データSD1の向きと、第2法線マップデータND2に対応した変更データによる面データSD1の向きとの中間の向きとなるように、各変更データのブレンドが実行される。 In the following step S2604, a blending process is executed with the change data read from the first normal map data ND1 in step S2602 and the change data read from the second normal map data ND2 in step S2603. In this blending process, as described above, the orientation of the surface data SD1 based on the modified data corresponding to the first normal map data ND1 and the orientation of the surface data SD1 based on the modified data corresponding to the second normal map data ND2. Blending of each change data is executed so that the orientation becomes an intermediate direction.

なお、当該ブレンドは、各変更データを適用した場合における面データSD1の各向きの中間となるように行われる構成に限定されることはなく、所定の比率で第1法線マップデータND1に係る変更データ寄り又は第2法線マップデータND2に係る変更データ寄りとなる構成としてもよい。 It should be noted that the blending is not limited to a configuration in which each direction of the surface data SD1 when each change data is applied is in the middle, and is related to the first normal map data ND1 at a predetermined ratio. The configuration may be closer to the changed data or closer to the changed data related to the second normal map data ND2.

続くステップS2605では、上記ステップS2604にてブレンドした結果の変更データを、適用カウンタの現状の数値情報に対応した面データSD1に対して適用する。これにより、当該面データSD1については第1段階の形態における向きから、上記ブレンド後の変更データに対応した向きに変更される。但し、既に説明したとおり、変更データは第1段階の形態を基準としてそこからの相対的な変化量として与えられているため、変更データがそのまま適用されるのではなく、第1段階の形態における向きを基準として、そこからブレンド後の変更データに対応した方向であって対応した変化量分だけ変更される。 In the following step S2605, the change data resulting from the blending in step S2604 is applied to the surface data SD1 corresponding to the current numerical value information of the application counter. As a result, the surface data SD1 is changed from the orientation in the first-stage form to the orientation corresponding to the blended change data. However, as described above, since the change data is given as a relative change amount from the first-stage form as a reference, the change data is not applied as it is, but in the first-stage form. Based on the orientation, the direction is changed from that direction by the amount of change corresponding to the changed data after blending.

続くステップS2606では、適用カウンタの現状の数値情報に対応した面データSD1に対して隣接する面データSD2、すなわち適用対象の面データSD1と頂点データを共有する面データSD2(既に説明した緩衝用の面データSD2に相当)の向きを、当該共有する頂点データの座標の変更に合わせて変更する処理を実行する。この場合、今回の適用対象の面データSD1と共有していない頂点データについては、第1段階の形態から座標を変更させずに、隣接する面データSD2の向きを変更する。 In the following step S2606, the surface data SD2 adjacent to the surface data SD1 corresponding to the current numerical value information of the application counter, that is, the surface data SD2 sharing the vertex data with the surface data SD1 to be applied (for the buffer described above). A process of changing the orientation of the surface data SD2) is performed according to the change of the coordinates of the shared vertex data. In this case, regarding the vertex data that is not shared with the surface data SD1 to be applied this time, the orientation of the adjacent surface data SD2 is changed without changing the coordinates from the first-stage form.

続くステップS2607では、適用カウンタの数値情報を1減算することにより、法線パラメータの設定を行う対象が次の適用対象の面データSD1に移行するように適用カウンタの数値情報を更新する。 In subsequent step S2607, the numerical information of the applicable counter is updated by subtracting 1 from the numerical information of the applicable counter so that the target for which the normal line parameter is set shifts to the next applicable surface data SD1.

その後、ステップS2608にて、その更新後の適用カウンタの数値情報が、全ての適用対象の面データSD1に対する設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2608にて否定判定をした場合には、ステップS2602に戻り、新たな適用対象の面データSD1に対してステップS2602〜ステップS2607の処理を実行し、ステップS2608にて肯定判定をした場合には、本設定処理を終了する。 After that, in step S2608, whether or not the updated numerical information of the applicable counter is information indicating that the setting for all surface data SD1 to be applied is completed, that is, the numerical information of the applicable counter is " It is determined whether it is "0". If a negative determination is made in step S2608, the process returns to step S2602, the processes of steps S2602 to S2607 are executed for the new surface data SD1 to be applied, and if a positive determination is made in step S2608, , This setting process ends.

海面表示用の設定処理(図42)の説明に戻り、ステップS2501にて否定判定をした場合には、ステップS2509にて、今回の描画リストに設定されている更新データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2510にて、その把握した更新データを、ワールド座標系に既に設定されている海面用オブジェクトPC19に設定する。この場合、上記更新データが、海面用オブジェクトPC19の各面データ群の座標及び向きのデータに対して上書きされる。これにより、海面用オブジェクトPC19が、再度、第1段階の形態となった状態でワールド座標系に設定される。 Returning to the description of the setting process for sea surface display (FIG. 42 ), if a negative determination is made in step S2501, the update data (from the sea surface animation data AD that has been set in the drawing list this time is set in step S2509. The extracted data) is grasped, and in step S2510, the grasped updated data is set in the sea surface object PC 19 already set in the world coordinate system. In this case, the update data is overwritten on the coordinate and orientation data of each surface data group of the sea surface object PC 19. As a result, the sea surface object PC 19 is set in the world coordinate system again in the state of the first stage form.

続くステップS2511では、第1法線マップデータND1の更新処理を実行するとともに、ステップS2512では、第2法線マップデータND2の更新処理を実行する。これにより、図39(b)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対応付けられる第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが変更される。 In a succeeding step S2511, the updating process of the first normal map data ND1 is executed, and in a step S2512, the updating process of the second normal map data ND2 is executed. As a result, the unit normal data UND and the second normal of the first normal map data ND1 associated with the surface data SD of the sea surface object PC 19 are brought into the state described with reference to FIG. 39B. The unit normal line data UND of the line map data ND2 is changed.

その後、ステップS2508の法線パラメータの設定処理を実行した後に、本設定処理を終了する。当該法線パラメータの設定処理は、既に説明したとおりである。 After that, the normal parameter setting process of step S2508 is executed, and then this setting process is ended. The process of setting the normal parameter is as described above.

以上のように海面用オブジェクトPC19を構成する各面データSDのワールド座標系における座標及び向きが決定される。そして、それら面データSDに対しては、描画処理(図16)におけるステップS1009の色情報の設定処理にて色情報の設定が行われる。この場合に、当該面データSDに対する色情報の設定は、テクスチャマッピング処理とは異なる手法にて行われる。かかる手法について説明する。 As described above, the coordinates and orientation of each surface data SD forming the sea surface object PC19 in the world coordinate system are determined. Then, for these surface data SD, color information is set in the color information setting process of step S1009 in the drawing process (FIG. 16). In this case, the setting of the color information for the surface data SD is performed by a method different from the texture mapping process. This method will be described.

図44(a)〜(c)は、各面データSDに色情報を設定する手法を説明するための説明図である。 44A to 44C are explanatory diagrams for explaining a method of setting color information in each surface data SD.

色情報の設定処理(ステップS1009)は、図16に示すように、各オブジェクトのワールド座標系への設定処理が完了し、さらにステップS1006の視野座標系への設定処理、及びステップS1007のクリッピング処理が実行された後に、実行される。したがって、色情報の設定処理が実行されるタイミングでは既に、海面用オブジェクトPC19の各面データSDの座標及び向きが視野座標系に変換された状態で設定されている。 In the color information setting process (step S1009), as shown in FIG. 16, the setting process of each object to the world coordinate system is completed, and further, the setting process to the visual field coordinate system of step S1006 and the clipping process of step S1007. Is executed and then executed. Therefore, at the timing when the color information setting process is executed, the coordinates and the orientation of each surface data SD of the sea surface object PC 19 have already been set in a state of being converted into the visual field coordinate system.

この状態では、図44(a)に示すように、視野座標系の基準となる視点VDが設定されているとともに、その視点VDよりも上方の位置となるように海面用オブジェクトPC19が設定されている。つまり、本パチンコ機10における海面表示は、海中を背景とする表示であって、その海中から見上げた状態で海面が表示される演出のことである。 In this state, as shown in FIG. 44A, the viewpoint VD serving as the reference of the visual field coordinate system is set, and the sea surface object PC 19 is set so as to be located above the viewpoint VD. There is. That is, the sea surface display on the pachinko machine 10 is a display with the background of the sea as the background, and the sea surface is displayed in a state of looking up from the sea.

各面データSDに対する色情報の設定に際しては、海面用オブジェクトPC19の上方に仮に光源している場合において、その光源からの透過光を面データSDの座標及び向きとの関係で、視点VDの位置にて視認することが可能となるか否かを想定して、上記光源からの光が透過することに対応した面データSDと、上記光源からの光が海面用オブジェクトPC19の上方側にて全反射して透過しないことに対応した面データSDとに振り分ける。 When setting the color information for each surface data SD, when the light source is provisionally above the sea surface object PC 19, the transmitted light from the light source is related to the coordinates and direction of the surface data SD and the position of the viewpoint VD. The surface data SD corresponding to the light transmitted from the light source, and the light from the light source are all above the sea surface object PC 19 on the assumption that the light is visible. It is sorted into the surface data SD corresponding to the fact that it is reflected and not transmitted.

この振分に際しては、上記光源を描画処理(図16)のライティング処理(ステップS1008)にて設定するのではなく、視点VDに対する面データSDの角度が所定の角度未満であるか否かにより、その面データSDを、透過光の多い分類と、透過光の少ない分類とのいずれかに振り分ける。 In this distribution, the light source is not set in the writing process (step S1008) of the drawing process (FIG. 16), but it is determined whether the angle of the surface data SD with respect to the viewpoint VD is less than a predetermined angle. The surface data SD is assigned to either a classification with a large amount of transmitted light or a classification with a small amount of transmitted light.

より詳細には、図44(b−1)及び(b−2)に示すように、先ず面データSDの座標及び向きのデータを利用して、視点VDから当該面データSDを見た場合の角度である屈折角βを算出する。この算出に際しては、座標及び向きのデータに対して1対1で対応させて屈折角のデータが設定されたテーブルをメモリモジュール133から読み出して用いられるが、算出式のプログラムを予め用意しておき、その算出式で屈折角を算出するようにしてもよい。 More specifically, as shown in FIGS. 44(b-1) and (b-2), first, when the surface data SD is viewed from the viewpoint VD by using the coordinate and orientation data of the surface data SD. The refraction angle β, which is an angle, is calculated. In this calculation, a table in which the data of the refraction angle is set in a one-to-one correspondence with the data of the coordinate and the direction is read from the memory module 133 and used. However, a calculation formula program is prepared in advance. The refraction angle may be calculated by the calculation formula.

ここで、面データSDに対する色情報の設定は、大気中から海面への光の入射を前提としているため、屈折角βが大きいほど、入射角αは大きくなり、入射角αが大きくなるほど、光量は少なくなる。これを前提として、VDP135では、屈折角βを算出した後は、その屈折角βが所定の基準角度未満であるか否かを判定する。そして、屈折角βが所定の基準角度未満である場合(例えば図44(b−1)の場合)には、その屈折角βを生じさせる面データSDを透過光が多い分類とし、屈折角βが所定の基準角度以上である場合(例えば図44(b−2)の場合)には、その屈折角βを生じさせる面データSDを透過光が少ない分類とする。ちなみに、視点VD側とは逆側を向く方向の成分を有している場合といったように、視点VD側を向く成分を向く方向に有していない面データSDは、全て透過光が少ない分類とされる。 Here, since the setting of the color information for the surface data SD is premised on the incidence of light from the atmosphere to the sea surface, the larger the refraction angle β, the larger the incident angle α, and the larger the incident angle α, the larger the light amount. Will be less. Based on this, the VDP 135, after calculating the refraction angle β, determines whether or not the refraction angle β is less than a predetermined reference angle. Then, when the refraction angle β is less than the predetermined reference angle (for example, in the case of FIG. 44(b-1)), the surface data SD that causes the refraction angle β is classified into a large transmitted light, and the refraction angle β is determined. Is greater than or equal to a predetermined reference angle (for example, in the case of FIG. 44(b-2)), the surface data SD that causes the refraction angle β is classified as a small transmitted light. By the way, the surface data SD that does not have the component facing the viewpoint VD side in the direction facing the side opposite to the viewpoint VD side is all classified as a small transmitted light. To be done.

上記のような分類を行った後は、図44(c)に示すようなカラーテーブルCTを用いて各面データSDの色情報を決定する。カラーテーブルCTは、メモリモジュール133に予め記憶されており、複数のカラーNO.のデータと、これらカラーNO.のデータに1対1で対応させて色情報が設定されている。また、カラーテーブルCTには、いずれの色情報を面データSDに対して適用するかを決定する際に参照される相関データが設定されている。 After performing the above classification, the color information of each surface data SD is determined using the color table CT as shown in FIG. The color table CT is stored in advance in the memory module 133 and contains a plurality of color numbers. Data and these color numbers. The color information is set in a one-to-one correspondence with the above data. Further, in the color table CT, correlation data that is referred to when determining which color information to apply to the surface data SD is set.

この場合、カラーNO.「7」は、上記透過光が少ない分類とされた面データSDに対して適用されるものである。一方、カラーNO.「1」〜「6」は、上記透過光が多い分類とされた面データSDに対して適用されるものであり、かかる分類の面データSDに対しては色情報が複数種類設定されている。当該分類の面データSDに対していずれの色情報を設定するかは、当該面データSDの向きによって決定されるのではなく、視点VDからのZ軸方向の距離によって決定される。 In this case, the color NO. “7” is applied to the surface data SD classified as the above-mentioned small transmitted light. On the other hand, color NO. “1” to “6” are applied to the surface data SD classified as the above-mentioned large amount of transmitted light, and a plurality of types of color information are set for the surface data SD of this classification. .. Which color information is set for the surface data SD of the classification is not determined by the direction of the surface data SD, but by the distance in the Z-axis direction from the viewpoint VD.

詳細には、面データSDのうち一の隅角部分(例えば図38(a)の状態で見て左下角部分)の頂点データを基準頂点データとして、その基準頂点データのZ座標のデータが、第1段階の閾値である「Z1」以下である場合(すなわち「Z1」よりもZ座標が視点VDに近い場合)には色情報として「CL1」が選択され、第1段階の閾値である「Z1」よりも大きく且つ第2段階の閾値である「Z2」以下である場合には色情報として「CL2」が選択され、第2段階の閾値である「Z2」よりも大きく且つ第3段階の閾値である「Z3」以下である場合には色情報として「CL3」が選択される。そして、以下同様にして、各閾値の範囲に対応させて「CL4」及び「CL5」が選択され、上記基準頂点データのZ座標のデータが、第5段階の閾値である「Z5」よりも大きい場合には色情報として「CL6」が選択される。 Specifically, the vertex data of one corner portion (for example, the lower left corner portion in the state of FIG. 38A) of the surface data SD is used as the reference vertex data, and the Z coordinate data of the reference vertex data is If the threshold value is equal to or lower than the first stage threshold value "Z1" (that is, if the Z coordinate is closer to the viewpoint VD than "Z1"), "CL1" is selected as the color information and the first stage threshold value "". If it is larger than “Z1” and equal to or smaller than “Z2” which is the second stage threshold value, “CL2” is selected as the color information and is larger than “Z2” which is the second stage threshold value and that of the third stage. If it is equal to or smaller than the threshold value "Z3", "CL3" is selected as the color information. Then, in the same manner, "CL4" and "CL5" are selected in correspondence with the respective threshold ranges, and the data of the Z coordinate of the reference vertex data is larger than the threshold value "Z5" of the fifth stage. In this case, “CL6” is selected as the color information.

これら色情報「CL1」〜「CL6」は、後側ほど暗い色となるように設定されており、具体的には、色情報「CL1」は白色として設定され、色情報「CL6」は暗い青色として設定され、色情報「CL2」〜「CL5」はそれらの中間色として設定されている。また、色情報「CL7」は、色情報「CL6」よりも暗い色として設定されており、具体的には黒色に近い青色として設定されている。 The color information “CL1” to “CL6” is set to be darker toward the rear side. Specifically, the color information “CL1” is set as white and the color information “CL6” is dark blue. And the color information “CL2” to “CL5” are set as their intermediate color. Further, the color information “CL7” is set as a color darker than the color information “CL6”, and specifically, is set as blue close to black.

以下に、各面データSDに色情報を設定するための具体的な処理構成を説明する。 Hereinafter, a specific processing configuration for setting the color information in each surface data SD will be described.

図45(a)は、VDP135にて実行される海面表示用の色情報設定処理を示すフローチャートである。海面表示用の色情報設定処理は、描画処理(図16)におけるステップS1009の色情報の設定処理にて実行される。また、海面表示用の色情報設定処理は、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。 FIG. 45A is a flowchart showing the sea surface display color information setting process executed by the VDP 135. The sea surface display color information setting process is executed in the color information setting process of step S1009 in the drawing process (FIG. 16). Further, the color information setting process for sea surface display is started when either the sea surface display start designation information or the sea surface display update designation information is set in the current drawing list.

先ずステップS2701では、上記適用カウンタの初期化処理を実行する。本処理において適用カウンタは、色情報の設定を行う対象の面データSDをVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては海面用オブジェクトPC19に含まれる面データSDの数に対応した数値情報が適用カウンタに設定される。 First, in step S2701, the initialization processing of the applicable counter is executed. In this processing, the application counter has a role of specifying the surface data SD of the target for setting the color information in the VDP 135, and is included in the sea surface object PC 19 when the application counter is initialized. Numerical information corresponding to the number of surface data SD is set in the applicable counter.

続くステップS2702では、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2703にて、その把握した向きのデータから上記屈折角を算出する。そして、ステップS2704にて、その算出した屈折角が基準角度以上であるか否かを判定する。 In subsequent step S2702, the sea surface object PC 19 grasps the orientation data from the surface data SD corresponding to the current numerical information of the applicable counter, and in step S2703, the refraction angle is calculated from the grasped orientation data. Then, in step S2704, it is determined whether the calculated refraction angle is greater than or equal to the reference angle.

基準角度以上である場合には、ステップS2705にて、カラーテーブルCTにおけるカラーNO.7の色情報(「CL7」)を、今回対象となった面データSDに対して設定する。一方、基準角度未満である場合には、ステップS2706にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2707にて、カラーテーブルCTと照合することにより、対応するカラーNO.の色情報(「CL1」〜「CL6」のいずれか)を、今回対象となった面データSDに対して設定する。 If the angle is equal to or larger than the reference angle, in step S2705 the color No. 7 color information (“CL7”) is set for the surface data SD that is the target this time. On the other hand, if the angle is less than the reference angle, in step S2706, the Z coordinate data of the target surface data SD is read, and in step S2707, the corresponding color number is checked by collating with the color table CT. . Color information (any one of "CL1" to "CL6") is set for the surface data SD that is the target this time.

ステップS2705又はステップS2707の処理を実行した後は、ステップS2708にて、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2709にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。 After the processing of step S2705 or step S2707 is performed, the numerical value information of the applicable counter is decremented by 1 in step S2708 so that the object for which the color information is set moves to the next surface data SD. The numerical information of is updated. After that, in step S2709, whether or not the updated numerical information of the applicable counter is information indicating that the setting of the color information for all the surface data SD is completed, that is, the numerical information of the applicable counter is " It is determined whether it is "0".

ステップS2709にて否定判定をした場合には、ステップS2702に戻り、新たな面データSDに対してステップS2702〜ステップS2708の処理を実行する。一方、ステップS2709にて肯定判定をした場合には、本色情報設定処理を終了する。 When a negative determination is made in step S2709, the process returns to step S2702, and the processes of steps S2702 to S2708 are executed on the new surface data SD. On the other hand, if a positive determination is made in step S2709, the main color information setting process ends.

図45(b)は、VDP135にて実行される海面用の調整処理を示すフローチャートである。当該海面用の調整処理は、描画処理(図16)におけるステップS1010の背景用の描画データ作成処理にて実行される。より詳細には、図27では省略するとともに説明も省略していたが、ステップS1802とステップS1803との間にて実行される。つまり、背景用の3次元画像データが2次元画像データに変換された後に、海面用の調整処理が実行される。 FIG. 45( b) is a flowchart showing the adjustment processing for the sea surface, which is executed by the VDP 135. The adjustment process for the sea surface is executed in the background drawing data creation process of step S1010 in the drawing process (FIG. 16). More specifically, although omitted and not described in FIG. 27, it is executed between step S1802 and step S1803. In other words, the sea surface adjustment process is executed after the background three-dimensional image data is converted into two-dimensional image data.

先ずステップS2711では、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されているか否かを判定する。いずれもが設定されていない場合には、そのまま本調整処理を終了する。いずれかが設定されている場合には、ステップS2712にて、海面のぼかし処理を実行した後に、本調整処理を終了する。 First, in step S2711, it is determined whether or not either the sea surface display start designation information or the sea surface display update designation information is set in the current drawing list. If neither is set, this adjustment processing is ended as it is. If either is set, the sea level blurring process is executed in step S2712, and then this adjustment process ends.

海面のぼかし処理では、隠面処理(ステップS1802)を利用して作成された背景用の2次元画像データにおいて、ガウスフィルタを利用したぼかし処理を実行する。詳細には、海面表示に対応した領域から1のピクセルを抽出するとともに、そのピクセルを中心としてX軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンド(合成)を行う。また、同様に、同一のピクセルを中心としてY軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンドを行う。そして、海面表示に対応した領域を構成している全ピクセルに対して、上記ガウスフィルタを利用したぼかし処理を実行する。 In the sea surface blurring process, the blurring process using the Gaussian filter is executed on the two-dimensional image data for the background created by using the hidden surface process (step S1802). Specifically, one pixel is extracted from the area corresponding to the sea surface display, and a predetermined number (for example, 5) of pixels are extracted on both sides of the pixel in the X-axis direction. After that, weighting according to the distance from the center pixel is determined using a Gaussian function, and the color information of each pixel is blended (combined) while the determined weighting is applied. Similarly, a predetermined number (for example, 5) of pixels are extracted on both sides of the same pixel in the Y-axis direction. After that, weighting according to the distance from the center pixel is determined using a Gaussian function, and the color information of each pixel is blended while the determined weighting is applied. Then, the blurring process using the Gaussian filter is executed for all the pixels forming the area corresponding to the sea surface display.

次に、海面表示の内容について、図46を参照しながら説明する。 Next, the contents of the sea surface display will be described with reference to FIG.

図46(a)は海面表示を説明するための説明図であり、図46(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。 FIG. 46(a) is an explanatory diagram for explaining the sea surface display, and FIG. 46(b) is an explanatory diagram for simply explaining the setting mode of the color information of the area where the sea surface display is performed. ..

図46(a)に示すように、複数の図柄が変動表示されている背景では、海中を示す画像が表示されている。この背景の上部にて海面表示SPがなされている。この場合、海面を表示させるための面データSDの向きが細かく制御されているとともに、その細かく制御された状態に応じた色情報が設定されていることにより、海面の向きが細かく表現されるとともに大気中から海中への光の透過がリアルに表現されている。よって、リアルな海面表示SPを行うことが可能となっている。 As shown in FIG. 46(a), in the background in which a plurality of symbols are variably displayed, an image showing the sea is displayed. A sea surface display SP is made above this background. In this case, the orientation of the surface data SD for displaying the sea surface is finely controlled, and the color information according to the finely controlled state is set, so that the direction of the sea surface is finely expressed. The transmission of light from the atmosphere to the sea is realistically represented. Therefore, it is possible to perform a realistic sea surface display SP.

また、海面用オブジェクトPC19の第1段階の形態を設定した後に、各面データSDの向きを調整する構成であるため、海面の大きな動きは規則的なものとしながら、その規則的な大きな動きの中で各面データSDの向きに不規則性を与えることが可能となる。 Further, since the configuration is such that the orientation of each surface data SD is adjusted after the first stage form of the sea surface object PC 19 is set, the large movement of the sea surface is regular, but the regular large movement of the sea surface is not changed. In particular, it is possible to give irregularity to the direction of each surface data SD.

また、各面データSDの動きを個別に制御する際には、法線マップデータND1,ND2を利用したことにより、各面データSDの向きを演算によって個別に変化させる必要が生じない。よって、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。特に、法線マップデータND1,ND2のワールド座標系における位置を変化させることにより、海面表示SPの進行に伴って各面データSDに対応付けられる単位法線データUNDを変更させる構成であるため、海面表示SPの進行に伴って面データSDの向きを複雑に変化させる場合において、同一の法線マップデータND1,ND2を利用し且つ同一の適用処理を利用することが可能となるため、記憶容量の削減及び処理負荷の軽減が図られる。 Further, when the movement of each surface data SD is individually controlled, it is not necessary to individually change the direction of each surface data SD by calculation by using the normal map data ND1 and ND2. Therefore, it is possible to achieve the above-mentioned excellent effects while reducing the processing load. In particular, since the positions of the normal map data ND1 and ND2 in the world coordinate system are changed, the unit normal data UND associated with each surface data SD is changed as the sea surface display SP progresses. When the direction of the surface data SD is changed in a complicated manner as the sea surface display SP progresses, the same normal map data ND1 and ND2 can be used and the same application processing can be used. And the processing load are reduced.

また、海面用アニメーションデータADを利用した大まかな動きの決定は表示CPU131にて実行し、法線マップデータND1,ND2を利用した細かな面の向きの決定はVDP135にて実行する構成であるため、処理負荷の分散が図られる。 Further, the display CPU 131 executes the rough motion determination using the sea surface animation data AD, and the VDP 135 executes the fine surface orientation determination using the normal map data ND1 and ND2. The processing load can be distributed.

また、既に説明したとおり、海面のぼかし処理が実行されることにより、図46(b)に示すように、光の透過がほとんどないことに対応した色情報が設定されたピクセルPS(左側のピクセルPS)と、光の透過が最もあることに対応した色情報が設定されたピクセルPS(右側のピクセルPS)との間には、これら両ピクセルPSの色情報をブレンドさせたピクセルPS(中央側のピクセルPS)が存在することとなる。これにより、海面表示SPを行っている領域にて個別に色情報が設定される構成において色情報が相違する部分の境界を目立たなくすることが可能となる。 In addition, as described above, the blurring process of the sea surface is performed, and as shown in FIG. 46B, the pixel PS (the pixel on the left side) for which color information corresponding to almost no light transmission is set. PS) and a pixel PS (color pixel PS on the right side) in which color information corresponding to the highest light transmission is set, a pixel PS (center side) in which the color information of these pixels PS is blended. Pixels PS) of the As a result, it is possible to make the boundary of the part where the color information is different in the configuration in which the color information is individually set in the area where the sea surface display SP is performed inconspicuous.

また、2次元画像とした後に当該ぼかし処理を実行するため、3次元画像の状態でぼかし処理を実行する構成に比べて、処理負荷の軽減が図られる。 Further, since the blurring process is performed after the two-dimensional image is formed, the processing load can be reduced as compared with the configuration in which the blurring process is performed in the state of the three-dimensional image.

<海面表示用の色情報設定処理の別形態>
図47は、VDP135にて実行される海面表示用の色情報設定処理の別形態を説明するためのフローチャートである。
<Another form of color information setting processing for sea surface display>
FIG. 47 is a flowchart for explaining another mode of the sea surface display color information setting process executed by the VDP 135.

先ずステップS2801では、上記ステップS2701と同様に、適用カウンタの初期化処理を実行する。続くステップS2802では、上記ステップS2702と同様に、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2803にて、上記ステップS2703と同様に、その把握した向きのデータから屈折角を算出する。 First, in step S2801, similar to step S2701, initialization processing of the applicable counter is executed. In the following step S2802, the direction data is grasped from the surface data SD corresponding to the current numerical value information of the applicable counter in the sea surface object PC 19 in the same manner as in the above step S2702, and in step S2803, the same as step S2703. The refraction angle is calculated from the data of the grasped direction.

続くステップS2804では、上記ステップS2803にて算出した屈折角の情報から色情報を導出する。この場合、色情報の導出に際しては、屈折角の情報と色情報とが対応付けられたカラーテーブルをメモリモジュール133から読み出し、屈折角の情報に対応した色情報を読み出す。つまり、本別形態では、屈折角の情報から直接的に色情報が読み出される。 In subsequent step S2804, color information is derived from the information on the refraction angle calculated in step S2803. In this case, when deriving the color information, the color table in which the refraction angle information and the color information are associated with each other is read from the memory module 133, and the color information corresponding to the refraction angle information is read out. That is, in this another mode, the color information is directly read from the information of the refraction angle.

その後、ステップS2805にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2806にて、その読み出したZ座標のデータに対応した色情報の調整処理を実行する。この場合、視点VDから遠い距離に存在する面データSDほど、ステップS2804にて設定された色情報を暗い色側にシフトさせる場合のシフト量が大きくなる処理が実行される。 Then, in step S2805, the Z coordinate data of the target surface data SD is read out, and in step S2806, color information adjustment processing corresponding to the read Z coordinate data is executed. In this case, a process is performed in which the shift amount for shifting the color information set in step S2804 to a darker color side is increased as the surface data SD existing farther from the viewpoint VD.

続くステップS2807では、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2808にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2808にて否定判定をした場合には、ステップS2802に戻り、新たな面データSDに対してステップS2802〜ステップS2807の処理を実行する。一方、ステップS2808にて肯定判定をした場合には、本色情報設定処理を終了する。 In subsequent step S2807, the numerical information of the applicable counter is updated by subtracting 1 from the numerical information of the applicable counter so that the target for which the color information is set shifts to the next surface data SD. After that, in step S2808, whether or not the updated numerical information of the applicable counter is information indicating that the setting of the color information for all the surface data SD is completed, that is, the numerical information of the applicable counter is " It is determined whether it is "0". If a negative determination is made in step S2808, the process returns to step S2802, and the processes of steps S2802 to S2807 are executed on the new surface data SD. On the other hand, if an affirmative decision is made in step S2808, the main color information setting processing ends.

<他の別形態>
・一の法線マップデータND1,ND2に含まれる単位法線データUNDの数が海面用オブジェクトPC19に含まれる面データSDの数以下である構成としてもよい。この場合、同一の法線マップデータND1,ND2を複数並べることにより、面データSDの全てに対して単位法線データUNDを対応付けるようにすればよい。
<Other other forms>
The number of unit normal data UND included in one normal map data ND1 and ND2 may be less than or equal to the number of surface data SD included in the sea surface object PC19. In this case, by arranging a plurality of the same normal map data ND1 and ND2, the unit normal data UND may be associated with all the surface data SD.

・法線マップデータND1,ND2は複数種類設定されている必要はなく、単一の法線マップデータが設定されている構成としてもよい。この場合、海面表示に際して、当該単一の法線マップデータのみを海面用オブジェクトPC19に適用する構成としてもよい。当該構成であっても、海面用オブジェクトPC19に適用される法線マップデータの位置を変化させることで、海面表示の進行に伴って各面データSDの向きを変化させることが可能となる。また、当該単一の法線マップデータを複数同時に読み出すとともに、それら複数の法線マップデータにおいて海面用オブジェクトPC19に適用する位置を相互に異ならせることにより、複雑な面の向きの制御を可能とする構成としてもよい。 A plurality of types of normal line map data ND1 and ND2 need not be set, and a single normal line map data may be set. In this case, when displaying the sea surface, only the single normal map data may be applied to the sea surface object PC 19. Even with this configuration, by changing the position of the normal map data applied to the sea surface object PC 19, it is possible to change the direction of each surface data SD as the sea surface display progresses. In addition, a plurality of single normal map data are read out at the same time, and the positions to be applied to the sea surface object PC 19 in the plurality of normal map data are made different from each other, thereby making it possible to control the orientation of a complicated surface. It may be configured to.

・法線マップデータND1,ND2の単位法線データUNDを適用する対象は、同一の頂点データを共有する複数の面データSDが同時に適用対象とならないように制限されている構成に限定されることはなく、全面データSDに対して単位法線データUNDを適用する構成としてもよい。但し、本構成においては、一の頂点データに対して異なる座標が同時に設定されることとなるため、その調整を別途行う必要がある。例えば、頂点データの座標設定を行う際の優先度を隣接する面データSD同士において予め定めておき、優先度が高い面データSDについては単位法線データUNDをそのまま適用し、優先度が低い面データSDについては優先度が高い面データSDにより決定される頂点データの座標を維持しながら、第1段階の形態の状態よりも自身に適用される単位法線データUNDにより決定される向きに近付けるように調整する構成としてもよい。 The target to which the unit normal data UND of the normal map data ND1 and ND2 is applied is limited to a configuration in which a plurality of surface data SD sharing the same vertex data are not simultaneously applied. Instead, the unit normal data UND may be applied to the entire surface data SD. However, in this configuration, different coordinates are set at the same time for one vertex data, and therefore it is necessary to perform the adjustment separately. For example, when the coordinates of the vertex data are set, the priorities are set in advance between the adjacent surface data SD, and the unit normal data UND is applied as it is to the surface data SD having a high priority, and the surface data SD having a low priority is applied. Regarding the data SD, while maintaining the coordinates of the vertex data determined by the surface data SD having a high priority, the data SD is brought closer to the direction determined by the unit normal data UND applied to itself than in the state of the first stage form. The configuration may be adjusted as follows.

・各面データSDに対する色情報の設定は、カラーテーブルCTを利用した設定の仕方や、上記図47に示した設定の仕方に限定されることはなく、例えば、描画処理(図16)のライティング処理にて仮想光源を、海面用オブジェクトPC19を挟んで視点VDの反対側に設定し、その仮想光源からの光の透過量を各面データSDについて個別に算出する構成としてもよい。この場合、光の透過量に応じた色情報を、予め定められたテーブル情報を利用して導出し、その導出結果の色情報を各面データSDに設定する構成が考えられる。また、各面データSDに対して初期の色情報が予め設定されており、その色情報を上記算出した透過量との関係で調整する構成が考えられる。 The setting of the color information for each surface data SD is not limited to the setting method using the color table CT or the setting method shown in FIG. 47 described above. For example, the lighting of the drawing process (FIG. 16). In the processing, the virtual light source may be set on the opposite side of the viewpoint VD across the sea surface object PC 19, and the amount of light transmitted from the virtual light source may be calculated individually for each surface data SD. In this case, a configuration is conceivable in which color information corresponding to the amount of transmitted light is derived by using predetermined table information and the color information of the derivation result is set in each surface data SD. Further, a configuration may be considered in which initial color information is preset for each surface data SD and the color information is adjusted in relation to the calculated transmission amount.

・海面用オブジェクトPC19が視点VDの上方に設定されている構成に限定されることはなく、海面用オブジェクトPC19が視点VDの下方に設定されている構成としてもよい。この場合、各面データSDの向きを上記各手法により決定した後に、それら各面データSDの向きが光を反射し易い向きであれば明るい色情報を設定し、それら各面データSDの向きが光を透過し易い向きであれば暗い色情報を設定する。この設定に際しては、予め用意されたテーブル情報を利用してもよく、仮想光源を利用して実際に算出する構成としてもよい。 The sea surface object PC19 is not limited to the configuration set above the viewpoint VD, and the sea surface object PC19 may be configured below the viewpoint VD. In this case, after the direction of each surface data SD is determined by each of the above methods, bright color information is set if the direction of each surface data SD is a direction in which light is easily reflected, and the direction of each surface data SD is determined. If the direction is such that light can be easily transmitted, dark color information is set. For this setting, table information prepared in advance may be used or a virtual light source may be used for actual calculation.

・導出した屈折角が所定の角度以下である面データSDについては、視点VDからのZ軸方向の距離に関係なく、最も明るい色情報を設定する構成としてもよい。また、これに代えて、導出した屈折角が所定の角度以下である面データSDについては、他の屈折角の場合よりも明るい色情報を設定するとともに、その色情報をベースとして、視点VDからのZ軸方向の距離が遠いほど暗くなるように色情報の調整を行うようにしてもよい。 For the surface data SD whose derived refraction angle is equal to or less than a predetermined angle, the brightest color information may be set regardless of the distance in the Z-axis direction from the viewpoint VD. Alternatively, for the surface data SD whose derived refraction angle is equal to or smaller than a predetermined angle, color information that is brighter than that of other refraction angles is set, and the color information is used as a base from the viewpoint VD. The color information may be adjusted so that the darker the distance in the Z-axis direction becomes, the darker the color information becomes.

・上記のように面の向きを制御して色情報を設定する処理構成は、海面である必要はなく、川や池といった他の水面であってもよい。また、経時的に面の状態を変化させる透過膜や、反射膜を表現する際に、上記のような面の向きを制御して色情報を設定する処理構成を適用してもよい。 The processing configuration for controlling the direction of the surface and setting the color information as described above need not be the sea surface, and may be another water surface such as a river or a pond. Further, when expressing a transmissive film or a reflective film that changes the state of a surface over time, the processing configuration for controlling the direction of the surface and setting the color information as described above may be applied.

・マップデータを利用して制御するパラメータの対象は、向きや座標に限定されることはなく、面の色や面の透明値であってもよい。 The target of the parameter controlled using the map data is not limited to the direction and the coordinates, and may be the surface color or the surface transparency value.

・法線マップデータND1,ND2に含まれる単位法線データUNDの数が、海面用オブジェクトPC19に含まれる面データSDの数よりも少ない構成としてもよい。この場合、一の法線マップデータND1,ND2を海面用オブジェクトPC19における所定数の面データSDに対して適用するとともに、同一の法線マップデータND1,ND2を残りの面データSDに対して再度適用すればよい。 The number of unit normal data UND included in the normal map data ND1 and ND2 may be smaller than the number of surface data SD included in the sea surface object PC19. In this case, one normal map data ND1 and ND2 is applied to a predetermined number of surface data SD in the sea surface object PC19, and the same normal map data ND1 and ND2 is again applied to the remaining surface data SD. You can apply.

・法線パラメータの設定処理(図43)にて、ステップS2606の処理、すなわち隣接する面データの調整処理が実行されない構成としてもよい。この場合、緩衝用の面データSD2については、当該面データSD2が有する複数の頂点データのうち、適用対象の面データSD1と共有している頂点データは法線マップデータND1,ND2の適用に伴い変更されるが、共有していない頂点データは第1段階の形態において設定されている座標が維持される。この場合であっても、緩衝用の面データSD2の向きやサイズは、適用対象の面データSD1の向きやサイズの変更に応じて変更されることとなる。 In the normal parameter setting process (FIG. 43), the process of step S2606, that is, the process of adjusting the adjacent surface data may not be executed. In this case, regarding the buffer surface data SD2, among the plurality of vertex data included in the surface data SD2, the vertex data shared with the target surface data SD1 is associated with the application of the normal map data ND1 and ND2. The vertex data that is changed but not shared retains the coordinates set in the first stage form. Even in this case, the orientation and size of the buffer surface data SD2 will be changed according to the orientation and size of the application target surface data SD1.

・面データSDの向きを直接制御する法線マップデータND1,ND2に代えて、海面用オブジェクトPC19の各頂点データの座標を直接制御するマップデータを用いる構成としてもよい。この場合、当該マップデータを海面用オブジェクトPC19に適用することで、頂点データの座標が変更され、その変更の結果として面データSDの向きが変更されることとなる。本構成であれば、制御対象が面ではなく頂点となるため、法線マップデータND1,ND2を利用していた場合のような適用対象の面データSD1と緩衝用の面データSD2との切り分けを行う必要がなくなる。なお、マップデータにおいて設定される各頂点データの制御量は、第1段階の形態における座標からの変化量であることが好ましい。 Instead of the normal map data ND1 and ND2 that directly control the orientation of the surface data SD, map data that directly controls the coordinates of each vertex data of the sea surface object PC 19 may be used. In this case, by applying the map data to the sea surface object PC 19, the coordinates of the vertex data are changed, and as a result of the change, the orientation of the surface data SD is changed. With this configuration, the control target is not the surface but the apex, and therefore the application target surface data SD1 and the buffering surface data SD2 are separated as in the case of using the normal map data ND1 and ND2. There is no need to do it. The control amount of each vertex data set in the map data is preferably a change amount from the coordinates in the first stage form.

・海面用オブジェクトPC19が複数の面データ群に区別されている構成は必須ではなく、このような区別がなされていない構成としてもよい。この場合、法線マップデータND1,ND2などを利用して海面用オブジェクトPC19の各面データSDのそれぞれ個別に制御されることとなる。 The structure in which the sea surface object PC 19 is distinguished into a plurality of surface data groups is not essential, and such a structure may be omitted. In this case, each surface data SD of the sea surface object PC 19 is individually controlled by using the normal map data ND1, ND2 and the like.

・同一の更新タイミングにおいて、面データ群単位での制御を行うことに基づく第1段階の形態の設定と、法線マップデータND1,ND2などを利用した面データSDの向きの個別の制御との両方を行う構成に限定されることはなく、例えば一の更新タイミングにおいて上記第1段階の形態の設定を行い、次以降の更新タイミングにおいて面データSDの向きの個別の制御を行い、さらにそれらを繰り返していく構成としてもよい。この場合、一の更新タイミングにおける処理負荷の軽減が図られる。 At the same update timing, the setting of the form of the first stage based on the control in the unit of surface data group and the individual control of the orientation of the surface data SD using the normal map data ND1, ND2, etc. There is no limitation to the configuration for performing both, for example, the setting of the form of the first step is performed at one update timing, individual control of the orientation of the surface data SD is performed at the subsequent update timing, and The configuration may be repeated. In this case, the processing load at one update timing can be reduced.

・視点VDからのZ軸方向の距離に応じて色情報を選択する構成に限定されることはなく、X座標、Y座標及びZ座標により定まる視点VDからの距離に応じて色情報を選択する構成としてもよい。また、これに代えて、視点VDからのX軸方向の距離に応じて色情報を選択する構成としてもよく、Y軸方向の距離に応じて色情報を選択する構成としてもよい。また、視点VDからの距離ではなく、対象となるオブジェクトの回転位置やスケールに応じて色情報を選択する構成としてもよい。 The color information is not limited to the configuration in which the color information is selected according to the distance in the Z-axis direction from the viewpoint VD, and the color information is selected according to the distance from the viewpoint VD determined by the X coordinate, the Y coordinate, and the Z coordinate. It may be configured. Instead of this, the color information may be selected according to the distance in the X-axis direction from the viewpoint VD, or the color information may be selected according to the distance in the Y-axis direction. Further, the color information may be selected according to the rotation position and scale of the target object instead of the distance from the viewpoint VD.

<ピント表示を行うための構成>
次に、ピント表示を行うための構成について説明する。
<Structure for performing focus display>
Next, a configuration for performing focus display will be described.

ピント表示とは、表示面Gにおいて複数種類の個別画像が、表示面Gの奥行き方向の位置がそれぞれ異なるかのようにして同時に表示される場合において、奥行き方向の所定の位置又は範囲に存在している個別画像にピントが合い、当該個別画像については模様の境界や曲り部分の境界、さらに外縁部分が鮮明に表示されるのに対して、それよりも手前側及び奥側に存在しているかのようにして表示されている個別画像についてはピントがずれていて、模様の境界や曲り部分の境界、さらには外縁部分が不鮮明となってぼかした状態で表示される表示演出のことである。 Focus display means that a plurality of individual images on the display surface G are displayed at a predetermined position or range in the depth direction when they are simultaneously displayed as if the positions of the display surface G in the depth direction are different from each other. The individual image is in focus, and the boundary of the pattern, the boundary of the curved part, and the outer edge part are clearly displayed for the individual image, while the individual image exists on the front side and the back side. With regard to the individual image displayed in this way, the display effect is displayed in which the focus is out of focus, the boundary of the pattern, the boundary of the curved portion, and the outer edge portion are blurred and blurred.

ピント表示は、遊技回中及び開閉実行モード中のうち相対的に画像表示に要する処理負荷が低い開閉実行モード中に実行される。つまり、遊技回中においては、各図柄列SA1〜SA3において予め定められたアニメーションデータに従って図柄の変動表示を行う必要があるのに起因して、表示CPU131のタスク処理(図14)ではステップS903〜ステップS905の処理が少なくとも実行される。その一方、開閉実行モード中においては、各図柄列SA1〜SA3において図柄の変動表示を行う必要がないため、表示CPU131のタスク処理(図14)ではステップS903及びステップS904は実行されるが、ステップS905は実行されない。この分だけ、開閉実行モード中においては表示CPU131の処理負荷が軽減されているため、その軽減されている分を利用して、ピント表示用の制御が実行される。 The focus display is executed in the open/close execution mode in which the processing load required for image display is relatively low among the game time and the open/close execution mode. That is, during the game play, it is necessary to perform variable display of symbols in accordance with the predetermined animation data in each of the symbol columns SA1 to SA3. Therefore, in the task processing of the display CPU 131 (FIG. 14), steps S903 to At least the process of step S905 is executed. On the other hand, in the open/close execution mode, since it is not necessary to display the symbols in each of the symbol arrays SA1 to SA3 in a variable manner, step S903 and step S904 are executed in the task processing (FIG. 14) of the display CPU 131. S905 is not executed. Since the processing load on the display CPU 131 is reduced in the open/close execution mode by this amount, the focus display control is executed using the reduced load.

図48は、表示CPU131にて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。開閉実行モード時の演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、開閉実行モード時の演出用演算処理は、開閉実行モードに対応したデータテーブルが設定されている場合に起動される。 FIG. 48 is a flowchart showing the effect calculation process in the opening/closing execution mode executed by the display CPU 131. The production calculation process in the opening/closing execution mode is executed by the production calculation process in step S904 of the task process (FIG. 14). Further, the effect calculation process in the opening/closing execution mode is started when the data table corresponding to the opening/closing execution mode is set.

先ずステップS2901では、現状設定されているデータテーブルに基づいて、今回の更新対象となる演出用のオブジェクトを把握する。ちなみに、ステップS2901の処理の実行タイミングでは、上記演出用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2902では、その把握した演出用のオブジェクトの各種パラメータを演算して制御用の情報を更新する。 First, in step S2901, the effect object to be updated this time is grasped based on the currently set data table. By the way, at the execution timing of the process of step S2901, the control start setting process (step S901) for the effect object is completed. In subsequent step S2902, various parameters of the grasped effect object are calculated to update the control information.

続くステップS2903では、現状設定されているデータテーブルに基づいて、今回の更新対象となる教示用のオブジェクトを把握する。教示用のオブジェクトとは、遊技の状況を遊技者に教示可能とする画像を表示する場合に利用されるオブジェクトのことであり、例えばラウンド中であれば、現状のラウンドが何番目のラウンドであるかといった内容が教示用のオブジェクトを用いて教示される(図52参照)。また、開閉実行モードへの移行の契機となった遊技回において有効ライン上に最終停止表示された図柄の組合せの種類の情報が教示用のオブジェクトを用いて教示される(図52参照)。ちなみに、ステップS2903の処理の実行タイミングでは、上記教示用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2904では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 In subsequent step S2903, the teaching object to be updated this time is grasped based on the currently set data table. The teaching object is an object used when displaying an image that allows the player to teach the game situation. For example, if a round is in progress, the current round is the number of the round. Contents such as are taught using an object for teaching (see FIG. 52). Further, the information of the kind of the combination of the symbols finally stopped and displayed on the activated line is taught by using the teaching object in the game time that triggered the shift to the opening/closing execution mode (see FIG. 52). By the way, at the execution timing of the process of step S2903, the control start setting process (step S901) for the teaching object is completed. In a succeeding step S2904, various parameters of the grasped object are calculated and the control information is updated.

続くステップS2905では、現状設定されているデータテーブルに基づいて、開閉実行モードにおけるピント演出期間であるか否かを判定する。ピント演出期間は、遊技者による演出用操作装置48の操作に基づきピント表示を行うことが可能な期間のことである。本パチンコ機10では、開閉実行モードの一部の期間としてピント演出期間が設定されており、具体的には第1ラウンド目といった所定のラウンド(すなわち可変入賞装置22への入賞が可能となる期間)にピント演出期間が設定されている。但し、これに限定されることはなく、複数のラウンドに対してピント演出期間が設定されていてもよく、オープニングやエンディングにおいてピント演出期間が設定されていてもよく、ラウンド間にピント演出期間が設定されていてもよく、所定のラウンドとその次のラウンドに亘ってピント演出期間が設定されていてもよく、開閉実行モードの全体がラウンド演出期間として設定されていてもよい。 In a succeeding step S2905, it is determined based on the currently set data table whether or not it is a focus effect period in the opening/closing execution mode. The focus production period is a period in which the focus display can be performed based on the operation of the production operation device 48 by the player. In the present pachinko machine 10, a focus production period is set as a part of the opening/closing execution mode, and specifically, a predetermined round such as the first round (that is, a period during which a prize can be won in the variable winning device 22). ) The focus production period is set. However, without being limited to this, the focus production period may be set for a plurality of rounds, the focus production period may be set in the opening or ending, and the focus production period may be set between the rounds. The focus effect period may be set over a predetermined round and the next round, or the entire opening/closing execution mode may be set as the round effect period.

ピント演出期間ではない場合(ステップS2905:NO)には、そのまま本演出用演算処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。 If it is not in the focus production period (step S2905: NO), the main production calculation process is ended as it is. When the production calculation process in the opening/closing execution mode is executed in this way, the drawing list created in the subsequent drawing list output process includes the instruction of using the object for the effect grasped in step S2901. The information is set together with the information of the texture use instruction corresponding to the objects. Further, in the drawing list, the parameters calculated in step S2902 are set, and further, the instruction instruction use instruction information grasped in step S2903 is set, and in step S2904. The calculated parameters are set.

ピント演出期間である場合(ステップS2905:YES)には、ステップS2906にて、ピント選択期間であるか否かを判定する。ピント演出期間には、その開始タイミングから300フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って遊技者によってピントを選択可能とするピント選択期間が設定されている。当該ピント選択期間にて遊技者によるピント選択指示が演出用操作装置48の操作に基づきなされた場合に、ピント表示実行期間が行われるように設定されている。このピンと表示実行期間は、実行対象となっているラウンドの終了まで行われる。ピント選択期間にてピント選択の対象となる個別画像は、その後に続くピント表示実行期間においても表示が継続されるため、ピント選択期間におけるピント選択の結果を反映したピント表示を実行することが可能となる。 If it is the focus effect period (step S2905: YES), it is determined in step S2906 whether it is the focus selection period. In the focus effect period, a focus selection period is set in which the player can select the focus over a predetermined number of frames (predetermined plural image update timings) such as 300 frames from the start timing. The focus display execution period is set when the player selects a focus selection instruction based on the operation of the performance operation device 48 during the focus selection period. This pin and the display execution period are performed until the end of the round to be executed. Individual images that are subject to focus selection during the focus selection period continue to be displayed during the subsequent focus display execution period, so focus display that reflects the results of focus selection during the focus selection period can be executed. Becomes

なお、ピント表示実行期間は、少なくとも500フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って実行される。また、所定のラウンドがピント選択期間として設定されており、それ以降のラウンドがピント表示実行期間として設定されている構成としてもよい。 Note that the focus display execution period is executed over a predetermined number of frames (predetermined plurality of image update timings) such as at least 500 frames. Further, a predetermined round may be set as the focus selection period, and subsequent rounds may be set as the focus display execution period.

ピント選択期間である場合(ステップS2906:YES)には、ステップS2907にて、ピント選択用のパラメータ調整処理を実行するとともに、ステップS2908にて、ピント選択の実行指定情報を記憶した後に、本演出用演算処理を終了する。 In the case of the focus selection period (step S2906: YES), in step S2907, the focus selection parameter adjustment processing is executed, and in step S2908, focus selection execution designation information is stored, and then the main effect is performed. The calculation processing for use ends.

上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2901にて把握された演出用のオブジェクトのパラメータとして、ピント選択用のパラメータが設定されるとともに、ピント選択の実行指定情報が設定される。 When the production calculation process in the opening/closing execution mode is executed as described above, the rendering list created in the subsequent rendering list output process indicates the instruction to use the production object grasped in step S2901. Information is set together with the information of the texture use instruction corresponding to those objects. Further, in the drawing list, the parameters calculated in step S2902 are set, and further, the instruction instruction use instruction information grasped in step S2903 is set, and in step S2904. The calculated parameters are set. Further, in the drawing list, parameters for focus selection are set as parameters of the object for effect grasped in step S2901, and execution designation information for focus selection is set.

ここで、ピント選択期間においては、表示面Gにてピント選択を可能とする個別画像が除々に切り換えられていると遊技者が認識可能な表示が行われる。例えば、複数の個別画像が表示面Gの奥行き方向にずれて配置されているかのように同時に表示されている状態において、それら複数の個別画像が順次、ピント選択可能状態へと遷移される。このピント選択可能状態とする方法は任意であるが、例えば個別画像の周縁を囲むようにして環状部を表示させるとともに、その環状部を点滅表示させる構成や、個別画像を拡大表示させる構成や、個別画像を拡大させた後に縮小表示させる構成や、個別画像を指し示す別画像を表示させる構成が考えられる。このようなピント選択可能状態の表示は、ピント選択の実行指定情報が設定された描画リストが出力されている状況において、VDP135にて上記ピント選択用のパラメータが参照されることで実行される。 Here, in the focus selection period, a display is made so that the player can recognize that the individual images enabling focus selection are gradually switched on the display surface G. For example, in the state where the plurality of individual images are displayed simultaneously as if they are arranged in the depth direction of the display surface G while being displaced, the plurality of individual images are sequentially transitioned to the focus selectable state. The method of bringing the focus selectable state is arbitrary, but for example, while displaying the annular portion so as to surround the periphery of the individual image, the configuration in which the annular portion is displayed in blinking, the configuration in which the individual image is displayed in an enlarged manner, the individual image It is conceivable to enlarge the image and then reduce it, or to display another image pointing to the individual image. Such display of the focus selectable state is executed by referring to the focus selection parameter by the VDP 135 in a situation where the drawing list in which the focus selection execution designation information is set is output.

なお、本パチンコ機10においては、ピント選択が可能となる個別画像は背景の手前にて表示される演出用の個別画像であるが、背景の画像が含まれていてもよい。 In the pachinko machine 10, the individual image that enables focus selection is an effect-specific image displayed in front of the background, but the background image may be included.

一方、ピント選択期間ではない場合(ステップS2906:NO)には、ステップS2909に進む。ステップS2909では、ピント表示の実行中であるか否かを判定する。ピント表示の実行中ではない場合には、ステップS2910にて、音声発光制御装置60からピント指示コマンドを受信しているか否かを判定する。ピント指示コマンドは、ピント選択期間にて遊技者によるピント選択指示がなされた場合において、当該ピント選択期間の終了タイミングにて音声発光制御装置60から送信されるコマンドであり、当該ピント指示コマンドにはピント選択指示された個別画像の情報が含まれる。 On the other hand, when it is not the focus selection period (step S2906: NO), the process proceeds to step S2909. In step S2909, it is determined whether or not focus display is being executed. If the focus display is not being executed, it is determined in step S2910 whether or not the focus instruction command is received from the voice light emission control device 60. The focus instruction command is a command transmitted from the audio emission control device 60 at the end timing of the focus selection period when the player issues a focus selection instruction during the focus selection period. Information on the individual image for which focus selection is instructed is included.

ステップS2910にて否定判定をした場合には、そのまま本処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、上記ステップS2905にて否定判定をして本演出用演算処理を終了した場合と同様の情報が設定される。 If a negative determination is made in step S2910, this processing is ended as it is. When the effect calculation process in the opening/closing execution mode is executed in this way, the drawing list created in the subsequent drawing list output process makes a negative determination in step S2905 and ends the effect calculation process. The same information as in the case of doing is set.

ステップS2910にて肯定判定をした場合には、ステップS2911にてピント範囲の算出処理を実行する。ピント範囲の算出処理では、ピント指示コマンドに含まれているピント選択指示対象の個別画像の情報からピントを合わせる範囲を算出する処理を実行する。この場合、ピント演出期間にて表示される個別画像の種類は、パチンコ機10の設計段階において既に定められているため、ピント選択対象となる個別画像に1対1で対応させてピント範囲のデータがピント範囲テーブルとして予め定められている。したがって、ステップS2911では、先ずメモリモジュール133からピント範囲テーブルを読み出し、上記ピント選択指示対象となった個別画像に対応したピント範囲のデータを読み出す。その後、ステップS2912にて、ピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。 When a positive determination is made in step S2910, focus range calculation processing is executed in step S2911. In the focus range calculation process, a process of calculating the focus range is executed from the information of the individual image of the focus selection instruction target included in the focus instruction command. In this case, the type of the individual image displayed during the focus production period is already determined at the design stage of the pachinko machine 10, and therefore the data of the focus range is set in a one-to-one correspondence with the individual image to be the focus selection target. Is predetermined as a focus range table. Therefore, in step S2911, the focus range table is first read from the memory module 133, and the focus range data corresponding to the individual image that is the focus selection instruction target is read. Then, in step S2912, after the execution designating information of the focus production is stored, the production processing for the main production is ended.

上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2911にて算出したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が記憶される。 When the production calculation process in the opening/closing execution mode is executed as described above, the rendering list created in the subsequent rendering list output process indicates the instruction to use the production object grasped in step S2901. Information is set together with the information of the texture use instruction corresponding to those objects. Further, in the drawing list, the parameters calculated in step S2902 are set, and further, the instruction instruction use instruction information grasped in step S2903 is set, and in step S2904. The calculated parameters are set. Further, in the drawing list, the focus range data calculated in step S2911 is set, and focus effect execution designation information is stored.

ステップS2910にて肯定判定をした場合には、ピント表示の実行状態となる。このピント表示の実行状態への設定は、例えばデータテーブルにおいてピント表示の実行状態か否かを区別するためのフラグに「1」をセットすることなどによって行われる。ピント表示の実行状態となった場合には、ステップS2909にて肯定判定をし、ステップS2912にてピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。 If an affirmative decision is made in step S2910, the focus display is in the execution state. The focus display execution state is set by, for example, setting "1" to a flag for distinguishing whether or not the focus display execution state is in the data table. When the focus display is in the execution state, an affirmative decision is made in step S2909, the focus production execution designation information is stored in step S2912, and then the present production arithmetic processing is ended.

このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、今回のピント演出に対応したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が設定される。 When the production calculation process in the opening/closing execution mode is executed in this way, the drawing list created in the subsequent drawing list output process includes the instruction of using the object for the effect grasped in step S2901. The information is set together with the information of the texture use instruction corresponding to the objects. Further, in the drawing list, the parameters calculated in step S2902 are set, and further, the instruction instruction use instruction information grasped in step S2903 is set, and in step S2904. The calculated parameters are set. Further, in the drawing list, focus range data corresponding to the current focus effect is set, and focus effect execution designation information is set.

VDP135では、表示CPU131から送信される描画リストに基づいて、ピント選択期間用の画像表示を行うとともに、ピント表示実行期間用の画像表示を行う。この場合、ピント選択期間用の画像表示については、ピント選択用のパラメータを参照しながら描画処理(図16)を実行することに基づき、既に説明したようなピント選択可能状態となる個別画像が順次切り換わるような画像表示が行われる。一方、ピント表示実行期間用の画像表示は、3次元画像データの状態から2次元画像データの状態に移行させる処理が実行された後に、ピントを調整するための処理が実行されることにより行われる。 The VDP 135 performs image display for the focus selection period and image display for the focus display execution period based on the drawing list transmitted from the display CPU 131. In this case, regarding the image display for the focus selection period, the individual images in the focus selectable state as described above are sequentially displayed based on the drawing process (FIG. 16) being executed with reference to the focus selection parameter. Image display is performed so as to be switched. On the other hand, the image display for the focus display execution period is performed by executing the process for adjusting the focus after the process of shifting the state of the three-dimensional image data to the state of the two-dimensional image data is executed. ..

以下、VDP135においてピントを調整するための具体的な構成について説明する。図49(a)は、VDP135においてピントを調整する上で用いられるVRAM134の各エリアを説明するための説明図である。 Hereinafter, a specific configuration for adjusting the focus in the VDP 135 will be described. FIG. 49A is an explanatory diagram for explaining each area of the VRAM 134 used for adjusting the focus in the VDP 135.

図49(a)に示すように、VRAM134には、第1フレーム領域142a及び第2フレーム領域142bを有するフレームバッファ142と、Zバッファ143とが設けられている。これら各バッファ142,143については既に説明したとおりであり、フレームバッファ142の各フレーム領域142a,142bには、図柄表示装置31への描画を実行する際に参照される2次元データである描画データが作成され、Zバッファ143は、隠面処理(図18)を実行する際にZ軸方向の座標データを一時的に記憶するために利用される。 As shown in FIG. 49A, the VRAM 134 is provided with a frame buffer 142 having a first frame area 142a and a second frame area 142b, and a Z buffer 143. The respective buffers 142 and 143 have already been described, and the frame areas 142a and 142b of the frame buffer 142 each have two-dimensional drawing data which is referred to when drawing on the symbol display device 31. And the Z buffer 143 is used to temporarily store coordinate data in the Z-axis direction when the hidden surface processing (FIG. 18) is executed.

VRAM134には、上記各バッファ142,143以外にも、VDP135においてピントを調整するためのエリアとして、ぼかし用バッファ181が設けられている。ぼかし用バッファ181は、フレーム領域142a,142bと同一数の単位エリアを有している。つまり、各フレーム領域142a,142bは相互に同一数の単位エリアを有しており、それと同一の数の単位エリアを、ぼかし用バッファ181は有している。ぼかし用バッファ181は、一のフレーム領域に作成されている描画リストをそのままの状態で一時記憶することが可能となっている。 In addition to the buffers 142 and 143, the VRAM 134 is provided with a blurring buffer 181 as an area for adjusting the focus in the VDP 135. The blurring buffer 181 has the same number of unit areas as the frame areas 142a and 142b. That is, the frame areas 142a and 142b have the same number of unit areas, and the blurring buffer 181 has the same number of unit areas. The blurring buffer 181 can temporarily store the drawing list created in one frame area as it is.

なお、描画リストをそのままの状態で一時記憶させることができるのであれば、ぼかし用バッファ181における単位エリアの数は、一のフレーム領域が有する単位エリアの数よりも多くてもよい。 If the drawing list can be temporarily stored as it is, the number of unit areas in the blurring buffer 181 may be larger than the number of unit areas included in one frame area.

VDP135においてピントを調整するための処理は、描画処理(図16)におけるステップS1012の描画データ合成処理にて実行される。図49(b)は、描画データ合成処理を示すフローチャートである。 The processing for adjusting the focus in the VDP 135 is executed by the drawing data composition processing of step S1012 in the drawing processing (FIG. 16). FIG. 49B is a flow chart showing the drawing data combination processing.

描画データ合成処理では、先ずステップS3001にて、今回の描画リストにおいてピント演出の実行指定情報が設定されているか否かを判定する。設定されていない場合には、ステップS3002に進む。 In the drawing data synthesizing process, first, in step S3001, it is determined whether or not focus instruction execution designation information is set in the current drawing list. If not set, the process proceeds to step S3002.

ステップS3002では、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。その後、ステップS3003にて、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込んだ後に、本合成処理を終了する。 In step S3002, the background drawing data already created in step S1010 and stored in the screen buffer 144 is written in the frame areas 142a and 142b to be drawn this time. After that, in step S3003, the rendering data for the effect and the pattern already created in the previous step S1011 and stored in the screen buffer 144 is set to the frame area 142a in which the rendering data for the background is written as described above. , 142b, the main combining process is terminated.

この場合においてα値を参照しながら演出及び図柄用の描画データが書き込まれることは、既に説明したとおりである。また、開閉実行モードにおいては、演出及び図柄用の描画データにおいて図柄は存在しておらず、演出用の個別画像に対応したデータのみが存在している。さらにまた、開閉実行モードにおいては、演出及び図柄用の描画データに、教示用のオブジェクトに対して教示用のテクスチャを貼り付けることに基づき作成された教示用の個別画像のデータが含まれており、当該教示用の個別画像のデータに対しては他の個別画像のデータが手前側から重なることがないように演出及び図柄用の描画データが作成されている。 In this case, drawing data for effects and symbols is written while referring to the α value, as already described. Further, in the opening/closing execution mode, the design does not exist in the drawing data for the effect and the design, and only the data corresponding to the individual image for the effect exists. Furthermore, in the opening/closing execution mode, the drawing data for the effect and the pattern includes the data of the teaching individual image created based on pasting the teaching texture to the teaching object. The drawing data for the effect and the design are created so that the data of the individual image for teaching is not overlapped with the data of the other individual image from the front side.

一方、今回の描画リストにおいてピント演出の実行指定情報が設定されている場合には、ステップS3004に進む。ステップS3004では、上記ステップS3002と同様に、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。続くステップS3005では、上記ステップS3003と同様に、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込む。その後、ステップS3006にて、ピント演出用の調整処理を実行した後に、本合成処理を終了する。 On the other hand, if the focus effect execution designation information is set in the current drawing list, the process advances to step S3004. In step S3004, similar to step S3002, the background drawing data already created in step S1010 immediately before and stored in the screen buffer 144 is written in the frame areas 142a and 142b to be drawn this time. In the following step S3005, like the above-described step S3003, the drawing data for the effect and the pattern which has already been created in the previous step S1011 and stored in the screen buffer 144 is written into the drawing data for the background as described above. The frame areas 142a and 142b are written. After that, in step S3006, after performing focus processing adjustment processing, the main synthesis processing ends.

図50(a)はピント演出用の調整処理を示すフローチャートである。 FIG. 50A is a flowchart showing the adjustment processing for focus effect.

ピント演出用の調整処理では、先ずステップS3101〜ステップS3107にて、ピント演出を実行するために参照するぼかしマップデータを作成するためのぼかしマップ作成処理を実行する。ぼかしマップデータは、2次元画像データである描画データにおいて、当該描画データが作成されているフレーム領域142a,142bの各単位エリアに設定された色情報が、3次元画像データの状況にてどのようなZ軸方向の座標を有していたのかをVDP135にて特定するためのマップデータである。つまり、フレーム領域142a,142bの各単位エリアに1対1で対応させてZ軸方向の座標データが設定されたデータである。 In the adjustment process for focus effect, first, in steps S3101 to S3107, a blur map creation process for creating blur map data to be referred to for performing the focus effect is executed. In the drawing data that is the two-dimensional image data, the blur map data shows how the color information set in each unit area of the frame areas 142a and 142b in which the drawing data is created is the three-dimensional image data. It is map data for specifying with the VDP 135 whether or not it has a coordinate in the Z-axis direction. That is, it is data in which coordinate data in the Z-axis direction is set in a one-to-one correspondence with the unit areas of the frame areas 142a and 142b.

ここで、既に説明したとおり、背景用の描画データや演出及び図柄用の描画データは、描画処理(図16)にて、ワールド座標系に対して各オブジェクトを設定し(ステップS1002〜ステップS1004)、カメラ座標系への変換処理(ステップS1005)を経て、視野座標系への変換処理(ステップS1006)を実行し、さらにその状態で、クリッピング処理(ステップS1007)、ライティング処理(ステップS1008)及び色情報の設定処理(ステップS1009)を実行した後に、作成する。この場合において、各描画データは、フレーム領域142a,142bに対して作成されるものであるため、当該描画データの作成に際して、上記のように視野座標系にて色情報の設定処理が行われたデータの状態は維持されており、描画データの作成後においても新たな描画処理が起動されるまでは維持される。そして、この視野座標系にて色情報の設定処理が行われた状態のデータを利用して、ぼかしマップデータが作成される。 Here, as described above, the drawing data for the background and the drawing data for the effect and the pattern set each object in the world coordinate system in the drawing process (FIG. 16) (steps S1002 to S1004). , The conversion process to the camera coordinate system (step S1005), the conversion process to the view coordinate system (step S1006), and in that state, the clipping process (step S1007), the lighting process (step S1008), and the color. It is created after the information setting process (step S1009) is executed. In this case, since each drawing data is created for the frame areas 142a and 142b, when creating the drawing data, the color information setting process is performed in the visual field coordinate system as described above. The data state is maintained, and is maintained even after the drawing data is created until a new drawing process is started. Then, the blur map data is created using the data in the state in which the color information setting process is performed in the visual field coordinate system.

ぼかしマップ作成処理では、Zバッファ143を利用して、隠面処理(図18)と同様の処理を実行することに基づき、ぼかしマップデータを作成する。但し、隠面処理(図18)では、背景用の画像データのみを処理対象として背景用の描画データを作成し、演出及び図柄用の描画データのみを処理対象として演出及び図柄用の描画データを作成する構成であったが、ぼかしマップ作成処理では、このような区別を行うことなく、視野座標系においてクリッピングされた全ての画像データをまとめて処理対象として扱う。 In the blur map creating process, the Z map 143 is used to create the blur map data based on the same process as the hidden surface process (FIG. 18). However, in the hidden surface processing (FIG. 18), the drawing data for the background is created with only the image data for the background as the processing target, and the drawing data for the production and the pattern is created with only the drawing data for the effect and the pattern as the processing target. However, in the blurring map creation processing, all the image data clipped in the visual field coordinate system are collectively treated as the processing target without performing such a distinction.

ぼかしマップ作成処理について具体的には、先ずステップS3101にて、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS3102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。 Regarding the blurring map creation processing, first, in step S3101, an individual image included on the Z axis of the current projection target dot in the screen area PC12 (see FIG. 17) is used as a reference. Understand the Z value set in the target pixel of the individual image that is the test target. In a succeeding step S3102, the Z value set in the area of the dot corresponding to the drawing target dot in the Z buffer 143 is grasped.

続くステップS3103では、ステップS3101にて把握した個別画像のZ値が、ステップS3102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS3104に進み、ステップS3101にて把握したZ値を、Zバッファ143におけるステップS3102にて参照したドットのエリアに上書きする。その後にステップS3105に進む。 In a succeeding step S3103, it is determined whether or not the Z value of the individual image grasped in step S3101 corresponds to the front side in the Z-axis direction of the Z value of the Z buffer 143 grasped in step S3102. If it corresponds to the front side, the process advances to step S3104, and the Z value grasped in step S3101 is overwritten in the dot area referred to in step S3102 in the Z buffer 143. Then, it progresses to step S3105.

一方、ステップS3103にて、手前側に対応していないと判定した場合には、ステップS3104の処理を実行することなく、ステップS3105に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合にはZバッファ143の更新は行われない。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われる。 On the other hand, if it is determined in step S3103 that the front side is not supported, the process proceeds to step S3105 without executing the process of step S3104. That is, when the Z value of the pixel that is the test target is the same as the Z value that is already set for the target dot of the Z buffer 143 or is on the far side in the Z axis direction, the Z buffer 143 is not updated. .. On the other hand, when the Z value of the test target pixel is on the front side in the Z axis direction with respect to the Z value already set for the target dot of the Z buffer 143, the Z buffer 143 is updated.

ステップS3105では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS3101に戻り、新たな対象ピクセルに対してZテストを行う。 In step S3105, it is determined whether or not the Z test is completed for all target pixels included on the Z axis with respect to the projection target dot. If not completed, the process returns to step S3101 to perform the Z test on a new target pixel.

完了している場合には、ステップS3106にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS3107にて、投影対象ドットを更新した後にステップS3101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には、ぼかしマップデータの作成が完了したことを意味するため、ステップS3108に進む。 If it is completed, it is determined in step S3106 whether the Z test is completed for all the dots in the screen area PC12. If not completed, the projection target dot is updated in step S3107 and then the process returns to step S3101 to perform the Z test on the new projection target dot. If it has been completed, it means that the creation of the blur map data has been completed, and the process advances to step S3108.

上記のようにぼかしマップデータが作成されることにより、合成描画データの各単位エリアに対応した色情報がZ軸方向においてどのような座標を有するものであるか否かをVDP135にて特定することが可能となる。よって、各単位エリアに対応した色情報について、奥行き方向の相対的な位置関係をVDP135にて特定することが可能となる。 By creating the blurring map data as described above, the VDP 135 specifies what coordinate the color information corresponding to each unit area of the composite drawing data has in the Z-axis direction. Is possible. Therefore, with respect to the color information corresponding to each unit area, the relative positional relationship in the depth direction can be specified by the VDP 135.

ピント演出用の調整処理では、ステップS3101〜ステップS3107にて、ぼかしマップデータを作成した後に、ステップS3108に進む。 In the focus effect adjustment processing, after the blur map data is created in steps S3101 to S3107, the process proceeds to step S3108.

ステップS3108では、描画データ合成処理(図49(b))におけるステップS3004及びステップS3005の処理により、描画対象のフレーム領域142a,142bに作成された合成描画データを、ぼかし用バッファ181に保存する。続くステップS3109では今回の描画リストにおいて設定されているピント範囲のデータを読み出す。 In step S3108, the combined drawing data created in the drawing target frame areas 142a and 142b by the processing in steps S3004 and S3005 in the drawing data combination processing (FIG. 49B) is stored in the blurring buffer 181. In the following step S3109, the focus range data set in the current drawing list is read.

その後、ステップS3110〜ステップS3117にて、その読み出したピント範囲のデータに基づいて、ぼかし処理を実行する。当該ぼかし処理では、今回の描画対象のフレーム領域142a,142bにおける単位エリアについて、ぼかし処理の実行対象であるか否かの判定処理を実行するとともに、実行対象であると判定した単位エリアに対して、ぼかしを生じさせる処理を実行し、さらにこれらの処理を今回の描画対象のフレーム領域142a,142bに含まれる全ての単位エリアに対して実行する。 Then, in steps S3110 to S3117, blurring processing is executed based on the read focus range data. In the blurring process, determination processing as to whether or not the unit area in the frame areas 142a and 142b to be rendered this time is the execution target of the blurring process is performed, and the unit area determined to be the execution target is executed. , Processing for causing blurring is performed, and further, these processing are performed for all unit areas included in the frame areas 142a and 142b to be rendered this time.

ここで、Z軸方向の座標データがピント範囲に対応している単位エリアに対しては、ぼかしを生じさせる処理は実行れないが、当該ピント範囲はZ軸方向の単一の座標データに対応しているのではなく、図50(b)に示すように、Z軸方向に連続する複数の座標データに対応している。つまり、ピント範囲は、ある程度の被写界深度を有するように設定されており、表示面Gに表示される画像をぼかし過ぎないようにされている。ピント範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように設定されていることが好ましい。 Here, processing for causing blurring is not executed for a unit area whose coordinate data in the Z-axis direction corresponds to the focus range, but the focus range corresponds to a single coordinate data in the Z-axis direction. Instead, it corresponds to a plurality of coordinate data that are continuous in the Z-axis direction, as shown in FIG. That is, the focus range is set to have a certain depth of field, and the image displayed on the display surface G is not too blurred. Although the focus range is specifically arbitrary, it is set so as to be able to include the entire one individual image for one effect having a predetermined thickness in the Z-axis direction in the state of the three-dimensional image data. Preferably.

Z軸方向の座標データがピント範囲から外れている単位エリアについては、ピント範囲から遠い距離に存在するものほど、ぼかしの度合いが大きくなるように設定されている。具体的には、図50(b)に示すように、ピント範囲から遠ざかるに従って段階的にぼかしの度合いが大きくなるように、第1ぼかし範囲と、第2ぼかし範囲と、第3ぼかし範囲とが設定されている。 With respect to the unit area in which the coordinate data in the Z-axis direction is out of the focus range, the degree of blurring is set to increase as the distance from the focus range increases. Specifically, as shown in FIG. 50(b), the first blur range, the second blur range, and the third blur range are set so that the degree of blur gradually increases as the distance from the focus range increases. It is set.

第1ぼかし範囲はピント範囲から連続するようにして設定されており、Z軸方向においてピント範囲から遠ざかる側に連続する複数の座標データに対応している。第1ぼかし範囲は、ピント範囲の奥側及び手前側の両方に存在する。また、第2ぼかし範囲は第1ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲及び第1ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第2ぼかし範囲は、奥側の第1ぼかし範囲のさらなる奥側及び手前側の第1ぼかし範囲のさらなる手前側の両方に存在する。また、第3ぼかし範囲は第2ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲、第1ぼかし範囲及び第2ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第3ぼかし範囲は、奥側の第2ぼかし範囲のさらなる奥側及び手前側の第2ぼかし範囲のさらなる手前側の両方に存在する。 The first blur range is set so as to be continuous from the focus range, and corresponds to a plurality of coordinate data that is continuous on the side away from the focus range in the Z-axis direction. The first blur range exists both on the back side and the front side of the focus range. The second blur range is set to be continuous from the first blur range, and corresponds to a plurality of coordinate data that is continuous in the Z-axis direction on the side away from the focus range and the first blur range. The second blur range exists both on the further back side of the first blur range on the back side and on the further front side of the first blur range on the front side. Further, the third blur range is set to be continuous from the second blur range, and corresponds to a plurality of coordinate data that is continuous on the side away from the focus range, the first blur range, and the second blur range in the Z-axis direction. is doing. The third blurring range exists both on the further back side of the second blurring range on the back side and on the further front side of the second blurring range on the front side.

第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように、それぞれ設定されていることが好ましい。この場合、第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲に含まれるZ軸方向の座標データの数は相互に同一であり且つその座標データの数はピント範囲と同一であるが、ピント範囲とは異なっていてもよく、相互に異なっていてもよい。例えばピント範囲から遠いぼかし範囲ほど含まれるZ軸方向の座標データの数が多くなる構成としてもよい。 The first blurring range, the second blurring range, and the third blurring range are specifically arbitrary, but in the state of the three-dimensional image data, the entire individual image for one effect having a predetermined thickness in the Z-axis direction. Is preferably set so that each of the ranges can include. In this case, the numbers of coordinate data in the Z-axis direction included in the first blur range, the second blur range, and the third blur range are the same as each other, and the number of the coordinate data is the same as the focus range. The focus ranges may be different or may be different from each other. For example, the number of pieces of coordinate data in the Z-axis direction included in the blurring range farther from the focus range may be increased.

ピント範囲は、既に説明したとおり、遊技者の演出用操作装置48の操作に基づき変更されるものであるため、メモリモジュール133に予め記憶されているピント範囲用のデータは、当該ピント範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、遊技者による演出用操作装置48の操作に基づき、そのピント範囲を設定する上で基準となるZ軸方向の座標が決定され、その座標を基準として、ピント範囲用のデータに含まれるZ軸方向の座標データの数が実際の座標データの範囲として変換されることで、ピント範囲が設定される。この場合、ピント範囲を設定する上で基準となるZ軸方向の座標は、ピント範囲の最も手前側の座標又は最も奥側の座標として設定しておくことが好ましい。最も手前側の座標として設定しておくことで、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に加算するだけで、ピント範囲を設定することが可能となる。また、最も奥側の座標として設定した場合であっても、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に減算するだけで、ピント範囲を設定することが可能となる。 As described above, the focus range is changed based on the player's operation of the staging operation device 48, and therefore the focus range data stored in advance in the memory module 133 is included in the focus range. It is set as data of the number of coordinate data that are continuous in the Z-axis direction. Then, based on the operation of the production operating device 48 by the player, the Z-axis direction coordinates that are the reference for setting the focus range are determined, and the Z included in the focus range data is based on the coordinates. The focus range is set by converting the number of coordinate data in the axial direction into the range of the actual coordinate data. In this case, it is preferable that the coordinate in the Z-axis direction, which is a reference in setting the focus range, is set as the coordinate on the most front side or the coordinate on the farthest side of the focus range. By setting it as the frontmost coordinate, the focus range can be set by simply adding the number of coordinate data set in the focus range data to the reference coordinate. It becomes possible. Even if it is set as the innermost coordinate, the number of coordinate data set in the focus range data is simply subtracted from the reference coordinate, and the focus range is Can be set.

同様に、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲についても、メモリモジュール133に予め記憶されている各ぼかし範囲用のデータは、当該ぼかし範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、上記のように決定されたピント範囲に基づき、各ぼかし範囲の基準となる座標が決定され、その基準となる座標に対して各ぼかし範囲用のデータを適用することにより、各ぼかし範囲を設定することが可能となる。 Similarly, regarding the first blurring range, the second blurring range, and the third blurring range, the data for each blurring range stored in advance in the memory module 133 is in the Z-axis direction that is included in the blurring range. It is set as data of the number of continuous coordinate data. Then, based on the focus range determined as described above, the reference coordinates of each blurring range are determined, and by applying the data for each blurring range to the reference coordinates, each blurring range is determined. It becomes possible to set.

上記のとおりピント範囲の手前側及び奥側のそれぞれに対して、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲を設定可能な構成であるが、既に説明したとおりピント範囲は遊技者の演出用操作装置48の操作に基づき決定される。そうすると、ピント範囲が最も手前側に存在する演出用の個別画像に対応させて設定されることがある。この場合には、各ぼかし範囲は、ピント範囲に対して奥側にのみ設定されることとなる。 As described above, the first blur range, the second blur range, and the third blur range can be set for each of the front side and the back side of the focus range, but as described above, the focus range is set by the player. It is determined based on the operation of the staging operation device 48. Then, the focus range may be set corresponding to the effect-specific individual image existing closest to the front side. In this case, each blur range is set only on the far side with respect to the focus range.

図50(a)の説明に戻り、ぼかし処理では、先ずステップS3110にて、今回の単位エリアに対応したZ軸方向の座標データを、ステップS3101〜ステップS3107にて作成したぼかしマップデータから読み出す。続くステップS3111では、ステップS3110にて読み出したZ軸方向の座標データが、ステップS3109にて読み出したピント範囲内に含まれるか否かを判定する。ピント範囲内に含まれている場合には、その単位エリアに対しては、ぼかしを生じさせる処理を実行する必要がないため、ステップS3112〜ステップS3115の処理を実行することなくステップS3116に進む。 Returning to the description of FIG. 50A, in the blurring process, first in step S3110, the coordinate data in the Z-axis direction corresponding to the current unit area is read from the blurring map data created in steps S3101 to S3107. In a succeeding step S3111, it is determined whether or not the coordinate data in the Z-axis direction read in the step S3110 is included in the focus range read in the step S3109. If the unit area is included in the focus range, it is not necessary to perform the process of causing blurring on the unit area, and thus the process proceeds to step S3116 without performing the processes of steps S3112 to S3115.

ピント範囲内に含まれていない場合には、ステップS3112にて、今回の単位エリアが教示用の個別画像を表示するための教示用エリアに対応しているか否かを判定する。教示用の個別画像は、既に説明した教示用のオブジェクトを利用して表示される画像のことである。教示用エリアに対応している場合には、ステップS3113〜ステップS3115の処理を実行することなくステップS3116に進む。つまり、教示用の個別画像に対しては、ぼかしを生じさせる処理は実行されない。これにより、ピント演出を行う場合であっても、教示用の個別画像を利用した情報の教示を好適に行うことが可能となる。 If it is not included in the focus range, it is determined in step S3112 whether or not the current unit area corresponds to the teaching area for displaying the teaching individual image. The individual teaching image is an image displayed by using the teaching object described above. If it corresponds to the teaching area, the process proceeds to step S3116 without executing the processes of steps S3113 to S3115. That is, the processing for causing blurring is not performed on the individual image for teaching. As a result, it becomes possible to suitably teach the information using the individual image for teaching even when performing the focus effect.

ちなみに、教示用の個別画像が表示される位置は、遊技者による演出用操作装置48の操作態様に関係なく不変であるため、教示用エリアに含まれる単位エリアのアドレスは事前に定められており、そのデータはメモリモジュール133に予め記憶されている。 By the way, since the position at which the individual image for teaching is displayed does not change regardless of the operation mode of the staging operation device 48 by the player, the address of the unit area included in the teaching area is predetermined. The data is stored in the memory module 133 in advance.

ステップS3112にて否定判定をした場合には、ステップS3113に進む。ステップS3113では、ぼかし範囲の決定処理を実行する。具体的には、ステップS3110にて読み出したZ軸方向の座標データが、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲のいずれに含まれているのかを判定し、ぼかしを生じさせる上で対象となるぼかし範囲を決定する。その後、ステップS3114にて、ぼかし発生処理を実行する。 If a negative decision is made in step S3112, the operation proceeds to step S3113. In step S3113, blurring range determination processing is executed. Specifically, it is determined which of the first blur range, the second blur range, and the third blur range the coordinate data in the Z-axis direction read in step S3110 is included in. Determines the target blur range. Then, in step S3114, blurring generation processing is executed.

ぼかし発生処理について、図51(a)のフローチャートを参照しながら説明する。 The blurring generation process will be described with reference to the flowchart of FIG.

先ずステップS3201では、上記ステップS3113にて第1ぼかし範囲が決定されたか否かを判定する。第1ぼかし範囲が決定されている場合には、ステップS3202にて、今回の単位エリアを基準として、X軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、今回の描画対象となっているフレーム領域142a,142bからではなく、ぼかし用バッファ181から行う。また、ステップS3202では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。 First, in step S3201, it is determined whether the first blurring range is determined in step S3113. If the first blurring range has been determined, in step S3202, a first predetermined number of unit areas are specified in each of the X-axis directions with reference to the unit area of this time, and the color is extracted from each of the unit areas. Extract information. This extraction is performed from the blurring buffer 181 rather than from the frame areas 142a and 142b that are the current drawing targets. In step S3202, the color information set in the unit area this time is also extracted, but this extraction is also performed from the blurring buffer 181.

続くステップS3203では、X軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのX軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。 In subsequent step S3203, blurring generation processing in the X-axis direction is executed. In the blurring generation processing, a Gaussian filter is used to generate blurring. In other words, centering on the target unit area this time, weighting according to the distance in the X-axis direction from the centered unit area is determined using the Gaussian function for each of the extracted unit areas. Then, the color information of the center unit area and the extracted color information of the unit area are blended while the determined weighting is applied. The color information of this blend result is temporarily stored in the register 153.

続くステップS3204では、今回の単位エリアを基準として、Y軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3204では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。 In a succeeding step S3204, the first predetermined number of unit areas are specified in each of the Y-axis directions on the basis of the present unit area, and the color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. Further, in step S3204, the color information set in the unit area this time is also extracted, but this extraction is also performed from the blurring buffer 181.

続くステップS3205では、Y軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのY軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。 In a succeeding step S3205, blurring generation processing in the Y-axis direction is executed. In the blurring generation processing, a Gaussian filter is used to generate blurring. In other words, centering on the target unit area this time, weighting according to the distance in the Y-axis direction from the centered unit area is determined using the Gaussian function for each of the extracted unit areas. Then, the color information of the center unit area and the extracted color information of the unit area are blended while the determined weighting is applied. The color information of this blend result is temporarily stored in the register 153.

その後、ステップS3206にて、ブレンド処理を実行する。具体的には、上記ステップS3203にて算出したブレンド結果の色情報と、上記ステップS3205にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。 Then, in step S3206, blending processing is executed. Specifically, the color information of the blend result calculated in step S3203 and the color information of the blend result calculated in step S3205 are blended at the same ratio. After that, the main blurring generation processing ends.

上記のようにぼかし発生処理が実行されることにより、図51(b−1)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。 By performing the blurring generation processing as described above, as shown in FIG. 51(b-1), the first predetermined number is set on both sides in the X-axis direction with reference to the unit area of interest this time. The color information of the unit area that is the target of this time is the color information that is set in the unit area of the minute and the color information that is set in the unit areas of the first predetermined number on both sides in the Y-axis direction. Blended to information.

ステップS3201にて否定判定をした場合には、ステップS3207にて、上記ステップS3113において第2ぼかし範囲が決定されたか否かを判定する。第2ぼかし範囲が決定されている場合には、ステップS3208にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3208では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 When a negative determination is made in step S3201, it is determined in step S3207 whether or not the second blurring range is determined in step S3113. If the second blurring range has been determined, in step S3208, a second predetermined number of unit areas, which is larger than the first predetermined number, is specified in each of the X-axis directions with reference to the current unit area. , Color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181. In step S3208, the color information set in the unit area this time is extracted from the blurring buffer 181.

続くステップS3209では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。 In a succeeding step S3209, blurring generation processing in the X-axis direction is executed. The specific contents of this processing are the same as in step S3203 above.

続くステップS3210では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3210では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 In a succeeding step S3210, a second predetermined number of unit areas larger than the first predetermined number are specified in each of the Y-axis directions on the basis of the present unit area, and color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. Further, in step S3210, the color information set in the unit area this time is extracted from the blurring buffer 181.

続くステップS3211では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。 In a succeeding step S3211, blurring generation processing in the Y-axis direction is executed. The specific content of this processing is the same as that in step S3205.

その後、ステップS3212にて、ブレンド処理を実行する。具体的には、上記ステップS3209にて算出したブレンド結果の色情報と、上記ステップS3211にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。 After that, in step S3212, blending processing is executed. Specifically, the color information of the blend result calculated in step S3209 and the color information of the blend result calculated in step S3211 are blended at the same ratio. After that, the main blurring generation processing ends.

上記のようにぼかし発生処理が実行されることにより、図51(b−2)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。この場合、ブレンド対象となる単位エリアの数が図51(b−1)の場合よりも多くなるため、第1ぼかし範囲の場合よりも第2ぼかし範囲の場合の方が、ぼかしの度合いが大きくなる。 By executing the blurring generation process as described above, as shown in FIG. 51(b-2), the second predetermined number is set on both sides in the X-axis direction with reference to the unit area of interest this time. The color information set in the unit area for minutes and the color information set in the second predetermined number of unit areas on both sides in the Y-axis direction are the colors of the target unit area of the present time. Blended to information. In this case, since the number of unit areas to be blended is larger than that in the case of FIG. 51(b-1), the degree of blurring is greater in the second blurring range than in the first blurring range. Become.

ステップS3207にて否定判定をした場合には、上記ステップS3113において第3ぼかし範囲が決定されたことを意味する。第3ぼかし範囲が決定されている場合には、ステップS3213にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3213では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 A negative determination in step S3207 means that the third blurring range has been determined in step S3113. When the third blurring range is determined, in step S3213, a third predetermined number of unit areas, which is larger than the second predetermined number, is specified in each of the X-axis directions with reference to the current unit area. , Color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181. In step S3213, the color information set in the unit area this time is extracted from the blurring buffer 181.

続くステップS3214では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。 In subsequent step S3214, blurring generation processing in the X-axis direction is executed. The specific contents of this processing are the same as in step S3203 above.

続くステップS3215では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3215では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 In subsequent step S3215, a third predetermined number of unit areas, which is larger than the second predetermined number, is specified in each of the Y-axis directions on the basis of the present unit area, and color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. In step S3215, the color information set in the unit area this time is extracted from the blurring buffer 181.

続くステップS3216では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。 In subsequent step S3216, blurring generation processing in the Y-axis direction is executed. The specific content of this processing is the same as that in step S3205.

その後、ステップS3217にて、ブレンド処理を実行する。具体的には、上記ステップS3214にて算出したブレンド結果の色情報と、上記ステップS3216にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。上記のようにぼかし発生処理が実行されることにより、ぼかしの度合いを、第2ぼかし範囲の場合よりも大きくすることが可能となる。 Then, in step S3217, blending processing is executed. Specifically, the color information of the blend result calculated in step S3214 and the color information of the blend result calculated in step S3216 are blended at the same ratio. After that, the main blurring generation processing ends. By executing the blurring generation processing as described above, it is possible to make the degree of blurring larger than in the case of the second blurring range.

ピント演出用の調整処理(図50(a))の説明に戻り、ステップS3114にて、ぼかし発生処理を実行した後は、ステップS3115にて、当該ぼかし発生処理にて算出した結果の色情報を、描画対象となっているフレーム領域142a,142bにおける今回の単位エリアに対して上書きした後に、ステップS3116に進む。これにより、各ぼかし範囲に対応した状態の色情報が単位エリアに設定されることとなる。 Returning to the explanation of the adjustment process for focus effect (FIG. 50A), after executing the blurring generation process in step S3114, the color information of the result calculated in the blurring generation process is displayed in step S3115. After overwriting the current unit area in the frame areas 142a and 142b that are the drawing targets, the process proceeds to step S3116. As a result, the color information in a state corresponding to each blur range is set in the unit area.

ここで、このようにぼかしを生じさせた結果の色情報が順次、描画対象となっているフレーム領域142a,142bに設定される構成において、ぼかし発生処理では、上記のとおり、フレーム領域142a,142bから色情報を読み出すのではなく、ぼかし用バッファ181から色情報を読み出す。これにより、所定の単位エリアにぼかしを発生させる場合において、既にぼかしを生じさせた結果の色情報が用いられないようにすることが可能となる。よって、ぼかし発生処理を実行する順番に依存しない態様で、ぼかしを生じさせることが可能となる。 Here, in the configuration in which the color information resulting from the blurring is sequentially set in the frame areas 142a and 142b that are the drawing targets, in the blurring generation processing, as described above, the frame areas 142a and 142b are processed. Instead of reading the color information from the color information, the color information is read from the blurring buffer 181. As a result, when blurring is generated in a predetermined unit area, it is possible to prevent the use of the color information resulting from blurring. Therefore, it is possible to generate blurring in a mode that does not depend on the order in which the blurring generation processing is executed.

ステップS3116では、今回の描画対象のフレーム領域142a,142bについて全ての単位エリアを、上記ステップS3110〜ステップS3115の処理の実行対象としたか否かを判定する。完了していない場合には、ステップS3117にて、対象単位エリアを更新した後にステップS3110に戻り、新たな対象単位エリアに対して、上記ステップS3110〜ステップS3115の処理を実行する。完了している場合には、本調整処理を終了する。 In step S3116, it is determined whether or not all the unit areas of the frame areas 142a and 142b to be drawn this time are the execution targets of the processing in steps S3110 to S3115. If not completed, the target unit area is updated in step S3117, and then the process returns to step S3110 to execute the processes of steps S3110 to S3115 for the new target unit area. If it has been completed, this adjustment process ends.

次に、ピント表示の内容について、図52を参照しながら説明する。 Next, the contents of the focus display will be described with reference to FIG.

図52(a)はピント表示が行われていない状態を示し、図52(b)はピント表示が行われている状態を示す。 FIG. 52A shows a state in which the focus display is not performed, and FIG. 52B shows a state in which the focus display is performed.

ピント表示が行われていない状態では、図52(a)に示すように、各演出用の個別画像CH11,CH12,CH13、背景の画像(海面の画像、砂浜の画像及び空の画像)CH14及び各教示用の個別画像CH15,CH16は、いずれもピントが合った状態となっている。したがって、これら各画像CH11〜CH16は、その模様の境界や曲がり部分の境界、さらに外縁部分が鮮明に表示されている。 In the state where the focus display is not performed, as shown in FIG. 52A, the individual images CH11, CH12, and CH13 for each effect, the background image (the image of the sea surface, the image of the beach, and the sky) CH14 and The individual images CH15 and CH16 for each teaching are in focus. Therefore, in each of these images CH11 to CH16, the boundary of the pattern, the boundary of the bent portion, and the outer edge portion are clearly displayed.

一方、ピント表示が行われている状態では、図52(b)に示すように、演出用の個別画像CH11及び当該個別画像CH11が存在している砂浜部分の背景の画像CH14については、ピント範囲に含まれているため、鮮明に表示されているが、他の演出用の個別画像CH12,CH13及び他の部分の背景の画像CH14については、ピント範囲から外れているため、模様の境界や曲り部分の境界、さらには外縁部分がぼかした状態で表示され、不鮮明となっている。特に、ぼかした状態は、ピント範囲に含まれている演出用の個別画像CH11から表示面Gの奥行き方向において手前側及び奥側に遠くなるように表示されているものほど、その度合いが大きくなっている。これにより、遊技者に対して、演出用の個別画像CH11にピントが合っていると認識させることが可能となる。 On the other hand, in the state where the focus display is being performed, as shown in FIG. 52B, the individual image CH11 for effect and the background image CH14 of the sandy beach portion where the individual image CH11 is present are in the focus range. However, the individual images CH12 and CH13 for other effects and the background image CH14 of other portions are out of focus range, so that the borders and bends of the pattern are not displayed. The boundary of the part, and further the outer edge part is displayed in a blurred state, which is unclear. In particular, the degree of blurring increases as the display is farther from the individual image CH11 for effect included in the focus range toward the front side and the back side in the depth direction of the display surface G. ing. As a result, it becomes possible for the player to recognize that the individual image CH11 for effect is in focus.

但し、ピント表示が行われている状態であっても、図52(b)に示すように、教示用の個別画像CH15,CH16は、図52(a)と同様に鮮明に表示されている。これにより、ピント表示が行われているとしても、教示用の個別画像CH15,CH16を利用した情報の教示を良好に行うことが可能となる。また、教示用の個別画像CH15,CH16は、他の画像よりも手前側に配置されているかのように表示されているため、ぼかし発生の対象から除外されたとしても、ピント表示の対象から除外されている遊技者に明確に認識させることができ、ピント表示を良好に行うことが可能となる。 However, even in the state where the focus display is being performed, as shown in FIG. 52B, the individual images CH15 and CH16 for teaching are displayed as clearly as in FIG. 52A. As a result, even if the focus display is performed, it is possible to satisfactorily teach the information using the individual teaching images CH15 and CH16. Further, since the individual images CH15 and CH16 for teaching are displayed as if they are arranged on the front side of the other images, even if they are excluded from the subject of blurring, they are excluded from the subject of focus display. The player who is playing the game can clearly recognize it, and the focus can be displayed well.

また、上記ピント表示に際しては、ぼかしマップデータがメモリモジュール133に予め記憶されているのではなく、VDP135にてその都度作成される。これにより、データ容量の削減を図ることが可能となる。特に、遊技者による演出用操作装置48の操作に基づきピント範囲を設定するようにしたことにより、遊技者の遊技への積極参加を可能とした構成においては、ぼかしマップデータを事前に予め設定しておこうとすると、データ容量が膨大なものとなる。また、このデータ容量の膨大化を抑えようとすると、演出用操作装置48の操作に基づき選択できるピント範囲のパターンが少なくなってしまう。これに対して、上記のように、ぼかしマップデータをVDP135にてその都度作成するようにしたことにより、データ容量の削減を図りつつ、遊技者の遊技への積極参加を好適に促すことが可能となる。 Further, at the time of the focus display, the blur map data is not stored in the memory module 133 in advance, but is created each time by the VDP 135. This makes it possible to reduce the data capacity. In particular, in the configuration in which the player can actively participate in the game by setting the focus range based on the operation of the effect operation device 48 by the player, the blurring map data is set in advance. If you try to save it, the data capacity will be enormous. In addition, if it is attempted to suppress the enormous increase in the data capacity, the number of focus range patterns that can be selected based on the operation of the effect operation device 48 will be reduced. On the other hand, as described above, by creating the blurring map data by the VDP 135 each time, it is possible to suitably encourage the active participation of the player in the game while reducing the data capacity. Becomes

その一方、上記のようにぼかしマップデータを作成するようにすると、それだけVDP135の処理負荷が増加する。これに対して、ぼかしを発生させる際には、3次元画像の状態で行うのではなく、2次元画像の状態で行うようにしたことにより、色情報の平均化に際して複雑な処理を実行する必要がなくなり、ぼかしを発生させる上での処理負荷の軽減が図られる。 On the other hand, if the blur map data is created as described above, the processing load of the VDP 135 increases accordingly. On the other hand, when blurring is performed, it is necessary to perform a complicated process when averaging color information because the blurring is performed not in a three-dimensional image state but in a two-dimensional image state. Is eliminated, and the processing load for generating blurring can be reduced.

<ピント表示の別形態>
・ぼかしマップデータを描画データの作成に際して作成する構成に限定されることはなく、ぼかしマップデータをメモリモジュール133に予め記憶させておく構成としてもよい。この場合に、ピント範囲が演出用操作装置48の操作に基づき選択される構成であれば、その選択に係る全てのバリエーションに対応させて、ぼかしマップデータを予め作成しておく必要がある。また、ピント範囲が演出用操作装置48の操作に基づき選択されずに、一定の態様でぼかし表示が行われるのであれば、その態様に則したぼかしマップデータを予め作成しておけばよい。
<Another form of focus display>
The blur map data is not limited to the configuration for creating the drawing data, and the blur map data may be stored in the memory module 133 in advance. In this case, if the focus range is selected based on the operation of the effect operation device 48, it is necessary to previously create the blurring map data corresponding to all the variations related to the selection. If the focus range is not selected based on the operation of the effect operation device 48 and the blurring display is performed in a certain manner, the blurring map data according to the manner may be created in advance.

上記のようにぼかしマップデータが予め作成されている構成においては、ぼかしマップデータにおいて各単位エリアに対応させて設定されているデータは、Z軸方向の座標データである必要はなく、ピント範囲、及び各ぼかし範囲のうち、いずれの範囲に該当しているかを示すデータであってもよい。 In the configuration in which the blur map data is created in advance as described above, the data set corresponding to each unit area in the blur map data does not need to be the coordinate data in the Z-axis direction, and the focus range, Further, it may be data indicating which one of the blur ranges corresponds.

・ぼかしを生じさせるための色情報の平均化処理は、3次元画像データを2次元画像データに変換した後に行う必要はなく、3次元画像データの状態において行うようにしてもよい。この場合、基準となるピクセルに対して、その周囲のピクセルをブレンドする際には、基準となるピクセルからそれら周囲のピクセルまでの距離を3次元の状態で算出し、その算出結果に応じた重み付けをそれら周囲のピクセルの色情報に適用した状態でブレンド処理を行うようにすればよい。 The averaging process of the color information for causing the blur does not have to be performed after converting the three-dimensional image data into the two-dimensional image data, and may be performed in the state of the three-dimensional image data. In this case, when the surrounding pixels are blended with the reference pixel, the distance from the reference pixel to the surrounding pixels is calculated in a three-dimensional state, and weighting is performed according to the calculation result. The blending process may be performed in a state in which is applied to the color information of the surrounding pixels.

・ぼかしを生じさせるための色情報の平均化処理は、ガウス関数を利用して中心からの距離に応じた重み付けを行うのではなく、抽出した色情報を均等にブレンドする構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。 In the averaging process of the color information for causing the blur, the extracted color information may be uniformly blended instead of weighting the Gaussian function according to the distance from the center. In this case, the realism of the blurred display is reduced, but the processing load is reduced.

・ぼかしを生じさせるための色情報の平均化処理は、X軸方向及びY軸方向のそれぞれについて行う構成に限定されることはなく、いずれか一方についてのみ行う構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。 The averaging process of color information for causing blurring is not limited to the configuration performed in each of the X-axis direction and the Y-axis direction, and may be performed in only one of them. In this case, the realism of the blurred display is reduced, but the processing load is reduced.

・ぼかしを生じさせるための色情報の平均化処理に際しては、描画対象のフレーム領域142a,142bに設定されている描画データを、ぼかし用バッファ181に別保存した状態で行う構成に限定されることはなく、描画対象のフレーム領域142a,142bをそのまま利用する構成としてもよい。この場合、所定の単位エリアの色情報についてぼかしを生じさせる場合において、既にぼかしを生じさせた単位エリアの色情報が用いられることになり、ぼかしを生じさせる処理の順番がぼかしの度合いに影響を与えることとなるが、ぼかし用バッファ181を別途設ける必要がない点で、記憶容量の削減が図られるとともに、ぼかし用バッファ181への別保存を行う必要がない点で、処理負荷の軽減が図られる。 The averaging process of the color information for causing blurring is limited to the configuration in which the drawing data set in the drawing target frame areas 142a and 142b is separately stored in the blurring buffer 181. Instead, the frame regions 142a and 142b to be drawn may be used as they are. In this case, when blurring is performed on the color information of a predetermined unit area, the color information of the unit area that has already been blurred is used, and the order of the processing that causes blurring affects the degree of blurring. Although it is given, the storage capacity can be reduced in that the blurring buffer 181 does not need to be provided separately, and the processing load can be reduced in that the separate storage in the blurring buffer 181 is not required. Be done.

・ぼかしマップデータを作成する際にZバッファ143以外のバッファを用いるようにしてもよい。この場合、VRAM134に、ぼかしマップデータを作成するための専用のバッファを設けるようにしてもよい。 A buffer other than the Z buffer 143 may be used when creating the blur map data. In this case, the VRAM 134 may be provided with a dedicated buffer for creating the blur map data.

・背景用の描画データと、演出及び図柄用の描画データとを個別に作成し、それらを合成して1フレーム分の描画データを作成する構成ではなく、ステップS1009にて色情報の設定処理を実行した後は、1フレーム分の描画データをまとめて作成する構成としてもよい。当該構成においては、隠面処理を利用して当該1フレーム分の描画データを作成した場合、Zバッファ143には各単位エリアに対応したZ軸方向の座標データが設定されていることとなる。したがって、この隠面処理にてZバッファ143に作成されたデータを、ぼかしマップデータとしてそのまま利用することが可能となる。 The setting process of the color information is performed in step S1009 instead of the configuration in which the drawing data for the background and the drawing data for the effect and the pattern are individually created and the drawing data for one frame is combined to create the drawing data. After execution, the drawing data for one frame may be collectively created. In this configuration, when the hidden surface processing is used to create the drawing data for the one frame, the Z buffer 143 is set with the coordinate data in the Z axis direction corresponding to each unit area. Therefore, the data created in the Z buffer 143 by this hidden surface processing can be used as it is as the blur map data.

・遊技回用の演出としてピント表示を行うようにしてもよい。この場合、上記のように教示用の個別画像を、ぼかし対象から除外したのと同様に、各図柄列SA1〜SA3にて変動表示されている図柄は、ぼかし対象から除外してもよい。また、リーチ中の演出として、ピント表示を行うのであれば、先に停止表示されている図柄列SA1,SA3上において、リーチラインを形成している図柄を、ぼかし対象から除外してもよく、それに加えて又は代えて、最終停止図柄列SA2の図柄を、ぼかし対象から除外してもよい。リーチラインを形成している図柄を除外することで、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となり、最終停止図柄列SA2の図柄を除外することで、最終停止図柄列SA2においてリーチライン付近に存在している図柄の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。 -A focus display may be performed as an effect for game play. In this case, in the same manner as the individual image for teaching is excluded from the blurring target as described above, the symbols variably displayed in each of the symbol arrays SA1 to SA3 may be excluded from the blurring target. If focus display is performed as an effect during reach, the symbols forming the reach line may be excluded from the blurring target on the symbol arrays SA1 and SA3 that are stopped and displayed first. Additionally or alternatively, the symbols in the final stop symbol array SA2 may be excluded from the blurring target. By excluding the symbols forming the reach line, it is possible to use the focus display as the reach effect without deteriorating the distinguishability of the type of the reach symbol, and excluding the symbol of the final stop symbol string SA2. This makes it possible to use the focus display as a reach effect without deteriorating the distinguishability of the symbols existing near the reach line in the final stop symbol sequence SA2.

また、リーチラインを形成している図柄又はその種類を教示する画像の表示は行いながら、図柄列SA1〜SA3を非表示として、ピント表示を利用したリーチ演出を行う構成においては、リーチラインを形成している図柄又はその種類を教示する画像は、ぼかし対象から除外するようにしてもよい。これにより、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。 In addition, while displaying an image that teaches the symbols forming the reach line or the type of the reach line, the reach lines are formed in the configuration in which the reach effect using the focus display is performed while the symbol rows SA1 to SA3 are not displayed. The image that teaches the symbol or the type of the symbol being drawn may be excluded from the blurring target. As a result, the focus display can be used as the reach effect without deteriorating the distinguishability of the reach pattern type.

また、遊技回用の演出としてピント表示を行う場合において、ぼかし対象から除外する対象は、図柄以外であってもよく、例えば表示面Gにて保留情報の数を教示するための画像を表示するのであれば、当該保留情報の数を教示するための画像を、ぼかし対象から除外してもよい。 Further, in the case of performing focus display as an effect for game play, the target to be excluded from the blurring target may be other than the symbol, and for example, an image for teaching the number of pieces of pending information is displayed on the display surface G. In this case, the image for teaching the number of the holding information may be excluded from the blurring target.

3次元画像データを用いた画像表示を行うのではなく、スプライトデータといった2次元画像データを用いた画像表示を行う構成において、ピント表示を行うようにしてもよい。この場合、フレーム領域142a,142bへのスプライトデータの設定に際して、各スプライトデータに、表示面Gの奥行き方向に対応する座標データを設定しておき、その座標データが、ピント範囲及び各ぼかし範囲のうちいずれに含まれるかによって、ぼかし表示を行う構成が考えられる。 Focus display may be performed in a configuration in which image display is performed using two-dimensional image data such as sprite data instead of performing image display using three-dimensional image data. In this case, when setting the sprite data in the frame areas 142a and 142b, the coordinate data corresponding to the depth direction of the display surface G is set in each sprite data, and the coordinate data indicates the focus range and each blur range. Depending on which one is included, a configuration for performing a gradation display is conceivable.

・ワールド座標系に画像データを設定した後に、パラメータ群を含むマップデータを作成する処理を実行する構成を、ピント表示以外の目的で行うようにしてもよい。 The configuration for executing the process of creating the map data including the parameter group after setting the image data in the world coordinate system may be performed for a purpose other than the focus display.

例えば、1フレーム分の画像において所定の領域が点滅しているかの表示を行う上で、オブジェクトの面の向きに応じて点灯及び消灯のいずれかを設定する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、点滅表示を行うようにしてもよい。 For example, in a configuration in which whether to turn on or off according to the orientation of the surface of an object is set in order to display whether a predetermined area is blinking in an image for one frame, in the world coordinate system or the visual field coordinate system. In the state set to, the orientation of each surface is read as a parameter, and map data is created as data that aggregates them. Then, the drawing data after projection may be subjected to blinking display by processing the color information based on the created map data.

また、例えば、1フレーム分の画像において海面といった形状が経時的に変化する面の表示を行う上で、オブジェクトの面の向きに応じて各面データに設定する色情報を選択する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、面表示を行うようにしてもよい。 In addition, for example, in displaying a surface such as the sea surface whose shape changes with time in an image for one frame, the color information set in each surface data is selected according to the orientation of the surface of the object. In a state where the coordinate system or the visual field coordinate system is set, the orientation of each surface is read as a parameter, and map data is created as data that aggregates them. Then, with respect to the drawing data after projection, the surface display may be performed by processing the color information based on the created map data.

<模様変更表示を行うための構成>
次に、模様変更表示を行うための構成について説明する。
<Structure for changing pattern display>
Next, a configuration for performing the pattern change display will be described.

模様変更表示とは、特別キャラクタを複数フレーム(複数の画像更新タイミング)に亘って連続して表示させる場合において、その特別キャラクタの外縁形状は同一としながら、フレームの進行に伴って模様を変化させる表示演出のことである。但し、模様を単純に変化させるのではなく、当該特別キャラクタの一部の模様の変更については、当該特別キャラクタに対応した特別オブジェクトに貼り付ける第1部分テクスチャの種類を切り換えるのに対して、当該特別キャラクタの他の模様の変更については、特別オブジェクトに貼り付ける第2部分テクスチャの種類は同一のものとしながら、その第2部分テクスチャの特別オブジェクトに対する相対的な貼り付け位置を変化させることにより、模様を変化させる。 The pattern change display means that when the special character is continuously displayed over a plurality of frames (a plurality of image update timings), the outer shape of the special character is the same but the pattern is changed as the frame progresses. It is a display effect. However, instead of simply changing the pattern, when changing a part of the pattern of the special character, the type of the first partial texture to be attached to the special object corresponding to the special character is switched. Regarding the change of other patterns of the special character, by changing the pasting position of the second partial texture relative to the special object while the same kind of the second partial texture is stuck to the special object, Change the pattern.

これら特別オブジェクト、第1部分テクスチャ及び第2部分テクスチャについて、図53(a)〜(c)を参照しながら詳細に説明する。図53(a)は特別オブジェクトPC20を説明するための説明図であり、図53(b−1)〜(b−3)は第1部分テクスチャPC21〜PC23を説明するための説明図であり、図53(c−1)〜(c−4)は第2部分テクスチャPC24〜PC27を説明するための説明図である。 The special object, the first partial texture, and the second partial texture will be described in detail with reference to FIGS. 53(a) to 53(c). 53(a) is an explanatory diagram for explaining the special object PC20, and FIGS. 53(b-1) to (b-3) are explanatory diagrams for describing the first partial textures PC21 to PC23. FIGS. 53(c-1) to 53(c-4) are explanatory diagrams for explaining the second partial textures PC24 to PC27.

図53(a)に示すように、特別オブジェクトPC20は、多数のポリゴンを含み、立体的な形状に対応したデータとして作成されており、複数のパーツ部BP,AP1〜AP4を有している。これら複数のパーツ部BP,AP1〜AP4として、本体パーツ部BPと、当該本体パーツ部BPに付属する複数の付属パーツ部AP1〜AP4とを有している。特別キャラクタは、鯨を人型に適用したキャラクタであり、本体パーツ部BPはその顔部分及び胴体部分に相当し、各付属パーツ部AP1〜AP4は胴体部分から連続する手部分及び足部分に相当している。 As shown in FIG. 53A, the special object PC20 includes a large number of polygons, is created as data corresponding to a three-dimensional shape, and has a plurality of parts BP, AP1 to AP4. As the plurality of parts BP and AP1 to AP4, a main body parts BP and a plurality of accessory parts AP1 to AP4 attached to the main body parts BP are included. The special character is a character in which a whale is applied to a humanoid, the body part part BP corresponds to the face part and the body part of the body, and the attached part parts AP1 to AP4 correspond to the hand part and the foot part continuous from the body part. is doing.

本体パーツ部BPには、図53(b−1)〜(b−3)に示すように、顔の模様(目や口の模様)及び胴体が光に反射しているかのような表示を行うための模様の両方を含む画像を表示させるための第1部分テクスチャPC21〜PC23が貼り付けられる。これら第1部分テクスチャPC21〜PC23は、本体パーツ部BPの全体を覆うことが可能なように設定されている。また、顔の模様を表示させるためのデータは、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21〜PC23間において同一となっている。その一方、胴体が光に反射しているかのような表示を行うためのデータについては、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21〜PC23間において異なっている。 As shown in FIGS. 53(b-1) to 53(b-3), the body part BP displays a pattern of the face (pattern of eyes and mouth) and whether the body reflects light. The first partial textures PC21 to PC23 for displaying the image including both the patterns are attached. These first partial textures PC21 to PC23 are set so as to be able to cover the entire body part BP. In addition, regarding the data for displaying the face pattern, the positions (coordinates) of the body part BP to which these data are attached are the same between the first partial textures PC21 to PC23. On the other hand, regarding the data for displaying as if the body is reflecting light, the positions (coordinates) of the body part BP to which these data are attached are the first partial textures PC21 to PC23. Differ between

つまり、第1部分テクスチャPC21〜PC23は、本体パーツ部BPにおいて貼り付けられる位置が変化しない不変模様を表示させるためのデータと、本体パーツ部BPにおいて貼り付けられる位置が変化する変化模様を表示させるためのデータとを有しており、第1部分テクスチャPC21〜PC23間において、不変模様を表示させるためのデータ構成は共通であるが、変化模様を表示させるためのデータ構成は相違している。 That is, the first partial textures PC21 to PC23 display the data for displaying the invariant pattern whose sticking position does not change in the main body parts BP and the changing pattern whose sticking position changes in the main body parts BP. The first partial textures PC21 to PC23 have the same data structure for displaying the invariant pattern, but have different data structures for displaying the changing pattern.

一方、付属パーツ部AP1〜AP4には、図53(c−1)〜(c−4)に示すように、手や足の部分が光に反射しているかのような表示を行うための模様を含む画像を表示させるための第2部分テクスチャPC24〜PC27が貼り付けられる。これら第2部分テクスチャPC24〜PC27は、付属パーツ部AP1〜AP4に1対1で対応させて設けられており、さらに一の付属パーツ部AP1〜AP4に対して一の第2部分テクスチャPC24〜PC27のみが設けられている。各第2部分テクスチャPC24〜PC27は、対応する付属パーツ部AP1〜AP4を覆うことが可能なように設定されている。この場合、各第2部分テクスチャPC24〜PC27のそれぞれにおいて、境界部分を生じさせる模様はそれに対して逆側の境界部分を生じさせる模様と連続性を有するように設定されている。 On the other hand, in the accessory parts AP1 to AP4, as shown in FIGS. 53(c-1) to (c-4), a pattern for displaying as if the hands and feet reflect light. The second partial textures PC24 to PC27 for displaying an image including is attached. These second partial textures PC24 to PC27 are provided in a one-to-one correspondence with the accessory parts AP1 to AP4, and one second partial texture PC24 to PC27 for one accessory part AP1 to AP4. Only provided. Each of the second partial textures PC24 to PC27 is set so as to be able to cover the corresponding accessory parts AP1 to AP4. In this case, in each of the second partial textures PC24 to PC27, the pattern that causes the boundary portion is set to have continuity with the pattern that causes the boundary portion on the opposite side thereof.

第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27の特別オブジェクトPC20に対する貼り付けは、予め定められたUV座標値に基づき行われる。UV座標値は、既に説明したとおりであり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されており、テクスチャ用の画像データの各ピクセルをオブジェクト用の画像データの各ピクセルに1対1で対応させることが可能となる。 The pasting of the first partial textures PC21 to PC23 and the second partial textures PC24 to PC27 to the special object PC20 is performed based on the UV coordinate values set in advance. The UV coordinate values are as described above, and are stored in the memory module 133 in a state of being attached to the combination of the image data for the object and the image data for the texture, and each pixel of the image data for the texture is stored. Can be made to correspond to each pixel of the image data for the object on a one-to-one basis.

上記特別キャラクタを表示させる場合には、特別オブジェクトPC20の本体パーツ部BPに対しては、貼り付け対象となる第1部分テクスチャPC21〜PC23が予め定められた順序で変更される。この順序は、上記変化模様が変化していく態様が連続性を有するように設定されている。一方、特別オブジェクトPC20の付属パーツ部AP1〜AP4に対しては、それぞれに対応する一の第2部分テクスチャPC24〜PC27が貼り付けられることとなるが、その貼り付けを行う際に参照するUV座標値が初期の設定状態から予め定められた態様で変更される。このUV座標値の変更は、各第2部分テクスチャPC24〜PC27に対応した各模様のそれぞれが変化していく態様が連続性を有するように設定されている。 When displaying the special character, the first partial textures PC21 to PC23 to be pasted are changed in a predetermined order with respect to the body part part BP of the special object PC20. This order is set so that the manner in which the changing pattern changes has continuity. On the other hand, one second partial texture PC24 to PC27 corresponding to each is attached to the accessory parts AP1 to AP4 of the special object PC20, and the UV coordinates to be referred to when the pasting is performed. The value is changed from the initial setting state in a predetermined manner. This change of the UV coordinate value is set so that the manner in which each of the patterns corresponding to each of the second partial textures PC24 to PC27 changes is continuous.

以下、特別オブジェクトPC20、第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27を用いて模様変更表示を実行するための具体的な処理構成を説明する。なお、特別オブジェクトPC20、第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27は、メモリモジュール133に予め記憶されている。 Hereinafter, a specific processing configuration for executing the pattern change display using the special object PC20, the first partial textures PC21 to PC23, and the second partial textures PC24 to PC27 will be described. The special object PC20, the first partial textures PC21 to PC23, and the second partial textures PC24 to PC27 are stored in the memory module 133 in advance.

図54は、表示CPU131にて実行される特別キャラクタ用の演算処理を示すフローチャートである。特別キャラクタ用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、特別キャラクタ用の演算処理は、特別キャラクタが表示される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 54 is a flowchart showing the arithmetic processing for the special character executed by the display CPU 131. The calculation processing for the special character is executed by the calculation processing for effect in step S904 of the task processing (FIG. 14). In addition, the arithmetic processing for the special character is started when the data table corresponding to the game time in which the special character is displayed is set.

先ずステップS3301では、現状設定されているデータテーブルに基づいて、特別キャラクタの表示中であるか否かを判定する。特別キャラクタの表示中ではない場合にはステップS3302に進む。ステップS3302では、特別キャラクタ表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS3303に進む。 First, in step S3301, it is determined based on the currently set data table whether or not the special character is being displayed. If the special character is not being displayed, the process advances to step S3302. In step S3302, it is determined whether it is the start timing of displaying the special character. If it is not the start timing, this operation processing is ended as it is, and if it is the start timing, the process proceeds to step S3303.

ステップS3303では、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。ちなみに、ステップS3303の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、特別オブジェクトPC20に対して制御開始用の処理が完了している。また、制御が開始された特別オブジェクトPC20の制御用の情報は、特別キャラクタの表示が完了するまでワークRAM132に記憶保持される。 In step S3303, the special object PC 20 is grasped as a control target based on the currently set data table. By the way, at the execution timing of the process of step S3303, the control start process for the special object PC 20 is completed in the immediately preceding control start setting process (step S901). The control information of the special object PC 20 whose control has been started is stored and held in the work RAM 132 until the display of the special character is completed.

続くステップS3304では、第1部分テクスチャの初期設定処理を実行する。具体的には、複数種類の第1部分テクスチャPC21〜PC23のうち使用の順番が最初に設定されている第1部分テクスチャPC21を特定し、その第1部分テクスチャPC21の使用指示情報を記憶する。なお、複数種類の第1部分テクスチャPC21〜PC23の使用順番のデータは、テーブル情報として、メモリモジュール133に予め記憶されている。 In a succeeding step S3304, initial setting processing of the first partial texture is executed. Specifically, the first partial texture PC21 whose use order is set first among the plurality of types of first partial textures PC21 to PC23 is specified, and the use instruction information of the first partial texture PC21 is stored. The data of the use order of the plurality of types of first partial textures PC21 to PC23 is stored in advance in the memory module 133 as table information.

続くステップS3305では、各第2部分テクスチャの初期設定処理を実行する。ここで、表示CPU131では、各第2部分テクスチャPC24〜PC27のUV座標値を変更させる場合、初期座標値からの変化量をそれぞれの第2部分テクスチャPC24〜PC27に1対1で対応させて導出し、その導出した各変化量をVDP135に提供する。VDP135では、その提供された各変化量のデータを、それぞれ対応する各初期座標値に対して適用する。この場合、一の第2部分テクスチャPC24〜PC27で見た場合、当該第2部分テクスチャPC24〜PC27には多数のピクセルが含まれているため、初期座標値はそれら多数のピクセル毎に存在している。したがって、一の第2部分テクスチャPC24〜PC27に対応する変化量のデータは、当該一の第2部分テクスチャPC24〜PC27の各初期座標値に対して一律に適用される。 In a succeeding step S3305, initial setting processing of each second partial texture is executed. Here, in the display CPU 131, when changing the UV coordinate value of each of the second partial textures PC24 to PC27, the change amount from the initial coordinate value is derived in a one-to-one correspondence with each of the second partial textures PC24 to PC27. Then, the derived changes are provided to the VDP 135. In the VDP 135, the provided data of each variation amount is applied to each corresponding initial coordinate value. In this case, when viewed from one of the second partial textures PC24 to PC27, since the second partial textures PC24 to PC27 include many pixels, the initial coordinate value exists for each of these many pixels. There is. Therefore, the change amount data corresponding to the one second partial texture PC24 to PC27 is uniformly applied to each initial coordinate value of the one second partial texture PC24 to PC27.

例えば、一の第2部分テクスチャPC24〜PC27を構成する所定のピクセルの初期座標値が(U1、V1)であり、他のピクセルの初期座標値が(U2、V2)である状況において、変化量のデータが(w1、w2)である場合には、上記所定のピクセルのUV座標値は、(U1+w1、V1+w2)に設定され、他のピクセルのUV座標値は、(U2+w1、V2+w2)に設定される。したがって、付属パーツ部AP1〜AP4に対する第2部分テクスチャPC24〜PC27の相対位置が同一の方向性であって同一の変化量で変更されることとなる。ステップS3305は、初期設定処理であるため、変化量は存在しないことに対応したデータが記憶される。 For example, in a situation in which the initial coordinate values of the predetermined pixels forming one of the second partial textures PC24 to PC27 are (U1, V1) and the initial coordinate values of the other pixels are (U2, V2), , The UV coordinate value of the predetermined pixel is set to (U1+w1, V1+w2), and the UV coordinate values of the other pixels are set to (U2+w1, V2+w2). It Therefore, the relative positions of the second partial textures PC24 to PC27 with respect to the accessory parts AP1 to AP4 are changed with the same directionality and the same change amount. Since step S3305 is an initialization process, data corresponding to the fact that there is no change amount is stored.

なお、第2部分テクスチャPC24〜PC27のUV座標値を初期座標値から変更させるための変化量のデータは、テーブル情報として、使用順序の情報と1対1で対応させて設定されており、このテーブル情報は、メモリモジュール133に予め記憶されている。また、当該テーブル情報は、各第2部分テクスチャPC24〜PC27に対して個別に設定されている。 The change amount data for changing the UV coordinate values of the second partial textures PC24 to PC27 from the initial coordinate values is set as table information in one-to-one correspondence with the use order information. The table information is stored in the memory module 133 in advance. The table information is set individually for each of the second partial textures PC24 to PC27.

その後、ステップS3306にて、特別キャラクタの開始指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。 After that, in step S3306, the special character start designation information is stored, and in step S3307, various parameters are calculated for the special object PC 20 to update the control information related to the special object PC 20. This arithmetic processing is ended.

上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3304にて記憶した第1部分テクスチャPC21の使用指示情報と、上記ステップS3305にて導出した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの開始指定情報が設定される。 When the calculation process for the special character is executed as described above, the information of the instruction to use the special object PC 20 is set in the drawing list created in the subsequent drawing list output process, and in step S3304. The stored use instruction information of the first partial texture PC 21 and the data of each variation amount derived in step S3305 are set. Furthermore, in the drawing list, the parameters calculated in step S3307 are set and the special character start designation information is set.

ステップS3301にて特別キャラクタの表示中であると判定した場合には、ステップS3308にて、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。 When it is determined in step S3301 that the special character is being displayed, in step S3308, the special object PC 20 is grasped as a control target based on the currently set data table.

続くステップS3309では、現状設定されているデータテーブルに基づいて、第1部分テクスチャPC21〜PC23の更新タイミングであるか否かを判定する。第1部分テクスチャPC21〜PC23の更新タイミングは、所定の複数である第1特定数フレームに1回、すなわち所定の複数である第1特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定の第1部分テクスチャPC21〜PC23から次の第1部分テクスチャPC21〜PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該第1部分テクスチャPC21〜PC23からさらに次の第1部分テクスチャPC21〜PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。 In a succeeding step S3309, it is determined whether or not it is the update timing of the first partial textures PC21 to PC23 based on the currently set data table. The update timing of the first partial textures PC21 to PC23 is set to once for a predetermined plurality of first specific number frames, that is, once for a predetermined plurality of first specific number of image update timings. Moreover, the update timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing, and from the predetermined first partial textures PC21 to PC23 to the next first part. The number of frames until the update timing of the textures PC21 to PC23 (the image update timing number) and the number of frames from the first partial texture PC21 to PC23 to the update timing of the next first partial texture PC21 to PC23 ( The image update timing number) may be different.

第1部分テクスチャPC21〜PC23の更新タイミングではない場合には、ステップS3310にて、前回の処理回にて記憶した第1部分テクスチャPC21〜PC23の使用指示情報をそのまま記憶する。一方、第1部分テクスチャPC21〜PC23の更新タイミングである場合には、ステップS3311にて、次の順番の第1部分テクスチャPC21〜PC23に対応した使用指示情報を記憶する。 When it is not the update timing of the first partial textures PC21 to PC23, in step S3310, the use instruction information of the first partial textures PC21 to PC23 stored in the previous processing time is stored as it is. On the other hand, if it is the update timing of the first partial textures PC21 to PC23, the use instruction information corresponding to the first partial textures PC21 to PC23 in the next order is stored in step S3311.

ステップS3310又はステップS3311の処理を実行した後は、ステップS3312にて、各第2部分テクスチャPC24〜PC27に適用するUV座標値の更新タイミングであるか否かを判定する。UV座標値の更新タイミングは、所定の複数である第2特定数フレームに1回、すなわち所定の複数である第2特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定のUV座標値から次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該UV座標値からさらに次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。 After executing the processing of step S3310 or step S3311, in step S3312, it is determined whether it is the update timing of the UV coordinate value applied to each of the second partial textures PC24 to PC27. The update timing of the UV coordinate value is set once in a predetermined plurality of second specific number frames, that is, once in a predetermined plurality of second specific number of image update timings, and this update is further performed. The timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing, and may be set from a predetermined UV coordinate value to the next UV coordinate value update timing. The number of frames until that time (the number of image update timings) may be different from the number of frames (the number of image update timings) from the UV coordinate value to the next update timing of the UV coordinate value.

また、UV座標値の更新タイミングは、第1部分テクスチャPC21〜PC23の更新タイミングと同期しているが、非同期であってもよい。非同期とする上では、各更新周期を相違させる構成が考えられる。この場合に、UV座標値の更新タイミングを、第1部分テクスチャPC21〜PC23の更新タイミングよりも短い周期としてもよく、長い周期としてもよいが、UV座標値の更新側であれば更新周期を短くしてもデータ容量への影響がほとんどないことに鑑みて、UV座標値の更新タイミングを第1部分テクスチャPC21〜PC23の更新タイミングよりも短い周期とすることが好ましい。 Further, the update timing of the UV coordinate value is synchronized with the update timing of the first partial textures PC21 to PC23, but may be asynchronous. To make them asynchronous, a configuration in which each update cycle is different can be considered. In this case, the update timing of the UV coordinate values may be shorter or longer than the update timing of the first partial textures PC21 to PC23, but the update cycle is short on the update side of the UV coordinate values. However, considering that there is almost no effect on the data capacity, it is preferable to set the update timing of the UV coordinate value to a cycle shorter than the update timing of the first partial textures PC21 to PC23.

UV座標値の更新タイミングではない場合には、ステップS3313にて、前回の処理回にて記憶した各変化量のデータをそのまま記憶する。一方、UV座標値の更新タイミングである場合には、ステップS3314にて、次の順番の各変化量のデータを記憶する。 If it is not the update timing of the UV coordinate value, in step S3313, the data of each change amount stored in the previous processing is stored as it is. On the other hand, if it is the update timing of the UV coordinate value, in step S3314, the data of each change amount in the next order is stored.

ステップS3313又はステップS3314の処理を実行した後は、ステップS3315にて、特別キャラクタの継続指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。 After executing the processing of step S3313 or step S3314, the continuation designation information of the special character is stored in step S3315, and various parameters of the special object PC20 are calculated in step S3307 to calculate the special object PC20. After updating the information for control according to the above, the present arithmetic processing is terminated.

上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3310及びステップS3311のいずれかにて記憶した第1部分テクスチャPC21〜PC23の使用指示情報と、上記ステップS3313及び上記ステップS3314のいずれかにて記憶した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの継続指定情報が設定される。 When the calculation process for the special character is executed as described above, the information of the instruction to use the special object PC 20 is set in the drawing list created in the subsequent drawing list output process, and the above step S3310 and The use instruction information of the first partial textures PC21 to PC23 stored in any of step S3311 and the data of each variation amount stored in any of the steps S3313 and S3314 are set. Furthermore, in the drawing list, the parameters calculated in step S3307 are set, and special character continuation designation information is set.

VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合には、描画処理(図16)における演出用の設定処理(ステップS1003)にて、特別オブジェクトPC20をワールド座標系に設定する処理を実行する。この場合、ワールド座標系に設定する際の座標、スケール及び回転角度なども描画リストにて指定されているため、それらを適用した状態で特別オブジェクトPC20を設定する。また、特別キャラクタは、複数フレームに亘って所定の方向に変位するかのように表示されるため、それに即した描画リストがVDP135に対して適用され、それに即した状態でワールド座標系への特別オブジェクトPC20の設定が行われる。 When the VDP 135 receives the drawing list for displaying the special character, the special object PC 20 is set in the world coordinate system in the setting process (step S1003) for the effect in the drawing process (FIG. 16). To do. In this case, since the coordinates, scale, rotation angle, etc. when setting to the world coordinate system are also specified in the drawing list, the special object PC 20 is set in a state in which these are applied. In addition, since the special character is displayed as if it is displaced in a predetermined direction over a plurality of frames, a drawing list corresponding to that is applied to the VDP 135, and a special character for the world coordinate system is applied in a state corresponding to that. The object PC 20 is set.

また、VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合、描画処理(図16)における色情報の設定処理(ステップS1009)にて、特別オブジェクトPC20に対して第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27を貼り付ける。当該テクスチャの貼り付けに係る処理について、以下に説明する。 When the VDP 135 receives the drawing list for displaying the special character, the first partial textures PC21 to PC23 for the special object PC20 are set in the color information setting process (step S1009) in the drawing process (FIG. 16). And, the second partial textures PC24 to PC27 are attached. The process of pasting the texture will be described below.

図55は、特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。特別キャラクタ用のテクスチャマッピング処理は、今回の描画リストに特別キャラクタの開始指定情報及び特別キャラクタの継続指定情報のいずれかが設定されている場合に起動される。 FIG. 55 is a flowchart showing texture mapping processing for a special character. The texture mapping process for the special character is activated when either the special character start designation information or the special character continuation designation information is set in the current drawing list.

先ずステップS3401では、今回の描画リストにおいて設定されている第1部分テクスチャPC21〜PC23の使用指定情報を把握する。続くステップS3402では、ステップS3401にて把握した使用指定情報に対応した第1部分テクスチャPC21〜PC23をメモリモジュール133から読み出す。その後、ステップS3403にて、上記ステップS3402にて読み出した第1部分テクスチャPC21〜PC23を、特別オブジェクトPC20の本体パーツ部BPに貼り付ける。これにより、本体パーツ部BPへのテクスチャの貼り付けが完了する。 First, in step S3401, use designation information of the first partial textures PC21 to PC23 set in the current drawing list is grasped. In the following step S3402, the first partial textures PC21 to PC23 corresponding to the use designation information grasped in step S3401 are read from the memory module 133. After that, in step S3403, the first partial textures PC21 to PC23 read in step S3402 are pasted to the main body part BP of the special object PC20. This completes the attachment of the texture to the body part BP.

続くステップS3404では、レジスタ153に設けられた付属パーツカウンタに、付属パーツ部AP1〜AP4の数に対応した情報である「4」をセットし、ステップS3405に進む。ステップS3405では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した第2部分テクスチャPC24〜PC27をメモリモジュール133から読み出す。 In the following step S3404, "4", which is information corresponding to the number of the accessory parts AP1 to AP4, is set in the accessory part counter provided in the register 153, and the flow advances to step S3405. In step S3405, the second partial textures PC24 to PC27 corresponding to the attached parts parts AP1 to AP4 indicated by the numerical information of the present attached parts counter are read from the memory module 133.

続くステップS3406では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した初期座標値のデータを読み出す。また、ステップS3407では、今回の描画リストにおいて設定されている変化量のデータのうち、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した変化量のデータを把握する。そして、ステップS3408において、ステップS3406にて読み出した初期座標値に対して、ステップS3407にて把握した変化量を適用することで、今回のUV座標値を導出する。その後、ステップS3409では、ステップS3408にて導出したUV座標値に従って、ステップS3405にて読み出した第2部分テクスチャPC24〜PC27を、対応する付属パーツ部AP1〜AP4に貼り付ける。 In a succeeding step S3406, data of initial coordinate values corresponding to the accessory parts AP1 to AP4 indicated by the numerical information of the current accessory part counter is read. Further, in step S3407, of the variation data set in the drawing list this time, the variation data corresponding to the accessory parts AP1 to AP4 indicated by the numerical information of the current accessory counter is grasped. Then, in step S3408, the current UV coordinate value is derived by applying the change amount grasped in step S3407 to the initial coordinate value read in step S3406. After that, in step S3409, the second partial textures PC24 to PC27 read out in step S3405 are attached to the corresponding accessory parts AP1 to AP4 according to the UV coordinate values derived in step S3408.

続くステップS3410では、付属パーツカウンタの数値情報を1減算し、ステップS3411にて、減算後の付属パーツカウンタの数値情報が「0」であるか否かを判定する。「0」ではない場合には、ステップS3405に戻り、次の付属パーツ部AP1〜AP4に対して上記ステップS3405〜ステップS3409による第2部分テクスチャPC24〜PC27の貼り付け処理を実行する。ステップS3411にて、付属パーツカウンタの数値情報が「0」であると判定した場合には、本テクスチャマッピング処理を終了する。 In the following step S3410, the numerical information of the accessory parts counter is decremented by 1, and in step S3411, it is determined whether or not the numerical information of the accessory parts counter after the subtraction is "0". If it is not "0", the process returns to step S3405, and the paste processing of the second partial textures PC24 to PC27 by the above steps S3405 to S3409 is executed for the next accessory parts AP1 to AP4. If it is determined in step S3411 that the numerical information of the attached parts counter is "0", this texture mapping process is terminated.

次に、模様変更表示の内容について、図56を参照しながら説明する。 Next, the contents of the pattern change display will be described with reference to FIG.

図56(a),(b)は模様変更表示の内容を説明するための説明図である。 56(a) and 56(b) are explanatory views for explaining the contents of the pattern change display.

特別キャラクタCH17を利用した模様変更表示は、図56(a),(b)に示すように、遊技回中において、所定の有効ライン上にてリーチラインが形成され、最終停止図柄列SA2にて図柄の変動表示が行われている状況で実行される。本パチンコ機10では、当該遊技回が開閉実行モードの移行契機となる期待度を高いことを遊技者に報知するための演出として模様変更表示が行われる。なお、特別キャラクタCH17を用いた模様変更表示は、開閉実行モードの移行契機となる遊技回においてのみ所定の確率で発生する構成としてもよい。 The pattern change display using the special character CH17 is, as shown in FIGS. 56(a) and (b), a reach line is formed on a predetermined effective line during the game play, and the final stop symbol sequence SA2 is displayed. It is executed in a situation where variable display of symbols is being performed. In the pachinko machine 10, a pattern change display is performed as an effect for informing the player that the game time has a high degree of expectation that triggers the opening/closing execution mode. Note that the pattern change display using the special character CH17 may be configured to occur with a predetermined probability only in the game game that triggers the opening/closing execution mode.

模様変更表示では、特別キャラクタCH17が所定の方向に変位表示される。この場合に、特別キャラクタCH17の変位に伴って、当該特別キャラクタCH17に付されている模様が変更される。具体的には、特別キャラクタCH17の表面が光に照らされて反射するとともに、その反射して明るくなっている箇所が変位していくように模様が変更される。この模様の変更は、本体パーツ部BP及び各付属パーツ部AP1〜AP4のそれぞれにて発生する。その一方、特別キャラクタCH17に表示されている目や口の位置は一定となっている。 In the pattern change display, the special character CH17 is displaced and displayed in a predetermined direction. In this case, the pattern attached to the special character CH17 is changed with the displacement of the special character CH17. Specifically, the pattern is changed such that the surface of the special character CH17 is illuminated and reflected by the light, and the portion brightened by the reflection is displaced. This pattern change occurs in each of the main body part BP and each of the accessory parts AP1 to AP4. On the other hand, the positions of the eyes and mouth displayed on the special character CH17 are constant.

以上のように、特別オブジェクトPC20の一部に対しては、複数種類のテクスチャPC21〜PC23を予め記憶させておき、貼り付け対象とするテクスチャPC21〜PC23を順次変更するのに対して、特別キャラクタCH17の他の部分に関しては単一のテクスチャPC24〜PC27としながら、そのテクスチャPC24〜PC27のUV座標値を順次変更する構成としたことにより、データ容量と処理負荷とのバランスを図りながら模様変更表示を行うことが可能となる。 As described above, a plurality of types of textures PC21 to PC23 are stored in advance for a part of the special object PC20, and the textures PC21 to PC23 to be pasted are sequentially changed. As for the other parts of CH17, a single texture PC24 to PC27 is used, but the UV coordinate values of the texture PC24 to PC27 are sequentially changed, so that the pattern change display is performed while balancing the data capacity and the processing load. It becomes possible to do.

また、目や口といった特別キャラクタにおいてその外縁に対する相対位置が変化しない模様が存在している箇所は、単一のテクスチャのUV座標値の切り換えにより模様の変更を行うのではなく、貼り付け対象とするテクスチャPC21〜PC23を順次変更することによって模様の変更を行うようにしたことにより、当該箇所の模様を変更する際の処理負荷の軽減を図ることが可能となる。 Further, in a place where there is a pattern whose relative position with respect to the outer edge of the special character such as eyes and mouth does not change, the pattern is not changed by switching the UV coordinate values of a single texture, but is a pasting target. By changing the textures PC21 to PC23 sequentially to change the pattern, it is possible to reduce the processing load when changing the pattern at the location.

その一方、比較的サイズの小さい付属パーツ部AP1〜AP4については、単一のテクスチャPC24〜PC27のUV座標値の切り換えにより模様の変更を行うようにしたことにより、UV座標値の変更に伴って模様の形状が若干変形してしまったとしても、それが目立たないようにすることが可能となる。 On the other hand, regarding the accessory parts AP1 to AP4 having a relatively small size, the pattern is changed by switching the UV coordinate values of the single textures PC24 to PC27. Even if the shape of the pattern is slightly deformed, it can be made inconspicuous.

<模様変更表示の別形態>
・第2部分テクスチャPC24〜PC27が各付属パーツ部AP1〜AP4に1対1で対応させて設定されている構成に代えて、所定の第2部分テクスチャは複数の付属パーツ部AP1〜AP4に対して共通して用いられる構成としてもよく、一の第2部分テクスチャが全ての付属パーツ部AP1〜AP4に対して共通して用いられる構成としてもよい。この場合、各付属パーツ部AP1〜AP4の模様の態様を異ならせる上では、UV座標値の初期設定値をそれぞれ相違させるようにするとよい。
<Another form of pattern change display>
-Instead of the configuration in which the second partial textures PC24 to PC27 are set in a one-to-one correspondence with the respective accessory part parts AP1 to AP4, the predetermined second partial texture is provided for the plurality of accessory part parts AP1 to AP4. The second partial texture may be commonly used for all the accessory parts AP1 to AP4. In this case, in making the patterns of the accessory parts AP1 to AP4 different, the initial setting values of the UV coordinate values may be made different.

・各付属パーツ部AP1〜AP4において貼り付け対象の第2部分テクスチャPC24〜PC27のUV座標値が変更される速度は、同一である構成に限定されることはなく、一部については相違している構成としてもよく、全部が相違している構成としてもよい。 The speed at which the UV coordinate values of the second partial textures PC24 to PC27 to be pasted in each of the accessory parts AP1 to AP4 are changed is not limited to the same configuration, and some of them are different. The configuration may be different, or all may be different.

・本体パーツ部BPと付属パーツ部AP1〜AP4の少なくとも一つとを跨ぐようにして模様が付されている構成としてもよい。この場合、特別キャラクタの外観を変更する場合において、上記跨いでいる部分における模様の連続性が担保されるように、第1部分テクスチャPC21〜PC23が変更される場合の上記跨いでいる模様の変化態様と、第2部分テクスチャPC24〜PC27が変更される場合の上記跨いでいる模様の変化態様とを対応付けることが好ましい。 The pattern may be attached so as to straddle the main body part BP and at least one of the accessory parts AP1 to AP4. In this case, when changing the appearance of the special character, the change in the straddling pattern when the first partial textures PC21 to PC23 are changed so as to ensure the continuity of the pattern in the straddling portion. It is preferable to associate the aspect with the change aspect of the straddling pattern when the second partial textures PC24 to PC27 are changed.

<ラウンド演出に係る構成について>
次に、ラウンド演出に係る構成について説明する。
<Regarding the structure related to round production>
Next, a configuration related to the round effect will be described.

ラウンド演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。開閉実行モードでは複数回のラウンド遊技が行われるように設定されており、ラウンド演出は、開閉実行モードに移行する場合に実行されるラウンド演出抽選にて当該ラウンド演出を行うことに当選した場合に、ラウンド遊技が行われる度に実行される。なお、上記ラウンド演出抽選で当選しなかった場合には、開閉実行モード時の演算処理等が実行されることとなる。 The round effect is an effect that can be executed when a round game in the open/close execution mode is being performed. In the opening and closing execution mode, it is set so that a plurality of round games are performed, and when the round effect is won in performing the round effect in the round effect lottery executed when shifting to the opening and closing execution mode. , Is executed every time a round game is played. If the round effect lottery is not won, the arithmetic processing and the like in the opening/closing execution mode will be executed.

なお、ラウンド遊技とは、既に説明した通り、(1)可変入賞装置22の開放時間が所定時間を経過すること、(2)可変入賞装置22への遊技球の総入賞個数が所定個数となること、のいずれか一方の条件が満たされるまで継続する遊技のことである。 The round game is, as described above, (1) the opening time of the variable winning device 22 exceeds a predetermined time, and (2) the total winning number of game balls to the variable winning device 22 becomes a predetermined number. It is a game that continues until either one of the conditions is satisfied.

ラウンド演出では、動画像データが用いられる。動画像データとは、1フレーム分の静止画像データを基準として複数の差分データを有するようにフレーム間圧縮されて、例えばMPEG2方式で符号化された画像データである。当該動画像データが、VDP135に設けられた動画デコーダ(図示略)によってデコードされた場合には、複数フレーム分の静止画像データに展開される。これら静止画像データを順次描画することにより、一連のムービーが再生される。 In the round effect, moving image data is used. The moving image data is image data which has been compressed between frames so as to have a plurality of difference data with one frame of still image data as a reference and which has been encoded by the MPEG2 system, for example. When the moving image data is decoded by a moving image decoder (not shown) provided in the VDP 135, it is expanded into still image data for a plurality of frames. A series of movies is reproduced by sequentially drawing the still image data.

本パチンコ機10に設定されている動画像データについて図57を参照しながら説明する。 The moving image data set in the pachinko machine 10 will be described with reference to FIG.

図57に示すように、ラウンド演出で用いられる動画像データとして、ラウンド動画像データRMD0が設定されている。ラウンド動画像データRMD0は、最初のアドレスにファイルデータが設定され、それに続けて各フレームの圧縮データが設定されている。なお、各フレームの圧縮データにはフレームヘッダが付随している。 As shown in FIG. 57, round moving image data RMD0 is set as moving image data used in the round effect. As for the round moving image data RMD0, file data is set at the first address, followed by compressed data of each frame. A frame header is attached to the compressed data of each frame.

圧縮データは、基準データに相当する1フレーム分のIピクチャデータと、第1の差分データに相当する複数フレーム分のPピクチャデータと、第2の差分データに相当する複数フレーム分のBピクチャデータと、を有している。 The compressed data is one frame of I picture data corresponding to the reference data, a plurality of frames of P picture data corresponding to the first difference data, and a plurality of frames of B picture data corresponding to the second difference data. And have.

Iピクチャデータは、復号に際して、当該データ単独で1フレーム分の静止画像データを作成することができるデータである。Pピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータを参照して前方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。Bピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータと、1フレーム又は複数フレーム後のIピクチャデータ若しくはPピクチャデータとを参照して双方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。 The I picture data is data that can be used to create one frame of still image data by itself when decoding. The P picture data is data capable of creating still image data for one frame by performing forward prediction with reference to I picture data or P picture data preceding by one frame or a plurality of frames at the time of decoding. .. When decoding B picture data, bidirectional prediction is performed by referring to I picture data or P picture data one frame or a plurality of frames before and I picture data or P picture data one frame or a plurality of frames after decoding. This is data for which still image data for one frame can be created.

ラウンド動画像データRMD0の圧縮データでは、1フレーム目のデータとしてIピクチャデータが設定されている。また、2フレーム目,…,m―1フレーム目のデータとしてBピクチャデータが設定されている。また、mフレーム目のデータとしてPピクチャデータが設定されている。また、m+1フレーム目,…,n―1フレーム目のデータとしてBピクチャデータが設定されている。また、nフレーム目のデータとしてPピクチャデータが設定されている。なお、ピクチャデータの配列パターンは上記のものに限定されることはなく任意である。 In the compressed data of the round moving image data RMD0, I picture data is set as the first frame data. Further, B picture data is set as the data of the second frame,..., M−1 frame. Further, P picture data is set as the data of the mth frame. Further, B picture data is set as the data of the m+1th frame,..., N−1th frame. Further, P picture data is set as the data of the nth frame. The arrangement pattern of the picture data is not limited to the above and is arbitrary.

ラウンド動画像データRMD0から作成される静止画像データのサイズは、表示面Gに対応させて設定されており、具体的には表示面G全体に表示させることが可能な大きさに設定されている。 The size of the still image data created from the round moving image data RMD0 is set corresponding to the display surface G, and specifically set to a size that can be displayed on the entire display surface G. ..

また、ラウンド演出では、上記ラウンド動画像データRMD0とは別に、静止画像データである挿入画像データIPD0が用いられる。上記ラウンド動画像データRMD0及び挿入画像データIPD0の内容について図58を参照しながら説明する。図58(a)はラウンド動画像データRMD0に設定されている画像の一部の内容を示し、図58(b)は挿入画像データIPD0に設定されている画像を示す。 In addition, in the round effect, insertion image data IPD0 that is still image data is used in addition to the round moving image data RMD0. The contents of the round moving image data RMD0 and the insertion image data IPD0 will be described with reference to FIG. FIG. 58A shows the contents of part of the image set in the round moving image data RMD0, and FIG. 58B shows the image set in the inserted image data IPD0.

ラウンド動画像データRMD0には、図58(a−1)に示すように、波立っている様子を示す第1背景画像BP1に対して重なるようにして、サーフィンをしている様子を示す第1移動キャラクタ画像MP1及び蛸の画像である第2移動キャラクタ画像MP2が付加された基準データ(Iピクチャデータ)RMD1が設定されている。 In the round moving image data RMD0, as shown in FIG. 58(a-1), the first background image BP1 showing the wavy state is overlapped with the first background image BP1. Reference data (I picture data) RMD1 to which the moving character image MP1 and the second moving character image MP2 which is an image of an octopus are added is set.

また、図58(a−2),(a−3)に示すように、第1背景画像BP1を有さないが、各移動キャラクタ画像MP1,MP2が移動するのに対応した差分データ(Pピクチャデータ又はBピクチャデータ)RMD2が設定されている。基準データRMD1により1フレーム分の静止画像データが作成されるとともに基準データRMD1に対して差分データRMD2が適用されることにより、基準データRMD1に設定された第1背景画像BP1に対して各差分データRMD2に設定された各移動キャラクタ画像MP1,MP2が付加された1フレーム分の静止画像データが作成される。 Further, as shown in FIGS. 58(a-2) and 58(a-3), the difference data (P picture) that does not have the first background image BP1 but corresponds to the movement of the respective moving character images MP1 and MP2. Data or B picture data) RMD2 is set. One frame of still image data is created by the reference data RMD1 and the difference data RMD2 is applied to the reference data RMD1 to thereby obtain each difference data for the first background image BP1 set in the reference data RMD1. One frame of still image data to which the moving character images MP1 and MP2 set in the RMD2 are added is created.

ちなみに、ラウンド動画像データRMD0には、各移動キャラクタ画像MP1,MP2が表示面Gからフレームアウトするように設定されている。具体的には各移動キャラクタ画像MP1,MP2がフレームアウトした位置まで移動するように差分データが設定されている。 By the way, the round moving image data RMD0 is set so that the moving character images MP1 and MP2 are framed out from the display surface G. Specifically, the difference data is set so that each of the moving character images MP1 and MP2 moves to the frame-out position.

また、ラウンド動画像データRMD0には、図58(a−3)に示すように、雲が示された第2背景画像BP2が描画された基準データRMD3が設定されている。 Further, as shown in FIG. 58(a-3), reference data RMD3 in which the second background image BP2 showing a cloud is drawn is set in the round moving image data RMD0.

さらに、ラウンド動画像データRMD0には、図58(a−4)に示すように、男の子の第3移動キャラクタ画像MP3が拡大して描画された基準データRMD4が設定されている。また、図示は省略するが、ラウンド動画像データRMD0には、第3移動キャラクタ画像MP3が所定の動作を行うのに対応した差分データが設定されている。 Further, as shown in FIG. 58(a-4), the reference data RMD4 in which the third moving character image MP3 of the boy is enlarged and drawn is set in the round moving image data RMD0. Although not shown, the round moving image data RMD0 is set with difference data corresponding to the third moving character image MP3 performing a predetermined motion.

上記各データRMD1〜RMD4により作成される静止画像データを、動画用オブジェクトに順次貼り付けることにより、一連の動画表示が行われる。 A series of moving image display is performed by sequentially pasting the still image data created by the respective data RMD1 to RMD4 to the moving image object.

挿入画像データIPD0は、図58(b)に示すように、表示面Gの一部に表示される画像に対応したものであり、表示面G全体を表示させるのに用いられる画像データよりもそのサイズ及びデータ量(データ容量)が小さく設定されたデータである。 As shown in FIG. 58B, the inserted image data IPD0 corresponds to an image displayed on a part of the display surface G, and is larger than the image data used to display the entire display surface G. The data is set to have a small size and a small amount of data (data capacity).

挿入画像データIPD0には、表示態様が異なる複数種類の画像データが設定されている。具体的には、挿入画像データIPD0には、図58(b−1)に示すように、2人の女の子が示された第1挿入キャラクタ画像IP1が描画された第1挿入画像データIPD1と、図58(b−2)に示すように、3人の女の子が示された第2挿入キャラクタ画像IP2が描画された第2挿入画像データIPD2と、が設定されている。 A plurality of types of image data having different display modes are set in the insertion image data IPD0. Specifically, in the inserted image data IPD0, as shown in FIG. 58(b-1), the first inserted image data IPD1 in which the first inserted character image IP1 showing two girls is drawn, As shown in FIG. 58(b-2), the second insertion image data IPD2 in which the second insertion character image IP2 showing three girls is drawn is set.

ラウンド演出では、ラウンド動画像データRMD0に設定された一連のラウンド動画が再生される。そして、当該動画の再生中の所定のタイミングにて、挿入画像データIPD0を用いて挿入キャラクタ画像が挿入表示される。この場合、ラウンドに応じて、用いられる挿入画像データIPD0が異なるように設定されている。 In the round effect, a series of round moving images set in the round moving image data RMD0 is reproduced. Then, the insertion character image is inserted and displayed using the insertion image data IPD0 at a predetermined timing during the reproduction of the moving image. In this case, the insertion image data IPD0 used is set to be different depending on the round.

ラウンド動画像データRMD0及び挿入画像データIPD0を用いてラウンド演出を行うための具体的な処理構成について以下に説明する。 A specific processing configuration for performing a round effect using the round moving image data RMD0 and the insertion image data IPD0 will be described below.

図59は、表示CPU131にて実行されるラウンド演出用の演算処理を示すフローチャートである。ラウンド演出用の演算処理は、開閉実行モードに対応したデータテーブルが設定された場合に、タスク処理(図14)におけるステップS904の演出用演算処理にて起動される。 FIG. 59 is a flowchart showing a round effect calculation process executed by the display CPU 131. The round effect calculation process is started by the effect calculation process of step S904 in the task process (FIG. 14) when the data table corresponding to the open/close execution mode is set.

先ずステップS3501では、開閉実行モードに対応したデータテーブルに基づいてラウンド演出の実行中であるか否かを判定する。開閉実行モードに対応したデータテーブルは、ラウンド演出としてラウンド動画が複数回再生されるよう設定されており、具体的には、ラウンド数と同じ回数だけラウンド動画が再生されるように設定されている。 First, in step S3501, it is determined whether or not the round effect is being executed based on the data table corresponding to the opening/closing execution mode. The data table corresponding to the opening/closing execution mode is set so that the round moving image is played a plurality of times as the round effect, and specifically, the round moving image is set to be played the same number of times as the number of rounds. ..

ラウンド演出が実行中でない場合には、ステップS3502に進み、開閉実行モードに対応したデータテーブルに基づいてラウンド動画の再生開始タイミングであるか否かを判定する。具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画を複数回再生させることに対応させて、ラウンド動画の再生開始タイミングが複数設定されている。当該再生開始タイミングは、ラウンド遊技の開始タイミングと同期しており、詳細にはラウンド遊技の開始タイミングよりも1処理回分(20msec)だけ前のタイミングとなるよう構成されている。 If the round effect is not being executed, the process advances to step S3502, and it is determined whether it is the reproduction start timing of the round moving image based on the data table corresponding to the opening/closing execution mode. Specifically, in the data table corresponding to the open/close execution mode, a plurality of round moving image reproduction start timings are set in correspondence with the round moving image being reproduced plural times. The reproduction start timing is synchronized with the start timing of the round game, and more specifically, the start timing of the round game is configured to be one processing time (20 msec) earlier.

なお、ラウンド動画像データRMD0をデコードするのに上記1処理回分の期間よりも長い期間を要する場合には、ラウンド動画の再生開始タイミングを、ラウンド遊技の開始タイミングよりも上記ラウンド動画像データRMD0をデコードするのに要する期間分だけ更に前に設定しておくとよい。これにより、デコードに要する期間によって生じ得るタイムラグに好適に対応することができる。要は、ラウンド動画の再生と、ラウンド遊技の開始とが同一タイミングとなるように、ラウンド動画像データRMD0をデコードするのに要する期間を考慮してラウンド動画の再生開始タイミングが設定されていればよい。 In addition, when it takes a longer period than the above-described one processing period to decode the round moving image data RMD0, the playback start timing of the round moving image is set to the round moving image data RMD0 rather than the start timing of the round game. It is advisable to set it earlier by the period required for decoding. As a result, it is possible to suitably cope with a time lag that may occur due to the period required for decoding. In short, if the reproduction start timing of the round moving image is set in consideration of the period required to decode the round moving image data RMD0, so that the reproduction of the round moving image and the start of the round game have the same timing. Good.

ラウンド動画の再生開始タイミングでない場合には、そのまま本ラウンド演出用の演算処理を終了する一方、ラウンド動画の再生開始タイミングである場合には、ステップS3503に進み、ワークRAM132に設けられたラウンドカウンタエリアに記憶されているラウンドカウンタRCの更新処理を実行する。ラウンドカウンタRCは、表示制御装置130にてラウンド数を把握するためのものである。ラウンドカウンタRCは、開閉実行モードに対応したデータテーブルが設定された場合に初期値として「0」が設定される。 If it is not the reproduction start timing of the round moving image, the arithmetic processing for the main round effect is finished as it is, while if it is the reproduction start timing of the round moving image, the process proceeds to step S3503, and the round counter area provided in the work RAM 132. The update processing of the round counter RC stored in is executed. The round counter RC is used by the display control device 130 to keep track of the number of rounds. The round counter RC is set to “0” as an initial value when the data table corresponding to the open/close execution mode is set.

ステップS3503では、ラウンドカウンタRCを1加算する処理を実行する。これにより、ラウンドカウンタRCを把握することにより、1の開閉実行モードにおいてラウンド動画が再生された回数を把握することができる。すなわち、ラウンドカウンタRCを把握することにより、現状行われているラウンド遊技が何ラウンド目であるかを特定することができる。 In step S3503, a process of adding 1 to the round counter RC is executed. As a result, by grasping the round counter RC, it is possible to grasp the number of times the round moving image has been reproduced in the one opening/closing execution mode. That is, by grasping the round counter RC, it is possible to specify what round the round game currently being played is.

その後、ステップS3504にて、開閉実行モードに対応したデータテーブルに基づいて、各種アドレスを把握する。具体的には、VRAM134の展開用バッファ141においてラウンド動画像データRMD0が格納されているアドレスと、当該ラウンド動画像データRMD0をデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 After that, in step S3504, various addresses are grasped based on the data table corresponding to the open/close execution mode. Specifically, when the round moving image data RMD0 is stored in the expansion buffer 141 of the VRAM 134 and the round moving image data RMD0 is decoded to create still image data for a plurality of frames, those still images are static. Figure out the address of the area where the image data is stored.

続くステップS3505では、VDP135にてラウンド動画像データRMD0をデコードするように指定するデコード指定情報を記憶して、本演算処理を終了する。 In a succeeding step S3505, the VDP 135 stores the decode designation information for designating the decoding of the round moving image data RMD0, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、ラウンド動画像データRMD0のデコード指定情報が設定された描画リストが作成され、VDP135に送信される。 When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decode designation information of the round moving image data RMD0 is set is created and transmitted to the VDP 135.

ラウンド演出が実行中である場合には、ステップS3506に進み、動画用オブジェクトを把握する。動画用オブジェクトは、静止画像データをマッピングするためのオブジェクトである。動画用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。 If the round effect is being executed, the process advances to step S3506 to grasp the moving object. The moving image object is an object for mapping still image data. The moving object is composed of rectangular plate polygons. A plate polygon can be called an object having a small number of polygons, and is low-definition data configured in a plane shape without unevenness in the three-dimensional direction.

動画用オブジェクトのサイズは、表示面G全体の画像を表示することが可能なサイズに設定されている。具体的には、動画用オブジェクトの板面のサイズが上記静止画像データと同一サイズに設定されている。 The size of the moving object is set to a size capable of displaying an image of the entire display surface G. Specifically, the plate size of the moving image object is set to the same size as the still image data.

動画用オブジェクトを把握した後は、ステップS3507にて、当該動画用オブジェクトに対してマッピングする静止画像データを特定するための処理を実行する。具体的には、ラウンド動画像データRMD0から作成された静止画像データのうち今回のフレーム番号に対応した静止画像データが格納されているアドレスを把握する。このアドレスの把握は、現状設定されている開閉実行モードに対応したデータテーブルに基づいて行われる。 After grasping the moving image object, in step S3507, a process for specifying still image data to be mapped to the moving image object is executed. Specifically, the address at which the still image data corresponding to the frame number of this time is stored in the still image data created from the round moving image data RMD0 is grasped. This address is grasped on the basis of a data table corresponding to the currently set open/close execution mode.

続くステップS3508では、動画用オブジェクトに適用されるパラメータを決定する演算処理を実行する。そして、ステップS3509にて、ラウンド動画像データRMD0から作成した静止画像データを使用することを示す動画像指定情報を記憶する。 In a succeeding step S3508, a calculation process for determining a parameter applied to the moving object is executed. Then, in step S3509, moving image designation information indicating that the still image data created from the round moving image data RMD0 is used is stored.

ステップS3509の処理の実行後は、ステップS3510〜ステップS3518にて、挿入画像データIPD0に係る演算処理を実行する。 After the process of step S3509 is executed, the arithmetic process related to the inserted image data IPD0 is executed in steps S3510 to S3518.

先ず、ステップS3510にて、現状設定されているデータテーブルに基づいて挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合にはステップS3511に進み、挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。 First, in step S3510, it is determined based on the currently set data table whether or not the insertion character image is being displayed. If the insertion character image is not being displayed, the process advances to step S3511, and it is determined whether it is the display start timing of the insertion character image.

具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画中に挿入キャラクタ画像の表示開始タイミング(挿入タイミング)が予め定められている。詳細には、挿入キャラクタ画像の挿入タイミングはラウンド動画の内容に対応させて設定されており、各移動キャラクタ画像MP1,MP2がフレームアウトしたタイミングと基準データRMD4の表示タイミングとの間、詳細には基準データRMD3の表示タイミングに設定されている。当該データテーブルに基づいて、挿入キャラクタ画像の挿入タイミングであるか否かを判定する。 Specifically, in the data table corresponding to the opening/closing execution mode, the display start timing (insertion timing) of the inserted character image in the round moving image is predetermined. Specifically, the insertion timing of the insertion character image is set in correspondence with the content of the round moving image, and between the timing when the moving character images MP1 and MP2 are framed out and the display timing of the reference data RMD4, specifically, The display timing of the reference data RMD3 is set. Based on the data table, it is determined whether it is the insertion timing of the insertion character image.

挿入キャラクタ画像の挿入タイミングである場合には、ステップS3512〜ステップS3516にて挿入キャラクタ画像の挿入に係る処理を実行する。 When it is the insertion timing of the insertion character image, the processing relating to the insertion of the insertion character image is executed in steps S3512 to S3516.

具体的には、先ずステップS3512にて、挿入画像データIPD0を描画するための挿入用オブジェクトを把握する。挿入用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンは、既に説明した通り、ポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。 Specifically, first, in step S3512, an insertion object for drawing the insertion image data IPD0 is grasped. The insertion object is composed of a rectangular plate polygon. As described above, the plate polygon can be referred to as an object having a small number of polygons, and is low-definition data configured in a plane shape without unevenness in the three-dimensional direction.

挿入用オブジェクトは、挿入画像データIPD0に対応させて設定されている。詳細には、挿入用オブジェクトの板面のサイズと挿入画像データIPD0のサイズとが同一となるように、挿入用オブジェクトのサイズが設定されている。これにより、圧縮等の特別な処理をすることなく、挿入用オブジェクトに対して挿入画像データIPD0をマッピングすることができ、当該マッピングにより挿入キャラクタ画像を表示させることができる。 The insertion object is set in correspondence with the insertion image data IPD0. Specifically, the size of the insertion object is set so that the plate surface size of the insertion object and the size of the insertion image data IPD0 are the same. As a result, the insertion image data IPD0 can be mapped to the insertion object without performing special processing such as compression, and the insertion character image can be displayed by the mapping.

ここで、挿入画像データIPD0は、表示面Gにおいて部分的に表示される画像に係る画像データである。このため、当該挿入画像データIPD0に対応させて設定された挿入用オブジェクトは、表示面G全体の画像を表示させるのに用いられる動画用オブジェクトよりも小さく設定されている。 Here, the inserted image data IPD0 is image data relating to an image partially displayed on the display surface G. For this reason, the insertion object set corresponding to the insertion image data IPD0 is set smaller than the moving object used to display the image of the entire display surface G.

挿入用オブジェクトを把握した後は、ステップS3513〜ステップS3515にて、挿入用オブジェクトに対してマッピングする画像データ(テクスチャ)を把握する処理を実行する。この場合、現状のラウンド動画が何回目のラウンドであるかに応じて、マッピングする画像データを異ならせる。 After grasping the insertion object, a process of grasping image data (texture) to be mapped to the insertion object is executed in steps S3513 to S3515. In this case, the image data to be mapped is changed depending on how many rounds the current round moving image is.

具体的には、先ずステップS3513にて、今回のラウンド演出が何回目のラウンドに対応したものであるかを把握する。具体的には、ラウンドカウンタRCを把握する。 Specifically, first, in step S3513, the number of rounds to which the present round effect corresponds is grasped. Specifically, the round counter RC is grasped.

そして、ステップS3514にて、各挿入画像データIPD1,IPD2のうち、ステップS3513にて把握されたラウンドカウンタRCに対応した1の画像データを選択する。詳細には、ステップS3513にて把握されたラウンドカウンタRCが奇数である場合には、第1挿入キャラクタ画像IP1に対応する第1挿入画像データIPD1を選択し、ステップS3513にて把握されたラウンドカウンタRCが偶数である場合には、第2挿入キャラクタ画像IP2に対応する第2挿入画像データIPD2を選択する。そして、当該選択された挿入画像データのアドレスを設定する。 Then, in step S3514, one image data corresponding to the round counter RC grasped in step S3513 is selected from the insertion image data IPD1 and IPD2. Specifically, when the round counter RC grasped in step S3513 is an odd number, the first insertion image data IPD1 corresponding to the first insertion character image IP1 is selected, and the round counter grasped in step S3513. When RC is an even number, the second insertion image data IPD2 corresponding to the second insertion character image IP2 is selected. Then, the address of the selected insertion image data is set.

その後、ステップS3515にて、挿入用オブジェクトの各種パラメータの演算処理を実行する。この場合、挿入用オブジェクトの座標は、ワールド座標系に変換した場合に表示面Gの中央に挿入キャラクタ画像が表示されるように設定されているとともに、動画用オブジェクトよりも前になるよう設定されている。 Then, in step S3515, arithmetic processing of various parameters of the insertion object is executed. In this case, the coordinates of the insertion object are set so that the insertion character image is displayed in the center of the display surface G when converted to the world coordinate system, and are set to be in front of the moving object. ing.

その後、ステップS3516にて、挿入キャラクタ画像を表示することを示す画像挿入指定情報を設定し、本演算処理を終了する。 After that, in step S3516, the image insertion designation information indicating that the insertion character image is displayed is set, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定される。また、当該描画リストには、動画用オブジェクトが設定されるとともに、当該動画用オブジェクトに適用される各種パラメータが設定される。この場合、当該パラメータには、動画用オブジェクトに対してマッピングされる画像データ(テクスチャ)としてラウンド動画像データRMD0から作成された静止画像データのアドレスが含まれている。 When the above calculation process is executed, the moving image designation information is set in the drawing list created in the subsequent drawing list output process (step S806). Further, in the drawing list, a moving image object is set and various parameters applied to the moving image object are set. In this case, the parameter includes an address of still image data created from the round moving image data RMD0 as image data (texture) mapped to the moving image object.

さらに、今回の演算処理が挿入キャラクタ画像の挿入タイミングである場合には、今回のラウンド演出に対応した挿入キャラクタ画像を表示するための情報、具体的には挿入用オブジェクト、及び当該挿入用オブジェクトに適用されるパラメータが設定されるとともに、画像挿入指定情報が設定される。この場合、上記パラメータには、挿入用オブジェクトに対してマッピングされる画像データ(テクスチャ)として、今回のラウンドに対応した挿入画像データのアドレスが含まれている。 Furthermore, when the calculation processing this time is the insertion timing of the insertion character image, the information for displaying the insertion character image corresponding to the round effect this time, specifically, the insertion object and the insertion object. The parameters to be applied are set and the image insertion designation information is set. In this case, the parameter includes the address of the inserted image data corresponding to the current round as image data (texture) mapped to the insertion object.

挿入キャラクタ画像が表示中である場合には、ステップS3510を肯定判定し、ステップS3517及びステップS3518にて、現状表示されている挿入キャラクタ画像の表示を維持する処理を実行する。具体的には、ステップS3517にて、挿入用オブジェクトを把握し、ステップS3518にて、現状設定されている挿入用オブジェクトのパラメータを維持する演算を行う。この場合、挿入用オブジェクトに対してマッピングされる挿入画像データのアドレスも維持する。そして、ステップS3516にて画像挿入指定情報を設定し、本演算処理を終了する。 When the inserted character image is being displayed, an affirmative decision is made in step S3510, and in step S3517 and step S3518, processing for maintaining the display of the currently displayed inserted character image is executed. Specifically, in step S3517, the insertion object is grasped, and in step S3518, a calculation for maintaining the currently set parameters of the insertion object is performed. In this case, the address of the insertion image data mapped to the insertion object is also maintained. Then, in step S3516, the image insertion designation information is set, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定されるとともに、今回のフレーム番号に対応した静止画像データに対応した画像を表示させるための情報が設定される。 When the above arithmetic processing is executed, the moving image designation information is set in the drawing list created in the subsequent drawing list output processing (step S806), and the still image data corresponding to the current frame number is set. Information for displaying an image is set.

また、挿入キャラクタ画像が表示中である場合には、描画リストには、今回のラウンドに対応した挿入キャラクタ画像に対応した画像を表示するための情報が設定される。 Further, when the insertion character image is being displayed, information for displaying the image corresponding to the insertion character image corresponding to the current round is set in the drawing list.

なお、ラウンド演出用の演算処理において、現在のラウンド遊技が何ラウンド目であるかを認識させるための個別画像の演算処理を実行する構成としてもよい。この場合、遊技者が今回のラウンド遊技が何ラウンド目であるかを容易に確認することができる。 In addition, in the calculation process for the round effect, it may be configured to execute the calculation process of the individual image for recognizing what round the current round game is. In this case, the player can easily confirm what round the round game this time is.

また、開閉実行モード中は、図柄用演算処理(ステップS905)はスキップするよう構成されている。これにより、開閉実行モード中は、図柄の変動表示が表示されないため、ラウンド動画像データRMD0によるラウンド動画に遊技者の注意を惹きつけることができるとともに、開閉実行モード中における処理負荷の軽減を図ることができる。なお、これに限られず、開閉実行モード中に図柄の変動表示を行わせる構成としてもよい。 Further, in the opening/closing execution mode, the symbol calculation process (step S905) is skipped. As a result, the variable display of the symbols is not displayed during the opening/closing execution mode, so that the player's attention can be attracted to the round moving image based on the round moving image data RMD0, and the processing load in the opening/closing execution mode is reduced. be able to. However, the present invention is not limited to this, and it is also possible to adopt a configuration in which variable display of symbols is performed during the opening/closing execution mode.

さらに、ラウンド動画の再生中は、背景用の設定処理(ステップS903)はスキップするよう構成されている。この場合であっても、動画用オブジェクトに対してラウンド動画像データRMD0から作成された静止画像データが貼り付けられることにより、表示面G全体に亘って上記静止画像データに係る画像が表示される。つまり、上記動画表示に係る画像が背景画像として機能する。これにより、背景用の設定処理に係る処理負荷分だけ、処理負荷の軽減を図ることができる。 Further, the background setting process (step S903) is skipped during the reproduction of the round moving image. Even in this case, the still image data created from the round moving image data RMD0 is attached to the moving image object, so that the image related to the still image data is displayed on the entire display surface G. .. That is, the image related to the moving image display functions as the background image. As a result, the processing load can be reduced by the processing load related to the background setting process.

次に、VDP135の動画デコーダにて実行されるデコード処理について、図60のフローチャートを参照しながら説明する。当該デコード処理は、表示CPU131から送信される描画リストにいずれかのデコード指定情報が設定されている場合に起動される。また、当該デコード処理は、VDP135にて実行される描画処理(図16)とは非同期で起動される。 Next, the decoding process executed by the video decoder of the VDP 135 will be described with reference to the flowchart of FIG. The decoding process is started when any of the decoding designation information is set in the drawing list transmitted from the display CPU 131. The decoding process is activated asynchronously with the drawing process (FIG. 16) executed by the VDP 135.

先ずステップS3601では、描画リストにて指定されたアドレスの情報から、ラウンド動画像データRMD0のアドレスを把握する。続くステップS3602では、描画リストにて指定された展開先アドレスの情報から、ラウンド動画像データRMD0の展開先のエリアを把握する。 First, in step S3601, the address of the round moving image data RMD0 is grasped from the information of the address specified in the drawing list. In the following step S3602, the area of the expansion destination of the round moving image data RMD0 is grasped from the information of the expansion destination address specified in the drawing list.

続くステップS3603では、ステップS3601にて把握したアドレスからラウンド動画像データRMD0を読み出すとともに、当該ラウンド動画像データRMD0をデコードする。そして、そのデコード結果の各静止画像データを、ステップS3602にて把握したアドレスの各エリアに書き込む。その後、本デコード処理を終了する。 In subsequent step S3603, the round moving image data RMD0 is read from the address grasped in step S3601 and the round moving image data RMD0 is decoded. Then, each still image data of the decoding result is written in each area of the address grasped in step S3602. Then, this decoding process is terminated.

ちなみに、デコード指定情報が設定された描画リストをVDP135が受信してから、ラウンド動画の1フレーム目の静止画像データを作成するまでに要する期間は、描画リストの受信周期(20msec)よりも小さく設定されている。これにより、デコード指定情報が設定された描画リストを受信してから、1フレーム目の静止画像データに対応したアドレスが設定された描画リストを受信するまでには、1フレーム目の静止画像データが作成されている。よって、アドレスに対応した静止画像データが存在しないという事態が発生しないようになっている。 By the way, the period required from the VDP 135 receiving the drawing list in which the decoding designation information is set to creating the still image data of the first frame of the round moving image is set to be smaller than the drawing list reception cycle (20 msec). Has been done. As a result, the still image data of the first frame is not received until the drawing list having the address corresponding to the still image data of the first frame is received after the drawing list having the decode designation information is received. Has been created. Therefore, the situation where the still image data corresponding to the address does not exist does not occur.

なお、デコード処理は、描画処理と非同期で起動される構成としたが、これに限られない。例えば、描画処理にて所定のエリアに書き込まれた静止画像データを用いた描画が完了したことに基づいて、新たなフレームに係る静止画像データを展開する構成としてもよい。この場合、デコードされた静止画像データが用いられる毎に静止画像データを順次展開するため、1度に全部を展開して保存する構成と比較して、静止画像データを書き込むためのエリアの領域を少なくすることができる。さらに、デコードしながらラウンド動画を再生する構成であるため、デコードによるタイムラグを小さくすることができる。 Note that the decoding process is configured to be activated asynchronously with the drawing process, but is not limited to this. For example, the configuration may be such that the still image data related to a new frame is expanded based on the completion of the drawing using the still image data written in the predetermined area in the drawing process. In this case, since the still image data is sequentially expanded each time the decoded still image data is used, the area of the area for writing the still image data is compared to the structure in which the whole still image is expanded and stored at one time. Can be reduced. Further, since the round moving image is reproduced while decoding, the time lag due to decoding can be reduced.

次に、VDP135にて実行されるラウンド演出用の設定処理について、図61のフローチャートを参照しながら説明する。 Next, the round effect setting processing executed by the VDP 135 will be described with reference to the flowchart in FIG. 61.

ラウンド演出用の設定処理は、描画処理(図16)のステップS1003にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて動画像指定情報が設定されている場合に、当該ラウンド演出用の設定処理が実行される。 The round effect setting process is executed as a part of the effect setting process executed in step S1003 of the drawing process (FIG. 16). Further, when the moving image designation information is set in the drawing list, the setting process for the round effect is executed.

先ずステップS3701では、描画リストにて設定されている動画用オブジェクトを把握し、ステップS3702にて、描画リストに基づいて当該動画用オブジェクトに対して適用される各種パラメータを把握する。 First, in step S3701, the moving object set in the drawing list is grasped, and in step S3702, various parameters applied to the moving object are grasped based on the drawing list.

その後、ステップS3703にて、動画用オブジェクトについてワールド座標系への設定処理を実行し、ステップS3704に進む。 After that, in step S3703, the setting process to the world coordinate system is executed for the moving image object, and the process proceeds to step S3704.

続くステップS3704では、描画リストにおいて画像挿入指定情報が記憶されているか否かを判定する。画像挿入指定情報が記憶されていない場合には、そのまま本設定処理を終了する一方、画像挿入指定情報が記憶されている場合には、ステップS3705にて今回の描画リストに設定されている挿入用オブジェクトを把握し、ステップS3706にて描画リストに基づいて挿入用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS3707にて、挿入用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 In a succeeding step S3704, it is determined whether or not the image insertion designation information is stored in the drawing list. If the image insertion designation information is not stored, this setting process is ended as it is, while if the image insertion designation information is stored, in step S3705 it is determined that the insertion list set in the current drawing list is used. The object is grasped, and in step S3706, the parameter applied to the insertion object is grasped based on the drawing list. Then, in step S3707, the setting process for the insertion object to the world coordinate system is executed, and the setting process ends.

上記のように設定処理が実行されることにより、ワールド座標系において動画用オブジェクトと挿入用オブジェクトとの配置が同時に開始される。この場合、動画用オブジェクトの前側に挿入用オブジェクトが重なるように配置される。 By executing the setting process as described above, the placement of the moving image object and the insertion object in the world coordinate system is started at the same time. In this case, the insertion object is arranged so as to overlap the front side of the moving image object.

次に、ラウンド演出用マッピング処理について図62のフローチャートを用いて説明する。当該ラウンド演出用マッピング処理は、描画処理(図16)の色情報の設定処理(ステップS1009)において、ラウンド演出に係る描画リスト(動画指定情報が設定された描画リスト)が作成された場合に起動される。 Next, the round effect mapping process will be described with reference to the flowchart of FIG. The round effect mapping process is started when a drawing list (drawing list in which moving image specifying information is set) related to the round effect is created in the color information setting process (step S1009) of the drawing process (FIG. 16). To be done.

先ず、ステップS3801では、今回の設定対象の静止画像データが格納されているアドレスの情報を、描画リストから把握する。続くステップS3802では、ステップS3801にて把握したアドレスの情報から今回の描画対象の静止画像データを把握する。続くステップS3803では、動画用オブジェクトに対してステップS3802にて把握した静止画像データをマッピングする。この場合、静止画像データの座標値は、動画用オブジェクトに対して予め設定されているUV座標値であり、動画用オブジェクトに対する静止画像データの貼付位置は一義的に決まっている。 First, in step S3801, the information of the address at which the still image data to be set this time is stored is grasped from the drawing list. In the following step S3802, the still image data to be drawn this time is grasped from the address information grasped in step S3801. In subsequent step S3803, the still image data grasped in step S3802 is mapped to the moving image object. In this case, the coordinate values of the still image data are UV coordinate values preset for the moving image object, and the sticking position of the still image data with respect to the moving image object is uniquely determined.

その後、ステップS3804では、今回の描画リストに画像挿入指定情報が設定されているか否かを判定する。画像挿入指定情報が設定されていない場合には、そのまま本処理を終了する一方、画像挿入指定情報が設定されている場合には、ステップS3805にて今回の描画リストに設定されている挿入キャラクタ画像データのアドレスの情報を把握する。 After that, in step S3804, it is determined whether or not the image insertion designation information is set in the drawing list this time. If the image insertion designation information has not been set, this processing is terminated, while if the image insertion designation information has been set, the insertion character image set in the current drawing list in step S3805. Know the information of the address of the data.

ステップS3806では、ステップS3805にて把握したアドレスの情報から今回の描画対象の挿入画像データを把握する。その後、ステップS3807にて、挿入用オブジェクトに対してステップS3806にて把握した挿入キャラクタ画像データをマッピングして、本処理を終了する。 In step S3806, the inserted image data to be drawn this time is grasped from the address information grasped in step S3805. After that, in step S3807, the insertion character image data grasped in step S3806 is mapped to the insertion object, and this processing ends.

以上の処理が実行されることにより、表示面Gにてラウンド動画像データRMD0に係るラウンド動画が再生されることとなる。また、画像挿入指定情報が設定されている場合には、当該ラウンド動画に対して重なるようにして挿入キャラクタ画像が表示される。 By executing the above processing, the round moving image related to the round moving image data RMD0 is reproduced on the display surface G. Further, when the image insertion designation information is set, the insertion character image is displayed so as to overlap the round moving image.

ここで、ラウンド動画には、第2背景画像BP2のみが描画されており、各挿入キャラクタ画像は設定されていない。そして、ラウンド数に対応した挿入キャラクタ画像が第2背景画像BP2に対して重なるように表示される構成となっているため、挿入画像データIPD0を表示面G全体に表示される画像データとして用意する必要がない。これにより、挿入画像データIPD0のデータ量の削減を図ることができる。 Here, only the second background image BP2 is drawn in the round moving image, and each insertion character image is not set. Since the insertion character image corresponding to the number of rounds is displayed so as to overlap the second background image BP2, the insertion image data IPD0 is prepared as image data displayed on the entire display surface G. No need. This makes it possible to reduce the data amount of the inserted image data IPD0.

すなわち、表示面Gの一部を変更する場合には、共通した部分(第2背景画像BP2)に係るデータを動画像データに設定し、個別の部分(各挿入キャラクタ画像IP1,IP2)に係るデータを別に用意することにより、全体としてのデータ量の削減を図ることができる。 That is, when a part of the display surface G is changed, the data related to the common part (second background image BP2) is set to the moving image data, and the data related to the individual part (each insertion character image IP1, IP2) is set. By preparing the data separately, it is possible to reduce the amount of data as a whole.

また、動画像データの特性上、連続するフレーム毎に静止画像データを設定する必要がある。この必須の静止画像データを用いて第2背景画像BP2を描画することにより、必須の静止画像データを好適に利用することができ、ラウンド演出に係るデータ量の削減を図ることができる。 Further, due to the characteristics of moving image data, it is necessary to set still image data for each continuous frame. By drawing the second background image BP2 using this indispensable still image data, the indispensable still image data can be suitably used, and the amount of data related to the round effect can be reduced.

さらに、例えば第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描かれた画像に対して、第1挿入キャラクタ画像IP1を上書きしようとすると、真ん中に表示される女の子を消去するべく、当該女の子に対応した領域に対して第2背景画像BP2を描画する必要が生じることに起因して上書き対象となる領域が大きくなったり、消去対象となる領域とその他の領域とで異なるα値が設定されたαデータを別途設けたりする必要が生じ得る。このため、処理負荷の増大化が生じたり、データ量の増大化が生じたりする場合がある。これに対して、第2背景画像BP2に係る静止画像データを動画像データに設定し、変更対象となる挿入キャラクタ画像に係る画像データを動画像データとは別に用意することにより、上記不都合を回避することができる。 Furthermore, for example, when an image in which the second insertion character image IP2 is drawn so as to be superimposed on the second background image BP2 is overwritten with the first insertion character image IP1, the girl displayed in the middle is deleted in order to delete the image. Due to the necessity of drawing the second background image BP2 for the area corresponding to the girl, the area to be overwritten becomes large, or different α values are set for the area to be erased and other areas. It may be necessary to separately provide the obtained α data. Therefore, the processing load may increase or the data amount may increase. On the other hand, by setting the still image data related to the second background image BP2 as the moving image data and preparing the image data related to the insertion character image to be changed separately from the moving image data, the above inconvenience is avoided. can do.

なお、動画用オブジェクトの板面は平面であるため、静止画像データに係る画像が湾曲することがない。これにより、静止画像データに係る画像がそのまま表示されることとなる。 In addition, since the plate surface of the moving image object is a flat surface, the image related to the still image data is not curved. As a result, the image related to the still image data is displayed as it is.

また、動画用オブジェクト及び挿入用オブジェクトについては平行投影されるように構成されている。これにより、パースペクティブの関係上、表示面Gの縁側の画像が湾曲したりするのを抑えることができる。 Further, the moving image object and the insertion object are configured to be projected in parallel. Accordingly, it is possible to prevent the image on the edge side of the display surface G from being curved due to the perspective.

次にラウンド演出の様子について、図63を用いて説明する。図63は、ラウンド演出の様子を示すタイムチャートである。 Next, the state of the round effect will be described with reference to FIG. 63. FIG. 63 is a time chart showing the appearance of the round effect.

ラウンド演出の開始タイミングであるt1のタイミングでは、図63(a)に示すように、第1背景画像BP1及び各移動キャラクタ画像MP1,MP2が表示される。 At the timing of t1 which is the start timing of the round effect, the first background image BP1 and the moving character images MP1 and MP2 are displayed as shown in FIG. 63(a).

そして、時間の経過(フレーム番号の更新)に伴って、各移動キャラクタ画像MP1,MP2が所定方向に移動する。例えば、t2のタイミングでは、図63(b)に示すように、各移動キャラクタ画像MP1,MP2が波に乗って移動する様子が表示される。そして、各移動キャラクタ画像MP1,MP2がフレームアウトする。 Then, with the passage of time (update of the frame number), the moving character images MP1 and MP2 move in a predetermined direction. For example, at the timing of t2, as shown in FIG. 63(b), a state in which the moving character images MP1 and MP2 move on waves is displayed. Then, the moving character images MP1 and MP2 are framed out.

その後、画像挿入タイミングであるt3のタイミングにて、第2背景画像BP2を背景として挿入キャラクタ画像が表示される。この場合、今回のラウンド演出が奇数ラウンド目である場合には、図63(c−1)に示すように、第1挿入キャラクタ画像IP1が表示される。一方、今回のラウンド演出が偶数ラウンド目である場合には、図63(c−2)に示すように、第2挿入キャラクタ画像IP2が表示される。 After that, the inserted character image is displayed with the second background image BP2 as the background at the timing of image insertion timing t3. In this case, when the present round effect is an odd round, the first insertion character image IP1 is displayed as shown in FIG. 63(c-1). On the other hand, when the present round effect is the even-numbered round, the second inserted character image IP2 is displayed as shown in FIG. 63(c-2).

その後、t4のタイミングでは、図63(d)に示すように、第3移動キャラクタ画像MP3が表示される。そして、当該第3移動キャラクタ画像MP3が所定の動作を行った後、ラウンド演出が終了する。 Thereafter, at the timing of t4, the third moving character image MP3 is displayed as shown in FIG. 63(d). Then, after the third moving character image MP3 has performed a predetermined motion, the round effect ends.

以上の通り、ラウンド遊技が開始される度にラウンド動画を再生する構成とし、更にラウンド動画の再生中に、当該ラウンド動画に係る画像に対して重なるように今回のラウンドに対応した挿入キャラクタ画像を表示させるラウンド演出を実行する構成とした。これにより、1のラウンド動画像データRMD0を用いて複数の表示態様の動画を視認させることができるため、ラウンド毎にラウンド動画像データRMD0を用意する構成と比較して、メモリモジュール133に記憶させておくデータ量を削減することができる。 As described above, the configuration is such that the round video is played each time the round game is started, and during the playback of the round video, the insertion character image corresponding to the current round is displayed so as to overlap the image related to the round video. It is configured to execute the round effect to be displayed. Accordingly, since it is possible to visually recognize moving images in a plurality of display modes by using one round moving image data RMD0, it is stored in the memory module 133 as compared with a configuration in which the round moving image data RMD0 is prepared for each round. The amount of stored data can be reduced.

特に、開閉実行モードにおいては、同一の遊技、すなわち、ラウンド遊技が繰り返し行われる。この場合、ラウンド遊技が繰り返し行われることに対応させて、同一のラウンド演出を繰り返し実行する構成とすると、ラウンド演出への注目度が低下するおそれがある。かといって、ラウンド遊技毎に異なる動画表示を行う構成とすると、当該動画表示に係る動画像データのデータ量の増大化が懸念される。 In particular, in the open/close execution mode, the same game, that is, the round game is repeated. In this case, if the same round effect is repeatedly executed in response to the round game being repeated, the attention to the round effect may be reduced. However, if a different moving image is displayed for each round game, there is a concern that the data amount of moving image data related to the moving image may increase.

これに対して、本パチンコ機10によれば、ラウンド動画の再生中に、今回のラウンドに対応した挿入キャラクタ画像を表示させる構成とすることにより、同一のラウンド動画を用いて、ラウンド演出のバリエーションの多様化を図ることができる。 On the other hand, according to the pachinko machine 10, the insertion character image corresponding to the current round is displayed during the reproduction of the round moving image, so that the same round moving image can be used to make variations in the round effect. Can be diversified.

なお、挿入画像データIPD0として第1挿入画像データIPD1及び第2挿入画像データIPD2の2種類を用意したが、これに限られず、例えばラウンド数分だけ挿入画像データを用意する構成としてもよい。この場合、各ラウンドに対して各挿入画像データを対応付けて設定するとよい。これにより、ラウンド演出の多様化を図るとともに、挿入画像データに基づいて表示される画像に基づいて今回のラウンド遊技が何ラウンド目であるかを把握することが可能となる。 Although two types of insertion image data IPD0, the first insertion image data IPD1 and the second insertion image data IPD2, are prepared, the present invention is not limited to this, and the insertion image data may be prepared for the number of rounds. In this case, it is advisable to set each inserted image data in association with each round. As a result, it is possible to diversify the round effect and to grasp what round the round game this time is based on the image displayed based on the inserted image data.

さらに、挿入画像データをラウンド数よりも多く用意し、各ラウンドにおける挿入キャラクタ画像の挿入タイミングにて、複数の挿入画像データのうち1の挿入画像データを選択する構成としてもよい。これにより、挿入される挿入キャラクタ画像のランダム性を高め、挿入キャラクタ画像への注目度を高めることができる。 Further, a configuration may be employed in which more insertion image data than the number of rounds is prepared, and one insertion image data is selected from a plurality of insertion image data at the insertion timing of the insertion character image in each round. Accordingly, the randomness of the inserted character image to be inserted can be enhanced, and the attention to the inserted character image can be enhanced.

また、挿入キャラクタ画像が表示されている状況において、挿入画像データIPD0に適用されるパラメータは変更しない構成としたが、これに限られず、適用されるパラメータを順次更新する構成としてもよい。この場合、一律α値を更新する構成とすれば、挿入キャラクタ画像をフェードイン又はフェードアウトさせることが可能となり、倍率情報を更新する構成とすれば、挿入キャラクタ画像の拡大又は縮小表示を行うことが可能となる。 Further, although the parameter applied to the inserted image data IPD0 is not changed in the situation where the inserted character image is displayed, the present invention is not limited to this, and the applied parameter may be sequentially updated. In this case, if the configuration in which the uniform α value is updated is used, the inserted character image can be faded in or out, and if the configuration in which the magnification information is updated can be performed, the inserted character image can be enlarged or reduced. It will be possible.

挿入キャラクタ画像をフェードイン又はフェードアウトさせる場合には、挿入キャラクタ画像と、当該挿入キャラクタ画像の背面側に描画されている動画に係る画像とのブレンディング処理を実行する構成としてもよい。これにより、挿入キャラクタ画像と動画に係る画像との親和性を高めることができ、挿入キャラクタ画像と動画に係る画像とを同時に表示させることによって生じ得る違和感を軽減することができる。 When the insertion character image is faded in or out, a blending process may be performed for the insertion character image and the image related to the moving image drawn on the back side of the insertion character image. As a result, the affinity between the inserted character image and the moving image can be increased, and the sense of discomfort that can be caused by displaying the inserted character image and the moving image at the same time can be reduced.

また、ラウンド動画に限られず、例えばスーパーリーチ表示を行う場合や、ノーマルリーチ表示を行う場合に本発明を適用してもよい。この場合、スーパーリーチ表示中に再生されるリーチ動画に係るリーチ動画像データを用意するとともに、当該リーチ動画の再生中に挿入される挿入画像の挿入画像データを複数種類用意する。そして、表示CPU131は、スーパーリーチ表示を行う場合に、複数種類の挿入画像データのうち1の画像データを抽選する処理を実行し、抽選された挿入画像データのアドレスをデータテーブルに設定する。そして、挿入画像の挿入タイミングである場合に、データテーブルに設定された挿入画像データのアドレスに基づいて、今回の挿入画像データを把握し、当該挿入画像データに基づいて描画を行わせる。これにより、1のリーチ動画像データを用いて、複数種類のスーパーリーチ表示を行うことが可能となる。 Further, the present invention may be applied to not only the round moving image but also the super reach display or the normal reach display, for example. In this case, the reach moving image data relating to the reach moving image reproduced during the super reach display is prepared, and a plurality of types of insertion image data of the insertion image inserted during the reproduction of the reach moving image are prepared. Then, the display CPU 131 performs a process of randomly selecting one of the plurality of types of insertion image data when performing super reach display, and sets the address of the selected insertion image data in the data table. Then, at the insertion timing of the insertion image, the insertion image data of this time is grasped based on the address of the insertion image data set in the data table, and drawing is performed based on the insertion image data. This makes it possible to perform a plurality of types of super reach display using one reach moving image data.

また、上記構成では、ラウンド毎にラウンド動画を再生する構成としたが、これに限られず、例えば複数のラウンドに跨って再生される一連のムービーであってもよい。この場合、開閉実行モードが終了するまで繰り返し上記一連のムービーを再生させる構成とするとよい。この場合であっても、一連のムービーの途中に異なる挿入キャラクタ画像を挿入することにより異なるムービーのように認識させることができる。 Further, in the above configuration, the round moving image is played for each round, but the present invention is not limited to this, and may be a series of movies played over a plurality of rounds. In this case, it is preferable to repeatedly play the series of movies until the opening/closing execution mode ends. Even in this case, it is possible to recognize different movies by inserting different insertion character images in the middle of a series of movies.

上記複数のラウンドに跨って一連のムービーを再生する場合、各ラウンド間のインターバル期間中に挿入キャラクタ画像を表示させる構成としてもよい。これにより、複数のラウンドに跨って再生されるムービーにおいてインターバル期間中であることを遊技者に好適に認識させることができる。 When a series of movies is played over the plurality of rounds, the insertion character image may be displayed during the interval period between the rounds. This allows the player to preferably recognize that the movie is played over a plurality of rounds, and that the movie is in the interval period.

また、基準データRMD3には、第2背景画像BP2のみが描画されていたが、これに限られず、例えば第1挿入キャラクタ画像IP1及び第2背景画像BP2双方が描画されたものとしてもよい。この場合、第1挿入キャラクタ画像IP1に対して第2挿入キャラクタ画像IP2が重なるように、第2挿入画像データIPD2の座標を設定するとよい。これにより、画像を挿入する場合と挿入しない場合とで異なるラウンド演出を表示させることができる。但し、動画像データを有効に活用できる点、奥側に表示される画像を上書きするために画像データのサイズを大きめに確保する必要がある点等を鑑みれば、基準データRMD3には、第2背景画像BP2のみが描画されている構成の方がよい。 Further, although only the second background image BP2 is drawn in the reference data RMD3, the present invention is not limited to this. For example, both the first insertion character image IP1 and the second background image BP2 may be drawn. In this case, the coordinates of the second insertion image data IPD2 may be set so that the second insertion character image IP2 overlaps the first insertion character image IP1. This makes it possible to display different round effects depending on whether an image is inserted or not. However, in view of the point that the moving image data can be effectively used and the size of the image data needs to be set large in order to overwrite the image displayed on the back side, the second reference data RMD3 is It is preferable that only the background image BP2 is drawn.

また、挿入キャラクタ画像を表示させる構成としたが、これに限られず、例えばt3のタイミング〜t4のタイミングに亘って別の挿入用動画を再生する構成としてもよい。この場合、t3のタイミングにて挿入用動画を再生することができるように、当該t3のタイミングよりも前のタイミングにて挿入用動画のデコードを行うとよい。また、挿入用動画は、表示面Gにおける所定の領域に対応した動画としてもよいし、表示面G全体の動画としてもよい。 Further, although the insertion character image is displayed, the present invention is not limited to this, and another insertion moving image may be reproduced, for example, from timing t3 to timing t4. In this case, the insertion moving image may be decoded at a timing before the timing t3 so that the insertion moving image can be reproduced at the timing t3. The insertion moving image may be a moving image corresponding to a predetermined area on the display surface G or may be a moving image of the entire display surface G.

上記構成では、一連のラウンド動画の再生中に、当該ラウンド動画に関連した挿入キャラクタ画像を表示させる構成としたが、これに限られず、ラウンド動画の態様とは関連しない特定画像をラウンド動画とは別に表示させる構成としてもよい。この場合、特定画像はラウンド動画が再生される期間のうち一部の期間において表示される構成としてもよいし、ラウンド動画が再生される期間全体に亘って表示させる構成としてもよい。 In the above configuration, the insertion character image related to the round moving image is displayed during the reproduction of the series of round moving images. However, the present invention is not limited to this, and the specific image not related to the mode of the round moving image is the round moving image. It may be configured to be displayed separately. In this case, the specific image may be displayed during a part of the period during which the round moving image is played back, or may be displayed over the entire period during which the round moving image is played back.

特定画像としては、例えば現状のラウンドが何番目のラウンドであるかを遊技者に教示可能な教示画像や、又はラウンド動画の再生回数を教示可能な教示画像や、大当たり当選となった場合に表示面Gにて表示された大当たり図柄の組み合わせを構成した図柄画像又は当該図柄画像に対応した画像等としてもよい。 As the specific image, for example, a teaching image that can teach the player how many rounds the current round is, a teaching image that can teach the number of times the round video is played, or a jackpot is displayed when the jackpot is won. It may be a pattern image that constitutes a combination of the jackpot patterns displayed on the surface G, an image corresponding to the symbol image, or the like.

この場合、例えば教示画像の表示に係る処理としては、ラウンド動画とは別に各種教示用の画像データ(教示用のオブジェクト及び教示用のテクスチャ)を用意して、ラウンド動画に係る画像に対して上記教示用のオブジェクト及び教示用のテクスチャを用いて作成される教示画像を挿入して表示させる構成や、所定の教示画像が含まれたラウンド動画を用意する構成が考えられる。 In this case, for example, as the processing related to the display of the teaching image, various teaching image data (teaching object and teaching texture) are prepared separately from the round moving image, and A configuration in which a teaching image created by using a teaching object and a teaching texture is inserted and displayed, or a configuration in which a round moving image including a predetermined teaching image is prepared can be considered.

上記所定の教示画像が含まれたラウンド動画を用意する構成において、教示画像の内容を変更する場合には、当該ラウンド動画に含まれている上記所定の教示画像に対して重なるように変更先の教示画像を描画する。具体的には、上記所定の教示画像が表示される領域に重なるように変更先の教示用のオブジェクトを配置する。これにより、ラウンド動画に含まれている上記所定の教示画像に対して変更先の教示画像が上書きされ、当該変更先の教示画像が表示されることとなる。 In the configuration in which the round moving image including the predetermined teaching image is prepared, when the content of the teaching image is changed, the change destination is changed so as to overlap with the predetermined teaching image included in the round moving image. Draw a teaching image. Specifically, the teaching object to be changed is arranged so as to overlap the area where the predetermined teaching image is displayed. As a result, the teaching image of the change destination is overwritten on the predetermined teaching image included in the round moving image, and the teaching image of the change destination is displayed.

かかる構成において、挿入キャラクタ画像を挿入表示する場合、当該挿入キャラクタ画像によって上記教示画像が上書きされないように、挿入用オブジェクトと教示用のオブジェクトとの位置関係を設定する。具体的には、ワールド座標系において、視点に対して挿入用オブジェクトよりも近い側に教示用のオブジェクトが配置されるように両者の座標を設定する。これにより、教示画像が挿入キャラクタ画像によって見えなくなるという不都合を回避することができる。 In such a configuration, when the insertion character image is inserted and displayed, the positional relationship between the insertion object and the teaching object is set so that the teaching image is not overwritten by the insertion character image. Specifically, in the world coordinate system, the coordinates of both are set so that the teaching object is located closer to the viewpoint than the insertion object. As a result, it is possible to avoid the inconvenience that the teaching image becomes invisible due to the inserted character image.

また、2次元表示を行う構成に対して上記画像挿入の発明を適用してもよい。具体的には、例えば挿入する画像に対応した画像データをスプライトデータとしてメモリモジュール133に対して予め記憶させておくとともに、当該スプライトデータに適用される各種パラメータ情報を記憶させておく。そして、動画像データをデコードすることにより作成される静止画像データをフレームバッファ142に書き込み、当該フレームバッファ142に対して挿入する画像に係るスプライトデータを書き込む処理を実行すればよい。 Further, the invention of image insertion described above may be applied to a configuration for performing two-dimensional display. Specifically, for example, image data corresponding to an image to be inserted is previously stored in the memory module 133 as sprite data, and various parameter information applied to the sprite data is also stored. Then, the still image data created by decoding the moving image data may be written to the frame buffer 142, and the process of writing the sprite data related to the image to be inserted into the frame buffer 142 may be executed.

<ラウンド演出を行う場合の別形態>
ラウンド演出を行う場合の別形態について図64〜図68を用いて説明する。
<Another form when performing a round production>
Another form in the case of performing the round effect will be described with reference to FIGS. 64 to 68.

本別形態では、ラウンド動画像データRMD0の構成が異なっている。その異なる点について図64を用いて説明する。図64は、本別形態におけるラウンド動画像データRMD0の構成を説明するための説明図である。 In this another mode, the configuration of the round moving image data RMD0 is different. The different points will be described with reference to FIG. FIG. 64 is an explanatory diagram for explaining the configuration of the round moving image data RMD0 in this another embodiment.

本別形態では、ラウンド動画像データRMD0は、挿入キャラクタ画像が表示されるタイミングにて分割されており、詳細には、ラウンド動画の開始タイミングから、当該各移動キャラクタ画像MP1,MP2がフェードアウトするまでの第1ラウンド動画に対応した第1ラウンド動画像データRMD0aと、第3移動キャラクタ画像MP3が表示されてからラウンド動画の終了タイミングまでの第2ラウンド動画に対応した第2ラウンド動画像データRMD0bと、に分割されている。 In this another mode, the round moving image data RMD0 is divided at the timing at which the insertion character image is displayed, and more specifically, from the start timing of the round moving image until the moving character images MP1 and MP2 fade out. First round moving image data RMD0a corresponding to the first round moving image, and second round moving image data RMD0b corresponding to the second round moving image from the time when the third moving character image MP3 is displayed to the end timing of the round moving image. , Is divided into.

第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bの圧縮態様について図65を用いて説明する。図65は各ラウンド動画像データRMD0a,RMD0bの圧縮態様を説明するための説明図であって、図65(a)は第1ラウンド動画像データRMD0aの圧縮態様を説明するための説明図、図65(b)は第2ラウンド動画像データRMD0bの圧縮態様を説明するための説明図、図65(c)は各ラウンド動画像データRMD0a,RMD0bのビットレートを説明するためのグラフである。 A compression mode of the first round moving image data RMD0a and the second round moving image data RMD0b will be described with reference to FIG. FIG. 65 is an explanatory diagram for explaining a compression aspect of each round moving image data RMD0a, RMD0b, and FIG. 65(a) is an explanatory diagram for explaining a compression aspect of the first round moving image data RMD0a. 65(b) is an explanatory diagram for explaining the compression mode of the second round moving image data RMD0b, and FIG. 65(c) is a graph for explaining the bit rate of each round moving image data RMD0a, RMD0b.

既に説明した通り、第1ラウンド動画像データRMD0aと、第2ラウンド動画像データRMD0bとは、符号化された圧縮データであり、基準データと、差分データとを有している。この場合、各ラウンド動画の再生時間が同一であり且つ各ラウンド動画像データRMD0a,RMD0bに含まれる基準データが同一であっても、ラウンド動画の内容に応じて、第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bのデータ量が異なる場合が生じる。 As described above, the first round moving image data RMD0a and the second round moving image data RMD0b are encoded compressed data, and have reference data and difference data. In this case, even if the reproduction time of each round moving image is the same and the reference data included in each round moving image data RMD0a, RMD0b is the same, the first round moving image data RMD0a and RMD0a The data amount of the second round moving image data RMD0b may be different.

具体的には、第1ラウンド動画と第2ラウンド動画とを比較すると、第1ラウンド動画の方が第2ラウンド動画よりも移動対象キャラクタの数が多い分だけ、第1ラウンド動画の方が、第2ラウンド動画よりも動きが激しいとともに、複雑なもの(高精細なもの)となっている。このため、図65(a−1)及び図65(b−1)に示すように、第1ラウンド動画像データRMD0aの差分データは、第2ラウンド動画像データRMD0bの差分データよりも大きくなる。 Specifically, comparing the first round moving image and the second round moving image, the first round moving image has a larger number of moving target characters than the second round moving image, It is more dynamic than the second round video and is more complicated (high definition). Therefore, as shown in FIGS. 65(a-1) and 65(b-1), the difference data of the first round moving image data RMD0a is larger than the difference data of the second round moving image data RMD0b.

ここで、ラウンド動画像データRMD0全体で割り当てることが可能なデータ量は予め定められており、当該データ量に合うように各ラウンド動画像データRMD0a,RMD0bを調整する必要がある。この場合、各ラウンド動画像データRMD0a,RMD0bのビットレートを調整することにより、ラウンド動画全体の画質を維持しつつ、所望のデータ量に設定することができる。 Here, the amount of data that can be assigned to the entire round moving image data RMD0 is predetermined, and it is necessary to adjust each round moving image data RMD0a and RMD0b so as to match the data amount. In this case, by adjusting the bit rates of the respective round moving image data RMD0a and RMD0b, it is possible to set the desired data amount while maintaining the image quality of the entire round moving image.

具体的には、動きが少ないもの又は比較的複雑でないもの(低精細なもの)に対してはビットレートを下げても画質は低下しにくい。一方、動きが大きいものや比較的複雑なものに対してビットレートを下げると、ブロックノイズやモスキートノイズが大量に発生し、画質が大きく低下する。このため、図65(a−2)に示すように、第1ラウンド動画像データRMD0aに対しては比較的大きなビットレートを割り当てることで、比較的大きなデータ量(FS1)を確保し、第1ラウンド動画の画質の低下を抑制する。一方、図65(b−2)に示すように、第2ラウンド動画像データRMD0bに対しては比較的小さなビットレートを割り当てることで、比較的小さなデータ量(FS2)を確保し、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。これにより、ラウンド演出で用いられる一連のラウンド動画の画質の低下を抑制することができる。 Specifically, the image quality is not likely to deteriorate even if the bit rate is reduced for a subject with little motion or a subject that is not relatively complicated (a subject with low definition). On the other hand, if the bit rate is lowered for a large motion or a relatively complicated one, a large amount of block noise and mosquito noise are generated, and the image quality is greatly deteriorated. For this reason, as shown in FIG. 65(a-2), a relatively large bit rate is allocated to the first round moving image data RMD0a to secure a relatively large data amount (FS1), and Suppresses the deterioration of the image quality of round movies. On the other hand, as shown in FIG. 65(b-2), a relatively small data amount (FS2) is secured by allocating a relatively small bit rate to the second round moving image data RMD0b, so that the second round It is possible to reduce the data amount of the moving image data RMD0b. As a result, it is possible to suppress deterioration of the image quality of a series of round moving images used in the round effect.

すなわち、図65(c)に示すように、第1ラウンド動画像データRMD0aのビットレートを上げ、第2ラウンド動画像データRMD0bのビットレートを下げて設定することにより、各ラウンド動画像データRMD0a,RMD0bが同一のビットレートで設定される場合(図65(c)の点線参照)と比較して、トータルのデータ量が同一にも関わらず、ラウンド動画の画質の低下が抑制されている。これにより、ラウンド動画像データRMD0を所望のデータ量に設定しつつ、ラウンド動画の画質の低下を抑制することができる。 That is, as shown in FIG. 65(c), the bit rate of the first round moving image data RMD0a is increased and the bit rate of the second round moving image data RMD0b is set to be lower, so that each round moving image data RMD0a, Compared with the case where RMD0b is set at the same bit rate (see the dotted line in FIG. 65(c)), even though the total data amount is the same, the deterioration of the image quality of the round moving image is suppressed. As a result, it is possible to suppress the deterioration of the image quality of the round moving image while setting the round moving image data RMD0 to a desired data amount.

ちなみに、各ラウンド動画像データRMD0a,RMD0bを作成する段階における圧縮処理について詳細に説明すると、各ラウンド動画像データRMD0a,RMD0bは、複数回(具体的には2回)に亘る圧縮処理を行うことにより作成されている。具体的には、先ず1回目の圧縮処理では、予め設定されたラウンド動画像データRMD0全体のデータ量を把握し、そのデータ量となるように各ラウンド動画像データRMD0a,RMD0bに対して割り当てる各データ量FS1,FS2を把握し、それらの各データ量FS1、FS2に対応したビットレートを把握する。そして、2回目の圧縮処理にて、1回目の圧縮処理にて把握されたビットレートを用いて実際の圧縮処理を実行する。これにより、ラウンド動画像データRMD0が予め設定されたデータ量となるようになっている。 By the way, the compression process at the stage of creating each round moving image data RMD0a, RMD0b will be described in detail. Each round moving image data RMD0a, RMD0b must be compressed a plurality of times (specifically, twice). Is created by. Specifically, first, in the first compression processing, the data amount of the entire preset round moving image data RMD0 is grasped, and each of the round moving image data RMD0a and RMD0b is assigned so as to have the data amount. The data amounts FS1 and FS2 are grasped, and the bit rates corresponding to the respective data amounts FS1 and FS2 are grasped. Then, in the second compression processing, the actual compression processing is executed using the bit rate grasped in the first compression processing. As a result, the round moving image data RMD0 has a preset data amount.

ここで、各ラウンド動画像データRMD0a,RMD0bの圧縮においては、それぞれ個別に設定されたビットレートに基づくデータ量となるように、差分データを簡略化することにより差分データを圧縮し、基準データは簡略化されないようになっている。基準データは各差分データ(Pピクチャデータ及びBピクチャデータ)の基準となるデータであるため、基準データの画質が低下すると、フレーム間圧縮による誤差に起因するラウンド動画全体の画質が著しく低下するからである。 Here, in compression of the round moving image data RMD0a and RMD0b, the difference data is compressed by simplifying the difference data so that the data amount is based on the individually set bit rate, and the reference data is It is not meant to be simplified. Since the reference data is the reference data for each difference data (P picture data and B picture data), if the image quality of the reference data is degraded, the image quality of the entire round moving image is significantly degraded due to an error due to inter-frame compression. Is.

また、本別形態では、挿入画像データIPD0が異なっている。具体的には、本別形態における挿入画像データIPD0のサイズは、当該挿入画像データIPD0に係る画像が表示面G全体に表示可能となるように設定されている。そして、挿入画像データIPD0には、第2背景画像BP2に重ねて第1挿入キャラクタ画像IP1が描画された挿入画像データと、第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描画された挿入画像データと、が設けられている。すなわち、本別形態の挿入画像データIPD0は、表示面G全体に表示される一枚の画像そのものを示すものである。なお、以降の説明において挿入画像データIPD0を用いて表示される画像、すなわち第2背景画像BP2に重ねて各挿入キャラクタ画像IP1,IP2のいずれが描画された画像を単に挿入画像とも言う。 Further, in this another embodiment, the insertion image data IPD0 is different. Specifically, the size of the inserted image data IPD0 in this another mode is set so that the image related to the inserted image data IPD0 can be displayed on the entire display surface G. Then, in the inserted image data IPD0, the inserted image data in which the first inserted character image IP1 is drawn so as to be superimposed on the second background image BP2 and the second inserted character image IP2 is drawn in superposed on the second background image BP2. Inserted image data and are provided. That is, the insertion image data IPD0 of this another embodiment indicates one image itself displayed on the entire display surface G. In the following description, an image displayed using the inserted image data IPD0, that is, an image in which each of the inserted character images IP1 and IP2 is drawn on the second background image BP2 is also simply referred to as an inserted image.

本別形態では、これら分割された各ラウンド動画像データRMD0a,RMDbを所定の間隔を介して順次デコードし、第1ラウンド動画及び第2ラウンド動画を所定の間隔を介して順次再生するとともに、当該間隔中に上記挿入画像データIPD0を用いて、第2背景画像BP2と、各挿入キャラクタ画像IP1,IP2のいずれか一方とが一体となった挿入画像を表示させることにより、一連のラウンド動画を再生させる。 In this another embodiment, the divided round moving image data RMD0a and RMDb are sequentially decoded at a predetermined interval, and the first round moving image and the second round moving image are sequentially reproduced at a predetermined interval, and By using the insertion image data IPD0 during the interval to display an insertion image in which the second background image BP2 and one of the insertion character images IP1 and IP2 are integrated, a series of round moving images are reproduced. Let

次に、本別形態におけるラウンド演出用の演算処理について図66のフローチャートを用いて説明する。 Next, the calculation process for the round effect in this another mode will be described with reference to the flowchart in FIG. 66.

先ず、ステップS3901では、現状設定されているデータテーブル、詳細には開閉実行モードに対応したデータテーブルに基づいて、挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合には、ステップS3902に進み、現状設定されているデータテーブルに基づいて挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。挿入キャラクタ画像の表示開始タイミングは、開閉実行モードに対応したデータテーブルに予め定められており、詳細には第1ラウンド動画の終了タイミングと同一に設定されている。 First, in step S3901, whether or not the insertion character image is being displayed is determined based on the currently set data table, specifically, the data table corresponding to the open/close execution mode. If the insertion character image is not being displayed, the flow advances to step S3902 to determine whether it is the display start timing of the insertion character image based on the currently set data table. The display start timing of the insertion character image is predetermined in the data table corresponding to the open/close execution mode, and in detail, is set to be the same as the end timing of the first round moving image.

挿入キャラクタ画像の表示開始タイミングでない場合には、ステップS3903に進み、現状設定されているデータテーブルに基づいてラウンド動画に係る演出が実行中であるか否かを判定する。この場合、第1ラウンド動画又は第2ラウンド動画に係る演出が実行中であるか否かを判定する、
ラウンド動画に係る演出が実行中でない場合には、ステップS3904にて第1ラウンド動画の再生開始タイミングであるか否かを判定する。第1ラウンド動画の再生開始タイミングでない場合には、そのまま本演算処理を終了する一方、第1ラウンド動画の再生開始タイミングである場合には、ステップS3905にてラウンドカウンタRCを1加算する処理を実行し、ステップS3906及びステップS3907にて、第1ラウンド動画像データRMD0aのデコードに係る処理を実行する。
If it is not the display start timing of the inserted character image, the process advances to step S3903, and it is determined based on the currently set data table whether or not the effect related to the round moving image is being executed. In this case, it is determined whether or not the effect related to the first round moving image or the second round moving image is being executed,
When the effect related to the round moving image is not being executed, it is determined in step S3904 whether it is the reproduction start timing of the first round moving image. If it is not the reproduction start timing of the first round moving image, the present calculation processing is ended as it is, while if it is the reproduction start timing of the first round moving image, the processing of adding 1 to the round counter RC is executed in step S3905. Then, in steps S3906 and S3907, the process related to the decoding of the first round moving image data RMD0a is executed.

詳細には、ステップS3906にて、VRAM134の展開用バッファ141において第1ラウンド動画像データRMD0aが格納されているアドレスと、当該第1ラウンド動画像データRMD0aをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 Specifically, in step S3906, the address where the first round moving image data RMD0a is stored in the expansion buffer 141 of the VRAM 134 and the still image data for a plurality of frames by decoding the first round moving image data RMD0a. When creating, the address of the area where the still image data is stored is grasped.

そして、ステップS3907では、第1ラウンド動画像データRMD0aのデコード指定情報を設定し、本演算処理を終了する。 Then, in step S3907, the decode designation information of the first round moving image data RMD0a is set, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第1ラウンド動画像データRMD0aのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第1ラウンド動画像データRMD0aのデコード処理を実行する。当該デコード処理は、既に説明した通りであるため、説明を省略する。 When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decode designation information of the first round moving image data RMD0a is set is created and transmitted to the VDP 135. The moving picture recorder of the VDP 135 executes the decoding process of the first round moving image data RMD0a based on the reception of the drawing list in which the decoding designation information is set. Since the decoding process is as already described, the description is omitted.

ラウンド動画に係る演出が実行中である場合には、ステップS3908〜ステップS3910にてラウンド動画に対応した静止画像データを描画対象として設定する処理を実行する。この場合、デコードされているラウンド動画像データRMD0が第1ラウンド動画像データRMD0aである場合には、第1ラウンド動画に係る静止画像データが描画対象として設定される一方、デコードされているラウンド動画像データRMD0が第2ラウンド動画像データRMD0bである場合には、第2ラウンド動画に係る静止画像データが描画対象として設定される。なお、当該処理の具体的な構成については、既に説明した通りであるため、説明を省略する。 When the effect related to the round moving image is being executed, a process of setting still image data corresponding to the round moving image as a drawing target is executed in steps S3908 to S3910. In this case, when the decoded round moving image data RMD0 is the first round moving image data RMD0a, the still image data related to the first round moving image is set as a drawing target, while the decoded round moving image data is set. When the image data RMD0 is the second round moving image data RMD0b, the still image data related to the second round moving image is set as the drawing target. Note that the specific configuration of the process is as already described, and thus the description is omitted.

その後、ステップS3911にて、ラウンド演出を実行することをVDP135にて特定させるためのラウンド演出指定情報を設定し、本演算処理を終了する。 After that, in step S3911, the round effect designation information for causing the VDP 135 to specify that the round effect is to be executed is set, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、動画用オブジェクトが描画対象として設定されるとともに、当該動画用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、動画用オブジェクトに対してマッピングされる画像データとして静止画像データのアドレスが含まれている。 When the above-described calculation process is executed, in the subsequent drawing list output process (step S806), the moving image object is set as a drawing target and various parameters applied to the moving image object are set. The various parameters include an address of still image data as image data to be mapped to the moving image object.

一方、挿入キャラクタ画像の表示開始タイミングである場合には(ステップS3902:YES)、ステップS3912〜ステップS3915にて、挿入キャラクタ画像を描画対象として設定する処理を実行する。 On the other hand, if it is the display start timing of the inserted character image (step S3902: YES), a process of setting the inserted character image as a drawing target is executed in steps S3912 to S3915.

ここで、本別形態の挿入用オブジェクトのサイズは、挿入画像データIPD0のサイズに対応させて設定されている。具体的には、挿入画像データIPD0のサイズと同一になるように挿入用オブジェクトのサイズが設定されている。つまり、本別形態においては、挿入用オブジェクトと動画用オブジェクトとは同一である。 Here, the size of the insertion object according to this another embodiment is set in correspondence with the size of the insertion image data IPD0. Specifically, the size of the insertion object is set so as to be the same as the size of the insertion image data IPD0. That is, in this another mode, the insertion object and the moving image object are the same.

なお、ステップS3912〜ステップS3915の具体的な処理構成は既に説明した通りであるため、説明を省略する。 Note that the specific processing configuration of steps S3912 to S3915 is as described above, and thus description thereof will be omitted.

ステップS3912〜ステップS3915の処理の実行後は、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。 After executing the processes of steps S3912 to S3915, the round effect designation information is set in step S3911, and the present calculation process ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、挿入用オブジェクトが描画対象として設定されるとともに、当該挿入用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、挿入用オブジェクトに対してマッピングされる画像データとして今回のラウンド遊技に対応した挿入画像データのアドレスが含まれる。 When the above calculation process is executed, in the subsequent drawing list output process (step S806), the insertion object is set as a drawing target and various parameters applied to the insertion object are set. The various parameters include the address of the insertion image data corresponding to the current round game as the image data mapped to the insertion object.

ここで、挿入用オブジェクトのサイズは表示面G全体に対応したものとなっており、且つ当該挿入用オブジェクトにマッピングされる挿入画像データIPD0のサイズは表示面G全体に対応したものに設定されている。そして、本別形態における挿入画像データIPD0には、第2背景画像BP2が予め描画されている。これにより、本別形態においては、挿入画像は背景画像として機能する。すなわち、本別形態において挿入画像は、背景画像とキャラクタ画像とを合わせた1の画像であると言える。これにより、ラウンド動画が再生されない状況であっても表示面G全体に所定の画像が表示される。 Here, the size of the insertion object corresponds to the entire display surface G, and the size of the insertion image data IPD0 mapped to the insertion object is set to correspond to the entire display surface G. There is. Then, the second background image BP2 is drawn in advance on the insertion image data IPD0 in this another mode. Thereby, in this another mode, the insertion image functions as a background image. That is, it can be said that the inserted image in the present alternative embodiment is one image including the background image and the character image. As a result, a predetermined image is displayed on the entire display surface G even when the round moving image is not reproduced.

挿入キャラクタ画像が表示中である場合(ステップS3901:YES)、ステップS3916に進み、現状設定されているデータテーブルに基づいて第2ラウンド動画の再生開始タイミングであるか否かを判定する。第2ラウンド動画の再生開始タイミングは、挿入画像の表示開始タイミング(第1ラウンド動画の終了タイミング)から所定期間が経過したタイミングに設定されている。 If the insertion character image is being displayed (step S3901: YES), the flow advances to step S3916 to determine whether or not it is the reproduction start timing of the second round moving image based on the currently set data table. The reproduction start timing of the second round moving image is set to the timing when a predetermined period has elapsed from the display start timing of the inserted image (end timing of the first round moving image).

第2ラウンド動画の再生開始タイミングでない場合には、ステップS3917及びステップS3918にて、挿入画像の表示を維持するための処理を実行し、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。これらの処理は、既に説明した通りであるため、説明を省略する。 If it is not the reproduction start timing of the second round moving image, in step S3917 and step S3918, processing for maintaining the display of the inserted image is executed, and in step S3911, round effect designation information is set, and this calculation processing is performed. To finish. Since these processes have already been described, description thereof will be omitted.

一方、第2ラウンド動画の再生開始タイミングである場合には、ステップS3919及びステップS3920にて、第2ラウンド動画を再生させるための処理を実行する。具体的には、ステップS3919にて、VRAM134の展開用バッファ141において第2ラウンド動画像データRMD0bが格納されているアドレスと、当該第2ラウンド動画像データRMD0bをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 On the other hand, if it is the reproduction start timing of the second round moving image, in step S3919 and step S3920, the process for reproducing the second round moving image is executed. Specifically, in step S3919, the address at which the second round moving image data RMD0b is stored in the expansion buffer 141 of the VRAM 134 and the second round moving image data RMD0b are decoded to obtain a still image for a plurality of frames. When the data is created, the address of the area where the still image data is stored is grasped.

そして、ステップS3920では、第2ラウンド動画像データRMD0bのデコード指定情報を設定し、本演算処理を終了する。 Then, in step S3920, the decode designation information of the second round moving image data RMD0b is set, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第2ラウンド動画像データRMD0bのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第2ラウンド動画像データRMD0bのデコード処理を実行する。 When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decode designation information of the second round moving image data RMD0b is set is created and transmitted to the VDP 135. The moving picture recorder of the VDP 135 executes the decoding process of the second round moving image data RMD0b based on the reception of the drawing list in which the decoding designation information is set.

かかる処理によれば、第1ラウンド動画又は第2ラウンド動画の再生中である場合には、動画用オブジェクトが描画対象として設定された描画リストが作成される一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中は、挿入用オブジェクトが描画対象として設定された描画リストが作成される。この場合、1の描画リストに、動画用オブジェクトと挿入用オブジェクトとの双方が設定されないようになっている。 According to this processing, when the first round moving image or the second round moving image is being reproduced, the drawing list in which the moving image object is set as the drawing target is created, while the end timing of the first round moving image is set. During the period from the start timing of the second round moving image, the drawing list in which the insertion object is set as the drawing target is created. In this case, neither the moving image object nor the insertion object is set in one drawing list.

ちなみに、ステップS3919及びステップS3920の処理を実行した処理回に対して次の処理回以降は、ステップS3908〜ステップS3911の処理が実行される。これにより、第2ラウンド動画に係る静止画像データが動画用オブジェクトに対してマッピングされる画像データとして設定されることとなる。 Incidentally, with respect to the processing times after the processing of steps S3919 and S3920 is executed, the processing of steps S3908 to S3911 is executed after the next processing times. As a result, the still image data related to the second round moving image is set as the image data mapped to the moving image object.

以上説明した通り、ラウンド演出用の演算処理では、1処理回毎に今回の描画対象が設定される。これにより、1処理回毎に描画リストが設定され、VDP135では1処理回毎に画像が更新されるように描画処理が実行される。つまり、1フレーム毎に画像の更新が行われ、ラウンド動画が再生される期間に亘って、フレームレートは同一に設定されている。 As described above, in the round effect calculation process, the current drawing target is set for each process. Thus, the drawing list is set for each processing, and the VDP 135 executes the drawing processing so that the image is updated for each processing. That is, the image is updated for each frame, and the frame rate is set to be the same over the period in which the round moving image is reproduced.

次に、本別形態におけるラウンド演出用の設定処理について図67(a)のフローチャートを用いて説明する。本別形態におけるラウンド演出用の設定処理は、受信した描画リストにラウンド演出指定情報が設定されている場合には、起動するよう構成されている。 Next, the round effect setting process in this another mode will be described with reference to the flowchart of FIG. 67(a). The setting process for round effect in this another mode is configured to be activated when the round effect designation information is set in the received drawing list.

先ず、ステップS4001では、描画対象となるオブジェクトを把握する。具体的には、第1ラウンド動画又は第2ラウンド動画が再生中である場合には、動画用オブジェクトが把握される。一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中である場合には、挿入用オブジェクトが把握される。 First, in step S4001, an object to be drawn is grasped. Specifically, when the first round moving image or the second round moving image is being reproduced, the moving image object is recognized. On the other hand, in the period between the end timing of the first round moving image and the start timing of the second round moving image, the insertion object is grasped.

その後、ステップS4002にて、描画リストに基づいて、描画対象のオブジェクトに適用されるパラメータを把握する。その後、ステップS4003にて、上記ステップS4001にて把握された動画用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 Then, in step S4002, the parameters applied to the object to be drawn are grasped based on the drawing list. Then, in step S4003, the setting process to the world coordinate system is executed for the moving object recognized in step S4001 and the setting process ends.

次に、本別形態のラウンド演出用マッピング処理を図67(b)のフローチャートを用いて説明する。 Next, the round effect mapping process of this another mode will be described with reference to the flowchart of FIG. 67(b).

先ず、ステップS4101では、描画対象となるオブジェクトに対して適用されるパラメータのうち、マッピングする画像データ(テクスチャ)のアドレスを把握する。この場合、描画リストに動画用オブジェクトが設定されている場合には、フレーム番号に対応した静止画像データのアドレスを把握する一方、描画リストに挿入用オブジェクトが設定されている場合には、今回のラウンド遊技に対応した挿入画像データIPD0のアドレスを把握する。 First, in step S4101, the address of the image data (texture) to be mapped is grasped among the parameters applied to the drawing target object. In this case, when the moving image object is set in the drawing list, the address of the still image data corresponding to the frame number is grasped, while when the inserting object is set in the drawing list, Grasp the address of the inserted image data IPD0 corresponding to the round game.

続くステップS4102では、上記ステップS4101にて把握されたアドレスに基づいて、マッピングする画像データ(テクスチャ)を把握する。そして、ステップS4103では、描画対象となるオブジェクトに対して上記ステップS4102にて把握された画像データをマッピングして、本マッピング処理を終了する。 In the following step S4102, the image data (texture) to be mapped is grasped based on the address grasped in the above step S4101. Then, in step S4103, the image data grasped in step S4102 is mapped onto the object to be drawn, and the present mapping process ends.

次に、本別形態におけるラウンド演出の実行態様を図68のタイムチャートを用いて説明する。図68(a)は第1ラウンド動画の再生期間を示すタイムチャート、図68(b)は挿入画像の表示期間を示すタイムチャート、図68(c)は第2ラウンド動画の再生期間を示すタイムチャートである。 Next, an execution mode of the round effect in this another mode will be described with reference to the time chart of FIG. 68. 68(a) is a time chart showing the reproduction period of the first round moving image, FIG. 68(b) is a time chart showing the display period of the inserted image, and FIG. 68(c) is a time chart showing the reproduction period of the second round moving image. It is a chart.

先ず、図68(a)に示すように、ラウンド遊技の開始タイミングであるt11のタイミングにて、表示面Gにて第1ラウンド動画の再生が開始される。そして、t12のタイミングにて第1ラウンド動画が終了すると、図68(a)及び図68(b)に示すように、表示面Gには、第1ラウンド動画に代えて挿入画像データIPD0に係る挿入画像が表示される。詳細には、第2背景画像BP2に重なるようにして、第1挿入キャラクタ画像IP1又は第2挿入キャラクタ画像IP2が表示される。 First, as shown in FIG. 68(a), the reproduction of the first round moving image is started on the display surface G at the timing t11 which is the start timing of the round game. Then, when the first round moving image ends at the timing of t12, as shown in FIGS. 68(a) and 68(b), the display surface G is related to the insertion image data IPD0 instead of the first round moving image. The insert image is displayed. Specifically, the first insertion character image IP1 or the second insertion character image IP2 is displayed so as to overlap the second background image BP2.

その後、図68(b)及び図68(c)に示すように、t13のタイミングにて挿入画像に代えて第2ラウンド動画が開始され、t14のタイミングにて当該第2ラウンド動画が終了する。これにより、表示面Gにて、第1ラウンド動画→挿入画像→第2ラウンド動画の順に画像が表示される1連のラウンド演出が行われることとなる。 Thereafter, as shown in FIGS. 68(b) and 68(c), the second round moving image is started instead of the inserted image at the timing of t13, and the second round moving image ends at the timing of t14. As a result, a series of round effects in which the images are displayed on the display surface G in the order of the first round moving image→the inserted image→the second round moving image are performed.

そして、次のラウンド遊技の開始タイミングであるt15のタイミングにて、再度第1ラウンド動画から順次再生される。 Then, at the timing of t15 which is the start timing of the next round game, the first round moving image is sequentially reproduced again.

以上詳述した本実施の形態によれば、1連のラウンド動画に係るラウンド動画像データRMD0を、ラウンド動画中の動きの激しさに応じて複数の単位データ(第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0b)に分割した。そして、各ラウンド動画像データRMD0a,RMD0b毎にビットレートを調整することにより、ラウンド動画像データRMD0を予め定められたデータ量に設定しつつ、効率的な画質調整を行うことができる。 According to the present embodiment described in detail above, the round moving image data RMD0 related to a series of round moving images is converted into a plurality of unit data (first round moving image data RMD0a and It is divided into the second round moving image data RMD0b). By adjusting the bit rate for each of the round moving image data RMD0a and RMD0b, efficient image quality adjustment can be performed while setting the round moving image data RMD0 to a predetermined data amount.

詳細には、第1ラウンド動画中の動きが比較的激しいことに起因して差分データが比較的大きくなり易いことが想定される第1ラウンド動画像データRMD0aに対しては、比較的高いビットレートでエンコード処理を行うことにより、第1ラウンド動画の画質を維持することができる。一方、第2ラウンド動画中の動きが比較的穏やかであることに起因して差分データが比較的小さくなり易いことが想定される第2ラウンド動画像データRMD0bに対しては、比較的低いビットレートでエンコード処理を行うことにより、画質を維持しつつ、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。 Specifically, for the first round moving image data RMD0a, in which the difference data is likely to be relatively large due to the relatively intense movement in the first round moving image, a relatively high bit rate is set. The image quality of the first round moving image can be maintained by performing the encoding process with. On the other hand, for the second round moving image data RMD0b in which it is assumed that the difference data is likely to be relatively small due to the relatively gentle motion in the second round moving image, a relatively low bit rate. By performing the encoding process in (1), it is possible to reduce the data amount of the second round moving image data RMD0b while maintaining the image quality.

特に、ラウンド動画像データRMD0のデータ量を抑える点に着目すれば、ラウンド動画のフレームレート、具体的には画像の更新タイミングを抑制することも考えられる。しかしながら、フレームレートを変更する構成とすると、現状のフレームレートを把握するための処理等のフレームレートを変更するための処理が別途必要なり、処理負荷の増大化及び上記処理に係るプログラム容量の増大化が懸念される。 Particularly, focusing on the point that the data amount of the round moving image data RMD0 is suppressed, it may be possible to suppress the frame rate of the round moving image, specifically, the image update timing. However, if the configuration is such that the frame rate is changed, a process for changing the frame rate such as a process for grasping the current frame rate is additionally required, which increases the processing load and the program capacity for the above process. There is a concern that

これに対して、本別形態によれば、上記フレームレートの変更に係る処理を実行することなく、ラウンド動画像データRMD0のデータ量を抑制することができる。すなわち、データ量の削減を、処理により補償する構成ではなく圧縮態様で実現している。これにより、パチンコ機10に係る処理負荷の増大化を抑制しつつ、ラウンド動画像データRMD0のデータ量の削減を図ることができる。 On the other hand, according to this another mode, the data amount of the round moving image data RMD0 can be suppressed without executing the process related to the change of the frame rate. That is, the reduction of the data amount is realized by the compression mode instead of the configuration in which the process is compensated. This makes it possible to reduce the data amount of the round moving image data RMD0 while suppressing an increase in the processing load on the pachinko machine 10.

また、エンコード処理が行われた動画像データのデータ量は、差分データのデータ量に関わらずビットレートに依存する。つまり、エンコーダは、差分データのデータ量に関わらず動画像データのデータとしてビットレートに対応したデータ量を確保することとなる。この場合、差分データが小さくなり易いことが想定される動画に対して比較的高いビットレートでエンコード処理を行った場合、実際には何もデータが格納されていない無駄なデータ量を確保することとなり、データ量の無駄が発生する。これに対して、本別形態によれば、上記無駄なデータの発生を抑制することができるため、データ量の削減を図ることができる。 Further, the data amount of the moving image data that has been subjected to the encoding process depends on the bit rate regardless of the data amount of the difference data. That is, the encoder secures the data amount corresponding to the bit rate as the moving image data, regardless of the data amount of the difference data. In this case, when encoding is performed at a relatively high bit rate for a moving image in which the difference data is likely to be small, it is necessary to secure a useless amount of data in which no data is actually stored. Therefore, the amount of data is wasted. On the other hand, according to this another aspect, it is possible to suppress the generation of the useless data, so that it is possible to reduce the data amount.

また、第1ラウンド動画と第2ラウンド動画との間に挿入画像を表示させ、当該挿入画像を、現在のラウンド演出に係るラウンドに応じて異ならせる構成とした。これにより、1のラウンド動画像データRMD0を用いて、複数態様のラウンド演出を行うことができる。よって、複数態様のラウンド演出を好適に行いつつ、データ量の削減を図ることができる。 In addition, an insertion image is displayed between the first round moving image and the second round moving image, and the insertion image is changed according to the round related to the current round effect. As a result, a plurality of round effects can be performed using one round moving image data RMD0. Therefore, it is possible to reduce the amount of data while favorably performing a plurality of aspects of the round effect.

さらに、第1ラウンド動画像データRMD0aをデコードするタイミングと、第2ラウンド動画像データRMD0bをデコードするタイミングとが異なるため、ラウンド動画を再生するためのデコードに係る処理負荷が分散されている。これにより、局所的な処理負荷の増大に起因する処理落ちの発生を抑制することができる。 Furthermore, since the timing of decoding the first round moving image data RMD0a and the timing of decoding the second round moving image data RMD0b are different, the processing load related to decoding for playing a round moving image is dispersed. As a result, it is possible to suppress the occurrence of processing omission due to a local increase in processing load.

なお、本別形態では、ラウンド動画中において場面が切り換わることにより、動きの激しさや複雑さが異なる構成としたが、これに限られず、場面の切り換わりと、動きの激しさ等とが、同期しない構成としてもよい。この場合、場面の切り換わり毎に動画像データを分割する構成としてもよい。これにより、各場面毎に複数の単位動画像データを用意し、これら単位動画像データを組み合わせることにより、一連のラウンド動画の多様化を図ることができる。また、組み合わせ毎に一連の動画像データを用意する構成と比較して、動画像データに係るデータ量の削減を図ることができる。但し、ビットレートの割り当てを好適に行うことができる観点に着目すれば、動きの激しさ等を基準にラウンド動画像データRMD0を分割する構成の方が好ましい。 In addition, in this another mode, the intensity and the complexity of the movement are different due to the switching of the scene in the round video, but the present invention is not limited to this, and the switching of the scene and the intensity of the motion may be different. The configuration may be such that they are not synchronized. In this case, the moving image data may be divided for each scene change. Thus, by preparing a plurality of unit moving image data for each scene and combining these unit moving image data, it is possible to diversify a series of round moving images. Further, it is possible to reduce the amount of data relating to the moving image data as compared with the configuration in which a series of moving image data is prepared for each combination. However, from the viewpoint that the bit rate can be appropriately assigned, it is preferable to divide the round moving image data RMD0 on the basis of the intensity of the movement.

また、1のラウンド動画を2つの動画像データに分割したが、これに限られず、3つ以上の動画像データに分割する構成としてもよい。但し、動画像データの特性上、1の動画像データ中に、差分データの基準となる規準データが設けられている必要がある。当該基準データは、圧縮対象とはならない又は圧縮するとしても圧縮率が差分データと比較して小さい。このため、ラウンド動画像データRMD0全体のデータ量が却って増大化するおそれがある。よって、1のラウンド動画像データRMD0を複数の動画像データに分割することに起因する基準データの増加と、ビットレートとの調整によるラウンド動画像データRMD0全体のデータ量の削減と、の関係を考慮して、動画像データの分割態様を決定するとよい。具体的には、分割によって生じ得る基準データの増加に起因するデータ量の増加量が、分割した動画像データのビットレート調整により確保可能なデータ量の削減量よりも小さい場合には、動画像データを分割し、上記増加量が上記削減量よりも大きい場合には、分割することなく1の動画像データとして扱うとよい。 Further, although one round moving image is divided into two moving image data, the present invention is not limited to this, and may be divided into three or more moving image data. However, due to the characteristics of moving image data, it is necessary that one piece of moving image data includes reference data that serves as a reference for difference data. The reference data is not a compression target or has a smaller compression rate than the differential data even if it is compressed. Therefore, the data amount of the entire round moving image data RMD0 may rather increase. Therefore, the relationship between the increase of the reference data due to the division of one round moving image data RMD0 into a plurality of moving image data and the reduction of the data amount of the entire round moving image data RMD0 by the adjustment with the bit rate will be described. Considering this, the division mode of the moving image data may be determined. Specifically, when the increase amount of the data amount due to the increase of the reference data that can be generated by the division is smaller than the reduction amount of the data amount that can be secured by the bit rate adjustment of the divided moving image data, the moving image When the data is divided and the increase amount is larger than the reduction amount, it may be treated as one moving image data without being divided.

また、各ラウンド動画像データRMD0a,RMD0bは基準データのデータ量が同一であると仮定したが、これに限られず、異なる構成であってもよい。また、各ラウンド動画像データRMD0a,RMD0bにより再生される各ラウンド動画の再生時間は同一と仮定したが、これに限られず、異なる構成であってもよい。これらの場合であっても、各ラウンド動画像データRMD0a,RMD0bに係るビットレートを調整することにより、ラウンド動画像データRMD0全体のデータ量を好適に調整することができる。 Further, although it is assumed that the round moving image data RMD0a and RMD0b have the same amount of reference data, the present invention is not limited to this and may have a different configuration. Further, although it is assumed that the reproduction time of each round moving image reproduced by each round moving image data RMD0a, RMD0b is the same, the present invention is not limited to this, and may have a different configuration. Even in these cases, by adjusting the bit rates of the round moving image data RMD0a and RMD0b, the data amount of the entire round moving image data RMD0 can be adjusted appropriately.

また、第1ラウンド動画と第2ラウンド動画との間に所定の期間を設ける構成としたが、これに限られず、例えば第1ラウンド動画と第2ラウンド動画とを連続して表示させる構成としてもよい。この場合、挿入画像を表示しない構成としてもよく、第1ラウンド動画中、第2ラウンド動画中、又は各ラウンド動画に跨って挿入画像を表示する構成としてもよい。 Further, although the configuration is such that the predetermined period is provided between the first round moving image and the second round moving image, the present invention is not limited to this, and for example, the first round moving image and the second round moving image may be displayed continuously. Good. In this case, the insertion image may not be displayed, and the insertion image may be displayed during the first round moving image, the second round moving image, or across each round moving image.

<砂浜背景画像を表示するための構成及び砂浜疾走演出を行うための構成>
次に、砂浜背景を表示するための構成及び砂浜疾走演出を行うための構成について説明する。
<Structure for displaying the beach background image and composition for performing the beach sprint>
Next, a configuration for displaying a sandy beach background and a configuration for performing a sandy beach dashing effect will be described.

砂浜背景画像は、砂浜から海を見た場合の画像であり、所定の周期で波が砂浜に打ち寄せられている様子を示す画像である。砂浜背景画像は、図柄の変動表示が行われる場合の背景画像として用いられる。 The sandy beach background image is an image when the sea is seen from the sandy beach, and is an image showing how waves are hitting the sandy beach at a predetermined cycle. The beach background image is used as a background image when the variable display of the design is performed.

砂浜疾走演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。詳細には、砂浜疾走演出は、開閉実行モードに移行する場合に実行される演出抽選処理にて当該砂浜疾走演出を行うことに当選した場合に実行される演出である。 The beach running performance is a performance that can be executed when the round game in the open/close execution mode is being performed. Specifically, the sandy beach dashing effect is an effect that is executed when it is elected to perform the sandy beach dashing effect in the effect lottery process that is executed when shifting to the opening/closing execution mode.

砂浜疾走演出は、複数の図柄画像が砂浜を疾走する演出である。当該演出では、砂浜背景画像に描かれた風景を別の角度、詳細には当該風景をローアングルから見た場合の画像が背景画像として用いられる。 The sand beach dashing effect is an effect in which a plurality of pattern images sprints on the beach. In the rendering, a landscape drawn on the beach background image is used as a background image at another angle, specifically, an image when the landscape is viewed from a low angle.

ここで、本パチンコ機10には、投影パターンとして透視投影と平行投影とが設定されており、表示する画像の内容に応じてこれらの投影パターンを使い分けている。透視投影とは、ワールド座標系に配置された各オブジェクトを所定の視点から見た状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点が所定の視点に向けて直線的に移動するように投影することをいう。これにより、視点からの距離に応じて各オブジェクトに係る画像は変化するように表示される。 Here, perspective projection and parallel projection are set as projection patterns in the pachinko machine 10, and these projection patterns are used properly according to the content of the image to be displayed. Perspective projection means projecting each object placed in the world coordinate system in a state viewed from a predetermined viewpoint, and specifically, the vertices of each polygon of each object are linearly directed toward the predetermined viewpoint. Projecting to move. As a result, the image of each object is displayed so as to change depending on the distance from the viewpoint.

これに対して、平行投影は、各オブジェクトをスクリーン領域PC12から見たそのままの状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に移動するように投影することをいう。これにより、所定の視点からの距離に関わらず、各オブジェクトの各画像は常に一定の大きさで表示される。これらの投影パターンの使い分けについては後述する。 On the other hand, parallel projection means projecting each object as it is seen from the screen area PC12. Specifically, the vertices of each polygon of each object move vertically to the screen area PC12. To project. Accordingly, each image of each object is always displayed in a constant size regardless of the distance from the predetermined viewpoint. The proper use of these projection patterns will be described later.

砂浜背景画像の表示に際しては、複数のオブジェクトと、当該各オブジェクトそれぞれに対応させて設定された複数のテクスチャが用いられる。 When displaying the beach background image, a plurality of objects and a plurality of textures set corresponding to the respective objects are used.

砂浜背景画像の表示に用いられる複数のオブジェクトについて図69を用いて説明する。図69は各オブジェクトOB1〜OB4を説明するための説明図である。 A plurality of objects used to display the beach background image will be described with reference to FIG. 69. FIG. 69 is an explanatory diagram for explaining each of the objects OB1 to OB4.

なお、以降の説明において、特に断りがない限り、ワールド座標系を基準として説明し、視点は+Z方向を向いているとする。 In the following description, unless otherwise specified, the world coordinate system is used as a reference, and the viewpoint is oriented in the +Z direction.

図69(a)に示すように、砂浜背景画像の表示に係るオブジェクトとして、砂浜を表示にするのに用いられる砂浜オブジェクトOB1、波を表示するのに用いられる波オブジェクトOB2、海を表示するのに用いられる海オブジェクトOB3及び空を表示するのに用いられる空オブジェクトOB4が設定されている。各オブジェクトOB1〜OB4は矩形の板ポリゴンで構成されており、その長手方向のサイズはスクリーン領域PC12の長手方向のサイズよりも大きく設定されている。 As shown in FIG. 69(a), as the objects related to the display of the beach background image, the beach object OB1 used to display the beach, the wave object OB2 used to display the wave, and the sea are displayed. A sea object OB3 used to display the sky and a sky object OB4 used to display the sky are set. Each of the objects OB1 to OB4 is composed of a rectangular plate polygon, and its longitudinal size is set to be larger than the longitudinal size of the screen area PC12.

各オブジェクトOB1〜OB4は、特定視点PV1から透視投影された場合に、砂浜から見た海の映像となるように配置される。具体的には、ワールド座標系における特定視点PV1から見て奥行き方向(+Z方向)に向かって、砂浜オブジェクトOB1、波オブジェクトOB2、海オブジェクトOB3、空オブジェクトOB4の順番に配置されるように各オブジェクトOB1〜OB4の座標が設定されている。 Each of the objects OB1 to OB4 is arranged so as to be an image of the sea viewed from the sandy beach when perspectively projected from the specific viewpoint PV1. Specifically, each object is arranged in the order of the beach object OB1, the wave object OB2, the sea object OB3, and the sky object OB4 in the depth direction (+Z direction) when viewed from the specific viewpoint PV1 in the world coordinate system. The coordinates of OB1 to OB4 are set.

また、図69(b)に示すように、砂浜オブジェクトOB1、波オブジェクトOB2及び海オブジェクトOB3はスクリーン領域PC12(投影平面)に対して傾斜して配置されている。これにより、特定視点PV1から透視投影した場合に、各オブジェクトOB1〜OB3により表示される個別画像毎に遠近感(奥行き感)を付与することができる。 Further, as shown in FIG. 69(b), the beach object OB1, the wave object OB2, and the sea object OB3 are arranged to be inclined with respect to the screen area PC12 (projection plane). Accordingly, when perspective projection is performed from the specific viewpoint PV1, it is possible to add a sense of perspective (a sense of depth) to each of the individual images displayed by the objects OB1 to OB3.

また、隣接するオブジェクトの一部がオーバーラップして重なり合うように配置されており、各オブジェクトOB1〜OB3が連続している。具体的には、波オブジェクトOB2の手前側の端部が砂浜オブジェクトOB1の奥側の端部の上に重なっており、海オブジェクトOB3の手前側の端部が波オブジェクトOB2の奥側の端部の上に重なっている。この場合、波オブジェクトOB2は、砂浜オブジェクトOB1及び海オブジェクトOB3に対してオーバーラップしているため、波オブジェクトOB2が傾斜方向に移動しても各オブジェクトOB1〜OB3間の連続性は確保されている。 Further, some of the adjacent objects are arranged so as to overlap and overlap each other, and the objects OB1 to OB3 are continuous. Specifically, the front end of the wave object OB2 overlaps the back end of the beach object OB1, and the front end of the sea object OB3 ends at the back of the wave object OB2. Overlaid. In this case, since the wave object OB2 overlaps the beach object OB1 and the sea object OB3, the continuity between the objects OB1 to OB3 is secured even if the wave object OB2 moves in the tilt direction. ..

なお、空オブジェクトOB4は、海オブジェクトOB3の奥側の端部から連続するように配置されている。当該空オブジェクトOB4は+Y方向に起立して配置されている。 The sky object OB4 is arranged so as to be continuous from the end on the back side of the sea object OB3. The empty object OB4 is arranged upright in the +Y direction.

各オブジェクトOB1〜OB4に対応させて、複数のテクスチャTD1〜TD4が設けられている。これら各テクスチャTD1〜TD4について図70を用いて説明する。図70は、各テクスチャTD1〜TD4を説明するための説明図である。なお、図面の関係上、各テクスチャTD1〜TD4のうち一部を示す。また、2点鎖線は投影領域を示す。 A plurality of textures TD1 to TD4 are provided corresponding to the objects OB1 to OB4. Each of these textures TD1 to TD4 will be described with reference to FIG. FIG. 70 is an explanatory diagram for explaining each of the textures TD1 to TD4. Note that some of the textures TD1 to TD4 are shown for the sake of drawing. The two-dot chain line indicates the projection area.

図70に示すように、各テクスチャTD1〜TD4は、各オブジェクトOB1〜OB4に対応させて矩形の画像データとして設定されている。各テクスチャTD1〜TD4には、それぞれ貼り付けられるオブジェクトに対応した画像が描かれており、具体的には、砂浜オブジェクトOB1に対応するテクスチャとして砂浜が描かれた砂浜テクスチャTD1が設けられており、波オブジェクトOB2に対応するテクスチャとして波が描かれた波テクスチャTD2が設けられており、海オブジェクトOB3に対応するテクスチャとして海が描かれた海テクスチャTD3が設けられており、空オブジェクトOB4に対応するテクスチャとして空が描かれた空テクスチャTD4が設けられている。 As shown in FIG. 70, the textures TD1 to TD4 are set as rectangular image data corresponding to the objects OB1 to OB4. An image corresponding to the object to be pasted is drawn on each of the textures TD1 to TD4, and specifically, a beach texture TD1 in which a beach is drawn is provided as a texture corresponding to the beach object OB1, A wave texture TD2 in which a wave is drawn is provided as a texture corresponding to the wave object OB2, and a sea texture TD3 in which a sea is drawn is provided as a texture corresponding to the sea object OB3, and corresponds to a sky object OB4. An empty texture TD4 in which the sky is drawn as a texture is provided.

ここで、各テクスチャTD1〜TD4は、特定視点PV1から各オブジェクトOB1〜OB3を見た場合に奥行き感のある砂浜背景画像となるように設定されている。具体的には、特定視点PV1から実際に見た場合の映像に対応したものであって、全体として所定のパースペクティブが掛かった(遠近感が生じる)画像データが各テクスチャTD1〜TD4として設定されている。この場合、各テクスチャTD1〜TD4は、各オブジェクトOB1〜OB4により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、特定視点PV1と各オブジェクトOB1〜OB4との距離に対応させて設定されている。これにより、各オブジェクトOB1〜OB4が連続して配置されている状況において特定視点PV1から各オブジェクトOB1〜OB4を透視投影した場合に、パースペクティブの整合性が取れた奥行き感のある砂浜背景画像が生成されることとなる。 Here, each of the textures TD1 to TD4 is set to be a sandy beach background image with a sense of depth when the objects OB1 to OB3 are viewed from the specific viewpoint PV1. Specifically, image data corresponding to an image when actually viewed from the specific viewpoint PV1 and having a predetermined perspective as a whole (having a perspective) is set as each texture TD1 to TD4. There is. In this case, the textures TD1 to TD4 are made to correspond to the distances between the specific viewpoint PV1 and the objects OB1 to OB4 so that the perspectives (perspectives) between the individual images displayed by the objects OB1 to OB4 are matched. Is set. As a result, when the objects OB1 to OB4 are perspectively projected from the specific viewpoint PV1 in a situation where the objects OB1 to OB4 are continuously arranged, a sandy beach background image with a sense of depth and perspective matching is generated. Will be done.

以上の通り、各オブジェクトOB1〜OB4を連続させながらスクリーン領域PC12(YZ平面)に対して傾けて配置するとともに、当該各オブジェクトOB1〜OB4に対して貼り付ける各テクスチャTD1〜TD4として、特定視点PV1から見た映像に対応したものであって、全体として所定のパースペクティブが掛かるように各個別画像間のパースペクティブの整合性を取った画像データを用いることにより、板ポリゴンを用いて奥行き感のある砂浜背景画像を作成することができる。これにより、比較的少ない処理負荷及びデータ量で、現実感のある画像を遊技者に対して視認させることができる。 As described above, the objects OB1 to OB4 are continuously arranged while being inclined with respect to the screen region PC12 (YZ plane), and the textures TD1 to TD4 to be attached to the objects OB1 to OB4 are the specific viewpoints PV1. The image data corresponds to the image viewed from the above, and by using the image data in which the perspectives of the individual images are consistent so that a predetermined perspective is applied as a whole, a sandy beach with a sense of depth using plate polygons is used. A background image can be created. This allows the player to visually recognize a realistic image with a relatively small processing load and data amount.

ちなみに、各個別画像に係るパースペクティブは、各テクスチャTD1〜TD4の画像データよりも、特定視点PV1及び各オブジェクトOB1〜OB4間の距離の方が支配的になっている。つまり、各個別画像に係るパースペクティブは、上記距離の変化に対して大きく変化する。 Incidentally, in the perspective of each individual image, the distance between the specific viewpoint PV1 and each of the objects OB1 to OB4 is more dominant than the image data of each of the textures TD1 to TD4. That is, the perspective associated with each individual image changes significantly with respect to the change in the distance.

次に、砂浜疾走演出について説明する。 Next, the beach sprint production will be described.

砂浜疾走演出とは、連続する複数フレームに亘って、複数の図柄画像が所定の方向に向けて砂浜を走っているように表示される演出である。この演出では、砂浜背景画像を表示するのに用いた各オブジェクトOB1〜OB4及び各テクスチャTD1〜TD4が用いられる。 The sandy beach dashing effect is an effect in which a plurality of symbol images are displayed as if they are running on the beach in a predetermined direction over a plurality of consecutive frames. In this presentation, the objects OB1 to OB4 and the textures TD1 to TD4 used to display the beach background image are used.

ここで、砂浜疾走演出で用いられる背景画像(以降、砂浜背景画像と区別するために演出用背景画像という)は、砂浜背景画像とは視点が異なっている。このため、特定視点PV1に基づいて決定された各テクスチャTD1〜TD4を用いると、パースペクティブの整合性が取れなくなり、違和感のある画像となってしまう。 Here, the background image used in the sand beach dash production (hereinafter referred to as a production background image to distinguish it from the sand beach background image) has a different viewpoint from the sand beach background image. For this reason, if the textures TD1 to TD4 determined based on the specific viewpoint PV1 are used, the perspectives cannot be matched with each other, resulting in an unnatural image.

当該現象について図71を用いて説明する。図71は、パースペクティブの変化を説明するための説明図である。なお、説明の便宜上、波オブジェクトOB2及び空オブジェクトOB4を省略し、砂浜オブジェクトOB1及び海オブジェクトOB3を連続させたもので説明する。 The phenomenon will be described with reference to FIG. FIG. 71 is an explanatory diagram for explaining a change in perspective. For convenience of explanation, the wave object OB2 and the sky object OB4 will be omitted, and the beach object OB1 and the sea object OB3 will be described in succession.

既に説明した通り、砂浜オブジェクトOB1及び海オブジェクトOB3はスクリーン領域PC12に対して傾斜しているため、特定視点PV1及び各オブジェクトOB1,OB3間の距離は、各オブジェクトOB1,OB3の部位に応じて異なっている。具体的には、特定視点PV1から砂浜オブジェクトOB1の手前側の端部までの距離R1、特定視点PV1から海オブジェクトOB3の手前側の端部までの距離R2、特定視点PV1から海オブジェクトOB3の奥側の端部までの距離R3、の順に大きくなっている(R1<R2<R3)。かかる状況において、特定視点PV1を視点として透視投影を行うことにより、各距離R1〜R3に応じたパースペクティブが掛かった画像が得られる。 As described above, since the beach object OB1 and the sea object OB3 are inclined with respect to the screen area PC12, the distance between the specific viewpoint PV1 and the objects OB1 and OB3 differs depending on the parts of the objects OB1 and OB3. ing. Specifically, the distance R1 from the specific viewpoint PV1 to the front end of the sandy beach object OB1, the distance R2 from the specific viewpoint PV1 to the front end of the sea object OB3, and the back of the specific viewpoint PV1 to the sea object OB3. The distance to the end portion on the side increases in the order of R3 (R1<R2<R3). In such a situation, perspective projection is performed with the specific viewpoint PV1 as a viewpoint, whereby an image with a perspective according to each of the distances R1 to R3 is obtained.

この場合、パースペクティブの掛かり具合は各距離R1〜R3の比率に依存している。具体的には、距離R1に対する距離R2の比率が高いほど砂浜オブジェクトOB1のパースペクティブはより掛かる。そして、距離R2に対する距離R3の比率が高いほど海オブジェクトOB3のパースペクティブはより掛かる。 In this case, the degree of perspective is dependent on the ratio of the distances R1 to R3. Specifically, the higher the ratio of the distance R2 to the distance R1, the higher the perspective of the beach object OB1. Then, the higher the ratio of the distance R3 to the distance R2 is, the higher the perspective of the sea object OB3 is.

また、砂浜オブジェクトOB1及び海オブジェクトOB3に対して貼り付けられる各テクスチャTD1、TD3は、各オブジェクトOB1,OB3(実際には波オブジェクトOB2も含む)により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、上記比率を考慮して設定されている。これにより、パースペクティブの整合性が取れた画像を表示させることが可能となっている。 Further, the textures TD1 and TD3 attached to the beach object OB1 and the sea object OB3 are the perspectives (distance perception) between the individual images displayed by the objects OB1 and OB3 (actually also including the wave object OB2). ) Is set in consideration of the above ratio. This makes it possible to display an image with a consistent perspective.

ここで、視点を特定視点PV1から−Y方向に移動させて別視点PV2に設定した場合、各距離R1〜R3がそれぞれ距離R1’〜R3’に変化し、上記比率が変化する。これにより、透視投影した場合のパースペクティブの掛かり具合が異なることとなる。すると、距離R1〜R3に合わせて設定された各テクスチャTD1,TD3を用いると、各オブジェクトOB1,OB3間におけるパースペクティブの整合性が取れなくなる。これにより、全体として違和感のある画像となる。 Here, when the viewpoint is moved from the specific viewpoint PV1 in the -Y direction to be set as the different viewpoint PV2, the distances R1 to R3 change to the distances R1' to R3', respectively, and the ratio changes. As a result, the perspective is different in perspective projection. Then, if the textures TD1 and TD3 set according to the distances R1 to R3 are used, the perspective consistency between the objects OB1 and OB3 cannot be obtained. As a result, the image becomes unnatural as a whole.

特に、各オブジェクトOB1,OB3を所定の方向に移動させて画像の更新を行う場合には、各オブジェクトOB1,OB3に係る画像のパースペクティブが異なることに起因する違和感が目立ち易い。具体的には、奥側に表示されている海が、手前側に表示されている砂浜よりも速く移動したりする。 In particular, when the images are updated by moving the objects OB1 and OB3 in a predetermined direction, discomfort due to the different perspectives of the images of the objects OB1 and OB3 is likely to be noticeable. Specifically, the sea displayed on the back side moves faster than the sand beach displayed on the front side.

また、視点から画角を変更すると、パースペクティブの掛かり具合が異なることとなるため、上記パースペクティブのずれが目立ち易くなる。 In addition, when the angle of view is changed from the viewpoint, the degree of perspective is different, and thus the perspective shift is more noticeable.

これに対して、本実施の形態では、演出用背景画像を作成する場合には、透視投影に代えて平行投影を行う構成とし、さらに奥行き方向の距離に応じて各オブジェクトOB1,OB3のサイズを調整する構成とした。これらの構成について図72を用いて説明する。図72は、演出用背景画像を作成する場合の各オブジェクトOB1,OB3の設定態様を説明するための説明図である。 On the other hand, in the present embodiment, when creating a production background image, parallel projection is used instead of perspective projection, and the sizes of the objects OB1 and OB3 are set according to the distance in the depth direction. The configuration is adjusted. These configurations will be described with reference to FIG. FIG. 72 is an explanatory diagram for describing a setting mode of each of the objects OB1 and OB3 when creating a background image for effect.

平行投影とは、既に説明した通り、各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に直線的に移動するように投影する手法である。当該平行投影を行う場合、視点からの距離に依存しない画像、すなわち遠近感がない画像が表示される。 As described above, the parallel projection is a method of projecting the vertices of each polygon of each object so as to move linearly perpendicularly to the screen area PC12. When the parallel projection is performed, an image that does not depend on the distance from the viewpoint, that is, an image that has no perspective is displayed.

具体的には、砂浜オブジェクトOB1及び海オブジェクトOB3を平行投影すると、スクリーン領域PC12には、海オブジェクトOB3が砂浜オブジェクトOB1よりも奥側にあるのにも関わらず、両者が視点からの距離に対応したサイズ調整がなされることなく表示される。これにより、両者の間に生じ得るパースペクティブのずれが軽減されることとなる。 Specifically, when the beach object OB1 and the sea object OB3 are projected in parallel, both of them correspond to the distance from the viewpoint even though the sea object OB3 is on the back side of the beach object OB1 in the screen area PC12. It is displayed without the adjusted size. This reduces the perspective shift that can occur between the two.

特に、各個別画像に係るパースペクティブは、各テクスチャTD1,TD3に係るパースペクティブよりも、視点及び各オブジェクトOB1,OB3間の距離に基づくパースペクティブの方が支配的となっているため、上記距離の変化に基づくパースペクティブのずれは目立ち易い。 In particular, the perspective based on the viewpoint and the distance between the objects OB1 and OB3 is more dominant than the perspective related to the textures TD1 and TD3 in the perspective related to each individual image. The shift of perspective based on it is easily noticeable.

これに対して、平行投影を行うことにより、上記距離に基づくパースペクティブ自体が付加されないため、パースペクティブのずれを軽減することが可能となる。 On the other hand, by performing the parallel projection, the perspective itself based on the above distance is not added, so that the shift of the perspective can be reduced.

なお、この場合、各テクスチャTD1,TD3に基づくパースペクティブは反映されるが、当該パースペクティブのずれは、上記距離に基づくパースペクティブのずれよりも目立ちにくい。このため、遊技者としては違和感を抱きにくい。 In this case, although the perspectives based on the textures TD1 and TD3 are reflected, the shift of the perspective is less noticeable than the shift of the perspective based on the distance. Therefore, it is difficult for the player to feel a sense of incongruity.

なお、各テクスチャTD1,TD3のパースペクティブをなくす処理を実行してもよい。これにより、よりパースペクティブの矛盾のない画像を遊技者に対して視認させることができる。 In addition, you may perform the process which eliminates the perspective of each texture TD1, TD3. This allows the player to visually recognize an image with more consistent perspective.

具体的には、例えば各テクスチャTD1,TD3において手前側にマッピングされる領域ほど横方向(X方向)に縮小させ、奥側にマッピングされる領域ほど横方向に拡大させる補正処理を実行するとよい。また、例えば各オブジェクトOB1,OB3を、手前側が長辺で奥側が短辺とする台形オブジェクトとし、当該台形オブジェクトに対してテクスチャをマッピングする構成としてもよい。 Specifically, for example, in each of the textures TD1 and TD3, it is preferable to perform a correction process in which the area mapped to the front side is reduced in the horizontal direction (X direction) and the area mapped to the back side is enlarged in the horizontal direction. Further, for example, each of the objects OB1 and OB3 may be a trapezoidal object having a long side on the front side and a short side on the back side, and a texture may be mapped to the trapezoidal object.

平行投影を行う場合、本来砂浜よりも遠くに存在するために、砂浜よりも小さく見えるはずの海がサイズ調整されることなく表示されるため、奥行き感のない画像となる。換言すれば、砂浜及び海間の大きさの比率が視点からの距離に対応していないため、奥行き感のない画像となる。 When performing parallel projection, since the sea that should originally appear to be smaller than the beach is displayed without being adjusted in size because it originally exists farther from the beach, the image does not have a sense of depth. In other words, the size ratio between the sandy beach and the sea does not correspond to the distance from the viewpoint, so the image has no sense of depth.

これに対して、上記比率が上記視点からの距離に対応するように各オブジェクトOB1,OB3の倍率が設定されている。具体的には、視点からの距離が大きくなるほど、各オブジェクトOB1,OB3の大きさが徐々に小さくなるように各オブジェクトOB1,OB3の大きさが設定されている。 On the other hand, the magnifications of the objects OB1 and OB3 are set such that the ratio corresponds to the distance from the viewpoint. Specifically, the sizes of the objects OB1 and OB3 are set such that the sizes of the objects OB1 and OB3 gradually decrease as the distance from the viewpoint increases.

より詳細に説明すると、変更された視点から砂浜オブジェクトOB1及び海オブジェクトOB3を透視投影すると、図72に示す領域Aにて砂浜オブジェクトOB1に係る画像である砂浜画像が表示される。そして、図72に示す領域Bにて海オブジェクトOB3に係る画像である海画像が表示される。上記各領域A,Bの大きさの比率は、視点からの距離に依存したものである。 More specifically, when the beach object OB1 and the sea object OB3 are perspective-projected from the changed viewpoint, a beach image which is an image of the beach object OB1 is displayed in the area A shown in FIG. Then, in a region B shown in FIG. 72, a sea image which is an image related to the sea object OB3 is displayed. The ratio of the sizes of the areas A and B depends on the distance from the viewpoint.

各オブジェクトOB1,OB3のサイズ及び座標(詳細にはY座標)は、平行投影された場合に当該各オブジェクトOB1,OB3に係る画像が表示される領域が上記各領域A,Bと同一となるように設定されている。これにより、擬似的に遠近感のある演出用背景画像が表示されることとなる。 The sizes and coordinates (specifically, Y coordinates) of the respective objects OB1 and OB3 are such that the area in which the image relating to the respective objects OB1 and OB3 is displayed is the same as the respective areas A and B when parallel projected. Is set to. As a result, an effect background image with a pseudo perspective is displayed.

なお、説明の便宜上、波オブジェクトOB2を省略した態様で説明したが、波オブジェクトOB2が設定されている状況についても同様である。 Although the wave object OB2 is omitted for convenience of explanation, the same applies to the situation where the wave object OB2 is set.

上記各画像表示に係る具体的な処理構成について以下に説明する。 A specific processing configuration relating to each image display will be described below.

先ず、砂浜背景用演算処理について図73のフローチャートを用いて説明する。当該砂浜背景用演算処理は、現状設定されているデータテーブルが砂浜背景画像の表示に対応したものである場合に、表示CPU131のタスク処理(図14)における背景用演算処理(ステップS903)にて実行される。 First, the beach background calculation process will be described with reference to the flowchart in FIG. 73. The beach background calculation process is performed by the background calculation process (step S903) in the task process (FIG. 14) of the display CPU 131 when the currently set data table corresponds to the display of the beach background image. Executed.

ステップS4201では、砂浜背景画像を表示するのに必要な各オブジェクトOB1〜OB4を把握する。 In step S4201, the objects OB1 to OB4 required to display the beach background image are grasped.

その後、ステップS4202にて、各オブジェクトOB1〜OB4の座標及び角度を更新する。具体的には、ワールド座標系に配置された場合に、各オブジェクトOB1〜OB4が奥行き方向(特定視点PV1から遠ざかる方向)に連続して並ぶように且つ空オブジェクトOB4を除く各オブジェクトOB1〜OB4がスクリーン領域PC12に対して所定の角度傾くように各座標を設定する。 Then, in step S4202, the coordinates and angles of the objects OB1 to OB4 are updated. Specifically, when the objects OB1 to OB4 are arranged in the world coordinate system, the objects OB1 to OB4 are arranged so as to be continuously arranged in the depth direction (direction away from the specific viewpoint PV1) and the objects OB1 to OB4 except the sky object OB4 are arranged. Each coordinate is set so as to be inclined at a predetermined angle with respect to the screen area PC12.

続くステップS4203では、各テクスチャのアドレス設定処理を実行する。具体的には、各オブジェクトOB1〜OB4に対して貼り付けられる各テクスチャTD1〜TD4のアドレスを設定する。その後、ステップS4204にてその他のパラメータを更新する演算処理を行う。 In the following step S4203, the address setting process of each texture is executed. Specifically, the addresses of the textures TD1 to TD4 attached to the objects OB1 to OB4 are set. Then, in step S4204, arithmetic processing for updating other parameters is performed.

続くステップS4205では、各オブジェクトOB1〜OB4を透視投影することを特定するための情報である透視投影指定情報を設定する。そして、ステップS4206にてその他の背景用オブジェクトを把握し、ステップS4207にて当該その他の背景用オブジェクトのパラメータの更新に係る演算処理を行い、本砂浜背景用演算処理を終了する。 In subsequent step S4205, perspective projection designation information that is information for specifying that each of the objects OB1 to OB4 is perspective projected is set. Then, in step S4206, the other background object is grasped, and in step S4207, the arithmetic processing for updating the parameter of the other background object is performed, and the main beach background arithmetic processing is ended.

かかる処理が行われた場合、その後に行われる描画リスト出力処理(ステップS806)では、描画対象として各オブジェクトOB1〜OB4が設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用される各種パラメータが設定された描画リストが作成される。また、描画リストには、透視投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1〜OB4を既に説明した通りの位置関係となるように各オブジェクトOB1〜OB4を配置し、透視投影を行う。これにより、遠近感のある画像が作成される。 When such processing is performed, in the rendering list output processing (step S806) performed thereafter, the objects OB1 to OB4 are set as the rendering targets, and various parameters applied to the objects OB1 to OB4. A drawing list in which is set is created. Further, perspective projection designation information is set in the drawing list. When the VDP 135 receives the drawing list, the VDP 135 arranges the objects OB1 to OB4 so that the objects OB1 to OB4 have the positional relationship as described above and performs perspective projection. As a result, an image with a sense of perspective is created.

次に、砂浜疾走演出の背景用演算処理について図74(a)のフローチャートを用いて説明する。砂浜疾走演出の背景用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、表示CPU131のタスク処理(図14)におけるステップS903の背景用演算処理にて実行される。 Next, the background calculation process of the beach running performance will be described with reference to the flowchart of FIG. The background calculation process of the beach running performance is executed by the background calculation process of step S903 in the task processing (FIG. 14) of the display CPU 131 when the currently set data table corresponds to the beach running performance. To be done.

先ずステップS4301では、現状設定されているデータテーブルに基づいて、砂浜疾走演出中であるか否かを判定する。 First, in step S4301, it is determined based on the currently set data table whether or not the beach sprint production is being performed.

砂浜疾走演出中でない場合には、ステップS4302に進み、砂浜疾走演出の開始タイミングであるか否かを判定する。 If the sandy beach dashing performance is not being performed, the process advances to step S4302 to determine whether it is the start timing of the sandy beach dashing production.

砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4303〜ステップS4308にて、演出用背景画像を描画するための初期設定処理を実行する。 If it is not the start timing of the beach running performance, the present calculation processing is ended as it is, while if it is the start timing of the beach running performance, in step S4303 to step S4308, the initial setting for drawing the background image for performance is performed. Execute the process.

具体的には、先ずステップS4303にて、各オブジェクトOB1〜OB4を把握する処理を実行する。 Specifically, first in step S4303, a process of grasping each of the objects OB1 to OB4 is executed.

そして、ステップS4304にて、各オブジェクトOB1〜OB4の座標を調整する処理を実行し、更にステップS4305にて、各オブジェクトOB1〜OB4に対して適用される倍率を調整する処理を実行する。具体的には、各オブジェクトOB1〜OB4に対して、演出用背景画像に対応した座標及び倍率を設定する。詳細には、各オブジェクトOB1〜OB4が平行投影された場合に、当該平行投影された領域が砂浜背景画像を表示させる場合の各オブジェクトOB1〜OB4の座標系において別視点PV2から透視投影を行った場合の投影領域と重なるように、各オブジェクトOB1〜OB4の座標及び倍率を設定する。 Then, in step S4304, the process of adjusting the coordinates of each of the objects OB1 to OB4 is executed, and in step S4305, the process of adjusting the magnification applied to each of the objects OB1 to OB4 is executed. Specifically, for each of the objects OB1 to OB4, the coordinates and magnification corresponding to the effect background image are set. Specifically, when the objects OB1 to OB4 are projected in parallel, perspective projection is performed from another viewpoint PV2 in the coordinate system of the objects OB1 to OB4 when the parallel projected area displays a beach background image. In this case, the coordinates and magnification of each of the objects OB1 to OB4 are set so as to overlap the projection area in this case.

その後、ステップS4306にて視点として別視点PV2を設定し、ステップS4307にて、その他のパラメータの初期設定に係る演算処理を実行する。そして、ステップS4308にて、平行投影指定情報を設定する。当該平行投影指定情報は、VDP135において各オブジェクトOB1〜OB4を平行投影するように指示するための情報である。 Then, in step S4306, another viewpoint PV2 is set as a viewpoint, and in step S4307, arithmetic processing related to initial setting of other parameters is executed. Then, in step S4308, parallel projection designation information is set. The parallel projection designation information is information for instructing the VDP 135 to project the objects OB1 to OB4 in parallel.

その後、ステップS4309にてその他の背景用オブジェクトを把握し、ステップS4310にて当該その他の背景用オブジェクトに対して適用される各種パラメータを更新に係る演算処理を実行して、本演算処理を終了する。 After that, in step S4309, other background objects are grasped, and in step S4310, arithmetic processing related to updating various parameters applied to the other background objects is executed, and this arithmetic processing ends. ..

かかる処理が行われた場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、描画対象として各オブジェクトOB1〜OB4が設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用される各種パラメータが設定される。当該各種パラメータは、各オブジェクトOB1〜OB4が平行投影される場合に対応したものである。 When such a process is performed, each of the objects OB1 to OB4 is set as a drawing target in the drawing list created in the subsequent drawing list output process (step S806), and the respective objects OB1 to OB4 are set. Various parameters to be applied are set. The various parameters correspond to the case where the objects OB1 to OB4 are projected in parallel.

また、上記描画リストには平行投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1〜OB4を把握し、各オブジェクトOB1〜OB4に対して平行投影に対応したパラメータを適用した状態で、別視点PV2を基準とする平行投影を行う。これにより、砂浜背景画像の視点(特定視点PV1)とは異なる視点(別視点PV2)から見た演出用背景画像が作成される。 Further, parallel projection designation information is set in the drawing list. When the VDP 135 receives the drawing list, the VDP 135 grasps each of the objects OB1 to OB4, applies the parameters corresponding to the parallel projection to each of the objects OB1 to OB4, and parallelizes them based on the different viewpoint PV2. Project. As a result, a production background image viewed from a viewpoint (different viewpoint PV2) different from the viewpoint (specific viewpoint PV1) of the beach background image is created.

砂浜疾走演出中である場合には、ステップS4311〜ステップS4314にて、演出用背景画像をスクロールするための処理を実行する。具体的には、先ずステップS4311にて、各オブジェクトOB1〜OB4を把握する。 When the sandy beach running production is being performed, in steps S4311 to S4314, processing for scrolling the production background image is executed. Specifically, first, in step S4311, the objects OB1 to OB4 are grasped.

続くステップS4312では、視点の位置を更新する処理を実行する。具体的には、現状設定されている視点から第1変位量だけ−X方向に変位させる処理を実行する。 In subsequent step S4312, a process of updating the position of the viewpoint is executed. Specifically, the process of displacing the first displacement amount in the −X direction from the currently set viewpoint is executed.

その後、ステップS4313にて、各オブジェクトOB1〜OB4に適用されるパラメータを更新する演算処理を実行する。具体的には、各オブジェクトOB1〜OB4を現状の座標から所定の変位量だけ−X方向に移動させる。当該所定の変位量は、−X方向への視点の変位量よりも小さい範囲内で、各オブジェクトOB1〜OB4と視点との距離に応じて設定されている。 After that, in step S4313, a calculation process for updating the parameters applied to each of the objects OB1 to OB4 is executed. Specifically, each of the objects OB1 to OB4 is moved from the current coordinates in the −X direction by a predetermined displacement amount. The predetermined displacement amount is set according to the distance between each of the objects OB1 to OB4 and the viewpoint within a range smaller than the displacement amount of the viewpoint in the −X direction.

具体的には、図74(b)の説明図に示すように、視点と各オブジェクトOB1〜OB4とのZ方向の距離が大きくなるほど、視点に対する各オブジェクトOB1〜OB4の相対速度が小さくなるように、各オブジェクトOB1〜OB4の変位量が設定されている。詳細には、視点と各オブジェクトOB1〜OB4のZ方向の距離との距離が大きくなるほど、各オブジェクトOB1〜OB4の変位量と第1変位量との差分が小さくなるように各オブジェクトOB1〜OB4の変位量が設定されている。これにより、視点に対して手前側に配置されているオブジェクトほど+X方向に速く移動するように見え、視点に対して奥側に配置されているオブジェクトほど+X方向に遅く移動するように見える。よって、擬似的な遠近感を表現することができる。 Specifically, as shown in the explanatory view of FIG. 74(b), the larger the distance between the viewpoint and the objects OB1 to OB4 in the Z direction, the smaller the relative speed of the objects OB1 to OB4 with respect to the viewpoint. , The displacement amounts of the objects OB1 to OB4 are set. Specifically, as the distance between the viewpoint and the distance in the Z direction of each of the objects OB1 to OB4 increases, the difference between the displacement amount of each of the objects OB1 to OB4 and the first displacement amount decreases. The displacement amount is set. As a result, it appears that an object located closer to the viewpoint moves faster in the +X direction, and an object located farther from the viewpoint moves slower in the +X direction. Therefore, a pseudo perspective can be expressed.

また、波オブジェクトOB2については、−X方向への変位だけでなく、Y座標及びZ座標についても座標を更新する処理を実行する。具体的には、図69(b)に示すように、波オブジェクトOB2を、傾斜角度を維持した状態で手前側に進むようにY座標及びZ座標を設定する。これにより、波が手前側に打ち寄せてくる様子を表現することができる。 Further, with respect to the wave object OB2, not only the displacement in the −X direction, but also the process of updating the coordinates of the Y coordinate and the Z coordinate is executed. Specifically, as shown in FIG. 69(b), the Y coordinate and the Z coordinate are set so that the wave object OB2 moves to the near side while maintaining the inclination angle. With this, it is possible to express how the waves are coming to the front side.

すなわち、砂浜オブジェクトOB1に対して波オブジェクトOB2を、視点から見て重なり合うように(詳細にはZ方向にずらして)配置し、当該波オブジェクトOB2を砂浜オブジェクトOB1に対して相対的に変位させることにより、砂浜に対して重なるように波が表示されることとなる。 That is, the wave object OB2 is arranged with respect to the sand beach object OB1 so as to overlap with each other when viewed from the viewpoint (specifically, shifted in the Z direction), and the wave object OB2 is relatively displaced with respect to the sand beach object OB1. Will cause waves to be displayed so as to overlap the beach.

そして、波オブジェクトOB2の初期位置からの変位量が予め特定量となった場合には、座標を維持するとともに、波オブジェクトOB2が徐々に消えていくように一律α値を更新する処理を実行する。そして、一律α値が所定の値(例えば完全透過のα値)となったことに基づいて、再度波オブジェクトOB2を初期位置に配置して一連の処理を実行する。これにより、波が打ち寄せて消えていく様子を繰り返し見せることができ、リアルな波を実現することができる。 Then, when the displacement amount of the wave object OB2 from the initial position reaches a specific amount in advance, a process of maintaining the coordinates and updating the uniform α value so that the wave object OB2 gradually disappears is executed. .. Then, based on the fact that the uniform α value becomes a predetermined value (for example, the α value of perfect transmission), the wave object OB2 is again arranged at the initial position and a series of processing is executed. As a result, it is possible to repeatedly show how the waves hit and disappear, and it is possible to realize a realistic wave.

その後、ステップS4314にて平行投影指定情報を設定し、ステップS4309及びステップS4310の処理を実行して、本演算処理を終了する。 After that, parallel projection designation information is set in step S4314, the processes of steps S4309 and S4310 are executed, and the present calculation process is terminated.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、背景用画像を表示するのに必要な各オブジェクトOB1〜OB4が描画対象として設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用されるパラメータ情報が設定される。当該各種パラメータには、視点が−X方向に移動するよう設定されているとともに、視点と各オブジェクトOB1〜OB4との距離が大きくなるに従って当該視点に対する相対速度が小さくなるように各オブジェクトOB1〜OB4の座標の変位量が設定されている。これにより、演出用背景画像が+X方向にスクロールするように表示されることとなる。 When such a process is executed, each of the objects OB1 to OB4 necessary for displaying the background image is set as a drawing target in the drawing list created by the subsequent drawing list output process, and Parameter information applied to the objects OB1 to OB4 is set. The various parameters are set so that the viewpoint moves in the -X direction, and the objects OB1 to OB4 are arranged so that the relative speed to the viewpoint becomes smaller as the distance between the viewpoint and the objects OB1 to OB4 becomes larger. The amount of displacement of the coordinates of is set. As a result, the effect background image is displayed so as to scroll in the +X direction.

なお、視点が移動することにより、投影対象となる領域が各オブジェクトOB1〜OB4の端側の領域にとなった場合には、現状投影対象となっている各オブジェクトOB1〜OB4に対して視点の進行方向の先側に同一の各オブジェクトOB1〜OB4を連続して設定するように構成されている。これにより、視点が各オブジェクトOB1〜OB4よりも速い速度で移動することに起因して演出用背景画像が途切れてしまう不都合を回避することができる。 In addition, when the area to be projected becomes an area on the end side of each of the objects OB1 to OB4 due to the movement of the viewpoint, the viewpoint of each of the objects OB1 to OB4 currently being projected is changed. The same objects OB1 to OB4 are continuously set on the front side in the traveling direction. As a result, it is possible to avoid the inconvenience that the effect background image is interrupted due to the viewpoint moving at a speed faster than the objects OB1 to OB4.

また、各テクスチャTD1〜TD4における視点の移動方向に対応した両端部、具体的にはX方向の両端部は、描かれた模様が連続するように設定されているとよい。これにより、オブジェクトの切れ目が把握されにくいため、遊技者に対して違和感を与えにくい。 Further, both ends of each of the textures TD1 to TD4 corresponding to the moving direction of the viewpoint, specifically, both ends in the X direction may be set so that the drawn patterns are continuous. As a result, the break of the object is hard to be grasped, and it is difficult for the player to feel uncomfortable.

次に、砂浜疾走演出の演出用演算処理について図75のフローチャートを用いて説明する。砂浜疾走演出の演出用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、タスク処理(図14)における演出用演算処理(ステップS904)にて実行される処理である。 Next, description will be made regarding the calculation processing for effect of the beach running effect using the flowchart of FIG. When the currently set data table corresponds to the beach running performance, the production processing for the beach running performance is executed in the production processing (step S904) in the task process (FIG. 14). Processing.

先ず、ステップS4401では、現状設定されているデータテーブルに基づいて砂浜疾走演出中であるか否かを判定する。 First, in step S4401, it is determined based on the currently set data table whether or not the beach sprint performance is being performed.

砂浜疾走演出中でない場合には、ステップS4402に進み、現状設定されているデータテーブルに基づいて砂浜疾走演出の開始タイミングであるか否かを判定する。 If the beach running performance is not in progress, the process advances to step S4402 to determine whether it is the start timing of the beach running performance based on the currently set data table.

砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4403に進み、疾走対象の図柄オブジェクトを把握する。そして、ステップS4404にて当該図柄オブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、図柄オブジェクトが平行投影された場合に、当該図柄オブジェクトに係る画像が砂浜画像に重なるように図柄オブジェクトの座標を設定する。詳細には、砂浜オブジェクトOB1とスクリーン領域PC12との間に図柄オブジェクトを配置する。 If it is not the start timing of the sandy beach dashing effect, the present calculation processing is ended as it is, while if it is the start timing of the sandy beach dashing effect, the flow proceeds to step S4403 to grasp the symbol object of the dashing target. Then, in step S4404, arithmetic processing relating to the initial setting of various parameter information applied to the symbol object is executed. In this case, when the symbol object is projected in parallel, the coordinates of the symbol object are set so that the image relating to the symbol object overlaps the beach image. In detail, a pattern object is arranged between the beach object OB1 and the screen area PC12.

その後、ステップS4405にて、今回の描画対象となる教示用のオブジェクトを把握する。教示用のオブジェクトは、既に説明した通り、遊技状況を遊技者に教示可能となる画像を表示する場合に利用されるオブジェクトであり、詳細には現状のラウンドが何番目のラウンドであるかを教示するためのオブジェクトと、開閉実行モードが連続して行われた回数を示すためのオブジェクトと、が設定されている。ステップS4405では、これらの教示用のオブジェクトを把握する。 Then, in step S4405, the teaching object to be drawn this time is grasped. As described above, the teaching object is an object used when displaying an image that allows the player to teach the player the game situation, and specifically teaches what round the current round is. The object for performing the open/close operation and the object for indicating the number of times the open/close execution mode is continuously performed are set. In step S4405, these teaching objects are grasped.

そして、ステップS4406にて上記教示用のオブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、教示用のオブジェクトが演出用背景画像の生成に用いられる各オブジェクトOB1〜OB4よりも視点側に配置されるように当該教示用のオブジェクトの座標を設定する。そして、本演算処理を終了する。 Then, in step S4406, arithmetic processing relating to the initial setting of various parameter information applied to the teaching object is executed. In this case, the coordinates of the teaching object are set so that the teaching object is located closer to the viewpoint than the objects OB1 to OB4 used to generate the effect background image. Then, this calculation processing is ended.

かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、図柄オブジェクト及び教示用のオブジェクトが描画対象として設定されるとともに、これらのオブジェクトに対して適用されるパラメータが設定される。これらのオブジェクトは演出用背景画像の生成に用いられる各オブジェクトOB1〜OB4よりも視点側に配置されるようになっている。これにより、上記各オブジェクトに対して平行投影が行われることにより、演出用背景画像に対して重なるようにして図柄画像及び教示用画像が表示されることとなる。 When such processing is executed, the design object and the teaching object are set as the drawing targets in the drawing list created in the subsequent drawing list output processing (step S806), and The applicable parameters are set. These objects are arranged closer to the viewpoint than the objects OB1 to OB4 used to generate the background image for production. As a result, the parallel projection is performed on each of the objects, so that the design image and the teaching image are displayed so as to overlap with the effect background image.

砂浜疾走演出中である場合には、ステップS4407にて疾走対象の図柄オブジェクトを把握する処理を実行する。そして、ステップS4408にて図柄オブジェクトに適用されるパラメータを更新する演算処理を実行する。具体的には、−X方向の視点の移動に伴って図柄オブジェクトが移動するように図柄オブジェクトの座標を更新する。この場合、視点の変位量と図柄オブジェクトの変位量とを同一に設定する。これにより、視点の移動と図柄オブジェクトの移動とを同期させることができ、図柄画像の移動に伴って視点が追従していくように見せることができる。 If the sandy beach dash production is being performed, a process of grasping the symbol object of the dashing target is executed in step S4407. Then, in step S4408, a calculation process for updating the parameters applied to the symbol object is executed. Specifically, the coordinates of the symbol object are updated so that the symbol object moves along with the movement of the viewpoint in the −X direction. In this case, the displacement amount of the viewpoint and the displacement amount of the symbol object are set to be the same. As a result, the movement of the viewpoint and the movement of the symbol object can be synchronized, and the viewpoint can be made to follow the movement of the symbol image.

続くステップS4409及びステップS4410では、視点の移動に伴う教示用のオブジェクトの更新処理を実行する。具体的には、先ずステップS4409にて教示用のオブジェクトを把握する。そして、ステップS4410にて、教示用のオブジェクトに適用されるパラメータを更新する演算処理実行する。詳細には、−X方向の視点の移動に伴って教示用のオブジェクトが移動するように当該教示用のオブジェクトの座標を更新する。この場合、視点の変位量と教示用のオブジェクトの変位量とを同一に設定する。これにより、視点の移動と教示用のオブジェクトの移動とを同期させることができ、教示用画像を常に表示させることが可能となる。 In subsequent steps S4409 and S4410, the updating process of the teaching object accompanying the movement of the viewpoint is executed. Specifically, first, in step S4409, the teaching object is grasped. Then, in step S4410, arithmetic processing for updating the parameters applied to the teaching object is executed. Specifically, the coordinates of the teaching object are updated so that the teaching object moves along with the movement of the viewpoint in the −X direction. In this case, the displacement amount of the viewpoint and the displacement amount of the teaching object are set to be the same. As a result, the movement of the viewpoint and the movement of the teaching object can be synchronized, and the teaching image can be constantly displayed.

なお、上記処理では、便宜上、ステップS4403〜ステップS4406の処理と、ステップS4407〜ステップS4410の処理と、を分けて表示したが、これに限られず、これらの処理を共通化してもよい。この場合、データテーブル上に各更新タイミングにおいて設定すべき画像データを予め設定しておき、更新タイミングとなる度に、当該更新タイミングに対応した上記各種画像データを適宜読み出し、描画に係る設定処理を行う構成とすればよい。 In the above process, for convenience, the processes of steps S4403 to S4406 and the processes of steps S4407 to S4410 are displayed separately, but the process is not limited to this, and these processes may be shared. In this case, the image data to be set at each update timing is set in advance on the data table, and each time the update timing is reached, the various image data corresponding to the update timing is appropriately read out and the setting process related to drawing is performed. The configuration may be performed.

次に、砂浜背景画像及び砂浜疾走演出の様子について図76を用いて説明する。図76(a)は砂浜背景画像が表示された表示面Gを示す説明図、図76(b)は砂浜疾走演出の様子を説明するための説明図である。 Next, the state of the beach background image and the beach sprint production will be described with reference to FIG. FIG. 76(a) is an explanatory diagram showing the display surface G on which the beach background image is displayed, and FIG. 76(b) is an explanatory diagram for explaining the state of the beach sprinting effect.

図76(a)に示すように、砂浜背景画像BP10には、手前側から順に、第1砂画像BP11、第1波画像BP12、第1海画像BP13、第1空画像BP14が表示されている。砂浜背景画像BP10は、遠近感のある画像であり、具体的には例えば第1海画像BP13においては奥側(水平線)に近づくに従って波の間隔及び波の幅が小さくなるようになっている。 As shown in FIG. 76(a), in the beach background image BP10, a first sand image BP11, a first wave image BP12, a first sea image BP13, and a first sky image BP14 are displayed in order from the front side. .. The beach background image BP10 is an image with a perspective, and specifically, for example, in the first sea image BP13, the wave interval and the wave width become smaller toward the back side (horizontal line).

砂浜疾走演出では、図76(b)に示すように、手前側から順に、第2砂画像BP21、第2波画像BP22、第2海画像BP23、第2空画像BP24が表示された画像であって砂浜背景画像BP10とは視点が異なる演出用背景画像BP20が表示される。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に小さく表示されるため、遠近感のある画像となっている。 In the beach running performance, as shown in FIG. 76(b), the second sand image BP21, the second wave image BP22, the second sea image BP23, and the second sky image BP24 are displayed in this order from the front side. An effect background image BP20 having a different viewpoint from the beach background image BP10 is displayed. In this case, the second sand image BP21→the second wave image BP22→the second sea image BP23→the second aerial image BP24 are displayed in the order of decreasing size, so that the image has a perspective.

そして、演出用背景画像BP20に対して重なるように図柄画像CP1〜CP3及び教示用画像CP4,CP5が表示される。そして、演出用背景画像BP20が+X方向に対応する方向である右方向に移動することにより、当該図柄画像CP1〜CP3が−X方向に対応する方向である左方向に向けて移動するように見える。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に、移動速度は遅くなっている。これにより、奥側(視点から遠く)にあるものほどゆっくり移動するように見え、遠近感が生じている。 Then, the pattern images CP1 to CP3 and the teaching images CP4 and CP5 are displayed so as to overlap the production background image BP20. Then, by moving the production background image BP20 in the right direction, which is the direction corresponding to the +X direction, the symbol images CP1 to CP3 appear to move toward the left direction, which is the direction corresponding to the −X direction. .. In this case, the moving speed becomes slower in the order of the second sand image BP21→the second wave image BP22→the second sea image BP23→the second sky image BP24. As a result, objects on the far side (farther from the viewpoint) seem to move more slowly, which creates a sense of perspective.

以上の通り、各オブジェクトOB1〜OB4を奥行き方向に並べて配置するとともに、各オブジェクトOB1〜OB4に対して貼り付けるテクスチャとして、特定視点PV1から見た場合の画像に対応したものを用意し、これらを透視投影することにより砂浜背景画像BP10を表示させる構成において、特定視点PV1とは異なる別視点PV2に基づく演出用背景画像BP20を表示させる場合には各オブジェクトOB1〜OB4を平行投影する構成とした。これにより、用いるテクスチャの共通化を図りつつ、視点の変更に伴うパースペクティブの整合性のずれを抑制することができる。よって、テクスチャの共通化を図ることができる点でデータ量の削減を図ることができる。 As described above, the objects OB1 to OB4 are arranged side by side in the depth direction, and as the textures to be attached to the objects OB1 to OB4, those corresponding to the image when viewed from the specific viewpoint PV1 are prepared, and these are prepared. In the configuration in which the beach background image BP10 is displayed by perspective projection, the objects OB1 to OB4 are projected in parallel when the effect background image BP20 based on the different viewpoint PV2 different from the specific viewpoint PV1 is displayed. As a result, it is possible to suppress the shift in perspective consistency due to the change in viewpoint while making the textures used in common. Therefore, the amount of data can be reduced in that the textures can be shared.

特に、比較的簡素なオブジェクトである板ポリゴンで構成された各オブジェクトOB1〜OB4を投影平面に対して傾斜して配置し、これら各オブジェクトOB1〜OB4を透視投影することにより、比較的少ない処理負荷でパースペクティブが掛かった砂浜背景画像BP10を生成することができる。一方、視点が異なると、透視投影に基づくパースペクティブの掛かり具合のずれが目立ち易くなる。 Particularly, by arranging the objects OB1 to OB4, which are plate polygons, which are relatively simple objects, with an inclination with respect to the projection plane and performing perspective projection of these objects OB1 to OB4, a relatively small processing load is achieved. It is possible to generate a beach background image BP10 with a perspective. On the other hand, if the viewpoints are different, the deviation of the perspective degree based on the perspective projection becomes more noticeable.

これに対して、視点が異なる演出用背景画像BP20を生成する場合には、パースペクティブを生じさせない平行投影を行うことにより、上記ずれの発生を抑制することができる。 On the other hand, when the production background image BP20 having different viewpoints is generated, the deviation can be suppressed by performing the parallel projection without generating the perspective.

この場合、視点と各オブジェクトOB1〜OB4との距離が大きくなるほど、各オブジェクトOB1〜OB4の倍率を小さくするとともに、視点に対する各オブジェクトOB1〜OB4の相対移動速度を小さくする構成とした。これにより、平行投影により得られる画像を遠近感のある画像に見せることができる。 In this case, the larger the distance between the viewpoint and each of the objects OB1 to OB4, the smaller the magnification of each of the objects OB1 to OB4 and the smaller the relative moving speed of each of the objects OB1 to OB4 with respect to the viewpoint. As a result, the image obtained by parallel projection can be viewed as an image with perspective.

なお、上記構成では、各オブジェクトOB1〜OB4は板状ポリゴンであったが、これに限られず、例えば各オブジェクトOB1〜OB4のいずれかを、表示対象となる画像に対応させて設定された3次元の特定オブジェクトとして構成してもよい。この場合、当該特定オブジェクトに対応させてテクスチャを設け、当該テクスチャを上記特定オブジェクトに貼り付ける構成とする。これにより、上記特定オブジェクトに係る画像については視点の変化に対応することができる一方、他のオブジェクトについては視点の変化に対応することができず、パースペクティブの整合性が取れなくなる事態が生じ得る。これに対して、視点が変化した場合には平行投影を行うことにより、両者のずれを軽減することができる。 In the above configuration, each of the objects OB1 to OB4 is a plate-shaped polygon, but the present invention is not limited to this. For example, any of the objects OB1 to OB4 is a three-dimensional object set corresponding to an image to be displayed. It may be configured as a specific object of. In this case, a texture is provided corresponding to the specific object, and the texture is attached to the specific object. As a result, a change in the viewpoint can be dealt with for the image related to the specific object, but a change in the viewpoint cannot be dealt with for the other objects, which may cause a situation in which perspective consistency cannot be obtained. On the other hand, when the viewpoint changes, parallel projection is performed to reduce the shift between the two.

また、上記構成では、別視点PV2は特定視点PV1を−Y方向に移動した位置としたが、これに限られず、例えばZ方向にずらした位置にしてもよく、任意である。 Further, in the above-mentioned configuration, the different viewpoint PV2 is a position obtained by moving the specific viewpoint PV1 in the −Y direction, but the present invention is not limited to this, and may be a position shifted in the Z direction, for example, and is arbitrary.

また、各オブジェクトOB1〜OB4に係る画像間のパースペクティブの整合性について説明したが、これに限られず、例えば最背面画像等の2次元画像データに係る画像と、1のオブジェクトに係る画像との整合性についても同様である。つまり、1のオブジェクトと2次元画像データとを組み合わせて1の画像を表示させる場合にも視点の変化に伴う透視投影と平行投影との切換を適用することができる。 Further, although the matching of perspectives between the images of the objects OB1 to OB4 has been described, the invention is not limited to this. For example, the matching of an image of two-dimensional image data such as a backmost image and an image of one object. The same applies to sex. That is, even when one object and two-dimensional image data are combined to display one image, switching between perspective projection and parallel projection due to a change in viewpoint can be applied.

上記構成では、砂浜背景画像BP10を表示するのに用いられるテクスチャを、演出用背景画像BP20を表示するのに用いる構成としたが、これに限られず、所定の画像を表示するのに用いられるテクスチャを、上記所定の画像とは視点が異なる画像を表示するのに用いる構成であればよく、具体的な表示内容については任意である。 In the above configuration, the texture used to display the beach background image BP10 is used to display the production background image BP20, but the present invention is not limited to this, and the texture used to display a predetermined image. May be any configuration as long as it is used to display an image having a different viewpoint from the predetermined image, and the specific display content is arbitrary.

また、上記構成では、視点を−X方向に移動させる構成としたが、これに限られず、移動させない構成としてもよい。この場合、各オブジェクトOB1〜OB4を+X方向に移動させる構成とし、その移動量を視点からの距離に応じて異ならせる構成とするとよい。また、視点の移動方向は−X方向としたが、これに限られず、任意である。 Further, in the above-mentioned configuration, the viewpoint is moved in the −X direction, but the invention is not limited to this, and the viewpoint may not be moved. In this case, each object OB1 to OB4 may be moved in the +X direction, and the amount of movement may be changed according to the distance from the viewpoint. Although the moving direction of the viewpoint is the −X direction, the moving direction is not limited to this and may be any direction.

上記構成では、各オブジェクトOB1〜OB4を平行投影した場合の領域が、各オブジェクトOB1〜OB4を透視投影した場合の領域と重なるように、各オブジェクトOB1〜OB4の座標及び倍率を設定したが、これに限られない。要は、別視点PV2に対応した画像であって遠近感が生じるように各オブジェクトOB1〜OB4の座標及び倍率を調整する構成であればよい。 In the above configuration, the coordinates and magnification of each object OB1 to OB4 are set so that the area when each object OB1 to OB4 is projected in parallel overlaps the area when each object OB1 to OB4 is perspectively projected. Not limited to The point is that the coordinates and magnification of each of the objects OB1 to OB4 may be adjusted so that a perspective image is generated in the image corresponding to the different viewpoint PV2.

さらに、演出用背景画像BP20を表示させる場合に、各オブジェクトOB1〜OB3の傾斜角度を、砂浜背景画像BP10を表示させる場合の傾斜角度から変更する構成としてもよく、各オブジェクトOB1〜OB3の傾斜角度を個別に変更してもよい。 Further, when the effect background image BP20 is displayed, the inclination angle of each of the objects OB1 to OB3 may be changed from the inclination angle when the beach background image BP10 is displayed, and the inclination angle of each of the objects OB1 to OB3. May be changed individually.

また、砂浜疾走演出にて描画対象となる教示用のオブジェクト及び図柄オブジェクトに対する投影パターンとしては、平行投影及び透視投影どちらでもよい。平行投影を行う場合には図柄画像CP1〜CP3及び教示用画像CP4,CP5を見易く表示させることができる一方、透視投影を行う場合には上記各画像CP1〜CP5を立体的に表示させることができる。 Further, the projection pattern for the teaching object and the pattern object, which are the drawing targets in the sandy beach dash production, may be either parallel projection or perspective projection. When the parallel projection is performed, the symbol images CP1 to CP3 and the teaching images CP4 and CP5 can be easily displayed, while when the perspective projection is performed, the images CP1 to CP5 can be stereoscopically displayed. ..

また、教示用のオブジェクトの投影パターンを平行投影に設定し、図柄オブジェクトの投影パターンを透視投影にする構成としてもよい。この場合、教示用画像CP4,CP5を見易く表示させつつ、砂浜疾走演出に係る図柄画像CP1〜CP3を立体的に表示させることができる。 Further, the projection pattern of the teaching object may be set to parallel projection, and the projection pattern of the pattern object may be perspective projection. In this case, it is possible to stereoscopically display the pattern images CP1 to CP3 relating to the sandy beach dashing effect while displaying the teaching images CP4 and CP5 in an easy-to-see manner.

<第2の実施形態>
本実施の形態では、表示演出として歪み演出及び瞬き演出を行うための構成を備えている。そして、歪み演出に合わせて描画処理が第1の実施形態と異なっている。以下に、各演出を行うための構成について説明する。なお、第1の実施形態と同様の構成については説明を省略する。
<Second Embodiment>
The present embodiment has a configuration for performing a distortion effect and a blink effect as display effects. The drawing process differs from that of the first embodiment in accordance with the distortion effect. The configuration for performing each effect will be described below. Note that the description of the same configuration as the first embodiment will be omitted.

<歪み演出を行うための構成について>
歪み演出を行うための構成について説明する。
<Regarding the configuration for producing distortion>
A configuration for performing the distortion effect will be described.

歪み演出は、図柄の変動表示が行われる場合に背景画像の一部が歪む演出である。具体的には、背景画像として水中の様子が描かれた画像が表示されている状況において特定方向にスクロールする図柄の変動表示が開始される場合に、背景画像の一部の領域、詳細には図柄に対して当該図柄の進行方向とは逆側の領域が歪むように表示される。これにより、遊技者としては、当該歪みを、図柄がスクロールを開始することにより形成された流れに起因する光の屈折として認識することが想定される。よって、水中での図柄のスクロールをリアルに認識させることができる。 The distortion effect is an effect in which a part of the background image is distorted when the variable display of the symbols is performed. Specifically, when a variable display of a symbol that scrolls in a specific direction is started in a situation where an image depicting an underwater state is displayed as a background image, a partial area of the background image, specifically, The area opposite to the traveling direction of the symbol is distorted with respect to the symbol. As a result, it is assumed that the player recognizes the distortion as refraction of light due to the flow formed when the pattern starts scrolling. Therefore, the scroll of the symbol in the water can be recognized in a realistic manner.

当該歪み演出で用いられる構成について図77を用いて説明する。図77(a)は屈折用オブジェクトOB10を示す説明図、図77(b)及び図77(c)は屈折用オブジェクトOB10を変形させた様子を説明するための説明図、図77(d)は屈折用オブジェクトOB10に対して適用される屈折用αデータSKD1を説明するための説明図である。 The configuration used in the distortion effect will be described with reference to FIG. 77. 77(a) is an explanatory diagram showing the refraction object OB10, FIGS. 77(b) and 77(c) are explanatory diagrams for explaining a state in which the refraction object OB10 is deformed, and FIG. 77(d) is. It is an explanatory view for explaining alpha data SKD1 for refraction applied to refraction object OB10.

図77(a)に示すように、屈折用オブジェクトOB10は矩形状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向(詳細にはローカル座標系でのZ方向)への凹凸のない平面状に構成された低精彩の画像データである。 As shown in FIG. 77(a), the refraction object OB10 is composed of a rectangular plate polygon. A plate polygon can be called an object having a small number of polygons, and is low-definition image data configured in a plane shape without unevenness in the three-dimensional direction (specifically, the Z direction in the local coordinate system).

屈折用オブジェクトOB10の形状(サイズ)は、歪みを発生させたい歪み領域PE1に対応させて設定されており、具体的には、視野座標系への変換処理を行った場合に歪み領域PE1を覆うことができるように設定されている。詳細には、屈折用オブジェクトOB10の形状は、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように設定されている。このため、屈折用オブジェクトOB10を歪み領域PE1に対して重なるように配置された状態で平行投影が行われた場合には、歪み領域PE1に対して屈折用オブジェクトOB10に係る画像が表示されることとなる。 The shape (size) of the refraction object OB10 is set so as to correspond to the strain region PE1 in which the strain is desired to be generated, and specifically, the strain region PE1 is covered when the conversion processing to the visual field coordinate system is performed. Is set to be able. Specifically, the shape of the refraction object OB10 is set such that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1. Therefore, when parallel projection is performed in a state where the refraction object OB10 is arranged so as to overlap the distortion region PE1, an image of the refraction object OB10 is displayed on the distortion region PE1. Becomes

屈折用オブジェクトOB10には、格子状に頂点座標が設定されている。当該頂点座標には、ローカル3次元座標が設定されており、各頂点座標のZ座標(奥行き方向の座標)は同一に設定されている。 In the refraction object OB10, the vertex coordinates are set in a grid pattern. Local three-dimensional coordinates are set to the vertex coordinates, and the Z coordinates (coordinates in the depth direction) of each vertex coordinate are set to be the same.

屈折用オブジェクトOB10の頂点座標は歪み領域PE1に対応させて設定されており、具体的には屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標によって形成される領域が歪み領域PE1と略同一となるように設定されている。 The vertex coordinates of the refraction object OB10 are set corresponding to the distortion region PE1, and specifically, the region formed by the vertex coordinates other than the vertex coordinates forming the outer edge of the refraction object OB10 is the distortion region PE1. It is set to be substantially the same.

上記屈折用オブジェクトOB10は変形可能に構成されている。具体的には、屈折用オブジェクトOB10の各頂点座標のZ座標はそれぞれ個別に変位可能となっており、当該Z座標が変位することにより屈折用オブジェクトOB10は歪むようになっている。 The refraction object OB10 is configured to be deformable. Specifically, the Z coordinate of each vertex coordinate of the refraction object OB10 can be individually displaced, and the displacement of the Z coordinate causes the refraction object OB10 to be distorted.

屈折用オブジェクトOB10の変形形態について詳細に説明する。本実施の形態では、屈折用オブジェクトOB10の変形形態は複数種類設定されている。当該複数種類の変形形態のうちの第1変形形態の屈折用オブジェクトOB10と、第2変形形態の屈折用オブジェクトOB10とについて図77(b)及び図77(c)を用いて説明する。図77(b)は第1変形形態の屈折用オブジェクトOB10を説明するための説明図、図77(c)は第2変形形態の屈折用オブジェクトOB10を説明するための説明図である。なお、説明の便宜上、以降の説明において、第1変形形態の屈折用オブジェクトOB10を単に第1変形形態OB10aと、第2変形形態の屈折用オブジェクトOB10を単に第2変形形態OB10bという。 A modification of the refraction object OB10 will be described in detail. In the present embodiment, plural types of deformation modes of the refraction object OB10 are set. The refraction object OB10 of the first modification and the refraction object OB10 of the second modification of the plurality of kinds of modifications will be described with reference to FIGS. 77(b) and 77(c). 77(b) is an explanatory diagram for explaining the refraction object OB10 of the first modification, and FIG. 77(c) is an explanatory diagram for explaining the refraction object OB10 of the second modification. For convenience of description, in the following description, the refraction object OB10 of the first modification is simply referred to as a first modification OB10a, and the refraction object OB10 of the second modification is simply referred to as a second modification OB10b.

図77(b)及び図77(c)に示すように、各変形形態OB10a,OB10bは、テクスチャが貼り付けられる板面に凹凸が形成されるように変形している。具体的には、各変形形態OB10a,OB10bは、屈折用オブジェクトOB10の外縁部を構成する頂点座標のZ座標を基準として、歪み領域PE1に対応する各頂点座標のZ座標がそれぞれ所定量だけ変位することにより変形している。詳細には、X方向における両端の頂点座標を固定端とするZ成分を持つ1周期の正弦波が形成され且つY方向における両端の頂点座標を始点及び終点とする円弧が形成されるように歪み領域PE1に含まれる各頂点座標のZ座標が変位している。そして、各変形形態OB10a,OB10bは、上記正弦波の位相がπだけずれている。 As shown in FIGS. 77(b) and 77(c), each of the modified embodiments OB10a and OB10b is deformed so that unevenness is formed on the plate surface to which the texture is attached. Specifically, in each of the modified forms OB10a and OB10b, the Z coordinate of each vertex coordinate corresponding to the distortion region PE1 is displaced by a predetermined amount with reference to the Z coordinate of the vertex coordinate forming the outer edge portion of the refraction object OB10. It is transformed by doing. In detail, a distortion is generated so that one cycle of a sine wave having a Z component with the vertex coordinates of both ends in the X direction as fixed ends is formed and an arc having the vertex coordinates of both ends in the Y direction as a start point and an end point is formed. The Z coordinate of each vertex coordinate included in the area PE1 is displaced. Then, in each of the modified embodiments OB10a and OB10b, the phase of the sine wave is shifted by π.

これら各変形形態OB10a,OB10bに対して、背景画像のうち各変形形態OB10a,OB10bが配置される領域に対応した部分のテクスチャがマッピングされることにより、歪み画像が表現される。この場合、所定の更新タイミングとなる度に、屈折用オブジェクトOB10を、X方向への位相が異なる第1変形形態OB10aと第2変形形態OB10bとに交互に変形させることにより、X方向に進行する水の流れに対応した歪み画像を表現することができる。これにより、図柄のX方向のスクロールに伴って、X方向の水の流れが形成されたように視認させることができ、図柄のスクロールと歪み画像との関連付けを好適に行うことができる。 A distortion image is represented by mapping the texture of a portion of the background image corresponding to the area in which the modified forms OB10a and OB10b are arranged, to each of the modified forms OB10a and OB10b. In this case, each time the predetermined update timing is reached, the refracting object OB10 is deformed alternately into the first modified embodiment OB10a and the second modified embodiment OB10b having different phases in the X direction, thereby proceeding in the X direction. A distorted image corresponding to the flow of water can be expressed. As a result, it is possible to visually recognize that a flow of water in the X direction is formed along with the scroll of the symbol in the X direction, and the scroll of the symbol and the distorted image can be appropriately associated with each other.

また、歪み演出では、屈折用オブジェクトOB10が配置される領域に表示される歪み画像と、その領域の周縁の画像とを馴染ませるために、屈折用αデータSKD1が用いられる。αデータは、既に説明した通り、画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。 Further, in the distortion effect, the refraction α data SKD1 is used in order to make the distorted image displayed in the area in which the refraction object OB10 is arranged and the peripheral image of the area familiar. As described above, the α data is transparency information that is applied on a pixel-by-pixel basis in image data, and is stored in the memory module 133 in advance as image data.

屈折用αデータSKD1は、図77(d)に示すように、その外形が適用対象となる屈折用オブジェクトOB10と一致するようにそのサイズが設定されている。屈折用αデータSKD1は、異なるα値が設定された複数の領域に区分けされている。 As shown in FIG. 77(d), the size of the refraction α data SKD1 is set such that its outer shape matches the refraction object OB10 to which it is applied. The refraction α data SKD1 is divided into a plurality of regions in which different α values are set.

屈折用αデータSKD1を区分けする領域は、中央側の透明度よりも縁側の透明度の方が高くなるように形成されている。詳細には、屈折用αデータSKD1は、屈折用αデータSKD1の中央領域に設けられ、不透過情報である「1」が設定された不透過領域SKA0と、当該不透過領域SKA0を囲むように設けられ、部分透過情報(0<α1<1)が設定された第1部分透過領域SKA1と、当該第1部分透過領域SKA1を囲むように設けられ、第1部分透過領域SKA1よりも透過率が高い部分透過情報(0<α2<α1)が設定された第2部分透過領域SKA2と、に区分けされている。 The areas for dividing the refraction α data SKD1 are formed so that the transparency on the edge side is higher than the transparency on the center side. More specifically, the refraction α data SKD1 is provided in the central region of the refraction α data SKD1, and surrounds the non-transmission area SKA0 in which the non-transmission information “1” is set and the non-transmission area SKA0. The first partial transmission area SKA1 provided with the partial transmission information (0<α1<1) and the first partial transmission area SKA1 are provided so as to surround the first partial transmission area SKA1 and have a transmittance higher than that of the first partial transmission area SKA1. It is divided into a second partial transmission area SKA2 in which high partial transmission information (0<α2<α1) is set.

屈折用オブジェクトOB10(第1変形形態OB10a及び第2変形形態OB10bを含む)に対して屈折用αデータSKD1が適用されることにより、屈折用オブジェクトOB10に含まれる各ピクセルに対して屈折用αデータSKD1に含まれるα値が適用される。 By applying the refraction α data SKD1 to the refraction object OB10 (including the first modification OB10a and the second modification OB10b), the refraction α data for each pixel included in the refraction object OB10. The α value included in SKD1 is applied.

また、歪み画像を表示面Gの奥側にて重なる画像と重ね合わせる場合には、その重ね合わせに係る各ドットでは、屈折用αデータSKD1にて定められているα値と屈折用オブジェクトOB10に設定されている一律α値とを基準とした数値情報の融合(すなわち、ブレンディング)が行われる。具体的には、屈折用αデータSKD1に設定されているα値を個別α値とすると、
R:「奥側画像のR値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のR値」×「個別α値」×「一律α値」
G:「奥側画像のG値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のG値」×「個別α値」×「一律α値」
B:「奥側画像のB値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のB値」×「個別α値」×「一律α値」
の演算が行われる。
Further, when the distorted image is overlapped with the image overlapping on the back side of the display surface G, the α value determined by the refraction α data SKD1 and the refraction object OB10 are assigned to each of the dots related to the superimposition. Numerical information fusion (that is, blending) is performed based on the set uniform α value. Specifically, assuming that the α value set in the refraction α data SKD1 is an individual α value,
R: “R value of back side image”×(“1”−“individual α value”דuniform α value”)+“R value of distorted image”דindividual α value”דuniform α value”
G: "G value of back side image" x ("1"-"individual α value" x "uniform α value") + "G value of distorted image" x "individual α value" x "uniform α value"
B: “B value of the back side image”×(“1”−“individual α value”דuniform α value”)+“B value of the distorted image”דindividual α value”דuniform α value”
Is calculated.

屈折用αデータSKD1が適用されることにより、歪み画像は、中央領域から縁側に向かうに従って徐々に透明となる。これにより、歪み画像の縁が背景画像に馴染み、当該歪み画像の縁が目立ちにくくなっている。 By applying the refraction α data SKD1, the distorted image gradually becomes transparent from the central region toward the edge side. As a result, the edges of the distorted image become familiar with the background image, and the edges of the distorted image are less noticeable.

また、歪み画像は、一律α値を反映した状態で表示される。具体的には、一律α値が小さい場合、歪み画像よりも奥側画像が反映される。一方、一律α値が大きい場合には歪み画像が奥側画像よりも反映される。 Further, the distorted image is displayed in a state in which the uniform α value is reflected. Specifically, when the uniform α value is small, the back side image is reflected rather than the distorted image. On the other hand, when the uniform α value is large, the distorted image is reflected more than the back side image.

歪み演出の具体的な処理構成について説明する。 A specific processing configuration of the distortion effect will be described.

図78は、表示CPU131にて実行される歪み演出演算処理を示すフローチャートである。歪み演出演算処理は、タスク処理(図14)におけるステップS904の演出用演算処理において、現状設定されているデータテーブルが歪み演出に対応したデータテーブルである場合に実行される。 FIG. 78 is a flowchart showing the distortion effect calculation process executed by the display CPU 131. The distortion effect calculation process is executed when the currently set data table is the data table corresponding to the distortion effect in the effect calculation process of step S904 in the task process (FIG. 14).

先ず、ステップS4501では、現状設定されているデータテーブルに基づいて、歪み演出の実行中であるか否かを判定する。 First, in step S4501, it is determined whether or not the distortion effect is being executed based on the currently set data table.

歪み演出の実行中でない場合には、ステップS4502に進み、現状設定されているデータテーブルに基づいて、歪み演出の開始タイミングであるか否かを判定する。具体的には、現状設定されているデータテーブルに、歪み演出の開始タイミングであることを特定する情報が設定されているか否かを判定する。当該歪み演出の開始タイミングは図柄の変動開始タイミングと同一に設定されている。これにより、歪み演出は図柄の変動開始が行われる場合に実行されることとなる。 If the distortion effect is not being executed, the process advances to step S4502 to determine whether or not it is the distortion effect start timing based on the currently set data table. Specifically, it is determined whether or not information that specifies the start timing of the distortion effect is set in the currently set data table. The start timing of the distortion effect is set to be the same as the variation start timing of the symbol. As a result, the distortion effect will be executed when the variation of the symbol is started.

開始タイミングでない場合にはそのまま本演算処理を終了する一方、開始タイミングである場合には、ステップS4503〜ステップS4507にて屈折用オブジェクトOB10の初期設定に係る処理を実行する。具体的には、先ずステップS4503にて、屈折用オブジェクトOB10を把握する。そして、ステップS4504にて、当該屈折用オブジェクトOB10の座標の初期設定を行う。 If it is not the start timing, the present calculation processing is ended as it is, while if it is the start timing, processing relating to the initial setting of the refraction object OB10 is executed in steps S4503 to S4507. Specifically, first, in step S4503, the refraction object OB10 is grasped. Then, in step S4504, the coordinates of the refraction object OB10 are initialized.

当該座標は、データテーブル上に予め設定されている。詳細には、図柄画像に対して当該図柄画像のスクロール方向とは逆側の領域が歪み領域PE1として設定されており、当該歪み領域PE1に対して重なるように屈折用オブジェクトOB10の座標が設定されている。より詳細には、屈折用オブジェクトOB10が投影された場合に屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標が歪み領域PE1に含まれるように屈折用オブジェクトOB10の座標が設定されている。 The coordinates are preset on the data table. Specifically, a region on the side opposite to the scroll direction of the symbol image with respect to the symbol image is set as the distortion region PE1, and the coordinates of the refraction object OB10 are set so as to overlap the strain region PE1. ing. More specifically, when the refraction object OB10 is projected, the coordinates of the refraction object OB10 are set so that vertex coordinates other than the vertex coordinates that form the outer edge of the refraction object OB10 are included in the distortion region PE1. There is.

その後、ステップS4505にて、一律α値として不透過情報である「1」を設定する。続くステップS4506では、屈折用オブジェクトOB10に適用されるその他のパラメータの演算処理を行う。 After that, in step S4505, "1" which is opaque information is set as a uniform α value. In a succeeding step S4506, calculation processing of other parameters applied to the refraction object OB10 is performed.

そして、ステップS4507にて、座標マッピングデータの初期設定を行う。当該座標マッピングデータについて図79を用いて説明する。図79は座標マッピングデータを説明するための説明図である。詳細には、図79(a)は第1座標マッピングデータMD1を説明するための説明図、図79(b)は第2座標マッピングデータMD2を説明するための説明図である。 Then, in step S4507, the coordinate mapping data is initialized. The coordinate mapping data will be described with reference to FIG. 79. FIG. 79 is an explanatory diagram for explaining the coordinate mapping data. More specifically, FIG. 79(a) is an explanatory diagram for explaining the first coordinate mapping data MD1, and FIG. 79(b) is an explanatory diagram for explaining the second coordinate mapping data MD2.

各座標マッピングデータMD1,MD2は、屈折用オブジェクトOB10を構成する各頂点座標のZ方向の変位量を決定するために用いられるデータである。各座標マッピングデータMD1,MD2には、屈折用オブジェクトOB10の各頂点に対して1対1に対応させてZ方向の変位量が設定されている。詳細には、屈折用オブジェクトOB10の頂点がX方向に10個、Y方向に7個だけマトリックス状に設定されていることに対応させて、屈折用オブジェクトOB10を構成する頂点のうち左上端の頂点に対して適用されるZ方向の変位量をZ(1,1)としてマトリックス状にZ(a,b)(a:1〜10、b:1〜7)が設定されている。なお、説明の便宜上、第1座標マッピングデータMD1に設定されているZ(a,b)をZ1(a,b)と、第2座標マッピングデータMD2に設定されているZ2(a,b)といい、Z(a,b)はZ1(a,b)及びZ2(a,b)の双方を示すものだとする。 The coordinate mapping data MD1 and MD2 are data used to determine the amount of displacement in the Z direction of the vertex coordinates of the refraction object OB10. In each coordinate mapping data MD1 and MD2, a displacement amount in the Z direction is set in a one-to-one correspondence with each vertex of the refraction object OB10. Specifically, in correspondence with the fact that only 10 vertices of the refraction object OB10 are set in a matrix in the X direction and 7 vertices in the Y direction, of the vertices forming the refraction object OB10, the top leftmost vertex. Z(a,b) (a:1-10, b:1-7) is set in a matrix with the amount of displacement in the Z direction applied to Z(1,1). For convenience of explanation, Z(a,b) set in the first coordinate mapping data MD1 is Z1(a,b) and Z2(a,b) set in the second coordinate mapping data MD2. It is assumed that Z(a,b) indicates both Z1(a,b) and Z2(a,b).

Z(a,b)は、屈折用オブジェクトOB10の外縁を形成する各頂点のZ座標を基準とするZ方向の変位量が設定されたものである。詳細には、屈折用オブジェクトOB10の外縁を形成する各頂点に対応したZ(1,b)、Z(10,b),Z(a,1),Z(a,7)には「0」が設定されており、その他のZ(x,y)(x:2〜9、y:2〜6)には、各変形形態OB10a,OB10bに対応した変位量が設定されている。 Z (a, b) is a displacement amount set in the Z direction based on the Z coordinate of each vertex forming the outer edge of the refraction object OB10. More specifically, Z(1,b), Z(10,b), Z(a,1), and Z(a,7) corresponding to the vertices forming the outer edge of the refraction object OB10 are “0”. Is set, and the other Z(x, y) (x: 2 to 9, y: 2 to 6) is set with the displacement amount corresponding to each of the modified forms OB10a and OB10b.

具体的には、Z1(x,y)は、屈折用オブジェクトOB10が第1変形形態OB10aに変形するよう設定されている。一方、Z2(x,y)は、屈折用オブジェクトOB10が第2変形形態OB10bに変形するよう設定されている。 Specifically, Z1(x, y) is set so that the refraction object OB10 is deformed into the first modification OB10a. On the other hand, Z2(x, y) is set so that the refraction object OB10 is transformed into the second transformation mode OB10b.

ステップS4507では、初期設定として第1座標マッピングデータMD1のアドレス情報を描画リストに設定する処理を実行する。これにより、第1座標マッピングデータMD1のアドレス情報が設定された描画リストが作成される。そして、VDP135では、当該アドレス情報に基づいて第1座標マッピングデータMD1を取得し、屈折用オブジェクトOB10の各頂点に対して、当該各頂点に対応するZ座標の変位量の分だけ変位させることで、屈折用オブジェクトOB10を第1変形形態OB10aに変形させる処理を実行する。 In step S4507, a process of setting the address information of the first coordinate mapping data MD1 in the drawing list is executed as an initial setting. Thereby, the drawing list in which the address information of the first coordinate mapping data MD1 is set is created. Then, the VDP 135 acquires the first coordinate mapping data MD1 based on the address information, and displaces each vertex of the refraction object OB10 by the displacement amount of the Z coordinate corresponding to each vertex. , Processing for deforming the refraction object OB10 into the first modification OB10a.

なお、ステップS4507では、現状どちらの座標マッピングデータが設定されているかを表示CPU131にて特定するための処理を実行する。具体的には、ワークRAM132には、現状設定されている座標マッピングデータを特定するための情報を格納する特定記憶領域が設けられている。ステップS4507では、当該特定記憶領域に対して、第1座標マッピングデータMD1に対応した情報を設定する。 In step S4507, the display CPU 131 executes a process for specifying which coordinate mapping data is currently set. Specifically, the work RAM 132 is provided with a specific storage area for storing information for specifying currently set coordinate mapping data. In step S4507, information corresponding to the first coordinate mapping data MD1 is set in the specific storage area.

ステップS4507の処理の実行後は、ステップS4508〜ステップS4510にて、屈折用αデータSKD1の設定を行う。具体的には、ステップS4508にて屈折用αデータSKD1を把握し、ステップS4509にて、屈折用αデータSKD1の座標を屈折用オブジェクトOB10と同一座標に設定する。そして、ステップS4510にて屈折用αデータSKD1に適用されるその他のパラメータの演算処理を行う。 After the process of step S4507 is executed, the refraction α data SKD1 is set in steps S4508 to S4510. Specifically, the refraction α data SKD1 is grasped in step S4508, and the coordinates of the refraction α data SKD1 are set to the same coordinates as the refraction object OB10 in step S4509. Then, in step S4510, the calculation processing of other parameters applied to the refraction α data SKD1 is performed.

その後、ステップS4511にてその他の演出用オブジェクトを把握し、ステップS4512にて当該演出用オブジェクトに適用されるパラメータの演算処理を行う。 Then, in step S4511, the other effect objects are grasped, and in step S4512, the calculation processing of the parameters applied to the effect objects is performed.

続くステップS4513では、VDP135にて歪み演出が行われることを特定するための歪み演出指定情報を設定し、本演算処理を終了する。 In subsequent step S4513, the distortion effect designation information for specifying that the distortion effect is performed in VDP 135 is set, and the present arithmetic processing is ended.

かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成された描画リストには、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1は同一座標に設定されている。 When this process is executed, at least the refraction object OB10 and the refraction α data SKD1 are set in the rendering list created in the subsequent rendering list output process (step S806). In this case, the refraction object OB10 and the refraction α data SKD1 are set to the same coordinates.

また、当該描画リストには、第1座標マッピングデータMD1のアドレス情報及び歪み演出指定情報が設定されている。 Further, in the drawing list, address information of the first coordinate mapping data MD1 and distortion effect designation information are set.

一方、歪み演出実行中である場合(ステップS4501:YES)、ステップS4514にて、現状設定されているデータテーブルに基づいて、透明化期間中であるか否かを判定する。具体的には、歪み演出に対応したデータテーブルには、透明化期間であることを特定するための情報が設定されている。当該透明化期間は、歪み演出の終了タイミングに対して複数フレーム(例えば10フレーム)前のタイミングから歪み演出の終了タイミングまでの期間に設定されている。ステップS4514では、現状設定されているデータテーブルに当該情報が設定されているか否かを判定する。 On the other hand, if the distortion effect is being executed (step S4501: YES), in step S4514, it is determined whether or not the transparency period is in progress based on the currently set data table. Specifically, in the data table corresponding to the distortion effect, information for specifying that the period is the transparent period is set. The transparency period is set to a period from a timing of a plurality of frames (for example, 10 frames) before the end timing of the distortion effect to the end timing of the distortion effect. In step S4514, it is determined whether the information is set in the currently set data table.

透明化期間中でない場合には、ステップS4515にて屈折用オブジェクトOB10を把握し、ステップS4516にてパラメータの演算処理を実行する。この場合、初期設定された各種パラメータを維持する。 If it is not during the transparent period, the refraction object OB10 is grasped in step S4515, and the parameter calculation processing is executed in step S4516. In this case, the initially set various parameters are maintained.

その後、ステップS4517にて、屈折用オブジェクトOB10の変形を更新する処理、すなわち座標マッピングデータを更新する処理を実行する。具体的には、特定記憶領域に記憶されている情報に基づいて、前の処理回にて設定された座標マッピングデータを把握する。そして、前の処理回にて把握された座標マッピングデータとは異なる座標マッピングデータのアドレスを設定するとともに、特定記憶領域に今回設定した座標マッピングデータに対応した情報を格納する。例えば、前の処理回にて第1座標マッピングデータMD1が設定された場合には第2座標マッピングデータMD2を設定し、前の処理回にて第2座標マッピングデータMD2が設定された場合には第1座標マッピングデータMD1を設定する。 Then, in step S4517, a process of updating the deformation of the refraction object OB10, that is, a process of updating the coordinate mapping data is executed. Specifically, the coordinate mapping data set in the previous processing cycle is grasped based on the information stored in the specific storage area. Then, the address of the coordinate mapping data different from the coordinate mapping data grasped in the previous processing time is set, and the information corresponding to the coordinate mapping data set this time is stored in the specific storage area. For example, when the first coordinate mapping data MD1 is set in the previous processing cycle, the second coordinate mapping data MD2 is set, and when the second coordinate mapping data MD2 is set in the previous processing cycle. The first coordinate mapping data MD1 is set.

そして、ステップS4508〜ステップS4513の処理を実行し、本演算処理を終了する。 Then, the processes of steps S4508 to S4513 are executed, and the present calculation process ends.

以上の処理が実行された場合、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定された描画リストが作成される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1に対して適用されるパラメータは維持されている。 When the above processing is executed, a drawing list in which at least the refraction object OB10 and the refraction α data SKD1 are set is created. In this case, the parameters applied to the refraction object OB10 and the refraction α data SKD1 are maintained.

また、今回作成された描画リストには、前回作成された描画リストに設定された座標マッピングデータとは異なる座標マッピングデータのアドレスが設定されているとともに、歪み演出指定情報が設定されている。 Further, in the drawing list created this time, an address of coordinate mapping data different from the coordinate mapping data set in the drawing list created last time is set, and distortion effect designation information is set.

透明化期間中である場合(ステップS4514:YES)、ステップS4518にて屈折用オブジェクトOB10を把握する。そして、ステップS4519にて一律α値を更新する。具体的には、一律α値を所定値(例えば0.1)だけ減算する処理を実行する。 If it is during the transparent period (step S4514: YES), the refraction object OB10 is grasped in step S4518. Then, in step S4519, the uniform α value is updated. Specifically, a process of subtracting the uniform α value by a predetermined value (for example, 0.1) is executed.

その後、ステップS4520にてその他のパラメータの演算処理を実行し、ステップS4521にて座標マッピングデータの更新処理を実行する。そして、ステップS4508〜ステップS4513の処理を実行して、本演算処理を終了する。これらの処理については既に説明した通りであるため、説明を省略する。 Then, in step S4520, other parameter calculation processing is executed, and in step S4521, coordinate mapping data update processing is executed. Then, the processes of steps S4508 to S4513 are executed, and the present calculation process is ended. Since these processes have already been described, description thereof will be omitted.

以上の処理が実行された場合、屈折用オブジェクトOB10に適用される一律α値が異なる描画リストが作成される。当該一律α値は、フレーム毎に徐々に小さくなる。 When the above process is executed, the drawing lists having different uniform α values applied to the refraction object OB10 are created. The uniform α value gradually decreases for each frame.

ここで、透明化期間と一律α値の減算値とは対応させて設定されている。具体的には、歪み演出の終了タイミングにおいて一律α値が「0」となるように、減算値と透明化期間とが設定されている。詳細には、透明化期間に係るフレーム数=1/減算値となるように両者が設定されている。これにより、屈折用オブジェクトOB10に貼り付けられた画像が徐々に消えていき、歪み演出の終了タイミングでは完全に消えるようになっている。 Here, the transparent period and the uniform subtraction value of the α value are set in association with each other. Specifically, the subtraction value and the transparency period are set so that the uniform α value becomes “0” at the end timing of the distortion effect. In detail, both are set so that the number of frames related to the transparent period=1/the subtracted value. As a result, the image attached to the refraction object OB10 gradually disappears, and completely disappears at the end timing of the distortion effect.

なお、タスク処理(図14)の図柄用演算処理(ステップS905)では、歪み演出の開始と同期して、図柄の変動表示の開始に係る処理が実行される。具体的には、各図柄画像が所定の方向(左方向)に向けてスクロールするための処理が実行される。 In the symbol calculation process (step S905) of the task process (FIG. 14), a process relating to the start of variable display of symbols is executed in synchronization with the start of distortion effect. Specifically, a process for scrolling each symbol image in a predetermined direction (left direction) is executed.

次に、本実施の形態におけるVDP135にて行われる描画処理について図80のフローチャートを用いて説明する。当該描画処理は、予め定められた周期にて定期的に行われるループ処理であり、詳細には描画リストが作成される周期(20msec)よりも短い周期で行われる。この場合、描画処理の実行に係る時間は、描画リストの受信間隔よりも短く設定されている。これにより、描画処理が行われている最中に新たな描画リストが受信されてないようになっている。 Next, the drawing processing performed by the VDP 135 in this embodiment will be described with reference to the flowchart in FIG. The drawing process is a loop process that is periodically performed in a predetermined cycle, and specifically, is performed in a cycle shorter than the cycle (20 msec) in which the drawing list is created. In this case, the time required to execute the drawing process is set shorter than the reception interval of the drawing list. As a result, a new drawing list is not received while the drawing process is being performed.

さらに、描画処理の実行に係る時間と、描画リストが作成され当該描画リストを受信するまでの時間とを合わせた時間が、画像の更新間隔よりも短くなるように設定されている。これにより、画像の更新間隔よりも描画に係る時間が長くなる事態が生じないようになっている。 Further, the time taken to execute the drawing process and the time taken to create the drawing list and receive the drawing list is set to be shorter than the image update interval. This prevents a situation in which drawing takes longer than the image update interval.

先ず、ステップS4601にて、新たな描画リストを受信したか否かを判定する。新たな描画リストを受信していない場合にはそのまま本処理を終了する一方、新たな描画リストを受信している場合には、ステップS4602〜ステップS4608にて先に背景用の描画データ(背景画像)を作成する。 First, in step S4601, it is determined whether a new drawing list has been received. If a new drawing list has not been received, this processing is terminated as it is, while if a new drawing list has been received, in steps S4602 to S4608 the background drawing data (background image) ) Is created.

具体的には、先ずステップS4602にて背景用の設定処理を実行する。そして、当該ステップS4602にて把握された最背面画像及び背景用のオブジェクトに対して、ステップS4603〜ステップS4608の処理を実行する。これにより、背景用の描画データが先に作成され、背景用のバッファに書き込まれる。 Specifically, first, in step S4602, background setting processing is executed. Then, the processes of steps S4603 to S4608 are executed on the backmost image and the object for the background that have been grasped in step S4602. As a result, the drawing data for the background is first created and written in the buffer for the background.

その後、ステップS4609〜ステップS4616の処理を実行することにより、演出及び図柄用の描画データを作成する。そして、ステップS4617にて描画データ合成処理を実行し、本描画処理を終了する。 After that, by executing the processing of steps S4609 to S4616, drawing data for effects and symbols is created. Then, in step S4617, the drawing data combining process is executed, and the present drawing process is ended.

かかる構成によれば、演出用及び図柄用の描画データの作成に係る処理を実行する前段階で、背景画像の作成が完了している。これにより、演出用及び図柄用の描画データの作成に係る処理を実行する場合に、背景画像を用いることが可能となっている。 According to this configuration, the background image has been created before the process related to the creation of the rendering data for the effect and the drawing. This makes it possible to use the background image when executing the process related to the creation of the drawing data for the effect and the drawing.

次に、歪み演出用の設定処理について図81のフローチャートを用いて説明する。歪み演出用の設定処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4609の演出用の設定処理にて実行される。 Next, the distortion effect setting process will be described with reference to the flowchart in FIG. The distortion effect setting process is executed by the effect setting process in step S4609 of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list.

先ず、ステップS4701では、描画リストに設定されている屈折用オブジェクトOB10を把握する。 First, in step S4701, the refraction object OB10 set in the drawing list is grasped.

その後ステップS4702にて、描画リストに設定されている座標マッピングデータのアドレス情報に基づいて、今回適用される座標マッピングデータを把握する。続くステップS4703では、ステップS4702にて把握された座標マッピングデータを用いて屈折用オブジェクトOB10を変形させる。 After that, in step S4702, the coordinate mapping data to be applied this time is grasped based on the address information of the coordinate mapping data set in the drawing list. In subsequent step S4703, the refraction object OB10 is deformed using the coordinate mapping data acquired in step S4702.

具体的には、座標マッピングデータを参照することにより、屈折用オブジェクトOB10を構成する各頂点に対応するZ方向の変位量を把握する。そして、ローカル座標系における各頂点のZ座標を、把握されたZ方向の変位量だけ変位させる。これにより、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形する。 Specifically, the displacement amount in the Z direction corresponding to each vertex forming the refraction object OB10 is grasped by referring to the coordinate mapping data. Then, the Z coordinate of each vertex in the local coordinate system is displaced by the grasped displacement amount in the Z direction. As a result, the refraction object OB10 is transformed into the first modification OB10a or the second modification OB10b.

その後、ステップS4704にて第2変形形態OB10bに対して適用される各種パラメータを把握する。そして、ステップS4705にて、第1変形形態OB10a又は第2変形形態OB10bについてワールド座標系への設定処理を実行し、ステップS4706に進む。 Then, in step S4704, various parameters applied to the second modified embodiment OB10b are grasped. Then, in step S4705, the setting processing to the world coordinate system is executed for the first modified embodiment OB10a or the second modified embodiment OB10b, and the process proceeds to step S4706.

ステップS4706では、その他の演出用オブジェクトを把握し、ステップS4707では当該演出用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS4708にて、その他の演出用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 In step S4706, other effect objects are grasped, and in step S4707, parameters applied to the effect object are grasped. Then, in step S4708, the setting process to the world coordinate system is performed for the other effect objects, and the setting process ends.

上記のように設定処理が実行されることにより、屈折用オブジェクトOB10を変形することで形成された第1変形形態OB10a又は第2変形形態OB10bがワールド座標系に配置される。 By performing the setting process as described above, the first modification OB10a or the second modification OB10b formed by deforming the refraction object OB10 is arranged in the world coordinate system.

次に、歪み演出用テクスチャマッピング処理について図82のフローチャートを用いて説明する。歪み演出用テクスチャマッピング処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4615における色情報の設定処理にて実行される。 Next, the distortion effect texture mapping process will be described with reference to the flowchart in FIG. The distortion effect texture mapping process is executed by the color information setting process in step S4615 of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list.

歪み演出用テクスチャマッピング処理では、屈折用オブジェクトOB10(詳細には各変形形態OB10a,OB10bのいずれか)に対して貼り付けられるテクスチャとして背景画像の一部を用いる処理を実行する。 In the distortion effect texture mapping process, a process of using a part of the background image as a texture attached to the refraction object OB10 (specifically, one of the deformation modes OB10a and OB10b) is executed.

ステップS4801では、今回の描画対象として設定されている背景画像を把握する。具体的には、描画処理(図80)のステップS4608にて背景用のバッファに書き込まれた背景用の描画データを把握する。 In step S4801, the background image set as the current drawing target is grasped. Specifically, the drawing data for the background written in the buffer for the background in step S4608 of the drawing process (FIG. 80) is grasped.

続くステップS4802では、ステップS4801にて把握された背景画像を用いて、屈折用オブジェクトOB10に貼り付けるテクスチャを作成する処理を実行する。具体的には、把握された背景画像をトリミングすることにより、当該背景画像のうち屈折用オブジェクトOB10に係る領域、具体的には屈折用オブジェクトOB10が投影される領域に対応した部分の画像データを抜き出す。この場合、当該画像データのサイズが屈折用オブジェクトOB10のサイズと同一になるように抜き出す。 In subsequent step S4802, a process of creating a texture to be attached to refraction object OB10 is executed using the background image grasped in step S4801. Specifically, by trimming the grasped background image, image data of a portion of the background image corresponding to a region related to the refraction object OB10, specifically, a region onto which the refraction object OB10 is projected is displayed. Pull out. In this case, the image data is extracted so that the size of the image data is the same as the size of the refraction object OB10.

なお、トリミングの際には、背景用のバッファに書き込まれている背景用の描画データ自体は変更せず、別途バッファを用いて行う。 When trimming, the drawing data for the background written in the buffer for the background is not changed and is separately used in the buffer.

その後、ステップS4803にて、屈折用オブジェクトOB10(第1変形形態OB10a又は第2変形形態OB10b)に対して、ステップS4802にて抜き出した部分の画像データをテクスチャとして貼り付ける。この場合、ラップマッピング手法又はUVラッピング手法で行う。 After that, in step S4803, the image data of the portion extracted in step S4802 is pasted as a texture onto the refraction object OB10 (first modified form OB10a or second modified form OB10b). In this case, the lap mapping method or the UV wrapping method is used.

その後、ステップS4804にて、描画リストに基づいてその他のオブジェクトに対して貼り付けられるテクスチャを把握し、ステップS4805にて各オブジェクトに対してテクスチャを貼り付けて本処理を終了する。 After that, in step S4804, the textures to be pasted to other objects are grasped based on the drawing list, and in step S4805, the textures are pasted to each object, and this processing is ended.

かかる構成によれば、屈折用オブジェクトOB10に対して、当該屈折用オブジェクトOB10の投影領域に対応した背景画像が貼り付けられる。この場合、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形した状態で投影されることにより、屈折用オブジェクトOB10の投影領域に対応する歪み領域PE1の背景画像が歪む。これにより、歪みに対応したテクスチャを別途設けることなく、背景画像の一部が歪む様子を表現することができる。 With this configuration, the background image corresponding to the projection area of the refraction object OB10 is pasted onto the refraction object OB10. In this case, the refraction object OB10 is projected in the deformed state of the first modified embodiment OB10a or the second modified embodiment OB10b, so that the background image of the distorted area PE1 corresponding to the projection area of the refraction object OB10 is distorted. This makes it possible to represent a state in which a part of the background image is distorted without separately providing a texture corresponding to the distortion.

ここで、既に説明した通り、屈折用オブジェクトOB10に貼り付けられるテクスチャのサイズと屈折用オブジェクトOB10のサイズとは同一に設定されている。これにより、他の領域に表示される画像の画質と比較して、屈折用オブジェクトOB10が変形することによって生じ得る歪み画像の画質の低下が目立ちにくい。 Here, as described above, the size of the texture attached to the refraction object OB10 and the size of the refraction object OB10 are set to be the same. As a result, as compared with the image quality of the image displayed in the other area, the deterioration of the image quality of the distorted image that may occur due to the deformation of the refraction object OB10 is less noticeable.

なお、歪み演出を実行する場合における描画処理(図80)のステップS4616の演出及び図柄用の描画データ作成処理では、平行投影で投影することで描画データを作成する。これにより、視点からの距離を考慮して屈折用オブジェクトOB10のサイズを設定する必要がないため、屈折用オブジェクトOB10のサイズの設定を簡単に行うことができる。 In the rendering process and the drawing data creation process for symbols in step S4616 of the drawing process (FIG. 80) when the distortion effect is executed, the drawing data is created by projecting by parallel projection. Accordingly, it is not necessary to set the size of the refraction object OB10 in consideration of the distance from the viewpoint, so that the size of the refraction object OB10 can be easily set.

但し、平行投影に限られず透視投影を行う構成としてもよい。この場合、屈折用オブジェクトOB10が投影された場合に当該屈折用オブジェクトOB10の投影領域が歪み領域PE1に対応するように、視点からの距離を考慮して屈折用オブジェクトOB10のサイズ及び屈折用オブジェクトOB10の座標が設定されているとよい。 However, the projection is not limited to parallel projection, and may be configured to perform perspective projection. In this case, when the refraction object OB10 is projected, the size of the refraction object OB10 and the refraction object OB10 are considered so that the projection region of the refraction object OB10 corresponds to the distortion region PE1. It is recommended that the coordinates of are set.

次に、歪み演出用融合処理について図83のフローチャートを用いて説明する。歪み演出用融合処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)の描画データ合成処理(ステップS4617)において実行される。なお、説明の便宜上、フレームバッファ142のうち、変形した屈折用オブジェクトOB10が投影された領域に含まれるドットに対応する単位エリアを対象として説明し、その他の領域に含まれるドットに対応する単位エリアについては説明を省略する。さらに、最初に対象となるドットは予め定められているとする。 Next, the distortion effect fusion process will be described with reference to the flowchart in FIG. The distortion effect fusion process is executed in the drawing data combination process (step S4617) of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list. For convenience of explanation, the unit area corresponding to the dots included in the region where the deformed refraction object OB10 is projected in the frame buffer 142 will be described as an object, and the unit area corresponding to the dots included in the other regions will be described. The description is omitted. Further, it is assumed that the first target dot is predetermined.

先ずステップS4901では、演出用の描画データに基づいて、屈折用オブジェクトOB10が投影された領域に含まれるドットのうち今回の対象ドットに対応した対象ピクセルの数値情報を把握する。当該数値情報が歪み画像の数値情報(「m」とする)に対応する。 First, in step S4901, the numerical information of the target pixel corresponding to the current target dot among the dots included in the area in which the refraction object OB10 is projected is grasped based on the rendering data for rendering. The numerical information corresponds to the numerical information (denoted as “m”) of the distorted image.

そして、ステップS4902にて、屈折用αデータSKD1に基づいて、今回の対象ドットに対応する個別α値を把握し、ステップS4903にて、描画リストに基づいて屈折用オブジェクトOB10に対して適用される一律α値を把握する。 Then, in step S4902, the individual α value corresponding to the current target dot is grasped based on the refraction α data SKD1, and in step S4903, it is applied to the refraction object OB10 based on the drawing list. Understand the uniform α value.

続くステップS4904では、背景用の描画データに基づいて、背景画像における今回の対象ドットに対応する対象ピクセルの数値情報を把握する。当該数値情報が奥側画像の数値情報(「n」とする)に対応する。 In the following step S4904, the numerical information of the target pixel corresponding to the current target dot in the background image is grasped based on the drawing data for the background. The numerical information corresponds to the numerical information (denoted as “n”) of the back side image.

そして、ステップS4905にて、上記ステップS4901〜ステップS4904の処理により把握された把握結果に基づいて融合処理(ブレンディング処理)を実行し、その融合結果を、フレームバッファ142における各単位エリアのうち今回の対象ドットに対応した単位エリアに書き込む。 Then, in step S4905, a fusion process (blending process) is executed based on the grasping result grasped by the processes of steps S4901 to S4904, and the fusion result is stored in each unit area in the frame buffer 142 at this time. Write to the unit area corresponding to the target dot.

上記融合処理では、先に説明した演算式が用いられる。すなわち、n×(1−「個別α値」×「一律α値」)+m×「個別α値」×「一律α値」の演算を行う。 In the fusion process, the arithmetic expression described above is used. That is, n*(1-“individual α value”דuniform α value”)+mדindividual α value”דuniform α value” is calculated.

続くステップS4906では、屈折用オブジェクトOB10の投影領域に含まれる全ドットについて融合処理が完了しているか否かを判定する。完了していない場合には、ステップS4907にて対象ドットを更新する処理を実行し、ステップS4901に戻る。これにより、新たな対象ドットに対して融合処理を実行することとなる。完了している場合には、本融合処理を終了する。 In a succeeding step S4906, it is determined whether or not the fusion processing is completed for all the dots included in the projection area of the refraction object OB10. If not completed, a process of updating the target dot is executed in step S4907, and the process returns to step S4901. As a result, the fusion process is executed for the new target dot. If it has been completed, this fusion processing is terminated.

以上の処理が実行されることにより、歪み画像と背景画像との融合が行われることとなる。つまり、一律α値が「1」である場合には、外縁部に向かうに従って透明となる歪み画像が表示される。一方、一律α値が「0」である場合には、背景画像がそのまま表示される。 By performing the above processing, the distorted image and the background image are fused. That is, when the uniform α value is “1”, a distorted image that becomes transparent toward the outer edge is displayed. On the other hand, when the uniform α value is “0”, the background image is displayed as it is.

次に、歪み演出の様子について図84を用いて説明する。図84は、歪み演出を説明するための説明図であり、図84(a)は歪み演出が開始される前の画像を説明するための説明図、図84(b)は第1変形形態OB10aに基づく歪み画像を説明するための説明図、図84(c)は第2変形形態OB10bに基づく歪み画像を説明するための説明図である。なお、図面の関係上、表示面Gの一部を示すとともに、歪み演出の対象となる図柄画像CP11及び海中の様子を示す背景画像の一部として2つの珊瑚画像CP12のみを表示するが、実際には複数の個別画像及び最背面画像が表示される。 Next, the state of the distortion effect will be described with reference to FIG. FIG. 84 is an explanatory diagram for explaining the distortion effect, FIG. 84(a) is an explanatory view for explaining an image before the distortion effect is started, and FIG. 84(b) is a first modified embodiment OB10a. FIG. 84(c) is an explanatory diagram for explaining a distorted image based on the second modified embodiment OB10b. In addition, in relation to the drawings, a part of the display surface G is shown, and only the two coral images CP12 are displayed as part of the design image CP11 to be distorted and the background image showing the undersea condition. Shows a plurality of individual images and the backmost image.

図84(a)に示すように、歪み演出が開始される前には、図柄画像CP11が停止表示されている。この場合、表示面Gにおける歪み領域PE1、具体的には図柄画像CP11に対して当該図柄画像CP11のスクロール方向(左方向)とは逆側の領域(右側領域)には、珊瑚が描かれた2つの珊瑚画像CP12が並んで表示されている。 As shown in FIG. 84(a), before the distortion effect is started, the symbol image CP11 is stopped and displayed. In this case, coral is drawn in the distortion area PE1 on the display surface G, specifically, in the area (right side area) opposite to the scroll direction (left direction) of the symbol image CP11 with respect to the symbol image CP11. Two coral images CP12 are displayed side by side.

歪み演出が開始されると、図柄画像CP11が左方向にスクロール移動する。この場合、図84(b)に示すように、歪み領域PE1には、膨張した膨張珊瑚画像CP13と収縮した収縮珊瑚画像CP14が描かれた第1歪み画像CP15が表示される。この場合、膨張珊瑚画像CP13が図柄画像CP11側に表示され、収縮珊瑚画像CP14がそれとは反対側に表示される。 When the distortion effect is started, the symbol image CP11 scrolls to the left. In this case, as shown in FIG. 84( b ), in the distorted region PE1, the first distorted image CP15 in which the inflated expanded coral image CP13 and the contracted contracted coral image CP14 are drawn is displayed. In this case, the expanded coral image CP13 is displayed on the symbol image CP11 side, and the contracted coral image CP14 is displayed on the opposite side.

歪み演出の開始タイミングに対して次のフレームでは、図8(c)に示すように、歪み領域PE1には、膨張珊瑚画像CP13及び収縮珊瑚画像CP14の位置関係が逆になった第2歪み画像CP16が表示される。 In the next frame with respect to the start timing of the distortion effect, as shown in FIG. 8C, in the distortion region PE1, the second distortion image in which the positional relationship between the expanded coral image CP13 and the contracted coral image CP14 is reversed. CP16 is displayed.

その後、フレーム毎に各歪み画像CP15,CP16が交互に表示される。これにより、図柄画像CP11に対して当該図柄画像CP11の進行方向とは逆側の領域にて水中の流れが形成されたことに起因して揺らいでいるように見える。 Then, the distorted images CP15 and CP16 are alternately displayed for each frame. As a result, it appears that the pattern image CP11 is fluctuating due to the fact that the underwater flow is formed in the region opposite to the traveling direction of the symbol image CP11.

そして、図柄画像CP11のスクロール(歪み演出)が開始されてから、所定数のフレームが更新されたことに基づいて、歪み領域PE1には、徐々に膨張珊瑚画像CP13及び収縮珊瑚画像CP14に代えて、珊瑚画像CP12が表示される。 Then, after the scroll (distortion effect) of the symbol image CP11 is started, based on the update of the predetermined number of frames, the strained area PE1 is gradually replaced with the expanded coral image CP13 and the contracted coral image CP14. , A coral image CP12 is displayed.

以上の通り、図柄画像CP11の変動表示が行われる場合に、歪み領域PE1に各歪み画像CP15,CP16を交互に表示することにより、図柄画像CP11のスクロールにより水中に流れが形成されて奥側の背景が揺らいだように見せることができる。これにより、水中における図柄のスクロールを、よりリアルに表現することが可能となる。 As described above, when the variable display of the pattern image CP11 is performed, the distortion images CP15 and CP16 are alternately displayed in the distortion region PE1 so that a flow is formed in the water by scrolling of the pattern image CP11 and the back side is displayed. The background can appear to shake. This makes it possible to more realistically represent the scrolling of symbols in the water.

この場合、屈折用オブジェクトOB10を第1変形形態OB10a又は第2変形形態OB10bに変形させ、これらに対して背景画像の一部をテクスチャとして貼り付けることにより各歪み画像CP15,CP16を作成した。これにより、歪みを表現するためのテクスチャを別途用意する必要がないため、画像を歪ませるのに要するデータ量の削減を図ることができる。 In this case, each of the distorted images CP15 and CP16 was created by deforming the refraction object OB10 into the first modified form OB10a or the second modified form OB10b and pasting a part of the background image as a texture on these. Accordingly, it is not necessary to separately prepare a texture for expressing the distortion, so that it is possible to reduce the amount of data required to distort the image.

また、屈折用オブジェクトOB10の描画に係る処理を実行する前に背景画像の描画データを作成し、当該描画データを用いて屈折用オブジェクトOB10への貼付対象となるテクスチャを作成する構成とした。これにより、屈折用オブジェクトOB10に対して貼り付けるテクスチャを予め用意しておく必要がないため、テクスチャのデータ量の更なる削減を図ることができる。 In addition, the drawing data of the background image is created before executing the process related to drawing the refraction object OB10, and the drawing data is used to create the texture to be pasted to the refraction object OB10. As a result, it is not necessary to prepare in advance a texture to be attached to the refraction object OB10, so that the amount of texture data can be further reduced.

具体的には、背景用の各種オブジェクトをワールド座標系に配置し、これらを投影することにより歪み対象となる描画データ、すなわち背景用の2次元画像データを取得する。その後、屈折用オブジェクトOB10を配置し且つ変形させた状態で当該屈折用オブジェクトOB10に対して歪み対象となる描画データをテクスチャとして貼り付け且つ投影する構成とした。これにより、テクスチャの作成に係る処理を描画処理の一部として用いることができるため、処理負荷の軽減を図ることができる。換言すれば、描画処理の途中段階で作成される画像をテクスチャとして用いることができる。 Specifically, various background objects are arranged in the world coordinate system, and by projecting them, the drawing data to be distorted, that is, the two-dimensional image data for the background is acquired. After that, in a state where the refraction object OB10 is arranged and deformed, drawing data to be distorted is pasted and projected as a texture on the refraction object OB10. With this, the process related to the texture creation can be used as a part of the drawing process, so that the processing load can be reduced. In other words, the image created in the middle of the drawing process can be used as the texture.

ここで、テクスチャの各単位領域(ピクセル)には、色情報として3色分の数値情報が格納されている。このため、Z方向の変位量のみが設定されている座標マッピングデータと比較して、情報量が大きくなり易い。この点、上記構成によれば、情報量が比較的少ない座標マッピングデータのみを用いて各歪み画像CP15,CP16を表示することができるため、各歪み画像CP15,CP16に係るテクスチャを別途設ける構成と比較して、歪み演出に係るデータ量を小さくすることができる。 Numerical information for three colors is stored as color information in each unit area (pixel) of the texture. Therefore, the amount of information is likely to be large as compared with the coordinate mapping data in which only the amount of displacement in the Z direction is set. In this regard, according to the above configuration, since the distorted images CP15 and CP16 can be displayed using only the coordinate mapping data having a relatively small amount of information, the textures associated with the distorted images CP15 and CP16 are separately provided. By comparison, the amount of data relating to the distortion effect can be reduced.

また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定し屈折用オブジェクトOB10を変形させる場合に当該屈折用オブジェクトOB10の外縁部のZ座標は変更しない構成とした。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界が目立つことを回避することができる。 In addition, when the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1, and when the refraction object OB10 is deformed, the outer edge of the refraction object OB10 is set. The Z coordinate of the part is not changed. This makes it possible to prevent the boundary between the image relating to the refraction object OB10 and the other images from standing out.

さらに、各歪み画像CP15,CP16の外縁部に向かうに従って当該各歪み画像CP15,CP16が透明となるように屈折用αデータSKD1を設けた。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界をより好適に目立ちにくくすることができる。 Further, the refraction α data SKD1 is provided such that the distorted images CP15 and CP16 become transparent toward the outer edge portions of the distorted images CP15 and CP16. As a result, the boundary between the image relating to the refraction object OB10 and the other images can be more preferably made inconspicuous.

そして、歪み演出が終了する場合には、各歪み画像CP15,CP16を徐々に透明にする構成とした。これにより、各歪み画像CP15,CP16から珊瑚画像CP12に移り変わる場合に当該移り変わりを目立ちにくくすることができる。 Then, when the distortion effect ends, the distortion images CP15 and CP16 are gradually made transparent. As a result, when the distorted images CP15 and CP16 change to the coral image CP12, the change can be made inconspicuous.

なお、上記構成では、歪みを表現する場面として、図柄画像CP11が変動表示を開始する場面を設定したが、これに限られず、任意である。例えば、物体が高速移動することによって生じる衝撃波を表現するのに用いてもよく、場面の切換、図柄画像CP11を別の図柄画像に切り換える場合に用いてもよい。この場合、歪ませたい領域(歪み領域PE1)に合わせて屈折用オブジェクトOB10の形状を設定する。 In the above configuration, the scene in which the pattern image CP11 starts the variable display is set as the scene in which the distortion is expressed, but the scene is not limited to this and is arbitrary. For example, it may be used to represent a shock wave generated when an object moves at high speed, or may be used when switching scenes or when switching the symbol image CP11 to another symbol image. In this case, the shape of the refraction object OB10 is set according to the region to be distorted (distortion region PE1).

また、歪みを表現する演出に限られず、画像の一部又は全部を変化させる表示演出に対して本発明を適用することができる。例えば屈折用オブジェクトOB10に対して適用されるパラメータを変更することにより画像の一部を拡大又は縮小させる構成としてもよく、回転させる構成としてもよい。さらに、表示面Gに表示されている画像の一部を他の領域と比較して透明にしてもよい。 Further, the present invention can be applied not only to the effect of expressing the distortion but also to the display effect of changing a part or the whole of the image. For example, a part of the image may be enlarged or reduced by changing the parameter applied to the refraction object OB10, or may be rotated. Further, a part of the image displayed on the display surface G may be made transparent by being compared with other areas.

さらに、例えば、投影された場合に表示面G全体を表示可能な特定オブジェクトを設け、当該特定オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける。そして、予め定められた更新タイミングとなる度に、上記特定オブジェクトを複数の部品オブジェクトに分割し、当該部品オブジェクトをそれぞれ独立して移動させることにより、表示面Gに表示されていた背景画像が割れたように視認させる演出を行うことができる。これにより、場面の切換等を好適に行うことができる。 Further, for example, a specific object capable of displaying the entire display surface G when projected is provided, and the drawing data of the background image stored in the background buffer is pasted on the specific object as it is. Then, each time the predetermined update timing is reached, the specific object is divided into a plurality of component objects, and the component objects are independently moved, so that the background image displayed on the display surface G is broken. It is possible to perform an effect of visually confirming that This makes it possible to suitably switch scenes and the like.

また、上記構成によれば、屈折用オブジェクトOB10に対して貼り付けられるテクスチャが屈折用オブジェクトOB10と同一のサイズとなるように背景画像をトリミングする構成としたが、これに限られず、例えば異なるサイズとなるようにトリミングする構成としてもよい。この場合、屈折用オブジェクトOB10のサイズに合わせて拡大又は縮小処理を実行するとよい。これにより、上記拡大又は縮小処理により屈折用オブジェクトOB10尾に貼り付けられる画像が歪むため、歪み画像をより歪ませることができる。但し、上記構成の場合、歪み画像と他の画像との境界が目立ち易くなるため、当該境界の目立ち易さを考慮すれば上記構成の方がよい。 Further, according to the above configuration, the background image is trimmed so that the texture attached to the refraction object OB10 has the same size as that of the refraction object OB10. However, the present invention is not limited to this and, for example, a different size. The trimming may be performed so that In this case, the enlargement or reduction processing may be executed according to the size of the refraction object OB10. Thereby, the image attached to the tail of the refraction object OB10 is distorted by the enlargement or reduction processing, and thus the distorted image can be further distorted. However, in the case of the above configuration, the boundary between the distorted image and the other image is likely to be conspicuous. Therefore, the above configuration is preferable in consideration of the conspicuousness of the boundary.

また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定したが、これに限られず、例えば上記表示領域が歪み領域PE1と一致するように屈折用オブジェクトOB10の形状を設定してもよい。この場合、屈折用オブジェクトOB10を変形させる場合には屈折用オブジェクトOB10の外縁部を構成する頂点座標についても変位させる構成とするとよい。 Further, although the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1, the present invention is not limited to this. For example, the display area may be the distortion area PE1. The shape of the refraction object OB10 may be set so as to match. In this case, when the refraction object OB10 is deformed, the vertex coordinates forming the outer edge of the refraction object OB10 may be displaced.

また、上記構成では、第1座標マッピングデータMD1及び第2座標マッピングデータMD2を交互に用いることにより、背景画像が揺らいだように見せる構成としたが、これに限られず、例えば徐々に歪みが大きくなる又は小さくなる演出及びこれらの演出を組み合わせた演出を実行する構成としてもよい。 Further, in the above-described configuration, the background image appears to fluctuate by alternately using the first coordinate mapping data MD1 and the second coordinate mapping data MD2, but the present invention is not limited to this, and for example, the distortion gradually increases. It may be configured to execute an effect that becomes smaller or smaller and an effect that combines these effects.

上記構成では、歪みの対象は背景画像の一部であったが、これに限られず、例えば背景画像の全部を歪ませる構成としてもよい。この場合、表示面G全体を覆うことが可能な屈折用オブジェクトを設け、当該屈折用オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける構成とする。 In the above configuration, the target of distortion is a part of the background image, but the present invention is not limited to this. For example, the entire background image may be distorted. In this case, a refraction object capable of covering the entire display surface G is provided, and the drawing data of the background image stored in the background buffer is pasted onto the refraction object as it is.

また、背景画像に限られず、図柄画像、所定のキャラクタ画像又は表示面Gに表示されている画像そのものの全部又は一部を歪ませる構成としてもよい。この場合、屈折用オブジェクトの描画に係る処理を実行する前に、歪ませたい対象を含む画像に係る描画データを予め作成しておき、屈折用オブジェクトの描画に係る処理において、上記描画データに基づいて屈折用オブジェクトに対して貼り付けるテクスチャを作成して、貼り付ける構成とするよい。 Further, the present invention is not limited to the background image, and may be configured to distort the pattern image, a predetermined character image, or all or part of the image itself displayed on the display surface G. In this case, before executing the process related to the drawing of the refraction object, the drawing data related to the image including the target to be distorted is created in advance, and in the process related to the drawing of the refraction object, based on the above drawing data. A texture to be pasted to the refracting object may be created and pasted.

また、上記構成では、屈折用オブジェクトOB10の変形を各座標マッピングデータMD1,MD2を用いることで実現したが、これに限られず、例えば4次元関数(x、y、z、t)を定義し、当該4次元関数に基づいて各頂点のZ方向の変位量を導出することにより屈折用オブジェクトOB10を変形させる構成としてもよい。この場合、歪み演出に係るデータ量の更なる削減を図ることができる。但し、VDP135の処理負荷の増大化、高精細な歪みに起因する関数の複雑化等に鑑みれば、各座標マッピングデータMD1,MD2を用いる構成の方が好ましい。 Further, in the above configuration, the deformation of the refraction object OB10 is realized by using the coordinate mapping data MD1 and MD2, but the present invention is not limited to this, and for example, a four-dimensional function (x, y, z, t) is defined, The refraction object OB10 may be deformed by deriving the displacement amount of each vertex in the Z direction based on the four-dimensional function. In this case, it is possible to further reduce the amount of data related to the distortion effect. However, in view of the increase in the processing load of the VDP 135, the complication of the function due to the high-definition distortion, and the like, the configuration using the coordinate mapping data MD1 and MD2 is preferable.

なお、上記構成では、屈折用オブジェクトOB10を、当該屈折用オブジェクトOB10の板面に凹凸が形成されるように各頂点座標のZ座標を変位させて変形させたが、これに限られず、例えばX座標及びY座標の少なくとも一方を変位させる構成としてもよい。この場合、格子状に配置された各頂点により渦が形成されるように各頂点のXY座標を設定するとよい。これにより、各頂点に対応させてテクスチャを貼り付けることにより歪んだ画像を表現することが可能となる。但し、処理負荷の観点に着目すれば、Z方向の変位のみの方がよい。 In the above configuration, the refraction object OB10 is deformed by displacing the Z coordinate of each vertex coordinate so that the plate surface of the refraction object OB10 is uneven, but the present invention is not limited to this and, for example, X At least one of the coordinate and the Y coordinate may be displaced. In this case, it is advisable to set the XY coordinates of the vertices so that the vortices are formed by the vertices arranged in a grid. This makes it possible to represent a distorted image by attaching a texture corresponding to each vertex. However, from the viewpoint of processing load, it is better to use only the displacement in the Z direction.

また、上記構成では、先に背景用の描画データ(2次元画像データ)を作成した後に、演出用及び図柄用の描画データを作成する構成としたが、これに限られず、例えば第1の実施の形態のように、背景用、演出用及び図柄用の各オブジェクトをワールド座標系に配置し、当該各オブジェクトに対して投影することで各描画データを作成する構成としてもよい。この場合、2回描画処理を実行する構成とするとよい。具体的には、1回目では屈折用オブジェクトOB10を除く各オブジェクトを配置し投影することにより各描画データを作成し、2回目では屈折用オブジェクトOB10を含む各オブジェクトを配置し投影して各描画データを作成する。この場合、2回目の描画処理にて、1回目の描画処理にて作成された背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを作成する構成とする。これにより、背景画像の一部をテクスチャとして用いることができる。但し、上記構成の場合、同一処理を重複して行う必要があるため、無駄な処理が増え、処理負荷の増大化が懸念される。この点に着目すれば、先に背景用の描画データを作成した後に、演出用及び図柄用の描画データを作成する構成の方が優れている。 In the above configuration, the drawing data for the background (two-dimensional image data) is first created, and then the drawing data for the effect and the design is created. However, the present invention is not limited to this. As in the above form, each of the background object, the effect object, and the symbol object may be arranged in the world coordinate system, and the drawing data may be created by projecting the object onto the object. In this case, the drawing process may be executed twice. Specifically, in the first time, each drawing data is created by arranging and projecting each object except the refraction object OB10, and in the second time, each object including the refraction object OB10 is arranged and projected to obtain each drawing data. To create. In this case, in the second drawing process, the texture to be attached to the refraction object OB10 is created using the background drawing data created in the first drawing process. This allows a part of the background image to be used as a texture. However, in the case of the above configuration, since it is necessary to perform the same processing in duplicate, wasteful processing increases, and there is a concern that the processing load will increase. From this point of view, the configuration in which the drawing data for the effect and the drawing are created after the drawing data for the background is first created is superior.

また、変形対象となる画像が更新される構成であってもよい。例えば、図柄画像CP11のスクロールに伴って歪み領域PE1を順次スクロールさせる構成としてもよい。この場合、所定の更新タイミング(例えば各フレーム)毎に屈折用オブジェクトOB10の座標を更新するとともに、歪み演出用マッピング処理(図82)におけるトリミング処理(ステップS4802)においてトリミングする領域を、屈折用オブジェクトOB10の座標に合わせて変更するようにするとよい。これにより、データ量の増大化を招くことなく、歪み領域PE1の変位に好適に対応することができる。 Alternatively, the image to be transformed may be updated. For example, the distortion area PE1 may be sequentially scrolled as the symbol image CP11 is scrolled. In this case, the coordinates of the refraction object OB10 are updated every predetermined update timing (for example, each frame), and the area to be trimmed in the trimming process (step S4802) in the distortion effect mapping process (FIG. 82) is set to the refraction object. It may be changed according to the coordinates of the OB 10. As a result, it is possible to favorably cope with the displacement of the strain region PE1 without increasing the amount of data.

また、歪み領域PE1を固定しつつ背景画像を変位させる構成としてもよい。この場合であっても、フレーム毎に背景画像に係る背景用の描画データを生成し、さらにフレーム毎に当該背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを生成する構成であるため、変位した背景画像を歪ませることができる。 Further, the background image may be displaced while fixing the distorted area PE1. Even in this case, the drawing data for the background relating to the background image is generated for each frame, and the drawing data for the background is used for each frame to generate the texture to be attached to the refraction object OB10. Therefore, the displaced background image can be distorted.

なお、背景画像の変位としては、所定の方向への背景画像のスクロールが考えられる。当該スクロールは、背景画像を構成するオブジェクトの移動又は視点の移動により実現することができる。 As the displacement of the background image, scrolling of the background image in a predetermined direction can be considered. The scrolling can be realized by moving an object forming the background image or moving a viewpoint.

また、画像の一部を加工して表示演出を行う構成は、2次元表示に係る構成に適用してもよい。具体的には、メモリモジュール133に複数種類のスプライトデータを記憶させておき、当該スプライトデータを用いて所定の画像に係る描画データを生成する。そして、当該描画データをフレームバッファ142に設けられた仮バッファに記憶させておき、当該描画データの一部を抜き出し、当該抜き出したデータをスプライトデータとして扱う構成とするとよい。これにより、描画データに係る画像の一部を拡大又は縮小したり、所定の方向に移動させたりする表示演出を行うことができる。 Further, the configuration in which a part of the image is processed and the display effect is performed may be applied to the configuration related to the two-dimensional display. Specifically, a plurality of types of sprite data are stored in the memory module 133, and drawing data relating to a predetermined image is generated using the sprite data. Then, the drawing data may be stored in a temporary buffer provided in the frame buffer 142, a part of the drawing data may be extracted, and the extracted data may be treated as sprite data. Accordingly, it is possible to perform a display effect of enlarging or reducing a part of the image related to the drawing data, or moving the image in a predetermined direction.

さらに抜き出したデータを別のスプライトデータに対して重ねることにより、抜き出したデータに係る画像に上書きすることもできる。 Further, by superimposing the extracted data on another sprite data, it is possible to overwrite the image related to the extracted data.

また、屈折用オブジェクトOB10に対して貼り付けるテクスチャは、投影することにより作成されたものであったが、これに限られず、例えば予めメモリモジュール133に記憶させておく構成としてもよい。但し、テクスチャのデータ量の増大化に着目すれば、投影することで作成する構成の方がよい。 Further, the texture to be attached to the refraction object OB10 was created by projecting, but the texture is not limited to this, and may be stored in the memory module 133 in advance, for example. However, if attention is paid to the increase in the amount of texture data, the configuration in which the texture is created by projection is preferable.

また、屈折用オブジェクトOB10は板状ポリゴンであったが、これに限られず、任意の形状のポリゴンを用いてもよい。但し、処理負荷の観点に着目すれば、板状ポリゴンである構成の方がよい。 Further, the refraction object OB10 is a plate-shaped polygon, but the present invention is not limited to this, and a polygon having an arbitrary shape may be used. However, from the viewpoint of processing load, a plate-shaped polygon is preferable.

上記構成では、屈折用オブジェクトOB10の変形形態を、第1変形形態OB10aと第2変形形態OB10bとに交互に切り換えることで、歪みを表現したが、これに限られず、例えば2つの屈折用オブジェクトOB10を設け、各屈折用オブジェクトOB10をそれぞれ第1変形形態OB10aと、第2変形形態OB10bとに変形させて、両者を短辺部にて連結させる構成としてもよい。この場合、連結したものを所定の方向にスクロールさせる構成とするとよい。この場合であっても、揺らいだ画像を好適に表示させることができる。 In the above configuration, the distortion is expressed by alternately switching the deformation mode of the refraction object OB10 between the first deformation mode OB10a and the second deformation mode OB10b, but the present invention is not limited to this, and for example, two refraction objects OB10 are used. May be provided, and each refraction object OB10 may be transformed into a first modified form OB10a and a second modified form OB10b, and the two may be connected at the short side portion. In this case, it is advisable to scroll the connected objects in a predetermined direction. Even in this case, the fluctuating image can be appropriately displayed.

<瞬き演出を行うための構成について>
次に、瞬き演出を行うための構成について説明する。
<Regarding the structure for performing blinking>
Next, a configuration for performing a blink effect will be described.

瞬き演出とは、所定のキャラクタ画像が瞬きをする演出である。 The blink effect is an effect in which a predetermined character image blinks.

当該瞬き演出では、所定のキャラクタ画像を表示するのに用いられるベースオブジェクトOB21及びベーステクスチャTD11と、目の部分を変更するのに用いられる部分オブジェクトOB22及び部分テクスチャTD12とが用いられる。これらの各構成について図85を用いて説明する。図85(a)はベースオブジェクトOB21及び部分オブジェクトOB22を説明するための説明図、図85(b)はベーステクスチャTD11を説明するための説明図、図85(c)は部分テクスチャTD12を説明するための説明図である。なお、ベースオブジェクトOB21と部分オブジェクトOB22との関係を説明するために、図85(a)においてベースオブジェクトOB21と部分オブジェクトOB22とを重ねて示すとともに、部分オブジェクトOB22を点線で示す。さらに、ベーステクスチャTD11と部分テクスチャTD12との関係を説明するために、図85(b)において部分テクスチャTD12の外形を点線で示す。 In the blinking effect, a base object OB21 and a base texture TD11 used to display a predetermined character image, and a partial object OB22 and a partial texture TD12 used to change the eye part are used. Each of these configurations will be described with reference to FIG. 85(a) is an explanatory diagram for explaining the base object OB21 and the partial object OB22, FIG. 85(b) is an explanatory diagram for explaining the base texture TD11, and FIG. 85(c) is a partial texture TD12. FIG. In order to explain the relationship between the base object OB21 and the partial object OB22, the base object OB21 and the partial object OB22 are shown in an overlapping manner and the partial object OB22 is shown by a dotted line in FIG. 85(a). Further, in order to explain the relationship between the base texture TD11 and the partial texture TD12, the outer shape of the partial texture TD12 is shown by a dotted line in FIG. 85(b).

ベースオブジェクトOB21は、図85(a)に示すように、複数の部品オブジェクトからなる1単位のオブジェクトであり、各部品オブジェクトに適用されるパラメータを更新することで3D画像のキャラクタに動きや変化を与えることができる。 As shown in FIG. 85(a), the base object OB21 is a one-unit object composed of a plurality of component objects, and by updating the parameters applied to each component object, the movement or change of the character in the 3D image can be achieved. Can be given.

また、ベースオブジェクトOB21において、キャラクタの頭部に対応した頭部オブジェクトOB31に貼り付けるテクスチャとしてベーステクスチャTD11が設定されている。ベーステクスチャTD11は、図85(b)に示すように、顔が描かれた画像データである。ベーステクスチャTD11は頭部オブジェクトOB31に対応させた矩形状の画像データとして設定されている。具体的には、ベーステクスチャTD11は、3次元の頭部オブジェクトOB31を2次元に展開した場合の画像データに対応させて設定されており、展開した画像データと同一の形状となるように縦横ピクセル数が設定されている。当該ベーステクスチャTD11が頭部オブジェクトOB31に対して貼り付けられることにより、顔が表現されることとなる。 In the base object OB21, the base texture TD11 is set as the texture to be attached to the head object OB31 corresponding to the head of the character. The base texture TD11 is image data in which a face is drawn, as shown in FIG. 85(b). The base texture TD11 is set as rectangular image data corresponding to the head object OB31. Specifically, the base texture TD11 is set corresponding to the image data when the three-dimensional head object OB31 is two-dimensionally developed, and the vertical and horizontal pixels are set to have the same shape as the developed image data. The number is set. By attaching the base texture TD11 to the head object OB31, a face is represented.

なお、髪型については、頭部オブジェクトOB31とは別に髪型オブジェクトOB32が設けられているとともに、当該髪型オブジェクトOB32に対して貼り付ける髪型テクスチャが設けられている。これらを用いて髪型を表現し、髪型オブジェクトOB32と頭部オブジェクトOB31とを重ねあわせることにより、キャラクタの頭部を表現する。 Regarding the hairstyle, a hairstyle object OB32 is provided separately from the head object OB31, and a hairstyle texture to be attached to the hairstyle object OB32 is provided. A hairstyle is expressed using these, and the head of the character is expressed by superimposing the hairstyle object OB32 and the head object OB31.

また、ベーステクスチャTD11は矩形状の画像データとして設定されている構成としたが、これに限られず、頭部オブジェクトOB31の形状に合わせて異なる形状の画像データとして設定してもよい。 Further, although the base texture TD11 is set as the image data having a rectangular shape, the present invention is not limited to this, and may be set as image data having a different shape according to the shape of the head object OB31.

部分オブジェクトOB22は、当該部分オブジェクトOB22が投影された場合にベースオブジェクトOB21における目の表示領域を覆うことが可能となるようにその形状及びサイズが設定されている。具体的には、部分オブジェクトOB22は、図85(a)に示すように、ベースオブジェクトOB21において目が表示される領域と同一の形状となる矩形板状ポリゴンで構成されている。これにより、ワールド座標系においてベースオブジェクトOB21が配置され、視点とベースオブジェクトOB21との間であって且つベースオブジェクトOB21において目が表示される領域に対して重なるように部分オブジェクトOB22が配置された状態で平行投影が行われた場合には、ベーステクスチャTD11の目に代えて、部分オブジェクトOB22の画像が表示されることとなる。この場合、部分オブジェクトOB22に対して、ベーステクスチャTD11の目とは態様が異なるテクスチャが貼り付けられることにより、目の態様が異なるキャラクタ画像が表示される。 The shape and size of the partial object OB22 are set so that when the partial object OB22 is projected, it is possible to cover the display area of the eyes of the base object OB21. Specifically, as shown in FIG. 85A, the partial object OB22 is composed of a rectangular plate-shaped polygon having the same shape as the area where the eyes are displayed in the base object OB21. As a result, the base object OB21 is arranged in the world coordinate system, and the partial object OB22 is arranged between the viewpoint and the base object OB21 so as to overlap the area where the eyes are displayed in the base object OB21. When the parallel projection is performed in, the image of the partial object OB22 is displayed instead of the eyes of the base texture TD11. In this case, a character image having a different aspect of the eyes is displayed on the partial object OB22 by attaching a texture having a different aspect from the eyes of the base texture TD11.

当該部分オブジェクトOB22に対して貼り付けるテクスチャとして複数種類(具体的には3種類)の部分テクスチャTD12が設けられている。 A plurality of types (specifically, three types) of partial textures TD12 are provided as textures to be attached to the partial object OB22.

部分テクスチャTD12について説明すると、部分テクスチャTD12のサイズは部分オブジェクトOB22と同一に設定されており、具体的には、部分オブジェクトOB22の形状と同一となるように、部分テクスチャTD12の各縦横ピクセル数が設定されている。このため、部分オブジェクトOB22に対して部分テクスチャTD12は変形することなく貼り付けられることとなる。 Explaining the partial texture TD12, the size of the partial texture TD12 is set to be the same as that of the partial object OB22. Specifically, the vertical and horizontal pixel numbers of the partial texture TD12 are set to be the same as the shape of the partial object OB22. It is set. Therefore, the partial texture TD12 is attached to the partial object OB22 without being deformed.

この場合、ベーステクスチャTD11のピクセル数は頭部オブジェクトOB31全体の大きさに対応させて設定されており、部分テクスチャTD12のピクセル数は頭部オブジェクトOB31のうち目の部分に対応させて設定されているため、図85(b)に示すように、部分テクスチャTD12の方がベーステクスチャTD11よりもサイズが小さく、データ量が少ない画像データとなっている。 In this case, the number of pixels of the base texture TD11 is set corresponding to the size of the entire head object OB31, and the number of pixels of the partial texture TD12 is set corresponding to the eye part of the head object OB31. Therefore, as shown in FIG. 85B, the partial texture TD12 is smaller in size than the base texture TD11, and the image data has a smaller data amount.

部分テクスチャTD12には目が開いた状態の画像データである第1部分テクスチャTD21(図85(c−1)参照)と、目が開いた状態と目が閉じた状態との中間状態の画像データである第2部分テクスチャTD22(図85(c−2)参照)と、目が閉じた状態の第3部分テクスチャTD23(図85(c−3)参照)と、が設定されている。第1部分テクスチャTD21は、ベーステクスチャTD11の目の部分と同一の画像が描かれたテクスチャである。 In the partial texture TD12, the first partial texture TD21 (see FIG. 85(c-1)), which is the image data with the eyes open, and the image data in the intermediate state between the state with the eyes open and the state with the eyes closed. The second partial texture TD22 (see FIG. 85(c-2)) and the third partial texture TD23 with closed eyes (see FIG. 85(c-3)) are set. The first partial texture TD21 is a texture in which the same image as the eye portion of the base texture TD11 is drawn.

部分オブジェクトOB22に対して貼り付けるテクスチャを第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャTD23→第2部分テクスチャTD22→第1部分テクスチャTD21を1周期として順次切り換えることにより、瞬きを表現することができる。 By sequentially switching the texture to be attached to the partial object OB22 from the first partial texture TD21→the second partial texture TD22→the third partial texture TD23→the second partial texture TD22→the first partial texture TD21 as one cycle, Can be expressed.

瞬き演出の具体的な処理構成について説明する。 A specific processing configuration of the blink effect will be described.

図86は、表示CPU131にて実行される瞬き演出用演算処理を示すフローチャートである。瞬き演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理において、現状設定されているデータテーブルが瞬き演出に対応したものである場合に起動される。 FIG. 86 is a flowchart showing the blink effect calculation process executed by the display CPU 131. The blink effect calculation process is started when the currently set data table corresponds to the blink effect in the effect calculation process in step S904 of the task process (FIG. 14).

先ずステップS5001にて、現状設定されているデータテーブルに基づいて、瞬き演出中であるか否かを判定する。 First, in step S5001, based on the currently set data table, it is determined whether or not the blinking effect is being performed.

瞬き演出の実行中でない場合には、ステップS5002に進み、現状設定されているデータテーブルに基づいて、瞬き演出の開始タイミングであるか否かを判定する。 If the blink effect is not being executed, the process advances to step S5002 to determine whether or not it is the start timing of the blink effect, based on the currently set data table.

瞬き演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、瞬き演出の開始タイミングである場合には、ステップS5003に進み、ベースオブジェクトOB21を把握する。そして、ステップS5004に進み、ベーステクスチャTD11を含むベースオブジェクトOB21に対して貼り付けられる各種テクスチャのアドレス情報を設定する。 If it is not the start timing of the blink effect, the present calculation processing is ended as it is, while if it is the start timing of the blink effect, the process proceeds to step S5003 to grasp the base object OB21. Then, in step S5004, address information of various textures to be attached to the base object OB21 including the base texture TD11 is set.

その後、ステップS5005にて、ベースオブジェクトOB21に対して適用されるその他のパラメータの初期設定に係る演算処理を行う。 After that, in step S5005, arithmetic processing related to initial setting of other parameters applied to the base object OB21 is performed.

続くステップS5006では、部分オブジェクトOB22を把握する。そして、ステップS5007にて当該部分オブジェクトOB22の初期座標を設定する。初期座標はデータテーブルに予め設定されており、具体的には、ワールド座標系に変換した場合にベースオブジェクトOB21よりも前側(視点側)であって投影(平行投影)した場合にベースオブジェクトOB21において目が表示される領域と重なるように配置されるよう設定されている。 In a succeeding step S5006, the partial object OB22 is grasped. Then, in step S5007, the initial coordinates of the partial object OB22 are set. The initial coordinates are preset in the data table, and specifically, in the base object OB21 when projected (parallel projection) on the front side (viewpoint side) of the base object OB21 when converted to the world coordinate system. It is set to be arranged so as to overlap the area where the eyes are displayed.

その後、ステップS5008では、部分テクスチャTD12のアドレス情報の初期設定を行う。具体的には、第1部分テクスチャTD21のアドレス情報を設定する。そして、ステップS5009にてその他のパラメータの初期設定に係る演算処理を実行する。 Then, in step S5008, the address information of the partial texture TD12 is initialized. Specifically, the address information of the first partial texture TD21 is set. Then, in step S5009, arithmetic processing relating to the initial setting of other parameters is executed.

その後、ステップS5010にて瞬き演出指定情報を描画リストに設定して本演算処理を終了する。当該瞬き演出指定情報は、VDP135において瞬き演出に係る描画処理を実行することを特定するのに用いられる情報である。 After that, in step S5010, the blinking effect designation information is set in the drawing list, and the present calculation process ends. The blink effect designation information is information used to specify that the VDP 135 executes the drawing process related to the blink effect.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、ベースオブジェクトOB21及び部分オブジェクトOB22が描画対象として設定されるとともに、各オブジェクトOB21,OB22に対応したパラメータが設定される。この場合、投影した場合にベースオブジェクトOB21の頭部オブジェクトOB31及びベーステクスチャTD11による目の画像に重なるように部分オブジェクトOB22及び第1部分テクスチャTD21による目の画像が表示されるように各オブジェクトOB21,OB22の座標が設定されている。また、上記描画リストには、瞬き演出指定情報が設定されている。 When such a process is executed, the base object OB21 and the partial object OB22 are set as the drawing targets in the drawing list created by the subsequent drawing list output process, and the parameters corresponding to the respective objects OB21 and OB22 are set. Is set. In this case, each object OB21, so that the image of the eye of the partial object OB22 and the first partial texture TD21 is displayed so as to overlap the image of the eye of the head object OB31 and the base texture TD11 of the base object OB21 when projected. The coordinates of the OB22 are set. In addition, blink effect designation information is set in the drawing list.

一方、瞬き演出中である場合には、ステップS5011〜ステップS5013にて、ベースオブジェクトOB21の設定に係る処理を実行する。具体的には、ステップS5011にて、ベースオブジェクトOB21を把握し、ステップS5012にて各種テクスチャのアドレスを設定する。そして、ステップS5013にてその他のパラメータの演算処理を行う。この場合、初期設定された各種パラメータを維持する処理を実行する。 On the other hand, when the blinking effect is being performed, the processing relating to the setting of the base object OB21 is executed in steps S5011 to S5013. Specifically, the base object OB21 is grasped in step S5011, and the addresses of various textures are set in step S5012. Then, in step S5013, calculation processing of other parameters is performed. In this case, a process of maintaining various parameters that have been initialized is executed.

その後、ステップS5014〜ステップS5018にて部分オブジェクトOB22の設定に係る処理を実行する。具体的には、先ずステップS5014にて部分オブジェクトOB22を把握する。そして、ステップS5015にて、現状設定されているデータテーブルに基づいて、部分テクスチャTD12の更新タイミングであるか否かを判定する。具体的には、瞬き演出に対応したデータテーブルには、所定数のフレーム毎に部分テクスチャTD12の更新タイミングを特定するための情報が設定されている。ステップS5015では、上記情報が設定されているか否かを判定する。 After that, the processing relating to the setting of the partial object OB22 is executed in steps S5014 to S5018. Specifically, first, in step S5014, the partial object OB22 is grasped. Then, in step S5015, it is determined whether it is the update timing of the partial texture TD12 based on the currently set data table. Specifically, in the data table corresponding to the blink effect, information for specifying the update timing of the partial texture TD12 is set for each predetermined number of frames. In step S5015, it is determined whether the above information is set.

部分テクスチャTD12の更新タイミングでない場合には、ステップS5016に進み、前回の部分テクスチャTD12のアドレス情報を設定する。そして、ステップS5017にてその他のパラメータの演算処理を実行し、ステップS5010にて瞬き演出指定情報を設定し、本演算処理を終了する。 If it is not the update timing of the partial texture TD12, the process proceeds to step S5016, and the address information of the previous partial texture TD12 is set. Then, in step S5017, calculation processing of other parameters is executed, and in step S5010, blinking effect designation information is set, and this calculation processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理では、前回作成された描画リストと同一の描画リストが作成される。 When such a process is executed, in the subsequent drawing list output process, the same drawing list as the previously created drawing list is created.

一方、部分テクスチャTD12の更新タイミングである場合には、ステップS5018に進み、前回の部分テクスチャに対して次の部分テクスチャのアドレス情報を設定する処理を実行する。具体的には、瞬き演出に対応したデータテーブルには、部分オブジェクトOB22に対する貼付対象となる各部分テクスチャTD21〜TD23の順序が予め設定されている。詳細には、第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャ→第2部分テクスチャTD22を1周期として設定されている。ステップS5018では、上記周期に基づいて、前回の描画リストにおいて設定された部分テクスチャに対して次の部分テクスチャを把握し、当該次の部分テクスチャに対応したアドレスを設定する処理を実行する。 On the other hand, if it is the update timing of the partial texture TD12, the flow advances to step S5018 to execute processing for setting address information of the next partial texture with respect to the previous partial texture. Specifically, the order of the partial textures TD21 to TD23 to be attached to the partial object OB22 is preset in the data table corresponding to the blink effect. Specifically, the first partial texture TD21→the second partial texture TD22→the third partial texture→the second partial texture TD22 is set as one cycle. In step S5018, based on the above cycle, the next partial texture is grasped with respect to the partial texture set in the previous drawing list, and the process of setting the address corresponding to the next partial texture is executed.

そして、ステップS5017及びステップS5010の処理を実行して本演算処理を終了する。 Then, the processing of step S5017 and step S5010 is executed, and the present arithmetic processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、前回作成された描画リストと比較して、部分オブジェクトOB22に対して貼り付けられる部分テクスチャTD12が異なっている。 When such a process is executed, the drawing list created by the subsequent drawing list output process is different from the previously created drawing list in the partial texture TD12 pasted to the partial object OB22. ..

VDP135は、瞬き演出指定情報が設定された描画リストを受信した場合、各オブジェクトOB21,OB22に設定されている座標に基づいてワールド座標系への設定を行う。そして、ベースオブジェクトOB21に対してベーステクスチャTD11を含む各種テクスチャをマッピングするとともに、部分オブジェクトOB22に対して今回描画リストに設定されている部分テクスチャTD12をマッピングし、演出及び図柄用の描画データ作成処理にて、各オブジェクトOB21,OB22を平行投影し、描画データを作成する。これにより、目の部分が部分テクスチャTD12の画像に置き換わったキャラクタ画像が作成される。 When receiving the drawing list in which the blinking effect designation information is set, the VDP 135 sets the world coordinate system based on the coordinates set in each of the objects OB21 and OB22. Then, various textures including the base texture TD11 are mapped to the base object OB21, the partial texture TD12 set in the drawing list this time is mapped to the partial object OB22, and drawing data creation processing for effects and symbols is performed. At, the respective objects OB21 and OB22 are projected in parallel to create drawing data. As a result, a character image in which the eyes are replaced by the image of the partial texture TD12 is created.

この場合、部分テクスチャTD12の更新タイミングに係る描画リストには、前回の描画リストとは異なる部分テクスチャTD12が設定されているため、表示面Gには、前回の処理により表示されたキャラクタ画像と比較して、目の態様が異なるキャラクタ画像が表示されることとなる。 In this case, since the partial texture TD12 different from the previous drawing list is set in the drawing list related to the update timing of the partial texture TD12, the display surface G is compared with the character image displayed by the previous processing. Then, the character images with different eyes are displayed.

次に、瞬き演出の様子について図87を用いて説明する。図87は、瞬き演出を説明するための説明図であり、具体的には図87(a)は瞬き演出の開始タイミングにおいて表示面Gに表示される画像を説明するための説明図、図87(b)及び図87(c)はキャラクタ画像CP22の表示態様の移り変わりを時系列で示した説明図である。なお、説明の便宜上、キャラクタ画像CP22以外の画像を省略して示すが、実際には背景画像及び図柄画像等が表示される。 Next, the state of the blink effect will be described with reference to FIG. 87 is an explanatory diagram for explaining the blink effect, and specifically, FIG. 87(a) is an explanatory diagram for explaining an image displayed on the display surface G at the start timing of the blink effect, FIG. (B) and FIG. 87(c) are explanatory views showing changes in the display mode of the character image CP22 in time series. For convenience of explanation, images other than the character image CP22 are omitted, but actually, a background image, a pattern image, and the like are displayed.

瞬き演出が開始される場合、図87(a)に示すように、ベースオブジェクトOB21及びベーステクスチャTD11を含む各種テクスチャを用いて作成されたベース画像CP21を有するキャラクタ画像CP22が表示される。この場合、ベース画像CP21における重ね合わせ領域PE2(詳細には目の領域)には、部分オブジェクトOB22及び第1部分テクスチャTD21を用いて作成された第1部分画像CP23が表示される。 When the blink effect is started, as shown in FIG. 87(a), a character image CP22 having a base image CP21 created using various textures including the base object OB21 and the base texture TD11 is displayed. In this case, the first partial image CP23 created using the partial object OB22 and the first partial texture TD21 is displayed in the overlapping region PE2 (specifically, the eye region) in the base image CP21.

なお、既に説明した通り、第1部分テクスチャTD21に描かれている目の画像は、ベース画像CP21における目の画像と同一であるため、実際にはベース画像CP21と同一の画像が表示されることとなる。 As described above, the image of the eye drawn on the first partial texture TD21 is the same as the image of the eye on the base image CP21, and thus the same image as the base image CP21 is actually displayed. Becomes

その後、部分テクスチャTD12の更新タイミングとなることに基づいて、図87(b)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第2部分テクスチャTD22を用いて作成された第2部分画像CP24が表示される。 Then, based on the update timing of the partial texture TD12, as shown in FIG. 87(b), in the overlapping area PE2, the second part created using the partial object OB22 and the second partial texture TD22. The image CP24 is displayed.

そして、次の更新タイミングとなることに基づいて、図87(c)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第3部分テクスチャTD23を用いて作成された第3部分画像CP25が表示される。 Then, based on the next update timing, as shown in FIG. 87(c), in the overlapping area PE2, the third partial image CP25 created using the partial object OB22 and the third partial texture TD23. Is displayed.

以上のように、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25の順に更新されることにより、目が徐々に閉じていく様子が表現される。 As described above, by updating in the order of the first partial image CP23→the second partial image CP24→the third partial image CP25, a state in which the eyes are gradually closed is expressed.

その後、更新タイミングとなる度に、重ね合わせ領域PE2には、第2部分画像CP24→第1部分画像CP23が表示される。 After that, the second partial image CP24→the first partial image CP23 is displayed in the overlapping region PE2 each time the update timing comes.

すなわち、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25→第2部分画像CP24→第1部分画像CP23→…、という順序で繰り返し画像が更新されることにより、キャラクタ画像CP22が瞬きをしているように見える。 That is, the character image CP22 is updated by repeatedly updating the images in the order of the first partial image CP23→the second partial image CP24→the third partial image CP25→the second partial image CP24→the first partial image CP23→.... Looks like blinking.

以上の通り、キャラクタ画像CP22の目の部分に対して局所的に部分オブジェクトOB22を配置し、所定の更新タイミングとなる度に当該部分オブジェクトOB22に対して貼り付ける部分テクスチャTD12を更新することにより、キャラクタ画像CP22の瞬きを表現することができる。この場合、部分テクスチャTD12はベーステクスチャTD11の一部の領域のテクスチャであるため、ベーステクスチャTD11と比較してデータ量が小さい。これにより、ベーステクスチャTD11を複数用意する構成と比較して、瞬き演出を行うのに必要なデータ量の削減を図ることができる。 As described above, by arranging the partial object OB22 locally with respect to the eye part of the character image CP22 and updating the partial texture TD12 to be attached to the partial object OB22 at each predetermined update timing, The blink of the character image CP22 can be expressed. In this case, since the partial texture TD12 is a texture of a partial area of the base texture TD11, the amount of data is smaller than that of the base texture TD11. As a result, it is possible to reduce the amount of data required to perform the blinking effect, as compared with a configuration in which a plurality of base textures TD11 are prepared.

すなわち、ベース画像CP21を、変化対象となる部位と変化対象とならない部位とに区分けし、変化対象となる部位のみに対応したテクスチャを設け、当該テクスチャとベース画像CP21とを用いてキャラクタ画像の動作を表現する構成とした。これにより、ベース画像CP21全体に係るテクスチャ、すなわちベーステクスチャTD11を複数用意する必要がない。よって、データ量の削減を図りつつ、特定キャラクタ画像の一部を変化させることが可能となる。 That is, the base image CP21 is divided into a part to be changed and a part not to be changed, a texture corresponding to only the part to be changed is provided, and the motion of the character image using the texture and the base image CP21. Is configured to express. Thereby, it is not necessary to prepare a plurality of textures related to the entire base image CP21, that is, a plurality of base textures TD11. Therefore, it is possible to change a part of the specific character image while reducing the amount of data.

この場合、例えば頭部オブジェクトOB31を、目の部分に対応した目オブジェクトと、目よりも下の部分に対応した第1オブジェクトと、目よりも上の部分に対応した第2オブジェクトとに分割し、当該目オブジェクトに対して貼り付けるテクスチャを変更することにより、瞬きを表現する構成も考えられる。しかしながら、かかる構成の場合、頭部オブジェクトOB31を分割することに起因して描画対象となるオブジェクト数が増加し、把握対象となる頂点数が増加する。このため、処理負荷の増大化が懸念される。 In this case, for example, the head object OB31 is divided into an eye object corresponding to the eye part, a first object corresponding to the part below the eye, and a second object corresponding to the part above the eye. A configuration in which a blink is expressed by changing the texture attached to the eye object is also conceivable. However, in such a configuration, the number of objects to be drawn increases due to the division of the head object OB31, and the number of vertices to be grasped increases. Therefore, there is a concern that the processing load will increase.

これに対して、本形態によれば、1の頭部オブジェクトOB31と、描画に係る処理負荷が比較的少ない板状ポリゴンである1の部分オブジェクトOB22とで瞬きを実現することができる。これにより、瞬き演出を行うのに要する処理負荷の増大化を抑制することができる。 On the other hand, according to the present embodiment, it is possible to realize blinking with one head object OB31 and one partial object OB22 which is a plate-shaped polygon with a relatively small processing load related to drawing. As a result, it is possible to suppress an increase in the processing load required to perform the blink effect.

なお、瞬きについて説明したが、これに限られず、1単位の個別画像の一部を変化させる場合に本発明を適用することができる。具体的には、変化対象となる領域に対して重なるように部分オブジェクトを配置し、当該部分オブジェクトに対して当該領域に表示される変化後の部分画像に対応した部分テクスチャを貼り付ければよい。例えば、口を変える場合、服の模様を一部変更する場合にも本発明を適用することができる。 Although the blink has been described, the present invention is not limited to this, and the present invention can be applied to the case where a part of one unit of the individual image is changed. Specifically, the partial objects may be arranged so as to overlap the area to be changed, and the partial texture corresponding to the changed partial image displayed in the area may be pasted to the partial object. For example, the present invention can be applied to the case of changing the mouth and the case of partially changing the pattern of clothes.

また、瞬き演出を行う場合に、ベース画像CP21の目の画像と同一の第1部分テクスチャTD21を用意して、当該第1部分テクスチャTD21を用いて第1部分画像CP23を表示させる構成としたが、これに限られず、第1部分テクスチャTD21を用意しない構成としてもよい。これにより、瞬き演出に要するデータ量の削減を好適に図ることができる。この場合、瞬き演出に対応したデータテーブルに、ベース画像CP21をそのまま表示する期間であることを特定するための情報を設定し、ステップS5013の処理の実行後に、当該期間中であるか否かを判定する処理を実行する。当該判定処理にて、ベース画像CP21をそのまま表示する期間であると判定した場合には、部分オブジェクトOB22の設定に係る処理(ステップS5014〜ステップS5017)を実行することなく、本演算処理を終了する。一方、ベース画像CP21をそのまま表示する期間でないと判定した場合には、部分オブジェクトOB22の設定に係る処理を実行する構成とするとよい。これにより、ベース画像CP21の一部を流用して瞬き演出を行うことが可能となる。但し、上記判定処理に係る処理負荷分だけ瞬き演出用演算処理の処理負荷が大きくなることに着目すれば、第1部分テクスチャTD21を予め用意しておく構成の方がよい。 Further, when performing the blinking effect, the first partial texture TD21 that is the same as the eye image of the base image CP21 is prepared, and the first partial image CP23 is displayed using the first partial texture TD21. However, the configuration is not limited to this, and the first partial texture TD21 may not be prepared. As a result, it is possible to suitably reduce the amount of data required for the blink effect. In this case, the data table corresponding to the blink effect is set with information for specifying that it is the period during which the base image CP21 is displayed as it is, and after execution of the process of step S5013, it is determined whether or not the period is during the period. Execute the judgment process. When it is determined in the determination process that the base image CP21 is being displayed as it is, the calculation process ends without performing the process (steps S5014 to S5017) related to the setting of the partial object OB22. .. On the other hand, when it is determined that it is not the period during which the base image CP21 is displayed as it is, it may be configured to execute the process related to the setting of the partial object OB22. This makes it possible to divert part of the base image CP21 and perform a blinking effect. However, if attention is paid to the fact that the processing load of the blinking effect calculation processing increases by the processing load related to the determination processing, it is better to prepare the first partial texture TD21 in advance.

特に、一般的に定期処理では、最大負荷が付与された場合であっても処理落ちしないように設計する必要がある。このため、上記構成の場合、上記判定処理及び部分オブジェクトOB22の設定に係る処理が実行された場合であっても処理落ちしないように設計する必要がある。これに対して、第1部分テクスチャTD21を用意する構成の場合、上記判定処理が必要なく、その分だけ余裕を持たせることができる。これにより、瞬き演出に要するテクスチャのデータ量の削減と、瞬き演出に起因する処理負荷の増大化の抑制とのバランスを取ることができる。 In particular, in regular processing, it is generally necessary to design so that processing does not drop even when the maximum load is applied. Therefore, in the case of the above configuration, it is necessary to design so that the processing does not drop even when the determination processing and the processing related to the setting of the partial object OB22 are executed. On the other hand, in the case of the configuration in which the first partial texture TD21 is prepared, the above determination process is not necessary, and a margin can be provided for that amount. As a result, it is possible to achieve a balance between reducing the amount of texture data required for the blinking effect and suppressing the increase in the processing load due to the blinking effect.

なお、瞬きの途中態様の様子を示す第2部分テクスチャTD22を設ける構成としたが、これに限られず、例えば第1部分テクスチャTD21及び第3部分テクスチャTD23に基づいて中間態様の部分テクスチャを作成する構成としてもよい。この場合、中間態様の部分テクスチャに係る画像データを用意する必要がないため、データ量の削減を図ることができる。但し、中間態様の部分テクスチャの作成に係る処理負荷を考慮すれば、中間態様の部分テクスチャを予め用意しておく構成の方が好ましい。 Note that the second partial texture TD22 indicating the state of the intermediate mode of blinking is provided, but the present invention is not limited to this, and a partial texture of an intermediate mode is created based on, for example, the first partial texture TD21 and the third partial texture TD23. It may be configured. In this case, it is not necessary to prepare image data related to the intermediate texture of the partial texture, so that the amount of data can be reduced. However, in consideration of the processing load for creating the intermediate texture of the intermediate texture, it is preferable to prepare the intermediate texture of the partial texture in advance.

上記構成においては、部分オブジェクトOB22を設け、ベースオブジェクトOB21に対して部分オブジェクトOB22が重なるように両者の位置関係を設定することで瞬き演出を実現させる構成としたが、これに限られず、部分オブジェクトOB22を設けない構成としてもよい。この場合、部分テクスチャTD12を頭部オブジェクトOB31における目の領域に対して直接上書きする構成としてもよい。具体的には、ベーステクスチャTD11が貼り付けられた頭部オブジェクトOB31の目の領域に対応する頂点に対応付けて部分テクスチャTD12のUV座標を設定し、当該部分テクスチャTD12を上記目の領域に貼り付ける処理を実行する。但し、部分オブジェクトOB22は板ポリゴンであるため、当該部分オブジェクトOB22を構成する頂点の数は頭部オブジェクトOB31における目の領域を形成する頂点の数よりも少なくなり易い。このため、部分オブジェクトOB22を用いて瞬き演出を行う構成の方が、マッピングに係る処理負荷が軽くなり易い。 In the above configuration, the partial object OB22 is provided, and the positional relationship between the base object OB21 and the partial object OB22 is set so that the partial object OB22 overlaps with the base object OB21. However, the present invention is not limited to this. The OB 22 may not be provided. In this case, the partial texture TD12 may be directly overwritten on the eye region of the head object OB31. Specifically, the UV coordinate of the partial texture TD12 is set in association with the vertex corresponding to the eye area of the head object OB31 to which the base texture TD11 is pasted, and the partial texture TD12 is pasted to the eye area. Execute the attaching process. However, since the partial object OB22 is a plate polygon, the number of vertices forming the partial object OB22 tends to be smaller than the number of vertices forming the eye region in the head object OB31. For this reason, the processing load related to mapping is likely to be lighter in the configuration in which the blinking effect is performed using the partial object OB22.

さらに、髪型オブジェクトOB32に対して貼り付けるテクスチャを複数種類設け、当該髪型オブジェクトOB32に貼り付けるテクスチャを場面に応じて切り換える構成としてもよい。 Further, a plurality of types of textures to be attached to the hairstyle object OB32 may be provided, and the textures to be attached to the hairstyle object OB32 may be switched according to the scene.

<その他の実施形態>
なお、上述した各実施形態の記載内容に限定されず、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能である。例えば以下のように変更してもよい。ちなみに、以下の別形態の構成を、上記実施の形態の構成に対して、個別に適用してもよく、組み合わせて適用してもよい。
<Other embodiments>
It should be noted that the present invention is not limited to the description of each of the above-described embodiments, and various modifications and improvements can be made without departing from the spirit of the present invention. For example, you may change as follows. By the way, the configuration of the following different embodiment may be applied individually or in combination with the configuration of the above embodiment.

(1)描画データを作成する上で必要となる画像データを、その必要となったタイミングでメモリモジュール133から読み出すのではなく、その必要となるタイミングよりも前に事前にVRAM134に読み出しておく構成としてもよい。このような事前読み出しを行うことにより、描画データの作成を好適に行うことが可能となる。特に、メモリモジュール133としてNAND型フラッシュメモリを用いる場合には、読み出しに要する時間がNOR型フラッシュメモリよりも長時間化してしまう傾向にあるため、このような構成に、上記事前読み出しの構成を適用すると効果的である。なお、VDP135において使用される画像データに加えて又は代えて、表示CPU131において使用されるプログラムやデータが事前に読み出される構成としてもよい。 (1) A configuration in which the image data necessary for creating the drawing data is not read from the memory module 133 at the necessary timing but is read into the VRAM 134 in advance before the necessary timing. May be By performing such pre-reading, it is possible to preferably create drawing data. In particular, when the NAND flash memory is used as the memory module 133, the time required for reading tends to be longer than that of the NOR flash memory. Therefore, the above-described pre-reading configuration is applied to such a configuration. Then it is effective. In addition to or in place of the image data used in the VDP 135, the program or data used in the display CPU 131 may be read in advance.

(2)演出用の描画データが書き込まれる演出用のバッファと、図柄用の描画データが書き込まれる図柄用のバッファとが個別に設けられており、最終的な生成データの生成に際しては、背景用のバッファに書き込まれた描画データと、演出用のバッファに書き込まれた描画データと、図柄用の描画データに書き込まれた描画データと、が合成される構成としてもよい。また、これに代えて、第1演出用の描画データが作成されるバッファと、第2演出用の描画データが作成されるバッファとが存在していて、第1演出用の描画データは背景用の描画データと図柄用の描画データとの間に存在し、第2演出用の描画データは最前面に存在するように、描画データの合成が行われる構成としてもよい。 (2) A rendering buffer into which rendering data for writing is written, and a buffer for symbols in which drawing data for symbols are written are separately provided, and when the final generation data is generated, it is used for the background. The drawing data written in the buffer, the drawing data written in the effect buffer, and the drawing data written in the drawing data may be combined. Instead of this, there is a buffer in which drawing data for the first effect is created and a buffer in which drawing data for the second effect is created, and the drawing data for the first effect is for the background. The drawing data may be combined so that it exists between the drawing data and the drawing data for the design, and the drawing data for the second effect exists on the foreground.

(3)カメラ(視点)がワールド座標系に配置される画像データ毎に個別に設定される構成としたが、これに代えて、ワールド座標系に配置される全画像データに対して単一のカメラが共通して設定される構成としてもよい。 (3) The camera (viewpoint) is set individually for each image data set in the world coordinate system, but instead of this, a single image is set for all image data set in the world coordinate system. The configuration may be such that the cameras are commonly set.

(4)ワールド座標系に配置された画像データは、背景画像、演出画像及び図柄画像の単位で投影される構成としたが、背景画像及び演出画像の単位でまとめて投影される構成としてもよく、演出画像及び図柄画像の単位でまとめて投影される構成としてもよく、全てがまとめて投影される構成としてもよい。 (4) The image data arranged in the world coordinate system is configured to be projected in units of the background image, the effect image, and the pattern image, but may be configured to be collectively projected in the unit of the background image and the effect image. The effect images and the pattern images may be collectively projected, or all of them may be collectively projected.

(5)上作動口23への入賞に係る保留情報と下作動口24への入賞に係る保留情報とが区別して記憶されるとともに、下作動口24への入賞に係る保留情報が優先して消化される構成を適用してもよく、これとは逆に上作動口23への入賞に係る保留情報が優先して消化される構成を適用してもよい。 (5) Hold information related to winning in the upper working opening 23 and hold information related to winning in the lower working opening 24 are stored separately, and the hold information related to winning in the lower working opening 24 is prioritized. A configuration in which the digestion is exhausted may be applied, or conversely, a configuration in which the reservation information related to winning in the upper operation port 23 is preferentially digested may be applied.

また、上記構成において、複数の作動口が上下に並設されているのではなく、上作動口23に対応した第1作動口と、下作動口24に対応した第2作動口とが左右に並設された構成としてもよく、これら両作動口が斜めに並設された構成としてもよい。さらにまた、発射ハンドル41の操作態様に応じて、第1作動口への入賞のみ又は第2作動口への入賞のみを狙えるように、両作動口を離間して配置する構成としてもよい。 Further, in the above configuration, the plurality of operating ports are not arranged side by side in the vertical direction, but the first operating port corresponding to the upper operating port 23 and the second operating port corresponding to the lower operating port 24 are provided on the left and right. The structure may be arranged in parallel, or both of these working ports may be arranged obliquely in parallel. Furthermore, depending on the operation mode of the firing handle 41, both operation ports may be arranged apart from each other so that only the first operation port or only the second operation port can be won.

また、上記構成において、メイン表示部33に、上作動口23への入賞に基づき取得された保留情報の当否判定の結果を表示する第1表示領域と、下作動口24への入賞に基づき取得された保留情報の当否判定の結果を表示する第2表示領域とを設けてもよい。この場合、上作動口23への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第1表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。また、下作動口24への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第2表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。 Further, in the above-mentioned configuration, the main display portion 33 displays the first display area for displaying the result of the judgment of the holding information acquired based on the winning of the upper working opening 23 and the winning of the lower working opening 24. It is also possible to provide a second display area for displaying the result of the determination of whether or not the held information is held. In this case, the variable information of the pattern is displayed in the first display area based on the fact that the hold information acquired based on the winning of the upper working opening 23 is the target of the hit determination or the hit determination. Is started and the stop result corresponding to the win/fail judgment is displayed, and the variation display for one game is ended. In addition, based on the fact that the hold information acquired based on the winning of the lower working opening 24 is the target of the hit determination or the hit determination is performed, the variable display of the pattern is displayed in the second display area. At the same time as the start, the result of stop corresponding to the win/no judgment is displayed, and the variation display of the one game is ended.

(6)上作動口23への入賞に係る保留情報が当否判定の対象となった場合と、下作動口24への入賞に係る保留情報が当否判定の対象となった場合とで、遊技者が得られる利益が異なる構成としてもよい。また、上記各実施形態のように作動口を複数設ける構成においては、作動口の数は2個に限定されることはなく、3個以上であってもよい。また、作動口が1個のみ設けられた構成としてもよい。 (6) Depending on whether the hold information related to winning on the upper working opening 23 is the target of the winning/disabling judgment, or the holding information related to winning on the lower working opening 24 is the target of the winning/failing judgment. The profits obtained may be different. Further, in the configuration in which a plurality of operating ports are provided as in each of the above-described embodiments, the number of operating ports is not limited to two and may be three or more. Further, the configuration may be such that only one operating port is provided.

(7)主制御装置50から出力されるコマンドに基づいて、音声発光制御装置60により表示制御装置70,130が制御される構成に代えて、主制御装置50から出力されるコマンドに基づいて、表示制御装置70,130が音声発光制御装置60を制御する構成としてもよい。また、音声発光制御装置60と表示制御装置70,130とが別々に設けられた構成に代えて、両制御装置が一の制御装置として設けられた構成としてもよく、それら両制御装置のうち一方の機能が主制御装置50に集約されていてもよく、それら両制御装置の両機能が主制御装置50に集約されていてもよい。また、主制御装置50から音声発光制御装置60に出力されるコマンドの構成も任意である。 (7) Instead of the configuration in which the display control devices 70 and 130 are controlled by the sound emission control device 60 based on the command output from the main control device 50, based on the command output from the main control device 50, The display control devices 70 and 130 may control the sound emission control device 60. Further, instead of the configuration in which the sound emission control device 60 and the display control devices 70 and 130 are separately provided, both control devices may be provided as one control device. May be integrated in the main controller 50, or both functions of both controllers may be integrated in the main controller 50. The configuration of the command output from the main control device 50 to the sound emission control device 60 is also arbitrary.

(8)上記各実施形態とは異なる他のタイプのパチンコ機等、例えば特別装置の特定領域に遊技球が入ると電動役物が所定回数開放するパチンコ機や、特別装置の特定領域に遊技球が入ると権利が発生して大当たりとなるパチンコ機、他の役物を備えたパチンコ機、アレンジボール機、雀球等の遊技機にも、本発明を適用できる。 (8) Other types of pachinko machines different from the above embodiments, such as a pachinko machine in which an electric accessory opens a predetermined number of times when a game ball enters a specific area of a special device, or a game ball in a specific area of a special device The present invention can also be applied to a pachinko machine in which a right is generated and a big hit is generated, a pachinko machine provided with another accessory, an arrangement ball machine, a game machine such as a sparrow ball.

また、弾球式でない遊技機、例えば、複数種の図柄が周方向に付された複数の周回体として複数のリールを備え、メダルの投入及びスタートレバーの操作によりリールの回転を開始し、ストップスイッチが操作されることでリールが停止した後に、表示窓から視認できる有効ライン上に特定図柄又は特定図柄の組み合わせが成立していた場合にはメダルの払い出し等といった特典を遊技者に付与するスロットマシンにも、本発明を適用できる。この場合、スロットマシンの各種制御に対して本発明を適用できるとともに、リールとは別に液晶表示装置といった表示装置を備えた構成においては当該表示制御装置における画像の表示に係る制御に対して本発明を適用できる。 In addition, a game machine that is not a ball-ball type, for example, is equipped with a plurality of reels as a plurality of revolving bodies provided with a plurality of types of symbols in the circumferential direction, starts the rotation of the reel by inserting a medal and operating the start lever, and stops. After the reel is stopped by operating the switch, if a specific symbol or a combination of specific symbols is established on the effective line visible from the display window, a slot that gives the player benefits such as payout of medals The present invention can be applied to a machine. In this case, the present invention can be applied to various controls of the slot machine, and in a configuration including a display device such as a liquid crystal display device in addition to the reels, the present invention can be applied to control related to image display in the display control device. Can be applied.

また、取込装置を備え、貯留部に貯留されている所定数の遊技球が取込装置により取り込まれた後にスタートレバーが操作されることによりリールの回転を開始する、パチンコ機とスロットマシンとが融合された遊技機にも、本発明を適用できる。 In addition, a pachinko machine and a slot machine that include a take-in device and start rotation of a reel by operating a start lever after a predetermined number of game balls stored in a storage section have been taken in by the take-in device. The present invention can be applied to a gaming machine in which

<上記実施形態から抽出される発明群について>
以下、上述した実施形態から抽出される発明群の特徴について、必要に応じて効果等を示しつつ説明する。なお以下においては、理解の容易のため、上記実施形態において対応する構成を括弧書き等で適宜示すが、この括弧書き等で示した具体的構成に限定されるものではない。
<Regarding invention groups extracted from the above-described embodiment>
The features of the invention group extracted from the above-described embodiments will be described below, showing effects and the like as necessary. In the following, for ease of understanding, the corresponding configuration in the above embodiment is appropriately shown in parentheses or the like, but is not limited to the specific configuration shown in brackets or the like.

<特徴A群>
特徴A1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記データ生成手段は、
複数の個別画像を含む画像群を前記表示部に表示させる場合に適用する前記パラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)と、
当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature A group>
Features A1. Display means (symbol display device 31) having a display portion (display surface G),
When an image is displayed on the display unit using the generation data (drawing data) generated by the data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152), and a predetermined update timing is reached. Display control means (display circuit 155 of VDP 135) for updating the content of the image,
Equipped with
In the gaming machine, the data generating means generates the generated data based on using image data and applying parameter data that determines a display mode of an image based on the image data,
The data generating means,
Derivation means for deriving the parameter data to be applied when displaying an image group including a plurality of individual images on the display unit (function of executing the processing of steps S2204, S2208 and S2212 in VDP135, or step S2305 in VDP135). , Step S2310, step S2317),
Based on using the specific image data in a state where the parameter data derived by the deriving unit is applied to the specific image data (particle dispersion object PC17), the generated data for displaying the image group on the display unit is displayed. Image group means that enables generation (a function of executing the processing of steps S2206, S2210 and S2214 in the VDP 135, or a function of executing the processing of steps S2307, S2313 and S2319 in the VDP 135),
Equipped with
The deriving unit determines the first parameter data (for example, the first key data KD1) to be applied when displaying the image group at the first update timing and the second update timing that is later than the first update timing. By using the second parameter data (for example, the second key data KD2) that is applied when the image group is displayed with the image group, the image group is displayed at the update timing between the first update timing and the second update timing. A gaming machine provided with a specific derivation means for deriving specific parameter data applied when displaying (a function of executing the process of step S2208 in the VDP 135 or a function of executing the process of step S2310 in the VDP 135). .

特徴A1によれば、複数の個別画像を含む画像群が表示されることにより、表示内容の複雑化が可能となり、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。 According to the characteristic A1, by displaying the image group including the plurality of individual images, the display content can be complicated and the player's interest in the image displayed on the display unit can be increased. Become.

この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。 In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived using the first parameter data and the second parameter data, the specific parameter data It is possible to reduce the data capacity in that it is not necessary to store in advance, and it is possible to ensure continuity with respect to each of the first parameter data and the second parameter data.

さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。 Furthermore, the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is the first parameter data and the second parameter as the specific parameter data. It is collectively derived using data and. As a result, parameter data to be referred to when deriving the parameter data corresponds to the same update timing among the plurality of individual images included in the image group. Therefore, the processing load in deriving the specific parameter data can be reduced.

特徴A2.前記画像群には、第1個別画像(例えば粒子単体画像PT1)と第2個別画像(例えば粒子単体画像PT2)とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータとを含む前記特定パラメータデータを導出するものであることを特徴とする特徴A1に記載の遊技機。
Feature A2. The image group includes a first individual image (for example, a single particle image PT1) and a second individual image (for example, a single particle image PT2),
The first parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The second parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The specific derivation means applies the parameter data applied when displaying the first individual image and the second individual image using the first parameter data and the second parameter data. The game machine according to Feature A1, wherein the specific parameter data including the parameter data to be derived is derived.

特徴A2によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。 According to the characteristic A2, each of the first parameter data, the second parameter data, and the specific parameter data has parameter data corresponding to each of the first individual image and the second individual image included in the image group. Become. Accordingly, in the configuration in which the parameter data for displaying the plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is collectively derived as the specific parameter data, When the display mode of the first individual image and the second individual image is changed with the progress of, it is possible to make the changing mode correspond to each individual image.

特徴A3.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであることを特徴とする特徴A1又はA2に記載の遊技機。 Features A3. The specific deriving means derives the specific parameter data by blending the first parameter data and the second parameter data at a predetermined ratio. A game according to the feature A1 or A2. Machine.

特徴A3によれば、第1パラメータデータと第2パラメータデータとをそのまま利用しながら特定パラメータデータを導出することが可能となる。 According to the characteristic A3, it is possible to derive the specific parameter data while using the first parameter data and the second parameter data as they are.

特徴A4.前記画像群には、第1個別画像と第2個別画像とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、
前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用される第1特定パラメータデータと、前記第2個別画像を表示させる場合に適用される第2特定パラメータデータとを含む前記特定パラメータデータを導出するものでり、
且つ、特定の更新タイミングにて前記特定パラメータデータを導出する場合において、前記第1特定パラメータデータを導出する場合における前記所定の比率と、前記第2特定パラメータデータを導出する場合における前記所定の比率とが同一であることを特徴とする特徴A3に記載の遊技機。
Features A4. The image group includes a first individual image and a second individual image,
The first parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The second parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The specific derivation means,
A first specific parameter data applied when the first individual image is displayed and the second individual image applied by using the first parameter data and the second parameter data; 2 is for deriving the specific parameter data including the specific parameter data,
And, when deriving the specific parameter data at a specific update timing, the predetermined ratio when deriving the first specific parameter data and the predetermined ratio when deriving the second specific parameter data. The gaming machine according to feature A3, wherein and are the same.

特徴A4によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。 According to the characteristic A4, each of the first parameter data, the second parameter data, and the specific parameter data has parameter data corresponding to each of the first individual image and the second individual image included in the image group. Become. Accordingly, in the configuration in which the parameter data for displaying the plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is collectively derived as the specific parameter data, When the display mode of the first individual image and the second individual image is changed with the progress of, it is possible to make the changing mode correspond to each individual image.

また、このように各個別画像に対応した各パラメータデータを含むようにして特定パラメータデータを導出する構成において、第1個別画像に対応した第1特定パラメータデータを導出する場合に用いられる所定の比率と、第2個別画像に対応した第2特定パラメータデータを導出する場合に用いられる所定の比率とが同一となっている。これにより、所定の比率の情報を共通して使用することが可能となり、所定の比率がそれぞれ異なる構成に比べて処理負荷の軽減が図られる。 Further, in the configuration for deriving the specific parameter data so as to include each parameter data corresponding to each individual image as described above, a predetermined ratio used when deriving the first specific parameter data corresponding to the first individual image, The predetermined ratio used when deriving the second specific parameter data corresponding to the second individual image is the same. As a result, it becomes possible to commonly use the information of a predetermined ratio, and the processing load can be reduced as compared with the configuration in which the predetermined ratio is different.

特徴A5.前記第1更新タイミングと前記第2更新タイミングとの間には、前記画像群の表示態様が変更される更新タイミングが複数存在しており、
前記特定導出手段は、前記第1更新タイミングと前記第2更新タイミングとの間にて前記画像群の表示態様が変更される複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとを用いて前記特定パラメータデータを導出するものであることを特徴とする特徴A1乃至A4のいずれか1に記載の遊技機。
Features A5. Between the first update timing and the second update timing, there are a plurality of update timings for changing the display mode of the image group,
The specific derivation means is configured to set the first parameter data and the second parameter at each of a plurality of update timings at which the display mode of the image group is changed between the first update timing and the second update timing. The game machine according to any one of features A1 to A4, wherein the specific parameter data is derived using data.

特徴A5によれば、第1更新タイミングと第2更新タイミングとの間に含まれる複数の更新タイミングのそれぞれにおいて同一の特定パラメータデータを用いるのではなく、それぞれの更新タイミングにて個別に特定パラメータデータが導出される構成であるため、第1パラメータデータから第2パラメータデータへと除々に近付くようにパラメータデータを導出することが可能となる。これにより、画像群の表示態様を一連のものとして遊技者に視認させることが可能となる。 According to the characteristic A5, instead of using the same specific parameter data at each of the plurality of update timings included between the first update timing and the second update timing, the specific parameter data is individually provided at each update timing. Is derived, it is possible to derive the parameter data such that the first parameter data gradually approaches the second parameter data. As a result, the player can visually recognize the display mode of the image group as a series.

また、複数の更新タイミングのそれぞれにおいて用いられるパラメータデータが第1パラメータデータと第2パラメータデータとを用いて導出される構成であるため、それらパラメータデータを予め記憶させておく構成に比べ、データ容量の削減が図られる。さらにまた、それら複数のパラメータデータは、いずれも第1パラメータデータと第2パラメータデータとを用いて導出されるため、それら複数のパラメータデータを導出する上で参照すべきパラメータデータの種類を変更する必要が生じない。よって、処理負荷の軽減が図られる。 Further, since the parameter data used at each of the plurality of update timings is derived by using the first parameter data and the second parameter data, the data capacity is larger than that of the configuration in which the parameter data is stored in advance. Can be reduced. Furthermore, since the plurality of parameter data are all derived using the first parameter data and the second parameter data, the type of parameter data to be referred to when deriving the plurality of parameter data is changed. No need arises. Therefore, the processing load can be reduced.

特徴A6.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであり、
前記データ生成手段は、前記複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとをブレンドする場合における前記所定の比率を決定する比率決定手段(表示CPU131におけるステップS2109の処理を実行する機能、又はVDP135におけるステップS2309の処理を実行する機能)を備え、
当該比率決定手段は、前記複数の更新タイミングにおいて一の更新タイミングから次の更新タイミングとなった場合の前記所定の比率の変化量と、当該次の更新タイミングからさらに次の更新タイミングとなった場合の前記所定の比率の変化量とが同一となるように前記決定を行うものであることを特徴とする特徴A5に記載の遊技機。
Features A6. The specific derivation means derives the specific parameter data by blending the first parameter data and the second parameter data at a predetermined ratio,
The data generation means determines a predetermined ratio in the case of blending the first parameter data and the second parameter data at each of the plurality of update timings, a ratio determination means (processing of step S2109 in the display CPU 131). Or a function of executing the process of step S2309 in the VDP 135),
The ratio determining means determines the change amount of the predetermined ratio when one update timing is changed to the next update timing in the plurality of update timings, and when the next update timing is further changed from the next update timing. The gaming machine according to feature A5, wherein the determination is made so that the amount of change in the predetermined ratio is the same.

特徴A6によれば、第1更新タイミングと第2更新タイミングとの間の複数の更新タイミングのそれぞれでは、一定の変化量で所定の比率を変更していくだけでよいため、所定の比率を変化させる上での構成の簡素化が図られる。 According to the characteristic A6, at each of the plurality of update timings between the first update timing and the second update timing, it is only necessary to change the predetermined ratio with a constant change amount, so the predetermined ratio is changed. The above configuration can be simplified.

特徴A7.一の更新タイミングにおける画像を表示させるのに必要は画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を出力する描画指示手段(表示CPU131)を備え、
前記表示制御手段は、前記描画指示手段にて指示されている情報に従って画像の表示を行わせるものであり、
当該表示制御手段が、前記特定導出手段を有していることを特徴とする特徴A1乃至A6のいずれか1に記載の遊技機。
Features A7. A drawing instruction means (display CPU 131) for outputting drawing instruction information (drawing list) including at least information for specifying image data and parameter data applied to the image data is necessary to display an image at one update timing. ,
The display control means causes an image to be displayed according to the information instructed by the drawing instructing means,
The game machine according to any one of features A1 to A6, wherein the display control means includes the specific derivation means.

特徴A7によれば、描画指示手段側において特定パラメータデータを導出する必要がないため、当該描画指示手段の処理負荷の軽減が図られる。 According to the characteristic A7, since it is not necessary to derive the specific parameter data on the drawing instruction means side, the processing load of the drawing instruction means can be reduced.

特徴A8.前記第1パラメータデータ、前記第2パラメータデータ及び前記特定パラメータデータは、前記画像群が表示される位置を決定するための座標情報を含んでいることを特徴とする特徴A1乃至A7のいずれか1に記載の遊技機。 Feature A8. Any one of features A1 to A7, wherein the first parameter data, the second parameter data, and the specific parameter data include coordinate information for determining a position at which the image group is displayed. Gaming machine described in.

特徴A8によれば、既に説明したような優れた効果を奏しながら、画像群に含まれる各個別画像の位置が変化していく画像を表示することが可能となる。 According to the characteristic A8, it is possible to display an image in which the position of each individual image included in the image group is changing while exhibiting the excellent effect described above.

特徴A9.前記特定パラメータデータに対応した座標情報は、前記画像群に含まれる各個別画像の位置が、前記第1パラメータデータにより定まる位置と、前記第2パラメータデータにより定まる位置とを結ぶ仮想直線上となるようにする座標情報であることを特徴とする特徴A8に記載の遊技機。 Feature A9. The coordinate information corresponding to the specific parameter data is the position of each individual image included in the image group on a virtual straight line connecting the position determined by the first parameter data and the position determined by the second parameter data. The gaming machine according to Feature A8, which is coordinate information to be set.

特徴A9によれば、第1パラメータデータにより定まる位置から、第2パラメータデータにより定まる位置へと移動しているように画像群を表示させる場合において、それらの両位置を結ぶ直線上を移動するように特定パラメータデータを導出するだけでよいため、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出する上で、当該導出に際しての処理負荷の軽減が図られる。 According to the characteristic A9, when the image group is displayed as if it is moving from the position determined by the first parameter data to the position determined by the second parameter data, the image group is moved on the straight line connecting these two positions. Since it is only necessary to derive the specific parameter data, it is possible to reduce the processing load when deriving the specific parameter data using the first parameter data and the second parameter data.

特徴A10.前記導出手段は、前記第1パラメータデータ及び前記第2パラメータデータを記憶手段(メモリモジュール133)から読み出すことで導出するものであることを特徴とする特徴A1乃至A9のいずれか1に記載の遊技機。 Feature A10. The game according to any one of features A1 to A9, wherein the deriving unit derives the first parameter data and the second parameter data by reading them from a storage unit (memory module 133). Machine.

特徴A10によれば、第1更新タイミングにおいては第1パラメータデータを読み出して用い、第2更新タイミングにおいては第2パラメータデータを読み出して用いるだけでよいため、それら更新タイミングにおける処理負荷の軽減が図られる。その一方、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいては、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出すればよいため、それだけパラメータデータを記憶しておくためのデータ容量が削減できる。つまり、本構成によれば、データ容量及び処理負荷の両方のバランスを図りながら、画像群を用いた表示を行うことが可能となる。 According to the characteristic A10, it is only necessary to read and use the first parameter data at the first update timing, and to read and use the second parameter data at the second update timing, which reduces the processing load at those update timings. Be done. On the other hand, at the update timing between the first update timing and the second update timing, the specific parameter data only has to be derived using the first parameter data and the second parameter data, so that only the parameter data is stored. The amount of data to store can be reduced. That is, according to this configuration, it is possible to perform display using the image group while balancing both the data capacity and the processing load.

特徴A11.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備え、
前記特定画像データは、オブジェクトの画像データに対応しており、前記画像群に含まれる前記複数の個別画像はそれぞれ、前記オブジェクトの画像データの各頂点データに対応していることを特徴とする特徴A1乃至A10のいずれか1に記載の遊技機。
Features A11. The data generating unit arranges image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function of executing the processes of steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (a function of executing the processing of step S1006 in the VDP 135) for setting the image data of the object on a projection plane set based on the viewpoint, and based on the data projected on the projection plane. And a setting unit for drawing (a function of executing the processing of steps S1010 to S1012 in the VDP 135) for generating the generated data,
The specific image data corresponds to image data of an object, and each of the plurality of individual images included in the image group corresponds to each vertex data of the image data of the object. The gaming machine according to any one of A1 to A10.

特徴A11によれば、3次元情報を利用したリアルな画像表示を可能とした構成において、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。 According to the characteristic A11, in the configuration that enables realistic image display using three-dimensional information, one object may be arranged in the virtual three-dimensional space when displaying the image group, so that the processing load is reduced. However, it becomes possible to display the image group.

特徴A12.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定画像データの使用指示情報が含まれている場合、前記特定画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A11に記載の遊技機。
Feature A12. The arranging means draws drawing instruction information (drawing list) including at least information for specifying image data required to display an image at one update timing and parameter data to be applied to the image data. ), the image data is arranged in the virtual three-dimensional space in accordance with the information instructed by the drawing instruction information, whereby generation data corresponding to the drawing instruction information can be generated. Is to
The drawing instruction means, when displaying the image group, includes use instruction information of the specific image data in the drawing instruction information,
When the drawing instruction information includes use instruction information of the specific image data, the arranging unit arranges the specific image data in the virtual three-dimensional space to generate the generated data for displaying the image group. The gaming machine according to feature A11, which enables generation.

特徴A12によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。 According to the characteristic A12, when the image group is displayed, the drawing instruction means only needs to include the use instruction information for one object in the drawing instruction information, so that the processing load required for setting the drawing instruction information can be reduced. At the same time, the data capacity of the drawing instruction information can be reduced.

特徴A13.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、複数の個別画像を含む画像群を前記表示部に表示させる場合に適用するパラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)を備え、
前記配置手段は、当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
Feature A13. Arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (function of executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (The function of executing the process of step S1006 in the VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (drawing data is drawn based on the data projected on the projection plane). ) For generating the drawing (the function of executing the processing of step S1010 to step S1012 in the VDP 135), and the generated data generated by the data generating means (the display CPU 131, the geometry calculation unit 151, and the rendering unit 152). Storage means (frame buffer 142) for storing;
Display control means (display circuit 155 of VDP135) for outputting and displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31),
In a gaming machine equipped with
The data generation unit derives parameter data to be applied when displaying an image group including a plurality of individual images on the display unit (a function of executing the processes of steps S2204, S2208, and S2212 in the VDP 135). Or step S2305, step S2310, step S2317) in the VDP 135,
The arranging means uses the specific image data in a state in which the parameter data derived by the deriving means is applied to the specific image data (particle dispersion object PC17), and the image group is displayed on the display unit. Image group means capable of generating generated data to be displayed (function of executing the processing of step S2206, step S2210 and step S2214 in VDP135, or function of executing the processing of step S2307, step S2313 and step S2319 in VDP135) When,
Equipped with
The deriving unit determines the first parameter data (for example, the first key data KD1) to be applied when displaying the image group at the first update timing and the second update timing that is later than the first update timing. By using the second parameter data (for example, the second key data KD2) that is applied when the image group is displayed with the image group, the image group is displayed at the update timing between the first update timing and the second update timing. A gaming machine provided with a specific derivation means for deriving specific parameter data applied when displaying (a function of executing the process of step S2208 in the VDP 135 or a function of executing the process of step S2310 in the VDP 135). .

特徴A13によれば、3次元情報を利用したリアルな画像表示が可能となり、さらには複数の個別画像を含む画像群が表示されることにより表示内容の複雑化が可能となる。よって、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。 According to the feature A13, it is possible to display a realistic image using three-dimensional information, and it is possible to complicate the display content by displaying an image group including a plurality of individual images. Therefore, the player's interest in the image displayed on the display unit can be increased.

この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。 In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived using the first parameter data and the second parameter data, the specific parameter data It is possible to reduce the data capacity in that it is not necessary to store in advance, and it is possible to ensure continuity with respect to each of the first parameter data and the second parameter data.

さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。 Furthermore, the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is the first parameter data and the second parameter as the specific parameter data. It is collectively derived using data and. As a result, parameter data to be referred to when deriving the parameter data corresponds to the same update timing among the plurality of individual images included in the image group. Therefore, the processing load in deriving the specific parameter data can be reduced.

特徴A14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示制御手段は、特定の生成データを用いることにより、複数の個別画像を含む画像群を同時に表示させる構成であり、
前記画像群を表示させるために前記配置手段により前記仮想3次元空間に配置される画像データは、当該画像群に含まれる前記複数の個別画像のそれぞれが、各頂点データに対応付けられている特定オブジェクトの画像データ(粒子分散用オブジェクトPC17)であることを特徴とする遊技機。
Features A14. Arrangement means for arranging the image data of the object, which is three-dimensional information, in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting the viewpoint in the virtual three-dimensional space. (The function of executing the process of step S1006 in the VDP 135) and the image data of the object are projected on a projection plane set based on the viewpoint, and generated data is generated based on the data projected on the projection plane. The generation data (drawing data) generated by the data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152) having a setting unit for drawing (a function of executing the processing of steps S1010 to S1012 in the VDP 135). Storage means (frame buffer 142) for storing;
Display control means (display circuit 155 of VDP135) for outputting and displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31),
In a gaming machine equipped with
The display control means is configured to simultaneously display an image group including a plurality of individual images by using specific generated data,
In the image data arranged in the virtual three-dimensional space by the arranging means to display the image group, each of the plurality of individual images included in the image group is specified to be associated with each vertex data. A game machine characterized by being image data of an object (particle-dispersion object PC 17).

特徴A14によれば、3次元情報を利用したリアルな画像表示が可能となる。この場合に、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。 According to the feature A14, it is possible to display a realistic image using three-dimensional information. In this case, when displaying the image group, since one object may be arranged in the virtual three-dimensional space, it is possible to display the image group while reducing the processing load.

特徴A15.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定オブジェクトの画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定オブジェクトの画像データの使用指示情報が含まれている場合、当該特定オブジェクトの画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A14に記載の遊技機。
Feature A15. The arranging means draws drawing instruction information (drawing list) including at least information for specifying image data required to display an image at one update timing and parameter data to be applied to the image data. ), the image data is arranged in the virtual three-dimensional space in accordance with the information instructed by the drawing instruction information, whereby generation data corresponding to the drawing instruction information can be generated. Is to
The drawing instruction means, when displaying the image group, includes use instruction information of image data of the specific object in the drawing instruction information,
When the drawing instruction information includes use instruction information of image data of the specific object, the arrangement unit displays the image group by arranging the image data of the specific object in the virtual three-dimensional space. The gaming machine according to feature A14, characterized in that it enables generation of generated data.

特徴A15によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。 According to the characteristic A15, when the image group is displayed, the drawing instruction means only needs to include the use instruction information for one object in the drawing instruction information. Therefore, the processing load required for setting the drawing instruction information can be reduced. At the same time, the data capacity of the drawing instruction information can be reduced.

上記特徴A群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group A is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case in which an image is displayed using two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been done. Further, by reading the image data, generated data for displaying a character or the like in front of the background is generated in the storage means such as the VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as a character or a pattern is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a stereoscopic image is displayed.

ここで、個別画像の表示方向を複雑なものとしたり、複数の個別画像を同時に表示させることにより、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となると考えられる。しかしながら、このような画像の表示を行う場合に、処理負荷が極端に増加してしまうことや、データ容量が極端に増加してしまうことは好ましくない。 Here, by making the display direction of the individual images complicated or by displaying a plurality of individual images at the same time, it is considered possible to increase the player's interest in the images displayed on the display unit. However, when such an image is displayed, it is not preferable that the processing load extremely increases or the data capacity extremely increases.

本発明は、上記例示した事情等に鑑みてなされたものであり、処理負荷を抑えながら、表示演出を良好に行うことが可能な遊技機を提供することを目的とするものである。 The present invention has been made in view of the above-exemplified circumstances, and an object thereof is to provide a gaming machine capable of favorably performing a display effect while suppressing a processing load.

<特徴B群>
特徴B1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記配置手段による前記仮想3次元空間への配置対象となるオブジェクトの画像データには、複数の面を定めることが可能なデータを有し且つそれら複数の面データ(面データSD)によって3次元形状を定めることが可能な多面オブジェクトの画像データ(海面用オブジェクトPC19)が含まれており、
前記データ生成手段は、
複数の更新タイミングに亘って前記多面オブジェクトの画像データに対応した多面画像を表示させるべく前記仮想3次元空間に前記多面オブジェクトの画像データを配置する場合に、前記多面画像の表示態様が変更されるように前記複数の面データのうち少なくとも一部についての前記仮想3次元空間への配置態様を変更させる配置態様変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135における海面表示用の設定処理を実行する機能)と、
当該配置態様変更手段により前記配置態様が変更された前記面データに対して適用する色情報を、当該面データの配置態様に応じて当該面データ単位で変更させることにより、前記多面画像の少なくとも一部の領域の表示色が複数の更新タイミング間において異なることとなる画像表示を可能とする表示色変更手段(VDP135における海面表示用の色情報設定処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature B group>
Feature B1. Arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (function of executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (The function of executing the process of step S1006 in the VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (drawing data is drawn based on the data projected on the projection plane). ) For generating the drawing (the function of executing the processing of step S1010 to step S1012 in the VDP 135), and the generated data generated by the data generating means (the display CPU 131, the geometry calculation unit 151, and the rendering unit 152). Storage means (frame buffer 142) for storing;
An image corresponding to the generated data stored in the storage unit is displayed on the display unit (symbol display device 31), and the content of the image is updated at a predetermined update timing (of the VDP 135). Display circuit 155),
In a gaming machine equipped with
The image data of the object to be arranged in the virtual three-dimensional space by the arrangement means has data capable of defining a plurality of surfaces, and the three-dimensional shape is formed by the plurality of surface data (surface data SD). The image data of the multi-sided object (sea surface object PC19) capable of defining
The data generating means,
When the image data of the polyhedral object is arranged in the virtual three-dimensional space so as to display the polyhedral image corresponding to the image data of the polyhedral object over a plurality of update timings, the display mode of the polyhedral image is changed. Arrangement mode changing means for changing the arrangement mode of at least a part of the plurality of surface data in the virtual three-dimensional space (function of executing arithmetic processing for sea surface display in the display CPU 131, sea surface display in the VDP 135) Function that executes the setting process of
At least one of the multi-plane images is obtained by changing the color information applied to the plane data whose layout mode has been changed by the layout mode changing unit in the plane data unit according to the layout mode of the plane data. Display color changing means (a function of executing color information setting processing for sea surface display in the VDP 135) capable of displaying an image in which the display color of the partial area is different between a plurality of update timings,
A gaming machine characterized by being equipped with.

特徴B1によれば、複数の面データのうち少なくとも一部についての配置態様が変更されるとともに、当該配置態様が変更された面データに適用される色情報がその配置態様の変更に伴って変更される。これにより、表示演出を複雑化させることが可能となり、表示演出への遊技者の興味を高めることが可能となる。 According to the feature B1, the arrangement mode of at least a part of the plurality of surface data is changed, and the color information applied to the surface data whose arrangement mode is changed is changed according to the change of the arrangement mode. To be done. As a result, the display effect can be complicated, and the player's interest in the display effect can be increased.

また、上記色情報の変更は、面データの配置態様に応じて当該面データ単位で行われる。これにより、色情報が変更されるパターンに対応させて多数のテクスチャを事前に記憶させておかなくても、面データの配置態様に応じた色情報の設定を行うことが可能となる。よって、データ容量の増大化を抑制しながら、表示演出への遊技者の興味を高めることが可能となる。 Further, the change of the color information is performed in the unit of surface data according to the arrangement mode of the surface data. As a result, it is possible to set the color information according to the arrangement mode of the surface data without storing a large number of textures in advance corresponding to the pattern in which the color information is changed. Therefore, it is possible to increase the player's interest in the display effect while suppressing an increase in the data capacity.

なお、「前記配置態様変更手段は、前記配置態様を変更させる場合、前記複数の面データのうち少なくとも一部について、向き、形状及びサイズのうち少なくとも一つを変更させる」という構成が上記構成に含まれる。 It should be noted that the configuration that “the arrangement mode changing unit changes at least one of the orientation, the shape, and the size of at least a part of the plurality of surface data when changing the arrangement mode” is the above-mentioned configuration. included.

特徴B2.前記配置態様変更手段は、前記複数の面データのうち一部の面データの配置態様を変更させ、且つ他の面データの配置態様を当該一部の面データに対する配置態様の変更に対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1に記載の遊技機。 Feature B2. The arrangement mode changing means changes the arrangement mode of a part of the surface data among the plurality of surface data, and makes the arrangement mode of another surface data correspond to the change of the arrangement mode for the partial surface data. (A function for executing normal line parameter setting processing in the VDP 135) The gaming machine described in the characteristic B1.

特徴B2によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。 According to the feature B2, it is possible to individually control the arrangement mode of the surface data while preventing the continuity between the respective surface data from being lost.

特徴B3.前記配置態様変更手段は、前記多面画像において対応する領域が相互に連続しない非連続の面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つ前記多面画像において対応する領域が前記非連続の面データに対応する領域と連続する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記非連続の面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1又はB2に記載の遊技機。 Feature B3. The arrangement mode changing unit changes a predetermined parameter that is at least one of orientation, shape, and size for discontinuous surface data (applicable surface data SD1) in which corresponding areas in the multi-plane image are not continuous with each other. And means for associating the predetermined parameter of the surface data (buffer surface data SD2) in which the corresponding area in the multi-plane image is continuous with the area corresponding to the non-continuous surface data, to the non-continuous surface data The gaming machine described in the feature B1 or B2, which is provided with (a function of executing a normal parameter setting process in the VDP 135).

特徴B3によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。特に、配置態様を積極的に変更させる対象を非連続の面データとし、当該非連続の面データに連続する面データについては、上記非連続の面データに対応させることにより、このような切り分けを行わずに配置態様の変更を行う構成に比べて、各面データ間の連続性を担保するための調整に要する処理負荷の軽減が図られる。 According to the feature B3, it is possible to individually control the arrangement mode of the surface data while preventing the continuity between the surface data from being lost. In particular, the target for which the arrangement mode is positively changed is discontinuous surface data, and for surface data continuous to the discontinuous surface data, such separation is performed by associating with the discontinuous surface data. Compared with the configuration in which the arrangement mode is changed without performing the arrangement, the processing load required for the adjustment for ensuring the continuity between the pieces of surface data can be reduced.

なお、上記特徴B3のより具体的な構成としては、
「前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記頂点データを相互に共有していない面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つそれら変更対象となった面データと頂点データを共有する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記変更対象となった面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えている」
という構成が考えられる。
In addition, as a more specific configuration of the above feature B3,
"Each surface data is defined by a plurality of vertex data, and a plurality of predetermined surface data share some vertex data mutually,
The arrangement mode changing unit changes a predetermined parameter, which is at least one of orientation, shape, and size, of the surface data (surface data SD1 to be applied) that does not share the vertex data with each other, and changes them. A means for associating the predetermined parameter of the surface data (buffer surface data SD2) sharing the vertex data with the target surface data with the target surface data to be changed (normal parameter setting processing in the VDP 135). It has a function to execute.”
The configuration is conceivable.

特徴B4.前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記各頂点データの座標を個別に変更させることにより、前記各面データの向き、形状及びサイズのうち少なくとも一つを変更させるものであることを特徴とする特徴B1又はB2に記載の遊技機。
Feature B4. Each of the surface data is defined by a plurality of vertex data, and further, the predetermined plurality of surface data share some vertex data with each other,
The arrangement mode changing unit changes at least one of the orientation, shape and size of each surface data by individually changing the coordinates of each vertex data. A gaming machine described in B2.

特徴B4によれば、一の頂点データの座標を変更することで、複数の面データの向き、形状及びサイズのうち少なくとも一つを変更することが可能となる。このように面データ単位でパラメータを制御するのではなく、頂点データ単位でパラメータを制御することで、面データ間の連続性を担保させるための処理構成をあえて設定しなくても、面データの配置態様を個別に制御することが可能となる。 According to the feature B4, it is possible to change at least one of the orientation, shape, and size of the plurality of surface data by changing the coordinates of one vertex data. By controlling the parameters in units of vertex data instead of controlling them in units of face data in this way, even if the processing configuration for ensuring continuity between face data is not set, It is possible to individually control the arrangement mode.

特徴B5.前記配置態様変更手段は、
前記複数の面データの各配置態様を個別に変更させることを可能とする個別制御データ(第1法線マップデータND1、第2法線マップデータND2)を記憶手段(メモリモジュール133)から読み出すデータ読出手段(VDP135におけるステップS2503を実行する機能)と、
前記個別制御データを前記多面オブジェクトの画像データに適用する場合の態様を前記複数の更新タイミング間において異ならせる適用変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B4のいずれか1に記載の遊技機。
Feature B5. The arrangement mode changing means,
Data for reading individual control data (first normal map data ND1 and second normal map data ND2) capable of individually changing each arrangement mode of the plurality of surface data from the storage unit (memory module 133) Reading means (a function of executing step S2503 in the VDP 135);
Application changing means for changing the mode of applying the individual control data to the image data of the multifaceted object among the plurality of update timings (function of executing the processing of steps S2506, S2507, S2511, and S2512 in the VDP 135) )When,
The gaming machine according to any one of the features B1 to B4, which is characterized by comprising:

特徴B5によれば、予め記憶された個別制御データを利用して面データの配置態様を変更させる構成において、その個別制御データを利用しながら、複数の更新タイミング間において多面画像の表示態様を変更させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。 According to the feature B5, in the configuration in which the arrangement mode of the plane data is changed by using the previously stored individual control data, the display state of the multi-plane image is changed between the plurality of update timings while using the individual control data. It becomes possible. Therefore, it is possible to achieve the excellent effects as already described while balancing both the data capacity and the processing load.

特徴B6.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5に記載の遊技機。
Feature B6. The individual control data has a plurality of unit control data (unit normal data UND), and these unit control data are applied to the surface data or data defining the surface data,
The application changing unit changes the correspondence between the target data to which the unit control data is applied in the image data of the multi-faced object and the unit control data in accordance with the switching of the update timing (in the VDP 135). The gaming machine according to feature B5, which is provided with a function of executing the processes of steps S2506, S2507, S2511, and S2512.

特徴B6によれば、単位制御データを適用する対象のデータと当該単位制御データとの対応関係を切り換えることによって複数の更新タイミング間において多面画像の表示態様を変更させる構成であるため、個別制御データを利用しながら多面画像の表示態様を変更させる構成において処理負荷を軽減することが可能となる。 According to the feature B6, the display mode of the multiface image is changed between a plurality of update timings by switching the correspondence between the target data to which the unit control data is applied and the unit control data. It is possible to reduce the processing load in the configuration in which the display mode of the multifaceted image is changed while using the.

特徴B7.前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して複数の前記単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5又はB6に記載の遊技機。 Feature B7. The application changing unit reflects a plurality of contents of the unit control data to one piece of data to which the unit control data is applied in the image data of the multifaceted object (steps S2506 and S2507 in the VDP 135). , A function of executing the processing of step S2511 and step S2512) is provided, the gaming machine according to the characteristic B5 or B6.

特徴B7によれば、単位制御データを参照しながら配置態様を変更させる構成において、その変更させる配置態様の多様化が図られる。 According to the feature B7, in the configuration in which the arrangement mode is changed with reference to the unit control data, the changed arrangement mode can be diversified.

特徴B8.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記データ読出手段は、複数の前記個別制御データを前記記憶手段から読み出すものであり、
前記適用変更手段は、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して、前記複数の個別制御データのそれぞれの単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の個別制御データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴B5又はB6に記載の遊技機。
Feature B8. The individual control data has a plurality of unit control data (unit normal data UND), and these unit control data are applied to the surface data or data defining the surface data,
The data reading means reads a plurality of the individual control data from the storage means,
The application changing means,
A plurality of applying means for reflecting the contents of each unit control data of the plurality of individual control data to one piece of data to which the unit control data is applied in the image data of the multifaceted object (step S2507 and step in VDP135) Function for executing the processing of S2512),
In the image data of the multi-sided object, the correspondence between the target data to which the unit control data is applied and the unit control data is changed along with the switching of update timing, and the change in the correspondence is changed to the plurality of individual control data. A corresponding relationship changing unit (a function of executing the processing of steps S2506 and S2511 in the VDP 135) for each of
The gaming machine according to the feature B5 or B6, which is characterized by comprising:

特徴B8によれば、遊技機設計段階における個別制御データの設計の容易化を図りながら、配置態様を複雑に変化させることが可能となる。 According to the feature B8, it becomes possible to change the arrangement mode in a complicated manner while facilitating the design of the individual control data at the game machine designing stage.

特徴B9.前記配置態様変更手段は、
複数の前記面データを含む一群のデータについてまとめて配置態様を変更させる第1変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135におけるステップS2504及びステップS2509を実行する機能)と、
当該第1変更手段により配置態様が変更された前記一群のデータに含まれる各面データの配置態様を個別に変更させる第2変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B8のいずれか1に記載の遊技機。
Feature B9. The arrangement mode changing means,
A first changing unit (a function of executing arithmetic processing for displaying the sea level in the display CPU 131, a function of executing steps S2504 and S2509 in the VDP 135) that collectively changes the arrangement mode of a group of data including the plurality of surface data. ,
Second changing means (steps S2506, S2507, S2511 and step S2512 of VDP135) for individually changing the arrangement manner of each surface data included in the group of data whose arrangement manner is changed by the first changing means. Function to execute)
The gaming machine according to any one of the features B1 to B8, characterized by comprising:

特徴B9によれば、大きな流れに沿って配置態様を変更するようにしながら、面データ単位での配置態様を複雑に変化させることが可能となる。 According to the feature B9, it is possible to change the arrangement mode in a unit of surface data in a complicated manner while changing the arrangement mode along a large flow.

なお、このような作用効果を生じさせるより具体的な構成としては、「前記第1変更手段により変更される配置態様の種類は、位置、向き及びサイズの少なくとも一つであり、前記第2変更手段により変更される配置態様の種類には、前記第1変更手段により変更される配置対象の種類の少なくとも一部が含まれている」構成が考えられる。 In addition, as a more specific configuration that produces such an operation effect, "the type of arrangement mode changed by the first changing unit is at least one of position, orientation, and size, and the second change It is conceivable that the type of arrangement mode changed by the means includes at least a part of the type of arrangement target changed by the first changing means.

また、「前記多面オブジェクトの画像データには、前記一群のデータが複数含まれており、前記第1変更手段は、それら複数の一群のデータの配置態様を個別に変更させるものである」構成が考えられる。 Further, the configuration is such that "the image data of the multi-sided object includes a plurality of the one group of data, and the first changing unit individually changes the arrangement mode of the plurality of one group of data". Conceivable.

特徴B10.前記表示色変更手段は、
前記配置態様変更手段による変更対象となった配置態様に応じて、前記面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702〜ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記配置態様とは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B9のいずれか1に記載の遊技機。
Feature B10. The display color changing means,
Classification specifying means for specifying whether or not the color information to be applied to the surface data is included in a predetermined classification according to the layout mode changed by the layout mode changing means (steps S2702 to S2702-VDP135) Function to execute S2705),
Color information to be applied to the surface data identified as being included in the predetermined segment by the segment identification means is selected from a plurality of stages of color information based on a parameter of a type different from the arrangement mode. Selection means (function of executing steps S2706 and S2707 in the VDP 135),
The gaming machine according to any one of the features B1 to B9, characterized by comprising:

特徴B10によれば、配置態様に応じて色情報を変化させながら、さらに配置態様とは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、リアルな画像表示を実現することが可能となる。 According to the feature B10, while changing the color information according to the arrangement mode, the color information is determined based on the parameter different from the arrangement mode, so that the color information can be set in a complicated manner. This makes it possible to realize a realistic image display.

特徴B11.前記配置態様変更手段は、前記面データの向きを少なくとも変更させるものであり、
前記表示色変更手段は、前記視点に対する前記面データの角度に基づき、当該面データに適用する色情報を変更させるものであることを特徴とする特徴B1乃至B10のいずれか1に記載の遊技機。
Feature B11. The arrangement mode changing means changes at least the direction of the surface data,
The game machine according to any one of features B1 to B10, wherein the display color changing unit changes color information applied to the surface data based on an angle of the surface data with respect to the viewpoint. ..

特徴B11によれば、面の向きに応じた色情報の設定を行うことが可能となり、多面画像の表示をリアルに行うことが可能となる。 According to the feature B11, it is possible to set the color information according to the orientation of the surface, and it is possible to realistically display the multifaceted image.

特徴B12.前記表示色変更手段は、
前記配置態様変更手段により変更された前記面データの向きに応じて、当該面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702〜ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記向きとは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B11に記載の遊技機。
Feature B12. The display color changing means,
According to the orientation of the surface data changed by the arrangement mode changing means, a section specifying means (step S2702 in VDP135) for specifying whether or not the color information applied to the surface data is included in a predetermined section. A function of executing step S2705),
Color information selection for selecting color information to be applied to the surface data identified as being included in the predetermined segment by the segment identification means from a plurality of levels of color information based on a parameter of a type different from the orientation. Means (function of executing steps S2706 and S2707 in the VDP 135),
A gaming machine according to feature B11, which is provided with.

特徴B12によれば、面の向きに応じて色情報を変化させながら、さらに面の向きとは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、多面画像の表示をリアルに行うことが可能となる。 According to the characteristic B12, while changing the color information according to the orientation of the surface, the color information is determined based on the parameter different from the orientation of the surface, so that the color information can be set in a complicated manner. As a result, it becomes possible to display a multi-faced image realistically.

特徴B13.前記色情報選択手段は、前記区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記視点からの所定方向の距離に基づき、複数段階の色情報の中から選択するものであることを特徴とする特徴B12に記載の遊技機。 Feature B13. The color information selecting unit applies color information to the surface data identified as included in the predetermined segment by the segment identifying unit, based on a distance in a predetermined direction from the viewpoint, in a plurality of stages of color information. The gaming machine according to feature B12, which is selected from the inside.

特徴B13によれば、面の向きだけでなく面の位置に応じて色情報が変化するため、多面画像の表示をリアルに行うことが可能となる。 According to the feature B13, since the color information changes not only according to the orientation of the surface but also according to the position of the surface, it is possible to display the multi-faced image realistically.

上記特徴B群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group B is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, an object that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as characters and patterns is attached to the object. Generated data is generated by projecting the object to which the texture is pasted onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a stereoscopic image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity extremely increases.

<特徴C群>
特徴C1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic C group>
Feature C1. Display means (symbol display device 31) having a display portion (display surface G),
When an image is displayed on the display unit using the generation data (drawing data) generated by the data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152), and a predetermined update timing is reached. Display control means (display circuit 155 of VDP 135) for updating the content of the image,
In a gaming machine equipped with
The display mode of the image on the display unit includes a mode in which a plurality of individual images are displayed so that the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction of the display unit. ,
The data generating means is an individual image displayed so as to be recognized by the player as being present on the front side in the depth direction with respect to a predetermined reference position in the depth direction, and the back side in the depth direction. The target individual image, which is at least one of the individual images displayed so as to be recognized by the player as being present in the outline, is more detailed than the image recognized by the player as being present in the reference position. A game machine provided with a blurring setting means (a function of executing adjustment processing for focus effect in the VDP 135) that causes a line to be displayed in a blurred state by making the line unclear.

特徴C1によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。 According to the characteristic C1, it is possible to perform a display effect as if the reference position is in focus, and it is possible to perform a display effect with a sense of depth.

特徴C2.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記生成データは、色情報が設定された単位データを多数有しており、
前記ぼかし設定手段は、
前記設定用記憶手段に設定された前記画像データに対応したデータであって前記各単位データを生じさせる各データのそれぞれについて前記奥行きパラメータを導出するパラメータ導出手段(VDP135におけるステップS3101〜ステップS3107を実行する機能)と、
前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していないデータに対してぼかし発生処理を実行することにより、当該データに対応した画像部分がぼかした状態で表示されるようにするぼかし実行手段(VDP135におけるステップS3110〜ステップS3115を実行する機能)と、
を備えていることを特徴とする特徴C1に記載の遊技機。
Feature C2. The data generating unit is configured to generate the generated data based on setting image data, and further set the image data while applying a depth parameter corresponding to a display position in the depth direction. Based on the configuration, the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction,
The generated data has a large number of unit data in which color information is set,
The blur setting means,
Parameter deriving means for deriving the depth parameter for each piece of data that corresponds to the image data set in the setting storage means and that causes the unit data (steps S3101 to S3107 in the VDP 135 are executed. Function)
By executing the blurring generation process on the data whose depth parameter does not correspond to the reference parameter corresponding to the reference position, blurring is performed so that the image portion corresponding to the data is displayed in a blurred state. Means (function of executing steps S3110 to S3115 in the VDP 135),
The gaming machine described in the feature C1, which is provided with.

特徴C2によれば、ぼかした状態とするための画像データを予め記憶させておく必要がないため、データ容量の削減を図りながら、ぼかした状態での表示を行うことが可能となる。また、各単位データを生じさせる各データのそれぞれについて奥行きパラメータが導出される構成であるため、ぼかした状態の表示を細かく制御することが可能となる。 According to the characteristic C2, since it is not necessary to store the image data for making the blurred state in advance, it is possible to perform the display in the blurred state while reducing the data capacity. Further, since the depth parameter is derived for each piece of data that causes each unit data, it is possible to finely control the display in a blurred state.

特徴C3.前記表示手段における表示演出として、前記ぼかした状態での表示が複数の更新タイミングに亘って行われるぼかし表示演出が含まれており、
前記パラメータ導出手段は、前記奥行きパラメータの導出を、1回の前記ぼかし表示演出の一の更新タイミングと他の更新タイミングとのそれぞれにおいて行うものであることを特徴とする特徴C2に記載の遊技機。
Feature C3. As the display effect in the display means, a blurring display effect in which the display in the blurred state is performed over a plurality of update timings is included,
The gaming machine according to Feature C2, wherein the parameter deriving unit derives the depth parameter at each of one update timing and one update timing of the blurred display effect. .

特徴C3によれば、表示演出の進行に応じて、ぼかした状態の表示を変化させることが可能となる。 According to the characteristic C3, it is possible to change the display in a blurred state according to the progress of the display effect.

特徴C4.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記パラメータ導出手段は、前記投影後の2次元情報のデータに含まれる各単位データのそれぞれについて前記奥行きパラメータを導出するものであり、
前記ぼかし実行手段は、前記投影後の2次元情報のデータに対して、前記奥行きパラメータを利用して前記ぼかし発生処理を実行するものであることを特徴とする特徴C2又はC3に記載の遊技機。
Feature C4. The data generating unit arranges image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function of executing steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (a function of executing the process of step S1006 in the VDP 135) for setting the image data of the object on a projection plane set based on the viewpoint, and the two-dimensional information projected on the projection plane. And a drawing setting means (function of executing the processing of steps S1010 to S1012 in the VDP 135) for generating generated data that is two-dimensional information based on the data of
The parameter deriving unit derives the depth parameter for each unit data included in the data of the two-dimensional information after projection.
The game machine according to the feature C2 or C3, wherein the blurring execution means executes the blurring generation process on the data of the two-dimensional information after projection by using the depth parameter. .

特徴C4によれば、奥行きパラメータの導出やぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、これら処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the characteristic C4, since the derivation of the depth parameter and the blurring generation process are performed not on the data of the three-dimensional information but on the data of the two-dimensional information, the processing load is reduced. However, it is possible to achieve the above-mentioned excellent effects.

特徴C5.前記ぼかし実行手段は、前記ぼかし発生処理として、前記投影後の2次元情報のデータに含まれる単位データの色情報をその周囲の単位データの色情報とブレンディングさせる処理(VDP135におけるステップS3206、ステップS3212及びステップS3217を実行する機能)を実行するものであることを特徴とする特徴C4に記載の遊技機。 Feature C5. As the blurring generation processing, the blurring executing unit blends the color information of the unit data included in the two-dimensional information data after projection with the color information of the surrounding unit data (steps S3206 and S3212 in the VDP 135). And the function of executing step S3217), the gaming machine according to feature C4.

特徴C5によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。この場合に、そのブレンディングさせる処理は、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、ぼかした状態の表示を好適に行うことが可能となる。 According to the characteristic C5, since the blending process is executed when the blurring occurs, the blurred state can be displayed according to the type of the image displayed in the blurred display effect. Therefore, it is possible to preferably display the blurred state. In this case, since the blending process is performed not for the three-dimensional information data but for the two-dimensional information data, the blurred display is performed while reducing the processing load. Can be suitably performed.

特徴C6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記ぼかし設定手段は、前記投影後の2次元情報のデータに対してぼかし発生処理を実行することにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C5のいずれか1に記載の遊技機。
Feature C6. The data generating unit arranges image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function of executing steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (a function of executing the process of step S1006 in the VDP 135) for setting the image data of the object on a projection plane set based on the viewpoint, and the two-dimensional information projected on the projection plane. And a drawing setting means (function of executing the processing of steps S1010 to S1012 in the VDP 135) for generating generated data that is two-dimensional information based on the data of
The blur setting unit is configured to display the target individual image in a blurred state by executing a blur generation process on the two-dimensional information data after projection. The gaming machine according to any one of the features C1 to C5.

特徴C6によれば、ぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the characteristic C6, the blurring generation process is performed not on the data of the three-dimensional information but on the data of the two-dimensional information, and thus the processing load is reduced and It becomes possible to exert an excellent effect.

特徴C7.前記ぼかし設定手段は、前記ぼかした状態での表示を行う場合、特別画像(教示用の個別画像CH15,CH16)については、前記基準位置に対して前記奥行き方向にずれた位置に存在していると遊技者に認識されるように表示されるとしても、前記ぼかした状態での表示対象から除外するものであることを特徴とする特徴C1乃至C6のいずれか1に記載の遊技機。 Feature C7. When performing the display in the blurred state, the blur setting unit exists in a position displaced in the depth direction with respect to the reference position for the special images (teaching individual images CH15 and CH16). The gaming machine according to any one of the features C1 to C6, wherein the gaming machine is excluded from the display target in the blurred state even if it is displayed so as to be recognized by the player.

特徴C7によれば、ぼかした状態での表示を行う場合、基準位置に対してずれた位置に存在しているように表示されている個別画像に対して一律にぼかした状態での表示を適用しようとすると、遊技者に認識させるべき情報を認識させづらくしてしまう可能性が生じる。これに対して、特別画像については、基準位置に存在しているように表示されているか否かに関係なく、ぼかした状態での表示対象から除外する構成としたことにより、上記のような不都合の発生を抑制しながら、ぼかした状態での表示を実現することが可能となる。 According to the characteristic C7, when performing the display in the blurred state, the display in the uniformly blurred state is applied to the individual image displayed so as to be present at the position displaced from the reference position. Attempting to do so may make it difficult for the player to recognize the information to be recognized. On the other hand, the special image is excluded from the display target in the blurred state regardless of whether or not the special image is displayed at the reference position. It is possible to realize the display in a blurred state while suppressing the occurrence of.

なお、前記特別画像には、遊技者に遊技状況を教示するために用いられる教示用画像が含まれる。 The special image includes a teaching image used for teaching the player the game situation.

特徴C8.前記特別画像は、前記基準位置に対して前記奥行き方向の手前側に存在していると遊技者に認識されるように表示される画像であることを特徴とする特徴C7に記載の遊技機。 Feature C8. The gaming machine according to Feature C7, wherein the special image is an image displayed so as to be recognized by a player as being present on the front side in the depth direction with respect to the reference position.

特徴C8によれば、特別画像がぼかした状態の表示対象から除外される構成において、それが意図的に除外されていると遊技者に認識させ易くなる。よって、ぼかした状態の表示演出に違和感を与えることなく、特別画像をぼかした状態の表示対象から除外することが可能となる。 According to the characteristic C8, in the configuration in which the special image is excluded from the display target in the blurred state, the player can easily recognize that the special image is intentionally excluded. Therefore, it is possible to exclude the special image from the display target in the blurred state without giving an uncomfortable feeling to the display effect in the blurred state.

特徴C9.遊技者による操作を受け付ける操作受付手段(演出用操作装置48)を備え、
前記ぼかし設定手段は、前記操作受付手段に対する遊技者の操作に基づき、前記基準位置を変更させるものであることを特徴とする特徴C1乃至C8のいずれか1に記載の遊技機。
Feature C9. An operation receiving means (production operation device 48) for receiving an operation by a player is provided,
The gaming machine according to any one of features C1 to C8, wherein the blurring setting unit changes the reference position based on a player's operation on the operation receiving unit.

特徴C9によれば、ぼかした状態の表示演出の画一化が抑えられ、当該表示演出への注目度を高めることが可能となる。 According to the characteristic C9, it is possible to suppress the uniformization of the display effect in the blurred state and increase the attention degree to the display effect.

特徴C10.前記ぼかし設定手段は、予め定められた第1表示期間(遊技回)では前記ぼかした状態の表示を行わず、前記ぼかした状態の表示に要する処理を除いた処理の処理負荷が前記第1表示期間よりも低い第2表示期間(ラウンド遊技)にて前記ぼかした状態の表示を行うものであることを特徴とする特徴C1乃至C9のいずれか1に記載の遊技機。 Feature C10. The blurring setting means does not display the blurred state during a predetermined first display period (game time), and the processing load of the processing excluding the processing required to display the blurred state is the first display. The gaming machine according to any one of features C1 to C9, characterized in that the blurred state is displayed in a second display period (round game) lower than the period.

特徴C10によれば、ぼかした状態の表示を行う場合における更新タイミングの処理負荷が極端に増加してしまうことが抑制される。 According to the characteristic C10, it is possible to prevent the processing load of the update timing from being extremely increased when displaying the blurred state.

特徴C11.前記データ生成手段は、画像データを設定することに基づき前記生成データを生成するものであり、
前記ぼかし設定手段は、前記画像データによって決定付けられる少なくとも一部の色情報をその周囲の色情報とブレンディングさせることにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C10のいずれか1に記載の遊技機。
Feature C11. The data generating means is for generating the generated data based on setting image data,
The blur setting unit blends at least a part of color information determined by the image data with surrounding color information so that the target individual image is displayed in a blurred state. The gaming machine according to any one of the features C1 to C10.

特徴C11によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。 According to the characteristic C11, since the blending process is executed when the blurring occurs, it is possible to display the blurred state according to the type of the image displayed in the display effect of the blurred state. Therefore, it is possible to preferably display the blurred state.

特徴C12.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記ぼかし設定手段は、前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していない画像データに対してぼかし発生処理を実行することにより、当該画像データに対応した前記対象個別画像がぼかした状態で表示されるようにするものであり、
前記基準パラメータは、前記基準位置が前記奥行き方向の所定範囲に対応するように所定のパラメータ範囲を有していることを特徴とする特徴C1乃至C11のいずれか1に記載の遊技機。
Feature C12. The data generating unit is configured to generate the generated data based on setting image data, and further set the image data while applying a depth parameter corresponding to a display position in the depth direction. Based on the configuration, the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction,
The blur setting unit performs blur generation processing on image data whose depth parameter does not correspond to a reference parameter corresponding to the reference position, thereby blurring the target individual image corresponding to the image data. To be displayed in the state,
The gaming machine according to any one of features C1 to C11, wherein the reference parameter has a predetermined parameter range so that the reference position corresponds to a predetermined range in the depth direction.

特徴C12によれば、被写界深度をある程度広げた状態で、ぼかした状態の表示を行うことが可能となる。よって、ぼかした状態の表示を好適に行うことが可能となる。 According to the characteristic C12, it is possible to display a blurred state with the depth of field widened to some extent. Therefore, it is possible to suitably display the blurred state.

特徴C13.前記ぼかし設定手段は、前記基準位置から前記奥行き方向に所定距離だけ離れた位置に存在していると遊技者に認識される画像よりも、当該所定距離よりも前記奥行き方向に遠い位置に存在していると遊技者に認識される画像の方が前記ぼかした状態で表示される度合いが大きくなるようにするものであることを特徴とする特徴C1乃至C12のいずれか1に記載の遊技機。 Feature C13. The blurring setting means is present at a position farther in the depth direction than the image recognized by the player as being at a position away from the reference position in the depth direction by a predetermined distance. The gaming machine according to any one of the features C1 to C12, characterized in that the image recognized by the player is displayed more in the blurred state.

特徴C13によれば、ぼかした状態の表示をよりリアルに行うことが可能となる。 According to the characteristic C13, it is possible to more realistically display a blurred state.

特徴C14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
Feature C14. Arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (function of executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (The function of executing the process of step S1006 in the VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (drawing data is drawn based on the data projected on the projection plane). ) For generating the drawing (the function of executing the processing of step S1010 to step S1012 in the VDP 135), and the generated data generated by the data generating means (the display CPU 131, the geometry calculation unit 151, and the rendering unit 152). Storage means (frame buffer 142) for storing;
Display control means (display circuit 155 of VDP135) for outputting and displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31),
In a gaming machine equipped with
The display mode of the image on the display unit includes a mode in which a plurality of individual images are displayed so that the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction of the display unit. ,
The data generating means is an individual image displayed so as to be recognized by the player as being present on the front side in the depth direction with respect to a predetermined reference position in the depth direction, and the back side in the depth direction. The target individual image, which is at least one of the individual images displayed so as to be recognized by the player as being present in the outline, is more detailed than the image recognized by the player as being present in the reference position. A game machine provided with a blurring setting means (a function of executing adjustment processing for focus effect in the VDP 135) that causes a line to be displayed in a blurred state by making the line unclear.

特徴C14によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。 According to the characteristic C14, it is possible to perform a display effect as if the reference position is in focus, and it is possible to perform a display effect with a sense of depth.

上記特徴C群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group C is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case in which an image is displayed using two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been done. Further, by reading the image data, generated data for displaying a character or the like in front of the background is generated in the storage means such as the VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, an object that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as characters and patterns is attached to the object. Drawing data is created by projecting the object with the texture pasted onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the drawing data, so that a stereoscopic image is displayed.

ここで、表示演出への遊技者の注目度を高めるためには、よりリアルな画像表示を行うことが好ましく、この点について未だ改良の余地がある。 Here, in order to increase the attention of the player to the display effect, it is preferable to perform more realistic image display, and there is still room for improvement in this respect.

<特徴D群>
特徴D1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101〜ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
<Feature D group>
Feature D1. Display means (symbol display device 31) having a display portion (display surface G),
When an image is displayed on the display unit using the generation data (drawing data) generated by the data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152), and a predetermined update timing is reached. Display control means (display circuit 155 of VDP 135) for updating the content of the image,
Equipped with
In the gaming machine, the data generating means generates the generated data based on using image data and applying parameter data that determines a display mode of an image based on the image data,
The generated data has a large number of unit data in which color information is set,
The data generation means derives aggregate data (normal map data ND1, ND2, blur map data) to be used for each generation unit data that causes each of the unit data, and the aggregate data derivation means (step in VDP135). A function of executing S2503, a function of executing steps S3101 to S3107 in the VDP 135), and applying each unit parameter data included in the aggregate data derived by the aggregate data deriving means to each of the generating unit data. By generating the generated data and changing at least one of the method of applying the collective data and the content of the collective data to be applied to generate the generated data in which the same type of individual images are displayed in different modes. A gaming machine characterized by being something that

特徴D1によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。 According to the feature D1, since each unit parameter data group is treated as aggregate data, simplification of processing regarding data handling is achieved. In addition, by changing at least one of the method of applying the collective data and the content of the collective data to be applied, the generated data is generated so that the individual images of the same type are displayed in different modes. It is possible to diversify the display effect while suppressing the amount of image data stored in advance.

特徴D2.前記集合データ導出手段は、記憶手段(メモリモジュール133)から前記集合データ(第1法線マップデータND1、第2法線マップデータND2)を読み出すことで当該集合データを導出するものであることを特徴とする特徴D1に記載の遊技機。 Feature D2. The aggregate data deriving unit derives the aggregate data by reading the aggregate data (first normal map data ND1 and second normal map data ND2) from the storage unit (memory module 133). The gaming machine described in Characteristic D1.

特徴D2によれば、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D2, it is possible to achieve the excellent effects as described above while reducing the processing load.

特徴D3.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出される前記集合データ(第1法線マップデータND1、第2法線マップデータND2)は、前記仮想3次元空間に配置されている前記オブジェクトの画像データに対して適用されることを特徴とする特徴D1又はD2に記載の遊技機。
Feature D3. The data generating unit arranges image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function of executing steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (a function of executing the process of step S1006 in the VDP 135) for setting the image data of the object on a projection plane set based on the viewpoint, and the two-dimensional information projected on the projection plane. And a drawing setting means (function of executing the processing of steps S1010 to S1012 in the VDP 135) for generating generated data that is two-dimensional information based on the data of
The aggregate data (first normal map data ND1 and second normal map data ND2) derived by the aggregate data deriving unit is applied to image data of the object arranged in the virtual three-dimensional space. The gaming machine described in the feature D1 or D2.

特徴D3によれば、集合データを利用して3次元情報の画像データの配置態様を変更することが可能となるため、リアルな画像表示を実現しながら、さらに複雑な画像表示を行うことが可能となる。この場合に、その複雑な画像表示を行う場合において、上記のとおり集合データを利用する構成であるため、データ容量及び処理負荷の両方のバランスを図ることが可能となる。 According to the feature D3, since the arrangement mode of the image data of the three-dimensional information can be changed by using the aggregate data, it is possible to perform a more complicated image display while realizing a realistic image display. Becomes In this case, when the complicated image display is performed, since the set data is used as described above, it is possible to balance both the data capacity and the processing load.

特徴D4.前記集合データ導出手段は、前記画像データが設定された状態において、当該設定された状態に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであり、
前記データ生成手段は、その導出された前記集合データを、前記画像データから作成されたデータに対して適用することに基づき、前記生成データを生成するものであることを特徴とする特徴D1乃至D3のいずれか1に記載の遊技機。
Feature D4. The aggregate data deriving unit derives the aggregate data (blurring map data) by specifying each unit parameter data (Z value) corresponding to the set state in the state where the image data is set. Is something
Features D1 to D3, characterized in that the data generation means generates the generated data based on applying the derived aggregate data to data generated from the image data. The gaming machine according to any one of 1.

特徴D4によれば、集合データを予め記憶させておく必要がないため、データ容量の削減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the characteristic D4, since it is not necessary to store the aggregated data in advance, it is possible to achieve the excellent effects as described above while reducing the data capacity.

特徴D5.前記集合データ導出手段は、前記集合データを用いて前記生成データが生成される状況において、各生成データのそれぞれに対応した前記集合データを導出するものであることを特徴とする特徴D4に記載の遊技機。 Feature D5. The feature D4 is characterized in that the aggregate data deriving unit derives the aggregate data corresponding to each of the generated data in a situation where the generated data is generated using the aggregate data. Amusement machine.

特徴D5によれば、各更新タイミングにおいて異なる集合データを用いることが可能となり、表示演出の多様化を図ることが可能となる。また、この場合であっても、集合データは予め記憶されているのではなく、その都度作成されるため、データ容量の削減を図りながら、表示演出の多様化を図ることが可能となる。 According to the feature D5, different set data can be used at each update timing, and the display effect can be diversified. Further, even in this case, since the collective data is not stored in advance but is created each time, it is possible to diversify the display effect while reducing the data capacity.

特徴D6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段は、前記配置手段による前記オブジェクトの画像データの配置態様に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであることを特徴とする特徴D4又はD5に記載の遊技機。
Feature D6. The data generating unit arranges image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function of executing steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (a function of executing the process of step S1006 in the VDP 135) for setting the image data of the object on a projection plane set based on the viewpoint, and the two-dimensional information projected on the projection plane. And a drawing setting means (function of executing the processing of steps S1010 to S1012 in the VDP 135) for generating generated data that is two-dimensional information based on the data of
The aggregate data deriving unit derives the aggregate data (blurring map data) by specifying each unit parameter data (Z value) according to the arrangement mode of the image data of the object by the arranging unit. The gaming machine described in the feature D4 or D5.

特徴D6によれば、3次元情報の画像データを利用することでリアルな画像表示を実現した構成において、そのリアルな画像表示を可能とするデータ設定態様に則して集合データが作成されるため、集合データの利用がリアルな画像表示に悪影響を及してしまわないようにすることが可能となる。 According to the characteristic D6, in the configuration in which the realistic image display is realized by using the image data of the three-dimensional information, the aggregate data is created according to the data setting mode that enables the realistic image display. , It is possible to prevent the use of aggregate data from adversely affecting the realistic image display.

特徴D7.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出された前記集合データ(ぼかしマップデータ)は、前記投影後の2次元情報のデータに対して適用されることを特徴とする特徴D1乃至D6のいずれか1に記載の遊技機。
Feature D7. The data generating unit arranges image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function of executing steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (a function of executing the process of step S1006 in the VDP 135) for setting the image data of the object on a projection plane set based on the viewpoint, and the two-dimensional information projected on the projection plane. And a drawing setting means (function of executing the processing of steps S1010 to S1012 in the VDP 135) for generating generated data that is two-dimensional information based on the data of
The set data (blurring map data) derived by the set data deriving unit is applied to the data of the two-dimensional information after the projection, according to any one of features D1 to D6. Amusement machine.

特徴D7によれば、集合データは、3次元情報のデータに対して適用されるのではなく、2次元情報のデータに対して適用される構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the characteristic D7, the aggregate data is configured not to be applied to the data of the three-dimensional information but to the data of the two-dimensional information. Therefore, while reducing the processing load, It becomes possible to exert such an excellent effect.

特徴D8.前記データ生成手段は、前記集合データの前記各単位パラメータデータを前記各生成用単位データに適用する場合の態様を複数の更新タイミング間において異ならせることに基づき、同一種類の個別画像の表示態様が変化していくことに対応した前記生成データを生成する生成実行手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能、ステップS1010〜ステップS1012を実行する機能)を備えていることを特徴とする特徴D1乃至D7のいずれか1に記載の遊技機。 Feature D8. The data generating means changes the mode of applying the unit parameter data of the aggregate data to each of the generating unit data among a plurality of update timings, and displays the same type of individual image. A generation executing unit that generates the generated data corresponding to the changing (a function of executing steps S2506, S2507, S2511, and S2512 of the VDP 135, a function of executing steps S1010 to S1012) is provided. The gaming machine according to any one of the features D1 to D7.

特徴D8によれば、単一の集合データを利用しながら、複数の更新タイミング間において同一種類の個別画像の表示態様を変化させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。 According to the feature D8, it is possible to change the display mode of the same type of individual image between a plurality of update timings while using a single set data. Therefore, it is possible to achieve the excellent effects as already described while balancing both the data capacity and the processing load.

特徴D9.前記生成実行手段は、前記各単位パラメータデータと前記各生成用単位データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8に記載の遊技機。 Feature D9. The generation executing means changes the correspondence between the unit parameter data and the generation unit data in accordance with the switching of the update timing (corresponding to the VDP135, step S2506, step S2507, step S2511 and step). The game machine according to Feature D8, which is provided with a function of executing the process of S2512.

特徴D9によれば、単位パラメータデータと生成用単位データとの対応関係を切り換えることで、複数の更新タイミング間において画像の表示態様を変更させる構成であるため、集合データを利用しながら画像の表示態様を変更させる構成において、処理負荷を軽減することが可能となる。 According to the feature D9, the display mode of the image is changed between the plurality of update timings by switching the correspondence between the unit parameter data and the unit data for generation. Therefore, the image is displayed while using the collective data. In the configuration in which the mode is changed, the processing load can be reduced.

特徴D10.前記生成実行手段は、前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、複数の単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8又はD9に記載の遊技機。 Feature D10. The generation executing means applies a plurality of applying means (steps S2506 and S2507 in the VDP 135) for reflecting the contents of the plurality of unit parameter data to one piece of data to which the unit parameter data is applied in each of the generating unit data. , A function of executing the processing of step S2511 and step S2512) is provided, the gaming machine according to the characteristic D8 or D9.

特徴D10によれば、単位パラメータデータを参照しながら表示態様を変更させる構成において、その変更させる表示態様の多様化が図られる。 According to the characteristic D10, in the configuration in which the display mode is changed while referring to the unit parameter data, the display mode to be changed can be diversified.

特徴D11.前記集合データ導出手段は、前記集合データを複数導出するものであり、
前記生成実行手段は、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、前記複数の集合データのそれぞれの単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象のデータと当該単位パラメータデータとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の集合データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴D8に記載の遊技機。
Feature D11. The aggregate data deriving means derives a plurality of the aggregate data,
The generation executing means is
A plurality of applying means (steps S2507 and S2512 in the VDP 135) for reflecting the contents of the unit parameter data of each of the plurality of set data to one piece of data to which the unit parameter data is applied in each of the generation unit data. Function that executes the processing of
In each of the generation unit data, the correspondence between the target data to which the unit parameter data is applied and the unit parameter data is changed along with the switching of the update timing, and the change in the correspondence is changed among the plurality of set data. Correspondence changing means (a function of executing the processing of steps S2506 and S2511 in the VDP 135) for each,
A gaming machine described in Feature D8, which is characterized by including:

特徴D11によれば、遊技機設計段階における集合データの設計の容易化を図りながら、表示態様を複雑に変化させることが可能となる。 According to the feature D11, it is possible to change the display mode in a complicated manner while facilitating the design of the aggregate data at the game machine designing stage.

特徴D12.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101〜ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
Feature D12. Arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (function of executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (The function of executing the process of step S1006 in the VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (drawing data is drawn based on the data projected on the projection plane). ) For generating the drawing (the function of executing the processing of step S1010 to step S1012 in the VDP 135), and the generated data generated by the data generating means (the display CPU 131, the geometry calculation unit 151, and the rendering unit 152). Storage means (frame buffer 142) for storing;
Display control means (display circuit 155 of VDP135) for outputting and displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31),
In a gaming machine equipped with
The generated data has a large number of unit data in which color information is set,
The data generation means derives aggregate data (normal map data ND1, ND2, blur map data) to be used for each generation unit data that causes each of the unit data, and the aggregate data derivation means (step in VDP135). A function of executing S2503, a function of executing steps S3101 to S3107 in the VDP 135), and applying each unit parameter data included in the aggregate data derived by the aggregate data deriving means to each of the generating unit data. By generating the generated data and changing at least one of the method of applying the collective data and the content of the collective data to be applied to generate the generated data in which the same type of individual images are displayed in different modes. A gaming machine characterized by being something that

特徴D12によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。 According to the characteristic D12, since each unit parameter data group is treated as aggregate data, simplification of processing regarding data handling can be achieved. In addition, by changing at least one of the method of applying the collective data and the content of the collective data to be applied, the generated data is generated so that the individual images of the same type are displayed in different modes. It is possible to diversify the display effect while suppressing the amount of image data stored in advance.

上記特徴D群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group D is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case in which an image is displayed using two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been done. Further, by reading the image data, generated data for displaying a character or the like in front of the background is generated in the storage means such as the VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, an object that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as characters and patterns is attached to the object. Drawing data is created by projecting the object with the texture pasted onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the drawing data, so that a stereoscopic image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity extremely increases.

<特徴E群>
特徴E1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、前記オブジェクトの画像データに対してテクスチャの画像データを設定するテクスチャ設定手段(VDPにおける特別キャラクタ用のテクスチャマッピング処理を実行する機能)を備え、
前記オブジェクトの画像データとして所定個別画像(特別キャラクタ)を表示させる場合に用いられる所定オブジェクトデータ(特別オブジェクトPC20)が含まれており、さらに前記テクスチャの画像データとして前記所定オブジェクトデータに対して設定される所定テクスチャデータ(第1部分テクスチャPC21〜PC23、第2部分テクスチャPC24〜PC27)が含まれており、
前記所定テクスチャデータは、
前記所定オブジェクトデータの第1パーツデータ(本体パーツ部BP)に対して設定される第1テクスチャデータ(第1部分テクスチャPC21〜PC23)と、
前記所定オブジェクトデータの第2パーツデータ(付属パーツ部AP1〜AP4)に対して設定される第2テクスチャデータ(第2部分テクスチャPC24〜PC27)と、
が含まれており、
前記テクスチャ設定手段は、
前記第1パーツデータに対して設定する前記第1テクスチャデータの種類を変更する第1設定手段(VDP135におけるステップS3401〜ステップS3403を実行する機能)と、
前記第2パーツデータに対して前記第2テクスチャデータを設定する場合において、当該第2パーツデータに対する当該第2テクスチャデータの設定位置関係を変更する第2設定手段(VDP135におけるステップS3405〜ステップS3409を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature E group>
Feature E1. Arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (function of executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space. (The function of executing the process of step S1006 in the VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (drawing data is drawn based on the data projected on the projection plane). ) For generating the drawing (the function of executing the processing of step S1010 to step S1012 in the VDP 135), and the generated data generated by the data generating means (the display CPU 131, the geometry calculation unit 151, and the rendering unit 152). Storage means (frame buffer 142) for storing;
An image corresponding to the generated data stored in the storage unit is displayed on the display unit (symbol display device 31), and the content of the image is updated at a predetermined update timing (of the VDP 135). Display circuit 155),
In a gaming machine equipped with
The data generation unit includes a texture setting unit (a function for executing a texture mapping process for a special character in VDP) that sets texture image data for the image data of the object,
Predetermined object data (special object PC20) used when displaying a predetermined individual image (special character) is included as the image data of the object, and further set to the predetermined object data as the image data of the texture. Predetermined texture data (first partial textures PC21 to PC23, second partial textures PC24 to PC27) are included.
The predetermined texture data is
First texture data (first partial textures PC21 to PC23) set for the first part data (body part BP) of the predetermined object data;
Second texture data (second partial textures PC24 to PC27) set for the second part data (attached parts AP1 to AP4) of the predetermined object data;
Is included,
The texture setting means,
First setting means (a function of executing steps S3401 to S3403 in the VDP 135) for changing the type of the first texture data set for the first part data;
When setting the second texture data for the second part data, a second setting unit (steps S3405 to S3409 in the VDP 135, which changes the setting positional relationship of the second texture data with respect to the second part data, is used). Function to execute)
A gaming machine characterized by being equipped with.

特徴E1によれば、所定個別画像の外観を変化させる場合において、設定するテクスチャデータの種類をまとめて変更するのではなく、テクスチャデータの一部である第1テクスチャデータについては種類を変更する一方、テクスチャデータの他の一部である第2テクスチャデータについては第2パーツデータに対する設定位置関係を変更させる構成である。これにより、所定個別画像の一部については外観を複雑に変化させるようにしながら、他の一部については外観の変化の複雑さを低減する代わりにデータ容量の削減が図られる。よって、データ容量と処理負荷とのバランスを図りながら、上記のように所定個別画像の外観を変化させることが可能となる。 According to the characteristic E1, when changing the appearance of the predetermined individual image, the type of the texture data to be set is not changed collectively, but the type of the first texture data that is a part of the texture data is changed. For the second texture data, which is another part of the texture data, the setting positional relationship with respect to the second part data is changed. As a result, the appearance of a part of the predetermined individual image is changed in a complicated manner, while the other part is reduced in data volume instead of reducing the complexity of the appearance change. Therefore, it is possible to change the appearance of the predetermined individual image as described above while balancing the data capacity and the processing load.

特徴E2.前記所定個別画像において前記第2パーツデータが占める割合は、前記第1パーツデータが占める割合よりも小さいことを特徴とする特徴E1に記載の遊技機。 Feature E2. The gaming machine according to feature E1, wherein the proportion occupied by the second part data in the predetermined individual image is smaller than the proportion occupied by the first part data.

特徴E2によれば、テクスチャデータの種類ではなく設定位置関係が変更される領域は、テクスチャデータの設定位置関係ではなく種類が変更される領域に比べて、外観を変化させる場合においてその変化が乏しいものとなるが、前者の領域の方が小さいため、所定個別画像全体としては外観が大きく変化していると遊技者に認識させることが可能となる。 According to the characteristic E2, the area in which the set positional relationship is changed instead of the type of texture data is less changed when the appearance is changed than the area in which the type is changed instead of the set positional relationship of the texture data. However, since the former area is smaller, it is possible for the player to recognize that the appearance of the entire predetermined individual image has changed significantly.

特徴E3.前記所定オブジェクトデータに対応した所定個別画像において前記第1パーツデータが占める領域には、当該所定個別画像において特定の外縁部分に対する相対位置が変化しない画像部分(目や口の模様部分)が存在していることを特徴とする特徴E1又はE2に記載の遊技機。 Feature E3. In the area occupied by the first part data in the predetermined individual image corresponding to the predetermined object data, there is an image portion (eye or mouth pattern portion) whose relative position to the specific outer edge portion does not change in the predetermined individual image. The gaming machine described in the feature E1 or E2.

特徴E3によれば、相対位置が変化すると好ましくない画像部分については、第1テクスチャデータとして設定されているため、当該画像部分を含めた領域の外観の変化を好適に行うことが可能となる。 According to the feature E3, the image portion that is not preferable when the relative position changes is set as the first texture data, so that it is possible to suitably change the appearance of the area including the image portion.

特徴E4.前記第2テクスチャデータは、一方の境界部分に設定されている色情報がその逆側の境界部分に設定されている色情報に対して連続性を有していることを特徴とする特徴E1乃至E3のいずれか1に記載の遊技機。 Feature E4. The second texture data is characterized in that the color information set in one boundary portion has continuity with the color information set in the opposite boundary portion. The gaming machine according to any one of E3.

特徴E4によれば、第2テクスチャデータの設定位置関係を変化していった場合において、所定個別画像に模様の境界が生じてしまうことが抑制される。 According to the characteristic E4, it is possible to suppress the occurrence of a pattern boundary in the predetermined individual image when the setting positional relationship of the second texture data is changed.

特徴E5.前記第2パーツデータ及び前記第2テクスチャデータの組合せは、複数存在しており、
前記第2設定手段は、一の前記第2テクスチャデータの設定位置関係を変更する場合には他の前記第2テクスチャデータの設定位置関係を変更するものであることを特徴とする特徴E1乃至E4のいずれか1に記載の遊技機。
Feature E5. There are a plurality of combinations of the second part data and the second texture data,
Features E1 to E4, wherein the second setting means changes the setting positional relationship of the other second texture data when changing the setting positional relationship of one of the second texture data. The gaming machine according to any one of 1.

特徴E5によれば、第2テクスチャデータが複数存在している構成において、それら第2テクスチャデータの設定に要する処理負荷の軽減が図られる。 According to the characteristic E5, in a configuration in which a plurality of second texture data are present, the processing load required for setting the second texture data can be reduced.

上記特徴E群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group E is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, an object that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as characters and patterns is attached to the object. Generated data is generated by projecting the object to which the texture is pasted onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a stereoscopic image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity extremely increases.

<特徴F群>
特徴F1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した1の動画を前記複数の更新タイミング分の期間に亘って表示させる表示演出を実行する表示演出実行手段(表示CPU131においてラウンド演出用の演算処理を実行する機能、VDP135におけるラウンド演出用の設定処理及びラウンド演出用マッピング処理を実行する機能)と、
を備え、
前記表示演出実行手段は、前記表示演出の演出期間のうち一部の特定期間において所定の画像を挿入することにより、前記1の動画を用いて複数種類の表示パターンの表示演出を実行可能に構成されていることを特徴とする遊技機。
<Feature F group>
Feature F1. Display means (symbol display device 31) having a display portion (display surface G),
Display storage means (memory module 133) that stores image data in advance;
Display control means (display CPU 131, VDP 135) for displaying an image on the display section using the image data stored in the display storage means;
In a gaming machine equipped with
The display storage means stores compressed moving image data used to reproduce a moving image,
The display control means,
A developing means (a movie decoder) for developing any one of the moving image data in the developing area and creating still image data for a plurality of update timings for the image corresponding to the moving image data;
By using the still image data for the plurality of update timings expanded by the expanding means in the order defined in the moving image data, one moving image corresponding to the moving image data is acquired for the plurality of update timings. Display effect executing means for executing a display effect to be displayed for the period (a function of executing a calculation process for a round effect in the display CPU 131, a function of executing a setting process for a round effect and a round effect mapping process in the VDP 135). When,
Equipped with
The display effect executing means is configured to execute a display effect of a plurality of types of display patterns by using the one moving image by inserting a predetermined image in a part of a specific period of the effect period of the display effect. A gaming machine characterized by being played.

特徴F1によれば、1の動画を用いて複数種類の表示パターンの表示演出を実行することにより、表示演出毎に動画像データを用意する構成と比較して、表示演出に要するデータ量の削減を図ることができる。よって、表示演出の多様化を図りつつ、データ量の増大化を抑制することができる。 According to the feature F1, the display effect of a plurality of types of display patterns is executed by using one moving image, so that the amount of data required for the display effect is reduced as compared with the configuration in which moving image data is prepared for each display effect. Can be planned. Therefore, it is possible to suppress an increase in the data amount while diversifying the display effect.

特徴F2.前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記表示演出実行手段は、前記特定期間において前記所定画像データを用いて前記所定の画像を表示させ得るものであることを特徴とする特徴F1に記載の遊技機。
Feature F2. The display storage means stores predetermined image data (inserted image data IPD0) that is image data used to display the predetermined image and has a smaller data amount than the moving image data.
The gaming machine according to Feature F1, wherein the display effect executing means is capable of displaying the predetermined image using the predetermined image data in the specific period.

特徴F2によれば、所定画像データを用いて所定の画像が表示される。当該所定画像データは動画像データよりも少ないデータ量に設定されている。これにより、表示演出毎に動画像データを用意する構成と比較して、少ないデータ量で表示演出の多様化を図ることができる。 According to the feature F2, the predetermined image is displayed using the predetermined image data. The predetermined image data is set to have a smaller data amount than the moving image data. Accordingly, it is possible to diversify the display effect with a small amount of data, as compared with the configuration in which the moving image data is prepared for each display effect.

また、所定画像データを用いて所定の画像を表示させる構成の方が、所定の画像を作成して表示させる構成と比較して、所定の画像の作成に係る処理を実行する必要がない分だけ所定の画像の表示に係る処理負荷が軽くなり易い。これにより、表示演出に係るデータ量の削減を図りつつ、所定の画像を表示させるのに要する処理負荷を軽減させることができ、データ量の削減と処理負荷とのバランスを図ることができる。 In addition, the configuration in which the predetermined image is displayed using the predetermined image data is more advantageous than the configuration in which the predetermined image is created and displayed, because the process related to the creation of the predetermined image need not be executed. The processing load associated with displaying a predetermined image tends to be light. As a result, it is possible to reduce the processing load required to display a predetermined image while reducing the data amount related to the display effect, and it is possible to balance the reduction in the data amount and the processing load.

特徴F3.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に代えて前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。 Feature F3. The gaming machine according to feature F1 or feature F2, wherein the display effect executing means displays the predetermined image instead of the image related to the one moving image in the specific period.

特徴F3によれば、特定期間において動画に係る画像が表示される場合と所定の画像が表示される場合とがある。これにより、表示演出の表示パターンの1つとして1の動画に係る画像の表示を用いることができる。よって、少ないデータ量で表示演出の多様化を図ることができる。 According to the feature F3, there are cases where an image related to a moving image is displayed and a case where a predetermined image is displayed during a specific period. Accordingly, it is possible to use the display of the image related to one moving image as one of the display patterns of the display effect. Therefore, the display effect can be diversified with a small amount of data.

なお、本特徴の具体的な構成としては、「前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に対して前記所定の画像を上書きするものである」ことが考えられる。かかる構成によれば、動画表示に係る処理にて特別な処理を行うことなく、1の動画に係る画像に代えて所定の画像を表示させることができる。 As a specific configuration of this feature, it is conceivable that "the display effect executing means overwrites the image related to the one moving image with the predetermined image in the specific period". According to this configuration, it is possible to display a predetermined image instead of the image related to one moving image without performing any special process in the processing related to the moving image display.

特徴F4.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像と、前記所定の画像とを重ね合わせることで合成画像を作成し、当該合成画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。 Feature F4. It is characterized in that the display effect executing means creates a composite image by superimposing the image related to the first moving image and the predetermined image in the specific period, and displays the composite image. The gaming machine described in the feature F1 or the feature F2.

特徴F4によれば、1の動画に係る画像と所定の画像との合成画像が表示されるため、1の動画に係る画像を用いて、当該1の動画に係る画像とは異なる画像を表示させることができる。 According to the feature F4, a composite image of an image related to one moving image and a predetermined image is displayed, and thus an image different from the image related to the one moving image is displayed using the image related to the one moving image. be able to.

特に、動画像データの特性上、当該動画像データは、更新タイミング毎の連続するデータを保持する必要がある。この点、本特徴によれば、当該連続するデータを用いて合成画像を作成する構成としたことにより、当該連続するデータを好適に利用することができ、表示演出全体に係るデータ量の削減を好適に行うことができる。 In particular, due to the characteristics of moving image data, the moving image data must hold continuous data at each update timing. In this respect, according to this feature, since the composite image is configured to be created using the continuous data, the continuous data can be appropriately used, and the data amount related to the entire display effect can be reduced. It can be suitably performed.

また、特徴F2との関係によれば、所定の画像のみで画像表示を行う構成と比較して、所定の画像の表示領域を小さくすることができるため、所定画像データのデータ量の削減を図ることができる。これにより、所定の画像を表示するのに要するデータ量を少なくすることができる。 Further, according to the relationship with the feature F2, the display area of the predetermined image can be reduced as compared with the configuration in which the image display is performed only with the predetermined image, so that the data amount of the predetermined image data is reduced. be able to. As a result, the amount of data required to display a predetermined image can be reduced.

特徴F5.仮想3次元空間内にオブジェクトの画像データを配置する配置手段(VDP135におけるラウンド演出用の設定処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記画像データを投影させることで作成された投影データを用いて生成データを生成するとともに、前記視点が向く方向に複数の前記画像データが並んでいる場合、その並んでいる各部分において前記視点が向く方向における当該視点からの距離が小さい側の部分を優先して前記生成データに反映させる描画用設定手段(VDP135における演出用の描画データ作成処理を実行する機能)と、によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)を備え、
前記表示制御手段は、前記記憶手段に記憶された生成データに対応した画像を前記表示部に表示させるものであり、
前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記オブジェクトには、
前記動画像データから生成される静止画像データがテクスチャとして貼り付けられる第1オブジェクト(動画用オブジェクト)と、
前記所定画像データがテクスチャとして貼り付けられる第2オブジェクト(挿入用オブジェクト)と、
が含まれており、
前記配置手段は、前記特定期間において、前記視点が向く方向における当該視点からの距離が、前記第1オブジェクトよりも前記第2オブジェクトの方が小さくなるように、前記各オブジェクトを配置するものであることを特徴とする特徴F3又は特徴F4に記載の遊技機。
Feature F5. Arrangement means for arranging the image data of the object in the virtual three-dimensional space (function for executing the setting process for round effect in the VDP135), and viewpoint setting means for setting the viewpoint in the virtual three-dimensional space (camera coordinate system in the VDP135) And a function of executing a conversion process to generate the generated data using projection data created by projecting the image data on a projection plane set based on the viewpoint, and a direction in which the viewpoint faces. When a plurality of the image data are lined up in the drawing, a setting unit for drawing that preferentially reflects in the generated data the part on the side where the distance from the viewpoint is small in the direction in which the viewpoint is facing ( The VDP135 has a function of executing a rendering data creation process for rendering, and a storage unit (frame buffer 142) for storing the generated data (drawing data) generated by
The display control means displays an image corresponding to the generated data stored in the storage means on the display unit,
The display storage means stores predetermined image data (inserted image data IPD0) that is image data used to display the predetermined image and has a smaller data amount than the moving image data.
The objects include
A first object (moving object) to which still image data generated from the moving image data is pasted as a texture;
A second object (insertion object) to which the predetermined image data is pasted as a texture;
Is included,
The arranging means arranges the respective objects such that the distance from the viewpoint in the direction in which the viewpoint is facing is smaller in the second object than in the first object in the specific period. The gaming machine described in the characteristic F3 or the characteristic F4.

特徴F5によれば、第1オブジェクトに対して、動画像データから生成される静止画像データがテクスチャとして貼り付けられ、当該静止画像データが更新タイミングとなる度に更新されることにより、1の動画が表示される。また、第2オブジェクトに対して、所定画像データがテクスチャとして貼り付けられることにより、所定の画像が表示される。この場合、所定の画像に係る第2オブジェクトが1の動画に係る第1オブジェクトよりも前面側に配置されるため、陰面消去の構成により1の動画に係る画像に対して重なるように所定の画像が表示される。これにより、3次元画像を表示するための陰面消去の構成を利用して、1の動画に係る画像に代えて所定の画像を表示させたり、1の動画に係る画像と所定の画像とを合成させたりすることができる。 According to the feature F5, the still image data generated from the moving image data is attached as a texture to the first object, and the still image data is updated each time the update timing is reached. Is displayed. Further, a predetermined image is displayed by pasting the predetermined image data as a texture on the second object. In this case, since the second object related to the predetermined image is arranged in front of the first object related to the one moving image, the predetermined image is overlapped with the image related to the one moving image by the hidden surface removal configuration. Is displayed. Thereby, by using the hidden surface removal configuration for displaying a three-dimensional image, a predetermined image is displayed instead of the image related to one moving image, or the image related to one moving image and the predetermined image are combined. It can be done.

特徴F6.前記各オブジェクトは、少なくとも一方の面に前記各テクスチャが貼り付けられる板状オブジェクトであることを特徴とする特徴F5に記載の遊技機。 Feature F6. The gaming machine according to Feature F5, wherein each of the objects is a plate-like object to which the texture is attached on at least one surface.

特徴F6によれば、各画像データの貼付対象として、比較的処理負荷が少ない板状オブジェクトを用いることにより、処理負荷の軽減を図ることができる。 According to the feature F6, it is possible to reduce the processing load by using a plate-shaped object having a relatively small processing load as a target to which each image data is attached.

特徴F7.前記動画像データには、所定の単位で分割された第1単位動画像データ(第1ラウンド動画像データRMD0a)と第2単位動画像データ(第2ラウンド動画像データRMD0b)とが含まれており、
前記表示演出実行手段は、前記第1単位動画像データによる動画を表示させた後、前記特定期間が経過したことに基づいて前記第2単位動画像データによる動画を表示させることにより、前記1の動画を表示させるものであり、
前記表示演出実行手段は、前記特定期間に亘って前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。
Feature F7. The moving image data includes first unit moving image data (first round moving image data RMD0a) and second unit moving image data (second round moving image data RMD0b) divided in a predetermined unit. Cage,
The display effect executing means displays the moving image based on the first unit moving image data, and then displays the moving image based on the second unit moving image data based on the elapse of the specific period, thereby displaying the moving image based on the first unit moving image data. To display a video,
The game machine according to feature F1 or feature F2, wherein the display effect executing means displays the predetermined image over the specific period.

特徴F7によれば、単一の動画像データを用いるのではなく、少なくとも第1単位動画像データ及び第2単位動画像データを用いて1の動画が表示される。これにより、例えば、上記1の動画表示の開始時に第1単位動画像データに対して展開用の処理を実行し、その後第2単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両動画像データ分の展開がまとめて行われる構成に比べ、上記1の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。 According to the feature F7, one moving image is displayed using at least the first unit moving image data and the second unit moving image data, instead of using a single moving image data. Thereby, for example, it is possible to execute the expanding process for the first unit moving image data at the start of the moving image display, and then execute the expanding process for the second unit moving image data. Becomes In this case, it is possible to suppress the local increase in the processing load at the time of starting the moving image display, as compared with the configuration in which the development of both moving image data is collectively performed.

かかる構成において、所定の画像は、第1単位動画像データによる動画表示と、第2単位動画像データによる動画表示との間に設けられた所定の期間に亘って表示される。これにより、所定の画像を介して、分割した各動画像データに係る動画表示が連続して表示されることとなり、遊技者に1の動画として認識させることができる。 In such a configuration, the predetermined image is displayed for a predetermined period provided between the moving image display using the first unit moving image data and the moving image display using the second unit moving image data. As a result, the moving image display related to each of the divided moving image data is continuously displayed via the predetermined image, and the player can recognize it as one moving image.

また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。 Further, according to this configuration, it is not necessary to simultaneously perform the process related to the moving image display and the process related to the predetermined image display. This can reduce the processing load related to image display.

特徴F8.前記表示演出実行手段は、前記特定期間において表示対象となる前記所定の画像を変更可能であることを特徴とする特徴F1乃至F7のいずれか1に記載の遊技機。 Feature F8. The game machine according to any one of features F1 to F7, wherein the display effect executing means is capable of changing the predetermined image to be displayed during the specific period.

特徴F8によれば、表示演出が実行される度に特定期間において表示させる所定の画像を異ならせることにより、異なる表示演出であるように認識させることができる。これにより、表示演出の表示パターンの更なる多様化を図ることができる。 According to the feature F8, it is possible to recognize different display effects by changing the predetermined image displayed in the specific period each time the display effect is executed. This makes it possible to further diversify the display pattern of the display effect.

なお、本特徴の具体的な構成としては、例えば「前記表示用記憶手段には、表示内容が相違する複数種類の所定画像データが記憶されており、前記表示演出実行手段は、前記複数種類の所定画像データのうちいずれかを選択する選択手段を備え、前記選択手段により選択された所定画像データを用いて前記特定期間において前記選択手段により選択された所定画像データに対応した画像を表示させるものである」構成が考えられる。 In addition, as a specific configuration of this feature, for example, "the display storage means stores a plurality of types of predetermined image data having different display contents, and the display effect executing means stores the plurality of types of predetermined image data. A selection means for selecting any one of the predetermined image data, and using the predetermined image data selected by the selection means, displaying an image corresponding to the predetermined image data selected by the selection means in the specific period. Is possible.

特徴F9.前記表示演出実行手段は、予め定められた特定条件が成立した場合には、前記動画が複数回繰り返し表示されるようにするものであり、前記複数回の動画表示のうち所定回数目の動画表示における前記特定期間では前記所定の画像として第1所定画像を表示させ、前記所定回数目の動画表示とは異なる回数目の動画表示における前記特定期間では前記第1所定画像とは異なる第2所定画像を表示させるものであることを特徴とする特徴F8に記載の遊技機。 Feature F9. The display effect executing means is configured to cause the moving image to be repeatedly displayed a plurality of times when a predetermined specific condition is satisfied, and the moving image display for a predetermined number of times of the plurality of moving image displays. In the specific period, the first predetermined image is displayed as the predetermined image, and the second predetermined image different from the first predetermined image in the specific period in the moving image display of the number of times different from the predetermined number of moving image display. The gaming machine according to feature F8, characterized in that is displayed.

特徴F9によれば、動画表示が繰り返し実行される場合がある。この場合、所定回数目の動画表示と当該所定回数目とは異なる回数目の動画表示とで、表示される所定の画像が異なるため、全体としてはバリエーションが異なる表示演出が実行されることとなる。これにより、当該表示演出が繰り返し行われることに起因する当該表示演出への注目度の低下を抑制することができる。 According to the feature F9, moving image display may be repeatedly executed. In this case, since the predetermined image to be displayed is different between the moving image display of the predetermined number of times and the moving image display of the number of times different from the predetermined number of times, display effects having different variations are executed as a whole. .. As a result, it is possible to suppress a reduction in the degree of attention to the display effect due to the repeated display effect.

特徴F10.予め定められた抽選契機に基づいて、遊技状態を遊技者に有利な特定遊技状態に移行させるか否かを判定する判定手段(主制御装置50における当否判定処理を実行する機能)と、
前記判定手段の判定結果が、前記遊技状態を前記特定遊技状態に移行させることに対応した移行対応結果である場合に、前記特定遊技状態に移行させる移行手段(主制御装置50における遊技状態移行処理を実行する機能)と、
を備え、
特定遊技状態では、当該特定遊技状態の所定のタイミングにて開始され、予め定められた終了条件が成立するまで継続される特定単位遊技が複数回繰り返し行われ、
前記表示演出実行手段は、前記特定単位遊技が行われる度に実行されるものであり、1の特定遊技状態中における前記特定単位遊技の実行回数に応じて、異なる前記所定の画像を表示させることが可能であることを特徴とする特徴F8又は特徴F9に記載の遊技機。
Feature F10. Based on a predetermined lottery trigger, a determination unit that determines whether or not to shift the game state to a specific game state that is advantageous to the player (a function of executing the win/loss determination process in the main controller 50),
When the determination result of the determination means is a transition correspondence result corresponding to transition of the game state to the specific game state, transition means for transitioning to the specific game state (game state transition process in main controller 50) Function to execute)
Equipped with
In the specific game state, a specific unit game that is started at a predetermined timing of the specific game state and continues until a predetermined ending condition is satisfied is repeated a plurality of times,
The display effect execution means is executed each time the specific unit game is performed, and displays the different predetermined image according to the number of times the specific unit game is executed in one specific game state. The game machine according to feature F8 or feature F9, which is characterized in that

特徴F10によれば、特定遊技状態中は、特定単位遊技が複数回繰り返し行われる。この場合、特定単位遊技が行われる度に1の動画を用いた表示演出が実行される。これにより、当該表示演出が繰り返し実行されることにより、特定単位遊技が繰り返し行われていることを遊技者が把握することができる。 According to the characteristic F10, the specific unit game is repeated a plurality of times during the specific game state. In this case, a display effect using one moving image is executed every time a specific unit game is played. As a result, by repeatedly executing the display effect, the player can understand that the specific unit game is repeatedly played.

この場合、同一の表示演出が実行されると、遊技者の表示演出への注目度が低下する。かといって、全く異なる表示演出を実行する構成とすると、データ量の増大化という不都合が生じ得る。 In this case, when the same display effect is executed, the player's attention to the display effect is reduced. However, if the configuration is such that a completely different display effect is executed, an inconvenience of increasing the amount of data may occur.

これに対して、本特徴によれば、特定単位遊技の実行回数に応じて所定の画像を異ならせることにより、特定単位遊技が繰り返し行われる特定遊技状態において1の動画像データを用いてバリエーションの異なる表示演出を実行することが可能となり、上記不都合を回避することができる。 On the other hand, according to this feature, by changing the predetermined image according to the number of times of execution of the specific unit game, a variation of one moving image data is used in the specific game state in which the specific unit game is repeatedly performed. Different display effects can be executed, and the above inconvenience can be avoided.

上記特徴F群は以下の課題に対して効果的である。 The above feature group F is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. These gaming machines are equipped with a control board on which an element such as a memory in which a control program for a game is stored is mounted, and a series of games are controlled by the control board. It is also known that the CPU and the memory are not individually mounted on the control board, but are mounted on the control board in an integrated state.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。 In the above-mentioned gaming machine, there is known one provided with a display device having a display portion, such as a liquid crystal display device. In such a gaming machine, a memory for image data in which image data is stored in advance is mounted, and a predetermined image is displayed on the display unit by using the image data read from the memory.

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。 Further, a configuration including moving image data as image data is also known. Since the amount of moving image data is larger than that of still image data, it is stored in a compressed state in a memory for image data. When reproducing a moving image related to the compressed moving image data, the decoder is used to expand the moving image data in a predetermined memory area into a plurality of still image data, and the plurality of still image data are updated. It is necessary to use them in a predetermined order at each timing.

ここで、表示演出の多様化を図るべく、複数種類の動画を再生したい場合がある。この場合、動画像データを複数種類設け、当該複数種類の動画像データのうちいずれかをデコードして当該動画像データに係る動画を再生する構成が考えられる。しかしながら、かかる構成では、動画像データのデータ量の増大化が懸念される。 Here, in order to diversify the display effect, it may be desired to reproduce a plurality of types of moving images. In this case, it is conceivable to provide a plurality of types of moving image data, decode any one of the plurality of types of moving image data, and reproduce a moving image related to the moving image data. However, in such a configuration, there is a concern that the amount of moving image data will increase.

<特徴G群>
特徴G1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した画像の動画を前記複数の更新タイミング分の表示期間に亘って表示させる動画像表示実行手段(VDP135における動画像用の設定処理を実行する機能)と、
を備え、
前記動画像データは、当該動画像データにより表示される動画の態様に応じて、複数の単位動画像データに分割されており、
前記動画像表示実行手段は、前記各単位動画像データによる動画を、予め定められた順序で順次表示することにより、一連の動画を表示させるものであり、
前記各単位動画像データは、当該各単位動画像データにより表示される各動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なるようにして圧縮されていることを特徴とする遊技機。
<Feature G group>
Features G1. Display means (symbol display device 31) having a display portion (display surface G),
Display storage means (memory module 133) that stores image data in advance;
Display control means (display CPU 131, VDP 135) for displaying an image on the display section using the image data stored in the display storage means;
In a gaming machine equipped with
The display storage means stores compressed moving image data used to reproduce a moving image,
The display control means,
A developing means (a movie decoder) for developing any one of the moving image data in the developing area and creating still image data for a plurality of update timings for the image corresponding to the moving image data;
By using the still image data corresponding to the plurality of update timings expanded by the expanding means in the order defined in the moving image data, the moving image of the image corresponding to the moving image data can be acquired by the plurality of update timings. A moving image display executing means (a function for executing a moving image setting process in the VDP 135) for displaying over the display period of
Equipped with
The moving image data is divided into a plurality of unit moving image data according to a mode of a moving image displayed by the moving image data,
The moving image display execution means displays a series of moving images by sequentially displaying moving images of the unit moving image data in a predetermined order,
Each of the unit moving image data is compressed such that a data amount assigned to each of the unit moving image data is different depending on a mode of each moving image displayed by the unit moving image data. A gaming machine to do.

特徴G1によれば、単一の動画像データを用いるのではなく、各単位動画像データを順次用いることにより一連の動画表示が行われる。これにより、例えば、上記一連の動画表示の開始時に1の単位動画像データに対して展開用の処理を実行し、その後、他の単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両単位動画像データ分の展開がまとめて行われる構成に比べ、上記一連の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。 According to the feature G1, a series of moving image display is performed by sequentially using each unit moving image data instead of using a single moving image data. As a result, for example, at the start of the above-described series of moving image displays, it is possible to execute the expanding process for one unit moving image data and then execute the expanding process for other unit moving image data. It will be possible. In this case, it is possible to suppress a local increase in the processing load when the series of moving image displays is started, as compared with the configuration in which the expansion of both unit moving image data is performed collectively.

かかる構成において、各単位動画像データにより表示される動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なる。これにより、動画の態様に応じて画質を調整することができるため、効率的な画質の調整を行うことができる。 In such a configuration, the amount of data assigned to each unit moving image data differs depending on the mode of the moving image displayed by each unit moving image data. Accordingly, the image quality can be adjusted according to the mode of the moving image, so that the image quality can be efficiently adjusted.

特徴G2.前記表示期間には、前記動画の態様が異なる第1区間及び第2区間が含まれており、
前記単位動画像データには、
前記第1区間に対応した第1単位動画像データ(第1ラウンド動画像データRMD0a)と、
前記第2区間に対応した第2単位動画像データ(第2ラウンド動画像データRMD0b)と、
が設けられており、
前記第1単位動画像データと前記第2単位動画像データとで、単位期間当たりにおける画像表示を行うためのデータ量が異なるよう設定されていることを特徴とする特徴G1に記載の遊技機。
Features G2. The display period includes a first section and a second section in which the aspect of the moving image is different,
The unit moving image data includes
First unit moving image data (first round moving image data RMD0a) corresponding to the first section;
Second unit moving image data (second round moving image data RMD0b) corresponding to the second section,
Is provided,
The gaming machine according to feature G1, wherein the first unit moving image data and the second unit moving image data are set so that the data amounts for performing image display per unit period are different.

特徴G2によれば、各単位動画像データの単位期間当たりにおける画像表示を行うためのデータ量を異ならせることにより、各単位動画像データにより表示される動画の画質の低下を抑制しつつ、動画像データ全体のデータ量の削減を図ることができる。 According to the feature G2, the amount of data for displaying an image of each unit moving image data per unit period is made different, so that the deterioration of the image quality of the moving image displayed by each unit moving image data is suppressed and the moving image is reduced. It is possible to reduce the data amount of the entire image data.

特徴G3.前記第1区間及び前記第2区間は、各更新タイミング間における画像の変化量が相対的に大小となる大変化区間及び小変化区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2に記載の遊技機。
Features G3. The first section and the second section are a large change section and a small change section in which the amount of change in the image between the update timings is relatively large and small,
The gaming machine according to feature G2, wherein the first unit moving image data is set to have a larger data amount for displaying an image per unit period than the second unit moving image data.

特徴G3によれば、画像の変化量が比較的大きい大変化区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。 According to the characteristic G3, since a relatively large amount of data is assigned to the first unit moving image data corresponding to a large change section in which the amount of image change is relatively large, block noise, mosquito noise, etc. occur. Hard to do.

一方、画像の変化量が比較的小さい小変化区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。 On the other hand, for the second unit moving image data corresponding to the small change section in which the amount of image change is relatively small, a relatively small amount of data is allocated, so the data amount of the second unit moving image data should be reduced. Can be planned.

特徴G4.前記第1区間及び前記第2区間は、静止画像データに係る画像の精細さが相対的に高低となる高精細区間及び低精細区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2又は特徴G3に記載の遊技機。
Features G4. The first section and the second section are a high-definition section and a low-definition section in which the definition of the image related to the still image data is relatively high and low,
The feature G2 or feature G3 is characterized in that the first unit moving image data is set to have a larger data amount for displaying an image per unit period than the second unit moving image data. Amusement machine.

特徴G4によれば、画像の精細さが比較的高い高精細区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。 According to the characteristic G4, since a relatively large amount of data is assigned to the first unit moving image data corresponding to the high-definition section in which the image has a relatively high definition, block noise, mosquito noise, etc. occur. Hard to do.

一方、画像の細かさが比較的低い低精細区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。 On the other hand, a relatively small amount of data is assigned to the second unit moving image data corresponding to the low-definition section in which the image is relatively fine, so the data amount of the second unit moving image data should be reduced. Can be planned.

特徴G5.前記更新タイミングの間隔は、各区間に関わらず同一に設定されていることを特徴とする特徴G2乃至G4のいずれか1に記載の遊技機。 Features G5. The gaming machine according to any one of features G2 to G4, wherein the intervals of the update timing are set to be the same regardless of each section.

特徴G5によれば、更新タイミングの間隔は各区間に関わらず同一に設定されているため、各区間に応じて更新タイミングの間隔の変更を行う構成と比較して、当該変更に係る処理分だけ、動画の表示に係る処理負荷の軽減を図ることができるとともに、その変更に係る処理を実行するプログラム分だけプログラム容量の削減を図ることができる。 According to the feature G5, since the update timing interval is set to be the same regardless of each section, compared with the configuration in which the update timing interval is changed according to each section, only the processing for the change is performed. As a result, it is possible to reduce the processing load related to the display of moving images, and it is possible to reduce the program capacity by the amount of the program that executes the processing related to the change.

また、この場合であっても、単位期間当たりにおける画像表示を行うためのデータ量を調整することにより、画質の低下を抑制しつつ、動画像データ全体のデータ量を所定量に圧縮することができる。 Even in this case, by adjusting the amount of data for displaying an image per unit period, it is possible to suppress the deterioration of the image quality and compress the entire amount of moving image data to a predetermined amount. it can.

特徴G6.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記表示制御手段は、
前記所定画像データを用いて前記表示部に前記所定の画像を表示させる所定画像表示実行手段(表示CPU131のステップS3510〜ステップS3516の処理を実行する機能、VDP135のステップS3704〜ステップS3707、ステップS3804〜ステップS3807の処理を実行する機能)を備え、前記動画像表示実行手段及び前記所定画像表示実行手段の双方を同時に実行することにより、前記動画と前記所定の画像とを同時に表示させることが可能であることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Features G6. The display storage means stores predetermined image data (inserted image data IPD0) corresponding to a predetermined image,
The display control means,
Predetermined image display execution means for displaying the predetermined image on the display unit using the predetermined image data (function of the display CPU 131 to execute the processing of steps S3510 to S3516, step S3704 to step S3707, step S3804 of VDP135). It is possible to display the moving image and the predetermined image at the same time by providing both the moving image display execution unit and the predetermined image display execution unit at the same time by providing the function of executing the process of step S3807). The gaming machine according to any one of the features G1 to G5.

特徴G6によれば、動画と所定の画像とを組み合わせることにより、画像の表示態様の多様化を図ることができる。 According to the feature G6, it is possible to diversify the display mode of the image by combining the moving image and the predetermined image.

この場合、動画像及び所定の画像を同時に表示させるために、動画像表示及び所定の画像表示双方の表示制御に係る処理を実行する必要がある。このため、処理負荷の増大化が懸念される。 In this case, in order to display the moving image and the predetermined image at the same time, it is necessary to execute a process relating to display control of both the moving image display and the predetermined image display. Therefore, there is a concern that the processing load will increase.

これに対して、特徴G5との関係によれば、更新タイミングの間隔の変更に係る処理負荷の分だけ、動画の表示中の処理負荷を軽減することができる。これにより、動画像及び所定の画像双方を同時に表示させる場合に処理落ちすることを抑制することができる。 On the other hand, according to the relationship with the feature G5, the processing load during the display of the moving image can be reduced by the processing load related to the change of the update timing interval. As a result, it is possible to suppress processing omission when displaying both a moving image and a predetermined image at the same time.

特徴G7.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記動画像表示実行手段は、前記複数の単位動画像データのうち所定の単位動画像データによる動画を表示させた場合には、当該所定の単位動画像データによる動画表示から所定の期間が経過したことに基づいてその後の単位動画像データによる動画を表示させるものであり、
前記表示制御手段は、
前記所定の期間に亘って前記所定画像データを用いて前記表示部に前記所定の画像を表示させる手段(表示CPU131におけるステップS3912〜ステップS3915の処理を実行する機能)を備えていることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Features G7. The display storage means stores predetermined image data (inserted image data IPD0) corresponding to a predetermined image,
When the moving image display executing means displays a moving image of a predetermined unit moving image data among the plurality of unit moving image data, a predetermined period has elapsed from the moving image display of the predetermined unit moving image data. Based on that, it is to display a moving image with subsequent unit moving image data,
The display control means,
A means for displaying the predetermined image on the display unit by using the predetermined image data for the predetermined period (a function of executing steps S3912 to S3915 in the display CPU 131). The gaming machine according to any one of features G1 to G5.

特徴G7によれば、所定の単位動画像データによる動画表示とその後の単位動画像データによる動画表示との間に設けられた所定の期間に亘って所定の画像が表示される。これにより、所定の画像を介して、分割した両単位動画像データに係る動画表示が連続して表示されることとなり、遊技者に一連の動画として認識させることができる。 According to the feature G7, the predetermined image is displayed for a predetermined period provided between the moving image display using the predetermined unit moving image data and the subsequent moving image display using the unit moving image data. As a result, the moving image display related to the divided unit moving image data is continuously displayed via the predetermined image, and the player can recognize as a series of moving images.

また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。 Further, according to this configuration, it is not necessary to simultaneously perform the process related to the moving image display and the process related to the predetermined image display. This can reduce the processing load related to image display.

上記特徴G群は以下の課題に対して効果的である。 The above feature G group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. These gaming machines are equipped with a control board on which an element such as a memory in which a control program for a game is stored is mounted, and a series of games are controlled by the control board. It is also known that the CPU and the memory are not individually mounted on the control board, but are mounted on the control board in an integrated state.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。 In the above-mentioned gaming machine, there is known one provided with a display device having a display portion, such as a liquid crystal display device. In such a gaming machine, a memory for image data in which image data is stored in advance is mounted, and a predetermined image is displayed on the display unit by using the image data read from the memory.

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。 Further, a configuration including moving image data as image data is also known. Since the amount of moving image data is larger than that of still image data, it is stored in a compressed state in a memory for image data. When reproducing a moving image related to the compressed moving image data, the decoder is used to expand the moving image data in a predetermined memory area into a plurality of still image data, and the plurality of still image data are updated. It is necessary to use them in a predetermined order at each timing.

ここで、画像データ用のメモリの記憶容量と他の画像データとの関係から、動画像データのデータ量を、予め定められた設定量となるように圧縮する必要が生じる場合がある。この場合、動画像データの圧縮態様によっては、動画像データを用いた動画の画質が低下し、当該動画への注目度が低下するという不都合が生じ得る。 Here, there are cases where it is necessary to compress the data amount of the moving image data so as to be a predetermined set amount due to the relationship between the storage capacity of the image data memory and other image data. In this case, depending on the compression mode of the moving image data, the image quality of the moving image using the moving image data may be deteriorated, and the degree of attention to the moving image may be reduced.

<特徴H群>
特徴H1.オブジェクトの画像データ及び当該オブジェクトに貼り付けられるテクスチャの画像データを含む各種画像データが記憶された画像データ記憶手段(メモリモジュール133)と、仮想3次元空間内に前記オブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、前記オブジェクトに対して前記テクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記テクスチャが貼り付けられたオブジェクトを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)と、を有するデータ生成手段(表示CPU131及びVDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記オブジェクトには、変形対象として設定された変形対象オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記データ生成手段は、当該変形対象オブジェクトを変形させることにより、前記画像の少なくとも一部を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature H group>
Features H1. An image data storage unit (memory module 133) that stores various image data including image data of an object and image data of a texture attached to the object, and an arrangement unit (VDP135) that arranges the object in a virtual three-dimensional space. In step S4602, step S4609, and step S4610) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (conversion processing to the camera coordinate system and conversion processing to the view coordinate system in the VDP135). A function to execute), a pasting unit for pasting the texture onto the object (a function to execute a color information setting process in the VDP 135), and the texture to a projection plane set based on the viewpoint. Setting means for projecting an object and generating generated data (drawing data) based on the data projected on the projection plane (function of creating a drawing list in the display CPU 131 and function of executing a drawing process in the VDP 135) A storage unit (frame buffer 142) for storing the generated data generated by the data generation unit (display CPU 131 and VDP 135) having
A display control unit (display CPU 131 and display CPU 131 and a display CPU 131 that causes the display unit (display surface G) to display an image corresponding to the generated data stored in the storage unit and to update the content of the image at a predetermined update timing. VDP135),
In a gaming machine equipped with
The object includes a transformation target object (refraction object OB10) set as a transformation target,
The data generation means distorts at least a part of the image by deforming the deformation target object (a function of performing distortion effect calculation processing in the display CPU 131, and various processing for distortion effect in the VDP 135). A game machine characterized by having a function of executing.

特徴H1によれば、変形対象オブジェクトを変形させることにより、表示部に表示される画像の少なくとも一部を歪ませることができる。これにより、画像を歪ませるために専用のテクスチャを用意する必要がない。よって、データ量の増大化を抑制しつつ、画像の歪みを比較的容易に表現することができる。 According to the feature H1, it is possible to distort at least a part of the image displayed on the display unit by deforming the deformation target object. This eliminates the need to prepare a dedicated texture to distort the image. Therefore, the distortion of the image can be expressed relatively easily while suppressing an increase in the amount of data.

特徴H2.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴H1に記載の遊技機。 Features H2. The feature H1 is characterized in that the distortion forming unit transforms the transformation target object by individually updating at least a part of coordinates of respective vertices forming the transformation target object. Amusement machine.

特徴H2によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像が歪んだように視認させることができる。 According to the feature H2, the coordinates of at least some of the vertices of the vertices forming the transformation target object are updated, so that the individual image based on the transformation target object can be visually recognized as being distorted.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記歪み形成手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 In addition, "coordinate mapping data for designating coordinates at each vertex forming the transformation target object is provided, and the coordinate mapping data is set in plural types with different designated coordinates. The distortion forming means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the referenced coordinate mapping data each time a predetermined update timing is reached, whereby the deformation target object It is to transform the object so that it fluctuates." According to this configuration, it is possible to represent the fluctuation of the image, and to set the coordinates of each vertex of the transformation target object individually as compared with the configuration in which the calculation formula of each coordinate is given and the calculation formula is used. It is possible to reduce the processing load required for.

特徴H3.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴H2に記載の遊技機。 Features H3. Feature H2 is characterized in that the distortion forming means does not change the coordinates of the vertices of the outer edge of the individual image based on the transformation target object among the vertices forming the transformation target object. Amusement machine.

特徴H3によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、画像の一部を歪ませることができる。 According to the feature H3, the coordinates of the vertices related to the outer edge of the individual image based on the transformation target object are not changed, so that the boundary between the individual image based on the transformation object and the image around it is less noticeable. This makes it possible to distort a part of the image while making the two familiar.

特徴H4.前記変形対象オブジェクトは、歪みの対象となる画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴H1乃至H3のいずれか1に記載の遊技機。 Features H4. The gaming machine according to any one of features H1 to H3, wherein the transformation target object is a plate-like object having a plane set in correspondence with an image to be distorted.

特徴H4によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、歪ませるための処理負荷の軽減を図ることができる。 According to the characteristic H4, the deformation target object can be easily deformed by using a relatively simple plate-shaped object as the deformation target object. This can reduce the processing load for causing distortion.

特徴H5.前記歪み形成手段は、所定の画像を表示させるための所定のオブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記所定の画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴H1乃至H4のいずれか1に記載の遊技機。 Features H5. The distortion forming means arranges the deformation target object closer to the viewpoint than a predetermined object for displaying a predetermined image, and outputs image data corresponding to the predetermined image to the deformation target object as the texture. The gaming machine according to any one of features H1 to H4, which is characterized by being attached as.

特徴H5によれば、変形対象オブジェクトを変形させることにより所定の画像が歪むこととなる。これにより、歪ませる場合と歪ませない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。 According to the feature H5, the predetermined image is distorted by deforming the deformation target object. This makes it possible to standardize the processing in that it is not necessary to make the processing for a predetermined object different between the case of distorting and the case of not distorting.

また、歪ませる場合と歪ませない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、歪ませる場合と歪ませない場合との切換を比較的容易に行うことができる。 Further, since it is possible to correspond to the case of distorting and the case of not distorting depending on whether or not the object to be deformed is arranged, it is possible to relatively easily switch between the case of distorting and the case of not distorting. ..

特徴H6.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記所定のオブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記所定のオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記所定の画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記所定の画像に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記歪み形成手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像を歪ませるものであることを特徴とする特徴H5に記載の遊技機。
Features H6. The arranging unit includes a unit (a function of executing the process of step S4602 in the VDP 135) for arranging the predetermined object among the plurality of objects set as display targets,
The drawing setting means projects the predetermined object and generates predetermined generation data corresponding to an image including the predetermined image based on the data projected on the projection plane (processing of step S4608 in VDP135). Function to execute)
The data generation unit generates texture to be attached to the transformation target object by extracting image data corresponding to the predetermined image included in the predetermined generation data (steps S4801 and S4802 in the VDP 135). Function to execute the process of
The distortion forming unit arranges at least the deformation target object in the virtual three-dimensional space, pastes the texture generated by the texture generation unit onto the deformation target object, and further projects the deformation target object. Accordingly, the gaming machine according to Feature H5, which distorts the predetermined image.

特徴H6によれば、所定のオブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、所定の画像を歪ませることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature H6, the predetermined generation data is generated by performing the first projection on the predetermined object, and the texture to be attached to the transformation target object is generated using the predetermined generation data. Then, a predetermined image can be distorted by performing the second projection on the transformation target object to which the texture is attached. This makes it possible to reduce the data amount in that it is not necessary to previously store the texture to be attached to the transformation target object.

また、変形対象オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 Further, since the texture attached to the transformation target object is configured to be generated by projecting a predetermined object, the image related to the texture is actually displayed using the predetermined object. It can resemble a given image. As a result, the image based on the transformation target object and the images around it can be made to fit.

特徴H7.前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴H6に記載の遊技機。
Features H7. The predetermined image is configured to be updated every time the update timing is reached,
The predetermined generation data is generated each time the update timing is reached,
The texture generating means generates a texture to be attached to the deformation target object at each update timing, using the predetermined generation data generated at the update timing. The gaming machine described in H6.

特徴H7によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、所定の画像が更新された場合であっても、当該更新された所定の画像を歪ませることができる。 According to the feature H7, the predetermined generation data is generated each time the update timing is reached, and the texture to be attached to the transformation target object is generated. Thereby, even when the predetermined image is updated, the updated predetermined image can be distorted.

なお、「前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記所定のオブジェクトが配置される座標を更新することにより、前記所定の画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。 A specific configuration of “the predetermined image is configured to be updated at the update timing” is, for example, “the placement unit is configured to update the predetermined object at the update timing”. By updating the coordinates at which the position is arranged, the predetermined image is scrolled in a predetermined direction", or "the viewpoint is moved in a predetermined direction each time the update timing is reached". Conceivable.

特徴H8.前記歪み形成手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像が歪んだ歪み画像に対応した歪み生成データ(演出及び図柄用の描画データ)を作成するものであり、
前記データ生成手段は、前記所定生成データと前記歪み生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴H6又は特徴H7に記載の遊技機。
Features H8. The distortion forming means arranges the deformation target object in the virtual three-dimensional space, attaches a corresponding texture to the deformation target object, and further projects the deformation target object to generate the predetermined image. Is to create distortion generation data (drawing data for effects and designs) corresponding to a distorted distorted image,
The data generating means is provided with a synthesizing means (function of executing the process of step S4617 in the VDP 135) that synthesizes the predetermined generated data and the distortion generated data to generate one generated data. The gaming machine according to feature H6 or feature H7.

特徴H8によれば、所定の画像に係る所定生成データを生成する処理と、歪み生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。 According to the feature H8, the process of generating the predetermined generation data relating to the predetermined image and the process of generating the distortion generation data are separated, and the two are combined to generate one generation data. The process of generating a texture to be attached to the transformation target object can be used as the process of generating one generation data. This can reduce the processing load.

また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。 Further, according to the above feature, it is possible to reduce the number of objects that are overlapped in two projections. As a result, the processing load caused by the overlapping arrangement and the overlapping projection can be reduced.

特徴H9.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴H1乃至H8のいずれか1に記載の遊技機。
Features H9. The data generation unit generates the generated data based on applying various parameter information that determines a display mode of an image by the object to the object,
In the various parameter information, individual reflection value information (individual α) for determining the degree of the color information of the texture pasted to the object on the display unit for each predetermined unit area (pixel). Value) is included,
The distortion forming unit adjusts the individual reflection value information applied to the transformation target object so that the color information of the individual image based on the transformation target object is less likely to be reflected toward the outer edge of the individual image. The gaming machine according to any one of the features H1 to H8, characterized in that

特徴H9によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、歪んだ画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。 According to the characteristic H9, the color information regarding the individual image is less likely to be reflected as the outer edge of the individual image based on the transformation target object is approached. As a result, an image that is more familiar with other areas is displayed closer to the outer edge side of the individual image based on the transformation target object. Therefore, the boundary between the region where the distorted image is displayed and the other region can be made inconspicuous.

特徴H10.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴H1乃至H9のいずれか1に記載の遊技機。
Feature H10. The data generation unit generates the generated data based on applying various parameter information that determines a display mode of an image by the object to the object,
The various parameter information includes reflection value information (uniform α value) that determines the degree of reflecting the color information of the texture pasted to the object on the display unit,
The distortion forming unit gradually adjusts the reflection value information applied to the deformation target object to gradually prevent the color information of the individual image based on the deformation target object from being reflected ( The game machine according to any one of features H1 to H9, which is provided with a function of executing the process of step S4519 in the display CPU 131.

特徴H10によれば、歪みを表現していた画像は徐々に消えていくため、歪みが消えていく過程が目立ちにくい。これにより、歪みが消えていく場合に遊技者に与える違和感を軽減することができる。 According to the characteristic H10, the image expressing the distortion gradually disappears, so that the process of disappearing the distortion is less noticeable. As a result, it is possible to reduce the uncomfortable feeling given to the player when the distortion disappears.

特徴H11.前記歪ませる対象となる画像は、前記表示部全体に表示される背景画像の一部であることを特徴とする特徴H1乃至H10のいずれか1に記載の遊技機。 Feature H11. The game machine according to any one of features H1 to H10, wherein the image to be distorted is a part of a background image displayed on the entire display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を歪ませるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the amount of image data is likely to be large compared to the individual image displayed on a part of the display unit. Therefore, if a plurality of types of background image data are prepared in order to distort a part of the background image, the data amount tends to increase.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を歪ませることができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, a part of the background image can be distorted without preparing a plurality of types of background image data, so that the amount of data can be appropriately reduced.

上記特徴H群は以下の課題に対して効果的である。 The above characteristic H group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as a character or a pattern is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a stereoscopic image is displayed.

ここで、遊技への注目度を高めるために、表示部に表示される画像をよりリアルに表現する演出が行われる場合がある。当該演出としては、例えば光の屈折に基づく空間の歪みを表現する演出がある。この場合、例えば光の屈折の反映度を演算により導出させる構成とすると、処理負荷の増大化が懸念される。一方、光の屈折を反映した画像データを予め記憶しておく構成とすると、データ量の増大化が懸念される。 Here, in order to increase the degree of attention to the game, an effect that more realistically represents the image displayed on the display unit may be performed. As the effect, for example, there is an effect that expresses distortion of the space based on refraction of light. In this case, for example, if the reflection degree of the refraction of light is calculated, the processing load may increase. On the other hand, if the image data reflecting the refraction of light is stored in advance, there is a concern that the amount of data will increase.

<特徴I群>
特徴I1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、複数種類の画像データを用いて所定の第1生成データ(背景用の描画データ)を生成し、少なくとも前記第1生成データを利用して前記第1生成データとは異なる第2生成データ(演出及び図柄用の描画データ、又は1の描画データ)を生成するものであり、
前記表示制御手段は、少なくとも前記第2生成データを用いて前記表示部に画像を表示させることを特徴とする遊技機。
<Feature group I>
Feature I1. Display means (symbol display device 31) having a display portion (display surface G),
An image is displayed on the display unit using the generated data (drawing data) generated by the data generating means (the function of creating the drawing list in the display CPU 131 and the function of executing the drawing processing in the VDP 135), and the image is predetermined. Display control means (display CPU 131 and VDP 135) for updating the content of the image at the update timing,
In a gaming machine equipped with
The data generation means generates predetermined first generation data (background drawing data) using a plurality of types of image data, and uses at least the first generation data to generate a predetermined first generation data different from the first generation data. 2 generation data (rendering and design drawing data, or 1 drawing data) is generated,
The display control means displays an image on the display unit using at least the second generated data.

特徴I1によれば、第1生成データが生成され、当該生成された第1生成データを用いて第2生成データが生成される。これにより、第2生成データを用いた画像表示を行うことにより、第1生成データに係る画像を用いた画像を表示させることができる。よって、表示演出の多様化を図ることができるとともに、第1生成データを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the characteristic I1, the first generation data is generated, and the second generation data is generated by using the generated first generation data. Thus, by displaying the image using the second generation data, it is possible to display the image using the image related to the first generation data. Therefore, the display effect can be diversified and the amount of data can be reduced in that it is not necessary to store the first generated data in advance.

特徴I2.前記データ生成手段は、前記第1生成データの少なくとも一部を加工し、当該加工されたデータを用いて前記第2生成データを生成するものであることを特徴とする特徴I1に記載の遊技機。 Feature I2. The game machine according to feature I1, wherein the data generation means processes at least a part of the first generation data and generates the second generation data by using the processed data. ..

特徴I2によれば、第1生成データの少なくとも一部が加工されて第2生成データが生成される。これにより、第1生成データをそのまま用いる構成と比較して、表示される画像のバリエーションの多様化を図ることができる。 According to the characteristic I2, at least a part of the first generation data is processed to generate the second generation data. As a result, it is possible to diversify the variation of the displayed image as compared with the configuration in which the first generated data is used as it is.

特徴I3.前記データ生成手段は、予め定められた対象画像が複数の更新タイミングに亘って移り変わる表示演出が行われるように、前記対象画像に係る前記第1生成データを生成し、当該第1生成データの少なくとも一部を加工して前記対象画像の移り変わりに対応した前記第2生成データを生成可能であることを特徴とする特徴I2に記載の遊技機。 Feature I3. The data generation unit generates the first generation data related to the target image so that a display effect in which a predetermined target image changes over a plurality of update timings is performed, and at least the first generation data is generated. The gaming machine according to feature I2, wherein a part of the game data can be processed to generate the second generation data corresponding to the transition of the target image.

特徴I3によれば、第1生成データ及び第2生成データを用いることにより複数の更新タイミングに亘って対象画像が移り変わる表示演出を実行することができる。これにより、表示演出の多様化を図ることができるとともに、上記移り変わりに対応した画像データを更新タイミング毎に用意しなくてよい点でデータ量の削減を図ることができる。 According to the characteristic I3, it is possible to execute the display effect in which the target image changes over a plurality of update timings by using the first generation data and the second generation data. As a result, it is possible to diversify the display effect and to reduce the data amount in that it is not necessary to prepare the image data corresponding to the transition at each update timing.

特徴I4.前記データ生成手段は、前記第1生成データと前記第2生成データとを合成することにより、1の更新タイミングに対応する前記生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴I1又は特徴I2に記載の遊技機。 Feature I4. The data generation unit combines the first generation data and the second generation data to generate the generation data corresponding to the update timing of 1 (a function of executing the process of step S4617 in the VDP 135). ) Is provided, the gaming machine described in the feature I1 or the feature I2.

特徴I4によれば、第1生成データと第2生成データとを合成することにより1の更新タイミングに対応する生成データが生成されるため、第2生成データで用いられる第1生成データを生成するための処理を、上記生成データを生成するための処理に流用することができる。これにより、1の更新タイミングにて、第1生成データを生成しつつ上記生成データを生成する場合の処理負荷の軽減を図ることができる。 According to the characteristic I4, since the generated data corresponding to the update timing of 1 is generated by combining the first generated data and the second generated data, the first generated data used for the second generated data is generated. Can be diverted to the processing for generating the generated data. This makes it possible to reduce the processing load when generating the generated data while generating the first generated data at the update timing of 1.

特徴I5.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135における各種描画データ生成処理を実行する機能)と、
を備え、
前記オブジェクトには、前記第2生成データを生成する場合に用いられる特定オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記第2生成データは、少なくとも前記特定オブジェクトが配置され、当該特定オブジェクトが投影されることにより生成されるものであり、
前記貼付手段は、前記第2生成データを生成する場合には、前記特定オブジェクト(屈折用オブジェクトOB10)に貼り付けられるテクスチャとして、前記第1生成データの少なくとも一部を用いることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I5. The data generating means,
Arranging means for arranging the object in the virtual three-dimensional space (function of executing the processing of steps S4602, S4609, and S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of performing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
A pasting unit for pasting a texture onto the object (a function for executing a color information setting process in the VDP 135);
Drawing setting means for projecting the object on a projection plane set based on the viewpoint and generating the generated data based on the data projected on the projection plane (function of executing various kinds of drawing data generation processing in the VDP 135) )When,
Equipped with
The object includes a specific object (refraction object OB10) used when the second generation data is generated,
The second generation data is generated by arranging at least the specific object and projecting the specific object.
The pasting unit uses at least a part of the first generation data as a texture to be pasted to the specific object (refraction object OB10) when generating the second generation data. The gaming machine according to any one of I1 to I4.

特徴I5によれば、特定オブジェクトに対して貼り付けられるテクスチャとして、第1生成データの少なくとも一部が用いられる。これにより、特定オブジェクトに貼り付けるテクスチャを予め記憶しておく必要がない点でデータ量の削減を図ることができる。 According to the feature I5, at least a part of the first generation data is used as the texture attached to the specific object. This makes it possible to reduce the amount of data in that it is not necessary to previously store the texture to be attached to the specific object.

特徴I6.前記データ生成手段は、
仮想3次元空間内において表示対象となっている複数のオブジェクトのうち所定のオブジェクトを配置する第1配置手段(VDP135におけるステップS4602の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
少なくとも前記所定のオブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第1配置手段により配置された前記所定のオブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記第1生成データを生成する第1描画用設定手段(VDP135におけるステップS4608の処理を実行する機能)と、
前記第1生成データを用いて、予め定められた特定オブジェクト(屈折用オブジェクトOB10)に対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)と、
前記仮想3次元空間内において少なくとも前記特定オブジェクトを配置する第2配置手段(VDP135におけるステップS4609及びステップS4610の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第2配置手段により配置されたオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記第2生成データを生成する第2描画用設定手段(VDP135におけるステップS4616の処理を実行する機能)と、
を備え、
前記貼付手段は、前記特定オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付けるものであることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I6. The data generating means,
First arranging means (a function of executing the process of step S4602 in the VDP 135) for arranging a predetermined object among a plurality of objects to be displayed in the virtual three-dimensional space,
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of performing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
A pasting means for pasting a texture to at least the predetermined object (a function for executing a color information setting process in the VDP 135);
A first projecting the predetermined object placed by the first placing means on a projection plane set based on the viewpoint, and generating the first generation data based on the data projected on the projection plane. 1 drawing setting means (function of executing the processing of step S4608 in the VDP 135),
Texture generation means for generating a texture to be attached to a predetermined specific object (refraction object OB10) using the first generation data (a function for executing the processing of steps S4801 and S4802 in the VDP 135);
Second arranging means for arranging at least the specific object in the virtual three-dimensional space (a function of executing steps S4609 and S4610 in the VDP 135);
Second drawing for projecting an object placed by the second placement means onto a projection plane set based on the viewpoint and generating the second generation data based on the data projected on the projection plane Setting means (function of executing the process of step S4616 in the VDP 135),
Equipped with
The gaming machine according to any one of features I1 to I4, wherein the pasting unit is for pasting the texture generated by the texture generating unit onto the specific object.

特徴I6によれば、所定のオブジェクトに対して1回目の投影を行うことにより第1生成データが生成され、当該第1生成データを用いて特定オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた特定オブジェクトに対して2回目の投影を行うことにより、第2生成データを生成することができる。これにより、特定オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature I6, the first generation data is generated by performing the first projection on the predetermined object, and the texture to be attached to the specific object is generated using the first generation data. Then, the second generation data can be generated by performing the second projection on the specific object to which the texture is pasted. This makes it possible to reduce the amount of data in that it is not necessary to previously store the texture to be pasted to the specific object.

また、特定オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、所定オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 Further, since the texture attached to the specific object is configured to be generated by projecting a predetermined object, the image related to the texture is actually displayed using the predetermined object. You can resemble the image of. As a result, the image based on the predetermined object and the surrounding images can be made to fit together.

さらに、第2生成データを生成するための処理と同様の処理で、特定オブジェクトに対して貼り付けるテクスチャを生成することができるため、処理の流用を図ることができる。 Further, since the texture to be attached to the specific object can be generated by the same processing as the processing for generating the second generation data, the processing can be diverted.

特徴I7.前記特定オブジェクトは、変形対象として設定された変形対象オブジェクトであり、
前記配置手段は、変化対象として設定された変化対象画像を表示させるためのオブジェクトに対して前記視点側から重なるように前記変形対象オブジェクトを配置する手段(VDP135における屈折用オブジェクトOB10を配置する機能)を備え、
前記データ生成手段は、前記変形対象オブジェクトを変形させることにより前記変化対象画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させるための機能)を備えていることを特徴とする特徴I5又は特徴I6に記載の遊技機。
Features I7. The specific object is a transformation target object set as a transformation target,
The arranging unit arranges the deformation target object so as to overlap the object for displaying the change target image set as the change target from the viewpoint side (function of arranging the refraction object OB10 in the VDP 135). Equipped with
The data generation unit includes a changing unit (a function for displaying the distorted images CP15 and CP16 in the display CPU 131 and the VDP 135) that changes the change target image by deforming the deformation target object. The gaming machine described in Feature I5 or Feature I6.

特徴I7によれば、変形対象オブジェクトに対して貼り付けるテクスチャを記憶させておくことなく変化対象画像を変化させることができる。 According to the feature I7, the change target image can be changed without storing the texture to be attached to the deformation target object.

特徴I8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴I7に記載の遊技機。 Feature I8. The game according to Feature I7, wherein the changing unit deforms the deformation target object by individually updating at least a part of the coordinates of each vertex forming the deformation target object. Machine.

特徴I8によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。 According to the feature I8, the coordinates of at least some of the vertices of the vertices forming the transformation target object are updated, so that the individual image based on the transformation target object can be changed.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 In addition, "coordinate mapping data for designating coordinates at each vertex forming the transformation target object is provided, and the coordinate mapping data is set in plural types with different designated coordinates. The changing means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the referenced coordinate mapping data every time a predetermined update timing is reached, so that the transformation target object It is something that deforms so that it fluctuates." According to this configuration, it is possible to represent the fluctuation of the image, and to set the coordinates of each vertex of the transformation target object individually as compared with the configuration in which the calculation formula of each coordinate is given and the calculation formula is used. It is possible to reduce the processing load required for.

特徴I9.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴I8に記載の遊技機。 Feature I9. A game according to Feature I8, wherein the changing unit does not change the coordinates of the vertices of the outer edge of the individual image based on the transformation target object among the vertices of the transformation target object. Machine.

特徴I9によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象画像を変化させることができる。 According to the feature I9, the coordinates of the vertices related to the outer edge of the individual image based on the transformation target object are not changed, so that the boundary between the individual image based on the transformation object and the image around it is less noticeable. This makes it possible to change the change target image while making the two familiar.

特徴I10.前記変形対象オブジェクトは、前記変化対象画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴I7乃至I9のいずれか1に記載の遊技機。 Feature I10. The game machine according to any one of features I7 to I9, wherein the transformation target object is a plate-like object having a plane set corresponding to the change target image.

特徴I10によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象画像を変化させるための処理負荷の軽減を図ることができる。 According to the feature I10, the deformation target object can be easily deformed by using a relatively simple plate-shaped object as the deformation target object. As a result, the processing load for changing the change target image can be reduced.

特徴I11.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴I7乃至I10のいずれか1に記載の遊技機。 Feature I11. The changing means deforms the deformation target object to distort the change target image (a function of performing distortion effect calculation processing in the display CPU 131, and various processing for distortion effect in the VDP 135). (A function) The gaming machine according to any one of features I7 to I10.

特徴I11によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。 According to the characteristic I11, the distortion of the image can be expressed by the deformation of the deformation target object.

特徴I12.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴I7乃至I11のいずれか1に記載の遊技機。
Feature I12. The data generation unit generates the generated data based on applying various parameter information that determines a display mode of an image by the object to the object,
In the various parameter information, individual reflection value information (individual α) for determining the degree of the color information of the texture pasted to the object on the display unit for each predetermined unit area (pixel). Value) is included,
The changing unit adjusts the individual reflection value information applied to the transformation target object, so that the color information of the individual image based on the transformation target object is less likely to be reflected toward the outer edge of the individual image. The gaming machine according to any one of the features I7 to I11, characterized in that

特徴I12によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化した画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。 According to the feature I12, the color information about the individual image is less likely to be reflected as the outer edge of the individual image based on the transformation target object is approached. As a result, an image that is more familiar with other areas is displayed closer to the outer edge side of the individual image based on the transformation target object. Therefore, the boundary between the area in which the changed image is displayed and the other area can be made inconspicuous.

特徴I13.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴I7乃至I12のいずれか1に記載の遊技機。
Feature I13. The data generation unit generates the generated data based on applying various parameter information that determines a display mode of an image by the object to the object,
The various parameter information includes reflection value information (uniform α value) that determines the degree of reflecting the color information of the texture pasted to the object on the display unit,
The changing means gradually adjusts the reflection value information applied to the transformation target object to gradually reflect the color information of the individual image based on the transformation target object (display). The game machine according to any one of features I7 to I12, which is provided with a function of executing the processing of step S4519 in the CPU 131.

特徴I13によれば、変形対象オブジェクトに基づく画像は徐々に消えていくため、当該画像が消えていく過程が目立ちにくい。これにより、変形対象オブジェクトに基づく画像が消えていく場合に遊技者に与える違和感を軽減することができる。 According to the characteristic I13, the image based on the transformation target object gradually disappears, so that the process of disappearing the image is not noticeable. As a result, it is possible to reduce the player's discomfort when the image based on the transformation target object disappears.

特徴I14.前記第1生成データは、前記表示部全体に表示される背景画像に係る画像データであることを特徴とする特徴I1乃至I13のいずれか1に記載の遊技機。 Feature I14. The gaming machine according to any one of features I1 to I13, wherein the first generation data is image data related to a background image displayed on the entire display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を加工するために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the amount of image data is likely to be large compared to the individual image displayed on a part of the display unit. Therefore, if a plurality of types of background image data are prepared to process a part of the background image, the amount of data tends to increase.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を用いた演出を行うことができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, since it is possible to perform an effect using a part of the background image without preparing a plurality of types of background image data, it is possible to suitably reduce the data amount.

上記特徴I群は以下の課題に対して効果的である。 The above characteristic group I is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case in which an image is displayed using two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been done. Further, by reading the image data, generated data for displaying a character or the like in front of the background is generated in the storage means such as the VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as a character or a pattern is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a stereoscopic image is displayed.

ここで、表示演出への注目度を高めるには、表示演出の多様化を図ることが考えられる。しかしながら、当該表示演出の多様化を図るために画像データを複数設ける構成とすると、データ量の増大化が懸念される。 Here, in order to increase the attention to the display effect, it is conceivable to diversify the display effect. However, if a plurality of image data is provided in order to diversify the display effect, there is a concern that the data amount will increase.

<特徴J群>
特徴J1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、前記表示部に表示される特定個別画像(背景画像、キャラクタ画像CP22)の一部である変化対象部位(歪み領域PE1、重ね合わせ領域PE2)を、特定画像データを用いて変化させることにより前記特定個別画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させる機能、及び各部分画像CP23〜CP25を表示させる機能)を備えていることを特徴とする遊技機。
<Feature J group>
Features J1. Display means (symbol display device 31) having a display portion (display surface G),
An image is displayed on the display unit using the generated data (drawing data) generated by the data generating means (the function of creating the drawing list in the display CPU 131 and the function of executing the drawing processing in the VDP 135), and the image is predetermined. Display control means (display CPU 131 and VDP 135) for updating the content of the image at the update timing,
In a gaming machine equipped with
The data generation unit uses the specific image data to identify the change target part (distortion region PE1, overlay region PE2) that is a part of the specific individual image (background image, character image CP22) displayed on the display unit. It is provided with a changing means (a function of displaying the distorted images CP15 and CP16 in the display CPU 131 and the VDP 135 and a function of displaying the partial images CP23 to CP25) by changing the specific individual image. A gaming machine.

特徴J1によれば、特定画像データを用いることにより変化対象画像を変化させることで特定個別画像を変化させることができる。これにより、表示演出の多様化を図ることができる。この場合、特定画像データは変化対象部位を変化させるためのものであるため、特定個別画像全体に対応する画像データと比較して、特定画像データに係るデータ量を小さくすることができる。よって、表示演出の多様化を図りつつ、当該多様化に伴うデータ量の増大化を抑制することができる。 According to the feature J1, the specific individual image can be changed by changing the change target image by using the specific image data. Thereby, it is possible to diversify the display effect. In this case, since the specific image data is for changing the change target portion, it is possible to reduce the data amount of the specific image data as compared with the image data corresponding to the entire specific individual image. Therefore, it is possible to suppress the increase in the data amount due to the diversification while diversifying the display effect.

特徴J2.前記データ生成手段は、前記特定個別画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記変化手段は、前記変化対象部位において前記所定生成データに係る画像に代えて前記特定画像データに基づく画像が表示されるようにするものであることを特徴とする特徴J1に記載の遊技機。
Features J2. The data generation unit includes a unit (function of executing the process of step S4608 in the VDP 135) that generates predetermined generation data corresponding to the specific individual image,
The game machine according to feature J1, wherein the changing means is configured to display an image based on the specific image data in place of the image related to the predetermined generation data at the change target portion.

特徴J2によれば、変化対象部位において所定生成データに係る画像に代えて特定画像データに基づく画像が表示されることにより、特定個別画像が変化する。これにより、所定生成データに係る画像と特定画像データに係る画像とを組み合わせる構成と比較して、変化対象部位の変化を容易に行うことができる。 According to the feature J2, the specific individual image is changed by displaying the image based on the specific image data instead of the image related to the predetermined generation data in the change target site. As a result, it is possible to easily change the change target portion, as compared with the configuration in which the image related to the predetermined generation data and the image related to the specific image data are combined.

特徴J3.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616及びステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、前記変化対象部位に対応させて設定された特定テクスチャであり、
前記変化手段は、前記特定テクスチャを用いて前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Features J3. The data generating means,
Arranging means for arranging the object in the virtual three-dimensional space (function of executing the processing of steps S4602, S4609, and S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of performing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
A pasting unit for pasting a texture to the object (a function of executing the processes of steps S4607 and S4615 in the VDP 135);
Drawing setting means for projecting the object on a projection plane set based on the viewpoint and generating the generated data based on the data projected on the projection plane (steps S4608, S4616, and S4617 in the VDP 135). Function to execute processing),
Equipped with
The object includes a specific object which is used to display the specific individual image and in which the change target part is set,
The specific image data is a specific texture set corresponding to the change target portion,
The game machine according to feature J1 or feature J2, wherein the changing means changes the image displayed on the change target portion using the specific texture.

特徴J3によれば、特定テクスチャを用いて変化対象部位に表示される画像を変化させることができる。この場合、特定テクスチャは変化対象部位に対応させて設定されているため、特定オブジェクト全体に係るテクスチャを用意する構成と比較して、特定テクスチャのデータ量が小さくなり易い。これにより、データ量の削減を図ることができる。 According to the feature J3, it is possible to change the image displayed on the change target site using the specific texture. In this case, since the specific texture is set corresponding to the change target portion, the data amount of the specific texture is likely to be smaller than that in the configuration in which the texture for the entire specific object is prepared. This makes it possible to reduce the amount of data.

特徴J4.前記オブジェクトには、前記変化対象部位に対応させて形成された板状オブジェクトが含まれており、
前記変化手段は、前記変化対象部位に対して前記板状オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記板状オブジェクトを配置し、前記板状オブジェクトに対して前記特定テクスチャを貼り付けることにより、前記変化対象部位の画像を前記特定テクスチャに対応した画像に変化させるものであることを特徴とする特徴J3に記載の遊技機。
Features J4. The object includes a plate-like object formed corresponding to the change target portion,
The changing means arranges the specific object and the plate-shaped object so that the plate-shaped object overlaps the change target part from the viewpoint side, and pastes the specific texture on the plate-shaped object. According to the feature J3, the image of the change target portion is changed to an image corresponding to the specific texture.

特徴J4によれば、板状オブジェクトは比較的頂点が少ないポリゴンであるため、板状オブジェクトの頂点数が特定オブジェクトにおける変化対象部位に対応する頂点数よりも少なくない易い。これにより、特定オブジェクトの変化対象部位に対して特定テクスチャを貼り付ける構成と比較して、特定テクスチャを貼り付ける処理負荷を軽減することができる。 According to the feature J4, since the plate-shaped object is a polygon having relatively few vertices, the number of vertices of the plate-shaped object is likely to be smaller than the number of vertices corresponding to the change target site in the specific object. This makes it possible to reduce the processing load of attaching the specific texture as compared with the configuration of attaching the specific texture to the change target part of the specific object.

また、変化させる場合と変化させない場合とを、板状オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。 Further, since the case of changing and the case of not changing can be corresponded depending on whether or not the plate-like object is arranged, it is possible to relatively easily switch between the case of changing and the case of not changing.

特徴J5.前記特定テクスチャは複数種類用意されており、
前記変化手段は、予め定められた更新タイミングとなる度に、前記複数種類の特定テクスチャを予め定められた順序で用いることにより、前記変化対象部位において一連の動作が行われるようにするものであることを特徴とする特徴J4に記載の遊技機。
Features J5. There are multiple types of specific textures,
The changing means uses a plurality of types of specific textures in a predetermined order each time a predetermined update timing is reached, so that a series of operations is performed in the change target part. The game machine according to feature J4.

特徴J5によれば、用いる特定テクスチャが予め定められた順序で用いられることにより、変化対象部位にて一連の動作が行われる。この場合、1の特定テクスチャのデータ量は特定オブジェクト全体のテクスチャのデータ量よりも小さくなっているため、一連の動作に係るデータ量を大幅に小さくすることができる。これにより、少ないデータ量で上記一連の動作に係る画像の表示を行うことができる。 According to the feature J5, a series of operations is performed at the change target site by using the specific texture to be used in a predetermined order. In this case, since the data amount of one specific texture is smaller than the data amount of the texture of the entire specific object, the data amount related to a series of operations can be significantly reduced. As a result, it is possible to display images related to the series of operations with a small amount of data.

特徴J6.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616、ステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、変形対象として設定された変形対象オブジェクトであり、
前記変化手段は、前記変化対象部位に対して前記変形対象オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Features J6. The data generating means,
Arranging means for arranging the object in the virtual three-dimensional space (function of executing the processing of steps S4602, S4609, and S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of performing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
A pasting unit for pasting a texture to the object (a function of executing the processes of steps S4607 and S4615 in the VDP 135);
Drawing setting means for projecting the object on a projection plane set based on the viewpoint and generating the generated data based on the data projected on the projection plane (steps S4608, S4616, and S4617 in the VDP 135). Function to execute processing),
Equipped with
The object includes a specific object which is used to display the specific individual image and in which the change target part is set,
The specific image data is a transformation target object set as a transformation target,
The changing means arranges the specific object and the deformation target object so that the deformation target object overlaps the change target part from the viewpoint side, and deforms the deformation target object to change the change target part. The game machine according to the feature J1 or the feature J2, characterized in that the image displayed on the screen is changed.

特徴J6によれば、変化対象部位と重なるように変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、変形対象オブジェクトに基づく個別画像が変化し、変化対象部位に表示される画像が変化することとなる。これにより、画像を変化させるための画像データとしてテクスチャを複数用意する必要がない点でデータ量の削減を図ることができる。 According to the feature J6, by arranging the deformation target object so as to overlap the change target portion and deforming the deformation target object, the individual image based on the deformation target object changes, and the image displayed on the change target portion is changed. It will change. This makes it possible to reduce the data amount in that it is not necessary to prepare a plurality of textures as image data for changing the image.

特徴J7.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴J6に記載の遊技機。 Features J7. The game according to the feature J6, wherein the changing unit deforms the deformation target object by individually updating at least a part of coordinates of each vertex forming the deformation target object. Machine.

特徴J7によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。 According to the feature J7, the coordinates of at least some of the vertices of the vertices forming the transformation target object are updated, so that the individual image based on the transformation target object can be changed.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 In addition, "coordinate mapping data for designating coordinates at each vertex forming the transformation target object is provided, and the coordinate mapping data is set in plural types with different designated coordinates. The changing means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the referenced coordinate mapping data every time a predetermined update timing is reached, so that the transformation target object It is something that deforms so that it fluctuates." According to this configuration, it is possible to represent the fluctuation of the image, and to set the coordinates of each vertex of the transformation target object individually as compared with the configuration in which the calculation formula of each coordinate is given and the calculation formula is used. It is possible to reduce the processing load required for.

特徴J8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴J7に記載の遊技機。 Features J8. The game according to Feature J7, wherein the changing unit does not change the coordinates of the vertices of the outer edge of the individual image based on the transformation target object among the vertices of the transformation target object. Machine.

特徴J8によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変化対象部位に係る画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象部位の画像を変化させることができる。 According to the feature J8, since the coordinates of the vertices related to the outer edge of the individual image based on the transformation target object are not changed, the boundary between the image related to the change target portion and the surrounding images is less noticeable. This makes it possible to change the image of the part to be changed while making the two familiar.

特徴J9.前記変形対象オブジェクトは、前記変化対象部位に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴J6乃至J8のいずれか1に記載の遊技機。 Features J9. The game machine according to any one of features J6 to J8, wherein the transformation target object is a plate-like object having a plane set corresponding to the change target portion.

特徴J9によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象部位を変化させるための処理負荷の軽減を図ることができる。 According to the feature J9, the deformation target object can be easily deformed by using a relatively simple plate-shaped object as the deformation target object. As a result, the processing load for changing the change target part can be reduced.

特徴J10.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象部位に係る画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴J6乃至J9のいずれか1に記載の遊技機。 Features J10. The changing unit deforms the deformation target object to distort the image of the change target portion (a function of executing a distortion effect calculation process in the display CPU 131, and various processes for distortion effect in the VDP 135). The game machine according to any one of features J6 to J9.

特徴J10によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。 According to the feature J10, the distortion of the image can be expressed by deforming the deformation target object.

特徴J11.前記変化手段は、前記特定オブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記変化対象部位に表示される画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴J6乃至J10のいずれか1に記載の遊技機。 Feature J11. The changing means arranges the transformation target object closer to the viewpoint than the specific object, and pastes image data corresponding to an image displayed at the transformation target site on the transformation target object as the texture. The gaming machine according to any one of features J6 to J10.

特徴J11によれば、変形対象オブジェクトを変形させることにより変化対象部位の画像が変化することとなる。これにより、変化させる場合と変化させない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。 According to the feature J11, the image of the change target part is changed by deforming the deformation target object. This makes it possible to standardize the processing in that it is not necessary to make the processing for a predetermined object different between the case of changing and the case of not changing.

また、変化させる場合と変化させない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。 Further, since the case of changing the object and the case of not changing the object can be corresponded to each other depending on whether or not the deformation target object is arranged, it is possible to relatively easily switch between the case of changing and the case of not changing.

特徴J12.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記特定オブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記特定オブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記特定個別画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記特定個別画像の前記変化対象部位に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記変化手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像を変化させるものであることを特徴とする特徴J11に記載の遊技機。
Features J12. The arranging unit includes a unit (a function of executing the process of step S4602 in the VDP 135) for arranging the specific object among the plurality of objects set as display targets,
The drawing setting means projects the specific object and generates predetermined generation data corresponding to an image including the specific individual image based on the data projected on the projection plane (processing of step S4608 in VDP135). Function to execute)
The data generation unit extracts the image data corresponding to the change target portion of the specific individual image included in the predetermined generation data to generate a texture to be attached to the deformation target object (in the VDP 135). Function for executing the processing of step S4801 and step S4802),
The changing means arranges at least the deformation target object in the virtual three-dimensional space, attaches the texture generated by the texture generation means to the deformation target object, and further projects the deformation target object. According to the feature J11, the game machine changes the image of the change target portion.

特徴J12によれば、特定オブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、変化対象部位に係る画像を変化させることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature J12, the predetermined generation data is generated by performing the first projection on the specific object, and the texture to be attached to the transformation target object is generated using the predetermined generation data. Then, by performing the second projection on the deformation target object to which the texture is pasted, the image related to the change target portion can be changed. This makes it possible to reduce the data amount in that it is not necessary to previously store the texture to be attached to the transformation target object.

また、変形対象オブジェクトに対して貼り付けられるテクスチャは、特定オブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に特定オブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 In addition, since the texture attached to the transformation target object is configured to be generated by projecting the specific object, the image related to the texture can be displayed in a predetermined manner by actually using the specific object. It can be similar to the image. As a result, the image based on the transformation target object and the images around it can be made to fit.

さらに、特定オブジェクトに対して貼り付けるテクスチャを生成する処理と、変化対象部位の画像を変化させる処理とが投影するという点で共通しているため、両者の処理構成の共通化を図ることができる。 Furthermore, since the process of generating the texture to be attached to the specific object and the process of changing the image of the change target portion are common, the processing configurations of both can be made common. ..

特徴J13.前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴J12に記載の遊技機。
Features J13. The specific individual image is configured to be updated every time the update timing is reached,
The predetermined generation data is generated each time the update timing is reached,
The texture generating means generates a texture to be attached to the deformation target object at each update timing, using the predetermined generation data generated at the update timing. The game machine described in J12.

特徴J13によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、特定個別画像が更新された場合であっても、当該更新された特定個別画像を変化させることができる。 According to the feature J13, the predetermined generation data is generated each time the update timing is reached, and the texture to be attached to the transformation target object is generated. Thus, even when the specific individual image is updated, the updated specific individual image can be changed.

なお、「前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記特定オブジェクトが配置される座標を更新することにより、前記特定個別画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。 Note that, as a specific configuration of “the specific individual image is configured to be able to be updated at the update timing”, for example, “the arranging unit is configured to set the specific object to be updated at the update timing”. A configuration in which the specific individual image is scrolled in a predetermined direction by updating the arranged coordinates", a configuration in which "the viewpoint is moved in a predetermined direction each time the update timing is reached", and the like are considered. Be done.

特徴J14.前記変化手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像が変化した変化生成データを作成するものであり、
前記データ生成手段は、前記所定生成データと前記変化生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴J12又は特徴J13に記載の遊技機。
Features J14. The changing unit arranges the transformation target object in the virtual three-dimensional space, pastes a corresponding texture on the transformation target object, and further projects the transformation target object to change the transformation target site. It creates change generation data that the image changes,
The data generating unit is provided with a synthesizing unit (a function of executing the process of step S4617 in the VDP 135) that synthesizes the predetermined generated data and the change generated data to generate one generated data. The gaming machine according to feature J12 or feature J13.

特徴J14によれば、特定個別画像を含む画像に対応した所定生成データを生成する処理と、変化生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。 According to the feature J14, the process of generating the predetermined generation data corresponding to the image including the specific individual image and the process of generating the change generation data are divided, and the two are combined to generate one generation data. Thus, the process of generating the texture to be attached to the transformation target object can be used as the process of generating one generation data. This can reduce the processing load.

また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。 Further, according to the above feature, it is possible to reduce the number of objects that are overlapped in two projections. As a result, the processing load caused by the overlapping arrangement and the overlapping projection can be reduced.

特徴J15.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記個別反映値情報を調整することにより、前記特定画像データに基づく画像に係る前記色情報が当該画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴J1乃至J14のいずれか1に記載の遊技機。
Features J15. The data generating means is for generating the generated data based on applying various parameter information that determines a display mode of an image by the image data to the image data,
The various parameter information includes individual reflection value information (individual α value) that determines the degree of reflecting the color information of the image data on the display unit for each predetermined unit area (pixel),
The changing unit adjusts the individual reflection value information applied to the specific image data so that the color information related to the image based on the specific image data becomes less likely to be reflected toward the outer edge of the image. The gaming machine according to any one of features J1 to J14, which is characterized by being:

特徴J15によれば、特定画像データに基づく画像の外縁に向かうに従って当該画像に係る色情報が反映されにくくなっている。これにより、特定画像データに基づく画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化対象部位の画像と他の領域の画像との境界を目立ちにくくすることができる。 According to the feature J15, the color information about the image is less likely to be reflected as the outer edge of the image based on the specific image data is approached. As a result, an image that is more familiar with other areas is displayed closer to the outer edge side of the image based on the specific image data. Therefore, the boundary between the image of the part to be changed and the images of other regions can be made inconspicuous.

特徴J16.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記反映値情報を段階的に調整することにより、徐々に前記特定画像データの色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴J1乃至J15のいずれか1に記載の遊技機。
Features J16. The data generating means is for generating the generated data based on applying various parameter information that determines a display mode of an image by the image data to the image data,
The various parameter information includes reflection value information (uniform α value) that determines the degree when the color information of the image data is reflected on the display unit,
The changing unit gradually adjusts the reflection value information applied to the specific image data to gradually reflect the color information of the specific image data (display CPU 131 in step S4519). The game machine according to any one of features J1 to J15, which is provided with a function of executing processing.

特徴J16によれば、変化対象部位に表示される特定画像データに基づく画像は徐々に消えていくため、変化画像が消えていく過程が目立ちにくい。これにより、変化画像が消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature J16, the image based on the specific image data displayed on the change target portion gradually disappears, so that the process of disappearing the changed image is less noticeable. As a result, it is possible to reduce a feeling of strangeness given to the player when the change image disappears.

特徴J17.前記特定個別画像は、前記表示部に表示される背景画像の一部であることを特徴とする特徴J1乃至J16のいずれか1に記載の遊技機。 Features J17. The gaming machine according to any one of features J1 to J16, wherein the specific individual image is a part of a background image displayed on the display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を変化させるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the amount of image data is likely to be large compared to the individual image displayed on a part of the display unit. Therefore, if a plurality of types of background image data are prepared in order to change a part of the background image, the data amount tends to increase.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、当該背景画像の一部を変化させることができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, a part of the background image can be changed without preparing a plurality of types of background image data, so that the amount of data can be appropriately reduced.

上記特徴J群は以下の課題に対して効果的である。 The above feature J group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case in which an image is displayed using two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been done. Further, by reading the image data, generated data for displaying a character or the like in front of the background is generated in the storage means such as the VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as a character or a pattern is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a stereoscopic image is displayed.

ここで、表示部に表示されている画像の一部を変化させる表示演出を行うことで、表示演出の多様化を図ることが可能となると考えられる。しかしながら、当該表示演出を行うために例えば表示部全体の画像データを設ける構成とすると、データ量の増大化が懸念される。 Here, it is considered that the display effect can be diversified by performing the display effect by changing a part of the image displayed on the display unit. However, if the image data of the entire display unit is provided in order to perform the display effect, there is a concern that the amount of data will increase.

<特徴K群>
特徴K1.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる所定オブジェクト(各オブジェクトOB1〜OB4)が含まれており、さらに前記テクスチャには、前記所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記所定オブジェクトを見た場合の画像に対応した所定テクスチャ(各テクスチャTD1〜TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Characteristic K group>
Features K1. Arrangement means for arranging an object that is three-dimensional information in the virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in the VDP135) and viewpoint setting means (in the VDP135) for setting a viewpoint in the virtual three-dimensional space. A function of executing the processes of steps S1005 and S1006), a sticking unit for sticking a texture to the object (a function of executing a color information setting process in the VDP 135), and a projection plane set based on the viewpoint. Projecting means for projecting the object on (a function for executing the processing of steps S1010 and S1011 in the VDP 135), and a drawing setting means for generating generation data (drawing data) based on the data projected on the projection plane ( A storage unit (frame buffer 142) for storing the generated data generated by the data generation unit (display CPU 131, VDP 135) having the function of executing the processing of steps S1010 to S1012 in the VDP 135);
A display control unit (VDP135) for displaying an image corresponding to the generated data stored in the storage unit on the display unit (display surface G), and for updating the content of the image at a predetermined update timing. ,
In a gaming machine equipped with
The objects include predetermined objects (each object OB1 to OB4) used when the predetermined first predetermined image (sand beach background image BP10) is displayed on the display unit, and the texture includes the Textures to be pasted to a predetermined object, which include predetermined textures (each texture TD1 to TD4) corresponding to an image when the predetermined object is viewed from a predetermined specific viewpoint,
The projection means includes perspective projection and parallel projection as a projection pattern for projecting the object onto the projection plane,
The data generating means,
First generation means for generating generation data corresponding to the first predetermined image by using the predetermined object and the predetermined texture by setting the viewpoint to the specific viewpoint and the projection pattern to the perspective projection (A function of the display CPU 131 to execute a beach background calculation process and a function of the VDP 135 to execute a drawing process),
A second predetermined image different from the first predetermined image using the predetermined object and the predetermined texture by changing the viewpoint from the specific viewpoint to a predetermined change viewpoint and setting the projection pattern to the parallel projection. Second generation means for generating generation data corresponding to (a function of executing a background arithmetic process of a beach sprinting effect in the display CPU 131 and a function of executing a drawing process in the VDP 135),
A gaming machine characterized by being equipped with.

特徴K1によれば、視点を特定視点に設定し且つ投影パターンとして透視投影を設定し、さらに所定テクスチャを所定オブジェクトに対して貼り付けることにより、所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。 According to the feature K1, the viewpoint is set to the specific viewpoint, the perspective projection is set as the projection pattern, and the predetermined texture is attached to the predetermined object, so that the predetermined object is not complicated and the first predetermined image is displayed. Can be an image with perspective.

かかる構成において、所定テクスチャは、特定視点から所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間で遠近感が整合しない。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。 In such a configuration, the predetermined texture corresponds to an image when the predetermined object is viewed from the specific viewpoint, and thus when the viewpoint is changed from the specific viewpoint to the changed viewpoint, an image displayed by the predetermined object and the predetermined texture, The perspective does not match that of the image. Therefore, the second predetermined image becomes an unnatural image, which may give the player uncomfortable feeling.

これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 On the other hand, according to this feature, the second predetermined image is generated by performing perspective projection without considering the depth, so that the image displayed between the predetermined object and the predetermined texture and another image is It is possible to match the perspective in This makes it possible to display two different predetermined images while using the same texture. Therefore, it is possible to diversify the display effect while suppressing an increase in the amount of data.

特徴K2.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる複数の所定オブジェクト(各オブジェクトOB1〜OB4)が含まれており、さらに前記テクスチャには、前記各所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記各所定オブジェクトを見た場合の画像に対応した複数の所定テクスチャ(各テクスチャTD1〜TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像(演出用背景画像BP20)に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
Features K2. Arrangement means for arranging an object that is three-dimensional information in the virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in the VDP135) and viewpoint setting means (in the VDP135) for setting a viewpoint in the virtual three-dimensional space. A function of executing the processes of steps S1005 and S1006), a sticking unit for sticking a texture to the object (a function of executing a color information setting process in the VDP 135), and a projection plane set based on the viewpoint. Projecting means for projecting the object on (a function for executing the processing of steps S1010 and S1011 in the VDP 135), and a drawing setting means for generating generation data (drawing data) based on the data projected on the projection plane ( A storage unit (frame buffer 142) for storing the generated data generated by the data generation unit (display CPU 131, VDP 135) having the function of executing the processing of steps S1010 to S1012 in the VDP 135);
A display control unit (VDP135) for displaying an image corresponding to the generated data stored in the storage unit on the display unit (display surface G), and for updating the content of the image at a predetermined update timing. ,
In a gaming machine equipped with
The objects include a plurality of predetermined objects (each object OB1 to OB4) used when displaying a predetermined first predetermined image (sand beach background image BP10) on the display unit, and the texture further includes A plurality of predetermined textures (each texture TD1 to TD4) which are textures to be pasted to each of the predetermined objects and which correspond to an image when the predetermined objects are viewed from a predetermined specific viewpoint. And
The projection means includes perspective projection and parallel projection as a projection pattern for projecting the object onto the projection plane,
The data generating means,
A first generation of generation data corresponding to the first predetermined image using the predetermined objects and the predetermined textures by setting the viewpoint to the specific viewpoint and the projection pattern to the perspective projection. Generating means (a function of executing arithmetic processing for the beach background in the display CPU 131 and a function of executing drawing processing in the VDP 135);
By changing the viewpoint from the specific viewpoint to a predetermined change viewpoint and setting the projection pattern to the parallel projection, a second image different from the first predetermined image by using the predetermined objects and the predetermined textures A second generation unit (a function of executing a background arithmetic process of a beach running performance in the display CPU 131 and a function of executing a drawing process in the VDP 135) that generates generated data corresponding to a predetermined image (background image for production BP20);
A gaming machine characterized by being equipped with.

特徴K2によれば、投影パターンとして透視投影を設定するとともに、各所定オブジェクトを奥行き方向に異なる位置に配置し、さらに各所定テクスチャを各所定オブジェクトに対して貼り付けることにより、各所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。 According to the feature K2, the perspective projection is set as the projection pattern, each predetermined object is arranged at a different position in the depth direction, and each predetermined texture is attached to each predetermined object, thereby making each predetermined object complicated. The first predetermined image can be an image with perspective.

かかる構成において、各所定テクスチャは、特定視点から各所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると、ある所定オブジェクト及びそれに対応した所定テクスチャにより表示される画像と、他の所定オブジェクト及びそれに対応した所定テクスチャとにより表示される画像との間で遠近感が整合しなくなる。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。 In such a configuration, since each predetermined texture corresponds to an image when each predetermined object is viewed from a specific viewpoint, when the viewpoint is changed from the specific viewpoint to the changed viewpoint, a certain predetermined object and a predetermined texture corresponding to it are used. The sense of perspective will not match between the displayed image and the image displayed by the other predetermined object and the predetermined texture corresponding thereto. Therefore, the second predetermined image becomes an unnatural image, which may give the player uncomfortable feeling.

これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、両者の間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 On the other hand, according to this feature, since the second predetermined image is generated by performing perspective projection without considering the depth, it is possible to achieve the perspective matching between the two. This makes it possible to display two different predetermined images while using the same texture. Therefore, it is possible to diversify the display effect while suppressing an increase in the amount of data.

特徴K3.前記第2生成手段は、前記各所定オブジェクトを用いて表示される各画像をそれぞれ同一方向に移動させることにより前記第2所定画像が移動するように前記生成データを生成するものであることを特徴とする特徴K2に記載の遊技機。 Features K3. The second generation unit is configured to generate the generated data so that the second predetermined image moves by moving the respective images displayed using the predetermined objects in the same direction. The gaming machine according to feature K2.

特徴K3によれば、各所定オブジェクトを用いて表示される各画像を同一方向に移動させることにより、第2所定画像を移動させることができ、表示演出の多様化を図ることができる。一方、各画像を同一方向に移動させると、各画像間の遠近感の不整合が目立ち易くなり、第2所定画像が移動する表示演出が違和感のあるものとなり易い。 According to the characteristic K3, the second predetermined image can be moved by moving the respective images displayed using the respective predetermined objects in the same direction, and the display effect can be diversified. On the other hand, if the images are moved in the same direction, the inconsistency in perspective between the images becomes conspicuous, and the display effect of moving the second predetermined image tends to be uncomfortable.

これに対して、特徴K2によれば、平行投影を行うことにより第2所定画像に対応した生成データを生成する構成としたことにより、上記不整合を目立ちにくくすることができるため、上記表示演出を好適に行うことができる。 On the other hand, according to the feature K2, since the generated data corresponding to the second predetermined image is generated by performing the parallel projection, the above-mentioned inconsistency can be made inconspicuous. Can be suitably performed.

特徴K4.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記第2生成手段は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるほど、当該各所定オブジェクトに対して適用される前記倍率情報を小さく設定するものであることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Features K4. The data generation means generates the generated data based on applying parameter information that determines a display mode of an image by the object to the object,
The parameter information includes magnification information of the object,
A feature K2, wherein the second generation unit sets the magnification information applied to each predetermined object to be smaller as the distance between the change viewpoint and each of the predetermined objects is larger. A gaming machine according to feature K3.

特徴K4によれば、変更視点を基準として遠い位置に配置されている所定オブジェクトに係る画像ほど小さく表示される。これにより、擬似的に遠近感が生じるため、平行投影において遠近感のある画像を表現することができる。 According to the characteristic K4, the image of the predetermined object located farther from the change viewpoint is displayed smaller. As a result, a pseudo perspective is generated, so that an image with perspective can be expressed in parallel projection.

特徴K5.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記各所定オブジェクトを平行投影した場合の当該各所定オブジェクトが投影される領域が前記各所定オブジェクトを透視投影した場合の領域と同一となるように、前記各所定オブジェクトの倍率情報及び座標が設定されていることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Features K5. The data generation means generates the generated data based on applying parameter information that determines a display mode of an image by the object to the object,
The parameter information includes magnification information of the object,
The magnification information and the coordinates of each of the predetermined objects are set so that the area on which the predetermined objects are projected when the predetermined objects are projected in parallel is the same as the area when the predetermined objects are perspectively projected. The gaming machine described in the characteristic K2 or the characteristic K3.

特徴K5によれば、各所定オブジェクトを平行投影することにより得られる画像を、各所定オブジェクトを透視投影することにより得られる画像に似せることができる。これにより、平行投影により得られた画像を、あたかも透視投影により得られる遠近感のある画像のように見せることができる。 According to the feature K5, the image obtained by projecting each predetermined object in parallel can be made to resemble the image obtained by perspectively projecting each predetermined object. As a result, the image obtained by parallel projection can be viewed as if it is an image with perspective that is obtained by perspective projection.

特徴K6.前記第2生成手段は、少なくとも前記各所定オブジェクトを所定の速度で移動させる移動手段(表示CPU131におけるステップS4313の処理を実行する機能)を備え、
前記各所定オブジェクトの移動速度は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるに従って前記変更視点に対する前記各所定オブジェクトの相対速度が小さくなるように設定されていることを特徴とする特徴K2乃至K5のいずれか1に記載の遊技機。
Features K6. The second generation unit includes at least a moving unit (a function of executing the process of step S4313 in the display CPU 131) that moves each of the predetermined objects at a predetermined speed,
The moving speed of each of the predetermined objects is set such that the relative speed of each of the predetermined objects with respect to the change viewpoint decreases as the distance between the change viewpoint and each of the predetermined objects increases. The gaming machine according to any one of K2 to K5.

特徴K6によれば、変更視点からの距離が大きい所定オブジェクトほどゆっくり移動するように見え、変更視点からの距離が小さい所定オブジェクトほど速く移動するように見える。これにより、平行投影を行う構成において擬似的に遠近感を発生させることができる。 According to the characteristic K6, a predetermined object having a larger distance from the change viewpoint is seen to move slowly, and a predetermined object having a smaller distance from the change viewpoint is seen to move faster. This makes it possible to generate a pseudo perspective in a configuration in which parallel projection is performed.

特徴K7.前記各所定オブジェクトはそれぞれ板状オブジェクトであり、
前記各板状オブジェクトは、前記投影平面に対して傾斜した状態で前記特定視点の奥行き方向に並べて配置されており、
前記各所定オブジェクトに対して貼り付けられるテクスチャは、前記特定視点から見た場合の画像に対応するように前記傾斜に対応させて設定されていることを特徴とする特徴K2乃至K6のいずれか1に記載の遊技機。
Features K7. Each of the predetermined objects is a plate-like object,
The plate-shaped objects are arranged side by side in the depth direction of the specific viewpoint in a state of being inclined with respect to the projection plane,
Any one of the characteristics K2 to K6 characterized in that the texture attached to each of the predetermined objects is set in correspondence with the inclination so as to correspond to the image viewed from the specific viewpoint. Gaming machine described in.

特徴K7によれば、透視投影を行うことにより比較的簡素な板状オブジェクトを用いて遠近感のある画像を生成することができるため、当該画像の表示に係る処理負荷を軽減することができる。一方、視点が変更することに起因する各個別画像間における遠近感のずれが目立ち易い。 According to the characteristic K7, it is possible to generate a perspective image using a relatively simple plate-shaped object by performing perspective projection, and thus it is possible to reduce the processing load related to the display of the image. On the other hand, the shift in perspective between the individual images due to the change of the viewpoint is easily noticeable.

これに対して、上記特徴K2によれば、平行投影することにより、視点の変更に伴う遠近感のずれを抑制することができる。 On the other hand, according to the above-mentioned feature K2, the parallel projection makes it possible to suppress the shift in perspective due to the change in the viewpoint.

上記特徴K群は以下の課題に対して効果的である。 The above characteristic K group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, etc. are known. As these game machines, those provided with a display device such as a liquid crystal display device are known. In the gaming machine, a memory in which image data is stored in advance is installed, and a predetermined image is displayed on the display unit of the display device by using the image data read from the memory. Becomes

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 Further, in recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is three-dimensional image data is set in the virtual three-dimensional space, and a texture that is two-dimensional image data such as a character or a pattern is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the generated data, so that a stereoscopic image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出の多様化を図ることが好ましい。その一方、表示演出の多様化を図る上で、データ量の極端な増大化は好ましくない。 Here, in order to increase the player's interest in the display effects, it is preferable to diversify the display effects. On the other hand, in order to diversify the display effect, it is not preferable to extremely increase the data amount.

以下に、以上の各特徴を適用し得る各種遊技機の基本構成を示す。 Below, the basic configuration of various game machines to which the above respective features can be applied is shown.

パチンコ遊技機:遊技者が操作する操作手段と、その操作手段の操作に基づいて遊技球を発射する遊技球発射手段と、その発射された遊技球を所定の遊技領域に導く球通路と、遊技領域内に配置された各遊技部品とを備え、それら各遊技部品のうち所定の通過部を遊技球が通過した場合に遊技者に特典を付与する遊技機。 Pachinko gaming machine: operating means operated by a player, game ball launching means for launching a game ball based on the operation of the operating means, a ball passage for guiding the launched game ball to a predetermined game area, and a game A gaming machine that includes each game component arranged in the area, and gives a bonus to the player when a game ball passes through a predetermined passage portion of each of the game components.

スロットマシン等の回胴式遊技機:複数の絵柄を可変表示させる絵柄表示装置を備え、始動操作手段の操作に起因して前記複数の絵柄の可変表示が開始され、停止操作手段の操作に起因して前記複数の絵柄の可変表示が停止され、その停止後の絵柄に応じて遊技者に特典を付与する遊技機。 Rotating type gaming machine such as slot machine: equipped with a pattern display device for variably displaying a plurality of patterns, the variable display of the plurality of patterns is started by the operation of the start operation means, and caused by the operation of the stop operation means Then, the variable display of the plurality of patterns is stopped, and a gaming machine that gives a privilege to the player according to the stopped patterns.

10…パチンコ機、31…図柄表示装置、48…演出用操作装置、131…表示CPU、133…メモリモジュール、135…VDP、142…フレームバッファ、151…ジオメトリ演算部、152…レンダリング部、155…表示回路、AP1〜AP4…付属パーツ部、BP…本体パーツ部、CH15…教示用の個別画像、CH16…教示用の個別画像、KD1…第1キーデータ、KD2…第2キーデータ、ND1…第1法線マップデータ、ND2…第2法線マップデータ、PC17…粒子分散用オブジェクト、PC19…海面用オブジェクト、PC20…特別オブジェクト、PC21〜PC23…第1部分テクスチャ、PC24〜PC27…第2部分テクスチャ、PT1…粒子単体画像、PT2…粒子単体画像、SD…面データ、SD1…適用対象の面データ、SD2…緩衝用の面データ、RMD0…ラウンド動画像データ、IPD0…挿入画像データ、IP1…第1挿入キャラクタ画像、IP2…第2挿入キャラクタ画像、RMD0a…第1ラウンド動画像データ、RMD0b…第2ラウンド動画像データ、OB1…砂浜オブジェクト、OB2…波オブジェクト、OB3…海オブジェクト、OB4…空オブジェクト、TD1…砂浜テクスチャ、TD2…波テクスチャ、TD3…海テクスチャ、TD4…空テクスチャ、PV1…特定視点、PV2…別視点、BP10…砂浜背景画像、BP20…演出用背景画像、OB10…屈折用オブジェクト、SKD1…屈折用αデータ、MD1…第1座標マッピングデータ、MD2…第2座標マッピングデータ、CP13…膨張珊瑚画像、CP14…収縮珊瑚画像、CP15…第1歪み画像、CP16…第2歪み画像、PE1…歪み領域、OB21…ベースオブジェクト、OB22…部分オブジェクト、OB31…頭部オブジェクト、TD11…ベーステクスチャ、TD12…部分テクスチャ、TD21〜TD23…第1〜第3部分テクスチャ、CP21…ベース画像、CP23〜CP25…第1〜第3部分画像、PE2…重ね合わせ領域。 10... Pachinko machine, 31... Design display device, 48... Performance operation device, 131... Display CPU, 133... Memory module, 135... VDP, 142... Frame buffer, 151... Geometry calculation section, 152... Rendering section, 155... Display circuit, AP1 to AP4... Attached parts part, BP... Main body parts part, CH15... Individual image for teaching, CH16... Individual image for teaching, KD1... First key data, KD2... Second key data, ND1... No. 1 normal map data, ND2... second normal map data, PC17... particle dispersion object, PC19... sea surface object, PC20... special object, PC21-PC23... first partial texture, PC24-PC27... second partial texture , PT1... Single particle image, PT2... Single particle image, SD... Surface data, SD1... Applicable surface data, SD2... Buffer surface data, RMD0... Round moving image data, IPD0... Inserted image data, IP1... No. 1 inserted character image, IP2... second inserted character image, RMD0a... first round moving image data, RMD0b... second round moving image data, OB1... sand beach object, OB2... wave object, OB3... sea object, OB4... sky object , TD1... beach texture, TD2... wave texture, TD3... sea texture, TD4... sky texture, PV1... specific viewpoint, PV2... another viewpoint, BP10... sand beach background image, BP20... staging background image, OB10... refraction object, SKD1... Refraction α data, MD1... First coordinate mapping data, MD2... Second coordinate mapping data, CP13... Expanded coral image, CP14... Shrinkage coral image, CP15... First strain image, CP16... Second strain image, PE1 ... Distorted area, OB21... Base object, OB22... Partial object, OB31... Head object, TD11... Base texture, TD12... Partial texture, TD21 to TD23... First to third partial texture, CP21... Base image, CP23 to CP25 ...First to third partial images, PE2... Superposed area.

Claims (2)

表示部を有する表示手段と、
画像データを予め記憶した表示用記憶手段と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段と、
遊技者に有利な遊技状態となった場合に遊技球を受け入れ可能となるように開放する入賞手段と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、静止画像データを作成する展開手段と、
当該展開手段により展開された静止画像データを用いることにより、その動画像データに対応した画像の動画を所定の表示期間に亘って表示させる表示演出を実行する表示演出実行手段と、
を備え、
前記表示演出実行手段は、
予め定められた挿入画像を前記表示部に表示することにより特定演出を実行可能な第1手段と、
前記第1手段による前記特定演出以前に表示される第1動画像データによる動画と、前記特定演出以後に表示される第2動画像データによる動画と、を前記表示部に表示可能な第2手段と、
を備え、
前記第1手段及び前記第2手段により、前記入賞手段開放状態とすることにより実行される一のラウンド遊技に対応する一連の表示演出を実行可能であり、
前記第1動画像データに割り当てられるデータ量が、前記第2動画像データに割り当てられるデータ量よりも多くなるようにして圧縮されており、
前記挿入画像が前記第2動画像データによる動画と重複して表示され得ることを特徴とする遊技機。
Display means having a display part;
Display storage means for storing image data in advance,
Display control means for displaying an image on the display section using image data stored in the display storage means;
A winning means for opening the game ball so that it can be accepted when the game state is advantageous to the player
In a gaming machine equipped with
The display storage means stores compressed moving image data used to reproduce a moving image,
The display control means,
Expanding means for expanding any of the moving image data in the expansion area to create still image data,
By using the still image data expanded by the expanding means, display effect executing means for executing a display effect of displaying a moving image of an image corresponding to the moving image data for a predetermined display period,
Equipped with
The display effect executing means,
A first means capable of executing a specific effect by displaying a predetermined insertion image on the display unit;
Second means capable of displaying, on the display unit, a moving image based on the first moving image data displayed before the specific effect by the first means and a moving image based on the second moving image data displayed after the specific effect. When,
Equipped with
By the first means and the second means is capable of executing a series of display effect corresponding to one round game to be executed by an open state the winning unit,
The data amount assigned to the first moving image data is compressed so as to be larger than the data amount assigned to the second moving image data,
A gaming machine, wherein the inserted image can be displayed so as to overlap with a moving image based on the second moving image data.
遊技球を発射させる発射操作が行われる操作手段を備えていることを特徴とする請求項1に記載の遊技機。 The gaming machine according to claim 1, further comprising an operating unit for performing a shooting operation for shooting a game ball.
JP2018238731A 2018-12-20 2018-12-20 Amusement machine Active JP6702403B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018238731A JP6702403B2 (en) 2018-12-20 2018-12-20 Amusement machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238731A JP6702403B2 (en) 2018-12-20 2018-12-20 Amusement machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017082345A Division JP2017121589A (en) 2017-04-18 2017-04-18 Game machine

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020081268A Division JP2020138037A (en) 2020-05-01 2020-05-01 Game machine

Publications (2)

Publication Number Publication Date
JP2019042582A JP2019042582A (en) 2019-03-22
JP6702403B2 true JP6702403B2 (en) 2020-06-03

Family

ID=65815007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018238731A Active JP6702403B2 (en) 2018-12-20 2018-12-20 Amusement machine

Country Status (1)

Country Link
JP (1) JP6702403B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020138037A (en) * 2020-05-01 2020-09-03 株式会社三洋物産 Game machine

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002272960A (en) * 2001-03-15 2002-09-24 Heiwa Corp Game machine
JP4325975B2 (en) * 2002-10-18 2009-09-02 株式会社三共 Game machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020138037A (en) * 2020-05-01 2020-09-03 株式会社三洋物産 Game machine

Also Published As

Publication number Publication date
JP2019042582A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP5703736B2 (en) Game machine
JP6131972B2 (en) Game machine
JP5703735B2 (en) Game machine
JP5565292B2 (en) Game machine
JP5482642B2 (en) Game machine
JP6702403B2 (en) Amusement machine
JP6015791B2 (en) Game machine
JP5910672B2 (en) Game machine
JP5783285B2 (en) Game machine
JP6311762B2 (en) Game machine
JP6011659B2 (en) Game machine
JP6015792B2 (en) Game machine
JP7120409B2 (en) game machine
JP5703733B2 (en) Game machine
JP7120408B2 (en) game machine
JP5703734B2 (en) Game machine
JP2017121589A (en) Game machine
JP6604394B2 (en) Game machine
JP6614261B2 (en) Game machine
JP6614262B2 (en) Game machine
JP6311763B2 (en) Game machine
JP6315047B2 (en) Game machine
JP2022060501A (en) Game machine
JP2020138037A (en) Game machine
JP2018015579A (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200420

R150 Certificate of patent or registration of utility model

Ref document number: 6702403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250