JP7283599B2 - game machine - Google Patents

game machine Download PDF

Info

Publication number
JP7283599B2
JP7283599B2 JP2022026807A JP2022026807A JP7283599B2 JP 7283599 B2 JP7283599 B2 JP 7283599B2 JP 2022026807 A JP2022026807 A JP 2022026807A JP 2022026807 A JP2022026807 A JP 2022026807A JP 7283599 B2 JP7283599 B2 JP 7283599B2
Authority
JP
Japan
Prior art keywords
display
data
image
processing
executed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022026807A
Other languages
Japanese (ja)
Other versions
JP2022060501A (en
Inventor
英明 大室
鉉 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020081268A external-priority patent/JP2020138037A/en
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2022026807A priority Critical patent/JP7283599B2/en
Publication of JP2022060501A publication Critical patent/JP2022060501A/en
Application granted granted Critical
Publication of JP7283599B2 publication Critical patent/JP7283599B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/10Energy storage using batteries

Landscapes

  • Display Devices Of Pinball Game Machines (AREA)

Description

本発明は遊技機に関するものである。 The present invention relates to gaming machines.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。当該遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる(例えば特許文献1参照)。 Pachinko game machines, slot machines, and the like are known as types of game machines. These gaming machines are known to be equipped with a display device having a display section, such as a liquid crystal display device. The game machine is equipped with an image data memory in which image data is stored in advance, and a predetermined image is displayed on the display unit using the image data read from the memory ( For example, see Patent Document 1).

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きくなり易く、画像データ用のメモリには圧縮された状態で記憶されている場合がある。 Also, a configuration is known in which moving image data is provided as image data. The amount of moving image data tends to be larger than that of still image data, and is sometimes stored in a compressed state in the memory for image data.

特開2004-208830号公報Japanese Patent Application Laid-Open No. 2004-208830

ここで、表示演出への遊技者の興味を高めるうえで、動画像データを用いた表示演出は好ましい一方、データ量の増大化は好ましくない。 Here, in order to increase the player's interest in the display effect, the display effect using moving image data is preferable, but the increase in the amount of data is not preferable.

本発明は、上記例示した事情等に鑑みてなされたものであり、動画像データのデータ量の増大化を抑制しつつ、表示演出を好適に行うことが可能な遊技機を提供することを目的とするものである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a gaming machine capable of suitably performing display effects while suppressing an increase in the amount of moving image data. and

本発明は、
表示部を有する表示手段と、
画像データを予め記憶した表示用記憶手段と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段と、
を備えている遊技機において、
前記表示用記憶手段は、前記表示部全体に表示させることが可能なサイズの動画を再生させるために用いられる圧縮された動画像データと、前記動画像データよりもサイズが小さくかつデータ量が少ない所定画像データと、を記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、静止画像データを作成する展開手段と、
当該展開手段により展開された静止画像データを用いることにより、その動画像データに対応した画像の動画を所定の表示期間に亘って表示させる表示演出を実行する表示演出実行手段と、
を備え、
前記表示用記憶手段に記憶されている画像データによる演出として、背景画像と当該背景画像に重なりかつ時間の経緯とともに移動する所定の移動キャラクタ画像が表示される第1演出と、前記移動キャラクタ画像が含まれずかつ背景画像が含まれる第2演出とが連続可能に構成されており、
前記表示演出実行手段は、前記所定画像データを用いて所定の画像を挿入することにより、前記表示演出の演出期間のうち少なくとも一部の期間において前記第2演出に係る画像と前記所定の画像とが重ね合わされた画像を表示させることが可能な手段を備え、
前記所定の移動キャラクタ画像を移動させることによって、当該所定の移動キャラクタ画像が前記表示部の所定の表示領域から表示されないようにすることが可能とされていることを特徴とする。
The present invention
a display means having a display;
display storage means for storing image data in advance;
display control means for displaying an image on the display section using the image data stored in the display storage means;
In a gaming machine equipped with
The display storage means stores compressed moving image data used for reproducing a moving image of a size that can be displayed on the entire display unit, and a smaller size and smaller amount of data than the moving image data. predetermined image data, and
The display control means is
a rendering means for rendering any moving image data in a rendering area to create still image data;
display effect executing means for executing a display effect for displaying a moving image of an image corresponding to the moving image data over a predetermined display period by using the still image data developed by the developing means;
with
As effects based on the image data stored in the display storage means, a first effect in which a background image and a predetermined moving character image that overlaps the background image and moves over time are displayed; A second effect that does not include a background image and includes a background image is configured to be continuous,
By inserting a predetermined image using the predetermined image data, the display effect executing means inserts the image related to the second effect and the predetermined image in at least a part of the effect period of the display effect. is provided with a means capable of displaying an image superimposed on
By moving the predetermined moving character image, it is possible to prevent the predetermined moving character image from being displayed from the predetermined display area of the display section.

本発明によれば、動画像データのデータ量の増大化を抑制しつつ、表示演出を好適に行うことが可能となる。 Advantageous Effects of Invention According to the present invention, it is possible to suitably perform a display effect while suppressing an increase in the amount of moving image data.

パチンコ機を示す正面図である。It is a front view showing a pachinko machine. (a)~(j)図柄表示装置の表示面における表示内容を説明するための説明図である。(a) to (j) are explanatory diagrams for explaining display contents on the display surface of the pattern display device. (a),(b)図柄表示装置の表示面における表示内容を説明するための説明図である。4A and 4B are explanatory diagrams for explaining display contents on the display surface of the pattern display device; FIG. パチンコ機の電気的構成を示すブロック図である。1 is a block diagram showing an electrical configuration of a pachinko machine; FIG. 当否抽選などに用いられる各種カウンタの内容を説明するための説明図である。It is an explanatory view for explaining the contents of various counters used for winning or losing lottery. 主制御装置にて実行されるタイマ割込み処理を示すフローチャートである。It is a flowchart which shows the timer interrupt processing performed by a main control unit. 主制御装置にて実行される通常処理を示すフローチャートである。4 is a flowchart showing normal processing executed by a main controller; 主制御装置にて実行される遊技回制御処理を示すフローチャートである。It is a flow chart which shows game round control processing executed by the main controller. 主制御装置にて実行される変動開始処理を示すフローチャートである。4 is a flow chart showing a variation start process executed by the main controller; 主制御装置の処理構成の別形態であってメイン処理を示すフローチャートである。9 is a flowchart showing main processing, which is another form of the processing configuration of the main controller. 主制御装置の処理構成の別形態であってタイマ割込み処理を示すフローチャートである。It is another form of the processing structure of a main-control apparatus, and is a flowchart which shows a timer interruption process. 表示CPUにて実行されるメイン処理を示すフローチャートである。4 is a flowchart showing main processing executed by a display CPU; 表示CPUにて実行されるV割込み処理を示すフローチャートである。It is a flowchart which shows the V interrupt processing performed by display CPU. 表示CPUにて実行されるタスク処理を示すフローチャートである。4 is a flowchart showing task processing executed by a display CPU; (a)~(c)描画リストの内容を説明するための説明図である。4A to 4C are explanatory diagrams for explaining the contents of a drawing list; FIG. VDPにて実行される描画処理を示すフローチャートである。4 is a flowchart showing drawing processing executed in VDP; 描画処理の実行に伴い描画データが作成される様子を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining how drawing data is created along with the execution of drawing processing; VDPにて実行されるZバッファを用いた隠面処理を示すフローチャートである。4 is a flow chart showing hidden surface processing using a Z-buffer performed in VDP; 表示CPUにて実行されるマスク用の演算処理を示すフローチャートである。10 is a flow chart showing mask calculation processing executed by a display CPU. (a),(b)第1のマスク表示の具体的な内容を説明するための説明図である。4A and 4B are explanatory diagrams for explaining specific contents of the first mask display; FIG. (a)~(d)第2のマスク表示の具体的な内容を説明するための説明図である。(a) to (d) are explanatory diagrams for explaining specific contents of the second mask display. 表示CPUにて実行されるマスク用の演算処理を示すフローチャートである。10 is a flow chart showing mask calculation processing executed by a display CPU. 表示CPUにて実行される操作発生コマンド対応処理を示すフローチャートである。FIG. 10 is a flow chart showing an operation generation command response process executed by a display CPU; FIG. 表示CPUにて実行される表示モード背景用の演算処理を示すフローチャートである。4 is a flow chart showing arithmetic processing for a display mode background executed by a display CPU; 表示CPUにて実行される図柄用演算処理を示すフローチャートである。4 is a flow chart showing symbol calculation processing executed by a display CPU; VDPにて実行される背景用の設定処理を示すフローチャートである。FIG. 10 is a flowchart showing background setting processing executed in VDP; FIG. VDPにて実行される背景用の描画データ作成処理を示すフローチャートである。7 is a flowchart showing background drawing data creation processing executed in VDP; 第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを示すタイミングチャートである。FIG. 10 is a timing chart showing timings at which separately stored data for the first display mode and separately stored data for the second display mode are created; FIG. (a),(b)連結オブジェクトを説明するための説明図である。4A and 4B are explanatory diagrams for explaining connected objects; FIG. 表示CPUにて実行される連結オブジェクト用の演算処理を示すフローチャートである。4 is a flowchart showing arithmetic processing for connected objects executed by a display CPU; VDPにて実行される連結オブジェクト演出用の設定処理を示すフローチャートである。FIG. 10 is a flowchart showing setting processing for connected object rendering executed in VDP; FIG. (a)~(c)連結オブジェクト演出を説明するための説明図である。(a) to (c) are explanatory diagrams for explaining a connected object effect. (a)は粒子分散用オブジェクトを説明するための説明図であり、(b)は粒子分散用テクスチャを説明するための説明図であり、(c)~(e)はキーデータを説明するための説明図である。(a) is an explanatory diagram for explaining a particle dispersion object; (b) is an explanatory diagram for explaining a particle dispersion texture; (c) to (e) are explanatory diagrams for explaining key data; is an explanatory diagram of . (a)は表示CPUにて実行される連結オブジェクト用の演算処理を示すフローチャートであり、(b)はブレンド用テーブルを説明するための説明図である。(a) is a flow chart showing arithmetic processing for connected objects executed by a display CPU, and (b) is an explanatory diagram for explaining a blending table. VDPにて実行される粒子分散演出用の設定処理を示すフローチャートである。FIG. 10 is a flow chart showing setting processing for particle dispersion effect executed in VDP; FIG. (a)は粒子分散演出を説明するための説明図であり、(b-1)及び(b-2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。(a) is an explanatory diagram for explaining the particle dispersion rendering, and (b-1) and (b-2) are diagrams for simply explaining in what trajectory each individual particle image is displaced. It is an explanatory diagram. VDPにて実行される粒子分散演出用の設定処理の別形態を示すフローチャートである。FIG. 11 is a flow chart showing another form of setting processing for particle dispersion effect executed in VDP; FIG. (a)は海面用オブジェクトを説明するための説明図であり、(b)は法線マップデータを説明するための説明図である。(a) is an explanatory diagram for explaining a sea surface object, and (b) is an explanatory diagram for explaining normal map data. (a),(b)一対の法線マップデータを海面用オブジェクトに適用する手法を説明するための説明図である。FIG. 4A is an explanatory diagram for explaining a method of applying a pair of normal map data (a) and (b) to a sea surface object; (a)~(c)各面データに対する変更データの適用の仕方を説明するための説明図である。(a) to (c) are explanatory diagrams for explaining how to apply change data to each surface data. (a)は表示CPUにて実行される海面表示用の演算処理を示すフローチャートであり、(b)は海面用アニメーションデータを説明するための説明図である。(a) is a flow chart showing arithmetic processing for sea surface display executed by a display CPU, and (b) is an explanatory diagram for explaining sea surface animation data. VDPにて実行される海面表示用の設定処理を示すフローチャートである。FIG. 11 is a flow chart showing setting processing for sea surface display executed in VDP; FIG. VDPにて実行される法線パラメータの設定処理を示すフローチャートである。FIG. 10 is a flowchart showing normal parameter setting processing executed in the VDP; FIG. (a)~(c)各面データに色情報を設定する手法を説明するための説明図である。(a) to (c) are explanatory diagrams for explaining a method of setting color information in each surface data. (a)はVDPにて実行される海面表示用の色情報設定処理を示すフローチャートであり、(b)はVDPにて実行される海面用の調整処理を示すフローチャートである。4(a) is a flowchart showing a sea surface display color information setting process executed in the VDP, and (b) is a flowchart showing a sea surface adjustment process executed in the VDP. (a)は海面表示を説明するための説明図であり、(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。(a) is an explanatory diagram for explaining the sea surface display, and (b) is an explanatory diagram for simply explaining a setting mode of color information of an area where the sea surface is displayed. VDPにて実行される海面表示用の色情報設定処理の別形態を示すフローチャートである。10 is a flowchart showing another form of color information setting processing for sea surface display executed in VDP. 表示CPUにて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for production|presentation in the opening-and-closing execution mode performed by display CPU. (a)はVDPにおいてピントを調整する上で用いられるVRAMの各エリアを説明するための説明図であり、(b)はVDPにて実行される描画データ合成処理を示すフローチャートである。(a) is an explanatory diagram for explaining each area of VRAM used for adjusting focus in VDP, and (b) is a flow chart showing drawing data synthesizing processing executed in VDP. (a)はVDPにて実行されるピント演出用の調整処理を示すフローチャートであり、(b)はピント範囲及び各ぼかし範囲を説明するための説明図である。(a) is a flowchart showing focus effect adjustment processing executed in the VDP, and (b) is an explanatory diagram for explaining a focus range and each blurring range. (a)はVDPにて実行されるぼかし発生処理を示すフローチャートであり、(b-1)及び(b-2)はぼかし発生処理に際しての単位エリアの抽出態様を説明するための説明図である。(a) is a flowchart showing the blurring generation process executed in the VDP, and (b-1) and (b-2) are explanatory diagrams for explaining a manner of extracting a unit area during the blurring generation process. . (a)はピント表示が行われていない状態を説明するための説明図であり、(b)はピント表示が行われている状態を説明するための説明図である。(a) is an explanatory diagram for explaining a state in which focus display is not performed, and (b) is an explanatory diagram for explaining a state in which focus display is performed. (a)は特別オブジェクトを説明するための説明図であり、(b-1)~(b-3)は第1部分テクスチャを説明するための説明図であり、(c-1)~(c-4)は第2部分テクスチャを説明するための説明図である。(a) is an explanatory diagram for explaining the special object; (b-1) to (b-3) are explanatory diagrams for explaining the first partial texture; -4) is an explanatory diagram for explaining the second partial texture. 表示CPUにて実行される特別キャラクタ用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for special characters performed by display CPU. VDPにて実行される特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。10 is a flow chart showing texture mapping processing for special characters performed in VDP. (a),(b)模様変更表示の内容を説明するための説明図である。4A and 4B are explanatory diagrams for explaining the contents of the pattern change display; FIG. ラウンド動画像データのデータ構成を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining the data structure of round moving image data; (a)ラウンド動画像データによる表示内容を説明するための説明図であり、(b)挿入画像データによる表示内容を説明するための説明図である。(a) It is an explanatory diagram for explaining the display content by round moving image data, and (b) is an explanatory diagram for explaining the display content by insertion image data. 表示CPUにより実行されるラウンド演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for round production|presentation performed by display CPU. 動画デコーダによるデコード処理を示すフローチャートである。4 is a flowchart showing decoding processing by a video decoder; VDPにより実行されるラウンド演出用の設定処理を示すフローチャートである。FIG. 10 is a flowchart showing setting processing for round effect executed by VDP; FIG. VDPにより実行されるラウンド演出用マッピング処理を示すフローチャートである。FIG. 10 is a flowchart showing round effect mapping processing executed by the VDP; FIG. (a)~(d)ラウンド演出の様子を説明するための説明図である。(a) to (d) are explanatory diagrams for explaining the state of the round effect. 別形態におけるラウンド動画像データのデータ構成を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining the data configuration of round moving image data in another form; (a)第1ラウンド動画像データの圧縮態様を説明するための説明図であり、(b)第2ラウンド動画像データの圧縮態様を説明するための説明図であり、(c)各ラウンド動画像データのビットレートを説明するためのグラフである。(a) is an explanatory diagram for explaining the compression mode of the first round video data, (b) is an explanatory diagram for explaining the compression mode of the second round video data, and (c) each round video 4 is a graph for explaining the bit rate of image data; 別形態におけるラウンド演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for round production|presentation in another form. (a)別形態におけるラウンド演出用の設定処理を示すフローチャートであり、(b)別形態におけるラウンド演出用マッピング処理を示すフローチャートである。(a) It is a flowchart which shows the setting process for round effects in another form, (b) It is a flowchart which shows the mapping process for round effects in another form. ラウンド演出の実行態様を説明するためのタイムチャートである。It is a time chart for demonstrating the execution aspect of round production|presentation. (a),(b)砂浜背景画像を表示させるのに用いられる各オブジェクトを説明するための説明図である。FIGS. 4A and 4B are explanatory diagrams for explaining each object used to display a sandy beach background image; FIGS. 砂浜背景画像を表示させるのに用いられる各テクスチャを説明するための説明図である。FIG. 10 is an explanatory diagram for explaining each texture used to display a sandy beach background image; 視点が変更されることによるパースペクティブの変化を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining a change in perspective due to a change in viewpoint; 演出用背景画像を作成する場合の各オブジェクトの設定態様を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining a setting mode of each object when creating a background image for effect; 砂浜背景用演算処理を示すフローチャートである。10 is a flow chart showing sandy beach background arithmetic processing. (a)砂浜疾走演出の背景用演算処理を示すフローチャートであり、(b)各オブジェクトの視点からの距離と当該視点に対する相対速度との関係を説明するための説明図である。(a) is a flowchart showing a background calculation process for a sandy beach sprint effect, and (b) is an explanatory diagram for explaining the relationship between the distance of each object from a viewpoint and the relative speed with respect to the viewpoint. 砂浜疾走演出の演出用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for production|presentation of a beach sprinting production|presentation. (a)砂浜背景画像が表示された表示面を示す説明図であり、(b)砂浜疾走演出の様子を説明するための説明図である。(a) An explanatory diagram showing a display surface on which a sandy beach background image is displayed, and (b) an explanatory diagram for explaining a state of a sandy beach sprint effect. (a)屈折用オブジェクトを説明するための説明図であり、(b)第1変形形態を説明するための説明図であり、(c)第2変形形態を説明するための説明図であり、(d)屈折用αデータを説明するための説明図である。(a) is an explanatory diagram for explaining a refraction object, (b) is an explanatory diagram for explaining a first modified embodiment, (c) is an explanatory diagram for explaining a second modified embodiment, (d) is an explanatory diagram for explaining α data for refraction; 歪み演出演算処理を示すフローチャートである。9 is a flowchart showing distortion effect calculation processing; (a)第1座標マッピングデータを説明するための説明図であり、(b)第2座標マッピングデータを説明するための説明図である。(a) It is an explanatory diagram for explaining the first coordinate mapping data, and (b) an explanatory diagram for explaining the second coordinate mapping data. 第2の実施形態における描画処理を示すフローチャートである。9 is a flowchart showing drawing processing in the second embodiment; 歪み演出用の設定処理を示すフローチャートである。9 is a flowchart showing setting processing for distortion effect; 歪み演出用テクスチャマッピング処理を示すフローチャートである。10 is a flow chart showing distortion effect texture mapping processing. 歪み演出用融合処理を示すフローチャートである。It is a flowchart which shows the fusion process for distortion production|presentation. 歪み演出の様子を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining how a distortion effect is produced; (a)ベースオブジェクト及び部分オブジェクトを説明するための説明図であり、(b)ベーステクスチャを説明するための説明図であり、(c)各部分テクスチャを説明するための説明図である。(a) An explanatory diagram for explaining a base object and a partial object, (b) an explanatory diagram for explaining a base texture, and (c) an explanatory diagram for explaining each partial texture. 瞬き演出用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for blink effects. 瞬き演出の様子を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining a state of a blinking effect;

<第1の実施形態>
以下、遊技機の一種であるパチンコ遊技機(以下、「パチンコ機」という)の一実施形態を、図面に基づいて説明する。図1はパチンコ機10の正面図である。
<First Embodiment>
An embodiment of a pachinko game machine (hereinafter referred to as a "pachinko machine"), which is a type of game machine, will be described below with reference to the drawings. FIG. 1 is a front view of a pachinko machine 10. FIG.

パチンコ機10は、図1に示すように、当該パチンコ機10の外殻を形成する外枠11と、この外枠11に対して前方に回動可能に取り付けられた遊技機本体12とを有する。遊技機本体12は、内枠(図示略)と、その内枠の前方に配置される前扉枠14と、内枠の後方に配置される裏パックユニット(図示略)とを備えている。 The pachinko machine 10, as shown in FIG. 1, has an outer frame 11 forming the outer shell of the pachinko machine 10 and a game machine main body 12 attached to the outer frame 11 so as to be rotatable forward. . The gaming machine body 12 includes an inner frame (not shown), a front door frame 14 arranged in front of the inner frame, and a back pack unit (not shown) arranged behind the inner frame.

遊技機本体12のうち内枠が、左右両側部のうち一方を支持側として外枠11に回動可能に支持されている。また、内枠には、前扉枠14が回動可能に支持されており、左右両側部のうち一方を支持側として前方へ回動可能とされている。また、内枠には、裏パックユニットが回動可能に支持されており、左右両側部のうち一方を支持側として後方へ回動可能とされている。 The inner frame of the game machine main body 12 is rotatably supported by the outer frame 11 with one of the left and right sides serving as a support side. A front door frame 14 is rotatably supported by the inner frame, and is rotatable forward with one of the left and right side portions as the supporting side. In addition, the back pack unit is rotatably supported by the inner frame, and is rotatable rearward with one of the left and right side portions as the support side.

なお、遊技機本体12には、その回動先端部に施錠装置(図示略)が設けられており、遊技機本体12を外枠11に対して開放不能に施錠状態とする機能を有しているとともに、前扉枠14を内枠に対して開放不能に施錠状態とする機能を有している。これらの各施錠状態は、パチンコ機10前面にて露出させて設けられたシリンダ錠17に対して解錠キーを用いて解錠操作を行うことにより、それぞれ解除される。 The gaming machine main body 12 is provided with a locking device (not shown) at the tip of rotation thereof, and has a function of locking the gaming machine main body 12 with respect to the outer frame 11 so that the game machine main body 12 cannot be opened. In addition, it has a function of locking the front door frame 14 with respect to the inner frame so that it cannot be opened. Each of these locked states is released by unlocking the cylinder lock 17 exposed on the front surface of the pachinko machine 10 using an unlock key.

内枠には遊技盤20が搭載されている。遊技盤20には前後方向に貫通する大小複数の開口部が形成されている。各開口部には一般入賞口21,可変入賞装置22,上作動口23,下作動口24,スルーゲート25、可変表示ユニット26、メイン表示部33及び役物用表示部34等がそれぞれ設けられている。 A game board 20 is mounted on the inner frame. The game board 20 is formed with a plurality of large and small openings penetrating in the front-rear direction. Each opening is provided with a general prize winning port 21, a variable prize winning device 22, an upper operating port 23, a lower operating port 24, a through gate 25, a variable display unit 26, a main display section 33, a character display section 34, and the like. ing.

一般入賞口21、可変入賞装置22、上作動口23及び下作動口24への入球が発生すると、それが遊技盤20の背面側に配設された検知センサ(図示略)により検知され、その検知結果に基づいて所定数の賞球の払い出しが実行される。その他に、遊技盤20の最下部にはアウト口27が設けられており、各種入賞口等に入らなかった遊技球はアウト口27を通って遊技領域から排出される。また、遊技盤20には、遊技球の落下方向を適宜分散、調整等するために多数の釘28が植設されていると共に、風車等の各種部材が配設されている。 When a ball enters the general winning port 21, the variable winning device 22, the upper operating port 23 and the lower operating port 24, it is detected by a detection sensor (not shown) arranged on the back side of the game board 20, A predetermined number of prize balls are paid out based on the detection result. In addition, an out port 27 is provided at the bottom of the game board 20, and game balls that do not enter various winning ports are discharged from the game area through the out port 27.例文帳に追加The game board 20 is also provided with a large number of nails 28 for appropriately dispersing and adjusting the falling directions of the game balls, as well as various members such as windmills.

ここで、入球とは、所定の開口部を遊技球が通過することを意味し、開口部を通過した後に遊技領域から排出される態様だけでなく、開口部を通過した後に遊技領域から排出されない態様も含まれる。但し、以下の説明では、アウト口27への遊技球の入球と明確に区別するために、可変入賞装置22、上作動口23、下作動口24又はスルーゲート25への遊技球の入球を、入賞とも表現する。 Here, the entry ball means that the game ball passes through a predetermined opening, and not only the mode in which the game ball is discharged from the game area after passing through the opening, but also the game ball is discharged from the game area after passing through the opening. It also includes a mode in which it is not. However, in the following description, in order to clearly distinguish the game ball entering the out port 27, the game ball entering the variable winning device 22, the upper operation port 23, the lower operation port 24 or the through gate 25 is also expressed as a prize.

上作動口23及び下作動口24は、作動口装置としてユニット化されて遊技盤20に設置されている。上作動口23及び下作動口24は共に上向きに開放されている。また、上作動口23が上方となるようにして両作動口23,24は鉛直方向に並んでいる。下作動口24には、左右一対の可動片よりなるガイド片(サポート片)としての電動役物24aが設けられている。電動役物24aの閉鎖状態(非サポート状態又は非ガイド状態)では遊技球が下作動口24に入賞できず、電動役物24aが開放状態(サポート状態又はガイド状態)となることで下作動口24への入賞が可能となる。 The upper operation port 23 and the lower operation port 24 are unitized as an operation port device and installed on the game board 20 . Both the upper working port 23 and the lower working port 24 are opened upward. Further, the two working ports 23 and 24 are arranged vertically so that the upper working port 23 faces upward. The lower operation port 24 is provided with an electric accessory 24a as a guide piece (support piece) composed of a pair of left and right movable pieces. In the closed state (non-supported state or non-guided state) of the electric accessory 24a, the game ball cannot enter the lower operation opening 24, and the electric accessory 24a becomes the open state (supported state or guide state), thereby lowering the operation opening. 24 can be won.

可変入賞装置22は、遊技盤20の背面側へと通じる大入賞口22aを備えているとともに、当該大入賞口22aを開閉する開閉扉22bを備えている。開閉扉22bは、通常は遊技球が入賞できない又は入賞し難い閉鎖状態になっており、内部抽選において開閉実行モードへの移行に当選した場合に遊技球が入賞しやすい所定の開放状態に切り換えられるようになっている。ここで、開閉実行モードとは、大当たり当選となった場合に移行することとなるモードである。当該開閉実行モードについては、後に詳細に説明する。可変入賞装置22の開放態様としては、所定時間(例えば30sec)の経過又は所定個数(例えば10個)の入賞を1ラウンドとして、複数ラウンド(例えば15ラウンド)を上限として可変入賞装置22が繰り返し開放される態様がある。 The variable winning device 22 includes a large winning opening 22a leading to the back side of the game board 20, and an opening/closing door 22b for opening and closing the large winning opening 22a. The opening/closing door 22b is normally in a closed state in which game balls cannot or hardly win a prize, and when the internal lottery wins the transition to the opening/closing execution mode, the opening/closing door 22b is switched to a predetermined open state in which game balls can easily win a prize. It's like Here, the open/close execution mode is a mode to be shifted to when a jackpot is won. The opening/closing execution mode will be described later in detail. As an opening mode of the variable winning device 22, the variable winning device 22 is repeatedly opened with a plurality of rounds (eg 15 rounds) as the upper limit, with the elapse of a predetermined time (eg 30 sec) or the winning of a predetermined number (eg 10) as one round. There is a mode to be done.

メイン表示部33及び役物用表示部34は、遊技領域の下部側に設けられている。メイン表示部33では、上作動口23又は下作動口24への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が表示によって明示される。つまり、本パチンコ機10では、上作動口23への入賞と下作動口24への入賞とが内部抽選において区別されておらず、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が共通の表示領域であるメイン表示部33にて明示される。そして、上作動口23又は下作動口24への入賞に基づく内部抽選の結果が開閉実行モードへの移行に対応した当選結果であった場合には、メイン表示部33にて所定の停止結果が表示されて変動表示が停止された後に、開閉実行モードへ移行する。 The main display section 33 and the accessory display section 34 are provided on the lower side of the game area. In the main display section 33, the variable display of the pattern is performed with the winning of the upper working port 23 or the lower working port 24 as a trigger, and as a result of the stoppage of the variable display, the winning of the upper working port 23 or the lower working port 24 is performed. The results of the internal lottery conducted based on the results are clearly displayed. In other words, in the pachinko machine 10, winning to the upper working port 23 and winning to the lower working port 24 are not distinguished in the internal lottery. The result of the internal lottery that is determined is clearly displayed on the main display portion 33, which is a common display area. When the result of the internal lottery based on the winning of the upper operation port 23 or the lower operation port 24 is the winning result corresponding to the transition to the opening/closing execution mode, the main display unit 33 displays a predetermined stop result. After it is displayed and the variable display is stopped, the opening/closing execution mode is entered.

なお、メイン表示部33は、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT、ドットマトリックス等その他のタイプの表示装置によって構成されていてもよい。また、メイン表示部33にて変動表示される絵柄としては、複数種の文字が変動表示される構成、複数種の記号が変動表示される構成、複数種のキャラクタが変動表示される構成又は複数種の色が切り換え表示される構成などが考えられる。 The main display unit 33 is composed of a segment display device in which a plurality of segment light emitting units are arranged in a predetermined manner, but is not limited to this, and may include a liquid crystal display device, an organic EL display device, It may be constituted by other types of display devices such as CRT, dot matrix and the like. In addition, the patterns variably displayed on the main display unit 33 include a configuration in which a plurality of types of characters are variably displayed, a configuration in which a plurality of types of symbols are variably displayed, a configuration in which a plurality of types of characters are variably displayed, or a configuration in which multiple types of characters are variably displayed. A configuration in which the colors of the seeds are switched and displayed can be considered.

役物用表示部34では、スルーゲート25への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、スルーゲート25への入賞に基づいて行われた内部抽選の結果が表示によって明示される。スルーゲート25への入賞に基づく内部抽選の結果が電役開放状態への移行に対応した当選結果であった場合には、役物用表示部34にて所定の停止結果が表示されて変動表示が停止された後に、電役開放状態へ移行する。電役開放状態では、下作動口24に設けられた電動役物24aが所定の態様で開放状態となる。 In the character object display unit 34, the winning of the through gate 25 triggers the variable display of the pattern, and as a result of stopping the variable display, the result of the internal lottery performed based on the winning of the through gate 25 is displayed. indicated by the display. When the result of the internal lottery based on the prize winning to the through gate 25 is the winning result corresponding to the transition to the electric role open state, the predetermined stop result is displayed on the display part 34 for the accessory and the variable display is performed. is stopped, it shifts to the electric power open state. In the electric operation open state, the electric accessory 24a provided in the lower operation opening 24 is opened in a predetermined manner.

可変表示ユニット26には、絵柄の一種である図柄を変動表示する図柄表示装置31が設けられている。また、可変表示ユニット26には、図柄表示装置31を囲むようにしてセンターフレーム32が配設されている。このセンターフレーム32は、その上部がパチンコ機10前方に延出している。これにより、図柄表示装置31の表示面の前方を遊技球が落下していくのが防止されており、遊技球の落下により表示面の視認性が低下するといった不都合が生じない構成となっている。 The variable display unit 26 is provided with a pattern display device 31 for variably displaying a pattern, which is one type of pattern. A center frame 32 is arranged in the variable display unit 26 so as to surround the pattern display device 31 . The upper portion of the center frame 32 extends forward of the pachinko machine 10.例文帳に追加As a result, the game ball is prevented from falling in front of the display surface of the pattern display device 31, so that the problem of lowering the visibility of the display surface caused by the falling of the game ball does not occur. .

図柄表示装置31は、液晶ディスプレイを備えた液晶表示装置として構成されており、後述する表示制御装置により表示内容が制御される。なお、図柄表示装置31は、液晶表示装置であることに限定されることはなく、プラズマディスプレイ装置、有機EL表示装置又はCRTといった他の表示装置であってもよい。 The pattern display device 31 is configured as a liquid crystal display device having a liquid crystal display, and display contents are controlled by a display control device which will be described later. The pattern display device 31 is not limited to a liquid crystal display device, and may be another display device such as a plasma display device, an organic EL display device, or a CRT.

図柄表示装置31では、上作動口23又は下作動口24への入賞に基づいて図柄の変動表示が開始される。すなわち、メイン表示部33において変動表示が行われる場合には、それに合わせて図柄表示装置31において変動表示が行われる。そして、例えば、遊技結果が大当たり結果となる遊技回では、図柄表示装置31では予め設定されている有効ライン上に所定の組み合わせの図柄が停止表示される。 In the symbol display device 31, the variable display of symbols is started based on the winning of the upper operation port 23 or the lower operation port 24. - 特許庁That is, when the variable display is performed on the main display section 33, the variable display is performed on the pattern display device 31 accordingly. Then, for example, in a game cycle in which the game result is a jackpot result, the symbol display device 31 stops and displays a predetermined combination of symbols on a preset effective line.

図柄表示装置31の表示内容について、図2及び図3を参照して詳細に説明する。図2は図柄表示装置31にて変動表示される図柄を個々に示す図であり、図3は図柄表示装置31の表示面Gを示す図である。 The display contents of the pattern display device 31 will be described in detail with reference to FIGS. 2 and 3. FIG. FIG. 2 is a view showing individual symbols that are variably displayed on the pattern display device 31, and FIG. 3 is a view showing the display surface G of the pattern display device 31. FIG.

図2(a)~(j)に示すように、絵柄の一種である図柄は、「1」~「9」の数字が各々付された9種類の主図柄と、貝形状の絵図柄からなる副図柄とにより構成されている。より詳しくは、タコ等の9種類のキャラクタ図柄に「1」~「9」の数字がそれぞれ付されて主図柄が構成されている。 As shown in FIGS. 2(a) to 2(j), the pattern, which is one type of pattern, consists of 9 types of main patterns to which numbers "1" to "9" are respectively attached, and a shell-shaped pattern. It is composed of a sub pattern. More specifically, nine types of character patterns, such as an octopus, are assigned numerals "1" to "9", respectively, to form the main pattern.

図3(a)に示すように、図柄表示装置31の表示面Gには、複数の表示領域として、上段・中段・下段の3つの図柄列SA1,SA2,SA3が設定されている。各図柄列SA1~SA3は、主図柄と副図柄が所定の順序で配列されて構成されている。詳細には、上図柄列SA1には、「1」~「9」の9種類の主図柄が数字の降順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。下図柄列SA3には、「1」~「9」の9種類の主図柄が数字の昇順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。 As shown in FIG. 3A, on the display surface G of the pattern display device 31, three pattern rows SA1, SA2, SA3 of upper, middle and lower rows are set as a plurality of display areas. Each of the symbol rows SA1 to SA3 is constructed by arranging main symbols and sub-symbols in a predetermined order. Specifically, in the upper symbol row SA1, nine types of main symbols "1" to "9" are arranged in descending numerical order, and one sub-symbol is arranged between each main symbol. . In the lower pattern row SA3, 9 types of main symbols "1" to "9" are arranged in ascending numerical order, and one sub-symbol is arranged between each main symbol.

つまり、上図柄列SA1と下図柄列SA3は18個の図柄により構成されている。これに対し、中図柄列SA2には、数字の昇順に「1」~「9」の9種類の主図柄が配列された上で「9」の主図柄と「1」の主図柄との間に「4」の主図柄が付加的に配列され、これら各主図柄の間に副図柄が1つずつ配されている。つまり、中図柄列SA2に限っては、10個の主図柄が配されて20個の図柄により構成されている。そして、表示面Gでは、これら各図柄列SA1~SA3の図柄が周期性をもって所定の向きにスクロールするように変動表示される。 That is, the upper symbol row SA1 and the lower symbol row SA3 are composed of 18 symbols. On the other hand, in the middle symbol row SA2, nine types of main symbols "1" to "9" are arranged in ascending order of numbers, and between the main symbol "9" and the main symbol "1" A main symbol of "4" is additionally arranged in the upper part, and one sub-symbol is arranged between each of these main symbols. That is, only the middle symbol row SA2 is composed of 20 symbols with 10 main symbols arranged. Then, on the display surface G, the symbols of each of the symbol rows SA1 to SA3 are variably displayed so as to scroll in a predetermined direction with periodicity.

図3(b)に示すように、表示面Gは、図柄列毎に3個の図柄が停止表示されるようになっており、結果として3×3の計9個の図柄が停止表示されるようになっている。また、表示面Gには、5つの有効ライン、すなわち左ラインL1、中ラインL2、右ラインL3、右下がりラインL4、右上がりラインL5が設定されている。そして、上図柄列SA1→下図柄列SA3→中図柄列SA2の順に変動表示が停止し、いずれかの有効ラインに同一の数字が付された図柄の組み合わせが形成された状態で全図柄列SA1~SA3の変動表示が終了すれば、後述する通常大当たり結果又は15R確変大当たり結果の発生として大当たり動画が表示されるようになっている。 As shown in FIG. 3(b), on the display surface G, three symbols are stopped for each symbol row, and as a result, a total of nine symbols of 3×3 are stopped. It's like Also, five effective lines are set on the display surface G, that is, a left line L1, a middle line L2, a right line L3, a right-down line L4, and a right-up line L5. Then, the variable display is stopped in the order of upper symbol row SA1→lower symbol row SA3→middle symbol row SA2, and all symbol rows SA1 are formed in a state in which a combination of symbols having the same number is formed on any of the activated lines. When the variable display of ~SA3 is completed, a big win moving image is displayed as a normal big win result or a 15R probability variable big win result, which will be described later.

本パチンコ機10では、奇数番号(1,3,5,7,9)が付された主図柄は「特定図柄」に相当し、15R確変大当たり結果が発生する場合には、同一の特定図柄の組み合わせが停止表示される。また、偶数番号(2,4,6,8)が付された主図柄は「非特定図柄」に相当し、通常大当たり結果が発生する場合には、同一の非特定図柄の組み合わせが停止表示される。 In the pachinko machine 10, the main symbols with odd numbers (1, 3, 5, 7, 9) correspond to "specific symbols", and when a 15R probability variable jackpot result occurs, the same specific symbols are used. The combination is displayed frozen. Also, the main symbols with even numbers (2, 4, 6, 8) correspond to "non-specific symbols", and when a normal jackpot result occurs, the combination of the same non-specific symbols is stopped and displayed. be.

また、後述する明示2R確変大当たり結果となる場合には、同一の図柄の組み合わせとは異なる所定の図柄の組み合わせが形成された状態で全図柄列SA1~SA3の変動表示が終了し、その後に、明示用動画が表示されるようになっている。 Also, in the case of an explicit 2R probability variable jackpot result to be described later, the variable display of all the symbol rows SA1 to SA3 is completed in a state in which a predetermined symbol combination different from the same symbol combination is formed, and then, A demonstration video is displayed.

なお、図柄表示装置31における図柄の変動表示の態様は上記のものに限定されることはなく任意であり、図柄列の数、図柄列における図柄の変動表示の方向、各図柄列の図柄数などは適宜変更可能である。また、図柄表示装置31にて変動表示される絵柄は上記のような図柄に限定されることはなく、例えば絵柄として数字のみが変動表示される構成としてもよい。 The pattern display device 31 may arbitrarily display the symbols in any manner without being limited to the above, and may include the number of pattern rows, the direction of the pattern variation display in the pattern rows, the number of symbols in each pattern row, and the like. can be changed as appropriate. Further, the patterns displayed variably on the pattern display device 31 are not limited to the above-described patterns, and for example, only numbers may be variably displayed as the patterns.

また、いずれかの作動口23,24への入賞に基づいて、メイン表示部33及び図柄表示装置31にて変動表示が開始され、所定の停止結果を表示し上記変動表示が停止されるまでが遊技回の1回に相当する。 In addition, based on the winning of any of the operation ports 23 and 24, the main display unit 33 and the symbol display device 31 start the variable display, display a predetermined stop result, and stop the variable display. It corresponds to one game time.

センターフレーム32の前面側における左上部分には、メイン表示部33及び図柄表示装置31に対応した第1保留発光部35が設けられている。遊技球が上作動口23又は下作動口24に入賞した個数は最大4個まで保留され、第1保留発光部35の点灯によってその保留個数が表示されるようになっている。 A first holding light emitting section 35 corresponding to the main display section 33 and the pattern display device 31 is provided in the upper left portion on the front side of the center frame 32 . The number of winning game balls in the upper working port 23 or the lower working port 24 is reserved up to four, and the reserved number is displayed by lighting of the first reservation light emitting part 35. - 特許庁

センターフレーム32の右上部分には、役物用表示部34に対応した第2保留発光部36が設けられている。遊技球がスルーゲート25を通過した回数は最大4回まで保留され、第2保留発光部36の点灯によってその保留個数が表示されるようになっている。なお、各保留発光部35,36の機能が図柄表示装置31の一部の領域における表示により果たされる構成としてもよい。 In the upper right portion of the center frame 32, a second holding light emitting section 36 corresponding to the character item display section 34 is provided. The number of times the game ball passes through the through gate 25 is reserved up to four times, and the number of reserved balls is displayed by lighting the second reservation light emitting part 36. - 特許庁It should be noted that the functions of the holding light emitting units 35 and 36 may be realized by display in a part of the pattern display device 31 .

遊技盤20には、レール部37が取り付けられており、当該レール部37により誘導レールが構成され、内枠において遊技盤20の下方に搭載された遊技球発射機構(図示略)から発射された遊技球が遊技領域の上部に案内されるようになっている。遊技球発射機構は、前扉枠14に設けられた発射ハンドル41が操作されることにより遊技球の発射動作が行われる。 A rail portion 37 is attached to the game board 20, and the rail portion 37 constitutes a guide rail. A game ball is guided to the upper part of the game area. The game ball shooting mechanism performs a game ball shooting operation by operating a shooting handle 41 provided on the front door frame 14 .

内枠の前面側全体を覆うようにして前扉枠14が設けられている。前扉枠14には、図1に示すように、遊技領域のほぼ全域を前方から視認することができるようにした窓部42が形成されている。窓部42は、略楕円形状をなし、図示しない窓パネルが嵌め込まれている。窓パネルは、ガラスによって無色透明に形成されているが、これに限定されることはなく合成樹脂によって無色透明に形成してもよい。 A front door frame 14 is provided so as to cover the entire front side of the inner frame. As shown in FIG. 1, the front door frame 14 is formed with a window portion 42 through which substantially the entire game area can be viewed from the front. The window portion 42 has a substantially elliptical shape and is fitted with a window panel (not shown). The window panel is made of transparent and colorless glass, but is not limited to this and may be made of transparent and colorless synthetic resin.

窓部42の周囲には、発光手段が設けられている。当該発光手段の一部として表示発光部44が窓部42の上方に設けられている。また、表示発光部44の左右両側には、遊技状態に応じた効果音などが出力されるスピーカ部45が設けられている。 Light emitting means is provided around the window portion 42 . A display light emitting portion 44 is provided above the window portion 42 as part of the light emitting means. Speaker units 45 are provided on both the left and right sides of the display light emitting unit 44 to output sound effects and the like according to the game state.

前扉枠14における窓部42の下方には、手前側へ膨出した上側膨出部46と下側膨出部47とが上下に並設されている。上側膨出部46内側には上方に開口した上皿46aが設けられており、下側膨出部47内側には同じく上方に開口した下皿47aが設けられている。上皿46aは、後述する払出装置より払い出された遊技球を一旦貯留し、一列に整列させながら遊技球発射機構側へ導くための機能を有する。また、下皿47aは、上皿46a内にて余剰となった遊技球を貯留する機能を有する。上皿46a及び下皿47aには、裏パックユニットに搭載された払出装置から払い出された遊技球が排出される。 Below the window portion 42 of the front door frame 14, an upper bulging portion 46 and a lower bulging portion 47, which bulge forward, are vertically arranged side by side. An upper plate 46a which opens upward is provided inside the upper bulging portion 46, and a lower plate 47a which likewise opens upward is provided inside the lower bulging portion 47. As shown in FIG. The upper plate 46a has a function of temporarily storing game balls paid out from a payout device, which will be described later, and guiding them to the game ball shooting mechanism side while aligning them in a line. In addition, the lower tray 47a has a function of storing surplus game balls in the upper tray 46a. Game balls paid out from a payout device mounted on the back pack unit are discharged to the upper tray 46a and the lower tray 47a.

上側膨出部46においてパチンコ機10前方を向く領域には、遊技者により手動操作される操作部を具備する演出用操作装置48が設けられている。演出用操作装置48の操作部は、図柄表示装置31の表示面Gなどにおける演出内容を所定の演出内容とするために遊技者により手動操作される。 In the area facing the front of the pachinko machine 10 in the upper bulging portion 46, there is provided an operation device 48 for presentation having an operation portion manually operated by the player. The operation unit of the operation device for effect 48 is manually operated by the player to set the effect content on the display surface G of the pattern display device 31 to predetermined effect content.

内枠の背面側には、主制御装置と、音声発光制御装置と、表示制御装置とが搭載されている。また、内枠の背面に対しては既に説明したとおり裏パックユニットが設けられており、当該裏パックユニットには、払出装置を含む払出機構部と、払出制御装置と、電源及び発射制御装置とが搭載されている。以下、パチンコ機10の電気的な構成について説明する。 A main control device, a sound emission control device, and a display control device are mounted on the back side of the inner frame. In addition, as already explained, a back pack unit is provided on the back of the inner frame, and the back pack unit includes a payout mechanism including a payout device, a payout control device, a power supply and a firing control device. is installed. The electrical configuration of the pachinko machine 10 will be described below.

<パチンコ機10の電気的構成>
図4は、パチンコ機10の基本的な電気的構成を示すブロック図である。
<Electrical Configuration of Pachinko Machine 10>
FIG. 4 is a block diagram showing the basic electrical configuration of the pachinko machine 10. As shown in FIG.

<主制御装置50>
主制御装置50は、遊技の主たる制御を司る主制御基板51を具備している。なお、主制御装置50において主制御基板51などを収容する基板ボックスに対して、その開放の痕跡を残すための痕跡手段を付与する又はその開放の痕跡を残すための痕跡構造を設けておくようにしてもよい。当該痕跡手段としては、基板ボックスを構成する複数のケース体を分離不能に結合するとともにその分離に際して所定部位の破壊を要する結合部(カシメ部)の構成や、引き剥がしにして粘着層が接着対象に残ることで剥がされたことの痕跡を残す封印シールを複数のケース体間の境界を跨ぐようにして貼り付ける構成が考えられる。また、痕跡構造としては、基板ボックスを構成する複数のケース体間の境界に対して接着剤を塗布する構成が考えられる。
<Main controller 50>
The main control device 50 has a main control board 51 that controls the main game. In the main controller 50, the board box housing the main control board 51 and the like may be provided with a trace means for leaving a trace of its opening or a trace structure for leaving a trace of its opening. can be As the trace means, a plurality of case bodies constituting the board box are inseparably connected, and the structure of the connecting part (crimped part) that requires destruction of a predetermined part when separating, and the adhesive layer that is to be adhered by peeling it off. A configuration is conceivable in which a sealing seal that leaves a trace of being peeled off by remaining on the case body is attached so as to straddle the boundary between the plurality of case bodies. Further, as the trace structure, a structure in which an adhesive is applied to the boundary between a plurality of case bodies forming the board box is conceivable.

主制御基板51には、MPU52が搭載されている。MPU52には、当該MPU52により実行される各種の制御プログラムや固定値データを記憶したROM53と、そのROM53内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM54と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。 An MPU 52 is mounted on the main control board 51 . The MPU 52 includes a ROM 53 storing various control programs and fixed value data to be executed by the MPU 52, and a memory for temporarily storing various data when executing the control programs stored in the ROM 53. A RAM 54, an interrupt circuit, a timer circuit, a data input/output circuit, various counter circuits as a random number generator, etc. are incorporated.

なお、ROM53として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM53と、RAM54とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。 As the ROM 53, memory means (that is, non-volatile memory means) is used, which allows random access when reading the control program and fixed value data and does not require external power supply for memory retention. In addition, the configuration in which the control and calculation portion, the ROM 53, and the RAM 54 are integrated into one chip is not essential, and each function may be implemented as a separate chip, and some functions may be implemented as separate chips. It is good also as the structure mounted.

MPU52には、入力ポート及び出力ポートがそれぞれ設けられている。MPU52の入力側には、電源及び発射制御装置57が接続されている。電源及び発射制御装置57は、例えば、遊技場等における商用電源(外部電源)に接続されている。そして、その商用電源から供給される外部電力に基づいて主制御基板51に対して各々に必要な動作電力を生成するとともに、その生成した動作電力を供給する。ちなみに、当該動作電力は主制御基板51だけでなく、払出制御装置55や後述する表示制御装置130といった他の機器にも供給される。 The MPU 52 is provided with an input port and an output port. A power supply and launch control device 57 is connected to the input side of the MPU 52 . The power supply and launch control device 57 is connected to, for example, a commercial power supply (external power supply) in a game arcade or the like. Then, based on the external power supplied from the commercial power source, the main control board 51 generates operating power necessary for each, and supplies the generated operating power. Incidentally, the operating power is supplied not only to the main control board 51 but also to other devices such as the payout control device 55 and the display control device 130 which will be described later.

なお、MPU52と電源及び発射制御装置57との電力経路上に停電監視基板を設けてもよい。この場合、当該停電監視基板により停電の発生が監視され、停電の発生が確認された場合にはMPU52に対して停電信号が送信されるようにすることで、MPU52において停電時用の処理を実行することが可能となる。 A power failure monitoring board may be provided on the power path between the MPU 52 and the power supply and launch control device 57 . In this case, the occurrence of a power failure is monitored by the power failure monitoring board, and when the occurrence of a power failure is confirmed, a power failure signal is sent to the MPU 52, so that the MPU 52 executes processing for power failure. It becomes possible to

また、MPU52の入力側には、図示しない各種センサが接続されている。当該各種センサの一部として、一般入賞口21、可変入賞装置22、上作動口23、下作動口24及びスルーゲート25といった入賞対応入球部に対して1対1で設けられた検知センサが含まれており、MPU52において各入球部への入賞判定(入球判定)が行われる。また、MPU52では上作動口23及び下作動口24への入賞に基づいて大当たり発生抽選及び大当たり結果種別抽選を実行するとともに、各遊技回のリーチ発生抽選や表示継続期間の決定抽選を実行する。 Various sensors (not shown) are connected to the input side of the MPU 52 . As a part of the various sensors, there are detection sensors provided one-to-one with respect to the ball-entering portions corresponding to the winning such as the general winning port 21, the variable winning device 22, the upper operating port 23, the lower operating port 24 and the through gate 25. The MPU 52 makes a winning judgment (ball entry judgment) for each ball entry section. In addition, the MPU 52 executes a jackpot generation lottery and a jackpot result type lottery based on winnings to the upper operation port 23 and the lower operation port 24, and executes a reach generation lottery and a display duration determination lottery for each game round.

ここで、MPU52にて各種抽選を行うための構成について説明する。 Here, a configuration for performing various lotteries in the MPU 52 will be described.

MPU52は遊技に際し各種カウンタ情報を用いて、大当たり発生抽選、メイン表示部33の表示の設定、図柄表示装置31の図柄表示の設定、役物用表示部34の表示の設定などを行うこととしており、具体的には、図5に示すように、大当たり発生抽選に使用する大当たり乱数カウンタC1と、確変大当たり結果や通常大当たり結果等の大当たり種別を判定する際に使用する大当たり種別カウンタC2と、図柄表示装置31が外れ変動する際のリーチ発生抽選に使用するリーチ乱数カウンタC3と、大当たり乱数カウンタC1の初期値設定に使用する乱数初期値カウンタCINIと、メイン表示部33及び図柄表示装置31における変動表示時間を決定する変動種別カウンタCSとを用いることとしている。さらに、下作動口24の電動役物24aを電役開放状態とするか否かの抽選に使用する電動役物開放カウンタC4を用いることとしている。 During the game, the MPU 52 uses various types of counter information to set the lottery for the occurrence of big wins, set the display of the main display unit 33, set the display of symbols of the symbol display device 31, set the display of the display unit 34 for accessories, and the like. Specifically, as shown in FIG. 5, a jackpot random number counter C1 used for the jackpot generation lottery, a jackpot type counter C2 used when judging jackpot types such as probability variable jackpot results and normal jackpot results, and symbols. A reach random number counter C3 used for a reach generation lottery when the display device 31 fluctuates, a random number initial value counter CINI used for setting the initial value of the jackpot random number counter C1, and fluctuations in the main display part 33 and the pattern display device 31 A variation type counter CS that determines the display time is used. Further, an electric accessory release counter C4 is used for lottery to determine whether or not the electric accessory 24a of the lower operating port 24 is to be in the electric role open state.

各カウンタC1~C3,CINI,CS,C4は、その更新の都度前回値に1が加算され、最大値に達した後0に戻るループカウンタとなっている。各カウンタは短時間間隔で更新され、その更新値がRAM54の所定領域に設定された抽選カウンタ用バッファ54aに適宜格納される。このうち抽選カウンタ用バッファ54aにおいて、大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3に対応した情報は、上作動口23又は下作動口24への入賞が発生した場合に、取得情報記憶手段としての保留球格納エリア54bに格納される。 Each of the counters C1 to C3, CINI, CS, and C4 is a loop counter that adds 1 to the previous value each time it is updated and returns to 0 after reaching the maximum value. Each counter is updated at short time intervals, and the updated value is appropriately stored in a lottery counter buffer 54 a set in a predetermined area of the RAM 54 . Among them, in the lottery counter buffer 54a, the information corresponding to the jackpot random number counter C1, the jackpot type counter C2, and the reach random number counter C3 is stored when a prize is won in the upper operation port 23 or the lower operation port 24. It is stored in the reserved ball storage area 54b as means.

保留球格納エリア54bは、保留用エリアREと、実行エリアAEとを備えている。保留用エリアREは、第1保留エリアRE1、第2保留エリアRE2、第3保留エリアRE3及び第4保留エリアRE4を備えており、上作動口23又は下作動口24への入賞履歴に合わせて、抽選カウンタ用バッファ54aに格納されている大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報が保留情報として、いずれかの保留エリアRE1~RE4に格納される。 The reserved ball storage area 54b includes a reserved area RE and an execution area AE. The reservation area RE includes a first reservation area RE1, a second reservation area RE2, a third reservation area RE3 and a fourth reservation area RE4. , Each numerical value information of the jackpot random number counter C1, the jackpot type counter C2 and the reach random number counter C3 stored in the lottery counter buffer 54a is stored as reserved information in one of the reserved areas RE1 to RE4.

この場合、第1保留エリアRE1~第4保留エリアRE4には、上作動口23又は下作動口24への入賞が複数回連続して発生した場合に、第1保留エリアRE1→第2保留エリアRE2→第3保留エリアRE3→第4保留エリアRE4の順に各数値情報が時系列的に格納されていく。このように4つの保留エリアRE1~RE4が設けられていることにより、上作動口23又は下作動口24への遊技球の入賞履歴が最大4個まで保留記憶されるようになっている。また、保留用エリアREは、保留数記憶エリアNAを備えており、当該保留数記憶エリアNAには上作動口23又は下作動口24への入賞履歴を保留記憶している数を特定するための情報が格納される。 In this case, in the first reservation area RE1 to the fourth reservation area RE4, when the winning to the upper operation port 23 or the lower operation port 24 occurs multiple times in succession, the first reservation area RE1 → the second reservation area Each numerical value information is stored chronologically in the order of RE2→third reservation area RE3→fourth reservation area RE4. By providing the four reservation areas RE1 to RE4 in this manner, up to four winning histories of game balls to the upper operation port 23 or the lower operation port 24 are reserved and stored. In addition, the reservation area RE is provided with a reservation number storage area NA, and in the reservation number storage area NA, for specifying the number of pending storage of winning history to the upper operation opening 23 or the lower operation opening 24 information is stored.

なお、保留記憶可能な数は、4個に限定されることはなく任意であり、2個、3個又は5個以上といったように他の複数であってもよく、単数であってもよい。 It should be noted that the number that can be retained and stored is not limited to four, and may be any number, such as two, three, or five or more, or may be singular.

実行エリアAEは、メイン表示部33の変動表示を開始する際に、保留用エリアREの第1保留エリアRE1に格納された各値を移動させるためのエリアであり、1遊技回の開始に際しては実行エリアAEに記憶されている各種数値情報に基づいて、当否判定などが行われる。 The execution area AE is an area for moving each value stored in the first reservation area RE1 of the reservation area RE when starting the variable display on the main display section 33. Based on the various numerical information stored in the execution area AE, determination of success or failure is performed.

上記各カウンタについて詳細に説明する。 Each of the above counters will be described in detail.

各カウンタについて詳しくは、大当たり乱数カウンタC1は、例えば0~599の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。特に大当たり乱数カウンタC1が1周した場合、その時点の乱数初期値カウンタCINIの値が当該大当たり乱数カウンタC1の初期値として読み込まれる。なお、乱数初期値カウンタCINIは、大当たり乱数カウンタC1と同様のループカウンタである(値=0~599)。大当たり乱数カウンタC1は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 For details of each counter, the jackpot random number counter C1 is, for example, incremented by one within the range of 0 to 599, and returns to 0 after reaching the maximum value. In particular, when the jackpot random number counter C1 makes one round, the value of the random number initial value counter CINI at that time is read as the initial value of the jackpot random number counter C1. The random number initial value counter CINI is a loop counter similar to the jackpot random number counter C1 (value = 0 to 599). The jackpot random number counter C1 is periodically updated, and is stored in the reserved ball storage area 54b at the timing when the game ball enters the upper operation opening 23 or the lower operation opening 24.例文帳に追加

大当たり当選となる乱数の値は、ROM53における当否情報群記憶手段としての当否テーブル記憶エリアに当否テーブルとして記憶されている。当否テーブルとしては、低確率モード用の当否テーブルと、高確率モード用の当否テーブルとが設定されている。つまり、本パチンコ機10は、当否抽選手段における抽選モードとして、低確率モードと高確率モードとが設定されている。 The value of the random number for winning the jackpot is stored as a success/failure table in a success/failure table storage area as success/failure information group storage means in the ROM 53 . As the success/failure table, a success/failure table for the low-probability mode and a success/failure table for the high-probability mode are set. In other words, the pachinko machine 10 has a low-probability mode and a high-probability mode set as the lottery mode in the win/fail lottery means.

上記抽選に際して低確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は2個である。一方、上記抽選に際して高確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は20個である。なお、低確率モードよりも高確率モードの方の当選確率が高くなるのであれば、上記当選となる乱数の数は任意である。 Under the game state in which the success/failure table for the low-probability mode is referred to in the lottery, the number of random numbers for winning the jackpot is two. On the other hand, under the gaming state in which the success/failure table for the high-probability mode is referred to in the lottery, the number of random numbers that will win the jackpot is twenty. As long as the probability of winning is higher in the high-probability mode than in the low-probability mode, the number of random numbers for winning is arbitrary.

大当たり種別カウンタC2は、0~29の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。大当たり種別カウンタC2は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 The jackpot type counter C2 is incremented by 1 in order within the range of 0 to 29, and returns to 0 after reaching the maximum value. The jackpot type counter C2 is periodically updated, and stored in the reserved ball storage area 54b at the timing when the game ball wins the upper operation opening 23 or the lower operation opening 24. - 特許庁

本パチンコ機10では、複数の大当たり結果が設定されている。これら複数の大当たり結果は、(1)開閉実行モードにおける可変入賞装置22の開閉制御の態様、(2)開閉実行モード終了後の当否抽選手段における抽選モード、(3)開閉実行モード終了後の下作動口24の電動役物24aにおけるサポートモード、という3つの条件に差異を設けることにより、複数の大当たり結果が設定されている。 In this pachinko machine 10, a plurality of jackpot results are set. The results of these multiple jackpots are (1) the mode of opening/closing control of the variable prize winning device 22 in the opening/closing execution mode, (2) the lottery mode in the win/fail lottery means after the opening/closing execution mode ends, and (3) the bottom after the opening/closing execution mode ends. A plurality of jackpot results are set by providing a difference in the three conditions of the support mode in the electric accessory 24a of the operation port 24.

開閉実行モードにおける可変入賞装置22の開閉制御の態様としては、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が相対的に高低となるように高頻度入賞モードと低頻度入賞モードとが設定されている。具体的には、高頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が15回(高頻度用回数)行われるとともに、1回の開放は30sec(高頻度時間)が経過するまで又は大入賞口22aへの入賞個数が10個(高頻度個数)となるまで継続される。一方、低頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が2回(低頻度用回数)行われるとともに、1回の開放は0.2sec(低頻度時間)が経過するまで又は大入賞口22aへの入賞個数が6個(低頻度個数)となるまで継続される。 As a mode of opening/closing control of the variable winning device 22 in the opening/closing execution mode, the frequency of occurrence of winning of the variable winning device 22 is relatively high from the start to the end of the opening/closing execution mode. A frequency winning mode and a low frequency winning mode are set. Specifically, in the high frequency winning mode, the opening and closing of the large winning opening 22a is performed 15 times (high frequency number of times) from the start to the end of the opening and closing execution mode, and one opening takes 30 seconds (high frequency time). ) has passed, or until the number of winning prizes in the big winning opening 22a reaches 10 (high frequency number). On the other hand, in the low frequency winning mode, from the start to the end of the opening and closing execution mode, the large winning opening 22a is opened and closed twice (the number of times for low frequency), and one opening is 0.2 sec (low frequency time). or until the number of winning prizes in the big winning opening 22a reaches 6 (low frequency number).

本パチンコ機10では、発射ハンドル41が遊技者により操作されている状況では、0.6secに1個の遊技球が遊技領域に向けて発射されるように遊技球発射機構58が駆動制御される。これに対して、低頻度入賞モードでは、上記のとおり1回の大入賞口22aの開放時間は0.2secとなっている。つまり、低頻度入賞モードでは、遊技球の発射周期よりも1回の大入賞口22aの開放時間が短くなっている。したがって、低頻度入賞モードにかかる開閉実行モードでは実質的に遊技球の入賞が発生しない。 In the pachinko machine 10, when the shooting handle 41 is operated by the player, the game ball shooting mechanism 58 is driven and controlled so that one game ball is shot toward the game area every 0.6 seconds. . On the other hand, in the low-frequency winning mode, the opening time of the big winning opening 22a once is 0.2 sec as described above. In other words, in the low-frequency winning mode, the opening time of the large winning opening 22a is shorter than the shooting cycle of the game ball. Therefore, substantially no winning of game balls occurs in the opening/closing execution mode associated with the low-frequency winning mode.

なお、高頻度入賞モード及び低頻度入賞モードにおける大入賞口22aの開閉回数、1回の開放に対する開放制限時間及び1回の開放に対する開放制限個数は、高頻度入賞モードの方が低頻度入賞モードよりも、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が高くなるのであれば、上記の値に限定されることはなく任意である。具体的には、高頻度入賞モードの方が低頻度入賞モードよりも、開閉回数が多い、1回の開放に対する開放制限時間が長い又は1回の開放に対する開放制限個数が多く設定されていればよい。 In the high frequency winning mode and the low frequency winning mode, the number of openings and closings of the large winning port 22a, the opening limit time for one opening, and the opening limit number for one opening are higher in the high frequency winning mode than in the low frequency winning mode. However, as long as the frequency of winning to the variable winning device 22 increases from the start to the end of the opening/closing execution mode, the value is not limited to the above value and is arbitrary. Specifically, if the high frequency winning mode has more opening and closing times than the low frequency winning mode, the opening limit time for one opening is longer, or the number of opening limits for one opening is set larger good.

但し、高頻度入賞モードと低頻度入賞モードとの間での特典の差異を明確にする上では、低頻度入賞モードにかかる開閉実行モードでは、実質的に可変入賞装置22への入賞が発生しない構成とするとよい。例えば、高頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも短く設定する一方、低頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも長く設定する構成としてもよい。また、遊技球の発射間隔及び1回の大入賞口22aの開放時間が上記のものでなかったとしても、低頻度入賞モードでは、前者よりも後者の方が短くなるように設定することで、実質的に可変入賞装置22への入賞が発生しない構成を容易に実現することができる。 However, in order to clarify the difference in benefits between the high-frequency winning mode and the low-frequency winning mode, in the opening and closing execution mode related to the low-frequency winning mode, substantially no winning to the variable winning device 22 occurs. configuration. For example, in the high-frequency winning mode, the product of the firing cycle of the game ball and the limited number of openings is set shorter than the opening time limit for one opening, while in the low-frequency winning mode, for one opening, It is also possible to set the product of the game ball launch cycle and the number of opening limits to be longer than the opening limit time. Also, even if the shooting interval of the game ball and the opening time of the big winning hole 22a once are not the above, in the low frequency winning mode, by setting the latter to be shorter than the former, It is possible to easily realize a configuration in which substantially no winning to the variable winning device 22 occurs.

下作動口24の電動役物24aにおけるサポートモードとしては、遊技領域に対して同様の態様で遊技球の発射が継続されている状況で比較した場合に、下作動口24の電動役物24aが単位時間当たりに開放状態となる頻度が相対的に高低となるように、低頻度サポートモード(低頻度サポート状態又は低頻度ガイド状態)と高頻度サポートモード(高頻度サポート状態又は高頻度ガイド状態)とが設定されている。 As the support mode for the electric accessory 24a of the lower operating port 24, when compared in a situation where the game ball is continuously shot in the same manner to the game area, the electric accessory 24a of the lower operating port 24 is Low-frequency support mode (low-frequency support state or low-frequency guide state) and high-frequency support mode (high-frequency support state or high-frequency guide state) so that the frequency of opening states per unit time is relatively high or low. and are set.

具体的には、低頻度サポートモードと高頻度サポートモードとでは、電動役物開放カウンタC4を用いた電動役物開放抽選における電役開放状態当選となる確率は同一(例えば、共に4/5)となっているが、高頻度サポートモードでは低頻度サポートモードよりも、電役開放状態当選となった際に電動役物24aが開放状態となる回数が多く設定されており、さらに1回の開放時間が長く設定されている。この場合、高頻度サポートモードにおいて電役開放状態当選となり電動役物24aの開放状態が複数回発生する場合において、1回の開放状態が終了してから次の開放状態が開始されるまでの閉鎖時間は、1回の開放時間よりも短く設定されている。さらにまた、高頻度サポートモードでは低頻度サポートモードよりも、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で最低限確保される確保時間として短い時間が選択されるように設定されている。 Specifically, in the low frequency support mode and the high frequency support mode, the probability of winning the electric role open state in the electric role product opening lottery using the electric role product opening counter C4 is the same (for example, both are 4/5). However, in the high-frequency support mode, the number of times the electric accessory 24a is in the open state when the electric role open state is won is set more than in the low-frequency support mode. A long time is set. In this case, in the high-frequency support mode, when the electric role open state is won and the open state of the electric accessory 24a occurs multiple times, the closing from the end of one open state to the start of the next open state The time is set shorter than one opening time. Furthermore, in the high-frequency support mode, the minimum time required for the next electric accessory open lottery after one electric accessory open lottery is performed is shorter than the low-frequency support mode. is set to be selected.

上記のように高頻度サポートモードでは、低頻度サポートモードよりも下作動口24への入賞が発生する確率が高くなる。換言すれば、低頻度サポートモードでは、下作動口24よりも上作動口23への入賞が発生する確率が高くなるが、高頻度サポートモードでは、上作動口23よりも下作動口24への入賞が発生する確率が高くなる。そして、下作動口24への入賞が発生した場合には、所定個数の遊技球の払出が実行されるため、高頻度サポートモードでは、遊技者は持ち球をあまり減らさないようにしながら遊技を行うことができる。 As described above, in the high-frequency support mode, the probability of winning the lower operation opening 24 is higher than in the low-frequency support mode. In other words, in the low frequency support mode, the probability of winning the upper working port 23 is higher than the lower working port 24, but in the high frequency support mode, the lower working port 24 is more likely to be won than the upper working port 23. Higher chance of winning. When a prize is awarded to the lower operation port 24, a predetermined number of game balls are paid out, so in the high-frequency support mode, the player plays the game while not reducing the number of balls he has. be able to.

なお、高頻度サポートモードを低頻度サポートモードよりも単位時間当たりに電役開放状態となる頻度を高くする上での構成は、上記のものに限定されることはなく、例えば電動役物開放抽選における電役開放状態当選となる確率を高くする構成としてもよい。また、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間(例えば、スルーゲート25への入賞に基づき役物用表示部34にて実行される変動表示の時間)が複数種類用意されている構成においては、高頻度サポートモードでは低頻度サポートモードよりも、短い確保時間が選択され易い又は平均の確保時間が短くなるように設定されていてもよい。さらには、開放回数を多くする、開放時間を長くする、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間を短くする(すなわち、役物用表示部34における1回の変動表示時間を短くする)、係る確保時間の平均時間を短くする及び当選確率を高くするのうち、いずれか1条件又は任意の組み合わせの条件を適用することで、低頻度サポートモードに対する高頻度サポートモードの有利性を高めてもよい。 In addition, the configuration for making the high frequency support mode more frequent than the low frequency support mode to be in the electric role open state per unit time is not limited to the above. It may be configured to increase the probability of winning the electric role open state. In addition, after one electric accessory open lottery is performed, the time secured for the next electric accessory open lottery is performed (for example, based on the winning of the through gate 25, the accessory display unit 34 In a configuration where multiple types of variable display time are prepared, high-frequency support mode is set so that a shorter reserved time is more likely to be selected than low-frequency support mode, or the average reserved time is shorter. may have been Furthermore, the number of times of opening is increased, the opening time is lengthened, and the secured time secured when the next electric accessory open lottery is performed after one electric accessory open lottery is performed (that is, , shortening the variable display time for one time on the character product display unit 34), shortening the average time of the securing time, and increasing the winning probability, any one condition or any combination of conditions is applied. This may increase the advantage of the high-frequency support mode over the low-frequency support mode.

大当たり種別カウンタC2に対する遊技結果の振分先は、ROM53における振分情報群記憶手段としての振分テーブル記憶エリアに振分テーブルとして記憶されている。そして、かかる振分先として、通常大当たり結果と、明示2R確変大当たり結果と、15R確変大当たり結果とが設定されている。 The distribution destination of the game result for the jackpot type counter C2 is stored as a distribution table in a distribution table storage area as distribution information group storage means in the ROM53. And, as such a distribution destination, a normal jackpot result, an explicit 2R probability variable jackpot result, and a 15R probability variable jackpot result are set.

通常大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが低確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。但し、この高頻度サポートモードは、移行後において遊技回数が終了基準回数(具体的には、100回)に達した場合に低頻度サポートモードに移行する。換言すれば、通常大当たり結果は、通常大当たり状態(低確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。 The normal jackpot result is a jackpot result in which the opening/closing execution mode becomes a high-frequency prize winning mode, and after the opening/closing execution mode ends, the win/fail lottery mode becomes a low-probability mode and the support mode becomes a high-frequency support mode. However, this high-frequency support mode transitions to the low-frequency support mode when the number of games reaches the end reference number of times (specifically, 100 times) after transition. In other words, the normal jackpot result is a jackpot result that shifts the game state to the normal jackpot state (low-probability special game state).

明示2R確変大当たり結果は、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、明示2R確変大当たり結果は、明示2R確変大当たり状態(明示高確率対応遊技状態)へ遊技状態を移行させる大当たり結果である。 The explicit 2R probability variable jackpot result is a jackpot result in which the opening/closing execution mode becomes the low-frequency winning mode, and furthermore, after the opening/closing execution mode ends, the winner/failure lottery mode becomes the high-probability mode and the support mode becomes the high-frequency support mode. . These high-probability mode and high-frequency support mode are continued until the lottery result in the success/failure lottery results in a big-hit state winning, and the game shifts to a big-hit state. In other words, the explicit 2R probability variable jackpot result is a jackpot result that shifts the game state to the explicit 2R probability variable jackpot state (explicit high probability corresponding game state).

15R確変大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、15R確変大当たり結果は、15R確変大当たり状態(高確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。 The 15R probability variable jackpot result is a jackpot result in which the opening/closing execution mode becomes the high-frequency prize winning mode, and after the opening/closing execution mode ends, the winning/failure lottery mode becomes the high-probability mode and the support mode becomes the high-frequency support mode. These high-probability mode and high-frequency support mode are continued until the lottery result in the success/failure lottery results in a big-hit state winning, and the game shifts to a big-hit state. In other words, the 15R probability variable jackpot result is a jackpot result that shifts the game state to the 15R probability variable jackpot state (high probability special game state).

なお、上記各遊技状態との関係で通常遊技状態とは、当否抽選モードが低確率モードであり、サポートモードが低頻度サポートモードである状態をいう。 In relation to each game state described above, the normal game state refers to a state in which the lottery mode is the low probability mode and the support mode is the low frequency support mode.

振分テーブルでは、「0~29」の大当たり種別カウンタC2の値のうち、「0~9」が通常大当たり結果に対応しており、「10~14」が明示2R確変大当たり結果に対応しており、「15~29」が15R確変大当たり結果に対応している。 In the distribution table, among the values of the jackpot type counter C2 of "0 to 29", "0 to 9" correspond to the normal jackpot results, and "10 to 14" correspond to the explicit 2R probability variable jackpot results. , and "15 to 29" corresponds to the 15R probability variable jackpot result.

上記のように、確変大当たり結果として、明示2R確変大当たり結果が設定されていることにより、確変大当たり結果の態様が多様化する。すなわち、2種類の確変大当たり結果を比較した場合、遊技者にとっての有利度合いは、開閉実行モードにおいて高頻度入賞モードとなり且つサポートモードでは高頻度サポートモードとなる15R確変大当たり結果が最も高く、開閉実行モードにおいて低頻度入賞モードとなるもののサポートモードでは高頻度サポートモードとなる明示2R確変大当たり結果が最も低くなる。これにより、遊技の単調化が抑えられ、遊技への注目度を高めることが可能となる。 As described above, since the explicit 2R probability variable jackpot result is set as the probability variable jackpot result, the aspect of the probability variable jackpot result is diversified. That is, when comparing the two types of variable probability jackpot results, the degree of advantage for the player is the highest for the 15R probability variable jackpot result, which is the high frequency winning mode in the opening and closing execution mode and the high frequency support mode in the support mode, and the opening and closing execution. Although the low-frequency winning mode is the mode, the explicit 2R probability variable jackpot result, which is the high-frequency support mode, is the lowest in the support mode. As a result, the monotony of the game can be suppressed, and it is possible to increase the degree of attention to the game.

なお、確変大当たり結果の一種として、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードがそれまでのモードに維持されることとなる非明示2R確変大当たり結果(非明示高確率対応遊技結果又は潜伏確変状態となる結果)が含まれていてもよい。この場合、確変大当たり結果のさらなる多様化が図られる。 As a kind of probability variable jackpot result, the opening/closing execution mode becomes the low-frequency winning mode, and after the opening/closing execution mode ends, the win/loss lottery mode becomes the high-probability mode, and the support mode is maintained as it was before. A different non-explicit 2R probability variable jackpot result (non-explicit high probability corresponding game result or result of latent probability variable state) may be included. In this case, further diversification of the probability variable jackpot results is achieved.

さらにまた、当否抽選における外れ結果の一種として、低頻度入賞モードの開閉実行モードに移行するとともに、その終了後において当否抽選モード及びサポートモードの移行が発生しない特別外れ結果が含まれていてもよい。上記のような非明示2R確変大当たり結果と当該特別外れ結果との両方が設定されている構成においては、開閉実行モードが低頻度入賞モードに移行すること、及びサポートモードがそれまでのモードに維持されることで共通しているのに対して、当否抽選モードの移行態様が異なっていることにより、例えば通常遊技状態において非明示2R確変大当たり結果又は特別外れ結果の一方が発生した場合に、それが実際にいずれの結果に対応しているのかを遊技者に予測させることが可能となる。 Furthermore, as a kind of loss result in the success/failure lottery, there may be included a special failure result in which transition to the open/close execution mode of the low-frequency winning mode and transition to the success/failure lottery mode and the support mode do not occur after the transition to the open/close execution mode of the low-frequency winning mode. . In the configuration in which both the non-explicit 2R probability variable jackpot result and the special loss result as described above are set, the opening and closing execution mode shifts to the low frequency winning mode, and the support mode is maintained in the previous mode. On the other hand, due to the difference in the transition mode of the winning lottery mode, for example, in the normal game state, if one of the non-expressed 2R probability variable jackpot result or the special loss result occurs, it It is possible to allow the player to predict which outcome actually corresponds to.

リーチ乱数カウンタC3は、例えば0~238の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。リーチ乱数カウンタC3は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。 The reach random number counter C3 is configured such that it is incremented by 1 in order within the range of 0 to 238, for example, and returns to 0 after reaching the maximum value. The reach random number counter C3 is periodically updated, and is stored in the reserved ball storage area 54b at the timing when the game ball enters the upper operation opening 23 or the lower operation opening 24. - 特許庁

ここで、本パチンコ機10には、図柄表示装置31における表示演出の一種として期待演出が設定されている。期待演出とは、図柄の変動表示を行うことが可能な図柄表示装置31を備え、開閉実行モードが高頻度入賞モードとなる遊技回では変動表示後の停止表示結果が特別表示結果となる遊技機において、図柄表示装置31における図柄の変動表示が開始されてから停止表示結果が導出表示される前段階で、前記特別表示結果となり易い変動表示状態であると遊技者に思わせるための表示状態をいう。 Here, in the pachinko machine 10, an expected effect is set as a kind of display effect in the pattern display device 31. - 特許庁The expected effect is a game machine equipped with a pattern display device 31 capable of performing variable display of patterns, and in a game cycle in which the opening and closing execution mode is a high-frequency winning mode, the stop display result after the variable display is a special display result. In the stage before the stop display result is derived and displayed after the pattern display device 31 starts the variable display of the symbols, the display state is set to make the player think that the variable display state is likely to result in the special display result. say.

期待演出には、上記リーチ表示と、当該リーチ表示が発生する前段階などにおいてリーチ表示の発生や特別表示結果の発生を期待させるための予告表示との2種類が設定されている。 There are two types of expectation effects: the ready-to-win display and an advance notice display for expecting the occurrence of the ready-to-win display and the special display result in a stage before the occurrence of the ready-to-win display.

リーチ表示には、図柄表示装置31の表示面Gに表示される複数の図柄列のうち一部の図柄列について図柄を停止表示させることで、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性があるリーチ図柄の組み合わせを表示し、その状態で残りの図柄列において図柄の変動表示を行う表示状態が含まれる。また、上記のようにリーチ図柄の組み合わせを表示した状態で、残りの図柄列において図柄の変動表示を行うとともに、その背景画像において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものや、リーチ図柄の組み合わせを縮小表示させる又は非表示とした上で、表示面の略全体において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものが含まれる。 In the ready-to-win display, a combination of jackpot patterns corresponding to the occurrence of the high-frequency winning mode is achieved by stopping and displaying the patterns of some of the plurality of pattern strings displayed on the display surface G of the pattern display device 31.例文帳に追加A display state is included in which a combination of ready-to-win symbols with which there is a possibility of being established is displayed, and in that state, symbols are displayed in a variable manner in the remaining symbol rows. In addition, in a state in which the combinations of ready-to-win patterns are displayed as described above, the symbols in the remaining pattern rows are variably displayed, and a predetermined character or the like is displayed as a moving image in the background image to perform a ready-to-win effect. , after reducing or hiding the combination of the ready-to-win pattern, a predetermined character or the like is displayed as a moving image on substantially the entire display surface to perform the ready-to-win effect.

図柄の変動表示に係るリーチ表示について具体的には、図柄の変動表示を終了させる前段階として、図柄表示装置31の表示面内の予め設定された有効ライン上に、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性のあるリーチ図柄の組み合わせを停止表示させることによりリーチラインを形成させ、当該リーチラインが形成されている状況下において最終停止図柄列により図柄の変動表示を行うことである。 Specifically, for the ready-to-win display related to the variable display of symbols, as a step before ending the variable display of symbols, on a preset effective line in the display surface of the symbol display device 31, to generate a high frequency winning mode A ready-to-win line is formed by stop-displaying a combination of ready-to-win patterns in which there is a possibility that a combination of corresponding jackpot patterns will be established. is to do.

図3の表示内容について具体的に説明すると、最初に上段の図柄列SA1において図柄の変動表示が終了され、さらに下段の図柄列SA3において図柄の変動表示が終了された状態において、いずれかの有効ラインL1~L5に同一の数字が付された主図柄が停止表示されることでリーチラインが形成され、当該リーチラインが形成されている状況化において中段の図柄列SA2において図柄の変動表示が行われることでリーチ表示となる。そして、高頻度入賞モードが発生する場合には、リーチラインを形成している主図柄と同一の数字が付された主図柄がリーチライン上に停止表示されるようにして中段の図柄列SA2における図柄の変動表示が終了される。 Specifically, the display contents of FIG. 3 will be described. A reach line is formed by stop-displaying the main symbols having the same number on the lines L1 to L5, and in a situation where the reach line is formed, the symbols are displayed in a variable manner in the middle symbol row SA2. It becomes a reach display by being drawn. When the high-frequency winning mode occurs, the main symbols having the same number as the main symbols forming the reach line are stopped and displayed on the reach line in the middle symbol row SA2. The variable display of the symbol ends.

予告表示には、図柄表示装置31の表示面において図柄の変動表示が開始されてから、全ての図柄列SA1~SA3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列SA1~SA3上の図柄とは別にキャラクタを表示させる態様が含まれる。また、背景画像をそれまでの態様とは異なる所定の態様とするものや、図柄列SA1~SA3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。かかる予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示の行われる場合の方がリーチ表示の行われない場合よりも高確率で発生するように設定されている。 In the advance notice display, after the start of the variable display of the symbols on the display surface of the symbol display device 31, the symbols are variably displayed in all of the symbol rows SA1 to SA3, or in some of the symbol rows. In a situation where symbols are variably displayed in a plurality of symbol rows, a mode is included in which a character is displayed separately from the symbols on the symbol rows SA1 to SA3. It also includes a background image in a predetermined mode different from the previous mode, and a pattern in the pattern rows SA1 to SA3 in a predetermined mode different from the previous mode. Such an advance notice display can occur in any game round when the reach display is performed or when the reach display is not performed, but the rate when the reach display is performed is higher than when the reach display is not performed. It is set to occur with probability.

リーチ表示は、高頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行され、低頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行されない。また、開閉実行モードに移行しない遊技回では、ROM53のリーチ用テーブル記憶エリアに記憶されたリーチ用テーブルを参照して、所定のタイミングで取得したリーチ乱数カウンタC3がリーチ表示の発生に対応している場合に実行される。一方、予告表示を行うか否かの決定は、主制御装置50において行うのではなく、音声発光制御装置60において行われる。 The ready-to-win display is executed regardless of the value of the ready-to-win random number counter C3 in the game times in which the opening/closing execution mode that is the high-frequency winning mode is entered, and the reach random number is displayed in the game times in which the opening/closing execution mode is the low-frequency winning mode. It is not executed regardless of the value of counter C3. In addition, in game rounds that do not shift to the open/close execution mode, the reach table stored in the reach table storage area of the ROM 53 is referenced, and the reach random number counter C3 obtained at a predetermined timing corresponds to the occurrence of the reach display. is executed if On the other hand, the decision as to whether or not to perform the advance notice display is made not by the main controller 50 but by the sound emission control device 60 .

変動種別カウンタCSは、例えば0~198の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。変動種別カウンタCSは、メイン表示部33における変動表示時間と、図柄表示装置31における図柄の変動表示時間とをMPU52において決定する上で用いられる。変動種別カウンタCSは、後述する通常処理が1回実行される毎に1回更新され、当該通常処理内の残余時間内でも繰り返し更新される。そして、メイン表示部33における変動表示の開始時及び図柄表示装置31による図柄の変動開始時における変動パターン決定に際して変動種別カウンタCSのバッファ値が取得される。なお、変動表示時間の決定に際しては、ROM53の変動表示時間テーブル記憶エリアに予め記憶されている変動表示時間テーブルが参照される。 The fluctuation type counter CS is configured to be incremented by 1 in order within the range of 0 to 198, for example, and return to 0 after reaching the maximum value. The variation type counter CS is used when the MPU 52 determines the variation display time on the main display section 33 and the variation display time of the pattern on the pattern display device 31 . The fluctuation type counter CS is updated once each time a normal process, which will be described later, is executed, and is repeatedly updated within the remaining time of the normal process. Then, the buffer value of the variation type counter CS is acquired when determining the variation pattern at the start of the variation display on the main display section 33 and at the start of the variation of the symbols by the symbol display device 31 . When determining the variable display time, a variable display time table stored in advance in the variable display time table storage area of the ROM 53 is referred to.

電動役物開放カウンタC4は、例えば、0~250の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。電動役物開放カウンタC4は定期的に更新され、スルーゲート25に遊技球が入賞したタイミングで電役保留エリア54cに格納される。そして、所定のタイミングにおいて、その格納された電動役物開放カウンタC4の値によって電動役物24aを開放状態に制御するか否かの抽選が行われる。 The electric accessary product release counter C4 is, for example, configured to be incremented one by one within the range of 0 to 250 and return to 0 after reaching the maximum value. The electric accessory release counter C4 is periodically updated, and stored in the electric role holding area 54c at the timing when the game ball wins the through gate 25. - 特許庁Then, at a predetermined timing, a lottery is performed as to whether or not to control the electric accessory 24a to the open state based on the stored value of the electric accessory release counter C4.

MPU52の出力側には、払出制御装置55が接続されているとともに、電源及び発射制御装置57が接続されている。払出制御装置55には、例えば、上記入賞対応入球部への入賞判定結果に基づいて賞球コマンドが送信される。払出制御装置55は、主制御装置50から受信した賞球コマンドに基づいて、払出装置56により賞球や貸し球の払出制御を行う。電源及び発射制御装置57には、発射ハンドル41が操作されていることに基づいて発射許可コマンドが送信される。電源及び発射制御装置57は、主制御装置50から受信した発射許可コマンドに基づいて、遊技球発射機構58を駆動させ遊技球を遊技領域に向けて発射させる。 The output side of the MPU 52 is connected with a payout control device 55 and a power source and a launch control device 57 . A prize ball command is transmitted to the payout control device 55, for example, based on the winning judgment result to the winning corresponding ball entering portion. The payout control device 55 controls the payout of prize balls and rental balls by the payout device 56 based on the prize ball command received from the main controller 50 . A firing permission command is transmitted to the power supply and firing control device 57 based on the fact that the firing handle 41 is being operated. The power supply and shooting control device 57 drives the game ball shooting mechanism 58 based on the shooting permission command received from the main control device 50 to shoot the game ball toward the game area.

また、MPU52の出力側には、メイン表示部33及び役物用表示部34が接続されており、これらメイン表示部33及び役物用表示部34の表示制御がMPU52により直接行われる。つまり、各遊技回に際しては、MPU52においてメイン表示部33の表示制御が実行される。また、電動役物24aを開放状態とするか否かの抽選結果を明示する場合に、MPU52において役物用表示部34の表示制御が実行される。 A main display section 33 and a character object display section 34 are connected to the output side of the MPU 52 , and display control of the main display section 33 and the character object display section 34 is directly performed by the MPU 52 . In other words, display control of the main display section 33 is executed in the MPU 52 at each game round. Further, when the lottery result as to whether or not to open the electric accessory 24a is specified, the display control of the accessory display unit 34 is executed in the MPU 52 .

また、MPU52の出力側には、可変入賞装置22の開閉扉22bを開閉動作させる可変入賞駆動部、及び下作動口24の電動役物24aを開閉動作させる電動役物駆動部が接続されている。つまり、開閉実行モードにおいては大入賞口22aが開閉されるように、MPU52において可変入賞駆動部の駆動制御が実行される。また、電動役物24aの開放状態当選となった場合には、電動役物24aが開閉されるように、MPU52において電動役物駆動部の駆動制御が実行される。 In addition, the output side of the MPU 52 is connected to a variable winning driving unit that opens and closes the open/close door 22b of the variable winning device 22 and an electric accessory driving unit that opens and closes the electric accessory 24a of the lower operation opening 24. . In other words, in the open/close execution mode, the MPU 52 executes drive control of the variable winning driving section so that the big winning opening 22a is opened and closed. Further, when the electric accessory 24a is won in the open state, the MPU 52 executes drive control of the electric accessory drive unit so that the electric accessory 24a is opened and closed.

また、MPU52の出力側には、音声発光制御装置60が接続されており、当該音声発光制御装置60に対して演出用の各種コマンドを送信する。 Further, the output side of the MPU 52 is connected to an audio emission control device 60, and various commands for effects are transmitted to the audio emission control device 60. FIG.

<主制御装置50のMPU52にて実行される処理>
次に、MPU52にて実行される処理について説明する。
<Processing Executed by MPU 52 of Main Control Unit 50>
Next, processing executed by the MPU 52 will be described.

MPU52は、電源の立ち上げ後において所定の遊技進行用処理を繰り返し実行する。本パチンコ機10では、当該遊技進行用処理として、第1の周期で繰り返し実行される通常処理と、第1の周期よりも短い第2の周期で起動され、通常処理に対して割り込んで実行されるタイマ割込み処理と、が設定されている。 The MPU 52 repeatedly executes a predetermined game progress process after the power is turned on. In the pachinko machine 10, as the game progress process, a normal process that is repeatedly executed in a first cycle and a second cycle that is started in a shorter cycle than the first cycle and executed by interrupting the normal process. and timer interrupt processing are set.

図6は、タイマ割込み処理を示すフローチャートである。なお、本処理はMPU52により定期的に(例えば2msec周期で)起動される。 FIG. 6 is a flowchart showing timer interrupt processing. It should be noted that this process is started by the MPU 52 periodically (for example, at intervals of 2 msec).

先ずステップS101では、読み込み処理を実行する。当該読み込み処理では、各種入賞検知センサの状態を読み込み、これら各種入賞検知センサの状態を判定して入賞検知情報を保存する処理を実行する。また、賞球の発生に対応した入賞検知センサにおいて遊技球の入賞が検知されている場合には、払出制御装置55に対して賞球の払い出し指示を行うための賞球コマンドを設定する。 First, in step S101, read processing is executed. In the reading process, the states of the various winning detection sensors are read, the states of the various winning detection sensors are determined, and the processing of storing the winning detection information is executed. Also, when the winning of the game ball is detected by the winning detection sensor corresponding to the generation of the winning ball, a winning ball command for instructing the payout control device 55 to pay out the winning ball is set.

続くステップS102では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。 In subsequent step S102, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is incremented by 1 and cleared to 0 when the counter value reaches the maximum value.

続くステップS103では、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4の更新を実行する。具体的には、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4をそれぞれ1加算すると共に、それらのカウンタ値が最大値に達した際それぞれ0にクリアする。 In the subsequent step S103, the jackpot random number counter C1, the jackpot type counter C2, the reach random number counter C3, and the electric accessory release counter C4 are updated. Specifically, the jackpot random number counter C1, the jackpot type counter C2, the reach random number counter C3, and the electric accessory release counter C4 are each incremented by 1, and cleared to 0 when those counter values reach the maximum value.

続くステップS104では、スルーゲート25への入賞に伴うスルー用の入賞処理を実行する。スルー用の入賞処理では、電役保留エリア54cに記憶されている役物保留記憶数が4未満であることを条件として、前記ステップS103にて更新した電動役物開放カウンタC4の値を電役保留エリア54cに格納する。 In the subsequent step S104, a prize-winning process for through accompanying the prize-winning to the through gate 25 is executed. In the win-through process, the value of the electric role product release counter C4 updated in step S103 is set to the value of the electric role product release counter C4 on condition that the number of stored role product reserves stored in the power reserve area 54c is less than 4. Store in the reservation area 54c.

その後、ステップS105にて、作動口23,24への入賞に伴う作動口用の入賞処理を実行する。作動口用の入賞処理では、上作動口23又は下作動口24への入賞が発生していた場合には、保留球格納エリア54bに記憶されている始動保留記憶数が上限数(例えば、「4」)未満であることを条件として、前記ステップS103にて更新した大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報を保留球格納エリア54bの保留用エリアREに格納する。この場合、保留用エリアREの空き保留エリアRE1~RE4のうち最初の保留エリア、すなわち現状の始動保留記憶数と対応する保留エリアに格納する。ステップS105の処理を実行した後に、本タイマ割込み処理を終了する。 After that, in step S105, the winning process for the working openings associated with the winning of the working openings 23 and 24 is executed. In the winning process for the working opening, if the winning to the upper working opening 23 or the lower working opening 24 has occurred, the number of start pending storage stored in the holding ball storage area 54b is the upper limit number (for example, " 4") On the condition that it is less than that, each numerical value information of the jackpot random number counter C1, the jackpot type counter C2 and the reach random number counter C3 updated in step S103 is stored in the holding area RE of the holding ball storage area 54b. . In this case, the data is stored in the first reserved area among the empty reserved areas RE1 to RE4 of the reserved area RE, that is, the reserved area corresponding to the current starting reservation storage number. After executing the process of step S105, the timer interrupt process is ended.

図7は、通常処理を示すフローチャートである。通常処理は電源投入に伴い起動されるメイン処理が実行された後に開始される処理である。その概要として、ステップS201~ステップS209の処理が4msec周期の処理として実行され、その残余時間でステップS210及びステップS211のカウンタ更新処理が実行される構成となっている。 FIG. 7 is a flowchart showing normal processing. The normal processing is processing that is started after the main processing that is activated upon power-on is executed. As an overview, the processing of steps S201 to S209 is executed as processing in a cycle of 4 msec, and the counter update processing of steps S210 and S211 is executed in the remaining time.

ステップS201では、タイマ割込み処理又は前回の通常処理で設定したコマンド等の出力データをサブ側の各制御装置に送信する。具体的には、賞球コマンドの有無を判定し、賞球コマンドが設定されていればそれを払出制御装置55に対して送信する。また、所定の演出用コマンドが設定されている場合にはそれを音声発光制御装置60に対して送信する。 In step S201, output data such as a command set in the timer interrupt process or the previous normal process is transmitted to each sub-side control device. Specifically, the presence or absence of the prize ball command is determined, and if the prize ball command is set, it is transmitted to the payout control device 55 . Moreover, when a predetermined command for effect is set, it is transmitted to the sound emission control device 60. - 特許庁

続くステップS202では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、カウンタ値が最大値に達した際にはカウンタ値を0にクリアする。 In subsequent step S202, the fluctuation type counter CS is updated. Specifically, 1 is added to the fluctuation type counter CS, and the counter value is cleared to 0 when the counter value reaches the maximum value.

続くステップS203では、各遊技回における遊技を制御するための遊技回制御処理を実行する。この遊技回制御処理では、大当たり判定、図柄表示装置31による図柄の変動表示の設定、及びメイン表示部33の表示制御などを行う。 In the following step S203, game round control processing for controlling the game in each game round is executed. In this game round control process, determination of a big hit, setting of variable display of symbols by the symbol display device 31, display control of the main display section 33, and the like are performed.

その後、ステップS204では、遊技状態を移行させるための遊技状態移行処理を実行する。遊技状態移行処理では、大当たり当選に対応した遊技回が終了している場合に開閉実行モードへの移行処理を実行し、可変入賞装置22の開閉処理を開始する。なお、開閉実行モードを開始する場合、開閉実行モード中、及び開閉実行モードを終了する場合などに、開閉実行モード用の各種コマンドを音声発光制御装置60に送信する。また、開閉実行モードが終了した場合には、当該モードの開始契機となった遊技回に係る大当たり種別に対応させて、当否抽選モードの移行やサポートモードの移行を実行する。 After that, in step S204, game state transition processing for shifting the game state is executed. In the game state transition processing, when the game round corresponding to the winning of the jackpot has ended, the transition processing to the opening/closing execution mode is executed, and the opening/closing processing of the variable winning device 22 is started. When starting the opening/closing execution mode, during the opening/closing execution mode, and when ending the opening/closing execution mode, various commands for the opening/closing execution mode are transmitted to the sound emission control device 60 . In addition, when the opening/closing execution mode ends, the transition to the win/fail lottery mode and the transition to the support mode are executed in correspondence with the jackpot type related to the game round that triggered the start of the mode.

続くステップS205では、デモ表示用処理を実行する。デモ表示用処理では、開閉実行モード中ではない状況で遊技回の終了後において新たな遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、0.1sec)が経過したか否かの判定処理を実行する。また、MPU52への電力供給が開始されてから又はパチンコ機10がリセットされてから、新たに遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、3sec)が経過したか否かの判定処理を実行する。そして、経過していると判定した場合には、デモ表示用のコマンドを音声発光制御装置60に送信する。 In the following step S205, a demonstration display process is executed. In the demonstration display processing, a predetermined start waiting period (for example, 0.1 sec) for the start of the demonstration elapses without a new game round being started after the game round is completed in a situation where the open/close execution mode is not in progress. A determination process is executed to determine whether or not the Also, after the power supply to the MPU 52 is started or the pachinko machine 10 is reset, a predetermined start waiting period (for example, 3 sec) for the start of the demonstration elapses without a new game round being started. A determination process is executed to determine whether or not the Then, when it is determined that the period has elapsed, a command for demonstration display is transmitted to the sound emission control device 60 .

なお、デモ表示とは、予め定められた開始待ち期間が経過している場合に、図柄表示装置31の表示面Gにて表示される開始待ち演出のことをいう。デモ画像では、図柄列SA1~SA3上に停止表示されている図柄が所定の動作を行っている画像が表示されるが、これに限定されることはなく、例えば、図柄が所定の動作を行っている画像の表示の後に又はそれに代えてメーカ名、機種名若しくは所定のキャラクタによる動画が表示される構成としてもよい。また、図柄列SA1~SA3上において変動表示される図柄のアニメーションによりデモ表示を行う構成においては、当該図柄として、直前の遊技回で最終停止表示された図柄を用いる構成としてもよい。この場合、デモ表示の多様化が図られる。 Note that the demo display is a start waiting effect displayed on the display surface G of the pattern display device 31 when a predetermined start waiting period has elapsed. In the demo image, an image is displayed in which the symbols stopped and displayed on the symbol rows SA1 to SA3 perform a predetermined action. After the display of the displayed image, or instead of the displayed image, a moving image of the manufacturer name, the model name, or a predetermined character may be displayed. In addition, in the configuration in which the demonstration display is performed by the animation of the symbols that are variably displayed on the symbol rows SA1 to SA3, the symbols that were finally stopped and displayed in the previous game cycle may be used as the symbols. In this case, the demonstration display can be diversified.

続くステップS206では、下作動口24に設けられた電動役物24aを駆動制御するための電役サポート用処理を実行する。この電役サポート用処理では、RAM54の電役保留エリア54cに格納されている情報を用いて電動役物24aを開放状態とするか否かの判定、電動役物24aの開閉処理及び役物用表示部34の表示制御などを行う。 In subsequent step S206, an electric support process for driving and controlling the electric accessory 24a provided in the lower working opening 24 is executed. In this electric service support process, the information stored in the electric service reservation area 54c of the RAM 54 is used to determine whether or not the electric role product 24a is in the open state, the opening/closing process of the electric role product 24a, and the electric role product processing. It performs display control of the display unit 34 and the like.

その後、ステップS207では、遊技球発射制御処理を実行する。遊技球発射制御処理では、電源及び発射制御装置57から発射許可信号を入力していることを条件として、所定期間(例えば、0.6sec)に1回、遊技球発射機構58のソレノイドを励磁する。これにより、遊技球が遊技領域に向けて打ち出される。 Thereafter, in step S207, game ball launch control processing is executed. In the game ball shooting control process, the solenoid of the game ball shooting mechanism 58 is energized once in a predetermined period (for example, 0.6 sec) on condition that a shooting permission signal is input from the power supply and shooting control device 57. . As a result, the game ball is launched toward the game area.

続くステップS208では、RAM54に電断フラグが格納されているか否かを判定する。電断フラグは、電断の発生が確認された場合に格納され、次回のメイン処理にて消去されるフラグである。 In the following step S208, it is determined whether or not the power interruption flag is stored in the RAM54. The power failure flag is a flag that is stored when the occurrence of power failure is confirmed and is erased in the next main process.

電断フラグが格納されていない場合は、繰り返し実行される複数の処理の最後の処理が終了したこととなるので、ステップS209にて次の通常処理の実行タイミングに至ったか否か、すなわち前回の通常処理の開始から所定時間(本実施の形態では4msec)が経過したか否かを判定する。そして、次の通常処理の実行タイミングに至るまでの残余時間内において、乱数初期値カウンタCINI及び変動種別カウンタCSの更新を繰り返し実行する。 If the power failure flag is not stored, it means that the last process of the plurality of processes to be repeatedly executed has been completed. It is determined whether or not a predetermined time (4 msec in this embodiment) has passed since the start of normal processing. Then, the random number initial value counter CINI and the fluctuation type counter CS are repeatedly updated within the remaining time until the execution timing of the next normal process.

つまり、ステップS210では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。また、ステップS211では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、それらのカウンタ値が最大値に達した際0にクリアする。 That is, in step S210, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is incremented by 1 and cleared to 0 when the counter value reaches the maximum value. Further, in step S211, the change type counter CS is updated. Specifically, the variation type counter CS is incremented by 1 and cleared to 0 when the counter values reach the maximum value.

ここで、ステップS201~S207の各処理の実行時間は遊技の状態に応じて変化するため、次の通常処理の実行タイミングに至るまでの残余時間は一定でなく変動する。故に、かかる残余時間を使用して乱数初期値カウンタCINIの更新を繰り返し実行することにより、乱数初期値カウンタCINI(すなわち、大当たり乱数カウンタC1の初期値)をランダムに更新することができ、同様に変動種別カウンタCSについてもランダムに更新することができる。 Here, since the execution time of each process of steps S201 to S207 changes according to the state of the game, the remaining time until the execution timing of the next normal process is not constant and fluctuates. Therefore, by repeatedly updating the random number initial value counter CINI using the remaining time, the random number initial value counter CINI (that is, the initial value of the jackpot random number counter C1) can be randomly updated. The variation type counter CS can also be randomly updated.

一方、ステップS208にて、電断フラグが格納されていると判定した場合は、電源遮断が発生したことになるので、ステップS212以降の電断時処理を実行する。つまり、ステップS212では、タイマ割込み処理の発生を禁止し、その後、ステップS213にてRAM判定値を算出、保存し、ステップS214にてRAM54のアクセスを禁止した後に、電源が完全に遮断して処理が実行できなくなるまで無限ループを継続する。 On the other hand, if it is determined in step S208 that the power failure flag is stored, it means that the power has been shut down, so the power failure processing from step S212 onwards is executed. That is, in step S212, the generation of timer interrupt processing is prohibited, then in step S213, the RAM judgment value is calculated and stored, and in step S214, access to the RAM 54 is prohibited, and then the power supply is completely cut off. continues in an infinite loop until it can no longer run.

次に、ステップS203の遊技回制御処理を図8等のフローチャートを参照して説明する。 Next, the game round control processing of step S203 will be described with reference to the flowcharts of FIG. 8 and the like.

遊技回制御処理では、先ずステップS301にて、開閉実行モード中か否かを判定する。開閉実行モード中である場合には、ステップS302以降の処理を実行することなく、本遊技回制御処理を終了する。つまり、開閉実行モード中である場合には、作動口23,24への入賞が発生しているか否かに関係なく、遊技回が開始されることはない。 In the game round control process, first, in step S301, it is determined whether or not the open/close execution mode is in progress. If it is in the open/close execution mode, the game round control process is terminated without executing the processes after step S302. In other words, when the open/close execution mode is in progress, the game cycle is not started regardless of whether or not the winning to the operation ports 23 and 24 has occurred.

開閉実行モード中でない場合には、ステップS302にて、メイン表示部33が変動表示中であるか否かを判定する。メイン表示部33が変動表示中でない場合には、ステップS303~ステップS305の遊技回開始用処理に進む。 If the opening/closing execution mode is not in progress, it is determined in step S302 whether or not the main display section 33 is in the variable display mode. If the main display section 33 is not in the variable display, the process proceeds to the game turn start processing of steps S303 to S305.

遊技回開始用処理では、先ずステップS303にて、始動保留球数Nが「0」であるか否かを判定する。始動保留球数Nが「0」である場合とは、保留球格納エリア54bに保留情報が記憶されていないことを意味する。したがって、そのまま本遊技回制御処理を終了する。 In the game turn start process, first, in step S303, it is determined whether or not the number N of start pending balls is "0". A case where the number N of starting pending balls is "0" means that pending information is not stored in the pending ball storage area 54b. Therefore, this game round control process is terminated as it is.

始動保留球数Nが「0」でない場合には、ステップS304にて保留球格納エリア54bの保留用エリアREに記憶されているデータを変動表示用に設定するためのデータ設定処理を実行する。具体的には、保留用エリアREの第1保留エリアRE1に格納されているデータを実行エリアAEにシフトする。その後、第1保留エリアRE1~第4保留エリアRE4に格納されているデータを下位エリア側に順にシフトさせる。その後、ステップS305にて変動開始処理を実行した後に、本遊技回制御処理を終了する。 If the number N of starting pending balls is not "0", data setting processing for setting the data stored in the pending area RE of the pending ball storage area 54b for variable display is executed in step S304. Specifically, the data stored in the first reservation area RE1 of the reservation area RE is shifted to the execution area AE. After that, the data stored in the first reservation area RE1 to the fourth reservation area RE4 are sequentially shifted to the lower area side. Thereafter, after executing the variation start process in step S305, the game round control process is terminated.

ステップS305の変動開始処理について、図9のフローチャートを参照しながら説明する。 The fluctuation start processing in step S305 will be described with reference to the flowchart of FIG.

ステップS401にて、今回の変動開始処理に対応した保留情報が大当たり当選に対応しているか否かを判定するための当否判定処理を実行する。具体的には実行エリアAEにシフトされた保留情報のうち大当たり乱数カウンタC1に係る数値情報と、現状の当否抽選モードに対応した当否テーブルとを参照して、大当たり当選となるか否かを判定する。 In step S401, a success/fail determination process is executed for determining whether or not the pending information corresponding to the current fluctuation start process corresponds to the winning of the jackpot. Specifically, it is determined whether or not a jackpot will be won by referring to numerical information relating to the jackpot random number counter C1 among the reserved information shifted to the execution area AE and a hit/fail table corresponding to the current win/fail lottery mode. do.

続くステップS402では大当たり当選であるか否かを判定する。大当たり当選である場合には、ステップS403にて種別判定処理を実行する。種別判定処理では、実行エリアAEにシフトされた保留情報のうち大当たり種別カウンタC2に係る数値情報と、振分テーブルとを参照して、大当たり種別を特定する。 In the subsequent step S402, it is determined whether or not the jackpot is won. If the jackpot is won, type determination processing is executed in step S403. In the type determination process, the jackpot type is specified by referring to the numerical information relating to the jackpot type counter C2 among the reserved information shifted to the execution area AE and the distribution table.

続くステップS404では、大当たり結果に対応した停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている大当たり結果用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この大当たり結果用の停止結果テーブルには、メイン表示部33に停止表示される絵柄の態様の種類が、大当たり結果の種類毎に相違させて設定されており、ステップS404では、ステップS403にて特定した大当たり結果の種類に応じた絵柄の態様の情報をRAM54に記憶する。 In the subsequent step S404, stop result setting processing corresponding to the jackpot result is executed. Specifically, the information of the form of the pattern to be finally stopped and displayed on the main display unit 33 in the game turn related to the start of the current fluctuation is specified from the stop result table for the jackpot result stored in advance in the ROM 53, The specified information is stored in the RAM 54 . In the stop result table for the jackpot result, the types of patterns to be stopped and displayed on the main display unit 33 are set differently for each type of jackpot result, and are specified in step S403 in step S404. The RAM 54 stores information on the form of the pattern according to the type of the jackpot result.

一方、ステップS402にて、大当たり当選ではないと判定した場合には、ステップS405にて、外れ時用の停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている外れ時用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この場合に選択される絵柄の態様の情報は、大当たり結果の場合に選択される絵柄の態様の情報とは異なっている。 On the other hand, if it is determined in step S402 that the jackpot has not been won, in step S405, a stop result setting process for the time of loss is executed. Specifically, in the game round related to the start of the current variation, information on the form of the pattern to be finally stopped and displayed on the main display unit 33 is specified from the stop result table for the time of failure stored in advance in the ROM 53, The specified information is stored in the RAM 54 . The information on the form of the pattern selected in this case is different from the information on the form of the pattern selected in the case of the jackpot result.

ステップS404又はステップS405の処理を実行した後は、ステップS406にて、変動表示時間の設定処理を実行する。 After executing the process of step S404 or step S405, the variable display time setting process is executed in step S406.

かかる処理では、RAM54の抽選カウンタ用バッファ54aにおける変動種別カウンタ用バッファに格納されている変動種別カウンタCSの値を取得する。また、今回の遊技回において図柄表示装置31にてリーチ表示が発生するか否かを判定する。具体的には、今回の変動開始に係る遊技回が大当たり結果である場合には、リーチ表示が発生すると判定する。また、大当たり結果ではない場合であっても、実行エリアAEに格納されているリーチ乱数カウンタC3に係る数値情報がリーチ発生に対応した数値情報である場合には、リーチ表示が発生すると判定する。 In this process, the value of the variation type counter CS stored in the variation type counter buffer in the lottery counter buffer 54a of the RAM 54 is acquired. Also, it is determined whether or not the ready-to-win display is generated on the symbol display device 31 in the current game round. Specifically, it is determined that the ready-to-win display occurs when the game round related to the start of this variation is a big hit result. Also, even if the result is not a big hit, it is determined that a ready-to-win display occurs when the numerical information related to the ready-to-win random number counter C3 stored in the execution area AE is numerical information corresponding to the occurrence of the ready-to-win.

リーチ表示が発生すると判定した場合には、ROM53に記憶されているリーチ発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報をRAM54に設けられた変動表示時間カウンタにセットする。一方、リーチ表示が発生しないと判定した場合には、ROM53に記憶されているリーチ非発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報を上記変動表示時間カウンタにセットする。ちなみに、リーチ非発生用変動表示時間テーブルを参照して取得され得る変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得され得る変動表示時間と異なっている。 When it is determined that the reach display occurs, the fluctuation display time table for reach occurrence stored in the ROM 53 is referred to acquire the fluctuation display time information corresponding to the value of the current fluctuation type counter CS, and the fluctuation Display time information is set in a variable display time counter provided in RAM 54 . On the other hand, when it is determined that the reach display does not occur, the fluctuation display time table for reach non-occurrence stored in the ROM 53 is referred to, and the fluctuation display time information corresponding to the value of the current fluctuation type counter CS is acquired. Then, the variable display time information is set in the variable display time counter. Incidentally, the variable display time that can be obtained with reference to the non-reach variable display time table is different from the variable display time that can be obtained with reference to the reachable variable display time table.

なお、リーチ非発生時における変動表示時間情報は、始動保留球数の数が多いほど、変動表示時間が短くなるように設定されている。また、サポートモードが高頻度サポートモードである状況においては低頻度サポートモードである状況よりも、保留情報の数が同一である場合で比較して、短い変動表示時間が選択されるようにリーチ非発生用変動表示時間テーブルが設定されている。但し、これに限定されることはなく、始動保留球数やサポートモードに応じて変動表示時間が変動しない構成としてもよく、上記の関係とは逆であってもよい。さらには、リーチ発生時における変動表示時間に対して、上記構成を適用してもよい。また、各種大当たり結果の場合、外れリーチ時の場合及びリーチ非発生の場合のそれぞれに対して個別に変動表示時間テーブルが設定されていてもよい。 It should be noted that the variable display time information at the time of reach non-occurrence is set so that the variable display time becomes shorter as the number of start pending balls increases. In addition, in the situation where the support mode is the high-frequency support mode, compared to the case where the number of pending information is the same, compared to the situation where the support mode is the low-frequency support mode, the reach non-reach is selected so that a shorter variable display time is selected. A variable display time table for occurrence is set. However, the present invention is not limited to this, and it may be configured such that the variable display time does not change according to the number of start pending balls and the support mode, or the above relationship may be reversed. Furthermore, the above configuration may be applied to the variable display time when reach occurs. In addition, in the case of various jackpot results, the variable display time table may be set individually for each of the cases of losing reach and non-reach.

ステップS406にて、変動表示時間の設定処理を実行した後は、ステップS407にて、変動用コマンド及び種別コマンドを設定する。変動用コマンドには、変動表示時間の情報が含まれる。ここで、上記のとおりリーチ非発生用変動表示時間テーブルを参照して取得される変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得される変動表示時間と異なっているため、変動用コマンドにリーチ発生の有無の情報が含まれていなかったとしても、サブ側の制御装置である音声発光制御装置60では変動表示時間の情報からリーチ発生の有無を特定することは可能である。この点、変動用コマンドには、リーチ発生の有無を示す情報が含まれているとも言える。なお、変動用コマンドにリーチ発生の有無を直接示す情報が含まれていてもよい。 After executing the variable display time setting process in step S406, the command for variation and the type command are set in step S407. The variable command includes information on the variable display time. Here, the variable display time acquired by referring to the variable display time table for reach non-occurrence as described above is different from the variable display time acquired by referring to the variable display time table for reach generation. Even if the command does not include information on the presence or absence of reach occurrence, it is possible for the voice light emission control device 60, which is a sub-side control device, to specify the presence or absence of reach occurrence from the information on the variable display time. In this respect, it can be said that the variation command includes information indicating whether or not reach occurs. Note that the variation command may include information that directly indicates the presence or absence of reach occurrence.

また、種別コマンドには、遊技結果の情報が含まれる。つまり、種別コマンドには、遊技結果の情報として、通常大当たり結果の情報、明示2R確変大当たり結果の情報、15R確変大当たり結果の情報、及び外れ結果の情報のいずれかが含まれる。 Also, the type command includes information on the game result. That is, the type command includes, as the game result information, any of normal jackpot result information, explicit 2R probability variable jackpot result information, 15R probability variable jackpot result information, and off result information.

ステップS407にて設定された変動用コマンド及び種別コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。ステップS407の処理を実行した後は、ステップS408にてメイン表示部33において絵柄の変動表示を開始させる。その後、本変動開始処理を終了する。 The variation command and type command set in step S407 are transmitted to the sound emission control device 60 in step S201 of the normal processing (FIG. 7). After executing the process of step S407, the main display section 33 starts to display the pattern in a variable manner in step S408. After that, the fluctuation start processing is terminated.

遊技回制御処理(図8)の説明に戻り、メイン表示部33が変動表示中である場合には、ステップS306~ステップS309の処理を実行する。当該処理では、先ずステップS306にて、今回の遊技回の変動表示時間が経過したか否かを判定する。 Returning to the description of the game round control process (FIG. 8), when the main display section 33 is performing the variable display, the processes of steps S306 to S309 are executed. In this process, first, at step S306, it is determined whether or not the variation display time of the current game round has elapsed.

変動表示時間が経過していない場合には、ステップS307にて変動表示用処理を実行する。変動表示用処理では、メイン表示部33における表示態様を変更する。その後、本遊技回制御処理を終了する。 If the variable display time has not elapsed, the variable display process is executed in step S307. In the variable display process, the display mode in the main display section 33 is changed. After that, the game round control process is terminated.

変動表示時間が経過している場合には、ステップS308にて変動終了処理を実行する。変動終了処理では、上記ステップS404又はステップS405の処理にてRAM54に記憶した情報を特定し、その情報に対応した絵柄の態様がメイン表示部33にて表示されるように当該メイン表示部33を表示制御する。 If the variation display time has elapsed, variation end processing is executed in step S308. In the fluctuation ending process, the information stored in the RAM 54 in the process of step S404 or step S405 is specified, and the main display part 33 is operated so that the pattern mode corresponding to the information is displayed on the main display part 33. display control.

続くステップS309では、変動終了コマンドを設定する。ここで設定された変動終了コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。音声発光制御装置60では、受信した変動終了コマンドに基づいて、その遊技回における演出を終了させる。また、それに対応したコマンドが、音声発光制御装置60から表示制御装置70に送信され、表示制御装置70ではその遊技回における最終停止図柄の組み合わせを確定表示(最終停止表示)させる。その後、本遊技回制御処理を終了する。 In the subsequent step S309, a fluctuation end command is set. The fluctuation end command set here is transmitted to the sound emission control device 60 in step S201 in the normal processing (FIG. 7). The sound emission control device 60 terminates the effect in the game round based on the received variation end command. In addition, a command corresponding thereto is transmitted from the sound emission control device 60 to the display control device 70, and the display control device 70 confirms and displays (final stop display) the combination of final stop symbols in the game round. After that, the game round control process is terminated.

<主制御装置50のMPU52における処理構成の別形態>
MPU52にて実行される処理構成は、上記のものに限定されることはなく、以下の処理構成であってもよい。図10及び図11は、MPU52における処理の別形態を説明するためのフローチャートであり、図10は動作電力の供給が開始された場合に実行されるメイン処理を示し、図11は当該メイン処理に対して定期的に割り込んで起動されるタイマ割込み処理を示す。
<Another form of processing configuration in MPU 52 of main controller 50>
The processing configuration executed by the MPU 52 is not limited to the above, and may be the following processing configuration. 10 and 11 are flowcharts for explaining another form of processing in the MPU 52. FIG. 10 shows the main processing executed when the supply of operating power is started, and FIG. 11 shows the main processing. A timer interrupt process that is periodically interrupted and started is shown.

図10に示すように、メイン処理では先ずステップS501にて、電源投入に伴う立ち上げ処理を実行する。続くステップS502では、RAM54のアクセスを許可する。その後、ステップS503では、電源及び発射制御装置57に設けられたRAM消去スイッチがオンされているか否かを判定し、続くステップS504ではRAM54に電断フラグが格納されているか否かを判定する。また、ステップS505ではRAM判定値を算出し、続くステップS506では、そのRAM判定値が電源遮断時に保存したRAM判定値と一致するか否か、すなわち記憶保持されたデータの有効性を判定する。 As shown in FIG. 10, in the main process, first, in step S501, start-up processing associated with power-on is executed. In the subsequent step S502, access to the RAM 54 is permitted. After that, in step S503, it is determined whether or not the RAM erase switch provided in the power supply and firing control device 57 is turned on. In step S505, a RAM determination value is calculated, and in subsequent step S506, it is determined whether or not the RAM determination value matches the RAM determination value saved at the time of power shutdown, that is, the validity of the stored data.

RAM消去スイッチがオンされておらず、さらに電断フラグが格納されているとともにRAM判定値が正常である場合には、ステップS507にてRAM54から電断フラグを消去するとともに、ステップS508にてRAM判定値を消去する。その後、ステップS509にて割込み許可を設定し、ステップS510にて乱数初期値カウンタCINIの更新を実行し、ステップS511にて変動種別カウンタCSの更新を実行する。そして、ステップS509~ステップS511の処理を実行した後は、ステップS509に戻り、ステップS509~ステップS511の処理を繰り返す。 If the RAM erase switch is not turned on, the power failure flag is stored, and the RAM determination value is normal, the power failure flag is erased from the RAM 54 in step S507, and the RAM is cleared in step S508. Clear the judgment value. Thereafter, interrupt permission is set in step S509, the random number initial value counter CINI is updated in step S510, and the variation type counter CS is updated in step S511. After executing the processing of steps S509 to S511, the process returns to step S509, and the processing of steps S509 to S511 is repeated.

なお、ステップS509にて割込み許可の設定を行った直後に割込み禁止の設定を行う構成としてもよい。この場合、後述するタイマ割込み処理は、割込み禁止の設定が行われている状況において起動タイミングとなった場合には、次回の割込み許可の設定が行われるまでその実行が待機される構成としてもよい。 It should be noted that the setting of interrupt prohibition may be performed immediately after the interrupt permission setting is performed in step S509. In this case, the timer interrupt process, which will be described later, may be configured to wait until the next interrupt permission setting is performed when the activation timing comes in a situation where interrupt prohibition is set. .

一方、RAM消去スイッチが押されていれば、ステップS512~ステップS513の処理に移行する。また、電源遮断の発生情報が設定されていない場合や、RAM判定値により記憶保持されたデータの異常が確認された場合も同様にステップS512~ステップS513の処理に移行する。 On the other hand, if the RAM erase switch has been pressed, the process proceeds to steps S512 and S513. Also, when power-off occurrence information is not set, or when an abnormality is confirmed in the data stored and held by the RAM judgment value, the process similarly proceeds to steps S512 and S513.

ステップS512では、RAM54の使用領域を「0」にクリアし、ステップS513では、RAM54の初期設定を実行する。その後、ステップS509~ステップS511の処理に移行する。 At step S512, the used area of the RAM 54 is cleared to "0", and at step S513, the RAM 54 is initialized. After that, the process proceeds to steps S509 to S511.

図11は、当該別形態におけるタイマ割込み処理を示すフローチャートである。 FIG. 11 is a flow chart showing timer interrupt processing in this alternative mode.

タイマ割込み処理では、ステップS601~ステップS605にて、上記ステップS101~ステップS105と同様の処理を実行する。 In the timer interrupt process, in steps S601 to S605, processes similar to those in steps S101 to S105 are executed.

その後、ステップS606にて、変動種別カウンタCSの更新処理を実行し、ステップS607にて遊技回制御処理を実行し、ステップS608にて遊技状態移行処理を実行し、ステップS609にてデモ表示用処理を実行し、ステップS610にて電役サポート用処理を実行し、ステップS611にて遊技球発射制御処理を実行し、ステップS612にて外部出力処理を実行する。その後、本タイマ割込み処理を終了する。これら各処理の詳細な内容は、上記図7~図9を参照して説明した内容と同様である。 After that, in step S606, update processing of the variation type counter CS is executed, in step S607 game round control processing is executed, in step S608 game state transition processing is executed, and in step S609 demonstration display processing is executed. , and in step S610 an electric support support process is executed, in step S611 a game ball launch control process is executed, and in step S612 an external output process is executed. After that, the timer interrupt processing ends. The detailed contents of each of these processes are the same as those described with reference to FIGS. 7 to 9 above.

<音声発光制御装置60>
次に、音声発光制御装置60について説明する。
<Audio emission control device 60>
Next, the sound emission control device 60 will be described.

音声発光制御装置60は、図4に示すように、MPU62が搭載された音声発光制御基板61を具備している。MPU62には、当該MPU62により実行される各種の制御プログラムや固定値データを記憶したROM63と、そのROM63内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM64と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。 The sound emission control device 60 includes a sound emission control board 61 on which an MPU 62 is mounted, as shown in FIG. The MPU 62 includes a ROM 63 storing various control programs and fixed value data to be executed by the MPU 62, and a memory for temporarily storing various data when executing the control programs stored in the ROM 63. A RAM 64, an interrupt circuit, a timer circuit, a data input/output circuit, various counter circuits as a random number generator, and the like are incorporated.

なお、ROM63として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM63と、RAM64とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。 As the ROM 63, memory means (that is, non-volatile memory means) is used, which allows random access when reading control programs and fixed value data, and does not require external power supply for memory retention. In addition, the configuration in which the control and calculation portion, the ROM 63, and the RAM 64 are integrated into one chip is not essential, and each function may be implemented as a separate chip, and some functions may be implemented as separate chips. It is good also as the structure mounted.

MPU62には、入力ポート及び出力ポートがそれぞれ設けられている。MPU62の入力側には演出用操作装置48及び主制御装置50が接続されているとともに、MPU62の出力側には各種発光部35,36,44、スピーカ部45及び表示制御装置130が接続されている。 The MPU 62 is provided with an input port and an output port. The input side of the MPU 62 is connected to the operation device 48 for presentation and the main control device 50, and the output side of the MPU 62 is connected to various light emitting units 35, 36, 44, the speaker unit 45 and the display control device 130. there is

MPU62では、主制御装置50から送信された変動用コマンドを受信することで、遊技回用の演出を開始させる必要があることを認識し、遊技回用演出開始処理を実行する。また、主制御装置50から送信された終了コマンドを受信することで、遊技回用の演出を終了させる必要があることを認識し、遊技回用演出終了処理を実行する。また、主制御装置50から送信された大当たり演出用の各種コマンドを受信することで、大当たり演出を開始させる必要があること又は進行させる必要があることを認識し、大当たり演出用処理を実行する。また、主制御装置50から送信されたデモ表示用のコマンドを受信することで、デモ表示を開始させる必要があることを認識し、デモ表示用処理を実行する。 By receiving the variation command transmitted from the main controller 50, the MPU 62 recognizes that it is necessary to start the game round effect, and executes the game round effect start processing. Further, by receiving an end command transmitted from the main control device 50, it recognizes that it is necessary to end the effect for the game round, and executes the end processing for the effect for the game round. Further, by receiving various commands for the big win performance transmitted from the main controller 50, it recognizes that the big win performance needs to be started or progressed, and executes the big win performance processing. Also, by receiving the demonstration display command transmitted from the main controller 50, it recognizes that it is necessary to start the demonstration display, and executes the demonstration display processing.

なお、MPU62において主制御装置50からコマンドを受信するとは、主制御装置50からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。 Note that the MPU 62 receiving a command from the main controller 50 is not limited to the configuration of directly receiving the command from the main controller 50, but also includes the configuration of receiving the command relayed to the relay board.

遊技回用演出開始処理では、変動用コマンド及び種別コマンドの両コマンドに基づいて、該当遊技回の変動表示時間を把握する変動表示時間の把握処理と、リーチ表示の有無を把握するリーチ表示把握処理と、大当たり結果の有無を把握する大当たり結果発生の把握処理と、大当たり結果が発生する場合における大当たり種別を把握する大当たり種別の把握処理と、を実行する。また、リーチ表示把握処理、大当たり結果発生の把握処理及び大当たり種別の把握処理における把握結果に基づいて、本遊技回において図柄表示装置31の表示面Gに最終停止表示させる図柄の種類を決定する図柄種別把握処理を実行する。そして、上記各把握処理の結果に基づいて、変動表示時間の情報及び表示演出の種類の情報を含む変動パターンコマンドと、最終停止表示させる図柄の種類の情報を含む図柄指定コマンドを、表示制御装置130に送信する。 In the game cycle production start processing, based on both the command for variation and the type command, the variation display time comprehension processing for comprehending the variation display time of the corresponding game cycle, and the reach display comprehension processing for comprehending the presence or absence of the reach display. Then, a jackpot result grasping process for grasping the presence or absence of the jackpot result and a jackpot type grasping process for grasping the jackpot type when the jackpot result occurs are executed. Also, based on the results of the reach display grasping process, the jackpot result occurrence grasping process, and the jackpot type grasping process, the type of the symbol to be finally stopped and displayed on the display surface G of the pattern display device 31 in this game cycle is determined. Execute the type recognition process. Then, based on the results of each of the grasping processes, a variation pattern command including information on the variation display time and information on the type of display effect, and a pattern designation command including information on the type of pattern to be displayed in the final stop display are sent to the display control device. 130.

また、遊技回用演出開始処理では、上記各把握処理の他に、予告表示を行うか否かの予告表示抽選処理を実行する。この場合、当該抽選処理では、予告表示の種別抽選についても実行される。そして、予告表示の発生当選である場合には、予告表示の種別の情報を含む予告コマンドを、表示制御装置130に送信する。 In addition, in the game cycle production start process, in addition to the above grasping processes, a notice display lottery process for determining whether or not to perform notice display is executed. In this case, in the lottery process, the type lottery for the advance notice display is also executed. Then, in the case of winning the occurrence of the advance notice display, a notice command including information on the type of notice display is transmitted to the display control device 130 .

また、遊技回用演出開始処理では、上記各処理の処理結果に基づいて、遊技回用の表示発光テーブルと遊技回用の音声テーブルとをROM63から読み出す。遊技回用の表示発光テーブルにより、該当する遊技回の進行過程における表示発光部44の発光態様が規定される。また、遊技回用の音声テーブルにより、該当する遊技回の進行過程におけるスピーカ部45からの出力態様が規定される。 In addition, in the game round effect start process, the game round display light emission table and the game round sound table are read out from the ROM 63 based on the processing results of the above processes. The display light emission table for game round defines the light emission mode of the display light emitting unit 44 in the course of progress of the corresponding game round. Further, the output mode from the speaker unit 45 in the course of progress of the corresponding game round is defined by the game round sound table.

遊技回用演出終了処理では、現状の遊技回における表示発光部44の発光制御及びスピーカ部45の音声出力制御を終了する。また、当該遊技回用演出終了処理では、遊技回用演出を終了させるべき情報を含む終了コマンドを、表示制御装置130に送信する。 In the game round effect end processing, the light emission control of the display light emitting unit 44 and the sound output control of the speaker unit 45 in the current game round are ended. In addition, in the game round effect end processing, an end command including information for ending the game round effect is transmitted to the display control device 130 .

大当たり演出用処理では、受信している大当たり演出用の各種コマンドに基づいて、オープニング時、各ラウンド時、各ラウンド間及びエンディング時などの演出態様を把握し、その把握結果に対応した大当たり演出用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、大当たり演出用の表示発光テーブルと大当たり演出用の音声テーブルとをROM63から読み出し、大当たり演出中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。 In the jackpot effect processing, based on the received various commands for the jackpot effect, the effects such as the opening, each round, between rounds, and the ending are grasped, and the jackpot effect corresponding to the grasped results is obtained. command to the display control device 130 . Further, based on the grasped result, the display light-emitting table for the jackpot effect and the sound table for the jackpot effect are read from the ROM 63, and the light-emitting mode of the display light-emitting part 44 and the output mode of the sound from the speaker part 45 during the jackpot effect. stipulate.

デモ表示用処理では、受信しているデモ表示用のコマンドに基づいて、デモ表示の演出態様を把握し、その把握結果に対応したデモ表示用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、デモ表示用の表示発光テーブルとデモ表示用の音声テーブルとをROM63から読み出し、デモ表示中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。 In the demonstration display processing, based on the received demonstration display command, the effect mode of the demonstration display is grasped, and a demonstration display command corresponding to the grasped result is transmitted to the display control device 130 . Further, based on the grasped result, the display light emission table for demonstration display and the sound table for demonstration display are read from the ROM 63, and the light emission mode of the display light emission section 44 and the sound output mode from the speaker section 45 during the demonstration display are determined. stipulate.

なお、主制御装置50から送信されたコマンドに基づいてMPU62にて実行される処理は、上記処理以外にも、第1保留発光部35や第2保留発光部36を発光制御するための処理が含まれる。 The processing executed by the MPU 62 based on commands transmitted from the main control device 50 includes processing for controlling light emission of the first holding light emitting unit 35 and the second holding light emitting unit 36 in addition to the above processing. included.

また、MPU62では、演出用操作装置48の操作部が操作されたことに基づき当該演出用操作装置48から送信される操作信号を受信することで、演出用操作装置48が操作されたことを認識し、操作対応処理を実行する。また、操作されている状態が解除された場合にも操作信号の立下りによってそれを認識し、操作対応処理を実行する。 Further, the MPU 62 recognizes that the operation device 48 for production has been operated by receiving an operation signal transmitted from the operation device 48 for production based on the operation of the operation unit of the operation device 48 for production. and execute the operation handling process. Also, when the operated state is canceled, it is recognized by the fall of the operation signal, and the operation corresponding processing is executed.

ここで、演出用操作装置48の操作に対応した演出の一部として、演出用操作装置48が操作されたことに基づき、表示モードが変更される演出が実行される。表示モードとは、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。かかる表示モードの詳細な内容、及び演出用操作装置48の操作に基づく表示モードの切り換えに係る処理構成については後に詳細に説明する。 Here, as a part of the effect corresponding to the operation of the effect operating device 48, the effect of changing the display mode is executed based on the operation of the effect operating device 48. FIG. The display mode is a state in which the type of the standby image displayed before the game round starts and the game round image displayed while the game round is being executed are set to predetermined types. display mode is set. The detailed contents of the display mode and the processing configuration related to the switching of the display mode based on the operation of the operating device 48 for presentation will be described in detail later.

<表示制御装置130>
表示制御装置130のハード構成について説明する。
<Display control device 130>
A hardware configuration of the display control device 130 will be described.

表示制御装置130は、図4に示すように、表示CPU131と、ワークRAM132と、メモリモジュール133と、VRAM134と、ビデオディスプレイプロセッサ(VDP)135と、が搭載された表示制御基板136を備えている。 As shown in FIG. 4, the display control device 130 includes a display control board 136 on which a display CPU 131, a work RAM 132, a memory module 133, a VRAM 134, and a video display processor (VDP) 135 are mounted. .

表示CPU131は、表示制御装置130においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU131は表示制御基板136に搭載された入力ポート137に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート137を通じて表示CPU131に入力される。なお、表示CPU131において音声発光制御装置60からコマンドを受信するとは、音声発光制御装置60からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。 The display CPU 131 functions as a main control unit in the display control device 130, and reads, interprets, and executes control programs and the like. Specifically, the display CPU 131 is connected via a bus to an input port 137 mounted on a display control board 136, and various commands transmitted from the audio light emission control device 60 are input to the display CPU 131 through the input port 137. be done. Note that receiving a command from the sound emission control device 60 in the display CPU 131 is not limited to the configuration of directly receiving the command from the sound emission control device 60, and includes the configuration of receiving the command relayed to the relay board. be

表示CPU131は、バスを介してワークRAM132、メモリモジュール133及びVRAM134と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール133に記憶された各種データをワークRAM132やVRAM134に転送させる転送指示を行う。また、表示CPU131は、バスを介してVDP135と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置31に3次元画像(3D画像)を表示させるための描画指示を行う。以下、メモリモジュール133、ワークRAM132、VRAM134及びVDP135について説明する。 The display CPU 131 is connected to a work RAM 132, a memory module 133 and a VRAM 134 via a bus, and transfers various data stored in the memory module 133 to the work RAM 132 and VRAM 134 based on commands received from the sound emission control device 60. Give a transfer instruction to transfer. Further, the display CPU 131 is connected to the VDP 135 via a bus, and based on commands received from the sound emission control device 60, issues a drawing instruction for displaying a three-dimensional image (3D image) on the pattern display device 31. conduct. The memory module 133, work RAM 132, VRAM 134 and VDP 135 will be described below.

メモリモジュール133は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、3次元画像を表示するための各種画像データを予め記憶している記憶手段である。当該メモリモジュール133は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール133は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。 The memory module 133 is storage means for pre-storing control data including control programs and fixed value data, and pre-storing various image data for displaying a three-dimensional image. The memory module 133 has a non-volatile semiconductor memory that does not require an external power supply for storing data. Incidentally, although the storage capacity is 4 Gbits, such a storage capacity is arbitrary as long as the control in the display control device 130 is executed satisfactorily. Further, the memory module 133 is used as a non-write-only read-only memory (ROM) when the pachinko machine 10 is used.

メモリモジュール133に記憶されている各種画像データには、図柄表示装置31に表示される図柄やキャラクタなどのオブジェクト用の画像データと、当該オブジェクトに貼り付けられるテクスチャ用の画像データと、1フレーム分の画像において最背面の画像を構成する背面用の画像データとが含まれている。 The various image data stored in the memory module 133 include image data for objects such as patterns and characters displayed on the pattern display device 31, image data for textures to be applied to the objects, and image data for one frame. and image data for the rear surface forming the rearmost image in the image of .

ここで、オブジェクトとは、仮想3次元空間に相当する3次元の座標系であるワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。また、ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。オブジェクト用の画像データには、例えばサーフェスモデルを適用するため、オブジェクト毎に予め設定された基準座標を原点として、各ポリゴンの頂点座標情報が設定されている。つまり、各オブジェクト用の画像データでは、自己完結のローカル座標系において各ポリゴンの相対位置(すなわち、向きやサイズ)が3次元的に定義されている。 Here, an object is a three-dimensional virtual object arranged in a world coordinate system, which is a three-dimensional coordinate system corresponding to a virtual three-dimensional space, and is three-dimensional information composed of a plurality of polygons. A polygon is a polygonal plane defined by a plurality of vertices of three-dimensional coordinates. In image data for objects, vertex coordinate information of each polygon is set with reference coordinates set in advance for each object as an origin in order to apply a surface model, for example. That is, in the image data for each object, the relative positions (that is, orientation and size) of each polygon are three-dimensionally defined in a self-contained local coordinate system.

テクスチャとは、オブジェクトの各ポリゴンに貼り付ける画像であり、テクスチャがオブジェクトに貼り付けられることにより、オブジェクトに対応する画像、例えば図柄やキャラクタなどを含む表示画像が生成される。テクスチャ用の画像データの持ち方は、任意であるが、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。 A texture is an image to be pasted on each polygon of an object, and by pasting the texture onto the object, an image corresponding to the object, for example, a display image including patterns and characters is generated. Image data for textures can be stored in any manner, but at least includes a combination of bitmap format data and a color palette table that is referenced when determining the display color of each pixel of the bitmap image. there is

最背面の画像は、2次元画像(2D画像)を構成している。背面用の画像データの持ち方は、任意であるが、例えば2次元の静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。ちなみに、当該背面用の画像データがワールド座標系に配置される場合には板ポリゴンが利用される。 The backmost image constitutes a two-dimensional image (2D image). The image data for the back surface may be held in any manner, but for example, the two-dimensional still image data is stored and held as compressed JPEG format data. Incidentally, when the image data for the back surface is arranged in the world coordinate system, plate polygons are used.

ワークRAM132は、メモリモジュール133から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM132は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、ワークRAM132は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The work RAM 132 is storage means for temporarily storing control data read from the memory module 133 and transferred, and for temporarily storing flags and the like. The work RAM 132 has a volatile semiconductor memory that requires power supply from the outside for storing data, and more specifically, a DRAM is used as the semiconductor memory. However, it is not limited to DRAM, and other RAM such as SRAM may be used. Note that the storage capacity is 1 Gbit, but this storage capacity is arbitrary as long as the control in the display control device 130 is executed satisfactorily. Also, the work RAM 132 is used for both reading and writing when the pachinko machine 10 is used.

ワークRAM132には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から制御用データが転送される。そして、表示CPU131は、ワークRAM132に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。 Control data is transferred from the memory module 133 to the work RAM 132 based on a data transfer instruction from the display CPU 131 to the memory module 133 . Then, the display CPU 131 reads the control data transferred to the work RAM 132 into an internal memory area (register group) as necessary, and executes various processes.

VRAM134は、図柄表示装置31に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM134は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該VRAM134は、パチンコ機10の使用に際して、読み書き両用として用いられる。 The VRAM 134 is storage means for temporarily storing various data necessary for image output to the pattern display device 31 . The VRAM 134 has a volatile semiconductor memory that requires an external power supply for storing data, and more specifically, an SDRAM is used as the semiconductor memory. However, it is not limited to SDRAM, and other RAM such as DRAM, SRAM or dual port RAM may be used. Note that the storage capacity is 2 Gbits, but this storage capacity is arbitrary as long as the control in the display control device 130 is executed satisfactorily. Also, the VRAM 134 is used for both reading and writing when the pachinko machine 10 is used.

VRAM134は展開用バッファ141を備えており、展開用バッファ141には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から画像データが転送される。この場合、当該画像データは、その画像データを用いたVDP135における処理の実行タイミングとなるまでに事前に転送される。また、VRAM134には、VDP135により描画データ(生成データ)が作成されるフレームバッファ142が設けられている。また、VRAM134には、Zバッファ143、スクリーン用バッファ144及びモード用バッファ145が設けられているが、これらの詳細については後に説明する。 The VRAM 134 has an expansion buffer 141 , and image data is transferred from the memory module 133 to the expansion buffer 141 based on a data transfer instruction from the display CPU 131 to the memory module 133 . In this case, the image data is transferred in advance before the execution timing of processing in the VDP 135 using the image data. The VRAM 134 is also provided with a frame buffer 142 in which drawing data (generated data) is created by the VDP 135 . The VRAM 134 is also provided with a Z buffer 143, a screen buffer 144 and a mode buffer 145, the details of which will be described later.

VDP135は、表示CPU131からの描画指示に基づき、展開用バッファ141に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置31に対して描画を行う画像生成デバイスであり、図柄表示装置31において液晶表示部31aを駆動制御するように組み込まれた画像処理デバイス31bを操作する一種の描画回路である。VDP135はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。 The VDP 135 is an image generation device that performs drawing on the pattern display device 31 based on a drawing instruction from the display CPU 131, using data stored in the expansion buffer 141, specifically by processing the data. It is a kind of drawing circuit that operates the image processing device 31b incorporated in the pattern display device 31 so as to drive and control the liquid crystal display section 31a. Since the VDP 135 is made into an IC chip, it is also called a "drawing chip", and its substance should be called a microcomputer chip containing dedicated firmware for drawing.

詳細には、VDP135は、ジオメトリ演算部151と、レンダリング部152と、レジスタ153と、表示モード制御部154と、表示回路155と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU131用のI/F156及びVRAM134用のI/F157と接続されている。 Specifically, the VDP 135 includes a geometry calculation section 151 , a rendering section 152 , a register 153 , a display mode control section 154 and a display circuit 155 . These circuits are interconnected via a bus, and are also connected to an I/F 156 for the display CPU 131 and an I/F 157 for the VRAM 134 .

表示CPU131用のI/F156は、表示CPU131から送信された描画指示情報としての描画リストをレジスタ153に記憶させる。ジオメトリ演算部151は、レジスタ153に格納された描画リストに基づいて、配置対象として指定されているオブジェクトをワールド座標系内に配置する。また、ジオメトリ演算部151は、オブジェクトをワールド座標系内に配置する場合及び配置した後に、各種の座標変換処理を実行する。そして、最終的に表示面Gのスクリーン座標に対応する3次元空間に対応させて、オブジェクトをクリッピングする。 The I/F 156 for the display CPU 131 causes the register 153 to store the drawing list as the drawing instruction information transmitted from the display CPU 131 . Based on the drawing list stored in the register 153, the geometry calculation unit 151 arranges the object designated as the object to be arranged within the world coordinate system. Also, the geometry calculation unit 151 executes various coordinate conversion processes when and after arranging an object in the world coordinate system. Finally, the object is clipped in correspondence with the three-dimensional space corresponding to the screen coordinates of the display surface G.

レンダリング部152は、レジスタ153に格納された描画リストに基づいて、クリッピングされた各オブジェクトに対して光源調整や、テクスチャの貼付を行い、オブジェクトの外観を決定する。また、レンダリング部152は、各オブジェクトを所定の2次元平面上に投影させて2次元データを作成するとともに、深度情報に基づく各種調整を行い2次元データである1フレーム分の描画データをフレームバッファ142に作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置31の表示面Gにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるのに必要なデータのことをいう。 Based on the drawing list stored in the register 153, the rendering unit 152 performs light source adjustment and texture application on each clipped object to determine the appearance of the object. The rendering unit 152 also projects each object onto a predetermined two-dimensional plane to create two-dimensional data, and performs various adjustments based on the depth information to render one frame of drawing data, which is two-dimensional data, into a frame buffer. 142. Drawing data for one frame means data necessary to display an image at one update timing in a configuration in which an image on the display surface G of the pattern display device 31 is updated at a predetermined update timing. say.

なお、ジオメトリ演算部151及びレンダリング部152が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリをVDP135に内蔵させ、当該制御プログラムと描画リストの内容によってジオメトリ演算部151及びレンダリング部152が処理を実行する構成としてもよい。また、メモリモジュール133から制御プログラムを事前に読み出す構成としてもよい。また、ジオメトリ演算部151及びレンダリング部152がプログラムを利用することなく、描画リストに対応したハード回路の動作のみで処理を実行する構成としてもよい。 It should be noted that all of the control programs for operating the geometry calculation unit 151 and the rendering unit 152 may be provided by a drawing list. may be configured such that the geometry calculation unit 151 and the rendering unit 152 execute processing depending on the contents of the . Alternatively, the control program may be read from the memory module 133 in advance. Further, the geometry calculation unit 151 and the rendering unit 152 may be configured to execute processing only by operation of hardware circuits corresponding to the drawing list without using programs.

ここで、フレームバッファ142には、複数のフレーム領域142a,142bが設けられている。具体的には、第1フレーム領域142aと、第2フレーム領域142bとが設けられている。これら各フレーム領域142a,142bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域142a,142bにはそれぞれ、液晶表示部31a(すなわち表示面G)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。 Here, the frame buffer 142 is provided with a plurality of frame areas 142a and 142b. Specifically, a first frame region 142a and a second frame region 142b are provided. Each of these frame areas 142a and 142b is set to have a capacity capable of storing drawing data for one frame. Specifically, each of the frame regions 142a and 142b includes a large number of unit areas corresponding to the dots (pixels) of the liquid crystal display section 31a (that is, the display surface G) at a predetermined magnification. Each unit area has a storage capacity capable of storing data for specifying which color to display. More specifically, a full-color system is adopted, and 256 colors can be set for each of R (red), G (green), and B (blue) in each dot. Correspondingly, 1 byte (8 bits) is assigned to each color of RGB in each unit area. That is, each unit area has a storage capacity of at least 3 bytes.

なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。 It should be noted that the present invention is not limited to the full-color system, and for example, in a configuration in which each dot can display only 256 colors, the storage capacity required for storing color information in each unit area may be 1 byte.

フレームバッファ142に第1フレーム領域142a及び第2フレーム領域142bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置31への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ142として、ダブルバッファ方式が採用されている。 Since the frame buffer 142 is provided with the first frame area 142a and the second frame area 142b, the drawing data created in one of the frame areas is used to perform drawing on the pattern display device 31. , drawing data to be used in the future for other frame regions is created. That is, the frame buffer 142 employs a double buffer system.

表示回路155では、第1フレーム領域142a又は第2フレーム領域142bに作成された描画データに基づいて液晶表示部31aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路155に接続された出力ポート138を介して図柄表示装置31に出力される。詳細には、出力対象のフレーム領域142a,142bから表示回路155へ描画データが転送される。その転送された描画データは図柄表示装置31の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置31の各ドットに対応した画像信号が生成されて出力される。なお、表示回路155からは水平同期信号又は垂直同期信号などの同期信号も出力される。 In the display circuit 155, an image signal corresponding to each dot of the liquid crystal display section 31a is generated based on the drawing data created in the first frame area 142a or the second frame area 142b. It is output to the pattern display device 31 via the connected output port 138 . Specifically, drawing data is transferred to the display circuit 155 from the frame regions 142 a and 142 b to be output. The transferred drawing data is adjusted in resolution by a scaler (not shown) so as to correspond to the resolution of the pattern display device 31 and converted into gradation data. Based on the gradation data, an image signal corresponding to each dot of the pattern display device 31 is generated and output. Note that the display circuit 155 also outputs a synchronizing signal such as a horizontal synchronizing signal or a vertical synchronizing signal.

また、表示モード制御部154では、表示モードに対応した画像の表示を行う場合に、レジスタ153に格納された描画リストに基づいて、所定の処理を実行する。当該所定の処理については後に説明する。 Further, the display mode control unit 154 executes predetermined processing based on the drawing list stored in the register 153 when displaying an image corresponding to the display mode. The predetermined processing will be explained later.

<表示CPU131における基本的な処理>
次に、表示CPU131における基本的な処理について説明する。
<Basic processing in the display CPU 131>
Next, basic processing in the display CPU 131 will be described.

<メイン処理>
先ず、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合に起動されるメイン処理について説明する。図12はメイン処理を示すフローチャートである。
<Main processing>
First, the main processing that is started when the supply of operating power to the display CPU 131 is started or when the pachinko machine 10 is reset will be described. FIG. 12 is a flowchart showing main processing.

メイン処理では、先ずステップS701にて、初期設定処理を実行する。 In the main process, first, in step S701, an initial setting process is executed.

初期設定処理では、表示回路155のスケーラの初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bに作成される描画データに基づいて画像信号が出力される場合に、その画像信号が液晶表示部31aのドット数に対応させて出力されるように、VDP135に対して解像度初期調整用コマンドを送信する。この初期調整値は、パチンコ機10の設計段階において調整されており、その調整結果が解像度初期調整用コマンドとして設定されている。 In the initial setting process, an initial adjustment process for the scaler of the display circuit 155 is executed. In the initial adjustment process, when an image signal is output based on drawing data created in each frame area 142a, 142b of the VRAM 134, the image signal is output in correspondence with the number of dots of the liquid crystal display section 31a. A command for initial resolution adjustment is transmitted to the VDP 135 as shown. This initial adjustment value is adjusted in the design stage of the pachinko machine 10, and the adjustment result is set as the resolution initial adjustment command.

VDP135に解像度初期調整用コマンドが送信されることで、VDP135のレジスタ153におけるスケーラの解像度調整用のエリアに初期調整値に対応した数値情報が格納される。これにより、VDP135から図柄表示装置31に画像信号が出力される場合、描画データに対応した画像信号が液晶表示部31aのドット数に調整された状態で出力される。 By transmitting the resolution initial adjustment command to the VDP 135 , numerical information corresponding to the initial adjustment value is stored in the scaler resolution adjustment area in the register 153 of the VDP 135 . As a result, when an image signal is output from the VDP 135 to the pattern display device 31, the image signal corresponding to the drawing data is output after being adjusted to the number of dots of the liquid crystal display section 31a.

また、初期設定処理では、地色の初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bの単位エリアに初期値として設定される数値情報が初期数値情報となるように、VDP135に対して地色初期調整用コマンドを送信する。この初期数値情報は、パチンコ機10の設計段階において調整されており、その調整結果が地色初期調整用コマンドとして設定されている。 Also, in the initial setting process, an initial adjustment process of the ground color is executed. In the initial adjustment process, a ground color initial adjustment command is transmitted to the VDP 135 so that the numerical information set as the initial value in the unit area of each frame area 142a, 142b of the VRAM 134 becomes the initial numerical information. This initial numerical value information is adjusted in the design stage of the pachinko machine 10, and the result of the adjustment is set as the background color initial adjustment command.

VDP135は地色初期調整用コマンドが送信されることで、VDP135のレジスタ153における地色調整用のエリアに初期数値情報が格納される。これにより、描画データが作成される場合に初期数値情報からの更新が行われなかった単位エリアに対応したドットでは、地色が表示されることとなる。なお、初期の地色として本パチンコ機10では黒色が設定されているが、これに限定されることはなく任意である。 When the ground color initial adjustment command is transmitted to the VDP 135 , the initial numerical value information is stored in the ground color adjustment area of the register 153 of the VDP 135 . As a result, dots corresponding to unit areas that have not been updated from the initial numerical information when drawing data is created display the ground color. Although black is set as the initial ground color in this pachinko machine 10, it is not limited to this and is arbitrary.

ステップS701にて初期設定処理を実行した後は、ステップS702にて、各種割込みを許可する。これにより、表示CPU131においてコマンド割込み処理及びV割込み処理を実行することが許容される。その後、メイン処理では、ステップS702の処理を繰り返す。 After executing the initial setting process in step S701, various interrupts are permitted in step S702. This allows the display CPU 131 to execute command interrupt processing and V interrupt processing. After that, in the main process, the process of step S702 is repeated.

<コマンド割込み処理>
次に、コマンド割込み処理について説明する。
<Command interrupt processing>
Next, command interrupt processing will be described.

コマンド割込み処理は、音声発光制御装置60からストローブ信号を受信した場合に、その時点で実行されている処理が何であったとしても最優先で起動される処理である。コマンド割込み処理では、入力ポート137にて受信しているコマンドを、ワークRAM132に設けられたコマンドバッファに転送し、さらにコマンドを新たに受信したことを示すフラグを対応するエリアにセットする。その後、コマンド割込み処理を終了し、当該コマンド割込み処理の起動前の処理に復帰する。 The command interrupt process is a process that is started with the highest priority when a strobe signal is received from the sound emission control device 60, regardless of what process is being executed at that time. In command interrupt processing, a command received at the input port 137 is transferred to a command buffer provided in the work RAM 132, and a flag indicating that a new command has been received is set in the corresponding area. After that, the command interrupt processing is terminated, and the processing before starting the command interrupt processing is resumed.

<V割込み処理>
次に、V割込み処理について、図13のフローチャートを参照しながら説明する。V割込み処理は、予め定められた周期、具体的には20msec周期で繰り返し起動される。
<V interrupt processing>
Next, V interrupt processing will be described with reference to the flowchart of FIG. The V interrupt process is repeatedly started at a predetermined cycle, specifically at a cycle of 20 msec.

なお、VDP135は図柄表示装置31に1フレーム分の画像信号を出力する場合、表示面Gの左上の隅角部分にあるドットから画像信号の出力を始めて、当該ドットを一端に含む横ライン上に並ぶドットに対して順次画像信号を出力するとともに、各横ラインに対して上から順に左から右のドットへと画像信号を出力する。そして、表示面Gの右下の隅角部分にあるドットに対して最後に画像信号を出力する。この場合に、VDP135は当該最後のドットに対して画像信号を出力したタイミングで、表示CPU131へV割込み信号を出力して1フレームの画像の更新が完了したことを表示CPU131に認識させる。このV割込み信号の出力周期は20msecとなっている。この点、V割込み処理は、V割込み信号の受信に同期して起動されると見なすこともできる。但し、V割込み信号を受信していなくても、前回のV割込み処理が起動されてから20msecが経過している場合には、新たにV割込み処理が起動される。 When the VDP 135 outputs the image signal for one frame to the pattern display device 31, it starts outputting the image signal from the dot in the upper left corner of the display surface G, and then outputs the image signal on the horizontal line including the dot at one end. Image signals are sequentially output to the dots arranged side by side, and image signals are sequentially output to the dots from the left to the right for each horizontal line. Finally, an image signal is output to the dot in the lower right corner of the display surface G. FIG. In this case, the VDP 135 outputs a V interrupt signal to the display CPU 131 at the timing of outputting the image signal for the last dot, and makes the display CPU 131 recognize that the update of the image for one frame is completed. The output cycle of this V interrupt signal is 20 msec. In this regard, the V interrupt process can be considered to be activated in synchronization with the reception of the V interrupt signal. However, even if the V interrupt signal has not been received, if 20 msec has passed since the previous V interrupt process was started, a new V interrupt process is started.

V割込み処理では、先ずステップS801にて、コマンド解析処理を実行する。具体的には、ワークRAM132のコマンドバッファに格納されているコマンドの内容を解析する。続くステップS802では、ステップS801の解析結果に基づいて、新規コマンドを受信しているか否かを判定する。新規コマンドを受信している場合には、ステップS803にて、コマンド対応処理を実行する。 In the V interrupt process, command analysis processing is first executed in step S801. Specifically, the content of the command stored in the command buffer of the work RAM 132 is analyzed. In subsequent step S802, it is determined whether or not a new command has been received based on the analysis result of step S801. If a new command has been received, command handling processing is executed in step S803.

コマンド対応処理では、受信しているコマンドに対応したプログラムを実行するためのデータテーブルをメモリモジュール133から読み出す。データテーブルとは、受信したコマンドに対応した動画を図柄表示装置31の表示面Gに表示させる場合において、画像の各更新タイミングにおける1フレーム分の画像を表示させるのに必要な処理が定められた情報群である。 In the command correspondence process, the data table for executing the program corresponding to the received command is read from the memory module 133 . The data table defines the processing necessary to display one frame of image at each update timing of the image when displaying the moving image corresponding to the received command on the display surface G of the pattern display device 31. Information group.

ここで、表示CPU131が音声発光制御装置60から受信するコマンドとしては、既に説明したとおり、変動パターンコマンド、図柄指定コマンド及び予告コマンドがある。これらのコマンドを受信した場合、それら各コマンドに対応した遊技回用演出を図柄表示装置31にて実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては終了コマンドがあり、当該コマンドを受信した場合には現状実行されている遊技回用演出を最終停止させるために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、大当たり演出用の各種コマンドがあり、当該コマンドを受信した場合には大当たり演出を実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、デモ表示用のコマンドがあり、当該コマンドを受信した場合にはデモ表示を実行するために必要なデータテーブルを読み出す。さらに読み出したデータテーブルに基づき、処理を実行する場合に必要な他のプログラムデータも読み出す。 Here, the commands that the display CPU 131 receives from the sound emission control device 60 include the variation pattern command, the design designation command, and the advance notice command, as described above. When these commands are received, the data table necessary for executing the game-turn production corresponding to each of these commands on the pattern display device 31 is read. Further, the command to be received includes an end command, and when the command is received, the data table necessary to finally stop the currently executed game-turn effect is read out. Further, as the commands to be received, there are various commands for the big win effect, and when the command is received, the data table necessary for executing the big win effect is read. Further, the command to be received includes a command for demonstration display, and when the command is received, the data table necessary for executing the demonstration display is read. Further, based on the read data table, other program data necessary for executing the process are also read.

ステップS803にてコマンド対応処理を実行した後は、ステップS804にて、ポインタ更新処理を実行する。当該ポインタ更新処理では、データテーブルに設定されているポインタの情報を、1フレーム分進めるように更新する。これにより、今回の更新タイミングに対応した1フレーム分の画像を表示させるために必要な処理を、表示CPU131において把握することが可能となる。 After command handling processing is executed in step S803, pointer update processing is executed in step S804. In the pointer update process, the pointer information set in the data table is updated so as to advance by one frame. As a result, the display CPU 131 can grasp the processing necessary to display the image for one frame corresponding to the update timing of this time.

続くステップS805では、タスク処理を実行する。タスク処理では、今回の更新タイミングに対応した1フレーム分の画像を表示させるために、VDP135に描画指示を行う上で必要なパラメータの演算を行う。当該タスク処理の詳細については後に説明する。 In the following step S805, task processing is executed. In the task processing, in order to display one frame of image corresponding to the update timing of this time, parameters necessary for giving drawing instructions to the VDP 135 are calculated. Details of the task processing will be described later.

続くステップS806では、描画リスト出力処理を実行する。描画リスト出力処理では、今回の処理回に係る更新タイミングに対応した1フレーム分の画像を表示させるための描画リストを作成し、その作成した描画リストをVDP135に送信する。この場合、当該描画リストでは、直前のタスク処理にて把握された画像が描画対象となり、さらに当該タスク処理にて更新したパラメータの情報が合わせて設定される。VDP135では、この描画リストに従ってVRAM134のフレーム領域142a,142bに描画データを作成する。このVDP135における処理については後に詳細に説明する。その後、本V割込み処理を終了する。 In the subsequent step S806, drawing list output processing is executed. In the drawing list output process, a drawing list for displaying an image of one frame corresponding to the update timing of the current processing is created, and the created drawing list is transmitted to the VDP 135 . In this case, in the drawing list, the image grasped by the immediately preceding task processing becomes the drawing target, and the parameter information updated by the task processing is also set. The VDP 135 creates drawing data in the frame areas 142a and 142b of the VRAM 134 according to this drawing list. Processing in this VDP 135 will be described later in detail. After that, the V interrupt processing is terminated.

<表示CPU131におけるタスク処理>
ここで、タスク処理について、図14のフローチャートを参照しながら説明する。
<Task processing in display CPU 131>
Here, task processing will be described with reference to the flowchart of FIG.

タスク処理では先ずステップS901にて、制御開始用の設定処理を実行する。制御開始用の設定処理では、今回の処理回で表示CPU131において新たに制御(演算)を開始する個別画像を設定するための処理を実行する。なお、個別画像とは、背面用の画像データなどの静止画像データにより規定される一の2次元画像や、オブジェクト用の画像データとテクスチャ用の画像データとの組み合わせにより規定される一の3次元画像のことである。 In task processing, first, in step S901, setting processing for starting control is executed. In the control start setting process, the display CPU 131 executes a process for setting an individual image for newly starting control (calculation) in this processing. Note that the individual image is one two-dimensional image defined by still image data such as back image data, or one three-dimensional image defined by a combination of object image data and texture image data. It's about images.

制御開始用の設定処理について具体的には、先ず現状設定されているデータテーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM132において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータを設定する。 Specifically, regarding the control start setting process, first, based on the currently set data table, it is determined whether or not there is an individual image for which control is to be started in the current processing. If it exists, the work RAM 132 is searched for an empty buffer area for performing various calculations in controlling the individual image, and corresponds to the individual image grasped as the control start target on a one-to-one basis. Allocate a free buffer area so that Furthermore, initialization processing is executed for all the secured empty buffer areas, and parameters for starting control according to individual images are set for the initialized empty buffer areas.

続くステップS902では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。 In the following step S902, the control update target is grasped. This control update target is an individual image for which control start processing has been completed and which may be included in an image for one frame after the current processing.

続くステップS903では、背景用演算処理を実行する。背景用演算処理では、背景の画像を構成することとなる最背面用の画像や、背景用キャラクタについて、ワールド座標系内における座標、回転角度、スケール、明暗を付けるためのライトの情報、投影を行うためのカメラの情報、及びZテスト指定などといった描画リストを作成する上で必要な各種パラメータを演算して導き出す処理を実行する。 In the following step S903, background arithmetic processing is executed. In the background calculation process, the coordinates in the world coordinate system, the rotation angle, the scale, the light information for adding contrast, and the projection for the backmost image that constitutes the background image and the background character are calculated. A process of computing and deriving various parameters necessary for creating a drawing list, such as camera information and Z-test designation, is executed.

続くステップS904では、演出用演算処理を実行する。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる個別画像について、上記各種パラメータを演算して導き出す処理を実行する。 In the subsequent step S904, a performance calculation process is executed. In the effect calculation process, the various parameters described above are calculated and derived for individual images to be displayed in various effects such as ready-to-win display, advance notice display, and jackpot effect.

続くステップS905では、図柄用演算処理を実行する。図柄用演算処理では、各遊技回において変動表示の対象となる図柄の画像について、上記各種パラメータを演算して導き出す処理を実行する。 In the subsequent step S905, a symbol calculation process is executed. In the symbol calculation process, a process of calculating and deriving the various parameters described above is executed for the image of the symbol that is the object of variable display in each game cycle.

ちなみに、ステップS903~ステップS905の各処理では、ステップS901にて設定された制御開始用のパラメータを更新する処理を実行する。また、ステップS903~ステップS905の各処理では、個別画像の各種パラメータを画像更新タイミングとなる度に特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、メモリモジュール133に予め記憶されており、個別画像の種類に応じて定められている。 Incidentally, in each process of steps S903 to S905, a process of updating the parameters for starting control set in step S901 is executed. Also, in each process of steps S903 to S905, animation data set so as to change various parameters of the individual image according to a specific pattern each time the image is updated is used. This animation data is stored in advance in the memory module 133 and is determined according to the type of individual image.

その後、ステップS906にてワールド座標系への配置対象の把握処理を実行した後に、本タスク処理を終了する。ワールド座標系への配置対象の把握処理では、上記ステップS903~ステップS905の各処理により制御更新対象となった各個別画像のうち、今回の描画リストにおいて描画対象として設定する個別画像を把握する処理を実行する。当該把握は、現状設定されているデータテーブルに基づいて行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。 After that, in step S906, the process of grasping the placement target in the world coordinate system is executed, and then this task process ends. In the process of grasping the object to be placed in the world coordinate system, the individual image set as the drawing target in the current drawing list is grasped among the individual images that have been subject to control update by the processes in steps S903 to S905. to run. The grasping is performed based on the currently set data table. The individual image grasped here is set as a drawing target in the drawing list.

つまり、表示CPU131にて制御対象となる個別画像の方が、VDP135にて制御対象となる個別画像よりも多く設定されているため、ステップS906においてその調整を行っている。但し、これに限定されることはなく、表示CPU131において制御対象となる個別画像と、VDP135において制御対象となる個別画像とが同一である構成としてもよく、この場合、ステップS906の処理を実行する必要がなくなる。 That is, since more individual images to be controlled by the display CPU 131 are set than individual images to be controlled by the VDP 135, the adjustment is performed in step S906. However, the invention is not limited to this, and the individual image to be controlled by the display CPU 131 and the individual image to be controlled by the VDP 135 may be the same. In this case, the process of step S906 is executed. no longer needed.

なお、ステップS901の制御開始用の設定処理において、表示CPU131の処理負荷を分散させるべく、各個別画像の制御開始タイミングが分散させて設定されている構成としてもよい。 In order to distribute the processing load of the display CPU 131 in the control start setting process in step S901, the control start timings of the individual images may be distributed and set.

<VDP135における基本的な処理>
次に、VDP135にて実行される基本的な処理について説明する。
<Basic processing in VDP 135>
Next, basic processing executed by the VDP 135 will be described.

VDP135では、表示CPU131から送信されたコマンドに基づいてレジスタ153の値を設定する処理、表示CPU131から送信された描画リストに基づいてフレームバッファ142のフレーム領域142a,142bに描画データを作成する処理、フレーム領域142a,142bに作成された描画データに基づいて図柄表示装置31に画像信号を出力する処理が少なくとも実行される。 In the VDP 135, processing for setting the value of the register 153 based on the command sent from the display CPU 131, processing for creating drawing data in the frame areas 142a and 142b of the frame buffer 142 based on the drawing list sent from the display CPU 131, At least a process of outputting an image signal to the pattern display device 31 based on the drawing data created in the frame areas 142a and 142b is executed.

上記各処理のうち、レジスタ153の値を設定する処理は、表示CPU131用のI/F156に付随する図示しない回路によって、コマンドを受信した場合にその都度実行される。また、描画データを作成する処理は、ジオメトリ演算部151及びレンダリング部152の協同により、予め定められた周期(例えば、20msec)で繰り返し実行される。また、画像信号を出力する処理は、表示回路155によって、予め定められた画像信号の出力開始タイミングとなることで実行される。 Among the above processes, the process of setting the value of the register 153 is executed each time a command is received by a circuit (not shown) associated with the I/F 156 for the display CPU 131 . In addition, the process of creating drawing data is repeatedly executed at a predetermined cycle (for example, 20 msec) in cooperation with the geometry calculation unit 151 and the rendering unit 152 . Further, the process of outputting the image signal is executed by the display circuit 155 at a predetermined output start timing of the image signal.

以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU131からVDP135に送信される描画リストの内容について説明する。図15(a)~(c)は描画リストの内容を説明するための説明図である。 The processing for creating the drawing data will be described in detail below. Prior to the description of this process, the contents of the drawing list transmitted from the display CPU 131 to the VDP 135 will be described. 15A to 15C are explanatory diagrams for explaining the contents of the drawing list.

描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像を、第1フレーム領域142a及び第2フレーム領域142bのうちいずれを作成対象とするかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、各種指定情報が設定されている。各種指定情報の内容については後に説明する。なお、VDP135にて取り扱う画像データとして動画像データが含まれている場合には、ヘッダ情報において、デコード指定の有無及びデコード対象となる動画像データがメモリモジュール133において記憶されているアドレスの情報が設定されていてもよい。 Header information is set in the drawing list. In the header information, target buffer information indicating which of the first frame area 142a and the second frame area 142b is to be created for the one-frame image related to the drawing list is set. there is Various designation information is set in the header information. The contents of various designation information will be described later. When moving image data is included as the image data handled by the VDP 135, the header information includes whether there is a decoding designation and information on the address where the moving image data to be decoded is stored in the memory module 133. may be set.

描画リストには、上記ヘッダ情報以外にも、今回の描画データの作成に際してワールド座標系への配置対象となる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させてパラメータの情報が設定されている。 In addition to the above header information, the drawing list contains multiple types of image data to be placed in the world coordinate system when creating the drawing data this time. Parameter information of each image data is set. More specifically, the drawing order information is set to be serial numbered numerical information, and the parameter information is set in a one-to-one correspondence with each numerical information.

図15(a)の描画リストでは、背面用の画像データが最初の描画対象として設定されているとともに、背景用オブジェクトAが2番目、背景用オブジェクトBが3番目、・・・として設定されている。また、これら背景用の画像データよりも後の順番として、演出用の画像データが設定されており、例えば演出用オブジェクトAがm番目、演出用オブジェクトBがm+1番目、・・・として設定されている。また、これら演出用の画像データよりも後の順番として、図柄用の画像データが設定されており、例えば図柄用オブジェクトAがn番目、図柄用オブジェクトBがn+1番目、・・・として設定されている。 In the drawing list of FIG. 15(a), the back image data is set as the first drawing target, the background object A is set as the second, the background object B is set as the third, and so on. there is In addition, the image data for effect is set after the image data for background, for example, object A for effect is set as m-th, object B for effect is m+1, and so on. there is In addition, the image data for the design is set as the order after the image data for the effect, for example, the design object A is set as the n-th, the design object B is set as the (n+1)th, and so on. there is

なお、描画リストにおいて各画像データが設定されている順番は上記のものに限定されることはなく、設定されている順番が上記のものとは逆の順番であってもよく、図柄用の画像データの後に演出用の画像データ又は背景用の画像データが設定されていてもよく、所定の演出用の画像データと他の演出用の画像データとの間の順番に図柄用の画像データが設定されていてもよい。 The order in which each image data is set in the drawing list is not limited to the one described above, and the order in which the image data is set may be the order opposite to that described above. Image data for effect or image data for background may be set after the data, and image data for design is set in order between predetermined image data for effect and other image data for effect. may have been

パラメータの情報P(1),P(2),P(3),・・・,P(m),P(m+1),・・・,P(n),P(n+1),・・・には、複数種類のパラメータが設定されている。背面用の画像データのパラメータP(1)について具体的には、図15(b)に示すように、メモリモジュール133において背面用の画像データが記憶されているエリアのアドレスの情報と、背面用の画像データを設定する場合におけるワールド座標系内の位置を示す座標の情報(X値の情報,Y値の情報,Z値の情報)と、背面用の画像データを設定する場合におけるワールド座標系内の回転角度を示す回転角度の情報と、背面用の画像データの初期状態として設定されているスケールに対して、ワールド座標系に設定する際の倍率を示すスケールの情報と、背面用の画像データを設定する場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、が設定されている。 Parameter information P(1), P(2), P(3), ..., P(m), P(m+1), ..., P(n), P(n+1), ... has multiple parameters. Specifically, regarding the parameter P(1) of the image data for the rear surface, as shown in FIG. Coordinate information (X value information, Y value information, Z value information) indicating the position in the world coordinate system when setting the image data for the back, and the world coordinate system when setting the image data for the back Rotation angle information that indicates the rotation angle inside, scale information that indicates the magnification when setting to the world coordinate system with respect to the scale that is set as the initial state of the image data for the back, and the image for the back and uniform α value information indicating overall transparency information (or transparency information) when data is set.

ここで、座標の情報は、オブジェクト用の画像データの全頂点について個別に設定される。また、この座標の情報はオブジェクト用の画像データに対して設定されているが、テクスチャ用の画像データには設定されていない。テクスチャ用の画像データは、各ピクセルの座標値が、オブジェクト用の画像データの各頂点に関連付けて予め定められている。この座標値は、ワールド座標系における座標値とは異なるUV座標値であり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されている。このUV座標値はテクスチャマッピングする際にVDP135により参照される。 Here, coordinate information is individually set for all vertices of image data for an object. Also, this coordinate information is set for object image data, but is not set for texture image data. In the image data for texture, the coordinate values of each pixel are predetermined in association with each vertex of the image data for object. This coordinate value is a UV coordinate value different from the coordinate value in the world coordinate system, and is stored in the memory module 133 in a state attached to a combination of object image data and texture image data. This UV coordinate value is referred to by the VDP 135 during texture mapping.

パラメータ(P1)には、背面用の画像データを描画用の仮想2次元平面上に投影する場合における仮想カメラの座標及び向きの情報を含むカメラの情報と、背面用の画像データをレンダリングする場合における陰影を決定する仮想光源の位置及び向きの情報を含むライトの情報と、が設定されている。 The parameter (P1) includes camera information including information on the coordinates and orientation of the virtual camera when projecting the image data for the back onto a virtual two-dimensional plane for drawing, and when rendering the image data for the back. and light information, including position and orientation information for a virtual light source that determines the shadow in the .

パラメータ(P1)には、隠面消去を行う手法の一種であるZバッファ法の適用有無を示すZテスト指定の情報が設定されている。Zバッファ法とは、ワールド座標系内において多数のオブジェクトや2次元画像が奥行き方向(Z軸方向)に重なった場合に、Z軸上に並ぶ各ピクセル(又は各ボクセル、各画素、各ポリゴン)について視点からの距離を順次参照し、最も視点に近いピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに設定する深度調整用の処理方法である。当該Zバッファ法を適用する場合に、VRAM134に設けられたZバッファ143が利用される。Zバッファ143を利用した隠面処理の具体的な処理構成については後に説明する。 The parameter (P1) contains Z-test designation information indicating whether or not the Z-buffer method, which is a type of method for removing hidden surfaces, is applied. In the Z-buffer method, when many objects and two-dimensional images overlap in the depth direction (Z-axis direction) in the world coordinate system, each pixel (or each voxel, each pixel, each polygon) lined up on the Z-axis This is a processing method for depth adjustment in which the distance from the viewpoint is sequentially referred to and the numerical information set in the pixel closest to the viewpoint is set in the corresponding unit areas in the frame regions 142a and 142b. When applying the Z-buffer method, the Z-buffer 143 provided in the VRAM 134 is used. A specific processing configuration for hidden surface processing using the Z-buffer 143 will be described later.

なお、上記隠面消去を行う手法としてZバッファ法以外にも、Zソート法が設定されている。Zソート法とは、Z軸上に並ぶ各ピクセルについて、各ピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに順次設定する深度調整用の処理方法である。当該Zソート法を適用する場合には、各ピクセルに設定されているα値が参照されて、Z軸上に並ぶ各ピクセルの色情報に対応した数値情報に対して対応するα値が適用された状態で、それら数値情報の加算処理や融合用の演算処理が実行されることとなる。Zソートによる隠面処理の具体的な処理構成の説明は省略するが、エフェクト画像を表示させる場合に起動される。 In addition to the Z-buffer method, a Z-sort method is also used as a method for removing hidden surfaces. The Z-sorting method is a processing method for depth adjustment in which numerical information set in each pixel arranged on the Z-axis is sequentially set in corresponding unit areas in the frame regions 142a and 142b. When applying the Z sorting method, the α value set for each pixel is referred to, and the corresponding α value is applied to the numerical information corresponding to the color information of each pixel arranged on the Z axis. In this state, addition processing of the numerical information and arithmetic processing for fusion are executed. Although a detailed description of the processing configuration of hidden surface processing by Z sorting is omitted, it is activated when an effect image is to be displayed.

パラメータ(P1)には、αデータの適用有無及び適用対象を示すαデータ指定の情報と、フォグの適用有無及び適用対象を示すフォグ指定の情報と、背景画像を表示するために作成された背景画像用の描画データについて別保存の有無を示す別保存指定の情報と、が設定されている。 The parameter (P1) contains α data specification information indicating whether or not to apply α data and to whom it is applied, fog specification information indicating whether or not fog is to be applied and to whom it is applied, and a background created to display a background image. Separate storage designation information indicating whether or not separate storage is to be performed for image drawing data is set.

ここで、α値とは対応するピクセルの透過情報のことである。このα値の描画リスト上における設定の仕方として、上記一律α値を指定する方法と、αデータ指定を行う方法とがある。一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU131における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、2次元の静止画像データやテクスチャ用の画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。当該αデータは、同一の静止画像データ又は同一のテクスチャ用の画像データの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。 Here, the α value is the transparency information of the corresponding pixel. As methods for setting the α value on the drawing list, there are a method of specifying the uniform α value and a method of specifying α data. A uniform α value is transparency information applied to all pixels of one image data, and is numerical information derived as a calculation result in the display CPU 131 . The uniform α value is uniformly applied to all pixels of the image data. On the other hand, α data is transparency information applied to each pixel of two-dimensional still image data and texture image data, and is stored in the memory module 133 in advance as image data. The α data can vary the transparency information for each pixel within the range of the same still image data or the same texture image data. This α data has a larger data capacity than the program data for setting the uniform α value.

上記のように一律α値とαデータとが設定されていることにより、2次元の静止画像データやテクスチャ用の画像データの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。 By setting the uniform α value and α data as described above, the transparency of two-dimensional still image data and image data for textures is not finely controlled for each pixel, but is uniform for all pixels. In a situation where it is possible to control with , it is possible to reduce the required data volume by uniformly responding with the α value, and by applying α data, it is also possible to finely control the transparency on a pixel-by-pixel basis.

フォグとは、ワールド座標系において所定方向、具体的にはZ軸方向の位置に対する明るさの度合いを調整するための情報である。フォグは、霧を表現したり、洞窟内を表現したりする場合に使用される。ここで、1フレーム分の画像の全体に対して単一のフォグを適用してもよい。この場合、1フレーム分の画像に一定の態様でフォグがかかることとなる。また、これに代えて、1フレーム分の画像の全体に対して複数のフォグを適用してもよい。この場合、Z軸方向の奥側に配置されているオブジェクトに対してその他のオブジェクトと同様のフォグを適用すると暗すぎることで質感がでないような状況において、当該オブジェクトには別のフォグを設定する構成とするとよい。これにより、上記質感を損なわせないようにしつつ、フォグを設定することによる効果を得ることができる。 Fog is information for adjusting the degree of brightness with respect to a position in a predetermined direction, specifically in the Z-axis direction, in the world coordinate system. Fog is used to express fog or the inside of a cave. Here, a single fog may be applied to the entire image for one frame. In this case, the image for one frame is fogged in a certain manner. Alternatively, a plurality of fogs may be applied to the entire image for one frame. In this case, if the same fog as other objects is applied to the object placed on the back side in the Z-axis direction, it will be too dark and the texture will not be obtained, so another fog is set for the object. configuration. As a result, it is possible to obtain the effect of setting the fog while not impairing the texture.

別保存とは、一旦作成した背景画像用の描画データをその後のフレームにおいてそのまま使用するために、フレーム領域142a,142bとは別に設けられたモード用バッファ145に書き込み保存しておくことをいう。モード用バッファ145には、図4に示すように、各表示モードに1対1で対応するように、第1モード用領域145aと、第2モード用領域145bとが設けられている。この別保存の具体的な内容については、後に詳細に説明する。 Storing separately means writing and storing the drawing data for the background image once created in the mode buffer 145 provided separately from the frame areas 142a and 142b in order to use it as it is in subsequent frames. As shown in FIG. 4, the mode buffer 145 is provided with a first mode area 145a and a second mode area 145b so as to correspond to each display mode on a one-to-one basis. The specific content of this separate storage will be described later in detail.

パラメータP(2)といった他のパラメータでは、図15(c)に示すように、上記図15(b)の各種情報のうち、背面用の画像データの情報に代えて、オブジェクトの情報とテクスチャの情報とが設定されている。これらの情報としては、メモリモジュール133においてオブジェクトやテクスチャが記憶されているエリアのアドレスの情報が設定されている。 For other parameters such as parameter P(2), as shown in FIG. 15(c), among the various types of information shown in FIG. information and is set. As such information, address information of areas in which objects and textures are stored in the memory module 133 is set.

VDP135における描画処理について、図16のフローチャートを参照しながら説明する。なお、以下の説明では、描画処理の実行に伴い描画データが作成される様子を、図17を参照しながら説明する。 Drawing processing in the VDP 135 will be described with reference to the flowchart of FIG. In the following description, the manner in which drawing data is created as the drawing process is executed will be described with reference to FIG.

先ずステップS1001では、表示CPU131から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS1002にて、背景用の設定処理を実行する。 First, in step S<b>1001 , it is determined whether or not a new drawing list has been received from the display CPU 131 . If a new drawing list has been received, a background setting process is executed in step S1002.

背景用の設定処理では、今回の描画リストにて指定されている画像データのうち、背景画像を表示するための背面用の画像データ及びキャラクタ用のオブジェクトを把握する。そして、それら画像データやキャラクタ用のオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。 In the background setting process, the background image data and the character object for displaying the background image are grasped from the image data specified in the current drawing list. Then, it is determined whether or not the image data and the character object have already been placed in the world coordinate system.

配置されていない場合には、ワールド座標系への配置を行うために参照する空きバッファ領域を画像データ毎に検索し、空きバッファ領域を確保した場合にはその領域の初期化処理を実行する。その後、メモリモジュール133においてその画像データが記憶されているアドレスを把握して読み出すとともに、描画リストに指定された座標、回転角度及びスケールとなるように、その画像データについてのローカル座標系の座標値をワールド座標系の座標値に変換させるワールド変換処理を実行して、上記確保したバッファ領域に設定する。 If it is not arranged, an empty buffer area to be referred to for arranging in the world coordinate system is searched for each image data, and when an empty buffer area is secured, the area is initialized. After that, the address where the image data is stored in the memory module 133 is grasped and read out, and the coordinate values of the local coordinate system for the image data are set so that the coordinates, rotation angle, and scale specified in the drawing list are obtained. to the coordinate values of the world coordinate system, and set in the buffer area secured above.

配置されている場合には、既に確保されたバッファ領域に設定されている各種パラメータの更新処理を実行する。また、背景用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない背景用の画像データを消去する制御終了処理を実行する。 If so, the various parameters set in the already reserved buffer area are updated. In the background setting process, a control end process is executed to erase background image data not specified in the current drawing list among the image data already arranged in the world coordinate system.

続くステップS1003では、演出用の設定処理を実行する。演出用の設定処理では、今回の描画リストにて指定されている画像データのうち、演出画像を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、演出用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない演出用の画像データを消去する制御終了処理を実行する。 In the subsequent step S1003, setting processing for effect is executed. In the effect setting process, the object for displaying the effect image is grasped among the image data specified in the current drawing list. Then, it is determined whether or not the grasped object is already placed in the world coordinate system. If it is not arranged, the process for starting arrangement is executed in the same manner as described in the background setting process. If so, update processing of various parameters is executed. Also, in the effect setting process, a control end process is executed to erase image data for effect not specified in the current drawing list among the image data already arranged in the world coordinate system.

続くステップS1004では、図柄用の設定処理を実行する。図柄用の設定処理では、今回の描画リストにて指定されている画像データのうち、図柄を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、図柄用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない図柄用の画像データを消去する制御終了処理を実行する。 In the subsequent step S1004, a symbol setting process is executed. In the pattern setting process, the object for displaying the pattern is grasped from the image data specified in the current drawing list. Then, it is determined whether or not the grasped object is already placed in the world coordinate system. If it is not arranged, the process for starting arrangement is executed in the same manner as described in the background setting process. If so, update processing of various parameters is executed. Also, in the design setting process, a control end process is executed to erase image data for a design not specified in the current drawing list among the image data already arranged in the world coordinate system.

上記ステップS1002~ステップS1004の処理が実行されることにより、図17に示すように、X軸,Y軸,Z軸で規定されたワールド座標系内に、描画リストにより配置対象として指定されている最背面画像PC1と、各種オブジェクトPC2~PC10とが、同じく描画リストにより指定されている座標、回転角度及びスケールで配置されたシーンの設定が完了する。 By executing the processing of steps S1002 to S1004, as shown in FIG. 17, the drawing list designates the drawing list as a placement target within the world coordinate system defined by the X, Y, and Z axes. Setting of a scene in which the backmost image PC1 and various objects PC2 to PC10 are arranged at the coordinates, rotation angles, and scales also designated by the drawing list is completed.

なお、図17においては、最背面画像PC1や各種オブジェクトPC2~PC10が配置されている様子を簡易的に示している。また、最背面画像PC1は、各種オブジェクトPC2~PC10の全てに対してZ軸方向の座標が奥側に設定されている必要はなく、例えば、最背面画像PC1が曲げられた状態又は傾斜した状態で配置されていることにより、一部のオブジェクトよりもZ軸方向の座標が手前側となる構成としてもよい。但し、この一部のオブジェクトとX軸方向の座標及びY軸方向の座標が同一である最背面画像PC1の領域は、そのオブジェクトよりもZ軸方向の座標が奥側であることにより、全てのオブジェクトが最背面画像PC1により覆われない状態となる。 Note that FIG. 17 simply shows how the rearmost image PC1 and various objects PC2 to PC10 are arranged. In addition, the backmost image PC1 does not need to have the coordinates in the Z-axis direction set to the far side with respect to all of the various objects PC2 to PC10. , the coordinates in the Z-axis direction may be on the front side of some objects. However, the region of the backmost image PC1, which has the same coordinates in the X-axis direction and the Y-axis direction as the part of the objects, has the coordinates in the Z-axis direction behind the object. The object is not covered with the backmost image PC1.

続くステップS1005では、カメラ座標系(カメラ空間)への変換処理を実行する。カメラ座標系への変換処理では、描画リストにより指定されたカメラの情報により、視点の座標及び向きを決定するとともに、その視点の座標及び向きに基づいて、ワールド座標系を、視点を原点としたカメラ座標系(カメラ空間)に変換する。これにより、図17に示すように、カメラ形状で示す視点PC11が設定され、それに対応した座標系が設定された状態となる。 In subsequent step S1005, conversion processing to the camera coordinate system (camera space) is executed. In the conversion process to the camera coordinate system, the coordinates and orientation of the viewpoint are determined based on the camera information specified by the drawing list, and the world coordinate system is set with the viewpoint as the origin based on the coordinates and orientation of the viewpoint. Convert to the camera coordinate system (camera space). As a result, as shown in FIG. 17, a viewpoint PC11 indicated by a camera shape is set, and a corresponding coordinate system is set.

ここで、カメラの情報は、個別画像(最背面画像PC1及び各種オブジェクトPC2~PC10)毎に設定されており、実際には個別画像毎にカメラ座標系が存在することとなる。このように個別画像毎にカメラ座標系が設定されることにより、視点切換を個別に行うことが可能となり、描画データの作成の自由度が高められる。但し、説明の便宜上、図17には全ての個別画像が単一の視点に設定されている状態を示す。 Here, the camera information is set for each individual image (backmost image PC1 and various objects PC2 to PC10), and in reality, a camera coordinate system exists for each individual image. By setting the camera coordinate system for each individual image in this way, it becomes possible to switch viewpoints individually, and the degree of freedom in creating drawing data is increased. However, for convenience of explanation, FIG. 17 shows a state in which all individual images are set to a single viewpoint.

続くステップS1006では、視野座標系(視野空間)への変換処理を実行する。視野座標系への変換処理では、上記各カメラ座標系を、視点からの視野(視野角)に対応する視野座標系に変換する。これにより、各個別画像について、対応する視点の視野内に含まれている場合にはそれが抽出されるとともに、視点から近い個別画像が拡大されるとともに、視点から遠い個別画像が縮小される。 In subsequent step S1006, conversion processing to the visual field coordinate system (visual field space) is executed. In the transformation process to the visual field coordinate system, each camera coordinate system is transformed into a visual field coordinate system corresponding to the visual field (viewing angle) from the viewpoint. As a result, when each individual image is included in the field of view of the corresponding viewpoint, it is extracted, the individual image closer to the viewpoint is enlarged, and the individual image farther from the viewpoint is reduced.

続くステップS1007では、クリッピング処理を実行する。クリッピング処理では、ステップS1006にて抽出された各個別画像が、それぞれ対応する視点を共通の原点として把握される。そして、その状態で描画対象のフレーム領域142a,142b(すなわち、図柄表示装置31の表示面G)に応じたスクリーン領域PC12(図17を参照)に対応する空間を基準として、ステップS1006にて抽出された各個別画像をクリッピングする。 In the following step S1007, clipping processing is executed. In the clipping process, the respective individual images extracted in step S1006 are grasped with their respective corresponding viewpoints as a common origin. Then, in this state, the space corresponding to the screen area PC12 (see FIG. 17) corresponding to the frame areas 142a and 142b (that is, the display surface G of the pattern display device 31) to be drawn is used as a reference and extracted in step S1006. clip each individual image

続くステップS1008では、ライティング処理を実行する。ライティング処理では、描画リストにより指定されたライトの情報により、仮想光源の種類、座標及び向きを決定するとともに、上記クリッピング処理により抽出された各オブジェクトについて上記仮想光源に基づき陰影や反射等を演算する。 In the following step S1008, lighting processing is executed. In the lighting process, the type, coordinates, and direction of the virtual light source are determined based on the light information specified by the drawing list, and shadows and reflections are calculated based on the virtual light source for each object extracted by the clipping process. .

続くステップS1009では、色情報の設定処理を実行する。色情報の設定処理では、上記クリッピング処理により抽出された各オブジェクトに対して、ピクセル単位(すなわちポリゴン単位)又は頂点単位で、色情報を設定することで、各オブジェクトの外観を決定する。かかる色情報の設定処理では、基本的に、上記クリッピング処理により抽出された各オブジェクトに対して、それぞれに対応するテクスチャを貼り付けるテクスチャマッピング処理が実行される。また、状況によっては、バンプマッピングや透明度マッピングなどの処理が実行される。 In the following step S1009, color information setting processing is executed. In the color information setting process, the appearance of each object is determined by setting color information for each object extracted by the clipping process in units of pixels (that is, in units of polygons) or in units of vertices. In such a color information setting process, basically, a texture mapping process is executed to paste a texture corresponding to each object extracted by the clipping process. Also, depending on the situation, processes such as bump mapping and transparency mapping are performed.

その後、ステップS1010及びステップS1011にて、ステップS1007にて抽出され、さらにライティング処理や色情報の設定処理が完了した各個別画像を、仮想2次元平面であるスクリーン領域PC12に投影(例えば、透視投影や平行投影)することで描画データを作成する。 Thereafter, in steps S1010 and S1011, each individual image extracted in step S1007 and further subjected to lighting processing and color information setting processing is projected onto the screen region PC12, which is a virtual two-dimensional plane (for example, perspective projection). or parallel projection) to create drawing data.

具体的には、先ずステップS1010にて、背景用の描画データ作成処理を実行する。背景用の描画データ作成処理では、背景画像として設定されている最背面画像及びオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、背景用の描画データを作成する。 Specifically, first, in step S1010, background drawing data creation processing is executed. In the drawing data creation process for the background, drawing data for the background is created by projecting onto the screen area PC12 while performing hidden surface removal on the background image and the object set as the background image.

ここで、VRAM134には、図4に示すようにスクリーン用バッファ144が設けられており、スクリーン用バッファ144には背景用の描画データが書き込まれる背景用のバッファと、演出用の描画データ及び図柄用の描画データがまとめて書き込まれる演出及び図柄用のバッファとが設定されている。また、背景用のバッファ、演出及び図柄用のバッファには、スクリーン領域PC12のピクセル数と同一のドット数のエリアが設定されている。ステップS1010にて作成される背景用の描画データは、背景用のバッファに書き込まれる。なお、描画リストにおいて背景用の画像データが指定されていない場合には、背景用の描画データは作成されない。 Here, the VRAM 134 is provided with a screen buffer 144 as shown in FIG. Buffers for effects and patterns are set in which drawing data for is written collectively. In addition, areas with the same number of dots as the number of pixels of the screen area PC12 are set in the buffer for background and the buffer for effects and patterns. The background drawing data created in step S1010 is written to the background buffer. Note that if the background image data is not specified in the drawing list, the background drawing data is not created.

続くステップS1011では、演出及び図柄用の描画データ作成処理を実行する。演出及び図柄用の描画データ作成処理では、演出画像として設定されているオブジェクト及び図柄として設定されているオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、スクリーン用バッファ144における演出及び図柄用のバッファに演出及び図柄用の描画データを作成する。なお、描画リストにおいて演出及び図柄用の画像データが指定されていない場合には、演出及び図柄用の描画データは作成されない。 In the subsequent step S1011, drawing data creation processing for effects and symbols is executed. In the drawing data creation process for effects and patterns, objects set as effects images and objects set as patterns are projected onto the screen area PC12 while removing hidden surfaces, thereby creating a screen buffer. At 144, drawing data for effects and patterns are created in buffers for effects and patterns. Incidentally, when the image data for effects and patterns are not specified in the drawing list, the drawing data for effects and patterns are not created.

その後、ステップS1012にて、描画データ合成処理を実行した後に、本描画処理を終了する。ステップS1012の描画データ合成処理では、ステップS1010及びステップS1011の処理によりそれぞれ個別にスクリーン用バッファ144に作成されている背景用の描画データと、演出及び図柄用の描画データとを合成して、その合成結果を描画対象のフレーム領域142a,142bに1フレーム分の描画データとして書き込む。 After that, in step S1012, the drawing data synthesizing process is executed, and then the drawing process ends. In the drawing data synthesizing process in step S1012, the drawing data for the background and the drawing data for effects and patterns, which are individually created in the screen buffer 144 by the processes in steps S1010 and S1011, are synthesized, The synthesized result is written as drawing data for one frame in the drawing target frame areas 142a and 142b.

この場合、その書き込む順序は、背景用の描画データ→演出及び図柄用の描画データの順序で奥側から手前側に並ぶように規定されている。したがって、描画対象のフレーム領域142a,142bに対して、先ず背景用の描画データを書き込み、次に演出及び図柄用の描画データを書き込む。この際、描画の実行対象となったピクセルに完全透過のα値が設定されている場合には奥側の画像がそのまま利用され、半透過のα値が設定されている場合にはα値を基準とした比率での奥側の画像と手前側の画像との融合が行われ、不透過のα値が設定されている場合には奥側の画像に対する手前側の画像の上書きが行われるように、融合用の演算が実行される。 In this case, the writing order is defined to be arranged from the back side to the front side in the order of drawing data for background→drawing data for effect and design. Therefore, the drawing data for the background is first written in the frame areas 142a and 142b to be drawn, and then the drawing data for effects and patterns are written. At this time, if the target pixel for drawing has a completely transparent α value, the image on the back side is used as it is, and if a semi-transparent α value is set, the α value is changed. The image on the back side and the image on the front side are fused at the standard ratio, and when the opaque α value is set, the image on the front side overwrites the image on the back side. , an operation for fusion is performed.

ここで、融合用の演算についてより詳細に説明すると、描画対象のフレーム領域142a,142bにおける各ドットのRGBの各数値情報は、演出及び図柄用の描画データにおける描画対象となったピクセルに設定されているα値を基準として、
R:「奥側画像のR値」×(「1」-「α値」)+「手前側画像のR値」×「α値」
G:「奥側画像のG値」×(「1」-「α値」)+「手前側画像のG値」×「α値」
B:「奥側画像のB値」×(「1」-「α値」)+「手前側画像のB値」×「α値」
となる。
Here, the calculation for fusion will be described in more detail. Each RGB numerical information of each dot in the frame areas 142a and 142b to be drawn is set to pixels to be drawn in the drawing data for effects and patterns. Based on the α value of
R: "R value of back side image" x ("1" - "α value") + "R value of front side image" x "α value"
G: "G value of back side image" x ("1" - "α value") + "G value of front side image" x "α value"
B: "B value of back side image" x ("1" - "α value") + "B value of front side image" x "α value"
becomes.

ちなみに、各描画データは1フレーム分の面積を有するように規定されているが、演出及び図柄用の描画データにおいて投影が行われなかったブランク部分については完全透過のα値が設定されている。 Incidentally, although each drawing data is defined to have an area of one frame, a completely transparent α value is set for a blank portion where projection is not performed in the drawing data for effects and patterns.

上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路155から図柄表示装置31に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分後の描画データの作成と並行して行われる。また、表示回路155は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域142a,142bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、描画データの描画対象となっているフレーム領域142a,142bが画像信号を出力するための出力対象とならないように規制されている。 The drawing data for one frame is created so as to be completed within a period of 20 msec. An image signal is output from the display circuit 155 to the pattern display device 31 based on the created drawing data. This is performed in parallel with the generation of drawing data for the next frame for the relevant frame. The display circuit 155 has a selector circuit for alternately switching between the frame regions 142a and 142b to be referenced each time the output of the image signal for one frame is completed. The frame regions 142a and 142b, which are drawing targets, are regulated so as not to be output targets for outputting image signals.

なお、上記ステップS1002~ステップS1007までがジオメトリ演算部151により実行される処理であり、上記ステップS1008~ステップS1012がレンダリング部152により実行される処理である。 Note that steps S1002 to S1007 are processes executed by the geometry calculation unit 151, and steps S1008 to S1012 are processes executed by the rendering unit 152. FIG.

<Zバッファ143を利用したマスク表示>
次に、Zバッファ143を利用したマスク表示について説明する。
<Mask display using Z buffer 143>
Next, mask display using the Z-buffer 143 will be described.

Zバッファ143は、既に説明したとおり、Zバッファ法による隠面消去を行う場合に利用される。ここで、VDP135にて実行されるZバッファを用いた隠面処理について、図18のフローチャートを参照しながら説明する。 The Z-buffer 143 is used for hidden surface removal by the Z-buffer method, as already described. Hidden surface processing using the Z-buffer executed by the VDP 135 will now be described with reference to the flowchart of FIG.

Zバッファを用いた隠面処理は、描画リストにてZテスト指定がなされている場合に、描画処理(図16)におけるステップS1010及びステップS1011の各描画データ作成処理にて起動される。また、表示CPU131は、Zテスト指定を行う場合、Zバッファを用いた隠面処理において基準となるスクリーン領域PC12のZ軸を、ワールド座標系のZ軸に対して平行となるように設定し、Z軸方向に平行な方向に並ぶ各ピクセル間において表示対象とするピクセルを決定する。 Hidden surface processing using the Z-buffer is started in each drawing data creation process in steps S1010 and S1011 in the drawing process (FIG. 16) when the Z test is specified in the drawing list. When specifying the Z test, the display CPU 131 sets the Z axis of the screen region PC12, which is the reference for hidden surface processing using the Z buffer, so as to be parallel to the Z axis of the world coordinate system. A pixel to be displayed is determined between pixels arranged in a direction parallel to the Z-axis direction.

ステップS1010の背景用の描画データ作成処理では、背面用の画像及び背景用のオブジェクトが隠面処理の対象となり、ステップS1011の演出及び図柄用の描画データ作成処理では、演出用のオブジェクト及び図柄用のオブジェクトが隠面処理の対象となる。また、演出及び図柄用の描画データ作成処理における隠面処理では、演出用のオブジェクト及び図柄用のオブジェクトのいずれがも設定されていないブランク部分については、完全透過のα値が設定される。 In the drawing data creation process for the background in step S1010, the background image and the background object are subjected to hidden surface processing. objects are subject to hidden surface removal. In the hidden surface processing in drawing data creation processing for effects and patterns, a completely transparent α value is set for a blank portion in which neither the effect object nor the pattern object is set.

Zバッファ143は1個のみ設定されており、スクリーン用バッファ144における背景用のバッファと同一のドット数のエリアを有しているとともに、演出及び図柄用のバッファと同一のドット数のエリアを有している。 Only one Z-buffer 143 is set, and has an area with the same number of dots as the background buffer in the screen buffer 144 and an area with the same number of dots as the effect and design buffer. are doing.

先ずステップS1101では、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS1102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。 First, in step S1101, with the current projection target dot in the screen area PC12 (see FIG. 17) as a reference, an individual image included on the Z-axis and being the target pixel of the individual image to be tested this time. Know the set Z value. In the subsequent step S1102, the Z value set in the area of the dot corresponding to the dot to be drawn on a one-to-one basis in the Z buffer 143 is grasped.

続くステップS1103では、ステップS1101にて把握した個別画像のZ値が、ステップS1102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS1104に進み、ステップS1101にて把握したZ値を、Zバッファ143におけるステップS1102にて参照したドットのエリアに上書きする。続くステップS1105では、ステップS1101にて参照したピクセルに設定されている色情報といった描画用の数値情報を、スクリーン用バッファ144における描画対象のバッファにおいて、今回の投影対象ドットのエリアに上書きする。その後に、ステップS1106に進む。 In the subsequent step S1103, it is determined whether the Z value of the individual image grasped in step S1101 corresponds to the front side in the Z axis direction than the Z value of the Z buffer 143 grasped in step S1102. If it corresponds to the front side, the process advances to step S1104 to overwrite the dot area referred to in step S1102 in the Z buffer 143 with the Z value grasped in step S1101. In the subsequent step S1105, the area of the dot to be projected this time is overwritten in the drawing target buffer in the screen buffer 144 with the numerical value information for drawing such as the color information set in the pixel referred to in step S1101. After that, the process proceeds to step S1106.

一方、ステップS1103にて、手前側に対応していないと判定した場合には、ステップS1104~ステップS1105の処理を実行することなく、ステップS1106に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合には、Zバッファ143の更新は行われないとともに、既に設定されている描画用の数値情報がそのまま保持される。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われるとともに、描画用の数値情報も更新される。 On the other hand, if it is determined in step S1103 that it does not correspond to the near side, the process proceeds to step S1106 without executing the processing of steps S1104 and S1105. In other words, when the Z value of the pixel to be tested is the same as the Z value already set for the target dot in the Z buffer 143 or on the far side in the Z axis direction, the Z buffer 143 is not updated. In addition, the already set numerical value information for drawing is held as it is. On the other hand, when the Z value of the pixel to be tested is on the Z-axis direction front side of the Z value already set for the target dot in the Z buffer 143, the Z buffer 143 is updated and , the numerical information for drawing is also updated.

ステップS1106では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS1101に戻り、新たな対象ピクセルに対してZテストを行う。 In step S1106, it is determined whether or not the Z test has been completed for all target pixels included on the Z axis with respect to the projection target dot. If not, return to step S1101 to perform the Z test on the new target pixel.

完了している場合には、ステップS1107にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS1108にて、投影対象ドットを更新した後にステップS1101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には本隠面処理を終了する。 If completed, it is determined in step S1107 whether or not the Z test has been completed for all dots in the screen area PC12. If not completed, in step S1108, after updating the projection target dot, the process returns to step S1101 to perform the Z test on the new projection target dot. If completed, the hidden surface processing ends.

上記のように隠面処理が実行されることにより、Z軸上に複数の個別画像が並んだとしても、視点に近い側の個別画像のみが表示されることとなる。ここで、本実施形態では、当該隠面処理を利用して背景用のキャラクタのマスク(すなわち、部分表示)が実行される。そして、このマスクは、表示CPU131においてオブジェクトのZ値をマスク用に設定することで行われる。 By executing hidden surface processing as described above, even if a plurality of individual images are arranged on the Z axis, only the individual image closer to the viewpoint is displayed. Here, in the present embodiment, background characters are masked (that is, partially displayed) using the hidden surface processing. This masking is performed by setting the Z value of the object for masking in the display CPU 131 .

以下、表示CPU131にて実行されるマスク用の演算処理について、図19のフローチャートを参照しながら説明する。なお、当該マスク用の演算処理は、データテーブルにおいて参照したエリアにマスク用の演算処理を実行すべきことが示されている場合に、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。 Hereinafter, the calculation processing for masking executed by the display CPU 131 will be described with reference to the flowchart of FIG. 19 . Note that the mask arithmetic processing is executed in the background arithmetic processing in step S903 in the task processing (FIG. 14) when it is indicated in the data table that the mask arithmetic processing should be executed for the area referred to. is executed.

先ずステップS1201では、現状設定されているデータテーブルに基づいて、今回の処理回が第1のマスク表示に対応しているか否かを判定する。ここで、マスク表示として、第1のマスク表示と第2のマスク表示とが設定されている。第1のマスク表示は、キャラクタを一部表示させた状態を複数フレームに亘って維持させる表示態様であり、第2のマスク表示は、キャラクタの全体を表示させた状態からマスクするピクセルを複数フレームに亘って除々に増加させ最終的に消滅させる表示態様である。 First, in step S1201, based on the currently set data table, it is determined whether or not the current processing time corresponds to the first mask display. Here, as the mask display, a first mask display and a second mask display are set. The first mask display is a display mode in which a state in which a character is partially displayed is maintained over a plurality of frames. It is a display mode that gradually increases over time and finally disappears.

第1のマスク表示に対応している場合には、ステップS1202にて、現状設定されているデータテーブルに基づいてマスク対象のオブジェクトを把握する。続くステップS1203では、現状設定されているデータテーブルに基づいて、ステップS1202にて把握したオブジェクトにおいてマスク対象となるピクセルを把握する。 If the first mask display is supported, in step S1202, the object to be masked is grasped based on the currently set data table. In subsequent step S1203, pixels to be masked in the object grasped in step S1202 are grasped based on the currently set data table.

その後、ステップS1204にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいてマスク対象となっているピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、マスク対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 After that, in step S1204, the processing for setting the Z value is executed, and then this calculation processing ends. In the Z-value setting process, the pixels to be masked in the object are set so that their Z-values are on the back side of the image on the backmost surface, and the pixels not to be masked are set to The Z value is set so as to correspond to the position where it should be displayed, which is on the front side of the image on the backmost background.

上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第1のマスク表示が表示面Gにて行われる。第1のマスク表示の具体的な内容について、図20を参照しながら説明する。なお、説明の便宜上、図20では、3次元画像を2次元画像として示す。 By executing the arithmetic processing for the mask as described above and sending the drawing list including the object for which the Z value is set as the drawing target to the VDP 135, the VDP 135 uses the Z buffer for hidden surface processing. Hidden surface processing (FIG. 18) is performed, and finally the first mask display is performed on the display surface G. FIG. Specific contents of the first mask display will be described with reference to FIG. For convenience of explanation, FIG. 20 shows the three-dimensional image as a two-dimensional image.

図20(a)は第1のマスク表示が行われることなく通常通りにキャラクタCH1が表示される場合を示している。また、図20(a―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(a―2)は表示面Gでの表示態様を示す。この場合、図20(a―1)に示すように、各ピクセルには最背面の画像よりも手前側となるようにZ値が設定されているため、図20(a―2)に示すようにキャラクタCH1はその全体が表示される。 FIG. 20(a) shows a case where the character CH1 is normally displayed without the first mask display. 20(a-1) is an image diagram of the Z value designated by the display CPU 131 for each pixel of the object PC13 corresponding to the character CH1, and FIG. A display mode is shown. In this case, as shown in FIG. 20(a-1), the Z value is set for each pixel so that it is on the front side of the backmost image, so as shown in FIG. 20(a-2) , the character CH1 is displayed in its entirety.

図20(b)は第1のマスク表示が行われる場合を示している。また、図20(b―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(b―2)は表示面Gでの表示態様を示す。この場合、図20(b―1)に示すように、各ピクセルの一部には最背面の画像よりも手前側となるようにZ値が設定されているが、残りのピクセルには最背面の画像よりも奥側となるようにZ値が設定されている。したがって、図20(b―2)に示すように、キャラクタCH1は上記手前側となるようにZ値が設定されたピクセルに対応した箇所のみが表示される。 FIG. 20(b) shows the case where the first mask display is performed. 20(b-1) is an image diagram of the Z value designated by the display CPU 131 for each pixel of the object PC13 corresponding to the character CH1, and FIG. A display mode is shown. In this case, as shown in FIG. 20(b-1), the Z value is set for some of the pixels so that they are on the front side of the backmost image, but the remaining pixels are set to the backmost image. The Z value is set so as to be on the back side of the image of . Therefore, as shown in FIG. 20(b-2), the character CH1 is displayed only at a portion corresponding to the pixel for which the Z value is set so as to be on the near side.

なお、同一のキャラクタCH1について第1のマスク表示用に対応したZ値の設定パターンが、表示CPU131の制御プログラムで複数種類設定されている構成としてもよい。この場合、同一のキャラクタCH1について第1のマスク表示の態様を複数種類設定することが可能となる。 A plurality of Z value setting patterns corresponding to the first mask display may be set by the control program of the display CPU 131 for the same character CH1. In this case, it is possible to set a plurality of types of first mask display modes for the same character CH1.

マスク用の演算処理(図19)の説明に戻り、ステップS1201にて、今回の処理回が第1のマスク表示に対応していないと判定した場合には、今回の処理回は第2のマスク表示に対応していることを意味しているため、ステップS1205に進む。ステップS1205では、現状設定されているデータテーブルに基づいて、第2のマスク表示の開始タイミングであるか否かを判定する。 Returning to the description of the calculation processing for masking (FIG. 19), if it is determined in step S1201 that the current processing time does not correspond to the first mask display, the current processing time is the second mask display. Since it means that it corresponds to the display, the process proceeds to step S1205. In step S1205, based on the currently set data table, it is determined whether or not it is time to start the second mask display.

開始タイミングである場合には、ステップS1206にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握する。続くステップS1207では、現状設定されているデータテーブルに基づいて、マスク用の専用テーブルを読み出す。このマスク用の専用テーブルは、今回の第2のマスク表示が完了するまで記憶保持される。続くステップS1208では、上記マスク用の専用テーブルに初期消去対象として設定されているピクセルを把握する。 If it is the start timing, in step S1206, the object to be masked is grasped based on the currently set data table. In the subsequent step S1207, a dedicated table for masking is read based on the currently set data table. This dedicated mask table is stored and held until the current second mask display is completed. In the subsequent step S1208, the pixels set as the initial erasure targets in the dedicated table for masking are grasped.

その後、ステップS1209にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1208にて初期消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、初期消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 After that, in step S1209, the processing for setting the Z value is executed, and then this calculation processing ends. In the Z-value setting process, the Z value of the pixel recognized as the target of initial deletion in step S1208 in the object is set to be on the back side of the image on the backmost surface, and the pixel is determined as the target of initial deletion. For pixels that are not displayed, the Z value is set to correspond to the position where it should be displayed, which is on the front side of the image on the backmost background.

一方、ステップS1205にて開始タイミングでないと判定した場合には、ステップS1210に進む。ステップS1210では、ワークRAM132に設定されている消去対象カウンタを更新する。続くステップS1211では、現状読み出されているマスク用の専用テーブルにおいて、ステップS1210にて更新した消去対象カウンタの値に対応したデータを確認し、消去対象のピクセルを把握する。 On the other hand, if it is determined in step S1205 that it is not the start timing, the process proceeds to step S1210. In step S1210, the erase target counter set in the work RAM 132 is updated. In the subsequent step S1211, data corresponding to the value of the erase target counter updated in step S1210 is checked in the currently read dedicated table for masking, and pixels to be erased are grasped.

その後、ステップS1212にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1211にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 After that, in step S1212, after the Z value setting process is executed, this calculation process ends. In the Z-value setting process, the pixels of the object identified as objects to be erased in step S1211 are set so that their Z-values are on the back side of the backmost image, and thus they are objects to be erased. For pixels that do not have a Z value, the Z value is set to correspond to the position where it should be displayed on the front side of the backmost image.

上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第2のマスク表示が表示面Gにて行われる。第2のマスク表示の具体的な内容について、図21を参照しながら説明する。なお、説明の便宜上、図21では、3次元画像を2次元画像として示す。 By executing the arithmetic processing for the mask as described above and sending the drawing list including the object for which the Z value is set as the drawing target to the VDP 135, the VDP 135 uses the Z buffer for hidden surface processing. Hidden surface processing (FIG. 18) is performed, and finally the second mask display is performed on the display surface G. FIG. Specific contents of the second mask display will be described with reference to FIG. For convenience of explanation, FIG. 21 shows the three-dimensional image as a two-dimensional image.

図21(a)はマスク用の専用テーブルに設定されている情報のイメージ図を示しており、図21(b)は第2のマスク表示が行われることなく通常通りにキャラクタCH2が表示される場合を示している。図21(a)に示すように、キャラクタCH2に対応したオブジェクトPC14は複数のピクセルを有しており、マスク用の専用テーブルでは、それら複数のピクセルが複数ずつグループ分けされているとともに各グループに対して消去対象となるフレーム順序が設定されている。具体的には、「a1」として示すグループが初期消去対象として設定されており、その後は、「a2」として示すグループ→「a3」として示すグループ→「a4」として示すグループ→「a5」として示すグループの順序で消去対象となる。 FIG. 21(a) shows an image diagram of the information set in the dedicated table for masking, and FIG. 21(b) shows the case where the character CH2 is displayed normally without performing the second mask display. is shown. As shown in FIG. 21(a), the object PC14 corresponding to the character CH2 has a plurality of pixels, and in the dedicated table for masking, these plurality of pixels are grouped by a plurality of groups. In contrast, the order of frames to be erased is set. Specifically, the group indicated as "a1" is set as an initial erasure target, and thereafter, the group indicated as "a2" → the group indicated as "a3" → the group indicated as "a4" → indicated as "a5" Deleted in order of group.

第2のマスク表示が開始され、「a1」として示すグループが消去対象となったフレームにおいては、図21(c)に示すように、「a1」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。また、その後のフレームにおいて、「a2」として示すグループが消去対象となった場合には、図21(d)に示すように、「a1」のグループに加え、「a2」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。そして、最終的に「a5」として示すグループが消去対象となったフレームにおいては、キャラクタCH2が表示されない状態となる。 In the frame where the second mask display is started and the group indicated as "a1" is to be erased, as shown in FIG. Character CH2 is displayed. Further, in the subsequent frame, when the group indicated as "a2" is to be erased, in addition to the group "a1", pixels corresponding to the group "a2" The character CH2 is displayed with a missing part. Then, the character CH2 is not displayed in the frame in which the group indicated as "a5" is finally to be erased.

以上のとおり、Zバッファ143を利用してオブジェクトのマスクを行うことができる。また、本構成によれば、表示CPU131のプログラム上でマスク用の演算を行うだけでよく、VDP135において画像データの一種であるマスクデータを設定する必要が生じない。したがって、画像データを記憶しておくのに必要な記憶容量を増加させることなく、マスク表示を行うことができる。 As described above, the Z-buffer 143 can be used to mask objects. Further, according to this configuration, it is only necessary to perform masking calculations on the program of the display CPU 131, and the VDP 135 does not need to set mask data, which is a type of image data. Therefore, mask display can be performed without increasing the storage capacity required to store the image data.

また、表示CPU131においては各オブジェクトのZ値を調整するだけでよいため、表示CPU131の処理負荷をさほど増加させることなく上記マスク表示を行うことができる。また、第1のマスク表示及び第2のマスク表示といった複数種類のマスク表示を、上記のような優れた効果を奏することができる。 Further, since the display CPU 131 only needs to adjust the Z value of each object, the mask display can be performed without increasing the processing load of the display CPU 131 so much. In addition, a plurality of types of mask displays, such as the first mask display and the second mask display, can produce the excellent effects described above.

また、非表示とする部分には最背面画像よりも奥側のZ値が設定される。最背面画像はいずれのフレームにおいても常に背面を構成する画像であるため、Z軸(奥行き方向)の位置として絶対的な基準となる。これを基準に非表示とする部分のZ値を設定することで、非表示とする場合のZ値の設定態様を画一的なものとすることが可能となり、当該Z値の設定に係る処理の処理負荷の軽減が図られる。 Also, a Z value on the back side of the rearmost image is set for the portion to be hidden. Since the rearmost image is an image that always constitutes the rear surface in any frame, it serves as an absolute reference for the Z-axis (depth direction) position. By setting the Z value of the part to be hidden based on this, it is possible to make the setting mode of the Z value in the case of being hidden uniform, and the process related to the setting of the Z value This reduces the processing load of

なお、第1のマスク表示及び第2のマスク表示のいずれか一方のみが設定されている構成としてもよい。また、第2のマスク表示において複数のピクセル毎に消去されるのではなく、1ピクセル毎に消去される構成としてもよく、消去対象となったピクセルが再度表示対象に設定されることがある構成としてもよい。 Note that only one of the first mask display and the second mask display may be set. In addition, in the second mask display, instead of erasing each pixel, each pixel may be erased, and a pixel that has been erased may be set as a display object again. may be

また、上記Z値の設定を逆に行うことで、複数フレーム分の表示期間に亘ってキャラクタが順次消去されるのではなく、複数フレーム分の表示期間に亘ってキャラクタが順次出現するように表示される構成としてもよい。 In addition, by setting the above Z value in reverse, characters are displayed so as to appear sequentially over a display period of a plurality of frames instead of being erased sequentially over a display period of a plurality of frames. It may be configured to be

<Zバッファ143を利用したマスク処理の別形態>
Zバッファ143を利用したマスク表示の別形態について説明する。
<Another Form of Mask Processing Using Z Buffer 143>
Another form of mask display using the Z-buffer 143 will be described.

図22は表示CPU131にて実行されるマスク用の演算処理の別形態を示すフローチャートである。 FIG. 22 is a flow chart showing another form of mask arithmetic processing executed by the display CPU 131 .

先ずステップS1301では、現状設定されているデータテーブルに基づいて、開始タイミングであるか否かを判定する。開始タイミングである場合には、ステップS1302にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握するとともに、ステップS1303にて、現状設定されているデータテーブルに基づいて、初期マスク用テーブルを読み出す。 First, in step S1301, based on the currently set data table, it is determined whether or not it is time to start. If it is the start timing, in step S1302, the object to be masked is grasped based on the currently set data table, and in step S1303, based on the currently set data table, the initial Read the mask table.

続くステップS1304では、マスク抽選処理を実行する。マスク抽選処理では、ワークRAM132に設けられた抽選用カウンタに現状設定されている数値情報を読み出し、その数値情報に対応した消去対象の情報を、ステップS1303にて読み出した初期マスク用テーブルから抽出する。 In subsequent step S1304, a mask lottery process is executed. In the mask lottery process, numerical information currently set in the lottery counter provided in the work RAM 132 is read, and information to be erased corresponding to the numerical information is extracted from the initial mask table read in step S1303. .

抽選用カウンタは、例えばメイン処理(図12)にてステップS702の処理を実行する度に更新されるように構成されており、さらにはカウンタ値が1周した場合には初期値がランダムに選択される構成となっている。また、初期マスク用テーブルでは、抽選用カウンタの各カウンタ値に1対1で対応させて消去対象の情報が設定されているとともに、その消去対象の情報は、マスク対象のオブジェクトを構成する全ピクセルのうち複数のピクセルを1グループとして、各グループと1対1で対応している。 The lottery counter is configured to be updated, for example, each time the process of step S702 is executed in the main process (FIG. 12), and when the counter value reaches one cycle, the initial value is randomly selected. It is configured to be In the initial mask table, information to be erased is set in a one-to-one correspondence with each counter value of the lottery counter. Among them, a plurality of pixels are regarded as one group, and each group corresponds to each other on a one-to-one basis.

続くステップS1305では、ステップS1304にて取得した消去対象の情報から、消去対象のピクセルを把握する。その後、ステップS1306にてZ値の設定処理を実行した後に、本演算処理を終了する。このZ値の設定処理では、上記オブジェクトにおいて、ステップS1305にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 In the subsequent step S1305, pixels to be erased are grasped from the information to be erased obtained in step S1304. After that, in step S1306, the processing for setting the Z value is executed, and then this calculation processing ends. In this Z-value setting process, the pixels of the object identified as objects to be erased in step S1305 are set so that their Z-values are on the back side of the backmost image, and thus they are objects to be erased. For pixels that do not have a Z value, the Z value is set to correspond to the position where it should be displayed on the front side of the backmost image.

一方、ステップS1301にて開始タイミングではないと判定した場合には、ステップS1307に進む。ステップS1307では、既に読み出されている初期マスク用テーブルから、既に消去対象として設定された消去対象の情報が除外されるように、そのマスク用テーブルを書き換える。例えば、既に消去対象として設定された消去対象の情報に対応している上記カウンタ値が、他の消去対象の情報に重複して割り当てられるように、書き換える。この割り当てはランダムに行われてもよく、テーブル上で直下位のカウンタ値に対応した消去対象の情報に割り当てられる構成としてもよい。 On the other hand, if it is determined in step S1301 that it is not the start timing, the process proceeds to step S1307. In step S1307, the mask table is rewritten so that the erase target information already set as the erase target is excluded from the already read initial mask table. For example, the counter value corresponding to the information to be erased that has already been set as the object to be erased is rewritten so that it is redundantly assigned to other information to be erased. This assignment may be performed at random, or may be assigned to information to be erased corresponding to the immediately lower counter value on the table.

その後、ステップS1307にて書き換えたマスク用テーブルを利用して、ステップS1304~ステップS1306の処理を実行した後に、本演算処理を終了する。 After that, using the mask table rewritten in step S1307, the processing of steps S1304 to S1306 is executed, and then this calculation processing ends.

以上のとおり、本別形態によれば、消去対象となるピクセルがランダムに選択されることとなるため、マスク表示の態様を多様化することができる。 As described above, according to this embodiment, pixels to be erased are selected at random, so that mask display modes can be diversified.

なお、Zバッファ143を利用したマスク表示を、背景用のキャラクタではなく、演出用のキャラクタや図柄に対して適用してもよい。例えば、演出用のキャラクタに対して適用する場合、隠面処理が背景用の画像データ及び演出用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。また、図柄に対して適用する場合、隠面処理が背景用の画像データ、演出用の画像データ及び図柄用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。 The mask display using the Z-buffer 143 may be applied not only to background characters but also to performance characters and designs. For example, when applied to a production character, the hidden surface processing is performed on the background image data and the production image data collectively. Based on the Z value of the image, the Z value of the display target and the non-display target may be sorted. Also, when applying to a pattern, the hidden surface processing is performed collectively for the background image data, the effect image data, and the pattern image data. , based on the Z value of the backmost image, the Z value of the display object and the non-display object may be sorted.

また、隠面処理が背景、演出及び図柄に対して個別に行われる場合であっても、VDP135において最背面画像よりも奥側のZ値が設定されているピクセルは描画対象としないと定められているのであれば、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。 Also, even if hidden surface processing is performed separately for the background, effects, and patterns, it is determined that the pixels for which the Z value is set on the back side of the backmost image in the VDP 135 are not to be drawn. If so, the Z values of the display target and the non-display target may be sorted based on the Z value of the backmost image in the same manner as in the above configuration.

また、表示対象及び非表示対象のZ値の振分が、最背面画像のZ値を基準にして行われるのではなく、例えば非表示対象のZ値として視点よりも手前のZ値が設定され、表示対象のZ値として視点よりも奥側のZ値が設定される構成としてもよい。 In addition, the Z value of the display target and the non-display target is not divided based on the Z value of the backmost image. , the Z value of the object to be displayed may be set to the Z value on the back side of the viewpoint.

また、Zバッファ143を利用した隠面処理は、ワールド座標系のZ軸を基準に行われるのではなく、視点の向く方向を基準に行われる構成としてもよい。 Hidden surface processing using the Z buffer 143 may be performed based on the direction of the viewpoint instead of the Z axis of the world coordinate system.

<表示モードの切換に係る構成>
次に、表示モードの切換に係る構成について説明する。
<Configuration for Switching Display Modes>
Next, a configuration for switching between display modes will be described.

表示モードとは、既に説明したとおり、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。具体的には、第1表示モードと第2表示モードとが設定されている。 As already explained, the display mode is a state in which the standby image displayed before the start of the game round and the game round image displayed while the game round is being executed are set to predetermined types. , and multiple types of display modes are set. Specifically, a first display mode and a second display mode are set.

第1表示モードと第2表示モードとでは、背景画像の表示態様及び各図柄の表示態様が相互に異なっている。具体的には、同一の番号が付された図柄で比較した場合、第1表示モードと第2表示モードとで図柄の外形や形状は同一となっているが、色や模様が異なっている。また、背景画像については、第1表示モードと第2表示モードとで、最背面画像の種類が異なっているとともに、最背面画像の手前にて表示されるキャラクタの数及び種類が異なっており、表示されるキャラクタの数は第1表示モードの方が第2表示モードよりも多く設定されている。 The display mode of the background image and the display mode of each pattern are different between the first display mode and the second display mode. Specifically, when the symbols with the same number are compared, the outline and shape of the symbols are the same between the first display mode and the second display mode, but the colors and patterns are different. As for the background image, the type of the background image differs between the first display mode and the second display mode, and the number and type of characters displayed in front of the background image also differ. The number of displayed characters is set larger in the first display mode than in the second display mode.

表示モードの切換は、演出用操作装置48の操作に基づき行われる。具体的には、遊技回や開閉実行モードが実行されていない状況で演出用操作装置48が操作されることで、表示モードが順次切り換えられるようになっている。また、遊技回が実行されている状況における所定の条件下で演出用操作装置48が操作されたことに基づき切り換えられるようになっている。 The switching of the display mode is performed based on the operation of the operating device 48 for presentation. Specifically, the display mode is sequentially switched by operating the operating device 48 for presentation in a situation where the game round or the opening/closing execution mode is not executed. In addition, switching is made based on the fact that the operation device 48 for presentation is operated under a predetermined condition while the game round is being executed.

表示モードの切換に係る具体的な処理構成を説明する。 A specific processing configuration for switching between display modes will be described.

図23は、表示CPU131にて実行される操作発生コマンド対応処理を示すフローチャートである。操作発生コマンド対応処理はV割込み処理(図13)におけるステップS803のコマンド対応処理にて実行される。 FIG. 23 is a flow chart showing operation generation command handling processing executed by the display CPU 131 . The operation generation command handling process is executed in the command handling process of step S803 in the V interrupt process (FIG. 13).

先ずステップS1401では、音声発光制御装置60からモード切換用の操作発生コマンドを受信しているか否かを判定する。受信していない場合にはそのまま本操作コマンド対応処理を終了し、受信している場合にはステップS1402に進む。 First, in step S 1401 , it is determined whether or not an operation generation command for mode switching has been received from the sound emission control device 60 . If it has not been received, the operation command handling process ends, and if it has been received, the process advances to step S1402.

ステップS1402では、第1切換可能期間であるか否かを判定する。第1切換可能期間とは、遊技回及び開閉実行モードのいずれもが実行されていない期間である。第1切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1402では、現状設定されているデータテーブルに基づいて第1切換可能期間であるか否かを判定する。第1切換可能期間である場合には、ステップS1403にて、ワークRAM132に設けられた所定のエリアに対して第1切換実行フラグをセットする。 In step S1402, it is determined whether or not it is the first switchable period. The first switchable period is a period during which neither the game cycle nor the opening/closing execution mode is executed. Information for specifying whether it is the first switchable period is set in the data table, and in step S1402, it is determined whether it is the first switchable period based on the currently set data table. . If it is the first switchable period, a first switch execution flag is set in a predetermined area provided in the work RAM 132 in step S1403.

一方、第1切換可能期間ではない場合には、ステップS1404に進み、第2切換可能期間であるか否かを判定する。第2切換可能期間とは、遊技回が実行されている状況において開始タイミングから実行途中における予め定められた基準タイミングまでの期間である。具体的には、図柄表示装置31にて遊技回用演出が実行される場合、全図柄列SA1~SA3での図柄の変動表示を開始→全図柄列SA1~SA3での高速変動表示→低速変動表示を経由した各図柄列SA1~SA3の順次停止という表示の流れを含む。この場合に、第2切換可能期間は、全図柄列SA1~SA3での図柄の変動表示が開始されてから全図柄列SA1~SA3での高速変動表示が終了するタイミングまでの期間である。 On the other hand, if it is not the first switchable period, the flow advances to step S1404 to determine whether it is the second switchable period. The second switchable period is a period from the start timing to a predetermined reference timing in the middle of execution in the situation where the game round is being executed. Specifically, when the game cycle effect is executed on the symbol display device 31, the variable display of symbols in all the symbol rows SA1 to SA3 is started→high speed variation display in all the symbol rows SA1 to SA3→low speed variation. It includes a display flow of sequential stop of each of the symbol rows SA1 to SA3 via the display. In this case, the second switchable period is a period from the start of the variable display of symbols in all of the symbol rows SA1 to SA3 to the end of the high-speed variable display of all of the symbol rows SA1 to SA3.

なお、図柄の変動表示の態様を、全図柄列SA1~SA3での図柄の変動表示を開始→全図柄列SA1~SA3の加速期間→全図柄列SA1~SA3での高速変動表示(高速は一定速度)→低速変動表示(低速は一定速度)を経由した各図柄列SA1~SA3の順次停止という表示の流れとしてもよい。この場合、第2切換可能期間を、全図柄列SA1~SA3での高速変動表示が実行されている期間としてもよい。 In addition, the mode of the variable display of symbols is as follows: starting variable display of symbols in all symbol rows SA1 to SA3 → acceleration period of all symbol rows SA1 to SA3 → high-speed fluctuation display in all symbol rows SA1 to SA3 (high speed is constant) speed)→low speed fluctuation display (low speed is constant speed), and then the symbol rows SA1 to SA3 are sequentially stopped. In this case, the second switchable period may be the period during which the high-speed fluctuation display is executed in all of the symbol rows SA1-SA3.

また、高速変動表示と低速変動表示との間に中速変動表示が含まれていてもよい。つまり、図柄の変動表示の態様は、2段階、3段階又は4段階以上といったように複数段階で切り換わるのであれば具体的な段階数は任意である。この場合、第2切換可能期間を、各段階のうち遊技者における図柄の識別性が低い低識別な段階の期間としてもよい。 Further, medium-speed fluctuation display may be included between the high-speed fluctuation display and the low-speed fluctuation display. In other words, the number of specific stages is arbitrary as long as the mode of the variable display of the pattern is switched in a plurality of stages such as two stages, three stages, or four stages or more. In this case, the second switchable period may be a period of a low recognizable stage in which the recognizability of the symbols for the player is low among the stages.

また、図柄の変動表示の流れにおいて相対的に低識別態様での変動表示→高識別態様での変動表示という状態を含むのであれば具体的な変動態様は任意であり、例えばいずれの態様であっても変動速度は同一であるが、低識別態様での変動表示では図柄が透明、半透明、中抜き又は一部を除いた状態で表示され、高識別態様での変動表示では図柄の全体が表示される構成としてもよい。この場合、第2切換可能期間を、低識別態様での変動表示が行われている期間としてもよい。 In addition, the specific variation mode is arbitrary as long as it includes the state of the variation display in the relatively low discrimination mode → the variation display in the high discrimination mode in the flow of the variable display of the pattern, for example, any mode However, in the variable display in the low identification mode, the pattern is displayed as transparent, translucent, hollowed out, or partially removed, and in the variable display in the high identification mode, the entire pattern is displayed. It may be configured to be displayed. In this case, the second switchable period may be a period during which variable display is performed in the low identification mode.

第2切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1404では、現状設定されているデータテーブルに基づいて第2切換可能期間であるか否かを判定する。第2切換可能期間ではないと判定した場合には、そのまま本操作発生コマンド対応処理を終了し、第2切換可能期間である場合には、ステップS1405にて、ワークRAM132に設けられた所定のエリアに対して第2切換実行フラグをセットする。 Information for specifying whether it is the second switchable period is set in the data table, and in step S1404, it is determined whether it is the second switchable period based on the currently set data table. . If it is determined that it is not the second switchable period, this operation generation command handling process is terminated as it is. to set the second switching execution flag.

ステップS1403及びステップS1405のいずれかの処理を実行した後は、ステップS1406に進む。ステップS1406では、表示モード用のカウンタを更新する。 After executing either step S1403 or step S1405, the process advances to step S1406. In step S1406, the display mode counter is updated.

表示モード用のカウンタとは、表示CPU131にて現状の表示モードを特定するためのカウンタであり、ワークRAM132に設けられている。表示モード用のカウンタには各表示モードに1対1で対応させてカウンタ値が設定されている。本実施形態では上記のとおり表示モードとして第1表示モード及び第2表示モードの2種類が設定されているため、上記カウンタ値として第1表示モードに対応した「0」の数値と、第2表示モードに対応した「1」の数値とが設定されている。この場合、表示モード用のカウンタの初期値は「0」として設定されているため、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合には第1表示モードが設定される。 The display mode counter is a counter for specifying the current display mode in the display CPU 131 and is provided in the work RAM 132 . A counter value is set in the display mode counter in a one-to-one correspondence with each display mode. In the present embodiment, as described above, two types of display modes, the first display mode and the second display mode, are set. A numerical value of "1" corresponding to the mode is set. In this case, since the initial value of the counter for the display mode is set as "0", when the supply of operating power to the display CPU 131 is started or when the pachinko machine 10 is reset, the 1 display mode is set.

ステップS1406では、演出用操作装置48が1回操作される度に表示モードが予め定められた順序に従って順次切り換えられるように表示モード用のカウンタを更新する。具体的には、表示モード用のカウンタが「0」であり第1表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第2表示モードに切り換えるとともに、表示モード用のカウンタが「1」であり第2表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第1表示モードに切り換える。ステップS1406の処理を実行した後に、本操作発生コマンド対応処理を終了する。 In step S1406, the counter for the display mode is updated so that the display mode is sequentially switched according to a predetermined order each time the operation device 48 for presentation is operated. Specifically, when the processing of step S1406 is executed in a situation where the display mode counter is "0" and the first display mode is set, the display mode counter is set to "1" and the second display mode is set. When the process of step S1406 is executed in a situation where the display mode is switched to the display mode and the display mode counter is "1" and the second display mode is set, the display mode counter is set to "1" and the second display mode is set. 1 Switch to display mode. After executing the process of step S1406, the operation generation command handling process ends.

次に、表示CPU131にて実行される表示モード背景用の演算処理について、図24のフローチャートを参照しながら説明する。表示モード背景用の演算処理は、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。なお、大当たり演出を実行する場合などには表示モードに対応した背景画像は表示されないため表示モード背景用の演算処理は実行されず、待機画像を表示する場合や遊技回用の演出を実行する場合などに表示モード背景用の演算処理が実行される。 Next, the display mode background arithmetic processing executed by the display CPU 131 will be described with reference to the flowchart of FIG. The arithmetic processing for the display mode background is executed in the arithmetic processing for the background in step S903 in the task processing (FIG. 14). In addition, when executing a jackpot effect, etc., the background image corresponding to the display mode is not displayed, so the arithmetic processing for the display mode background is not executed, and when displaying the standby image or executing the effect for the game round Calculation processing for the display mode background is executed.

先ずステップS1501では、ワークRAM132に設けられた表示モード用のカウンタを参照し、第1表示モードであるか否かを判定する。第1表示モードである場合には、ステップS1502にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第1最背面画像を把握する。続くステップS1503では、その把握した第1最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1504にて、現状設定されているデータテーブルに基づいて、第1表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1505では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 First, in step S1501, the display mode counter provided in the work RAM 132 is referenced to determine whether or not the current display mode is the first display mode. If it is the first display mode, in step S1502, the first background image to be updated this time is grasped based on the currently set data table. In the following step S1503, various parameters of the grasped first background image are calculated to update the control information. In subsequent step S1504, an object corresponding to the first display mode and to be updated for the background is grasped based on the currently set data table. In the subsequent step S1505, various parameters of the grasped object are calculated to update control information.

一方、第2表示モードである場合には、ステップS1506にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第2最背面画像を把握する。続くステップS1507では、その把握した第2最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1508にて、現状設定されているデータテーブルに基づいて、第2表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1509では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 On the other hand, if it is the second display mode, in step S1506, the second backmost image to be updated this time is grasped based on the currently set data table. In the following step S1507, various parameters of the grasped second backmost image are calculated to update the control information. In subsequent step S1508, an object corresponding to the second display mode and to be updated for the background is grasped based on the currently set data table. In subsequent step S1509, various parameters of the grasped object are calculated to update control information.

なお、ステップS1502の処理の実行タイミングでは、第1最背面画像及び第1表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。また、ステップS1506の処理の実行タイミングでは、第2最背面画像及び第2表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。 At the execution timing of the process of step S1502, the setting process (step S901) for starting control of the background object corresponding to the first background image and the first display mode has been completed. At the execution timing of the process of step S1506, the setting process (step S901) for starting control of the background object corresponding to the second backmost image and the second display mode has been completed.

ステップS1505又はステップS1509の処理を実行した後は、ステップS1510にて、ワークRAM132に第1切換実行フラグ又は第2切換実行フラグのいずれかがセットされているか否かを判定する。いずれかの切換実行フラグがセットされている場合には、ステップS1511にて、処理負荷の大きい状況であるか否かを判定する。 After executing the process of step S1505 or step S1509, it is determined in step S1510 whether or not either the first switching execution flag or the second switching execution flag is set in the work RAM 132 . If any of the switching execution flags is set, it is determined in step S1511 whether the processing load is heavy.

処理負荷の大きい状況とは、今回の描画リストに指定された画像データに対するジオメトリ演算及びレンダリングの両方がVDP135にて実行される場合に、処理落ちが発生する程度にVDP135の処理負荷が大きい又は処理落ちが発生しないまでもVDP135の処理負荷が比較的大きい状況のことをいう。なお、処理負荷の大きい状況か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1511の判定を行う。 A situation in which the processing load is heavy means that the processing load of the VDP 135 is large enough to cause a drop in processing when both geometry calculation and rendering for the image data specified in the current drawing list are executed by the VDP 135. It refers to a situation in which the processing load of the VDP 135 is relatively large even if a drop does not occur. Information on whether or not the processing load is heavy is defined in the data table, and the determination in step S1511 is performed based on that information.

処理負荷の大きい状況ではない場合には、ステップS1512にて、今回の表示モードに対応した背景画像は別保存済みであるか否かを判定する。ここで、別保存とは、各表示モードに対応した背景画像を表示させるための背景用の描画データを個別に保存するとともにその保存している状態を維持することである。別保存に際しては、VRAM134に設けられたモード用バッファ145が用いられる(図4を参照)。 If the processing load is not heavy, it is determined in step S1512 whether or not the background image corresponding to the current display mode has been saved separately. Here, separate storage means to individually store the background drawing data for displaying the background image corresponding to each display mode and to maintain the stored state. For separate storage, the mode buffer 145 provided in the VRAM 134 is used (see FIG. 4).

モード用バッファ145には、第1表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第1モード用領域145aと、第2表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第2モード用領域145bと、が設けられている。また、VDP135には、背景用の描画データを第1モード用領域145a及び第2モード用領域145bのいずれかへ書き込む機能と、その書き込まれた背景用の描画データを読み出してスクリーン用バッファ144に書き込む機能と、を有する表示モード制御部154を備えている。 The mode buffer 145 has a first mode area 145a in which background drawing data for displaying a background image corresponding to the first display mode is written, and a first mode area 145a for displaying a background image corresponding to the second display mode. and a second mode area 145b in which background drawing data is written. The VDP 135 also has a function of writing background drawing data to either the first mode area 145a or the second mode area 145b, and reading out the written background drawing data to the screen buffer 144. and a display mode control unit 154 having a writing function.

別保存済みではない場合にはステップS1513にて別保存の実行指定情報を記憶した後に、本演算処理を終了し、別保存済みである場合にはそのまま本演算処理を終了する。 If the data has not been stored separately, the execution designation information for the separate storage is stored in step S1513, and then this operation processing ends. If the data has been stored separately, the processing ends directly.

上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1513の処理が実行されている場合には別保存の実行指定情報が設定される。別保存の実行指定情報には、別保存を実行すべきことを示す情報が含まれているとともに、別保存先のアドレスの情報も含まれている。 When the arithmetic processing for the display mode background is executed as described above, the drawing list created by the subsequent drawing list output processing contains the background for either the first display mode or the second display mode. information of the usage instruction of the image data is set. Further, when the process of step S1513 is executed, execution designation information for separate storage is set. The separate storage execution specification information includes information indicating that separate storage should be executed, and also includes information on the address of the separate storage destination.

一方、処理負荷の大きい状況である場合(ステップS1511:YES)には、ステップS1514にて、切換先の表示モードの背景画像が別保存済みであるか否かを判定する。別保存済みではない場合にはそのまま本演算処理を終了する。一方、別保存済みである場合にはステップS1515にて別保存データの使用指定情報を記憶した後に、本演算処理を終了する。 On the other hand, if the processing load is heavy (step S1511: YES), it is determined in step S1514 whether or not the background image of the display mode to be switched to has been saved separately. If the data has not been stored separately, the calculation process is terminated as it is. On the other hand, if the data has already been stored separately, the information for designating the use of the separately stored data is stored in step S1515, and then this calculation processing ends.

上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード及び第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1515の処理が実行されている場合には別保存データの使用指定情報が設定される。別保存データの使用指定情報には、別保存データを使用すべきことを示す情報が含まれているとともに、その別保存データが保存されているアドレスの情報も含まれている。 When the arithmetic processing for the display mode background is executed as described above, the drawing list created by the subsequent drawing list output processing contains the background for either the first display mode or the second display mode. information of the usage instruction of the image data is set. Also, if the process of step S1515 has been executed, the use designation information of the separately saved data is set. The separately stored data use specification information includes information indicating that the separately stored data should be used, and information of the address where the separately stored data is stored.

次に、表示CPU131にて実行される図柄用演算処理について、図25のフローチャートを参照しながら説明する。図柄用演算処理はタスク処理(図14)のステップS905にて実行される。 Next, the symbol arithmetic processing executed by the display CPU 131 will be described with reference to the flowchart of FIG. The symbol arithmetic processing is executed in step S905 of the task processing (FIG. 14).

先ずステップS1601では、現状設定されているデータテーブルに基づいて、図柄について制御更新用の処理を実行する必要があるか否かを判定する。実行する必要がない場合として大当たり演出を実行している場合が含まれ、実行する必要がある場合として遊技回用の演出を実行している場合及び待機画像を表示している場合が含まれる。実行する必要がない場合にはそのまま本図柄用演算処理を終了し、実行する必要がある場合にはステップS1602にて、現状設定されているデータテーブルに基づいて、遊技回の実行中であるか否かを判定する。 First, in step S1601, based on the currently set data table, it is determined whether or not it is necessary to execute control update processing for the symbol. The case where it is not necessary to execute includes the case of executing a jackpot performance, and the case where it is necessary to execute includes the case of executing the performance for game rounds and the case of displaying a standby image. If there is no need to execute, the symbol calculation processing is terminated as it is, and if it is necessary to execute, at step S1602, based on the currently set data table, whether or not the game cycle is being executed. determine whether or not

遊技回の実行中でない場合には、ステップS1603にて、ワークRAM132に第1切換実行フラグがセットされているか否かを判定する。第1切換実行フラグがセットされている場合には、ステップS1604にて、制御対象の図柄を切換先の表示モードに対応させて変更する。具体的には、ワークRAM132において図柄の制御を行う上で確保されている各空きバッファ領域のパラメータ用の情報はそのまま保持させながら、制御対象の図柄の情報(例えば記憶されているアドレスの情報)のみを切換先の表示モードに対応した情報に書き換える。なお、ステップS1603及びステップS1604の処理が、タスク処理(図14)における制御開始用の設定処理(ステップS901)にて実行される構成としてもよい。また、ステップS1603にて肯定判定をした場合に第1切換実行フラグをクリアする。 If the game round is not being executed, it is determined whether or not the first switching execution flag is set in the work RAM 132 in step S1603. When the first switching execution flag is set, at step S1604, the symbol to be controlled is changed in accordance with the display mode to be switched. Specifically, the information of the pattern to be controlled (for example, the information of the stored address) is retained while the parameter information of each empty buffer area reserved for the control of the pattern in the work RAM 132 is held as it is. only is rewritten to information corresponding to the display mode of the switching destination. Note that the processing of steps S1603 and S1604 may be configured to be executed in the control start setting processing (step S901) in the task processing (FIG. 14). Also, if an affirmative determination is made in step S1603, the first switching execution flag is cleared.

ステップS1603にて否定判定をした場合又はステップS1604の処理を実行した場合は、ステップS1605に進む。ステップS1605では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1606にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。 If a negative determination is made in step S1603 or if the process of step S1604 is executed, the process advances to step S1605. In step S1605, based on the currently set data table, the object of the pattern to be controlled is grasped, and in subsequent step S1606, various parameters of the object are calculated and updated. After that, the arithmetic processing for this symbol is terminated.

上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した図柄用の画像データの使用指示の情報が設定される。 When the symbol calculation process is executed as described above, the symbol image data corresponding to either the first display mode or the second display mode is included in the drawing list created in the subsequent drawing list output process. is set.

遊技回の実行中である場合(ステップS1602:YES)には、ステップS1607にて、現状設定されているデータテーブルに基づいて、全図柄列SA1~SA3において高速変動表示中であるか否かを判定する。全図柄列SA1~SA3において高速変動表示中である場合には、ステップS1608にて、ワークRAM132に第2切換実行フラグがセットされているか否かを判定する。 If the game round is being executed (step S1602: YES), in step S1607, based on the currently set data table, it is determined whether or not all symbol rows SA1 to SA3 are being displayed at high speed. judge. When all the symbol rows SA1 to SA3 are being displayed at high speed, it is determined whether or not the second switching execution flag is set in the work RAM 132 at step S1608.

第2切換実行フラグがセットされている場合には、ステップS1609にて、制御対象の図柄を切換先の表示モードに対応させて変更させることが可能であるか否かを判定する。これは今回の描画リストに対応した描画処理(図16)がVDP135にて実行される場合に、制御対象の図柄を切換先の表示モードに対応させて変更させようとすると、処理落ちが発生するか否かを基準として、処理落ちが発生しないのであれば変更させることが可能となり、処理落ちが発生するのであれば変更させることが不可であると判定される。 If the second switching execution flag is set, it is determined in step S1609 whether or not the symbol to be controlled can be changed in accordance with the switching destination display mode. This is because when the drawing process (FIG. 16) corresponding to the current drawing list is executed by the VDP 135, if the pattern to be controlled is changed in accordance with the display mode to be switched to, the processing will fail. If no processing failure occurs, it is determined that the change is possible, and if processing failure occurs, it is determined that the change is impossible.

例えば、今回の描画リストにおいて表示モードの切換に対応した背景用の画像データが新たに設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じるため、VDP135の処理負荷を大きくなる。したがって、この場合は、図柄を変更させることが不可であると判定される。一方、今回の描画リストにおいて背景用の画像データとして別保存データが設定されている場合、又は前回の描画リストに係る表示モードと同一の表示モードに対応した背景用の画像データが設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じないため、VDP135の処理負荷は比較的小さくなる。したがって、この場合は、図柄を変更させることが可能であると判定される。 For example, if new background image data corresponding to the display mode switching is set in the drawing list this time, the VDP 135 needs to newly set the image data in the world coordinate system. The processing load on the VDP 135 is increased. Therefore, in this case, it is determined that the symbol cannot be changed. On the other hand, when separately saved data is set as background image data in the current drawing list, or when background image data corresponding to the same display mode as the display mode related to the previous drawing list is set Since the VDP 135 does not need to newly set the image data in the world coordinate system, the processing load of the VDP 135 is relatively small. Therefore, in this case, it is determined that the design can be changed.

なお、変更させることが可能か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1609の判定を行う。また、ステップS1608にて肯定判定をした場合に第2切換実行フラグをクリアする。 Information as to whether or not it is possible to change is defined in the data table, and the determination in step S1609 is performed based on this information. Also, if an affirmative determination is made in step S1608, the second switching execution flag is cleared.

ステップS1609にて、変更させることが可能であると判定した場合には、ステップS1610にて、制御対象の図柄を切換先の表示モードに対応させて変更する。この処理の具体的な内容は、ステップS1604と同様である。ステップS1610の処理を実行した後はステップS1613に進む。 If it is determined in step S1609 that the change is possible, then in step S1610 the pattern to be controlled is changed in accordance with the display mode to be switched to. The specific content of this process is the same as that of step S1604. After executing the process of step S1610, the process proceeds to step S1613.

一方、ステップS1609にて、変更させることが可能ではないと判定した場合には、ステップS1611にて、ワークRAM132に設けられた所定のエリアに対して変更待機フラグをセットした後に、ステップS1613に進む。変更待機フラグは、制御対象の図柄の変更が待機されていることを表示CPU131にて特定するためのフラグである。変更待機フラグがセットされている場合には、ステップS1608にて、第2切換実行フラグがセットされていないと判定されたとしても、ステップS1612の処理が実行されることで、ステップS1609の処理が実行される。なお、第2切換実行フラグ及び変更待機フラグの両方がセットされていない場合には、そのままステップS1613に進む。また、変更待機フラグはステップS1612にて肯定判定をした際にクリアされる。 On the other hand, if it is determined in step S1609 that the change is not possible, in step S1611 a change waiting flag is set for a predetermined area provided in the work RAM 132, and then the process proceeds to step S1613. . The change waiting flag is a flag for specifying in the display CPU 131 that the change of the symbol to be controlled is waiting. When the change wait flag is set, even if it is determined in step S1608 that the second switching execution flag is not set, the process of step S1612 is executed, and the process of step S1609 is executed. executed. If both the second switching execution flag and the change wait flag are not set, the process proceeds directly to step S1613. Also, the change standby flag is cleared when an affirmative determination is made in step S1612.

ステップS1613では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1614にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。 In step S1613, based on the currently set data table, the object of the pattern to be controlled is grasped, and in subsequent step S1614, various parameters of the object are calculated and updated. After that, the arithmetic processing for this symbol is terminated.

上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。この場合に、ステップS1609にて、切換先の表示モードに対応した図柄に変更させることができないと判定した場合には、切換元の表示モードに対応した図柄の画像データの使用指示の情報がそのまま描画リストに設定される。そうすると、最終的に表示モードに対応しない図柄が表示面Gに表示されることとなるが、第2切換実行フラグがセットされるタイミングは高速変動表示中であるため、遊技者は上記の状態を認識することができない又は認識しづらい。 When the arithmetic processing for symbols is executed as described above, the drawing list created by the subsequent drawing list output processing includes instructions for using image data for symbols corresponding to the first display mode or the second display mode. information is set. In this case, if it is determined in step S1609 that the design cannot be changed to the design corresponding to the switching destination display mode, the information of the usage instruction of the image data of the design corresponding to the switching source display mode remains unchanged. Set in the draw list. As a result, a pattern that does not correspond to the display mode is finally displayed on the display surface G. However, since the timing at which the second switching execution flag is set is during the high-speed fluctuation display, the player can avoid the above state. Unrecognizable or difficult to recognize.

また、切換先の表示モードに対応した図柄に変更させることができない場合には、変更待機フラグがセットされて、その後の処理回で変更が行われる。これにより、VDP135において処理落ちを発生させないようにしつつ、表示モードの切換を良好に行うことができる。なお、高速変動表示が行われている範囲で、切換先の表示モードに対応した図柄の変更が行われるように、VDP135の処理負荷が調整されている。 Further, when the pattern cannot be changed to the pattern corresponding to the display mode to be switched to, a change waiting flag is set, and the change is performed in the subsequent processing. As a result, it is possible to satisfactorily switch the display mode while preventing processing dropouts from occurring in the VDP 135 . It should be noted that the processing load of the VDP 135 is adjusted so that the pattern corresponding to the display mode to be switched to is changed within the range where the high-speed variation display is performed.

高速変動表示中ではない場合(ステップS1607:NO)には、ステップS1615に進む。ステップS1615では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1616にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。 If the high-speed change display is not being performed (step S1607: NO), the process proceeds to step S1615. In step S1615, based on the currently set data table, the object of the pattern to be controlled is grasped, and in the following step S1616, various parameters of the object are calculated and updated. After that, the arithmetic processing for this symbol is terminated. When the arithmetic processing for symbols is executed as described above, the drawing list created by the subsequent drawing list output processing includes instructions for using image data for symbols corresponding to the first display mode or the second display mode. information is set.

次に、VDP135にて実行される背景用の設定処理を、図26のフローチャートを参照しながら説明する。なお、背景用の設定処理は、描画処理(図16)におけるステップS1002にて実行される。 Next, the background setting process executed by the VDP 135 will be described with reference to the flowchart of FIG. Note that the background setting process is executed in step S1002 in the drawing process (FIG. 16).

先ずステップS1701では、今回の描画リストにおいて別保存データの使用指定が設定されているか否かを判定する。設定されている場合には、ステップS1702にて、その指定に対応した別保存データを背景用の描画データとして設定するための情報をレジスタ153に記憶させる。 First, in step S1701, it is determined whether or not use of separately saved data is specified in the current drawing list. If it is set, in step S1702, the register 153 stores information for setting the separately saved data corresponding to the designation as background drawing data.

設定されていない場合(ステップS1701:NO)又はステップS1702の処理を実行した後は、ステップS1703に進む。ステップS1703では、今回の描画リストに指定されている最背面画像を把握するとともに、ステップS1704にて、その最背面画像について指定されている各種パラメータを把握する。その後、ステップS1705にて、その最背面画像について、ワールド座標系への設定処理を実行する。この設定に係る内容は、既に説明したとおりである。 If not set (step S1701: NO) or after executing the process of step S1702, the process proceeds to step S1703. In step S1703, the backmost image specified in the current drawing list is grasped, and in step S1704, various parameters specified for the backmost image are grasped. After that, in step S1705, the background image is set to the world coordinate system. The contents related to this setting are as already explained.

続くステップS1706では、今回の描画リストに指定されている背景用のオブジェクトを把握するとともに、ステップS1707にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS1708にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本背景用の設定処理を終了する。 In step S1706, the background object specified in the current rendering list is grasped, and in step S1707, various parameters specified for the object are grasped. After that, in step S1708, the setting process for the background is finished after executing the process of setting the object to the world coordinate system.

上記のように背景用の設定処理が実行されることにより、別保存データの使用指定が設定されていない状況だけでなく、別保存データの使用指定が設定されている状況であっても、描画リストにて指定されている画像データをワールド座標系に設定することができる。そして、これに伴って、例えば今回の描画リストが表示モードの切換に係るものである場合には、切換先の表示モードに対応した画像データの制御開始用の設定を行うことができる。 By executing the setting process for the background as described above, drawing Image data specified in the list can be set in the world coordinate system. Along with this, for example, when the current drawing list is related to the switching of the display mode, it is possible to perform the setting for starting control of the image data corresponding to the switching destination display mode.

次に、VDP135にて実行される背景用の描画データ作成処理を、図27のフローチャートを参照しながら説明する。なお、背景用の描画データ作成処理は、描画処理(図16)におけるステップS1010にて実行される。 Next, the drawing data creation process for the background executed by the VDP 135 will be described with reference to the flowchart of FIG. The drawing data creation process for the background is executed in step S1010 in the drawing process (FIG. 16).

先ずステップS1801では、レジスタ153に別保存データの使用設定の情報がセットされているか否かを判定する。セットされていない場合には、ステップS1802にて、隠面処理を実行して、スクリーン用バッファ144に背景用の描画データを作成する。隠面処理については、既に説明したとおりである。 First, in step S1801, it is determined whether or not the information of the use setting of the separately stored data is set in the register 153 or not. If not set, in step S 1802 , hidden surface processing is executed to create background drawing data in the screen buffer 144 . Hidden surface processing has already been described.

続くステップS1803では、今回の描画リストにおいて別保存の実行指定が設定されているか否かを判定する。設定されていない場合には、そのまま本描画データ作成処理を終了する。設定されている場合には、ステップS1804にて、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち対象となるモード用領域へ、ステップS1802にて作成された背景用の描画データを書き込む。これにより、背景用の描画データの別保存が行われる。その後に、本描画データ作成処理を終了する。 In the following step S1803, it is determined whether or not execution of separate saving is specified in the current drawing list. If it is not set, the drawing data creation process is terminated. If it is set, in step S1804, the background image created in step S1802 is transferred to the target mode area of the first mode area 145a and the second mode area 145b of the mode buffer 145. Write the drawing data of As a result, the drawing data for the background is saved separately. After that, the drawing data creation process is terminated.

一方、ステップS1801にて、レジスタ153に別保存データの使用設定の情報がセットされている場合には、ステップS1805に進む。ステップS1805では、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち、今回指定されているモード用領域から別保存データを読み出し、その読み出した別保存データを、今回の背景用の描画データとして、スクリーン用バッファ144に書き込む。その後に、本描画データ作成処理を終了する。 On the other hand, in step S1801, if the information on the use setting of the separately saved data is set in the register 153, the process advances to step S1805. In step S1805, of the first mode area 145a and the second mode area 145b of the mode buffer 145, the separate saved data is read out from the currently specified mode area, and the read separate saved data is transferred to the current mode area. It is written in the screen buffer 144 as background drawing data. After that, the drawing data creation process is terminated.

上記のように背景用の描画データ作成処理が実行されることにより、ジオメトリ演算及びレンダリングを通じた背景用の描画データ、又は別保存データに係る背景用の描画データがスクリーン用バッファ144に格納される。また、各表示モードに対応した画像が表示されるフレームにおいては、その後に演出及び図柄用の描画データ作成処理(ステップS1011)が実行されて、演出及び図柄用の描画データが作成されるとともに、描画データ合成処理(ステップS1012)が実行されて、1フレーム分の描画データが作成される。 By executing the background drawing data creation process as described above, the background drawing data obtained through geometry calculation and rendering or the background drawing data related to the separately saved data is stored in the screen buffer 144. . Further, in a frame in which an image corresponding to each display mode is displayed, drawing data creation processing for effects and symbols (step S1011) is executed to create drawing data for effects and symbols. Drawing data synthesizing processing (step S1012) is executed to create drawing data for one frame.

ここで、第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを、図28のタイミングチャートを参照しながら説明する。 Here, the timing of creating the separately stored data for the first display mode and the separately stored data for the second display mode will be described with reference to the timing chart of FIG.

図28(A)は第1表示モードに対応した背景用の描画データPD1を示し、図28(B)は第2表示モードに対応した背景用の描画データPD2を示す。また、図28(a)はパチンコ機10の電源のON/OFFの状態を示し、図28(b)は第1表示モードの有無を示し、図28(c)は第2表示モードの有無を示し、図28(d)は第1表示モード用の別保存データの有無を示し、図28(e)は第2表示モード用の別保存データの有無を示す。 FIG. 28A shows background drawing data PD1 corresponding to the first display mode, and FIG. 28B shows background drawing data PD2 corresponding to the second display mode. 28(a) shows the power ON/OFF state of the pachinko machine 10, FIG. 28(b) shows the existence of the first display mode, and FIG. 28(c) shows the existence of the second display mode. 28(d) shows the presence or absence of separate storage data for the first display mode, and FIG. 28(e) shows the presence or absence of separate storage data for the second display mode.

t1のタイミングでパチンコ機10の電源がON操作されることで、表示CPU131への電力供給が開始され、表示CPU131にて処理が開始される。また、表示モードは第1表示モードに設定されているため、t1のタイミングよりも後のタイミングで、第1表示モードに対応した画像を表示させるために、描画リストが表示CPU131からVDP135に出力され、さらにその描画リストに基づきVDP135にて第1表示モードに対応した描画データの作成が開始される。 When the pachinko machine 10 is turned on at timing t1, power supply to the display CPU 131 is started, and the display CPU 131 starts processing. Further, since the display mode is set to the first display mode, the drawing list is output from the display CPU 131 to the VDP 135 in order to display the image corresponding to the first display mode after the timing t1. Further, based on the drawing list, the VDP 135 starts to create drawing data corresponding to the first display mode.

その後、t2のタイミングで、第1表示モードに対応した背景用の描画データPD1の作成が完了することで、その描画データが第1表示モード用の別保存データとしてモード用バッファ145の第1モード用領域145aに記憶される。この第1表示モードに対応した背景用の描画データPD1による背景画像では、図28(A)に示すように、最背面画像の手前にて「A」~「F」にて示す3次元のキャラクタ画像が表示される。また、第1モード用領域145aに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。また、t2のタイミング又はその後の所定のタイミングで、第1表示モードに対応した画像の表示が開始される。 After that, at the timing of t2, the generation of background drawing data PD1 corresponding to the first display mode is completed. is stored in the use area 145a. In the background image based on the background drawing data PD1 corresponding to the first display mode, as shown in FIG. An image is displayed. Further, the separately saved data stored in the first mode area 145a is stored and held while the power supply to the VRAM 134 is continued. Also, at timing t2 or at a predetermined timing thereafter, display of an image corresponding to the first display mode is started.

その後、t3のタイミングで演出用操作装置48が操作されることに基づき、表示モードが第1表示モードから第2表示モードに切り換えられる。そして、第2表示モード用の描画データが作成され、第2表示モードに対応した画像の表示が開始される。また、当該タイミングにおいて第2表示モードに対応した背景用の描画データPD2の作成が完了するため、その描画データが第2表示モード用の別保存データとしてモード用バッファ145の第2モード用領域145bに記憶される。この第2表示モードに対応した背景用の描画データPD2による背景画像では、図28(B)に示すように、最背面画像の手前にて「G」~「J」にて示す3次元のキャラクタ画像が表示される。また、第2モード用領域145bに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。 After that, the display mode is switched from the first display mode to the second display mode based on the operation of the production operating device 48 at the timing of t3. Then, drawing data for the second display mode is created, and display of an image corresponding to the second display mode is started. At this timing, the creation of the background drawing data PD2 corresponding to the second display mode is completed. stored in In the background image based on the background drawing data PD2 corresponding to the second display mode, as shown in FIG. An image is displayed. Further, the separately saved data stored in the second mode area 145b is stored and held while the power supply to the VRAM 134 is continued.

ここで、第1表示モードに対応した背景用の描画データPD1は、第2表示モードに対応した背景用の描画データPD2に比べて、設定されるオブジェクトの数が多い。そうすると、第2表示モードから第1表示モードの切換がVDP135の処理負荷の大きい状況で行われると、VDP135にて処理落ちが発生してしまうことが懸念される。これに対して、両別保存データのうち、第1表示モード用の別保存データを電源立ち上げ時の初期設定が行われている時間を利用して作成しておくことで、処理負荷の大きい状況で表示モードが第1表示モードに切り換えられた場合には、その別保存データを利用して処理落ちを回避することができる。 Here, the background drawing data PD1 corresponding to the first display mode has more objects to be set than the background drawing data PD2 corresponding to the second display mode. In this case, if the switching from the second display mode to the first display mode is performed in a state where the processing load on the VDP 135 is large, there is concern that the VDP 135 may fail processing. On the other hand, by creating the separately stored data for the first display mode among the separately stored data by using the time during which the initial setting is performed when the power is turned on, the processing load is large. When the display mode is switched to the first display mode under certain circumstances, it is possible to avoid processing failure by using the separately stored data.

一方、第2表示モードに対応した背景用の描画データPD2は、その作成にかかるVDP135の処理負荷が小さく、VDP135の処理負荷の大きい状況で第2表示モードへの切換が行われたとしても、処理落ちが発生しないように設定されている。但し、第2表示モードに対応した背景用の描画データPD2についても別保存は行われ、処理落ちが発生しないまでも比較的処理負荷が大きい状況で第2表示モードへの切換が行われた場合には、その別保存データが利用される。 On the other hand, the background drawing data PD2 corresponding to the second display mode has a small processing load on the VDP 135 for its creation. It is set so that processing dropouts do not occur. However, the background drawing data PD2 corresponding to the second display mode is also stored separately, and even if the processing drop does not occur, the switching to the second display mode is performed in a situation where the processing load is relatively large. , the separately stored data is used.

上記のように別保存データが作成されることで、t4~t9のタイミングで示すように、表示モードの切換が短時間で繰り返し実行された場合などには、それぞれの表示モードにおいて別保存データを利用して背景用の画像を表示することで、処理落ちの発生を阻止することができる。 By creating the separately saved data as described above, when the display mode switching is repeatedly executed in a short period of time as shown at the timing of t4 to t9, the separately saved data is saved in each display mode. By using this to display the background image, it is possible to prevent the occurrence of processing omissions.

また、別保存の対象は背景画像であり、図柄といった変動が注目される個別画像は含まれない。これにより、個別画像が変動している状況で表示モードの切換が行われた場合に、別保存データを使用した画像の表示を行ったとしても、変動が注目される個別画像の動きは継続されるため、遊技者が違和感を抱きづらくなる。 In addition, the object of separate storage is the background image, and the individual image such as the pattern whose variation attracts attention is not included. As a result, when the display mode is switched in a situation where the individual images are fluctuating, even if the images using the separately stored data are displayed, the movements of the individual images whose fluctuations are noted are not continued. Therefore, it becomes difficult for the player to have a sense of incongruity.

なお、表示モードは2段階に限定されることはなく、3段階又は4段階以上設定されていてもよい。この場合であっても、各表示モードに対応した背景用の描画データを別保存しておくことで、表示モードの切換を良好に行うことができる。 In addition, the display mode is not limited to two stages, and may be set to three stages or four stages or more. Even in this case, by separately storing the background drawing data corresponding to each display mode, the display mode can be switched satisfactorily.

また、表示モードの切換タイミングがいずれであっても、図柄の種類の切換が待機されることなく行われる構成としてもよい。また、図柄は表示モード間で相違しない構成としてもよい。 In addition, regardless of the display mode switching timing, the pattern type switching may be performed without waiting. Also, the pattern may be configured so as not to differ between the display modes.

また、演出用のキャラクタも表示モードに依存して切り換わる構成としてもよい。この場合、演出用のキャラクタは別保存の対象ではない構成としてもよく、別保存の対象である構成としてもよい。 Also, the characters for presentation may be switched depending on the display mode. In this case, the character for presentation may be configured not to be separately stored, or may be configured to be separately stored.

<連結オブジェクトを用いて3次元画像を表示するための構成>
次に、連結オブジェクトを用いて3次元画像を表示するための構成について説明する。
<Configuration for Displaying Three-Dimensional Image Using Connected Objects>
Next, a configuration for displaying a three-dimensional image using connected objects will be described.

連結オブジェクトは、複数の部品オブジェクト(部分オブジェクト)が連結部を関節として連結された一単位のオブジェクトであり、各部品オブジェクトを相対的に変位させることで3次元画像のキャラクタに動きを与えるために設定されている。連結オブジェクトを用いることにより、3次元画像のキャラクタをスムーズに動作させることができる。なお、連結オブジェクトが骨格部と関節部とを有していることに鑑みれば、ボーンモデルと称することもできる。 A connected object is a single unit object in which a plurality of part objects (partial objects) are connected using connecting parts as joints. is set. By using connected objects, a character in a three-dimensional image can be smoothly moved. In view of the fact that the connected object has a skeleton and joints, it can also be referred to as a bone model.

連結オブジェクトは、所定の動作を行うキャラクタを表示するために設定されている。ここで、本実施形態では、共通のキャラクタを表示するための連結オブジェクトが複数種類設定されている。この複数種類の連結オブジェクトについて、図29を参照しながら説明する。 A connected object is set to display a character that performs a predetermined action. Here, in this embodiment, a plurality of types of connected objects are set for displaying a common character. These multiple types of connected objects will be described with reference to FIG.

図29(a),(b)に示すように、共通のキャラクタを表示するために、第1の連結オブジェクトPC15と、第2の連結オブジェクトPC16とが設定されている。これら第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16はそれぞれ複数の連結部CT1,CT2を有しているが、相互に異なる箇所に連結部CT1,CT2が設定されている。 As shown in FIGS. 29A and 29B, a first connected object PC15 and a second connected object PC16 are set to display a common character. The first connected object PC15 and the second connected object PC16 each have a plurality of connecting portions CT1 and CT2, but the connecting portions CT1 and CT2 are set at mutually different locations.

具体的には、第1の連結オブジェクトPC15は膝部分に連結部が設けられていないが、肘部分に連結部CT1が設けられており、図29(a―1),(a―2)に示すような動作の表示が可能となっている。一方、第2の連結オブジェクトPC16は肘部分に連結部が設けられていないが、膝部分に連結部CT2が設けられており、図29(b―1),(b―2)に示すような動作の表示が可能となっている。上記のように異なる箇所に連結部が設定されていることにより、第1の連結オブジェクトPC15を使用した場合と第2の連結オブジェクトPC16を使用した場合とで、キャラクタに異なる動作をさせることが可能となる。 Specifically, the first connected object PC15 does not have a connecting portion at the knee portion, but has a connecting portion CT1 at the elbow portion. It is possible to display the operation as shown. On the other hand, the second connected object PC16 does not have a connecting portion at the elbow portion, but has a connecting portion CT2 at the knee portion, as shown in FIGS. Actions can be displayed. As described above, connecting parts are set at different locations, so that the character can perform different actions depending on whether the first connected object PC15 is used or the second connected object PC16 is used. becomes.

なお、両連結オブジェクトPC15,PC16は共通する箇所に連結部CT1,CT2を有しているが、共通する箇所に連結部CT1,CT2を有していない構成としてもよい。また、両連結オブジェクトPC15,PC16に対しては共通のテクスチャがマッピングされるが、それぞれ個別にテクスチャが設定されている構成としてもよい。複数の連結オブジェクトPC15,PC16を用意しておくことでキャラクタに異なる動作をさせることが可能であれば、連結部CT1,CT2の位置やキャラクタの種類は任意である。 Although both connected objects PC15 and PC16 have the connecting portions CT1 and CT2 in common, they may not have the connecting portions CT1 and CT2 in common. Although a common texture is mapped to both connected objects PC15 and PC16, textures may be set individually for each of them. If a plurality of connected objects PC15 and PC16 can be prepared to allow the character to perform different actions, the positions of the connecting portions CT1 and CT2 and the type of character are arbitrary.

以下、上記両連結オブジェクトPC15,PC16を用いてキャラクタが動作している様子を表示するための具体的な処理構成を説明する。 Hereinafter, a specific processing configuration for displaying a state in which the character is moving using the two connected objects PC15 and PC16 will be described.

図30は、表示CPU131にて実行される連結オブジェクト用の演算処理を示すフローチャートである。連結オブジェクト用の演算処理はタスク処理(図14)のステップS904における演出用演算処理にて実行される。また、連結オブジェクト用の演算処理は、連結オブジェクトPC15,PC16を用いた演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 30 is a flow chart showing arithmetic processing for connected objects executed by the display CPU 131 . Arithmetic processing for connected objects is executed in the performance arithmetic processing in step S904 of the task processing (FIG. 14). Further, the arithmetic processing for connected objects is started when a data table corresponding to game rounds in which effects using connected objects PC15 and PC16 are executed is set.

先ずステップS1901では、現状設定されているデータテーブルに基づいて、連結オブジェクトPC15,PC16を用いた演出の実行中(上記キャラクタが表示中)であるか否かを判定する。演出の実行中ではない場合にはステップS1902にて、連結オブジェクトPC15,PC16を用いた演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS1903に進む。 First, in step S1901, based on the currently set data table, it is determined whether or not an effect using the connected objects PC15 and PC16 is being executed (the character is being displayed). If the effect is not being executed, it is determined in step S1902 whether or not it is time to start the effect using the connected objects PC15 and PC16. If it is not the start timing, this operation processing ends as it is, and if it is the start timing, the process advances to step S1903.

ステップS1903では、連結オブジェクト演出の開始指定情報を記憶し、続くステップS1904にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。ちなみに、ステップS1904の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、両連結オブジェクトPC15,PC16に対して制御開始用の処理が完了している。また、制御が開始された両連結オブジェクトPC15,PC16の制御用の情報は、連結オブジェクトPC15,PC16を用いた今回の一連の演出が完了するまではワークRAM132に記憶保持される。 In step S1903, information specifying the start of connected object rendering is stored, and in subsequent step S1904, the first connected object PC15 and the second connected object PC16 are grasped as objects to be controlled based on the currently set data table. do. Incidentally, at the execution timing of the process of step S1904, the process for starting control has been completed for both connected objects PC15 and PC16 in the previous setting process for starting control (step S901). Information for controlling both connected objects PC15 and PC16 whose control has been started is stored and held in the work RAM 132 until the current series of effects using the connected objects PC15 and PC16 is completed.

続くステップS1905では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1906では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。 In the subsequent step S1905, various parameters of the first connected object PC15 are calculated to update control information related to the first connected object PC15. Also, in step S1906, various parameters of the second connected object PC16 are calculated to update control information related to the second connected object PC16.

続くステップS1907では、第1演出期間の指定情報を記憶する。ここで、連結オブジェクトPC15,PC16を用いた演出は、その全体の演出期間が複数種類の演出期間、具体的には第1演出期間,第2演出期間及び第3演出期間に区分けされている。そして、第1演出期間及び第3演出期間は第1の連結オブジェクトPC15を用いてキャラクタが表示され、第2演出期間は第2の連結オブジェクトPC16を用いてキャラクタが表示される。その後、ステップS1908にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。 In the subsequent step S1907, the designation information of the first presentation period is stored. Here, the effect using the connected objects PC15 and PC16 is divided into a plurality of types of effect periods, specifically, a first effect period, a second effect period and a third effect period. During the first rendering period and the third rendering period, the character is displayed using the first connected object PC15, and during the second rendering period, the character is displayed using the second connected object PC16. After that, in step S1908, the parameters of the first connected object PC15 out of the two connected objects PC15 and PC16 are set so as to be designated by the current drawing list.

続くステップS1909では、現状設定されているデータテーブルに基づいて、第1演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ちなみに、ステップS1909の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、今回の更新対象のオブジェクトに対して制御開始用の処理が完了している。その後、ステップS1910にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In the subsequent step S1909, based on the currently set data table, another object for the first effect period and to be updated this time is grasped. Incidentally, at the execution timing of the processing in step S1909, the processing for starting control has been completed for the object to be updated this time in the previous setting processing for starting control (step S901). After that, in step S1910, various parameters of the grasped other objects are calculated, and after updating the control information related to these other objects, this calculation processing ends.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、連結オブジェクトPC15,PC16を用いた演出を開始させるべきことを示す連結オブジェクト演出の開始指定情報と、第1演出期間であることを示す第1演出期間の指定情報とが、描画リストに設定される。 When the operation processing for the connected object is executed as described above, the drawing list created by the subsequent drawing list output processing is set with the usage instruction information for both the connected objects PC15 and PC16, and the The parameters of the first connected object PC15 are set for the objects PC15 and PC16. In addition, the connected object effect start designation information indicating that the effect using the connected objects PC15 and PC16 should be started and the first effect period designation information indicating the first effect period are set in the drawing list. be done.

一方、連結オブジェクトPC15,PC16を用いた演出の実行中である場合(ステップS1901:YES)には、ステップS1911にて、現状設定されているデータテーブルに基づいて、第1演出期間中であるか否かを判定する。第1演出期間中である場合には、ステップS1904~ステップS1910の処理を実行した後に、本演算処理を終了する。ちなみに、今回は第1演出期間中であるため、当該第1演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1905にてパラメータの演算が行われる。 On the other hand, if the effect using the connected objects PC15 and PC16 is being executed (step S1901: YES), in step S1911, based on the currently set data table, whether it is during the first effect period or not. determine whether or not If it is during the first rendering period, the processing of steps S1904 to S1910 is executed, and then this calculation processing is terminated. Incidentally, since this time is during the first rendering period, the first connected object PC15 will perform the predetermined first action (see FIG. 29A) as the first rendering period progresses. Then, parameter calculation is performed in step S1905.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第1演出期間であることを示す第1演出期間の指定情報が、描画リストに設定される。 When the operation processing for the connected object is executed as described above, the drawing list created by the subsequent drawing list output processing is set with the usage instruction information for both the connected objects PC15 and PC16, and the The parameters of the first connected object PC15 are set for the objects PC15 and PC16. In addition, designation information of the first effect period indicating that it is the first effect period is set in the drawing list.

ステップS1911にて、第1演出期間中ではないと判定した場合には、ステップS1912にて、現状設定されているデータテーブルに基づいて、第2演出期間中であるか否かを判定する。第2演出期間中である場合には、ステップS1913にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。 If it is determined in step S1911 that it is not in the first effect period, in step S1912 it is determined whether or not it is in the second effect period based on the currently set data table. If it is during the second rendering period, in step S1913, the first connected object PC15 and the second connected object PC16 are grasped as objects to be controlled based on the currently set data table.

続くステップS1914では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1915では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。ちなみに、今回は第2演出期間中であるため、当該第2演出期間の進行に伴って第2の連結オブジェクトPC16が予め定められた第2の動作(図29(b)を参照)をするように、ステップS1915にてパラメータの演算が行われる。 In the following step S1914, various parameters of the first connected object PC15 are calculated to update control information related to the first connected object PC15. Also, in step S1915, various parameters of the second connected object PC16 are calculated to update control information related to the second connected object PC16. By the way, this time is during the second rendering period, so that the second connected object PC16 performs a predetermined second action (see FIG. 29(b)) as the second rendering period progresses. Then, parameter calculation is performed in step S1915.

続くステップS1916では、第2演出期間の指定情報を記憶し、さらにステップS1917にて、両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のパラメータが今回の描画リストにて指定されるように設定する。 In subsequent step S1916, the specification information for the second rendering period is stored, and in step S1917, parameters of the second connected object PC16 out of the two connected objects PC15 and PC16 are specified in the current drawing list. set.

続くステップS1918では、現状設定されているデータテーブルに基づいて、第2演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第2演出期間は第1演出期間よりも演出が発展した状態であり、少なくとも第1演出期間から第2演出期間への切り換えに際して表示されるオブジェクト数は増加する。第1演出期間から第2演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1918の処理の実行タイミングにおいて完了している。その後、ステップS1919にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In the subsequent step S1918, based on the currently set data table, other objects for the second rendering period that are to be updated this time are grasped. Here, the second rendering period is a state in which the rendering has developed more than the first rendering period, and at least the number of objects displayed increases when switching from the first rendering period to the second rendering period. The setting process (step S901) for starting control of the objects increased when switching from the first effect period to the second effect period is completed at the execution timing of the process of step S1918. After that, in step S1919, various parameters of the grasped other objects are calculated, and after updating the control information related to these other objects, this calculation processing ends.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第2の連結オブジェクトPC16のパラメータが設定される。また、第2演出期間であることを示す第2演出期間の指定情報が、描画リストに設定される。 When the operation processing for the connected object is executed as described above, the drawing list created by the subsequent drawing list output processing is set with the usage instruction information for both the connected objects PC15 and PC16, and the The parameters of the second connected object PC16 are set for the objects PC15 and PC16. In addition, designation information of the second effect period indicating that it is the second effect period is set in the drawing list.

ステップS1912にて、第2演出期間中ではないと判定した場合には、第3演出期間であることを意味するため、ステップS1920に進む。ステップS1920では、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。 If it is determined in step S1912 that it is not during the second rendering period, it means that it is during the third rendering period, so the process proceeds to step S1920. In step S1920, based on the currently set data table, the first connected object PC15 and the second connected object PC16 are grasped as objects to be controlled.

続くステップS1921では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。ちなみに、今回は第3演出期間中であるため、当該第3演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1921にてパラメータの演算が行われる。また、ステップS1922では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。 In the following step S1921, various parameters of the first connected object PC15 are calculated to update control information related to the first connected object PC15. Incidentally, this time is during the third rendering period, so that the first connected object PC15 performs a predetermined first action (see FIG. 29A) as the third rendering period progresses. Then, parameter calculation is performed in step S1921. Also, in step S1922, various parameters of the second connected object PC16 are calculated to update control information related to the second connected object PC16.

続くステップS1923では、第3演出期間の指定情報を記憶し、さらにステップS1924にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。 In the subsequent step S1923, the information specifying the third rendering period is stored, and in step S1924, the parameters of the first connected object PC15 out of the two connected objects PC15 and PC16 are designated in the current rendering list. set.

続くステップS1925では、現状設定されているデータテーブルに基づいて、第3演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第3演出期間は第2演出期間よりも演出が発展した状態であり、少なくとも第2演出期間から第3演出期間への切り換えに際して表示されるオブジェクト数は増加する。第2演出期間から第3演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1925の処理の実行タイミングにおいて完了している。その後、ステップS1926にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In the subsequent step S1925, based on the currently set data table, another object for the third effect period and to be updated this time is grasped. Here, the third rendering period is a state in which the rendering is more developed than the second rendering period, and at least the number of objects displayed increases when switching from the second rendering period to the third rendering period. The setting process (step S901) for starting control of the objects increased when switching from the second effect period to the third effect period is completed at the execution timing of the process of step S1925. After that, in step S1926, various parameters of the grasped other objects are calculated, and after updating the control information related to these other objects, this calculation processing ends.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第3演出期間であることを示す第3演出期間の指定情報が、描画リストに設定される。 When the operation processing for the connected object is executed as described above, the drawing list created by the subsequent drawing list output processing is set with the usage instruction information for both the connected objects PC15 and PC16, and the The parameters of the first connected object PC15 are set for the objects PC15 and PC16. In addition, designation information of the third effect period indicating that it is the third effect period is set in the drawing list.

次に、VDP135にて実行される連結オブジェクト演出用の設定処理を、図31のフローチャートを参照しながら説明する。連結オブジェクト演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、連結オブジェクト演出用の設定処理は、今回の描画リストに連結オブジェクト演出の開始指定、第1演出期間乃至第3演出期間の指定のいずれかが設定されている場合に起動される。 Next, setting processing for connected object rendering executed by the VDP 135 will be described with reference to the flowchart of FIG. The setting processing for connected object rendering is executed in the setting processing for rendering in step S1003 in the drawing processing (FIG. 16). Also, the connected object rendering setting process is started when either the start of the connected object rendering or the designation of the first through third rendering periods is set in the current drawing list.

先ずステップS2001では、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されているか否かを判定する。設定されている場合には、ステップS2002にて、今回の描画リストに基づいて、メモリモジュール133において第1の連結オブジェクトPC15が記憶されているアドレスを把握して、当該第1の連結オブジェクトPC15を読み出す。また、ステップS2003にて、今回の描画リストに基づいて、メモリモジュール133において第2の連結オブジェクトPC16が記憶されているアドレスを把握して、当該第2の連結オブジェクトPC16を読み出す。 First, in step S2001, it is determined whether or not the start designation of the connected object effect is set in the current drawing list. If it is set, in step S2002, based on the current drawing list, the address where the first connected object PC15 is stored in the memory module 133 is grasped, and the first connected object PC15 is drawn. read out. Also, in step S2003, based on the current drawing list, the address where the second connected object PC16 is stored in the memory module 133 is grasped, and the second connected object PC16 is read out.

続くステップS2004では、第1演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。 In the subsequent step S2004, a uniform α value setting process for the first effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “1”, which is opaque information, and the uniform α value of the second connected object PC16 is set to “0”, which is completely transparent information. do. As a result, the color information preset for all pixels of the first connected object PC15 (including the α value information set to each pixel from the beginning) is applied as it is, whereas the An α value of “0” is uniformly applied to all pixels of the connected object PC16 of 2.

続くステップS2005では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2006にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In subsequent step S2005, the parameters specified for the first connected object PC15 in the current drawing list are grasped as the parameters of both connected objects PC15 and PC16. After that, in step S2006, both connected objects PC15 and PC16 are set to the world coordinate system.

今回は連結オブジェクト演出の開始指定に係る処理回であるため、両連結オブジェクトPC15,PC16のワールド座標系への配置を行う。また、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第1の連結オブジェクトPC15のパラメータを第2の連結オブジェクトPC16にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。 Since this time is the processing for specifying the start of the connected object rendering, both connected objects PC15 and PC16 are arranged in the world coordinate system. Also, although the shapes of both connected objects PC15 and PC16 are generally the same, the connecting portions of the component objects are different. Then, even if the parameters of the first connected object PC15 are applied to the second connected object PC16 as they are, there will be pixels whose coordinate designations do not match. .

続くステップS2007では、今回の描画リストに指定されている第1演出期間用の他のオブジェクトを把握するとともに、ステップS2008にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2009にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。 In subsequent step S2007, other objects for the first rendering period specified in the current drawing list are grasped, and in step S2008, various parameters designated for the objects are grasped. After that, in step S2009, after the object is set to the world coordinate system, the setting process for connecting object effect is finished.

上記のように連結オブジェクト演出用の設定処理が実行されることにより、ワールド座標系に対して両連結オブジェクトPC15,PC16の配置が同時に開始される。また、両連結オブジェクトPC15,PC16に対して同一のパラメータが適用されるため、ワールド座標系の同一の位置に対して両連結オブジェクトPC15,PC16が重ねて配置される。但し、ステップS2004の処理が実行されていることにより、第2の連結オブジェクトPC16はレンダリングに際して完全透明のオブジェクトとして扱われるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。 By executing the setting process for the connected object rendering as described above, the placement of both connected objects PC15 and PC16 with respect to the world coordinate system is started at the same time. In addition, since the same parameters are applied to both connected objects PC15 and PC16, both connected objects PC15 and PC16 are superimposed at the same position in the world coordinate system. However, since the process of step S2004 is executed, the second connected object PC16 is handled as a completely transparent object at the time of rendering. Only PC15 is displayed.

一方、ステップS2001にて、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されていないと判定した場合には、ステップS2010に進む。ステップS2010では、今回の描画リストにおいて第1演出期間の指定が設定されているか否かを判定する。 On the other hand, if it is determined in step S2001 that the start designation of the connected object effect is not set in the current drawing list, the process advances to step S2010. In step S2010, it is determined whether or not designation of the first effect period is set in the current drawing list.

設定されている場合には、ステップS2004~ステップS2009の処理を実行した後に、本設定処理を終了する。この場合、ステップS2006では、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。 If it is set, the setting process ends after the processes of steps S2004 to S2009 are executed. In this case, in step S2006, the various parameters of both connected objects PC15 and PC16 set in the world coordinate system are grasped from the parameter information set in the drawing list so as to correspond to the first connected object PC15. Update.

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2004の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2005で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第1演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。 Various parameters of both connected objects PC15 and PC16 are updated by executing the setting processing for the connected object rendering as described above. Of the objects PC15 and PC16, only the first connected object PC15 is displayed. Further, since the parameter updated in step S2005 corresponds to the first connected object PC15, the first connected object PC15 is changed so as to perform the first action on the display surface G as the first effect period progresses. Object PC15 is displayed.

ステップS2010にて、今回の描画リストにおいて第1演出期間の指定が設定されていないと判定した場合には、ステップS2011に進む。ステップS2011では、今回の描画リストにおいて第2演出期間の指定が設定されているか否かを判定する。 If it is determined in step S2010 that the designation of the first rendering period is not set in the current drawing list, the process proceeds to step S2011. In step S2011, it is determined whether or not designation of the second effect period is set in the current drawing list.

設定されている場合には、ステップS2012にて、第2演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を完全透過情報である「0」に設定するとともに、第2の連結オブジェクトPC16の一律α値を不透過情報である「1」に設定する。これにより、第2の連結オブジェクトPC16の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第1の連結オブジェクトPC15の全ピクセルに対して「0」のα値が一律に適用される。 When it is set, in step S2012, a uniform α value setting process for the second effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “0”, which is completely transparent information, and the uniform α value of the second connected object PC16 is set to “1”, which is opaque information. do. As a result, the color information preset to all pixels of the second connected object PC16 (including the α value information set to each pixel from the beginning) is applied as it is, whereas the second An α value of “0” is uniformly applied to all pixels of one connected object PC15.

続くステップS2013では、今回の描画リストにおいて第2の連結オブジェクトPC16に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2014にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In subsequent step S2013, the parameters specified for the second connected object PC16 in the current rendering list are grasped as the parameters of both connected objects PC15 and PC16. After that, in step S2014, both connected objects PC15 and PC16 are set to the world coordinate system.

今回は第2演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第2の連結オブジェクトPC16に対応させて設定されているパラメータの情報から把握して更新する。この場合に、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第2の連結オブジェクトPC16のパラメータを第1の連結オブジェクトPC15にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。 Since this time is the processing for updating the second rendering period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set in the drawing list so as to correspond to the second connected object PC16. Update by grasping from the information of the parameters that are stored. In this case, the shapes of the two connected objects PC15 and PC16 are generally the same, but the connecting portions of the part objects are different. Then, even if it is attempted to apply the parameters of the second connected object PC16 to the first connected object PC15 as they are, there will be pixels whose coordinate designations do not match. .

続くステップS2015では、今回の描画リストに指定されている第2演出期間用の他のオブジェクトを把握するとともに、ステップS2016にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2017にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第1演出期間から第2演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2017ではそれに応じた処理を実行する。 In subsequent step S2015, other objects for the second rendering period designated in the current drawing list are grasped, and in step S2016, various parameters designated for the objects are grasped. After that, in step S2017, after executing the setting processing for the world coordinate system for the object, the setting processing for this connected object rendering ends. Here, if the current processing time is timing related to switching from the first rendering period to the second rendering period, the number of displayed objects increases, so in step S2017 the processing corresponding to that is executed. .

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2012の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のみが表示される。また、ステップS2013で更新されるパラメータは、第2の連結オブジェクトPC16に対応しているため、第2演出期間の進行に伴って、表示面Gでは第2の動作を行うように第2の連結オブジェクトPC16が表示される。 Various parameters of both connected objects PC15 and PC16 are updated by executing the setting processing for the connected object rendering as described above. Of the objects PC15 and PC16, only the second connected object PC16 is displayed. Further, since the parameter updated in step S2013 corresponds to the second connected object PC16, the second connected object is set so that the second action is performed on the display surface G as the second effect period progresses. Object PC16 is displayed.

ステップS2011にて、今回の描画リストにおいて第2演出期間の指定が設定されていないと判定した場合には、今回の描画リストにおいて第3演出期間の指定が設定されていることを意味するため、ステップS2018に進む。 If it is determined in step S2011 that the designation of the second effect period is not set in the current drawing list, it means that the designation of the third effect period is set in the current drawing list. The process proceeds to step S2018.

ステップS2018では、第3演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。 In step S2018, a uniform α value setting process for the third effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “1”, which is opaque information, and the uniform α value of the second connected object PC16 is set to “0”, which is completely transparent information. do. As a result, the color information preset for all pixels of the first connected object PC15 (including the α value information set to each pixel from the beginning) is applied as it is, whereas the An α value of “0” is uniformly applied to all pixels of the connected object PC16 of 2.

続くステップS2019では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2020にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the subsequent step S2019, the parameters specified for the first connected object PC15 in the current drawing list are grasped as the parameters of both connected objects PC15 and PC16. After that, in step S2020, both connected objects PC15 and PC16 are set to the world coordinate system.

今回は第3演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。 Since this time is the processing for updating the third effect period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set in the drawing list so as to correspond to the first connected object PC15. Update by grasping from the information of the parameters that are stored.

続くステップS2021では、今回の描画リストに指定されている第3演出期間用の他のオブジェクトを把握するとともに、ステップS2022にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2023にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第2演出期間から第3演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2023ではそれに応じた処理を実行する。 In subsequent step S2021, other objects for the third rendering period specified in the current drawing list are grasped, and in step S2022, various parameters specified for the objects are grasped. After that, in step S2023, after executing the setting process for the world coordinate system for the object, the setting process for this connected object effect is finished. Here, if the current processing time is timing related to switching from the second rendering period to the third rendering period, the number of displayed objects will increase, so in step S2023 the processing corresponding to that will be executed. .

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2018の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2019で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第3演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。 Various parameters of both connected objects PC15 and PC16 are updated by executing the setting processing for connected object rendering as described above. Of the objects PC15 and PC16, only the first connected object PC15 is displayed. In addition, since the parameter updated in step S2019 corresponds to the first connected object PC15, the first connected object is changed so that the first action is performed on the display surface G as the third effect period progresses. Object PC15 is displayed.

次に、連結オブジェクト演出の内容について、図32を参照しながら説明する。 Next, the contents of the connected object rendering will be described with reference to FIG.

図32は連結オブジェクト演出を説明するための説明図である。また、図32(a)は第1演出期間を示し、図32(b)は第2演出期間を示し、図32(c)は第3演出期間を示す。なお、図32(a―1),(b―1),(c―1)はワールド座標系のイメージ図であり、図32(a―2),(b―2),(c―2)は表示面Gを示す。また、図32(a―2),(b―2),(c―2)では背景画像や図柄を省略しているが、実際には各演出用の画像の奥側にて背景画像が表示されるとともに手前側にて図柄が表示される。 FIG. 32 is an explanatory diagram for explaining the connected object rendering. Also, FIG. 32(a) shows the first presentation period, FIG. 32(b) shows the second presentation period, and FIG. 32(c) shows the third presentation period. 32(a-1), (b-1) and (c-1) are image diagrams of the world coordinate system, and FIGS. 32(a-2), (b-2) and (c-2) are A display surface G is shown. In addition, although the background images and patterns are omitted in FIGS. 32(a-2), (b-2), and (c-2), the background images are actually displayed behind the images for each effect. and a pattern is displayed on the near side.

第1演出期間では、図32(a―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(a―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第1演出期間の進行に伴って第1の動作が行われる。また、その他のオブジェクトに対応した画像として、「A」~「C」に示すキャラクタCH4~CH6が表示される。 In the first rendering period, as shown in FIG. 32(a-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the second connected object PC16 undergoes transparency processing. . Therefore, as shown in FIG. 32(a-2), the character CH3 corresponding to the first connected object PC15 is displayed on the display surface G, and the first action is performed as the first effect period progresses. . Also, characters CH4 to CH6 indicated by "A" to "C" are displayed as images corresponding to other objects.

第2演出期間では、図32(b―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第1の連結オブジェクトPC15に対しては透明化処理が行われる。したがって、図32(b―2)に示すように、表示面Gには第2の連結オブジェクトPC16に対応したキャラクタCH3が表示され、第2演出期間の進行に伴って第2の動作が行われる。 In the second effect period, as shown in FIG. 32(b-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the first connected object PC15 undergoes transparency processing. . Therefore, as shown in FIG. 32(b-2), the character CH3 corresponding to the second connected object PC16 is displayed on the display surface G, and the second action is performed as the second effect period progresses. .

ここで、図32(a―2)と図32(b―2)とで比較した場合、両キャラクタCH3は異なる形状であるかのように示されているが、実際には両連結オブジェクトPC15,PC16に対して同一のテクスチャがマッピングされ、連結部(関節部分)が目立たなくなる。したがって、第1演出期間から第2演出期間に切り換わったとしても、キャラクタCH3に関して表示面Gでは同一、略同一又は同様の画像が表示され、遊技者はその切り換わりを認識しづらくなっている。但し、遊技者が切り換わりの発生を認識しづらいのであれば、両連結オブジェクトPC15,PC16に対して個別にテクスチャが設定されていてもよい。 Here, when comparing FIG. 32(a-2) and FIG. 32(b-2), both characters CH3 are shown as if they have different shapes. The same texture is mapped to the PC 16, making the joints (joints) inconspicuous. Therefore, even if the first presentation period is switched to the second presentation period, the same, substantially the same or similar image is displayed on the display surface G for the character CH3, making it difficult for the player to recognize the switching. . However, if it is difficult for the player to recognize the occurrence of switching, textures may be set individually for both connected objects PC15 and PC16.

また、第2演出期間では、その他のオブジェクトに対応した画像として、「A」~「E」に示すキャラクタCH4~CH8が表示される。このキャラクタCH4~CH8の数は、第1演出期間の場合よりも多い数である。 Also, in the second rendering period, characters CH4 to CH8 indicated by "A" to "E" are displayed as images corresponding to other objects. The number of characters CH4 to CH8 is greater than in the first presentation period.

第3演出期間では、図32(c―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(c―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第3演出期間の進行に伴って第1の動作が行われる。また、第3演出期間では、その他のオブジェクトに対応した画像として、「A」~「G」に示すキャラクタCH4~CH10が表示される。このキャラクタCH4~CH10の数は、第2演出期間の場合よりも多い数である。 In the third rendering period, as shown in FIG. 32(c-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the second connected object PC16 undergoes transparency processing. . Therefore, as shown in FIG. 32(c-2), the character CH3 corresponding to the first connected object PC15 is displayed on the display surface G, and the first action is performed as the third effect period progresses. . Also, in the third effect period, characters CH4 to CH10 indicated by "A" to "G" are displayed as images corresponding to other objects. The number of characters CH4 to CH10 is greater than in the second rendering period.

以上のとおり、共通のキャラクタに対して複数の連結オブジェクトPC15,PC16が設定されていることにより、関節部分を利用した動作の種類に応じて表示対象となる連結オブジェクトPC15,PC16を切り換えることができる。例えば、複数種類の動作を単一の連結オブジェクトで行おうとすると、それだけ分の連結部及び部品オブジェクトをその単一の連結オブジェクトに対して設定する必要が生じる。そうすると、一の画像データのデータ容量が大きくなってしまい、メモリモジュール133において単一の画像データとして記憶可能な容量を超えてしまうことが懸念され、超えないとしても単一の画像データを扱う上での処理時間や転送時間の長時間化が懸念される。これに対して、複数の連結オブジェクトPC15,PC16として設定されているため、上記のような不都合を生じさせることなく、キャラクタに対して複数種類の動作を行わせることが可能となる。 As described above, since a plurality of connected objects PC15 and PC16 are set for a common character, it is possible to switch between the connected objects PC15 and PC16 to be displayed according to the type of motion using joint parts. . For example, if multiple types of actions are to be performed with a single connected object, it will be necessary to set the corresponding number of connecting parts and part objects for that single connected object. In this case, the data capacity of one image data becomes large, and there is concern that the memory module 133 may exceed the capacity that can be stored as a single image data. There is a concern that the processing time and transfer time will be long. On the other hand, since it is set as a plurality of connected objects PC15 and PC16, it is possible to make the character perform a plurality of types of actions without causing the above inconvenience.

また、パチンコ機10の設計段階においては演出の修正が行われる機会が多く、キャラクタの動作についての修正の度に連結オブジェクトの全体の動きを見直していると、設計に要する期間が多大なものとなってしまう。これに対して、上記のように行わせたい動作の種類に応じて複数の連結オブジェクトPC15,PC16を設定することで、演出の修正を行う必要が生じたとしても、既に作成済みの連結オブジェクトPC15,PC16の全てを修正する必要がなくなる。よって、パチンコ機10の設計を良好に行えるようにしながら、キャラクタに対して複数種類の動作を行わせることが可能となる。 Further, in the design stage of the pachinko machine 10, there are many opportunities to modify the performance, and if the entire movement of the connected objects is reviewed each time the movement of the character is modified, the time required for the design will be lengthy. turn into. On the other hand, by setting a plurality of connected objects PC15 and PC16 according to the type of action to be performed as described above, even if it becomes necessary to modify the effect, the already created connected object PC15 , PC 16 need not be modified. Therefore, while the pachinko machine 10 can be well designed, the character can be made to perform a plurality of types of actions.

また、キャラクタを表示させるために連結オブジェクトが切り換えられるタイミングよりも前に切換元のオブジェクトだけでなく切換先のオブジェクトについても、表示CPU131において制御対象とされるとともに、VDP135においてワールド座標系への配置対象とされる。これにより、切換タイミングとなった場合に表示CPU131及びVDP135では、切換先のオブジェクトに対して制御開始処理を実行するのではなく、当該制御開始処理よりも処理負荷が小さい制御更新処理を実行すればよいため、切換タイミングにおける処理負荷が軽減される。 Prior to the timing at which connected objects are switched to display a character, not only the switching source object but also the switching destination object are subject to control by the display CPU 131, and the VDP 135 arranges them in the world coordinate system. Targeted. As a result, when it is time to switch, the display CPU 131 and the VDP 135 do not execute control start processing for the switching destination object, but instead execute control update processing with a smaller processing load than the control start processing. Therefore, the processing load at the switching timing is reduced.

特に、切換タイミングでは、演出が発展し、表示されるオブジェクトの数が増加するため、表示CPU131及びVDP135にとって処理負荷が比較的大きくなるタイミングである。この場合に、切換先のオブジェクトに対して制御開始処理を行う構成を想定すると、表示CPU131やVDP135において処理落ちが発生することが懸念されるが、上記のとおり切換先のオブジェクトについて制御更新処理を実行すればよいため、当該処理落ちの発生を阻止することができる。 In particular, the switching timing is a timing when the processing load on the display CPU 131 and the VDP 135 becomes relatively large because the effect develops and the number of displayed objects increases. In this case, assuming a configuration in which control start processing is performed on the switching destination object, there is a concern that the display CPU 131 or VDP 135 may experience a processing failure. Since it is only necessary to execute the processing, it is possible to prevent the occurrence of the processing failure.

また、ワールド座標系に両連結オブジェクトPC15,PC16を同時に配置するとともに、適用する一律α値を完全透過情報と不透過情報とで切り換える構成であるため、表示CPU131では両者の切換に関して一律α値の切換指定をすればよく、VDP135ではその指定に従って適用する一律α値を切り換えればよい。よって、表示CPU131及びVDP135の処理構成の複雑化を抑えながら、上記のような優れた効果を奏することができる。 In addition, both connected objects PC15 and PC16 are simultaneously placed in the world coordinate system, and the uniform α value to be applied is switched between completely transparent information and non-transparent information. Switching can be designated, and the VDP 135 can switch the uniform α value to be applied according to the designation. Therefore, it is possible to achieve the excellent effects described above while suppressing the complexity of the processing configurations of the display CPU 131 and the VDP 135 .

また、表示CPU131からVDP135には、ワールド座標系に同時に配置される両連結オブジェクトPC15,PC16のうち表示対象の連結オブジェクトに対してのパラメータ情報のみが提供される。これにより、描画リストに設定されるデータ量の軽減が図られる。また、VDP135では、両連結オブジェクトPC15,PC16のパラメータの更新を同一の態様で行えばよいため、VDP135の処理負荷の軽減が図られる。 Further, the display CPU 131 provides the VDP 135 with only the parameter information for the connected object to be displayed among the connected objects PC15 and PC16 that are simultaneously arranged in the world coordinate system. This reduces the amount of data set in the drawing list. Also, in the VDP 135, since the parameters of both connected objects PC15 and PC16 can be updated in the same manner, the processing load of the VDP 135 can be reduced.

なお、第1演出期間~第3演出期間の切換では、キャラクタの数が増加することに代えて又は加えて、上記複数の連結オブジェクトが用意されているキャラクタとは異なる演出用のキャラクタの動作が新たに追加される構成としてもよく、上記複数の連結オブジェクトが用意されているキャラクタとは別に処理負荷の大きい演出用のキャラクタの表示が開始される構成としてもよい。 Note that in the switching between the first effect period to the third effect period, instead of or in addition to the increase in the number of characters, the action of the character for effect different from the characters for which the plurality of connected objects are prepared is performed. It may be configured to be newly added, or it may be configured to start displaying a performance character with a large processing load separately from the character for which the plurality of connected objects are prepared.

また、第2の連結オブジェクトPC16の表示CPU131における制御開始タイミングやVDP135における制御開始タイミングは、第1の連結オブジェクトPC15と同一ではなくてもよい。例えば、第1演出期間から第2演出期間への切換タイミングよりも前ではあるが、第1の連結オブジェクトPC15の制御開始タイミングよりも後のタイミングであってもよい。 Also, the control start timing in the display CPU 131 and the control start timing in the VDP 135 for the second connected object PC16 may not be the same as for the first connected object PC15. For example, it may be before the timing of switching from the first rendering period to the second rendering period, but after the timing of starting control of the first connected object PC15.

また、演出期間の切換タイミングにおける処理負荷が上記構成よりも増加するが、当該切換タイミングにおいて第2の連結オブジェクトPC16の制御が開始される構成としてもよい。この場合、第1の連結オブジェクトPC15と第2の連結オブジェクトPC16とがワールド座標系に同時に配置されることがないため、一律α値を調整して表示対象を切り換える制御を行わなくてもよい。 Also, although the processing load at the switching timing of the presentation period increases more than the above configuration, the configuration may be such that the control of the second connected object PC16 is started at the switching timing. In this case, since the first connected object PC15 and the second connected object PC16 are not placed in the world coordinate system at the same time, it is not necessary to uniformly adjust the α value to switch the display object.

また、ワールド座標系に同時に配置されている両連結オブジェクトPC15,PC16について、表示対象の切換を一律α値の調整により行うのではなく、レンダリング対象の切換により行う構成としてもよい。この場合、表示対象ではない側の連結オブジェクトは、レンダリングが行われないこととなるため、上記構成よりもレンダリング時の処理負荷が軽減される。 Further, for both connected objects PC15 and PC16 that are simultaneously arranged in the world coordinate system, switching of the display target may be performed by switching the rendering target instead of uniformly adjusting the α value. In this case, rendering is not performed for connected objects that are not to be displayed, so the processing load during rendering is reduced compared to the above configuration.

また、第3演出期間が不具備である構成としてもよく、第4演出期間以上の演出期間が設定されている構成としてもよい。また、一のキャラクタに対して、3個以上の連結オブジェクトが用意されている構成としてもよい。 Also, the third rendering period may be incomplete, or the fourth rendering period or longer rendering period may be set. Alternatively, three or more connected objects may be prepared for one character.

<粒子分散演出を行うための構成>
次に、粒子分散演出を行うための構成について説明する。
<Configuration for Particle Dispersion Production>
Next, the configuration for performing the particle dispersion effect will be described.

粒子分散演出とは、連続する複数フレーム(複数の画像更新タイミング)に亘って、多数の粒子単体画像が分散していくかのように表示される演出のことである。この分散に際しては、多数の粒子単体画像における少なくとも一部の画像同士がそれぞれ異なる軌道で変位していくように表示される。粒子分散演出に際しては、多数の粒子単体画像に対して1対1で対応させて設定された多数の頂点データを有する粒子分散用オブジェクトと、当該粒子分散用オブジェクトに対応させて設定され、各頂点データに対応した位置にそれぞれ対応する粒子単体画像を表示させるための多数の単体画像データを有する粒子分散用テクスチャとが用いられる。 The particle dispersion effect is a effect in which a large number of single particle images are displayed as if they were dispersed over a plurality of continuous frames (a plurality of image update timings). At the time of this dispersion, at least some of the multiple single particle images are displayed such that they are displaced along different trajectories. In the particle dispersion rendering, a particle dispersion object having a large number of vertex data set in correspondence with a large number of single particle images on a one-to-one basis, and each vertex set in correspondence with the particle dispersion object. A particle dispersing texture having a large number of single image data for displaying the corresponding single particle images at positions corresponding to the data is used.

これら粒子分散用オブジェクト及び粒子分散用テクスチャについて、図33(a)及び図33(b)を参照しながら詳細に説明する。図33(a)は粒子分散用オブジェクトPC17を説明するための説明図であり、図33(b)は粒子分散用テクスチャPC18を説明するための説明図である。 These particle dispersion object and particle dispersion texture will be described in detail with reference to FIGS. 33(a) and 33(b). FIG. 33(a) is an explanatory diagram for explaining the particle dispersion object PC17, and FIG. 33(b) is an explanatory diagram for explaining the particle dispersion texture PC18.

図33(a)に示すように、粒子分散用オブジェクトPC17は、頂点データと、当該頂点データに対応した座標データと、これら以外である他のデータとを含んでいる。頂点データは、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら頂点データによって粒子分散用オブジェクトPC17における各頂点が識別される。座標データは、各頂点データに1対1で対応させて、座標(1),座標(2),座標(3),・・・,座標(99),座標(100)と多数設定されており、VDP135では、これら座標データによって粒子分散用オブジェクトPC17における各頂点のワールド座標系内における位置が認識される。 As shown in FIG. 33(a), the particle dispersion object PC17 includes vertex data, coordinate data corresponding to the vertex data, and other data. A large number of vertex data such as vertex (1), vertex (2), vertex (3), . . . , vertex (99), vertex (100) are set. Each vertex in PC 17 is identified. A large number of coordinate data are set such as coordinate (1), coordinate (2), coordinate (3), . , VDP 135 recognize the position of each vertex of the particle dispersion object PC 17 in the world coordinate system based on these coordinate data.

他のデータには、例えば粒子分散用オブジェクトPC17の初期スケールのデータや、全頂点データに対して一律に適用される初期α値のデータや、粒子分散用オブジェクトPC17の初期回転角度のデータなどが含まれている。 Other data include, for example, initial scale data of the particle dispersion object PC17, initial α value data uniformly applied to all vertex data, and initial rotation angle data of the particle dispersion object PC17. include.

図33(b)に示すように、粒子分散用テクスチャPC18は、単体データと、当該単体データに対応した相関データと、当該単体データに対応した単体画像データと、これら以外である他のデータとを含んでいる。単体画像データは、各単体データに1対1で対応させて、単体画像データ(1),単体画像データ(2),単体画像データ(3),・・・,単体画像データ(99),単体画像データ(100)と多数設定されている。各単体画像データは、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。各単体画像データは同一種類の粒子単体画像を表示させるデータとなっている。具体的には「球形の泡」を表示させるデータとなっており、各単体画像データの一部又は全部において当該「球形の泡」の形状、初期状態における大きさ、及び色彩は異なっている。この場合、粒子分散演出を実行する上でのVDP135における処理負荷の軽減を図りながら、同時に表示させる粒子単体画像の数を多くすべく、初期状態におけるスケールで全単体画像データを設定したとしても、表示面Gにて、全粒子単体画像を同時に表示させることが可能な構成となっている。 As shown in FIG. 33(b), the particle dispersion texture PC 18 includes single data, correlation data corresponding to the single data, single image data corresponding to the single data, and other data other than these. contains. The single image data correspond to each single data in a one-to-one manner, and are divided into single image data (1), single image data (2), single image data (3), . Image data (100) and many are set. Each single image data includes at least a combination of, for example, bitmap format data and a color palette table that is referred to when determining the display color of each pixel of the bitmap image. Each single image data is data for displaying a single particle image of the same type. Specifically, it is data for displaying a "spherical bubble", and the shape, initial size, and color of the "spherical bubble" are different in part or all of each single image data. In this case, in order to reduce the processing load on the VDP 135 in executing the particle dispersion effect and to increase the number of particle single images to be displayed at the same time, even if all the single image data are set with the scale in the initial state, On the display surface G, the configuration is such that the single image of all the particles can be displayed at the same time.

なお、各単体画像データの少なくとも一部について又は全部について粒子の種類が相違していてもよい。また、同一種類の粒子であるとともに、その形状、初期状態におけるスケール、及び色彩が同一であってもよい。 Note that the types of particles may be different for at least some or all of the individual image data. Moreover, the particles may be of the same type and may have the same shape, initial scale, and color.

粒子分散用テクスチャPC18の単体データは、単体(1),単体(2),単体(3),・・・,単体(99),単体(100)と多数設定されており、VDP135では、これら単体データによって粒子分散用テクスチャPC18に設定されている多数の単体画像データが個別に認識される。相関データは、各単体データに1対1で対応させて、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら相関データによって粒子分散用テクスチャPC18における各単体画像データが粒子分散用オブジェクトPC17における各頂点データのいずれに対応しているかが認識される。 The single data of the particle dispersion texture PC 18 are set in a large number as single (1), single (2), single (3), . A large number of single image data set in the particle dispersion texture PC 18 are individually recognized by the data. A large number of correlation data are set such as vertex (1), vertex (2), vertex (3), . , VDP 135 recognizes which of the vertex data in the particle dispersion object PC 17 each single image data in the particle dispersion texture PC 18 corresponds to, based on these correlation data.

他のデータには、各単体画像データに対して個別に適用されるα値のデータや、各単体画像データに対して一律に適用されるα値のデータなどが含まれている。 The other data includes α value data that is applied individually to each single image data, α value data that is uniformly applied to each single image data, and the like.

ここで、粒子分散用オブジェクトPC17における各座標データには、それぞれ初期データが設定されており、これら初期データはそれぞれ異なる座標となっている。粒子分散用オブジェクトPC17の各座標データは書き換え可能となっており、当該粒子分散用オブジェクトPC17がワールド座標系に設定される場合には、上記各座標データが初期データとは異なる座標のデータに書き換えられた状態で設定される。かかる書き換えを行うために使用される書き換え用基準データとして、複数種類のキーデータKD1~KD3が設定されている。 Here, initial data is set for each coordinate data in the particle dispersion object PC17, and these initial data are different coordinates. Each coordinate data of the particle dispersion object PC17 is rewritable, and when the particle dispersion object PC17 is set in the world coordinate system, each coordinate data is rewritten to data of coordinates different from the initial data. is set in the A plurality of types of key data KD1 to KD3 are set as rewriting reference data used for performing such rewriting.

キーデータKD1~KD3は、少なくとも2種類設定されており、具体的には、図33(c)~(e)に示すように、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3の3種類が設定されている。これら各キーデータKD1~KD3は、それぞれ、相関データと、当該相関データに対応した座標データとを含んでいる。 At least two types of key data KD1 to KD3 are set. Specifically, as shown in FIGS. Three types of KD3 are set. Each of these key data KD1 to KD3 includes correlation data and coordinate data corresponding to the correlation data.

具体的には、第1キーデータKD1の相関データ、第2キーデータKD2の相関データ、及び第3キーデータKD3の相関データはいずれも、適用対象である粒子分散用オブジェクトPC17の各頂点データと1対1で対応させて設定されており、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されている。 Specifically, the correlation data of the first key data KD1, the correlation data of the second key data KD2, and the correlation data of the third key data KD3 are all the vertex data of the particle dispersion object PC17 to be applied. Vertex (1), vertex (2), vertex (3), .

一方、第1キーデータKD1の座標データ、第2キーデータKD2の座標データ、及び第3キーデータKD3の座標データはそれぞれ、各相関データに1対1で対応させて多数設定されているが、同一の相関データ間で比較した場合において相違している。 On the other hand, a large number of coordinate data of the first key data KD1, coordinate data of the second key data KD2, and coordinate data of the third key data KD3 are set in one-to-one correspondence with each correlation data, It is different when comparing between the same correlation data.

具体的には、第1キーデータKD1の座標データは、座標(1-1),座標(2-1),座標(3-1),・・・,座標(99-1),座標(100-1)と多数設定されており、第2キーデータKD2の座標データは、座標(1-2),座標(2-2),座標(3-2),・・・,座標(99-2),座標(100-2)と多数設定されており、第3キーデータKD3の座標データは、座標(1-3),座標(2-3),座標(3-3),・・・,座標(99-3),座標(100-3)と多数設定されている。また、頂点(1)に対応している座標データが、第1キーデータKD1では座標(1-1)、第2キーデータKD2では座標(1-2)、及び第3キーデータKD3では座標(1-3)であり、頂点(100)に対応している座標データが、第1キーデータKD1では座標(100-1)、第2キーデータKD2では座標(100-2)、及び第3キーデータKD3では座標(100-3)であるように、一の頂点データに対してそれぞれ異なる座標データが設定されている。 Specifically, the coordinate data of the first key data KD1 are coordinate (1-1), coordinate (2-1), coordinate (3-1), ..., coordinate (99-1), coordinate (100 -1), and the coordinate data of the second key data KD2 are coordinates (1-2), coordinates (2-2), coordinates (3-2), ..., coordinates (99-2). ), coordinate (100-2), and the coordinate data of the third key data KD3 are coordinate (1-3), coordinate (2-3), coordinate (3-3), . Many coordinates such as coordinates (99-3) and coordinates (100-3) are set. Also, the coordinate data corresponding to the vertex (1) is the coordinate (1-1) for the first key data KD1, the coordinate (1-2) for the second key data KD2, and the coordinate (1-2) for the third key data KD3. 1-3), and the coordinate data corresponding to the vertex (100) is the coordinate (100-1) for the first key data KD1, the coordinate (100-2) for the second key data KD2, and the third key Different coordinate data are set for one vertex data, such as the coordinate (100-3) in the data KD3.

ちにみに、各キーデータKD1~KD3は、α値のデータや、回転角度のデータが設定されていないこととの関係で、粒子分散用オブジェクトPC17よりもデータ容量が小さく設定されている。 Incidentally, each of the key data KD1 to KD3 is set to have a data capacity smaller than that of the particle dispersion object PC17 because the α value data and the rotation angle data are not set.

各キーデータKD1~KD3は、上記のとおり、各粒子単体画像の変位軌道を決定付けるべく設定されているものであり、粒子分散用オブジェクトPC17に対して適用される順序が予め定められている。具体的には、第2キーデータKD2は、第1キーデータKD1よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられ、第3キーデータKD3は、第2キーデータKD2よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられる。粒子分散用オブジェクトPC17をワールド座標系に設定する場合には、上記キーデータKD1~KD3の座標データが各頂点データに対して適用されることにより、各頂点データに対応した各粒子単体画像がそれぞれの軌道で変位する。 Each of the key data KD1 to KD3 is set to determine the displacement trajectory of each particle single image as described above, and the order of application to the particle dispersion object PC17 is predetermined. Specifically, the second key data KD2 is used to set coordinate data on the front side of the displacement direction of each single particle image relative to the first key data KD1, and the third key data KD3 is used to set the second key data. This is used when setting coordinate data ahead of KD2 in the displacement direction of each single particle image. When the particle dispersion object PC17 is set in the world coordinate system, the coordinate data of the key data KD1 to KD3 are applied to each vertex data, so that each particle single image corresponding to each vertex data is generated. is displaced on the trajectory of

この場合に、少なくとも所定のフレーム数間においては複数のキーデータKD1~KD3、より詳細には2個のキーデータKD1~KD3の座標データが融合された状態で各頂点データに対して適用される。具体的には、粒子分散演出の最初のフレーム(すなわち画像更新タイミング)における各頂点データの座標データを決定付ける第1キーデータKD1は、最初のフレームよりも後の複数フレームである第1フレーム数(例えば99フレーム)分に相当する第1フレーム期間に亘って用いられる。第2キーデータKD2は、上記第1フレーム期間、当該第1フレーム期間に対して次のフレームに相当する第1切換対象フレーム、及びそれ以降の複数フレームである第2フレーム数分に相当する第2フレーム期間に亘って用いられる。第3キーデータKD3は、上記第2フレーム期間に亘って用いられる。この場合に、上記第1フレーム数と上記第2フレーム数とは同一のフレーム数となっている。 In this case, for at least a predetermined number of frames, a plurality of key data KD1 to KD3, more specifically, coordinate data of two key data KD1 to KD3 are combined and applied to each vertex data. . Specifically, the first key data KD1 that determines the coordinate data of each vertex data in the first frame (that is, the image update timing) of the particle dispersion effect is the first frame number, which is a plurality of frames after the first frame. It is used for the first frame period corresponding to (eg 99 frames). The second key data KD2 consists of the first frame period, the first switching target frame corresponding to the next frame with respect to the first frame period, and the second frame corresponding to the number of second frames, which are a plurality of subsequent frames. It is used over 2 frame periods. The third key data KD3 is used over the second frame period. In this case, the first number of frames and the second number of frames are the same number of frames.

なお、第3キーデータKD3の後に第4キーデータが設定されていてもよく、この場合には、第3キーデータKD3は、上記第2フレーム期間、当該第2フレーム期間に対して次のフレームに相当する第2切換対象フレーム、及びそれ以降の複数フレームである第3フレーム数(第1フレーム数及び第2フレーム数と同一フレーム数)分に相当する第3フレーム期間に亘って用いられ、第4キーデータは、上記第3フレーム期間に亘って用いられる。 In addition, the fourth key data may be set after the third key data KD3. In this case, the third key data KD3 is the frame next to the second frame period in the second frame period. and the third frame period corresponding to the third frame number (the same number of frames as the first frame number and the second frame number), which is a plurality of frames after that, and The fourth key data is used over the third frame period.

かかる構成であることにより、上記キーデータKD1~KD3の数が、粒子分散演出が実行される場合の連続フレーム数よりも少ない数、より詳細には、粒子分散演出に際して、粒子分散用オブジェクトPC17における各頂点データの座標データが変更される回数よりも少ない数に設定されている構成であっても、各粒子単体画像が変位する様子を滑らかに表示することが可能となる。 With this configuration, the number of the key data KD1 to KD3 is smaller than the number of continuous frames when the particle dispersion effect is executed. Even with a configuration in which the number of times the coordinate data of each vertex data is changed is set to be less than the number of changes, it is possible to smoothly display how each particle single image is displaced.

以下に、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1~KD3を用いて粒子分散演出を実行するための具体的な処理構成を説明する。なお、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1~KD3は、メモリモジュール133に予め記憶されている。 A specific processing configuration for executing the particle dispersion effect using the particle dispersion object PC17, the particle dispersion texture PC18, and each of the key data KD1 to KD3 will be described below. Note that the particle dispersion object PC17, the particle dispersion texture PC18, and each of the key data KD1 to KD3 are stored in the memory module 133 in advance.

図34(a)は、表示CPU131にて実行される粒子分散演出用の演算処理を示すフローチャートである。粒子分散演出用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、粒子分散演出用の演算処理は、粒子分散演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 34(a) is a flow chart showing arithmetic processing for a particle dispersion effect executed by the display CPU 131. FIG. Arithmetic processing for the particle dispersion effect is executed in the effect arithmetic processing in step S904 of the task processing (FIG. 14). Further, the arithmetic processing for the particle dispersion effect is started when the data table corresponding to the game round in which the particle dispersion effect is executed is set.

先ずステップS2101では、現状設定されているデータテーブルに基づいて、粒子分散演出の実行中であるか否かを判定する。演出の実行中ではない場合にはステップS2102にて、粒子分散演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2103に進む。 First, in step S2101, based on the currently set data table, it is determined whether or not the particle dispersion effect is being executed. If the effect is not being executed, in step S2102, it is determined whether or not it is time to start the particle dispersion effect. If it is not the start timing, this operation processing ends as it is, and if it is the start timing, the process advances to step S2103.

ステップS2103では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。ちなみに、ステップS2103の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、粒子分散用オブジェクトPC17に対して制御開始用の処理が完了している。また、制御が開始された粒子分散用オブジェクトPC17の制御用の情報は、粒子分散演出が完了するまではワークRAM132に記憶保持される。 In step S2103, based on the currently set data table, the particle dispersion object PC17 is grasped as a controlled object. Incidentally, at the execution timing of the process of step S2103, the control start process for the particle dispersion object PC17 has been completed in the control start setting process (step S901) immediately before. Further, information for controlling the particle dispersion object PC17 whose control has been started is stored and retained in the work RAM 132 until the particle dispersion effect is completed.

続くステップS2104では、メモリモジュール133から第1キーデータKD1及び第2キーデータKD2を読み出す初期読み出し処理を実行するとともに、ステップS2105では、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新する。その後、ステップS2106にて粒子分散演出の開始指定情報を記憶した後に、本演算処理を終了する。 In the following step S2104, an initial reading process is executed to read out the first key data KD1 and the second key data KD2 from the memory module 133. In step S2105, various parameters other than the coordinates are calculated for the particle dispersion object PC17. , update the control information related to the particle dispersion object PC17. After that, in step S2106, after storing the start designation information of the particle dispersion effect, the arithmetic processing ends.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2104にて読み出した第1キーデータKD1及び第2キーデータKD2と、上記ステップS2105にて算出したパラメータとが設定される。また、粒子分散演出を開始すべきことを示す粒子分散演出の開始指定情報が、描画リストに設定される。 When the arithmetic processing for particle dispersion rendering is executed as described above, the drawing list created by the subsequent drawing list output processing includes information on the instruction to use the particle dispersion object PC17 for the particle dispersion texture PC18. The first key data KD1 and the second key data KD2 read out in step S2104 and the parameter calculated in step S2105 are set together with the usage instruction information. Also, particle dispersion effect start designation information indicating that the particle dispersion effect should be started is set in the drawing list.

ステップS2101にて粒子分散演出中であると判定した場合には、ステップS2107にて、現状設定されているデータテーブルに基づいて、キーデータの更新タイミングであるか否かを判定する。かかる更新タイミングは、上述した第1切換対象フレームに相当する。 If it is determined in step S2101 that the particle dispersion effect is being performed, it is determined in step S2107 whether or not it is time to update the key data based on the currently set data table. Such update timing corresponds to the above-described first switching target frame.

キーデータの更新タイミングではない場合(ステップS2107:NO)には、ステップS2108に進む。当該ステップS2108では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。 If it is not time to update the key data (step S2107: NO), the process proceeds to step S2108. In step S2108, the particle dispersion object PC17 is grasped as a controlled object based on the currently set data table.

続くステップS2109では、キーデータのブレンド割合を決定する処理を実行する。かかるブレンド割合を決定する処理では、メモリモジュール133に予め記憶されている図34(b)に示すようなブレンド用テーブルBTを参照することで、現状設定されている2個のキーデータKD1~KD3の各座標データをブレンドする際のブレンド比率のデータを読み出し、その読み出したデータによる各座標データのブレンドを行う。 In the subsequent step S2109, processing for determining the blend ratio of key data is executed. In the process of determining the blending ratio, the currently set two key data KD1 to KD3 are obtained by referring to the blending table BT as shown in FIG. The data of the blend ratio when blending each coordinate data is read, and each coordinate data is blended by the read data.

ブレンド用テーブルBTについて詳細には、当該ブレンド用テーブルBTには、フレーム数のデータが設定されているとともに、各フレーム数のデータに1対1で対応させて、前側のキーデータに設定されている各座標データに適用すべき比率と、後側のキーデータに設定されている各座標データに適用すべき比率とが設定されている。この場合、フレーム数が1増加する度に、すなわち各粒子単体画像の座標の更新タイミングとなる度に、一定の比率でブレンド割合が変化するようにブレンド用テーブルBTが設定されている。具体的には、前側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が減少し、後側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が増加し、さらに各更新タイミングにおいて前側のキーデータの比率と後側のキーデータの比率との和が100%となるように、ブレンド用テーブルBTが設定されている。 In details about the blending table BT, the blending table BT is set with frame number data, and is set as front key data in a one-to-one correspondence with each frame number data. A ratio to be applied to each coordinate data set in the key data on the rear side and a ratio to be applied to each coordinate data set in the rear key data are set. In this case, the blending table BT is set so that the blending ratio changes at a constant rate every time the number of frames increases by 1, that is, every time the coordinate of each single particle image is updated. Specifically, for the key data on the front side, the blending ratio is decreased by 1% at each update timing, and for the key data on the rear side, the ratio is decreased by 1% The blending table BT is set so that the blending ratio increases step by step, and the sum of the ratio of the front side key data and the ratio of the rear side key data becomes 100% at each update timing.

なお、ブレンド用テーブルBTは、各更新タイミングとなるどに1%ずつ比率が変化していくように設定されている構成に限定されることはなく、2%ずつ又は3%ずつといったように2%以上ずつ変化していくように設定されていてもよく、また一定の比率ではなく異なる比率で変化していくように設定されていてもよい。 Note that the blending table BT is not limited to the configuration in which the ratio is set to change by 1% at each update timing, and is set to 2% such as 2% or 3%. % or more, or may be set to change at a different rate instead of a fixed rate.

ステップS2109では、現状設定されているデータテーブルに基づいて、ブレンド用テーブルBTを参照する。また、ステップS2109では、当該データテーブルに設定されている現状のポインタ情報に基づいて、ブレンド用テーブルBTにおいて参照すべきフレーム数を把握するとともに、そのフレーム数に設定されている前側のキーデータの比率と後側のキーデータの比率とを読み出す。この場合、現状設定されているデータテーブルが第1キーデータKD1及び第2キーデータKD2であれば、第1キーデータKD1が前側のキーデータに相当し、第2キーデータKD2が後側のキーデータに相当する。 In step S2109, the blending table BT is referred to based on the currently set data table. In step S2109, based on the current pointer information set in the data table, the number of frames to be referred to in the blending table BT is grasped, and the number of front side key data set to that number of frames is determined. Read the ratio and the ratio of the key data on the rear side. In this case, if the currently set data table is the first key data KD1 and the second key data KD2, the first key data KD1 corresponds to the front side key data, and the second key data KD2 corresponds to the rear side key data. Corresponds to data.

その後、ステップS2110にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2111にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。 After that, in step S2110, various parameters other than the coordinates are calculated for the particle dispersion object PC17 to update the control information related to the particle dispersion object PC17, and in step S2111, the particle dispersion rendering is performed. After storing the update designation information, this calculation process ends.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2109にて決定したブレンド割合のデータと、上記ステップS2110にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。 When the arithmetic processing for particle dispersion rendering is executed as described above, the drawing list created by the subsequent drawing list output processing includes information on the instruction to use the particle dispersion object PC17 for the particle dispersion texture PC18. It is set together with the usage instruction information, and further the blending ratio data determined in step S2109 and the parameter calculated in step S2110 are set. In addition, update specification information for the dispersed particle effect, which indicates that the dispersed particle effect should be updated, is set in the drawing list.

ステップS2107にて、キーデータの更新タイミングであると判定した場合には、ステップS2112に進む。当該ステップS2112では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。 If it is determined in step S2107 that it is time to update the key data, the process advances to step S2112. In step S2112, the particle dispersion object PC17 is grasped as a controlled object based on the currently set data table.

続くステップS2113では、新たなキーデータを読み出す処理を実行する。かかる処理では、現状設定されている2個のキーデータのうち後側のキーデータに対して次の順番のキーデータKD1~KD3をメモリモジュール133から読み出す。具体的には、第1キーデータKD1及び第2キーデータKD2が現状設定されているため、これらのうち後側のキーデータは第2キーデータKD2となり、それに対して次の順番のキーデータは第3キーデータKD3となる。 In subsequent step S2113, a process of reading new key data is executed. In this process, the key data KD1 to KD3 next in order to the key data on the rear side of the currently set two key data are read from the memory module 133 . Specifically, since the first key data KD1 and the second key data KD2 are currently set, the last key data is the second key data KD2, and the next key data is It becomes the third key data KD3.

その後、ステップS2114にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2115にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。 After that, in step S2114, various parameters other than the coordinates are calculated for the particle dispersion object PC17 to update the control information related to the particle dispersion object PC17, and in step S2115, the particle dispersion rendering is performed. After storing the update designation information, this calculation process ends.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2112にて読み出した第3キーデータKD3と、上記ステップS2113にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。 When the arithmetic processing for particle dispersion rendering is executed as described above, the drawing list created by the subsequent drawing list output processing includes information on the instruction to use the particle dispersion object PC17 for the particle dispersion texture PC18. The third key data KD3 read out in step S2112 and the parameter calculated in step S2113 are set together with the usage instruction information. In addition, update specification information for the dispersed particle effect, which indicates that the dispersed particle effect should be updated, is set in the drawing list.

ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2107にて否定判定をし、ステップS2108~ステップS2111の処理を実行する。この場合においてステップS2109では、第2キーデータKD2を前側のキーデータ及び第2キーデータKD2を後側のキーデータとして、ブレンド割合が順次決定される。 Incidentally, from the next processing when the third key data KD3 is newly set, a negative determination is made in step S2107, and the processing of steps S2108 to S2111 is executed until the end timing of the particle dispersion effect. In this case, in step S2109, the blend ratios are sequentially determined with the second key data KD2 as the front side key data and the second key data KD2 as the rear side key data.

次に、VDP135にて実行される粒子分散演出用の設定処理を、図35のフローチャートを参照しながら説明する。粒子分散演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、粒子分散演出用の設定処理は、今回の描画リストに粒子分散演出の開始指定情報及び粒子分散演出の更新指定情報のいずれかが設定されている場合に起動される。 Next, setting processing for particle dispersion effect executed by the VDP 135 will be described with reference to the flowchart of FIG. The setting process for particle dispersion effect is executed in the setting process for effect in step S1003 in the drawing process (FIG. 16). Further, the setting process for the dispersed particle effect is started when either the start designation information of the dispersed particle effect or the update designation information of the dispersed particle effect is set in the current drawing list.

先ずステップS2201では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2202にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17をVRAM134の展開用バッファ141に読み出す。その後、ステップS2203では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。 First, in step S2201, it is determined whether or not the start designation information of the particle dispersion effect is set in the current drawing list. If it is set, in step S2202, based on the current rendering list, the address where the particle dispersion object PC17 is stored in the memory module 133 is grasped, and the particle dispersion object PC17 is stored in the VRAM 134. Read out to the expansion buffer 141 . After that, in step S2203, the first key data KD1 and the second key data KD2 set in the current drawing list are stored in the register 153. FIG.

続くステップS2204では、初期適用処理を実行する。初期適用処理では、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、第1キーデータKD1に設定されている各座標データに書き換えることにより、各頂点データの開始座標を設定する。また、ステップS2205では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In subsequent step S2204, initial application processing is executed. In the initial application process, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data set in the first key data KD1 to set the start coordinates of each vertex data. In step S2205, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2206にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。これにより、第1キーデータKD1に設定されている各座標データに対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 After that, in step S2206, the particle dispersion object PC17 is set to the world coordinate system, and then this setting process ends. As a result, each vertex data of the particle dispersion object PC17 is set at coordinates corresponding to each coordinate data set in the first key data KD1. In addition, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, for each vertex data set to the coordinates as described above, single particle image data corresponding to each vertex data is generated. set.

一方、ステップS2201にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2207に進む。ステップS2207では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。 On the other hand, if it is determined in step S2201 that the particle dispersion effect start designation is not set in the current drawing list, the flow advances to step S2207. In step S2207, it is determined whether or not new key data is specified in the current rendering list.

指定されていない場合には、ステップS2008にて、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、今回の描画リストにおいて設定されているブレンド割合のデータに従ってブレンドする。 If not specified, coordinate blend processing is executed in step S2008. In the blending process, the currently set two pieces of key data, specifically each coordinate data of the first key data KD1 and the second key data KD2 in the first frame period, are set in the current drawing list. Blend according to the blend ratio data provided.

この場合、先ず第1キーデータKD1の一の頂点データに対応した座標データを読み出すとともに、第2キーデータKD2の上記頂点データに対応した座標データを読み出す。そして、前者の座標データを(x1,y1,z1)、後者の座標データを(x2,y2,z2)、ブレンド用テーブルBTから読み出した前側のキーデータの比率をrt1、及びブレンド用テーブルBTから読み出した後側のキーデータの比率をrt2とした場合において、ブレンド後の座標データ(x,y,z)が、
x:x1×rt1+x2×rt2
y:y1×rt1+y2×rt2
z:z1×rt1+z2×rt2
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した座標データに対して実行する。
In this case, first, coordinate data corresponding to one vertex data of the first key data KD1 is read, and coordinate data corresponding to the vertex data of the second key data KD2 is read. Then, the former coordinate data is (x1, y1, z1), the latter coordinate data is (x2, y2, z2), the ratio of the front side key data read from the blend table BT is rt1, and from the blend table BT When the ratio of the key data on the rear side of the readout is rt2, the coordinate data (x, y, z) after blending is
x: x1 x rt1 + x2 x rt2
y: y1×rt1+y2×rt2
z: z1×rt1+z2×rt2
Blend so that Further, such blending is executed for coordinate data corresponding to all vertex data.

続くステップS2209では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。その後、ステップS2210にて、上記ステップS2208におけるブレンド結果である各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2209において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 In the subsequent step S2209, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17. Thereafter, in step S2210, each coordinate data resulting from the blending in step S2208 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameters grasped in step S2209 are applied to the particles. After setting for the distribution object PC 17, this setting process is terminated.

この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2208におけるブレンド結果である各座標データに書き換える。これにより、ステップS2208のブレンド結果に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 In this case, when setting each coordinate data that is the result of blending, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data that is the result of blending in step S2208. As a result, each vertex data of the particle dispersion object PC17 is set at coordinates corresponding to the result of blending in step S2208. In addition, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, for each vertex data set to the coordinates as described above, single particle image data corresponding to each vertex data is generated. set.

ステップS2207にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合には、ステップS2211にて、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。 If it is determined in step S2207 that new key data is specified in the current rendering list, key data update processing is executed in step S2211. In the updating process, the front key data, specifically the first key data KD1, of the two key data currently stored in the register 153 is replaced with the new key data set in the current drawing list. , more specifically, to the third key data KD3.

続くステップS2212では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2213では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In subsequent step S2212, application processing at the time of update is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. In step S2213, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2214にて、上記ステップS2212において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2214において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 Thereafter, in step S2214, each coordinate data grasped in step S2212 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameter grasped in step S2214 is set to the particle dispersion object PC17. After setting the object PC 17, the setting process is terminated.

この場合、上記ステップS2212にて把握した各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2212にて把握した各座標データに書き換える。これにより、第2キーデータKD2に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。 In this case, when setting the coordinate data grasped in step S2212, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten with the coordinate data grasped in step S2212. As a result, each vertex data of the particle dispersion object PC17 is set at the coordinates corresponding to the second key data KD2. In addition, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, for each vertex data set to the coordinates as described above, single particle image data corresponding to each vertex data is generated. set.

ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2207にて否定判定をし、ステップS2208~ステップS2210の処理を実行する。この場合においてステップS2208では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行される。 Incidentally, from the next processing when the third key data KD3 is newly set, a negative determination is made in step S2207, and the processing of steps S2208 to S2210 is executed until the end timing of the particle dispersion rendering. In this case, in step S2208, coordinates are blended using the second key data KD2 and the third key data KD3.

次に、粒子分散演出の内容について、図36を参照しながら説明する。 Next, the contents of the particle dispersion effect will be described with reference to FIG.

図36(a)は粒子分散演出を説明するための説明図であり、図36(b-1)及び(b-2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。 FIG. 36(a) is an explanatory diagram for explaining the particle dispersion effect, and FIGS. 36(b-1) and (b-2) simply show how each individual particle image is displaced along which trajectory. It is an explanatory view for explaining.

図36(a)に示すように、粒子分散演出は遊技回用の演出として実行され、具体的には遊技回が終了する場合において一の有効ライン上に大当たり図柄の組み合わせが停止表示された場合に、粒子分散演出が実行される。粒子分散演出では、表示面Gにおいて「球形の泡」である粒子単体画像PTが多数表示されるとともに、それら多数の粒子単体画像PTが連続する複数フレームに亘ってそれぞれ所定の軌道で変位するように表示される。 As shown in FIG. 36(a), the particle dispersion effect is executed as an effect for the game cycle, specifically when the combination of the jackpot symbols is stopped and displayed on one effective line when the game cycle ends. , the particle dispersion effect is executed. In the particle dispersion effect, a large number of single particle images PT that are "spherical bubbles" are displayed on the display surface G, and the large number of single particle images PT are displaced along a predetermined trajectory over a plurality of consecutive frames. to be displayed.

当該所定の軌道について、図36(b-1)及び(b-2)を参照しながら具体的に説明すると、第1キーデータKD1の各座標データが設定された状態では、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b-1)において実線にて示す開始座標に対応した位置にて表示される。この場合、各粒子単体画像PT1~PT3は、それぞれ異なる位置にて表示される。 The predetermined trajectory will be specifically described with reference to FIGS. 36(b-1) and 36(b-2). Each of the single particle image PT2 and the single particle image PT3 is displayed at a position corresponding to the starting coordinates indicated by the solid line in FIG. 36(b-1). In this case, the individual particle images PT1 to PT3 are displayed at different positions.

その後の第1フレーム期間では、第1キーデータKD1及び第2キーデータKD2のブレンド処理が実行されることにより、図36(b-1)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1~PT3の変位軌道は直線状となっている。 In the subsequent first frame period, the blending process of the first key data KD1 and the second key data KD2 is executed, so that the single particle image PT1, The single particle image PT2 and the single particle image PT3 are displayed as if they were displaced along different trajectories. In this case, since the coordinates are determined by blending the first key data KD1 and the second key data KD2, the displacement trajectories of the individual particle images PT1 to PT3 are linear.

第1フレーム期間が経過した場合には、第2キーデータKD2の各座標データが設定されることにより、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b-2)において実線にて示す切換対象座標に対応した位置にて表示される。この場合、各粒子単体画像PT1~PT3は、それぞれ異なる位置にて表示される。 When the first frame period has passed, each coordinate data of the second key data KD2 is set, so that each of the single particle image PT1, the single particle image PT2, and the single particle image PT3 is displayed as shown in FIG. In 2), it is displayed at a position corresponding to the switching target coordinate indicated by the solid line. In this case, the individual particle images PT1 to PT3 are displayed at different positions.

その後の第2フレーム期間では、第2キーデータKD2及び第3キーデータKD3のブレンド処理が実行されることにより、図36(b-2)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1~PT3の変位軌道は直線状となっている。また、第2フレーム期間における各粒子単体画像PT1~PT3の軌道は、第1フレーム期間の場合における軌道とは異なっている。 In the subsequent second frame period, the blending process of the second key data KD2 and the third key data KD3 is executed, so that the single particle image PT1, The single particle image PT2 and the single particle image PT3 are displayed as if they were displaced along different trajectories. In this case, since the coordinates are determined by blending the first key data KD1 and the second key data KD2, the displacement trajectories of the individual particle images PT1 to PT3 are linear. Also, the trajectories of the individual particle images PT1 to PT3 in the second frame period are different from those in the first frame period.

以上のとおり、粒子分散演出では、粒子分散用オブジェクトPC17における各頂点データの座標データを、複数種類のキーデータKD1~KD3のブレンドを利用しながら設定するようにしたことにより、データ容量の削減及び処理負荷の軽減という両者のバランスを図りながら、多数の粒子単体画像が分散していくかのような表示演出を行うことが可能となる。 As described above, in the particle dispersion rendering, the coordinate data of each vertex data in the particle dispersion object PC17 is set while using a blend of multiple types of key data KD1 to KD3, thereby reducing the data capacity and It is possible to perform a display effect as if a large number of single particle images are dispersed while balancing the reduction of the processing load.

すなわち、単体画像データの座標データが全フレーム数に亘って設定されたアニメーションデータを全単体画像データに1対1で対応させて設定する構成も考えられるが、この場合、それだけデータ容量が必要となる。これに対して、上記のように複数種類のキーデータKD1~KD3のブレンドを利用することで、上記のように全てのアニメーションデータを設定する構成に比べて、必要なデータ容量を削減することが可能となる。 That is, it is conceivable to set the animation data in which the coordinate data of the single image data are set over all the frames so as to correspond to all the single image data in a one-to-one correspondence, but in this case, the data capacity is required accordingly. Become. On the other hand, by using a blend of multiple types of key data KD1 to KD3 as described above, the necessary data volume can be reduced compared to the configuration in which all the animation data are set as described above. It becomes possible.

その一方、全単体画像データの座標データをプログラムに基づく処理のみによって算出する構成も考えられるが、この場合、各粒子単体画像が相互に異なる軌道で変位表示されるとすると、それだけ複雑であって膨大なプログラムが必要となる。これに対して、上記のように複数種類のキーデータKD1~KD3のブレンドを利用することで、座標データを算出するための情報がプログラム側とデータ側とで適度に分散されることとなり、処理負荷の軽減が図られる。 On the other hand, it is also conceivable to calculate the coordinate data of all single particle image data only by processing based on a program. A large program is required. On the other hand, by using a blend of multiple types of key data KD1 to KD3 as described above, the information for calculating the coordinate data is distributed appropriately between the program side and the data side. The load can be reduced.

また、単体画像データを個別のオブジェクトとして設定するのではなく、粒子分散用オブジェクトPC17の各頂点データに対応させて設定したことにより、表示CPU131からVDP135に送信される描画リストのデータ容量を削減することが可能となる。 In addition, by setting the single image data in correspondence with each vertex data of the particle dispersion object PC 17 instead of setting the single image data as an individual object, the data volume of the drawing list transmitted from the display CPU 131 to the VDP 135 can be reduced. becomes possible.

また、VDP135においても単体画像データを設定するためのオブジェクトを読み出す場合において、各単体画像データに対応した個別のオブジェクトをそれぞれ読み出すのではなく、粒子分散用オブジェクトPC17として読み出すことが可能であるため、当該読み出しに要する処理負荷の軽減が図られる。 Also, in the VDP 135, when objects for setting single image data are read, instead of reading individual objects corresponding to each single image data, it is possible to read them as the particle dispersion object PC 17. It is possible to reduce the processing load required for the reading.

また、第1キーデータKD1及び第2キーデータKD2のブレンド処理は、表示CPU131ではなくVDP135にて実行されるため、表示CPU131の処理負荷の軽減を図ることが可能となる。 In addition, since the blend processing of the first key data KD1 and the second key data KD2 is executed by the VDP 135 instead of the display CPU 131, the processing load on the display CPU 131 can be reduced.

<粒子分散演出用の設定処理の別形態>
図37は、VDP135にて実行される粒子分散演出用の設定処理の別形態を説明するためのフローチャートである。
<Another Form of Setting Processing for Particle Dispersion Effect>
FIG. 37 is a flow chart for explaining another form of setting processing for particle dispersion effects executed by the VDP 135 .

先ずステップS2301では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2302にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17を読み出す。その後、ステップS2303では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。 First, in step S2301, it is determined whether or not the start designation information of the particle dispersion effect is set in the current drawing list. If it is set, in step S2302, based on the current drawing list, the address where the particle dispersion object PC17 is stored in the memory module 133 is grasped, and the particle dispersion object PC17 is read out. After that, in step S2303, the first key data KD1 and the second key data KD2 set in the current drawing list are stored in the register 153. FIG.

続くステップS2304では、今回の描画リストに基づいて、メモリモジュール133において第1テクスチャ及び第2テクスチャが記憶されているアドレスを把握する。 In the subsequent step S2304, the address where the first texture and the second texture are stored in the memory module 133 is grasped based on the current drawing list.

ここで、本別形態では、各キーデータKD1~KD3に1対1で対応させてテクスチャも複数種類設定されている。具体的には、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3に1対1で対応させて第1テクスチャ、第2テクスチャ及び第3テクスチャが設定されている。なお、キーデータが4種類以上設定されている構成においては、それに対応させてテクスチャも4種類以上設定されていればよい。 Here, in this embodiment, a plurality of types of textures are also set in one-to-one correspondence with each of the key data KD1 to KD3. Specifically, a first texture, a second texture, and a third texture are set in one-to-one correspondence with the first key data KD1, the second key data KD2, and the third key data KD3. In a configuration in which four or more types of key data are set, four or more types of textures may be set correspondingly.

各テクスチャには、図33にて示した粒子分散用テクスチャPC18と同様に、各頂点データに1対1で対応させて単体画像データが設定されている。このように単一の粒子分散用オブジェクトPC17に対して複数種類のテクスチャが設定されていることにより、粒子分散用オブジェクトPC17の一の頂点データに対して設定される単体画像データの種類が複数フレームの経過(すなわち複数の更新タイミングの経過)に伴って変更され、さらに当該変更が粒子分散用オブジェクトPC17の多数の頂点データ、より詳細には全頂点データに対して行われる。 For each texture, single image data is set in one-to-one correspondence with each vertex data, similar to the particle dispersion texture PC18 shown in FIG. Since a plurality of types of textures are set for a single particle dispersion object PC17 in this way, the type of single image data set for one vertex data of the particle dispersion object PC17 can be set for a plurality of frames. (that is, the lapse of a plurality of update timings), and the change is made to a large number of vertex data of the particle dispersion object PC17, more specifically, to all the vertex data.

例えば、第1テクスチャでは、第1の頂点データに対する単体画像データが、第1単体画像(例えば図36に示す「○」)を表示するための第1単体画像データであるのに対して、第2テクスチャでは、第1の頂点データに対する単体画像データが、第2単体画像(例えば図36に示す「□」)を表示するための第2単体画像データとなっている。同様に、第1テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像(例えば図36に示す「△」)を表示するための第3単体画像データであるのに対して、第2テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像とは異なる単体画像(例えば図36に示す「○」)を表示するための単体画像データとなっている。 For example, in the first texture, the single image data corresponding to the first vertex data is the first single image data for displaying the first single image (for example, "○" shown in FIG. 36). In the 2-texture, the single image data for the first vertex data is the second single image data for displaying the second single image (for example, "□" shown in FIG. 36). Similarly, in the first texture, the single image data for the second vertex data is the third single image data for displaying the third single image (for example, “Δ” shown in FIG. 36), In the second texture, the single image data for the second vertex data is single image data for displaying a single image different from the third single image (for example, "○" in FIG. 36).

ステップS2304の処理を実行した後は、ステップS2305にて、上記ステップS2204と同様に、初期適用処理を実行する。これにより、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データが、第1キーデータKD1に設定されている各座標データに対応した開始座標に設定される。 After executing the process of step S2304, in step S2305, the initial application process is executed in the same manner as in step S2204. As a result, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is set to the start coordinates corresponding to each coordinate data set in the first key data KD1.

その後、ステップS2306にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2307にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第1テクスチャ及び第2テクスチャのうち第1テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第1テクスチャに対応した単体画像が、第1キーデータKD1に対応した座標で表示されることとなる。 Thereafter, in step S2306, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2307, After setting the particle dispersion object PC17 to the world coordinate system, the setting process ends. In addition, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the first texture out of the first texture and the second texture is applied to each vertex data set to the coordinates as described above. is applied to the particle dispersion object PC17. As a result, the single image corresponding to the first texture is displayed at the coordinates corresponding to the first key data KD1.

一方、ステップS2301にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2308に進む。ステップS2308では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。 On the other hand, if it is determined in step S2301 that the particle dispersion rendering start designation is not set in the current drawing list, the flow advances to step S2308. In step S2308, it is determined whether or not new key data is specified in the current drawing list.

指定されていない場合には、ステップS2309にて、レジスタ153に設けられているブレンド用カウンタの数値情報を1加算されるように更新する。ここで、ブレンド用カウンタとは、複数のキーデータを用いた座標データのブレンドを行う場合、及び複数のテクスチャを用いた単体画像データのブレンドを行う場合において、そのブレンドの割合をVDP135にて特定するためのカウンタである。 If not specified, in step S2309, the numerical information of the blending counter provided in the register 153 is updated so as to be incremented by one. Here, the blending counter is used to specify the blend ratio in the VDP 135 when blending coordinate data using a plurality of key data and when blending single image data using a plurality of textures. It is a counter for

ブレンド用カウンタは、初期値として「0」が設定されており、カウンタ値が「1」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を99%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を1%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を99%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を1%とする。また、カウンタ値が「2」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を98%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を2%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を98%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を2%とする。また、カウンタ値が「99」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を1%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を99%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を1%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を99%とする。つまり、フレーム数が先に進むほど、前側のキーデータの適用比率が低減される一方、後側のキーデータの適用比率が増加され、同様に前側のテクスチャの適用比率が低減される一方、後側のテクスチャの適用比率が増加される。 The blending counter is set to "0" as an initial value. When the counter value is "1", the ratio of the front side key data (for example, the first key data KD1) is set to 99% and the rear side key data is set to 99%. The ratio of the key data (for example, the second key data KD2) is 1%, the ratio of the texture on the front side (for example, the first texture) is set to 99%, and the ratio of the texture on the rear side (for example, the second texture) is set to 1%. %. When the counter value is "2", the ratio of front side key data (for example, first key data KD1) is set to 98% and the ratio of rear side key data (for example, second key data KD2) is set to 2. %, the ratio of the texture on the front side (for example, the first texture) is set to 98%, and the ratio of the texture on the rear side (for example, the second texture) is set to 2%. When the counter value is "99", the ratio of the front side key data (for example, the first key data KD1) is set to 1% and the ratio of the rear side key data (for example, the second key data KD2) is set to 99. %, the ratio of the texture on the front side (for example, the first texture) is set to 1%, and the ratio of the texture on the rear side (for example, the second texture) is set to 99%. That is, as the number of frames advances, the application ratio of front key data is reduced, while the application ratio of rear key data is increased. Side texture application rate is increased.

なお、上記のようなブレンド用カウンタの数値情報に対応したブレンド割合の情報は、予めテーブル情報としてメモリモジュール133に記憶されているが、これに限定されることはなく、ブレンド用カウンタの数値情報に対応したブレンド割合の情報を、プログラムにて定められた演算式によって算出する構成としてもよい。 Although the information of the blend ratio corresponding to the numerical information of the blending counter as described above is stored in the memory module 133 in advance as table information, the present invention is not limited to this, and the numerical information of the blending counter is stored in advance. Information on the blending ratio corresponding to may be calculated by an arithmetic expression determined by a program.

続くステップS2310では、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。このブレンドの具体的な演算方法は、上記ステップS2208の場合と同様である。 In subsequent step S2310, a coordinate blending process is executed. In the blending process, the currently set two key data, specifically the coordinate data of the first key data KD1 and the second key data KD2 in the case of the first frame period, are updated in step S2309. Blending is performed according to the blend ratio corresponding to the numerical information of the later blending counter. A specific calculation method for this blend is the same as in step S2208.

続くステップS2311では、テクスチャのブレンド処理を実行する。当該ブレンド処理では、現状把握されている2個のテクスチャ、具体的には第1フレーム期間であれば第1テクスチャ及び第2テクスチャの各単体画像データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。 In the following step S2311, texture blending processing is executed. In the blending process, two currently recognized textures, specifically each single image data of the first texture and the second texture in the first frame period, are used for blending after the update process in step S2309. Blend according to the blend ratio corresponding to the numerical information of the counter.

例えば、先ず第1テクスチャの一の頂点データに対応した単体画像データを読み出すとともに、第2テクスチャの上記頂点データに対応した単体画像データを読み出す。そして、前者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)におけるRGBの各色情報を(r1,g1,b1)、後者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)を(r2,g2,b2)、ブレンド用カウンタの数値情報に対応した前側のテクスチャの比率をrt3、及びブレンド用カウンタの数値情報に対応した後側のテクスチャの比率をrt4(rt3+rt4=1)とした場合において、ブレンド後の単体画像データ(r,g,b)が、
r:r1×rt3+r2×rt4
g:g1×rt3+g2×rt4
b:b1×rt3+b2×rt4
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した単体画像データに対して実行する。
For example, first, the single image data corresponding to one vertex data of the first texture is read, and the single image data corresponding to the vertex data of the second texture is read. RGB color information (r1, g1, b1) in the former single image data (here, it is assumed to be 1 pixel for convenience of explanation), and the latter single image data (here, for convenience of explanation, it is assumed to be 1 pixel). is (r2, g2, b2), rt3 is the ratio of the front texture corresponding to the numerical information of the blending counter, and rt4 (rt3+rt4=1) is the ratio of the rear texture corresponding to the numerical information of the blending counter. , the single image data (r, g, b) after blending is
r: r1×rt3+r2×rt4
g: g1×rt3+g2×rt4
b: b1×rt3+b2×rt4
Blend so that Further, such blending is executed for single image data corresponding to all vertex data.

その後、ステップS2312にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2313にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。 Thereafter, in step S2312, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2313, After setting the particle dispersion object PC17 to the world coordinate system, the setting process ends.

この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2310におけるブレンド結果である各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、ステップS2311におけるブレンド結果である各単体画像データが適用される。これにより、ステップS2311のブレンド結果に対応した単体画像が、ステップS2310のブレンド結果に対応した座標で表示されることとなる。 In this case, when setting the coordinate data as the result of blending, the coordinate data corresponding to the vertex data of the particle dispersion object PC17 is rewritten to the coordinate data as the result of blending in step S2310. In addition, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, each single image data that is the result of blending in step S2311 is generated for each vertex data set to the coordinates as described above. Applies. As a result, the single image corresponding to the result of blending in step S2311 is displayed at the coordinates corresponding to the result of blending in step S2310.

ここで、上記のようにVDP135側にてブレンド用カウンタを用いてブレンド割合を導出する構成であるため、表示CPU131においてはブレンド割合を導出するための処理は実行されない。これにより、表示CPU131の処理負荷の軽減が図られる。 Here, since the VDP 135 is configured to derive the blending ratio using the blending counter as described above, the display CPU 131 does not execute processing for deriving the blending ratio. This reduces the processing load on the display CPU 131 .

なお、表示CPU131は、第1キーデータKD1と第2キーデータKD2との組み合わせや、第2キーデータKD2と第3キーデータKD3との組み合わせといった、所定のキーデータの組み合わせを用いる場合におけるそれらキーデータのブレンド割合を変更する回数をVDP135に対して指示し、その指示に従ってVDP135がその所定のキーデータの組み合わせについて各変更回におけるブレンド割合を独自に決定する構成としてもよい。この場合、所定のキーデータの組み合わせとして同一のものを用いる期間が複数種類存在している場合において、特定の期間ではそれ以外の期間に比べてVDP135の処理負荷が大きい場合、その特定の期間では、表示CPU131が指示する変更回数を少なくすることで、VDP135の処理負荷の軽減を図ることが可能となる。また、上記構成において、VDP135が、各変更回において一定の割合でブレンド割合が変更されていくように設定されている構成としてもよく、この場合、指示された変更回数に応じて一義的に各変更回のブレンド割合を導出できるようなデータが設定されていてもよく、演算によって各変更回のブレンド割合を導出する構成としてもよい。 It should be noted that the display CPU 131 does not display the key data when a predetermined combination of key data is used, such as the combination of the first key data KD1 and the second key data KD2, or the combination of the second key data KD2 and the third key data KD3. The VDP 135 may be instructed how many times to change the data blending ratio, and according to the instruction, the VDP 135 may independently determine the blending ratio for each change for the predetermined combination of key data. In this case, when there are multiple types of periods using the same combination of predetermined key data, if the processing load on the VDP 135 is greater in a specific period than in other periods, in that specific period By reducing the number of changes instructed by the display CPU 131, the processing load of the VDP 135 can be reduced. Further, in the above configuration, the VDP 135 may be configured so that the blend ratio is changed at a constant rate at each change time. Data may be set so that the blend ratio for each change may be derived, or the blend ratio for each change may be derived by calculation.

ステップS2308にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合、ステップS2314にてブレンド用カウンタの初期化を実行する。これにより、次回の処理回からはブレンド割合の算出が最初から開始されることとなる。 If it is determined in step S2308 that new key data is specified in the current rendering list, a blending counter is initialized in step S2314. As a result, the calculation of the blend ratio is started from the beginning from the next processing cycle.

続くステップS2315では、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。また、ステップS2316では、新たなテクスチャを把握する。当該処理では、レジスタ153に現状記憶されている2個のテクスチャのうち、前側のテクスチャ、具体的には第1テクスチャを、今回の描画リストにおいて設定されている新たなテクスチャ、具体的には第3テクスチャに書き換える。なお、この書き換えに際してはメモリモジュール133からの第3テクスチャの読み出しが行われる。 In subsequent step S2315, key data update processing is executed. In the updating process, the front key data, specifically the first key data KD1, of the two key data currently stored in the register 153 is replaced with the new key data set in the current drawing list. , more specifically, to the third key data KD3. Also, in step S2316, a new texture is grasped. In this process, of the two textures currently stored in the register 153, the front texture, specifically the first texture, is replaced with the new texture set in the current drawing list, specifically the first texture. 3 Rewrite to texture. Note that the third texture is read out from the memory module 133 at the time of this rewriting.

続くステップS2317では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2318では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In subsequent step S2317, an update application process is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. In step S2318, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2319にて、上記ステップS2317において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2318において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。 Thereafter, in step S2319, each coordinate data grasped in step S2317 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameter grasped in step S2318 is set to the particle dispersion object PC17. After setting the object PC 17, the setting process is terminated.

この場合、各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2317にて把握した各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第2テクスチャ及び第3テクスチャのうち第2テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第2テクスチャに対応した単体画像が、第2キーデータKD2に対応した座標で表示されることとなる。 In this case, when setting each coordinate data, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten with each coordinate data grasped in step S2317. In addition, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the second texture out of the second texture and the third texture is applied to each vertex data set to the coordinates as described above. is applied to the particle dispersion object PC17. As a result, the single image corresponding to the second texture is displayed at the coordinates corresponding to the second key data KD2.

ちなみに、第3キーデータKD3及び第3テクスチャが新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2308にて否定判定をし、ステップS2309~ステップS2313の処理を実行する。この場合においてステップS2310では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行され、ステップS2311では、第2テクスチャ及び第3テクスチャを用いて単体画像データのブレンドが実行される。 Incidentally, from the next processing in which the third key data KD3 and the third texture are newly set, a negative determination is made in step S2308 until the end timing of the particle dispersion effect, and the processing of steps S2309 to S2313 is performed. to run. In this case, in step S2310, coordinate blending is performed using the second key data KD2 and the third key data KD3, and in step S2311, single image data blending is performed using the second texture and the third texture. be.

上記のように粒子分散演出を実行させるための別形態では、演出が進行することに伴って同一のオブジェクトに適用されるテクスチャが相違されることにより、粒子分散演出の表示態様に変化を与えることが可能となり、当該表示演出の単調化が抑えられる。この場合に、表示態様が変更されるフレーム毎に異なるテクスチャが用いられるのではなく、第1の更新タイミングに対応したテクスチャと、それよりも複数の更新タイミング後である第2の更新タイミングに対応したテクスチャとのブレンドを行うことで、それら第1の更新タイミングと第2の更新タイミングとの間において用いる画像データを作成する構成であるため、予め記憶されておくテクスチャの数を減らすことが可能となり、データ容量の削減が図られる。 In another form for executing the particle dispersion effect as described above, the texture applied to the same object is different as the effect progresses, thereby changing the display mode of the particle dispersion effect. is possible, and the monotony of the display effects can be suppressed. In this case, instead of using different textures for each frame whose display mode is changed, the texture corresponding to the first update timing and the second update timing after a plurality of update timings are used. The image data used between the first update timing and the second update timing is created by blending with the textures that have been processed, so the number of pre-stored textures can be reduced. As a result, the data capacity can be reduced.

また、各テクスチャは、各キーデータに1対1で対応させて設定されており、さらに各テクスチャの切り換えは、各キーデータの切り換えに合わせて行われる。よって、VDP135における切り換えに係る処理の処理負荷の軽減が図られる。 Also, each texture is set in a one-to-one correspondence with each key data, and switching of each texture is performed in accordance with switching of each key data. Therefore, the processing load of processing related to switching in the VDP 135 can be reduced.

<粒子分散演出についての他の別形態>
・上記粒子分散演出(図35の場合及び図37の場合)において、キーデータKD1~KD3の数をより多く設定するとともに、用いるキーデータKD1~KD3の切り換えが発生するまでのフレーム数を少なく設定する(例えば10フレーム毎)ことで、座標データのブレンドを実行しながら、単体画像が直線状ではなく、曲線状の軌跡を描くように変位表示される構成としてもよい。
<Another form of particle dispersion effect>
・In the above particle dispersion effect (in the case of FIG. 35 and in the case of FIG. 37), set a larger number of key data KD1 to KD3 and set a smaller number of frames until switching of the key data KD1 to KD3 to be used occurs. By doing so (for example, every 10 frames), the single image may be displaced and displayed so as to draw a curved trajectory instead of a straight line while executing the blending of the coordinate data.

・キーデータKD1~KD3を用いてブレンドを行う対象を、座標データに加えて又は代えて、透明度を設定するためのα値としてもよく、テクスチャマッピングを実行しなくても頂点データの色情報や複数の頂点データからなるポリゴンの色情報を決定することを可能とする頂点カラーとしてもよい。また、オブジェクトに対するテクスチャの相対的な貼り付け位置を決定するためのUV値を変更させて、同一のテクスチャを貼り付ける場合であっても表示態様を変更させるUVスクロールを行う構成においては、そのUV値をキーデータのブレンドを用いて変更する構成としてもよい。 ・The object to be blended using the key data KD1 to KD3 may be an α value for setting transparency in addition to or instead of the coordinate data. A vertex color may be used that enables determination of color information for a polygon composed of a plurality of vertex data. In addition, in a configuration that performs UV scrolling to change the display mode even when the same texture is pasted by changing the UV value for determining the relative pasting position of the texture with respect to the object, the UV The value may be changed using blending of key data.

・第1フレーム期間と第2フレーム期間とが同一のフレーム数である構成に限定されることはなく、これらフレーム期間に含まれるフレーム数が異なっていてもよい。この場合、各フレーム期間に応じたブレンド処理を行う必要がある。 - The first frame period and the second frame period are not limited to the same number of frames, and the number of frames included in these frame periods may be different. In this case, it is necessary to perform blending processing according to each frame period.

・単体画像を表示させるための単体画像データの種類が同一である構成としてもよい。この場合、粒子分散用テクスチャPC18において各単体データに対応させて単体画像データを設定しておく必要がないため、当該粒子分散用テクスチャPC18のデータ容量の削減が図られる。 A configuration may be adopted in which the types of single image data for displaying single images are the same. In this case, since it is not necessary to set single image data corresponding to each single data in the particle dispersion texture PC 18, the data capacity of the particle dispersion texture PC 18 can be reduced.

・2種類のキーデータを用いてブレンドを行う構成に代えて、3種類以上のキーデータを用いてブレンドを行う構成としてもよい。この場合、これら3種類のキーデータをブレンドする比率を適宜変更することにより、単体画像が変位する場合の軌道を直線状ではなく、曲線状とすることが可能となる。また、3種類以上のキーデータを用いてブレンドを行う場合、例えば、それら3種類以上のキーデータから仮想の円弧や球面を算出により想定し、その想定した仮想の円弧や球面に沿って変位していくように単体画像が表示される構成としてもよい。 - Instead of using two types of key data for blending, three or more types of key data may be used for blending. In this case, by appropriately changing the blending ratio of these three types of key data, it is possible to make the trajectory of the single image displaced not straight but curved. Also, when blending is performed using three or more types of key data, for example, a virtual arc or spherical surface is assumed by calculation from the three or more types of key data, and displacement is performed along the assumed virtual arc or spherical surface. A configuration may be adopted in which single images are displayed in such a way that they are displayed one after the other.

・VDP135が、キーデータを利用して頂点データを算出する専用の回路を有する構成としてもよい。また、VDP135が、キーデータを利用しない場合において頂点データを算出する専用の回路を有する構成としてもよい。これら回路を個別に有する構成とすることにより、それぞれの頂点データの算出に特化させることが可能となり、頂点データの算出を好適に行うことが可能となる。 - The VDP 135 may have a dedicated circuit for calculating vertex data using key data. Also, the VDP 135 may have a dedicated circuit for calculating vertex data when key data is not used. By configuring these circuits individually, it becomes possible to specialize them in the calculation of the respective vertex data, and it is possible to perform the calculation of the vertex data favorably.

・上記のようにキーデータを利用してパラメータデータを導出する構成を、スプライトデータといった2次元情報の画像データを利用して画像表示を行う構成に適用してもよい。例えばスプライトデータをフレームバッファ142に設定する場合の座標のパラメータを導出する上で、複数のキーデータのブレンドを行う構成としてもよい。 The configuration for deriving parameter data using key data as described above may be applied to a configuration for displaying an image using image data of two-dimensional information such as sprite data. For example, in deriving coordinate parameters for setting sprite data in the frame buffer 142, a plurality of key data may be blended.

<海面表示を行うための構成>
次に、海面表示を行うための構成について説明する。
<Configuration for displaying sea level>
Next, a configuration for displaying the sea surface will be described.

海面表示とは、背景において海面を表示させるための演出であり、さらにその海面が連続する複数フレーム(複数の画像更新タイミング)に亘って、波打つように表示される演出のことである。なお、海面表示は、上述した第1表示モード及び第2表示モードのうち第1表示モードにおいて実行される表示演出である。海面表示に際しては、海面用オブジェクトと、当該海面用オブジェクトの動きを細かく変化させるための法線マップデータとが用いられる。 The sea surface display is an effect for displaying the sea surface in the background, and is an effect in which the sea surface is displayed in a wavy manner over a plurality of continuous frames (a plurality of image update timings). Note that the sea surface display is a display effect executed in the first display mode out of the first display mode and the second display mode described above. When displaying the sea surface, a sea surface object and normal map data for finely changing the movement of the sea surface object are used.

これら海面用オブジェクト及び法線マップデータについて、図38(a),(b)を参照しながら詳細に説明する。図38(a)は海面用オブジェクトPC19を説明するための説明図であり、図38(b)は法線マップデータND1,ND2を説明するための説明図である。 These sea surface objects and normal map data will be described in detail with reference to FIGS. FIG. 38(a) is an explanatory diagram for explaining the sea surface object PC19, and FIG. 38(b) is an explanatory diagram for explaining the normal map data ND1 and ND2.

図38(a)に示すように、海面用オブジェクトPC19は、複数の頂点データによって規定される面データ(ポリゴン)SDを、複数行及び複数列となるように多数有している。この場合、各面データSDは、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(a)において左下角部分の面データSDは第1列第1行の情報を順番情報として有しており、図38(a)において右上角部分の面データSDは第25列第25行の情報を順番情報として有している。 As shown in FIG. 38(a), the sea surface object PC19 has a large number of surface data (polygons) SD defined by a plurality of vertex data in multiple rows and multiple columns. In this case, each surface data SD has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38(a), the surface data SD of the lower left corner has the information of the 1st column and 1st row as order information, and the surface data SD of the upper right corner in FIG. It has 25 rows of information as order information.

各面データSDは4個の頂点データによる四角形として定義されているが、これに限定されることはなく、3個の頂点データによる三角形として定義されていてもよく、5個以上の頂点データによる他の多角形として定義されていてもよい。また、任意の一の面データSDは、他の面データSDと隣接しており、当該一の面データSDの頂点データは当該他の面データSDの頂点データを兼用している。つまり、各面データSDは隣り合う面データSD同士において辺が共通している。したがって、基本的には一の頂点データの座標データを変更した場合には、複数の面データSDが変形されることとなり、隣り合う2個の頂点データよりなる一の辺の座標データを変更した場合には、複数の面データSDの向きが変更されることとなる。 Each face data SD is defined as a quadrilateral with four vertex data, but is not limited to this, and may be defined as a triangle with three vertex data, or with five or more vertex data. It may be defined as other polygons. Also, any one surface data SD is adjacent to another surface data SD, and the vertex data of the one surface data SD also serves as the vertex data of the other surface data SD. In other words, adjacent surface data SD have common sides in each surface data SD. Therefore, basically, when the coordinate data of one vertex data is changed, a plurality of face data SD are transformed, and the coordinate data of one side composed of two adjacent vertex data is changed. In this case, the orientations of the plurality of plane data SD are changed.

海面用オブジェクトPC19には、上記各面データSDの初期状態における座標や面の向きを決定すべく各頂点データの初期座標データが設定されている。また、これ以外にも、海面用オブジェクトPC19の初期スケールのデータや、全頂点データ(又は面データSD)に対して一律に適用される初期α値のデータや、海面用オブジェクトPC19の初期回転角度のデータなどが含まれている。 Initial coordinate data of each vertex data is set in the sea surface object PC19 to determine the coordinates and orientation of the surface in the initial state of each surface data SD. In addition to this, the data of the initial scale of the sea surface object PC19, the data of the initial α value uniformly applied to all vertex data (or surface data SD), and the initial rotation angle of the sea surface object PC19 data, etc.

ここで、海面用オブジェクトPC19の各面データSDは、隣接する複数の面データSDをまとめることで複数群に区分けされており、具体的には第1面データ群、・・・、第k面データ群(kは2以上の整数であり、本実施の形態ではk=25)を有している。各面データ群に含まれる面データSDの数は、複数である所定数(具体的には25個)で同一となっているが、少なくとも一部の面データ群間において含まれる面データSDの数が異なっていてもよい。なお、図38(a)においては、太線で囲んだ各単位が面データ群に相当する。 Here, each surface data SD of the sea surface object PC19 is classified into a plurality of groups by grouping a plurality of adjacent surface data SD. Specifically, a first surface data group, . It has a data group (k is an integer of 2 or more, and k=25 in this embodiment). The number of surface data SD included in each surface data group is the same as a predetermined plural number (specifically, 25 pieces), but the number of surface data SD included in at least some of the surface data groups The numbers can be different. In FIG. 38(a), each unit surrounded by a thick line corresponds to the plane data group.

上記各面データ群は、表示CPU131における制御に基づき、それぞれ個別に座標及び面の向きが決定される。詳細には、第1面データ群に含まれる全面データSDが所定の方向を向く同一の面を構成し、その状態において第1面データ群にて基準となる面データSDの座標が所定の座標となるように、第1面データ群に含まれる各面データSDの座標及び面の向きが決定される。つまり、海面用オブジェクトPC19の各面データSDの座標及び向きは、先ず海面データ群の単位で大まかに決定される。以下、この各面データ群の単位で決定された座標及び向きを、第1段階の形態とも言う。 For each plane data group, the coordinates and plane orientation are individually determined based on the control of the display CPU 131 . Specifically, the entire surface data SD included in the first surface data group form the same surface facing a predetermined direction, and in this state, the coordinates of the surface data SD serving as a reference in the first surface data group are predetermined coordinates. The coordinates and surface orientation of each surface data SD included in the first surface data group are determined so that That is, the coordinates and orientation of each surface data SD of the sea surface object PC19 are first roughly determined in units of sea surface data groups. Hereinafter, the coordinates and orientation determined for each surface data group are also referred to as the first-stage form.

なお、基準となる面データSDは、各面データ群において単一の面データSDであるが、複数の面データSDであってもよい。また、面データSDを基準として座標を設定するのではなく、面データ群の隅角部分を構成する頂点データに対して基準となる座標を設定する構成としてもよく、この場合、隅角部分の全てに対して基準となる座標を設定してもよく、一の隅角部分に対してのみ基準となる座標を設定してもよい。また、海面用オブジェクトPC19を一連のものとすべく、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、上記座標及び面の向きが決定される。 Note that the reference plane data SD is a single plane data SD in each plane data group, but may be a plurality of plane data SD. Instead of setting the coordinates based on the surface data SD, it is also possible to set reference coordinates for the vertex data forming the corners of the surface data group. Reference coordinates may be set for all, or reference coordinates may be set for only one corner portion. In addition, in order to form a series of sea surface objects PC19, the coordinates and orientation of the surface are determined so that the coordinates of the vertex data at the boundary between the adjacent surface data groups are the same.

法線マップデータND1,ND2は、各面データ群の単位で第1段階の形態が決定された後において、各面データ群に含まれる各面データSDの向きを相互に異ならせるためのデータであり、複数種類、具体的には2種類の法線マップデータND1,ND2がメモリモジュール133に予め記憶されている。各法線マップデータND1,ND2はそれぞれ、各面データSDの向きを第1段階の形態から変化させるための単位法線データUNDを多数有している。なお、以下の説明では、一対の法線マップデータND1,ND2の一方を第1法線マップデータND1、他方を第2法線マップデータND2とも言う。 The normal map data ND1 and ND2 are data for differentiating the direction of each surface data SD included in each surface data group after the first stage form is determined for each surface data group. A plurality of types, specifically, two types of normal map data ND1 and ND2 are stored in the memory module 133 in advance. Each of the normal map data ND1 and ND2 has a large number of unit normal data UND for changing the orientation of each surface data SD from the form of the first stage. In the following description, one of the pair of normal map data ND1 and ND2 is also called first normal map data ND1 and the other is called second normal map data ND2.

図38(b)は、多数の単位法線データUNDを多数有している法線マップデータND1,ND2のイメージ図であり、複数行及び複数列となるように配列された各四角部分が単位法線データUNDを示す。この場合、各法線マップデータND1,ND2において各単位法線データUNDはそれぞれ、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(b)において左下角部分の単位法線データUNDは第1列第1行の情報を順番情報として有しており、図38(b)において右上角部分の単位法線データUNDは第35列第35行の情報を順番情報として有している。 FIG. 38(b) is an image diagram of normal map data ND1 and ND2 having a large number of unit normal data UND. Indicates line data UND. In this case, each unit normal data UND in each normal map data ND1, ND2 has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38(b), the unit normal data UND at the lower left corner has the information of the first column and first row as order information, and the unit normal data UND at the upper right corner in FIG. 38(b) is It has the information of the 35th column and the 35th row as order information.

各単位法線データUNDは、各面データSDの向きを第1段階の形態から変化させる場合における方向のデータ及びその方向に変化させる際の変化量のデータ(以下、変更データともいう)を有している。この場合、一の法線マップデータND1,ND2において、一部の単位法線データUND間ではその変化させる方向のデータ及びその方向への変化量のデータが同一となっている。但し、これに限定されることはなく、全ての単位法線データUND間において相違していてもよい。 Each unit normal line data UND has direction data when changing the direction of each surface data SD from the form of the first stage and data of the amount of change when changing in that direction (hereinafter also referred to as change data). are doing. In this case, in one normal map data ND1, ND2, the data of the direction of change and the data of the amount of change in that direction are the same between some unit normal line data UND. However, it is not limited to this, and may be different among all the unit normal data UND.

一対の法線マップデータND1,ND2間において、各単位法線データUNDにより決定される変更データとして同一のものは含まれているが、変更データの配列は一致していない。この場合、一対の法線マップデータND1,ND2間における全ての順番情報において、各単位法線データUNDにより決定される変更データが相違していてもよく、少なくとも一部の順番情報において各単位法線データUNDにより決定される変更データが相違している構成としてもよい。各法線マップデータND1,ND2において、単位法線データUNDの数は同一となっているが異なっていもよい。 The pair of normal map data ND1 and ND2 includes the same change data determined by each unit normal line data UND, but the arrangement of the change data does not match. In this case, the change data determined by each unit normal data UND may be different in all the order information between the pair of normal map data ND1 and ND2, and at least part of the order information may be different from each unit method. A configuration in which the change data determined by the line data UND is different may be employed. The normal map data ND1 and ND2 have the same number of unit normal data UND, but may be different.

各法線マップデータND1,ND2における単位法線データUNDの数は、海面用オブジェクトPC19を構成する面データSDの数よりも多く設定されている。かかる構成において、各法線マップデータND1,ND2の単位法線データUNDを海面用オブジェクトPC19の面データSDに適用する場合、全面データSDが各法線マップデータND1,ND2に含まれる範囲において、基準となる面データSDに適用する単位法線データUNDが選択され、その関係を基準とするとともに面データSD側の順番情報と単位法線データUND側の順番情報とを利用することで、上記基準となる面データSD以外の面データSDに対応させる単位法線データUNDが選択される。 The number of unit normal data UND in each of the normal map data ND1 and ND2 is set to be greater than the number of surface data SD forming the sea surface object PC19. In such a configuration, when applying the unit normal data UND of the normal map data ND1 and ND2 to the surface data SD of the sea surface object PC19, in the range where the entire surface data SD is included in the normal map data ND1 and ND2, The unit normal data UND to be applied to the surface data SD serving as the reference is selected, and the relationship between them is used as a reference and the order information on the surface data SD side and the order information on the unit normal data UND side are used. The unit normal data UND corresponding to the surface data SD other than the reference surface data SD is selected.

より詳細に説明すると、面データSDを第m列第n行分有している構成において(m及びnは1以上の整数)、基準となる面データSDが第1列第1行であり、それに対応する単位法線データUNDが第s列第t行である場合(s及びtは1以上の整数)、今回使用する単位法線データUNDは第s列~第(s+m-1)列であって、第t列~第(t+n-1)行分となる。したがって、それら単位法線データUNDが法線マップデータND1,ND2から読み出される。そして、その読み出された各単位法線データUNDは、第s列第t行の順番情報が第1列第1行となる演算によって順番情報の変換が行われるとともに、その変換後の順番情報と同一の順番情報の面データSDに対応付けられる。 More specifically, in the structure having the surface data SD for the m-th column and the n-th row (m and n are integers equal to or greater than 1), the reference surface data SD is the first column and first row, If the corresponding unit normal data UND is in the sth column and the tth row (s and t are integers equal to or greater than 1), the unit normal data UND used this time is in the sth column to the (s+m−1)th column. There are t-th column to (t+n−1)-th row. Therefore, the unit normal data UND are read from the normal map data ND1 and ND2. Each of the unit normal data UND thus read out is subjected to conversion of the order information by an operation in which the order information of the s-th column and the t-th row becomes the first column and the first row, and the converted order information is associated with the surface data SD having the same order information as

図39(a)及び(b)を参照しながら、一対の法線マップデータND1,ND2を海面用オブジェクトPC19に適用する手法を説明する。 A method of applying a pair of normal map data ND1 and ND2 to the sea surface object PC19 will be described with reference to FIGS. 39(a) and 39(b).

図39(a)に示すように、法線マップデータND1,ND2を用いて海面用オブジェクトPC19の面データSDの向きを変更させる場合には、一対の法線マップデータND1,ND2が海面用オブジェクトPC19に対して同時に適用される。この場合、海面表示の開始時においては、一方の法線マップデータND1の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。また、他方の法線マップデータND2についても同様に、当該法線マップデータND2の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。 As shown in FIG. 39(a), when the normal map data ND1 and ND2 are used to change the orientation of the surface data SD of the sea surface object PC19, a pair of normal map data ND1 and ND2 are used for the sea surface object. It is applied to PC 19 at the same time. In this case, when the sea surface display is started, the unit normal data UND of the corner portion of one of the normal map data ND1 matches the corner portion of the sea surface object PC19 on the same side, and the sea surface object PC19 Data setting is performed so that all surface data SD correspond to different unit normal line data UND. Similarly, for the other normal map data ND2, the unit normal data UND of the corner portion of the normal map data ND2 matches the corner portion of the sea surface object PC19 on the same side, and Data setting is performed so that all surface data SD of the PC 19 correspond to different unit normal line data UND.

この場合、同一の面データSDに対して一方の法線マップデータND1の単位法線データUNDと他方の法線マップデータND2の単位法線データUNDとが同時に対応することとなる。これら単位法線データUNDの変更データを面データSDに適用する場合には、一方の法線マップデータND1に対応した変更データによる面データSDの向きと、他方の法線マップデータND2に対応した変更データによる面データSDの向きとの中間の向きとなるように、各変更データのブレンドが実行され、そのブレンドした結果の変更データが面データSDに対して適用される。 In this case, the unit normal data UND of one normal map data ND1 and the unit normal data UND of the other normal map data ND2 simultaneously correspond to the same surface data SD. When applying the changed data of the unit normal data UND to the surface data SD, the direction of the surface data SD by the changed data corresponding to one normal map data ND1 and the direction corresponding to the other normal map data ND2 are changed. Each change data is blended so as to have an orientation intermediate to the orientation of the surface data SD by the change data, and the change data resulting from the blending is applied to the surface data SD.

なお、図39(a)では、開始時に基準となる隅角部分の位置が、一方の法線マップデータND1と他方の法線マップデータND2とで異なる構成となっているが、同一であってもよい。この場合であっても、一対の法線マップデータND1,ND2間において変更データの配列が異なっているため、面データSDに適用される変更データの内容が両法線マップデータND1,ND2で同一となる事象が全ての面データSDに対して発生してしまうことはない。 In FIG. 39(a), the position of the corner portion, which is the reference at the start, differs between the normal map data ND1 and the normal map data ND2. good too. Even in this case, since the arrangement of the modified data differs between the pair of normal map data ND1 and ND2, the content of the modified data applied to the surface data SD is the same for both normal map data ND1 and ND2. Such an event does not occur for all surface data SD.

その後、海面表示におけるフレーム数が進行していくことに伴って、図39(b)に示すように、海面用オブジェクトPC19の基準となる面データSDに対して対応する単位法線データUNDが、両法線マップデータND1,ND2のそれぞれにおいて変更される。但し、この変更に際しては、海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているように変更が行われる。 After that, as the number of frames in the sea surface display progresses, as shown in FIG. Both normal map data ND1 and ND2 are changed respectively. However, at the time of this change, the change is made so that all the surface data SD of the sea surface object PC19 correspond to different unit normal line data UND.

このように基準となる面データSDに対応する単位法線データUNDを変更させることにより、各面データSDの向きが変更される態様を除々に変化させることが可能となり、海面表示を変化に富んだものとすることが可能となる。また、一対の法線マップデータND1,ND2をブレンドする構成であることにより、パチンコ機10の設計段階において上記変更データのバリエーションをある程度抑えたとしても、面データSDに対して実質的に適用される変更データのバリエーションを増やすことが可能となる。 By changing the unit normal data UND corresponding to the plane data SD serving as the reference in this way, it is possible to gradually change the manner in which the direction of each plane data SD is changed, and the sea surface display can be varied. It becomes possible to assume that Further, by blending the pair of normal map data ND1 and ND2, even if the variation of the change data is suppressed to some extent in the design stage of the pachinko machine 10, it is practically applied to the surface data SD. It is possible to increase the variation of change data that can be used.

次に、図40を参照しながら、各面データSDに対する変更データの適用の仕方を説明する。 Next, how to apply change data to each surface data SD will be described with reference to FIG.

既に説明したように各面データSDに対して単位法線データUNDが個別に対応付けられるが、それら全ての面データSDに対して単位法線データUNDによる変更データが適用されるわけではなく、各面データ群において一部の面データSD1に対してのみ単位法線データUNDによる変更データが適用される。詳細には、同一の頂点データを共有する面データSD同士に対して同時に変更データの適用が行われないように、適用対象となる面データSD1が予め定められている。 As already explained, the unit normal data UND is individually associated with each surface data SD. Changed data based on the unit normal data UND is applied only to a portion of the surface data SD1 in each surface data group. Specifically, the surface data SD1 to be applied is predetermined so that the change data is not applied to the surface data SD sharing the same vertex data at the same time.

詳細には、各面データ群において変更データが適用される面データSD1は、図40(a)に示すように一部に限られており、それら適用対象の面データSD1間には、他の面データSD2が存在することで、適用対象の面データSD1同士において頂点データを共有していない。また、適用対象の面データSD1は面データ群においてその隅角部分を構成していないため、面データ群間で見た場合であっても、適用対象の面データSD1同士において頂点データを共有していない。このような構成であることにより、法線マップデータND1,ND2を利用してランダムに面データSDの向きを変更する構成であったとしても、適用対象の面データSD1間にはそれら面データSD1の向きの違いを吸収するための緩衝用の面データSD2が存在することとなり、海面用オブジェクトPC19の面としての連続性を担保することが可能となる。 Specifically, the surface data SD1 to which the change data is applied in each surface data group is limited to a part as shown in FIG. Due to the presence of the surface data SD2, the surface data SD1 to be applied do not share the vertex data. In addition, since the surface data SD1 to be applied does not constitute a corner portion in the surface data group, the vertex data are not shared by the surface data SD1 to be applied even when viewed between the surface data groups. not With such a configuration, even if the orientation of the surface data SD is changed at random using the normal map data ND1 and ND2, the surface data SD1 to be applied can be separated from each other. Therefore, the surface data SD2 for buffering for absorbing the difference in the orientation of the sea surface object PC19 can be ensured as a surface.

適用対象の面データSD1に対して変更データが適用されることにより、各面データSDの向きが第1段階の形態から変更される様子を図40(b-1)及び(b-2)に示す。図40(b-1)に示すように、第1段階の形態では、所定の面データ群に含まれる各面データSD1,SD2は、同一の方向を向いており、同一の面を形成している。 FIGS. 40(b-1) and (b-2) show how the orientation of each surface data SD is changed from the form of the first stage by applying the change data to the surface data SD1 to be applied. show. As shown in FIG. 40(b-1), in the form of the first stage, the surface data SD1 and SD2 included in the predetermined surface data group face the same direction and form the same surface. there is

これら面データSD1,SD2のうち、2番目と4番目が適用対象の面データSD1であり、これら2番目及び4番目の面データSD1に対して、両法線マップデータND1,ND2のブレンド結果である変更データが適用される。この際、図40(b-2)に示すように、2番目及び4番目の面データSD1がそれぞれ対応する変更データに基づく向きに変更される。また、適用対象の面データSD1ではなく緩衝用の面データSD2である1番目、3番目及び5番目の各面データSD2は、第1段階の形態からの変化量が最も少ない態様において海面用オブジェクトPC19の面としての連続性を担保するようにして向きが変更される。 Among these surface data SD1 and SD2, the second and fourth surface data SD1 are the application target surface data SD1. Some change data is applied. At this time, as shown in FIG. 40(b-2), the orientations of the second and fourth plane data SD1 are changed based on the corresponding change data. Moreover, the first, third, and fifth surface data SD2, which are buffer surface data SD2 instead of the surface data SD1 to be applied, are the sea surface object in the mode with the smallest amount of change from the form in the first stage. The orientation is changed so as to ensure the continuity of the surface of the PC 19 .

以下に、海面用オブジェクトPC19の各面データSDの向きを設定するための具体的な処理構成を説明する。 A specific processing configuration for setting the orientation of each surface data SD of the sea surface object PC19 will be described below.

図41(a)は、表示CPU131にて実行される海面表示用の演算処理を示すフローチャートである。海面表示用の演算処理は、タスク処理(図14)のステップS903における背景用演算処理にて実行される。また、海面表示用の演算処理は、第1表示モードである状況で実行されるものであり、図24におけるステップS1502~ステップS1505の処理の一部として実行される。 FIG. 41(a) is a flow chart showing arithmetic processing for sea surface display executed by the display CPU 131. FIG. The arithmetic processing for displaying the sea surface is executed in the background arithmetic processing in step S903 of the task processing (FIG. 14). Calculation processing for sea surface display is executed in the first display mode, and is executed as part of the processing of steps S1502 to S1505 in FIG.

先ずステップS2401では、現状設定されているデータテーブルに基づいて、海面表示の実行中であるか否かを判定する。海面表示の実行中ではない場合にはステップS2402にて、海面表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2403に進む。 First, in step S2401, based on the currently set data table, it is determined whether or not the sea surface is being displayed. If sea surface display is not being executed, it is determined in step S2402 whether or not it is time to start sea surface display. If it is not the start timing, this operation processing ends as it is, and if it is the start timing, the process advances to step S2403.

ステップS2403では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。ちなみに、ステップS2403の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、海面用オブジェクトPC19に対して制御開始用の処理が完了している。また、制御が開始された海面用オブジェクトPC19の制御用の情報は、海面表示が完了するまではワークRAM132に記憶保持される。 In step S2403, based on the currently set data table, the sea surface object PC19 is grasped as a control target. Incidentally, at the execution timing of the process of step S2403, the control start process for the sea surface object PC19 has been completed in the previous control start setting process (step S901). Further, information for controlling the sea surface object PC 19 whose control has been started is stored in the work RAM 132 until the sea surface display is completed.

続くステップS2404では、第1法線マップデータND1及び第2法線マップデータND2を制御対象としてVDP135に指示するための情報を記憶する。但し、表示CPU131では、これら第1法線マップデータND1及び第2法線マップデータND2を海面用オブジェクトPC19に実際に適用するために必要な演算処理は実行しない。つまり、表示CPU131は、第1法線マップデータND1及び第2法線マップデータND2については、これらデータND1,ND2を使用すべきことをVDP135に対して指示するものの、これらデータND1,ND2を実際に制御するための演算処理を実行しない。これにより、表示CPU131の処理負荷の軽減が図られる。 In subsequent step S2404, information is stored for instructing the VDP 135 to control the first normal map data ND1 and the second normal map data ND2. However, the display CPU 131 does not execute the arithmetic processing necessary to actually apply the first normal map data ND1 and the second normal map data ND2 to the sea surface object PC19. That is, the display CPU 131 instructs the VDP 135 to use the data ND1 and ND2 as the first normal map data ND1 and the second normal map data ND2. Do not perform arithmetic processing to control This reduces the processing load on the display CPU 131 .

続くステップS2405では、メモリモジュール133から海面用アニメーションデータをワークRAM132に読み出す。図41(b)は海面用アニメーションデータADを説明するための説明図である。海面用アニメーションデータADは、海面用オブジェクトPC19を面データ群の単位で制御するためのデータであり、当該海面用アニメーションデータADによって各面データ群の基準座標及び向きが決定されることで、海面用オブジェクトPC19について第1段階の形態が決定される。 In the following step S2405, sea surface animation data is read out from the memory module 133 to the work RAM 132. FIG. FIG. 41(b) is an explanatory diagram for explaining the sea surface animation data AD. The sea surface animation data AD is data for controlling the sea surface object PC19 in units of surface data groups. A first-stage form is determined for the object PC19 for use.

より詳細には、海面用アニメーションデータADには、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには、各面データ群について基準座標のデータ及び向きのデータが設定されている。例えば、第1面データ群に対しては、第1のポインタ情報に対応させて、基準座標のデータ(A1-1)及び向きのデータ(B1-1)が設定されており、第2のポインタ情報に対応させて、基準座標のデータ(A1-2)及び向きのデータ(B1-2)が設定されており、第fのポインタ情報(fは3以上の整数であり、例えば「50」)に対応させて、基準座標のデータ(A1-f)及び向きのデータ(B1-f)が設定されている。また、第2面データ群、・・・、第k面データ群に対しても各ポインタ情報に対応させて基準座標のデータ及び向きのデータが設定されている。 More specifically, in the sea surface animation data AD, a plurality of pieces of pointer information are set so as to have serial numbers. Data is set. For example, for the first surface data group, reference coordinate data (A1-1) and orientation data (B1-1) are set in association with the first pointer information. Reference coordinate data (A1-2) and direction data (B1-2) are set corresponding to the information, and f-th pointer information (f is an integer of 3 or more, for example, "50"). , reference coordinate data (A1-f) and orientation data (B1-f) are set. In addition, reference coordinate data and orientation data are also set for the second plane data group, .

ポインタ情報は、海面表示が行われている状況において1フレーム分進行する場合(画像更新タイミングとなる度)に更新され、ポインタ情報の更新に伴って基準座標のデータ及び向きのデータの組合せが次の順番のものに変更されることとなる。この場合に、それら連続する基準座標のデータ及び向きのデータは、各面データ群において第1段階の形態が動きの連続性を有するように設定されている。 The pointer information is updated each time the sea surface is displayed and progresses by one frame (each time the image is updated). will be changed to the order of In this case, the continuous reference coordinate data and orientation data are set so that the first stage form has motion continuity in each plane data group.

また、各面データ群間においてポインタ情報の進行に伴う基準座標のデータ及び向きのデータの配列態様は相違しているが、隣接する面データ群間において形態上の連続性が損なわれないようにそれら基準座標のデータ及び向きのデータが設定されている。つまり、複数の辺が他の面データ群と接している面データ群は、それら他の面データ群の基準座標及び向きが決定されれば、それら他の面データ群と接している状態を解除しない限り、基準座標及び向きに制約が生じ、場合によっては一義的に定まることとなる。このような状況において、当該他の面データ群と接している状態を解除しないようにして、各面データ群の基準座標及び向きが予め定められている。具体的には、既に説明したとおり、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、基準座標のデータ及び向きのデータが決定されている。 Further, although the arrangement of the reference coordinate data and the orientation data associated with the progress of the pointer information is different between the plane data groups, it should be arranged such that the morphological continuity is not lost between the adjacent plane data groups. The reference coordinate data and orientation data are set. That is, a surface data group having multiple sides in contact with another surface data group is released from contact with the other surface data group when the reference coordinates and orientation of the other surface data group are determined. Otherwise, the reference coordinates and orientation will be restricted, and in some cases will be uniquely defined. In such a situation, the reference coordinates and orientation of each plane data group are determined in advance so as not to cancel the state of contact with the other plane data group. Specifically, as already described, the reference coordinate data and the orientation data are determined so that the coordinates of the vertex data at the boundary between the adjacent plane data groups are the same.

図41(a)の説明に戻り、ステップS2405にて海面用アニメーションデータADを読み出した後は、ステップS2406にて、当該海面用アニメーションデータADから初期設定データを把握する。具体的には、開始用のデータとして、第1のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2407にて海面表示の開始指定情報を記憶した後に、本演算処理を終了する。 Returning to the description of FIG. 41A, after reading out the sea surface animation data AD in step S2405, initial setting data is grasped from the sea surface animation data AD in step S2406. Specifically, as start data, a combination of reference coordinate data and direction data set in association with the first pointer information is read for the entire data group. After that, in step S2407, after the sea surface display start designation information is stored, this calculation processing ends.

上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。さらにまた、上記ステップS2406にて把握した第1段階の形態についての初期設定データが設定されるとともに、海面表示を開始すべきことを示す海面表示の開始指定情報が、描画リストに設定される。 When the arithmetic processing for displaying the sea surface is executed as described above, the drawing list created by the subsequent drawing list output processing is set with the information of the use instruction of the sea surface object PC 19, and the first method is set in the drawing list. Information for instructing the use of the line map data ND1 and the second normal map data ND2 is set. Furthermore, the initial setting data for the first-stage form grasped in step S2406 is set, and sea surface display start designation information indicating that the sea surface display should be started is set in the drawing list.

ステップS2401にて海面表示の実行中であると判定した場合には、ステップS2408に進む。ステップS2408では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。また、ステップS2409では、現状設定されているデータテーブルに基づいて、第1法線マップデータND1及び第2法線マップデータND2を制御対象として把握する。 If it is determined in step S2401 that the sea surface display is being executed, the process advances to step S2408. In step S2408, based on the currently set data table, the sea surface object PC19 is grasped as a control target. Also, in step S2409, the first normal map data ND1 and the second normal map data ND2 are grasped as objects to be controlled based on the currently set data table.

続くステップS2410では、既にワークRAM132に読み出されている海面用アニメーションデータADのポインタ情報を1増加させるように更新し、ステップS2411にて、その更新後のポインタ情報に対応した更新データを把握する。この把握処理について具体的には、更新用のデータとして、更新後のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2412にて、海面表示の更新指定情報を記憶した後に、本演算処理を終了する。 In the subsequent step S2410, the pointer information of the sea surface animation data AD already read out to the work RAM 132 is updated so as to be incremented by 1, and in step S2411, update data corresponding to the updated pointer information is grasped. . Specifically, for this grasping process, a combination of reference coordinate data and orientation data set in association with the updated pointer information is read out for the entire data group as update data. After that, in step S2412, after storing the sea level display update designation information, this calculation processing ends.

上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。また、上記ステップS2411にて把握した第1段階の形態についての更新データが描画リストに設定される。さらにまた、海面表示を更新すべきことを示す海面表示の更新指定情報が、描画リストに設定される。 When the arithmetic processing for displaying the sea surface is executed as described above, the drawing list created by the subsequent drawing list output processing is set with the information of the use instruction of the sea surface object PC 19, and the first method is set in the drawing list. Information for instructing the use of the line map data ND1 and the second normal map data ND2 is set. Also, the update data for the first-stage form grasped in step S2411 is set in the drawing list. Furthermore, sea surface display update specification information indicating that the sea surface display should be updated is set in the drawing list.

なお、海面用アニメーションデータADのポインタ情報は、海面表示が実行される全フレーム数に対応していてもよいが、本パチンコ機10では、海面表示が実行される全フレーム数よりもポインタ情報の数が少なく設定されている。この場合、海面表示の実行中においてポインタ情報が最後の順番のものとなってしまうが、最後の順番となった次のフレームにおいては最初のポインタ情報に復帰される。また、このようにポインタ情報がループすることに鑑みて、ポインタ情報が最後の順番における第1段階の形態と、ポインタ情報が最初の順番における第1段階の形態とが海面用オブジェクトPC19の動きとして連続性を有していることが好ましい。 The pointer information of the sea surface animation data AD may correspond to the total number of frames in which the sea surface is displayed. set to a small number. In this case, the pointer information becomes the last one during the execution of the sea surface display, but the first pointer information is restored in the next frame which becomes the last order. In view of the fact that the pointer information loops in this way, the first-stage form in which the pointer information is the last order and the first-stage form in which the pointer information is the first order are the movements of the sea surface object PC19. It is preferable to have continuity.

次に、VDP135にて実行される海面表示用の設定処理を、図42のフローチャートを参照しながら説明する。海面表示用の設定処理は、第1表示モードである状況で実行されるものであり、図26におけるステップS1703~ステップS1708の処理の一部として実行される。また、海面表示の設定処理は、今回の描画リストに海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。 Next, the sea surface display setting process executed by the VDP 135 will be described with reference to the flowchart of FIG. The sea surface display setting process is executed in the first display mode, and is executed as a part of the process of steps S1703 to S1708 in FIG. The sea surface display setting process is started when either the sea surface display start designation information or the sea surface display update designation information is set in the current drawing list.

先ずステップS2501では、今回の描画リストにおいて海面表示の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2502に進む。 First, in step S2501, it is determined whether or not sea surface display start designation information is set in the current drawing list. If it is set, the process advances to step S2502.

ステップS2502では、今回の描画リストに基づいて、メモリモジュール133において海面用オブジェクトPC19が記憶されているアドレスを把握して、当該海面用オブジェクトPC19をVRAM134の展開用バッファ141に読み出す。また、ステップS2503では、今回の描画リストに基づいて、メモリモジュール133において第1法線マップデータND1及び第2法線マップデータND2が記憶されているアドレスを把握して、これら第1法線マップデータND1及び第2法線マップデータND2をVRAM134の展開用バッファ141に読み出す。 In step S2502, based on the current rendering list, the address at which the sea surface object PC19 is stored in the memory module 133 is grasped, and the sea surface object PC19 is read out to the expansion buffer 141 of the VRAM134. Also, in step S2503, based on the current drawing list, the memory module 133 grasps the addresses where the first normal map data ND1 and the second normal map data ND2 are stored, and draws these first normal maps. The data ND1 and the second normal map data ND2 are read out to the development buffer 141 of the VRAM 134 .

続くステップS2504では、今回の描画リストに設定されている初期設定データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2505にて、その把握した初期設定データを適用した状態で海面用オブジェクトPC19をワールド座標系に設定する。これにより、海面用オブジェクトPC19が第1段階の形態となった状態でワールド座標系に設定される。 In the subsequent step S2504, the initial setting data (data extracted from the sea surface animation data AD) set in the current drawing list is grasped. Set the object PC19 for the world coordinate system. As a result, the sea surface object PC19 is set in the world coordinate system in a state of being in the form of the first stage.

続くステップS2506では、第1法線マップデータND1のワールド座標系への初期設定処理を実行するとともに、ステップS2507では、第2法線マップデータND2のワールド座標系への初期設定処理を実行する。これにより、図39(a)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対して第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが対応付けられる。 In subsequent step S2506, initial setting processing of the first normal map data ND1 to the world coordinate system is executed, and in step S2507, initial setting processing of the second normal map data ND2 to the world coordinate system is executed. As a result, the unit normal line data UND and the second normal line of the first normal map data ND1 are generated for each surface data SD of the sea surface object PC19 so as to achieve the state described with reference to FIG. 39(a). The unit normal line data UND of the map data ND2 are associated.

その後、ステップS2508にて、法線パラメータの設定処理を実行した後に、本設定処理を終了する。かかる法線パラメータの設定処理について、図43のフローチャートを参照しながら説明する。なお、法線パラメータとは、面データSDの向きを決定付けるパラメータのことであり、具体的には当該面データSDを構成する頂点データの座標を決定付けるものである。 Thereafter, in step S2508, normal parameter setting processing is executed, and this setting processing ends. Such normal parameter setting processing will be described with reference to the flowchart of FIG. The normal parameter is a parameter that determines the orientation of the surface data SD, and more specifically, determines the coordinates of the vertex data that constitutes the surface data SD.

法線パラメータの設定処理では、先ずステップS2601にて、レジスタ153に設けられた適用カウンタの初期化処理を実行する。本処理において適用カウンタは、第1法線マップデータND1及び第2法線マップデータND2の単位法線データUNDに設定されている変更データを適用する対象の面データSD1をVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては当該適用対象の面データSD1の数に対応した数値情報が適用カウンタに設定される。 In the normal parameter setting process, first, in step S2601, an application counter provided in the register 153 is initialized. In this process, the application counter specifies the surface data SD1 to which the change data set in the unit normal data UND of the first normal map data ND1 and the second normal map data ND2 is applied in the VDP 135. , and when the applied counter is initialized, numerical information corresponding to the number of surface data SD1 to be applied is set in the applied counter.

続くステップS2602では、第1法線マップデータND1において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第1法線マップデータND1において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。 In the subsequent step S2602, change data is read from the unit normal data UND corresponding to the current numerical information of the applied counter in the first normal map data ND1. Specifically, first, the surface data SD1 corresponding to the current numerical information of the applied counter is grasped, and then the unit normal data UND associated with the surface data SD1 in the first normal map data ND1 is grasped. do. Then, the change data set in the unit normal line data UND is read.

続くステップS2603では、第2法線マップデータND2において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第2法線マップデータND2において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。 In the subsequent step S2603, change data is read from the unit normal data UND corresponding to the current numerical information of the applied counter in the second normal map data ND2. Specifically, first, the surface data SD1 corresponding to the current numerical information of the applied counter is grasped, and then the unit normal data UND associated with the surface data SD1 in the second normal map data ND2 is grasped. do. Then, the change data set in the unit normal line data UND is read.

続くステップS2604では、上記ステップS2602にて第1法線マップデータND1から読み出した変更データと、上記ステップS2603にて第2法線マップデータND2から読み出した変更データとのブレンド処理を実行する。このブレンド処理に際しては、既に説明したとおり、第1法線マップデータND1に対応した変更データによる面データSD1の向きと、第2法線マップデータND2に対応した変更データによる面データSD1の向きとの中間の向きとなるように、各変更データのブレンドが実行される。 In subsequent step S2604, blending processing is executed between the modified data read from the first normal map data ND1 in step S2602 and the modified data read out from the second normal map data ND2 in step S2603. In this blending process, as already described, the orientation of the surface data SD1 based on the modified data corresponding to the first normal map data ND1 and the orientation of the surface data SD1 based on the modified data corresponding to the second normal map data ND2 are used. Blending of each change data is performed so that the orientation is intermediate between .

なお、当該ブレンドは、各変更データを適用した場合における面データSD1の各向きの中間となるように行われる構成に限定されることはなく、所定の比率で第1法線マップデータND1に係る変更データ寄り又は第2法線マップデータND2に係る変更データ寄りとなる構成としてもよい。 Note that the blending is not limited to a configuration in which the blending is performed in the middle of each orientation of the surface data SD1 when each change data is applied. The configuration may be such that the modified data side or the modified data side related to the second normal map data ND2 is used.

続くステップS2605では、上記ステップS2604にてブレンドした結果の変更データを、適用カウンタの現状の数値情報に対応した面データSD1に対して適用する。これにより、当該面データSD1については第1段階の形態における向きから、上記ブレンド後の変更データに対応した向きに変更される。但し、既に説明したとおり、変更データは第1段階の形態を基準としてそこからの相対的な変化量として与えられているため、変更データがそのまま適用されるのではなく、第1段階の形態における向きを基準として、そこからブレンド後の変更データに対応した方向であって対応した変化量分だけ変更される。 In subsequent step S2605, the change data resulting from the blending in step S2604 is applied to the surface data SD1 corresponding to the current numerical information of the application counter. As a result, the orientation of the surface data SD1 is changed from the orientation in the form of the first stage to the orientation corresponding to the changed data after blending. However, as already explained, since the change data is given as a relative amount of change from the form of the first stage as a reference, the change data is not applied as it is, but With the direction as a reference, the direction corresponding to the change data after blending is changed by the corresponding amount of change.

続くステップS2606では、適用カウンタの現状の数値情報に対応した面データSD1に対して隣接する面データSD2、すなわち適用対象の面データSD1と頂点データを共有する面データSD2(既に説明した緩衝用の面データSD2に相当)の向きを、当該共有する頂点データの座標の変更に合わせて変更する処理を実行する。この場合、今回の適用対象の面データSD1と共有していない頂点データについては、第1段階の形態から座標を変更させずに、隣接する面データSD2の向きを変更する。 In the following step S2606, the surface data SD2 adjacent to the surface data SD1 corresponding to the current numerical information of the application counter, that is, the surface data SD2 sharing the vertex data with the surface data SD1 to be applied (the already-described buffer buffer (corresponding to surface data SD2) is changed in accordance with the change in the coordinates of the shared vertex data. In this case, for the vertex data not shared with the surface data SD1 to be applied this time, the direction of the adjacent surface data SD2 is changed without changing the coordinates from the form of the first stage.

続くステップS2607では、適用カウンタの数値情報を1減算することにより、法線パラメータの設定を行う対象が次の適用対象の面データSD1に移行するように適用カウンタの数値情報を更新する。 In the following step S2607, by subtracting 1 from the numerical information of the application counter, the numerical information of the application counter is updated so that the target for normal parameter setting shifts to the next surface data SD1 to be applied.

その後、ステップS2608にて、その更新後の適用カウンタの数値情報が、全ての適用対象の面データSD1に対する設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2608にて否定判定をした場合には、ステップS2602に戻り、新たな適用対象の面データSD1に対してステップS2602~ステップS2607の処理を実行し、ステップS2608にて肯定判定をした場合には、本設定処理を終了する。 After that, in step S2608, it is determined whether or not the updated numerical information of the applied counter is information indicating that the setting for all the surface data SD1 to be applied has been completed. 0” is determined. If a negative determination is made in step S2608, the process returns to step S2602, and the processing of steps S2602 to S2607 is executed for the new surface data SD1 to be applied. , to end this setting process.

海面表示用の設定処理(図42)の説明に戻り、ステップS2501にて否定判定をした場合には、ステップS2509にて、今回の描画リストに設定されている更新データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2510にて、その把握した更新データを、ワールド座標系に既に設定されている海面用オブジェクトPC19に設定する。この場合、上記更新データが、海面用オブジェクトPC19の各面データ群の座標及び向きのデータに対して上書きされる。これにより、海面用オブジェクトPC19が、再度、第1段階の形態となった状態でワールド座標系に設定される。 Returning to the description of the sea surface display setting process (FIG. 42), if a negative determination is made in step S2501, then in step S2509 the update data set in the current drawing list (from the sea surface animation data AD to (extracted data) is grasped, and in step S2510, the grasped update data is set in the sea surface object PC19 already set in the world coordinate system. In this case, the update data overwrites the coordinate and direction data of each plane data group of the sea surface object PC19. As a result, the sea surface object PC19 is again set in the world coordinate system in the state of the first stage.

続くステップS2511では、第1法線マップデータND1の更新処理を実行するとともに、ステップS2512では、第2法線マップデータND2の更新処理を実行する。これにより、図39(b)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対応付けられる第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが変更される。 In subsequent step S2511, update processing of the first normal map data ND1 is executed, and in step S2512, update processing of the second normal map data ND2 is executed. As a result, the unit normal line data UND and the second normal line data UND of the first normal line map data ND1 associated with each surface data SD of the sea surface object PC19 and the second normal line data UND are generated so as to achieve the state described with reference to FIG. 39(b). The unit normal data UND of the line map data ND2 is changed.

その後、ステップS2508の法線パラメータの設定処理を実行した後に、本設定処理を終了する。当該法線パラメータの設定処理は、既に説明したとおりである。 Thereafter, after executing the normal parameter setting process in step S2508, this setting process ends. The normal parameter setting process is as described above.

以上のように海面用オブジェクトPC19を構成する各面データSDのワールド座標系における座標及び向きが決定される。そして、それら面データSDに対しては、描画処理(図16)におけるステップS1009の色情報の設定処理にて色情報の設定が行われる。この場合に、当該面データSDに対する色情報の設定は、テクスチャマッピング処理とは異なる手法にて行われる。かかる手法について説明する。 As described above, the coordinates and orientation in the world coordinate system of each surface data SD constituting the sea surface object PC19 are determined. Then, for the surface data SD, color information is set in the color information setting process of step S1009 in the drawing process (FIG. 16). In this case, setting of color information for the surface data SD is performed by a technique different from the texture mapping process. This method will be explained.

図44(a)~(c)は、各面データSDに色情報を設定する手法を説明するための説明図である。 FIGS. 44A to 44C are explanatory diagrams for explaining a technique for setting color information in each surface data SD.

色情報の設定処理(ステップS1009)は、図16に示すように、各オブジェクトのワールド座標系への設定処理が完了し、さらにステップS1006の視野座標系への設定処理、及びステップS1007のクリッピング処理が実行された後に、実行される。したがって、色情報の設定処理が実行されるタイミングでは既に、海面用オブジェクトPC19の各面データSDの座標及び向きが視野座標系に変換された状態で設定されている。 In the color information setting process (step S1009), as shown in FIG. 16, the process of setting each object to the world coordinate system is completed, the process of setting to the visual field coordinate system in step S1006, and the clipping process of step S1007. is executed after Therefore, at the timing when the color information setting process is executed, the coordinates and orientation of each surface data SD of the sea surface object PC19 are already set after being converted into the visual field coordinate system.

この状態では、図44(a)に示すように、視野座標系の基準となる視点VDが設定されているとともに、その視点VDよりも上方の位置となるように海面用オブジェクトPC19が設定されている。つまり、本パチンコ機10における海面表示は、海中を背景とする表示であって、その海中から見上げた状態で海面が表示される演出のことである。 In this state, as shown in FIG. 44(a), a viewpoint VD as a reference of the visual field coordinate system is set, and the sea surface object PC19 is set so as to be positioned above the viewpoint VD. there is In other words, the sea surface display in the pachinko machine 10 is a display with the sea as a background, and is an effect in which the sea surface is displayed in a state of looking up from the sea.

各面データSDに対する色情報の設定に際しては、海面用オブジェクトPC19の上方に仮に光源している場合において、その光源からの透過光を面データSDの座標及び向きとの関係で、視点VDの位置にて視認することが可能となるか否かを想定して、上記光源からの光が透過することに対応した面データSDと、上記光源からの光が海面用オブジェクトPC19の上方側にて全反射して透過しないことに対応した面データSDとに振り分ける。 When setting the color information for each plane data SD, when a light source is temporarily placed above the sea surface object PC19, the transmitted light from the light source is determined by the position of the viewpoint VD in relation to the coordinates and direction of the plane data SD. Assuming whether or not it is possible to visually recognize the sea surface object PC19, the surface data SD corresponding to the transmission of the light from the light source and the light from the light source are all on the upper side of the sea surface object PC19. It is sorted into surface data SD corresponding to reflection but not transmission.

この振分に際しては、上記光源を描画処理(図16)のライティング処理(ステップS1008)にて設定するのではなく、視点VDに対する面データSDの角度が所定の角度未満であるか否かにより、その面データSDを、透過光の多い分類と、透過光の少ない分類とのいずれかに振り分ける。 In this allocation, instead of setting the light source in the lighting process (step S1008) of the drawing process (FIG. 16), The surface data SD is sorted into one of a large amount of transmitted light and a small amount of transmitted light.

より詳細には、図44(b-1)及び(b-2)に示すように、先ず面データSDの座標及び向きのデータを利用して、視点VDから当該面データSDを見た場合の角度である屈折角βを算出する。この算出に際しては、座標及び向きのデータに対して1対1で対応させて屈折角のデータが設定されたテーブルをメモリモジュール133から読み出して用いられるが、算出式のプログラムを予め用意しておき、その算出式で屈折角を算出するようにしてもよい。 More specifically, as shown in FIGS. 44(b-1) and (b-2), the coordinate and direction data of the surface data SD are first used to determine the shape of the surface data SD viewed from the viewpoint VD. A refraction angle β, which is an angle, is calculated. For this calculation, a table in which refraction angle data is set in one-to-one correspondence with coordinate and direction data is read from the memory module 133 and used. , the refraction angle may be calculated by the calculation formula.

ここで、面データSDに対する色情報の設定は、大気中から海面への光の入射を前提としているため、屈折角βが大きいほど、入射角αは大きくなり、入射角αが大きくなるほど、光量は少なくなる。これを前提として、VDP135では、屈折角βを算出した後は、その屈折角βが所定の基準角度未満であるか否かを判定する。そして、屈折角βが所定の基準角度未満である場合(例えば図44(b-1)の場合)には、その屈折角βを生じさせる面データSDを透過光が多い分類とし、屈折角βが所定の基準角度以上である場合(例えば図44(b-2)の場合)には、その屈折角βを生じさせる面データSDを透過光が少ない分類とする。ちなみに、視点VD側とは逆側を向く方向の成分を有している場合といったように、視点VD側を向く成分を向く方向に有していない面データSDは、全て透過光が少ない分類とされる。 Here, the setting of the color information for the surface data SD is based on the premise that light is incident on the sea surface from the atmosphere. will be less. Based on this assumption, the VDP 135, after calculating the refraction angle β, determines whether or not the refraction angle β is less than a predetermined reference angle. When the refraction angle β is less than a predetermined reference angle (for example, in the case of FIG. 44(b-1)), the surface data SD that produces the refraction angle β is classified as having a large amount of transmitted light, and the refraction angle β is greater than or equal to a predetermined reference angle (for example, in the case of FIG. 44(b-2)), the surface data SD that produces that refraction angle β is classified as having less transmitted light. Incidentally, the surface data SD that does not have a component in the direction facing the viewpoint VD side, such as when it has a component in the direction opposite to the viewpoint VD side, is classified as having little transmitted light. be done.

上記のような分類を行った後は、図44(c)に示すようなカラーテーブルCTを用いて各面データSDの色情報を決定する。カラーテーブルCTは、メモリモジュール133に予め記憶されており、複数のカラーNO.のデータと、これらカラーNO.のデータに1対1で対応させて色情報が設定されている。また、カラーテーブルCTには、いずれの色情報を面データSDに対して適用するかを決定する際に参照される相関データが設定されている。 After the classification as described above, the color information of each surface data SD is determined using a color table CT as shown in FIG. 44(c). The color table CT is pre-stored in the memory module 133, and includes a plurality of color numbers. data and these color numbers. The color information is set in a one-to-one correspondence with the data of . The color table CT also contains correlation data that is referred to when determining which color information is to be applied to the surface data SD.

この場合、カラーNO.「7」は、上記透過光が少ない分類とされた面データSDに対して適用されるものである。一方、カラーNO.「1」~「6」は、上記透過光が多い分類とされた面データSDに対して適用されるものであり、かかる分類の面データSDに対しては色情報が複数種類設定されている。当該分類の面データSDに対していずれの色情報を設定するかは、当該面データSDの向きによって決定されるのではなく、視点VDからのZ軸方向の距離によって決定される。 In this case, color no. "7" is applied to the surface data SD classified as having less transmitted light. On the other hand, color No. "1" to "6" are applied to the surface data SD classified as having a large amount of transmitted light, and a plurality of types of color information are set for the surface data SD classified as such. . Which color information is set for the plane data SD of the relevant classification is determined not by the orientation of the plane data SD, but by the distance in the Z-axis direction from the viewpoint VD.

詳細には、面データSDのうち一の隅角部分(例えば図38(a)の状態で見て左下角部分)の頂点データを基準頂点データとして、その基準頂点データのZ座標のデータが、第1段階の閾値である「Z1」以下である場合(すなわち「Z1」よりもZ座標が視点VDに近い場合)には色情報として「CL1」が選択され、第1段階の閾値である「Z1」よりも大きく且つ第2段階の閾値である「Z2」以下である場合には色情報として「CL2」が選択され、第2段階の閾値である「Z2」よりも大きく且つ第3段階の閾値である「Z3」以下である場合には色情報として「CL3」が選択される。そして、以下同様にして、各閾値の範囲に対応させて「CL4」及び「CL5」が選択され、上記基準頂点データのZ座標のデータが、第5段階の閾値である「Z5」よりも大きい場合には色情報として「CL6」が選択される。 Specifically, the vertex data of one corner portion (for example, the lower left corner portion in the state of FIG. 38A) in the surface data SD is used as reference vertex data, and the Z coordinate data of the reference vertex data is If it is equal to or less than the first stage threshold "Z1" (that is, if the Z coordinate is closer to the viewpoint VD than "Z1"), "CL1" is selected as the color information, and the first stage threshold " Z1” and equal to or less than the second stage threshold value “Z2”, “CL2” is selected as the color information, and is greater than the second stage threshold value “Z2” and the third stage threshold value “Z2”. If it is equal to or less than the threshold "Z3", "CL3" is selected as the color information. Then, in the same manner, "CL4" and "CL5" are selected corresponding to the range of each threshold, and the Z coordinate data of the reference vertex data is greater than "Z5", which is the fifth stage threshold. In this case, "CL6" is selected as color information.

これら色情報「CL1」~「CL6」は、後側ほど暗い色となるように設定されており、具体的には、色情報「CL1」は白色として設定され、色情報「CL6」は暗い青色として設定され、色情報「CL2」~「CL5」はそれらの中間色として設定されている。また、色情報「CL7」は、色情報「CL6」よりも暗い色として設定されており、具体的には黒色に近い青色として設定されている。 These color information "CL1" to "CL6" are set so that the color becomes darker toward the rear side. Specifically, the color information "CL1" is set as white, and the color information "CL6" is set as dark blue. , and the color information "CL2" to "CL5" are set as their intermediate colors. Further, the color information "CL7" is set as a darker color than the color information "CL6", specifically, it is set as a blue color close to black.

以下に、各面データSDに色情報を設定するための具体的な処理構成を説明する。 A specific processing configuration for setting color information in each surface data SD will be described below.

図45(a)は、VDP135にて実行される海面表示用の色情報設定処理を示すフローチャートである。海面表示用の色情報設定処理は、描画処理(図16)におけるステップS1009の色情報の設定処理にて実行される。また、海面表示用の色情報設定処理は、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。 FIG. 45(a) is a flow chart showing the sea surface display color information setting process executed by the VDP 135. FIG. The color information setting process for displaying the sea surface is executed in the color information setting process of step S1009 in the drawing process (FIG. 16). The sea surface display color information setting process is started when either the sea surface display start designation information or the sea surface display update designation information is set in the current drawing list.

先ずステップS2701では、上記適用カウンタの初期化処理を実行する。本処理において適用カウンタは、色情報の設定を行う対象の面データSDをVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては海面用オブジェクトPC19に含まれる面データSDの数に対応した数値情報が適用カウンタに設定される。 First, in step S2701, initialization processing of the application counter is executed. In this process, the applied counter has the role of specifying the surface data SD for which color information is to be set in the VDP 135, and is included in the sea surface object PC 19 when the applied counter is initialized. Numerical information corresponding to the number of face data SD is set in the application counter.

続くステップS2702では、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2703にて、その把握した向きのデータから上記屈折角を算出する。そして、ステップS2704にて、その算出した屈折角が基準角度以上であるか否かを判定する。 In the subsequent step S2702, orientation data is grasped from the surface data SD corresponding to the current numerical information of the applied counter in the sea surface object PC 19, and in step S2703, the refraction angle is calculated from the grasped orientation data. Then, in step S2704, it is determined whether or not the calculated refraction angle is greater than or equal to the reference angle.

基準角度以上である場合には、ステップS2705にて、カラーテーブルCTにおけるカラーNO.7の色情報(「CL7」)を、今回対象となった面データSDに対して設定する。一方、基準角度未満である場合には、ステップS2706にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2707にて、カラーテーブルCTと照合することにより、対応するカラーNO.の色情報(「CL1」~「CL6」のいずれか)を、今回対象となった面データSDに対して設定する。 If the angle is greater than or equal to the reference angle, in step S2705, the color No. in the color table CT is determined. 7 (“CL7”) is set for the surface data SD that is the current object. On the other hand, if the angle is less than the reference angle, the Z-coordinate data of the plane data SD of interest this time is read out in step S2706, and the corresponding color NO. . (one of "CL1" to "CL6") is set for the surface data SD that is the target this time.

ステップS2705又はステップS2707の処理を実行した後は、ステップS2708にて、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2709にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。 After executing the processing in step S2705 or step S2707, in step S2708, the numerical information of the application counter is decremented by 1 so that the target for setting color information shifts to the next surface data SD. update the numerical information of . After that, in step S2709, it is determined whether or not the updated numerical information of the applied counter is information indicating that the setting of the color information for all the surface data SD has been completed. 0” is determined.

ステップS2709にて否定判定をした場合には、ステップS2702に戻り、新たな面データSDに対してステップS2702~ステップS2708の処理を実行する。一方、ステップS2709にて肯定判定をした場合には、本色情報設定処理を終了する。 If a negative determination is made in step S2709, the process returns to step S2702, and the processing of steps S2702 to S2708 is executed for the new surface data SD. On the other hand, if an affirmative determination is made in step S2709, the main color information setting process ends.

図45(b)は、VDP135にて実行される海面用の調整処理を示すフローチャートである。当該海面用の調整処理は、描画処理(図16)におけるステップS1010の背景用の描画データ作成処理にて実行される。より詳細には、図27では省略するとともに説明も省略していたが、ステップS1802とステップS1803との間にて実行される。つまり、背景用の3次元画像データが2次元画像データに変換された後に、海面用の調整処理が実行される。 FIG. 45(b) is a flowchart showing sea level adjustment processing executed by the VDP 135. FIG. The adjustment process for the sea surface is executed in the drawing data creation process for the background in step S1010 in the drawing process (FIG. 16). More specifically, although not shown in FIG. 27 and not explained, it is executed between steps S1802 and S1803. That is, after the three-dimensional image data for background is converted into two-dimensional image data, adjustment processing for sea surface is performed.

先ずステップS2711では、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されているか否かを判定する。いずれもが設定されていない場合には、そのまま本調整処理を終了する。いずれかが設定されている場合には、ステップS2712にて、海面のぼかし処理を実行した後に、本調整処理を終了する。 First, in step S2711, it is determined whether or not any of the sea surface display start designation information and the sea surface display update designation information is set in the current rendering list. If none of them are set, the adjustment process is terminated as it is. If either one is set, in step S2712 the sea surface is blurred, and then this adjustment process ends.

海面のぼかし処理では、隠面処理(ステップS1802)を利用して作成された背景用の2次元画像データにおいて、ガウスフィルタを利用したぼかし処理を実行する。詳細には、海面表示に対応した領域から1のピクセルを抽出するとともに、そのピクセルを中心としてX軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンド(合成)を行う。また、同様に、同一のピクセルを中心としてY軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンドを行う。そして、海面表示に対応した領域を構成している全ピクセルに対して、上記ガウスフィルタを利用したぼかし処理を実行する。 In the sea surface blurring process, the blurring process using a Gaussian filter is performed on the background two-dimensional image data created using the hidden surface process (step S1802). Specifically, one pixel is extracted from the area corresponding to the sea surface display, and a predetermined number (for example, five) of pixels are extracted on both sides of the pixel in the X-axis direction. After that, weighting according to the distance from the center pixel is determined using a Gaussian function, and the color information of each pixel is blended (synthesized) with the determined weighting applied. Similarly, a predetermined number (for example, 5) of pixels are extracted on both sides of the same pixel in the Y-axis direction. After that, a weighting according to the distance from the center pixel is determined using a Gaussian function, and the color information of each pixel is blended with the determined weighting applied. Then, blurring processing using the Gaussian filter is performed on all the pixels forming the area corresponding to the sea surface display.

次に、海面表示の内容について、図46を参照しながら説明する。 Next, the contents of the sea surface display will be described with reference to FIG.

図46(a)は海面表示を説明するための説明図であり、図46(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。 FIG. 46(a) is an explanatory diagram for explaining the display of the sea surface, and FIG. 46(b) is an explanatory diagram for simply explaining how to set the color information of the area where the sea surface is displayed. .

図46(a)に示すように、複数の図柄が変動表示されている背景では、海中を示す画像が表示されている。この背景の上部にて海面表示SPがなされている。この場合、海面を表示させるための面データSDの向きが細かく制御されているとともに、その細かく制御された状態に応じた色情報が設定されていることにより、海面の向きが細かく表現されるとともに大気中から海中への光の透過がリアルに表現されている。よって、リアルな海面表示SPを行うことが可能となっている。 As shown in FIG. 46(a), an image showing the underwater is displayed in the background where a plurality of patterns are displayed in a variable manner. A sea level display SP is provided above this background. In this case, the orientation of the surface data SD for displaying the sea surface is finely controlled, and the color information is set according to the finely controlled state. The transmission of light from the atmosphere to the sea is realistically expressed. Therefore, it is possible to perform a realistic sea surface display SP.

また、海面用オブジェクトPC19の第1段階の形態を設定した後に、各面データSDの向きを調整する構成であるため、海面の大きな動きは規則的なものとしながら、その規則的な大きな動きの中で各面データSDの向きに不規則性を与えることが可能となる。 Further, since the orientation of each surface data SD is adjusted after setting the first-stage form of the sea surface object PC19, the large movements of the sea surface are assumed to be regular, but the Inside, it is possible to give irregularity to the direction of each surface data SD.

また、各面データSDの動きを個別に制御する際には、法線マップデータND1,ND2を利用したことにより、各面データSDの向きを演算によって個別に変化させる必要が生じない。よって、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。特に、法線マップデータND1,ND2のワールド座標系における位置を変化させることにより、海面表示SPの進行に伴って各面データSDに対応付けられる単位法線データUNDを変更させる構成であるため、海面表示SPの進行に伴って面データSDの向きを複雑に変化させる場合において、同一の法線マップデータND1,ND2を利用し且つ同一の適用処理を利用することが可能となるため、記憶容量の削減及び処理負荷の軽減が図られる。 Further, when controlling the movement of each surface data SD individually, the use of the normal map data ND1 and ND2 eliminates the need to individually change the direction of each surface data SD by calculation. Therefore, it is possible to obtain the excellent effects as described above while reducing the processing load. In particular, by changing the positions of the normal map data ND1 and ND2 in the world coordinate system, the unit normal data UND associated with each surface data SD is changed as the sea surface display SP progresses. When the direction of the surface data SD is changed in a complicated manner as the sea surface display SP progresses, it is possible to use the same normal map data ND1 and ND2 and the same application processing. is reduced and the processing load is reduced.

また、海面用アニメーションデータADを利用した大まかな動きの決定は表示CPU131にて実行し、法線マップデータND1,ND2を利用した細かな面の向きの決定はVDP135にて実行する構成であるため、処理負荷の分散が図られる。 In addition, since the display CPU 131 determines the rough movement using the sea surface animation data AD, and the VDP 135 determines the fine orientation of the surface using the normal map data ND1 and ND2. , the processing load is distributed.

また、既に説明したとおり、海面のぼかし処理が実行されることにより、図46(b)に示すように、光の透過がほとんどないことに対応した色情報が設定されたピクセルPS(左側のピクセルPS)と、光の透過が最もあることに対応した色情報が設定されたピクセルPS(右側のピクセルPS)との間には、これら両ピクセルPSの色情報をブレンドさせたピクセルPS(中央側のピクセルPS)が存在することとなる。これにより、海面表示SPを行っている領域にて個別に色情報が設定される構成において色情報が相違する部分の境界を目立たなくすることが可能となる。 Further, as already explained, by executing the sea surface blurring process, as shown in FIG. 46(b), the pixel PS (left pixel PS) and the pixel PS (right pixel PS) set with color information corresponding to the highest light transmission is interposed between the pixel PS (center side pixel PS) in which the color information of these two pixels PS are blended. of pixels PS) will exist. As a result, in a configuration in which color information is individually set in the area where the sea surface display SP is performed, it is possible to make the boundary between portions with different color information inconspicuous.

また、2次元画像とした後に当該ぼかし処理を実行するため、3次元画像の状態でぼかし処理を実行する構成に比べて、処理負荷の軽減が図られる。 Further, since the blurring process is executed after converting the image into a two-dimensional image, the processing load can be reduced as compared with a configuration in which the blurring process is executed in the state of the three-dimensional image.

<海面表示用の色情報設定処理の別形態>
図47は、VDP135にて実行される海面表示用の色情報設定処理の別形態を説明するためのフローチャートである。
<Another form of color information setting processing for sea surface display>
FIG. 47 is a flow chart for explaining another form of the sea surface display color information setting process executed by the VDP 135 .

先ずステップS2801では、上記ステップS2701と同様に、適用カウンタの初期化処理を実行する。続くステップS2802では、上記ステップS2702と同様に、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2803にて、上記ステップS2703と同様に、その把握した向きのデータから屈折角を算出する。 First, in step S2801, as in step S2701, the application counter is initialized. In the following step S2802, as in step S2702 above, orientation data is grasped from the surface data SD corresponding to the current numerical information of the applied counter in the sea surface object PC 19, and in step S2803, as in step S2703 above, The angle of refraction is calculated from the grasped orientation data.

続くステップS2804では、上記ステップS2803にて算出した屈折角の情報から色情報を導出する。この場合、色情報の導出に際しては、屈折角の情報と色情報とが対応付けられたカラーテーブルをメモリモジュール133から読み出し、屈折角の情報に対応した色情報を読み出す。つまり、本別形態では、屈折角の情報から直接的に色情報が読み出される。 In subsequent step S2804, color information is derived from information on the refraction angle calculated in step S2803. In this case, when deriving the color information, the color table in which the refraction angle information and the color information are associated is read from the memory module 133, and the color information corresponding to the refraction angle information is read. In other words, in this alternative embodiment, color information is read directly from the information on the refraction angle.

その後、ステップS2805にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2806にて、その読み出したZ座標のデータに対応した色情報の調整処理を実行する。この場合、視点VDから遠い距離に存在する面データSDほど、ステップS2804にて設定された色情報を暗い色側にシフトさせる場合のシフト量が大きくなる処理が実行される。 Then, in step S2805, the Z-coordinate data of the surface data SD of interest this time is read out, and in step S2806, color information adjustment processing corresponding to the read-out Z-coordinate data is executed. In this case, processing is executed to increase the shift amount when the color information set in step S2804 is shifted toward the dark color side for the surface data SD existing at a distance farther from the viewpoint VD.

続くステップS2807では、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2808にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2808にて否定判定をした場合には、ステップS2802に戻り、新たな面データSDに対してステップS2802~ステップS2807の処理を実行する。一方、ステップS2808にて肯定判定をした場合には、本色情報設定処理を終了する。 In the following step S2807, by subtracting 1 from the numerical information of the application counter, the numerical information of the application counter is updated so that the target for which color information is to be set shifts to the next surface data SD. After that, in step S2808, it is determined whether or not the updated numerical information of the applied counter is information indicating that the setting of the color information for all the surface data SD has been completed. 0” is determined. If a negative determination is made in step S2808, the process returns to step S2802, and the processing of steps S2802 to S2807 is executed for the new surface data SD. On the other hand, if an affirmative determination is made in step S2808, the main color information setting process ends.

<他の別形態>
・一の法線マップデータND1,ND2に含まれる単位法線データUNDの数が海面用オブジェクトPC19に含まれる面データSDの数以下である構成としてもよい。この場合、同一の法線マップデータND1,ND2を複数並べることにより、面データSDの全てに対して単位法線データUNDを対応付けるようにすればよい。
<Other forms>
- The number of unit normal data UND included in one normal map data ND1, ND2 may be less than or equal to the number of surface data SD included in the sea surface object PC19. In this case, by arranging a plurality of identical normal map data ND1 and ND2, all of the surface data SD may be associated with the unit normal data UND.

・法線マップデータND1,ND2は複数種類設定されている必要はなく、単一の法線マップデータが設定されている構成としてもよい。この場合、海面表示に際して、当該単一の法線マップデータのみを海面用オブジェクトPC19に適用する構成としてもよい。当該構成であっても、海面用オブジェクトPC19に適用される法線マップデータの位置を変化させることで、海面表示の進行に伴って各面データSDの向きを変化させることが可能となる。また、当該単一の法線マップデータを複数同時に読み出すとともに、それら複数の法線マップデータにおいて海面用オブジェクトPC19に適用する位置を相互に異ならせることにより、複雑な面の向きの制御を可能とする構成としてもよい。 - A plurality of types of normal map data ND1 and ND2 need not be set, and a single normal map data may be set. In this case, when displaying the sea surface, only the single normal map data may be applied to the sea surface object PC19. Even with this configuration, by changing the position of the normal map data applied to the sea surface object PC19, it is possible to change the orientation of each surface data SD as the sea surface display progresses. In addition, by simultaneously reading out a plurality of the single normal map data and by differentiating the position applied to the sea surface object PC19 in the plurality of normal map data, it is possible to control the direction of the complicated surface. It is good also as a structure which carries out.

・法線マップデータND1,ND2の単位法線データUNDを適用する対象は、同一の頂点データを共有する複数の面データSDが同時に適用対象とならないように制限されている構成に限定されることはなく、全面データSDに対して単位法線データUNDを適用する構成としてもよい。但し、本構成においては、一の頂点データに対して異なる座標が同時に設定されることとなるため、その調整を別途行う必要がある。例えば、頂点データの座標設定を行う際の優先度を隣接する面データSD同士において予め定めておき、優先度が高い面データSDについては単位法線データUNDをそのまま適用し、優先度が低い面データSDについては優先度が高い面データSDにより決定される頂点データの座標を維持しながら、第1段階の形態の状態よりも自身に適用される単位法線データUNDにより決定される向きに近付けるように調整する構成としてもよい。 ・The target to which the unit normal data UND of the normal map data ND1 and ND2 is applied is limited to a configuration in which multiple surface data SD sharing the same vertex data are not simultaneously applied. Instead, the unit normal data UND may be applied to the entire surface data SD. However, in this configuration, since different coordinates are set simultaneously for one vertex data, it is necessary to perform the adjustment separately. For example, the priority when setting the coordinates of the vertex data is determined in advance for the adjacent surface data SD, and the unit normal data UND is applied as is to the surface data SD with the higher priority, and the surface with the lower priority is applied. As for the data SD, while maintaining the coordinates of the vertex data determined by the surface data SD having the higher priority, the orientation determined by the unit normal data UND applied to itself is brought closer than the state of the form of the first stage. It is good also as composition adjusted so that.

・各面データSDに対する色情報の設定は、カラーテーブルCTを利用した設定の仕方や、上記図47に示した設定の仕方に限定されることはなく、例えば、描画処理(図16)のライティング処理にて仮想光源を、海面用オブジェクトPC19を挟んで視点VDの反対側に設定し、その仮想光源からの光の透過量を各面データSDについて個別に算出する構成としてもよい。この場合、光の透過量に応じた色情報を、予め定められたテーブル情報を利用して導出し、その導出結果の色情報を各面データSDに設定する構成が考えられる。また、各面データSDに対して初期の色情報が予め設定されており、その色情報を上記算出した透過量との関係で調整する構成が考えられる。 ・The setting of color information for each surface data SD is not limited to the setting method using the color table CT or the setting method shown in FIG. In the processing, a virtual light source may be set on the opposite side of the viewpoint VD across the sea surface object PC19, and the transmission amount of light from the virtual light source may be individually calculated for each surface data SD. In this case, a configuration is conceivable in which color information corresponding to the amount of light transmitted is derived using predetermined table information, and the derived color information is set in each surface data SD. Further, it is conceivable that initial color information is set in advance for each surface data SD, and the color information is adjusted in relation to the calculated amount of transmission.

・海面用オブジェクトPC19が視点VDの上方に設定されている構成に限定されることはなく、海面用オブジェクトPC19が視点VDの下方に設定されている構成としてもよい。この場合、各面データSDの向きを上記各手法により決定した後に、それら各面データSDの向きが光を反射し易い向きであれば明るい色情報を設定し、それら各面データSDの向きが光を透過し易い向きであれば暗い色情報を設定する。この設定に際しては、予め用意されたテーブル情報を利用してもよく、仮想光源を利用して実際に算出する構成としてもよい。 The configuration in which the sea surface object PC19 is set above the viewpoint VD is not limited, and a configuration in which the sea surface object PC19 is set below the viewpoint VD may be employed. In this case, after the orientation of each surface data SD is determined by each of the methods described above, if the orientation of each surface data SD is a direction that easily reflects light, bright color information is set. Dark color information is set for a direction in which light is easily transmitted. For this setting, table information prepared in advance may be used, or a virtual light source may be used for actual calculation.

・導出した屈折角が所定の角度以下である面データSDについては、視点VDからのZ軸方向の距離に関係なく、最も明るい色情報を設定する構成としてもよい。また、これに代えて、導出した屈折角が所定の角度以下である面データSDについては、他の屈折角の場合よりも明るい色情報を設定するとともに、その色情報をベースとして、視点VDからのZ軸方向の距離が遠いほど暗くなるように色情報の調整を行うようにしてもよい。 The brightest color information may be set for the surface data SD for which the derived refraction angle is equal to or less than a predetermined angle, regardless of the distance in the Z-axis direction from the viewpoint VD. Alternatively, for surface data SD for which the derived refraction angle is equal to or less than a predetermined angle, color information that is brighter than for other refraction angles is set, and based on that color information, from the viewpoint VD The color information may be adjusted so that the longer the distance in the Z-axis direction, the darker the image.

・上記のように面の向きを制御して色情報を設定する処理構成は、海面である必要はなく、川や池といった他の水面であってもよい。また、経時的に面の状態を変化させる透過膜や、反射膜を表現する際に、上記のような面の向きを制御して色情報を設定する処理構成を適用してもよい。 The processing configuration for controlling the direction of the surface and setting the color information as described above does not have to be the surface of the sea, but may be the surface of other water such as a river or a pond. Further, when expressing a transmissive film or a reflective film that changes the state of the surface with time, a processing configuration for setting color information by controlling the orientation of the surface as described above may be applied.

・マップデータを利用して制御するパラメータの対象は、向きや座標に限定されることはなく、面の色や面の透明値であってもよい。 The target of parameters controlled using map data is not limited to the orientation and coordinates, and may be the color of the surface or the transparency value of the surface.

・法線マップデータND1,ND2に含まれる単位法線データUNDの数が、海面用オブジェクトPC19に含まれる面データSDの数よりも少ない構成としてもよい。この場合、一の法線マップデータND1,ND2を海面用オブジェクトPC19における所定数の面データSDに対して適用するとともに、同一の法線マップデータND1,ND2を残りの面データSDに対して再度適用すればよい。 The number of unit normal data UND included in the normal map data ND1 and ND2 may be smaller than the number of surface data SD included in the sea surface object PC19. In this case, one normal map data ND1, ND2 is applied to a predetermined number of surface data SD of the sea surface object PC19, and the same normal map data ND1, ND2 are applied again to the remaining surface data SD. Apply it.

・法線パラメータの設定処理(図43)にて、ステップS2606の処理、すなわち隣接する面データの調整処理が実行されない構成としてもよい。この場合、緩衝用の面データSD2については、当該面データSD2が有する複数の頂点データのうち、適用対象の面データSD1と共有している頂点データは法線マップデータND1,ND2の適用に伴い変更されるが、共有していない頂点データは第1段階の形態において設定されている座標が維持される。この場合であっても、緩衝用の面データSD2の向きやサイズは、適用対象の面データSD1の向きやサイズの変更に応じて変更されることとなる。 - In the normal parameter setting process (FIG. 43), the process of step S2606, that is, the process of adjusting adjacent surface data may not be executed. In this case, regarding the buffer surface data SD2, of the plurality of vertex data held by the surface data SD2, the vertex data shared with the surface data SD1 to be applied is Changed but non-shared vertex data maintains the coordinates set in the first stage configuration. Even in this case, the orientation and size of the buffer plane data SD2 are changed according to the change in the orientation and size of the plane data SD1 to be applied.

・面データSDの向きを直接制御する法線マップデータND1,ND2に代えて、海面用オブジェクトPC19の各頂点データの座標を直接制御するマップデータを用いる構成としてもよい。この場合、当該マップデータを海面用オブジェクトPC19に適用することで、頂点データの座標が変更され、その変更の結果として面データSDの向きが変更されることとなる。本構成であれば、制御対象が面ではなく頂点となるため、法線マップデータND1,ND2を利用していた場合のような適用対象の面データSD1と緩衝用の面データSD2との切り分けを行う必要がなくなる。なお、マップデータにおいて設定される各頂点データの制御量は、第1段階の形態における座標からの変化量であることが好ましい。 - Instead of the normal map data ND1 and ND2 that directly control the direction of the surface data SD, map data that directly controls the coordinates of each vertex data of the sea surface object PC19 may be used. In this case, by applying the map data to the sea surface object PC19, the coordinates of the vertex data are changed, and as a result of the change, the direction of the surface data SD is changed. With this configuration, the object to be controlled is not a surface but a vertex. you don't have to do it. The control amount of each vertex data set in the map data is preferably the amount of change from the coordinates in the form of the first stage.

・海面用オブジェクトPC19が複数の面データ群に区別されている構成は必須ではなく、このような区別がなされていない構成としてもよい。この場合、法線マップデータND1,ND2などを利用して海面用オブジェクトPC19の各面データSDのそれぞれ個別に制御されることとなる。 The configuration in which the sea surface object PC19 is divided into a plurality of surface data groups is not essential, and a configuration in which such a distinction is not made is also possible. In this case, each surface data SD of the sea surface object PC19 is individually controlled using the normal map data ND1 and ND2.

・同一の更新タイミングにおいて、面データ群単位での制御を行うことに基づく第1段階の形態の設定と、法線マップデータND1,ND2などを利用した面データSDの向きの個別の制御との両方を行う構成に限定されることはなく、例えば一の更新タイミングにおいて上記第1段階の形態の設定を行い、次以降の更新タイミングにおいて面データSDの向きの個別の制御を行い、さらにそれらを繰り返していく構成としてもよい。この場合、一の更新タイミングにおける処理負荷の軽減が図られる。 ・At the same update timing, the setting of the form in the first stage based on performing control in units of surface data groups, and the individual control of the direction of the surface data SD using the normal map data ND1, ND2, etc. The configuration is not limited to a configuration in which both are performed. For example, the configuration of the first stage is set at one update timing, the orientation of the surface data SD is individually controlled at the next and subsequent update timings, and furthermore, these are controlled. It is good also as a structure which repeats. In this case, it is possible to reduce the processing load at one update timing.

・視点VDからのZ軸方向の距離に応じて色情報を選択する構成に限定されることはなく、X座標、Y座標及びZ座標により定まる視点VDからの距離に応じて色情報を選択する構成としてもよい。また、これに代えて、視点VDからのX軸方向の距離に応じて色情報を選択する構成としてもよく、Y軸方向の距離に応じて色情報を選択する構成としてもよい。また、視点VDからの距離ではなく、対象となるオブジェクトの回転位置やスケールに応じて色情報を選択する構成としてもよい。 The configuration is not limited to the configuration in which color information is selected according to the distance in the Z-axis direction from the viewpoint VD, and the color information is selected according to the distance from the viewpoint VD determined by the X, Y, and Z coordinates. may be configured. Alternatively, the color information may be selected according to the distance in the X-axis direction from the viewpoint VD, or the color information may be selected according to the distance in the Y-axis direction. Alternatively, the color information may be selected according to the rotational position or scale of the target object instead of the distance from the viewpoint VD.

<ピント表示を行うための構成>
次に、ピント表示を行うための構成について説明する。
<Configuration for Focus Display>
Next, a configuration for performing focus display will be described.

ピント表示とは、表示面Gにおいて複数種類の個別画像が、表示面Gの奥行き方向の位置がそれぞれ異なるかのようにして同時に表示される場合において、奥行き方向の所定の位置又は範囲に存在している個別画像にピントが合い、当該個別画像については模様の境界や曲り部分の境界、さらに外縁部分が鮮明に表示されるのに対して、それよりも手前側及び奥側に存在しているかのようにして表示されている個別画像についてはピントがずれていて、模様の境界や曲り部分の境界、さらには外縁部分が不鮮明となってぼかした状態で表示される表示演出のことである。 Focus display refers to the case where a plurality of types of individual images are simultaneously displayed on the display surface G as if they were at different positions in the depth direction of the display surface G, and the images are present at a predetermined position or range in the depth direction. Is the individual image in focus, and the boundary of the pattern, the boundary of the curved portion, and the outer edge of the individual image are clearly displayed, and are they located on the front side and the back side? The individual images displayed in this way are out of focus, and the borders of the pattern, the borders of the curved portions, and the outer edge portions are unclear and displayed in a blurred state.

ピント表示は、遊技回中及び開閉実行モード中のうち相対的に画像表示に要する処理負荷が低い開閉実行モード中に実行される。つまり、遊技回中においては、各図柄列SA1~SA3において予め定められたアニメーションデータに従って図柄の変動表示を行う必要があるのに起因して、表示CPU131のタスク処理(図14)ではステップS903~ステップS905の処理が少なくとも実行される。その一方、開閉実行モード中においては、各図柄列SA1~SA3において図柄の変動表示を行う必要がないため、表示CPU131のタスク処理(図14)ではステップS903及びステップS904は実行されるが、ステップS905は実行されない。この分だけ、開閉実行モード中においては表示CPU131の処理負荷が軽減されているため、その軽減されている分を利用して、ピント表示用の制御が実行される。 The focus display is performed during the game play and during the opening/closing execution mode, in which the processing load required for image display is relatively low. In other words, during the game round, it is necessary to perform the variable display of the symbols according to the predetermined animation data in each of the symbol rows SA1 to SA3. At least the process of step S905 is executed. On the other hand, during the open/close execution mode, since it is not necessary to perform the variable display of symbols in each of the symbol rows SA1 to SA3, in the task processing of the display CPU 131 (FIG. 14), steps S903 and S904 are executed. S905 is not executed. Since the processing load of the display CPU 131 is reduced by this amount during the open/close execution mode, the reduced amount is used to execute control for focus display.

図48は、表示CPU131にて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。開閉実行モード時の演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、開閉実行モード時の演出用演算処理は、開閉実行モードに対応したデータテーブルが設定されている場合に起動される。 FIG. 48 is a flow chart showing the effect arithmetic processing in the opening/closing execution mode executed by the display CPU 131. As shown in FIG. The effect calculation processing in the opening/closing execution mode is executed in the effect calculation processing in step S904 of the task processing (FIG. 14). Further, the operation processing for effect in the opening/closing execution mode is started when the data table corresponding to the opening/closing execution mode is set.

先ずステップS2901では、現状設定されているデータテーブルに基づいて、今回の更新対象となる演出用のオブジェクトを把握する。ちなみに、ステップS2901の処理の実行タイミングでは、上記演出用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2902では、その把握した演出用のオブジェクトの各種パラメータを演算して制御用の情報を更新する。 First, in step S2901, based on the currently set data table, the effect object to be updated this time is grasped. Incidentally, at the execution timing of the process of step S2901, the setting process (step S901) for starting control of the effect object is completed. In the following step S2902, various parameters of the comprehended object for effect are calculated to update the information for control.

続くステップS2903では、現状設定されているデータテーブルに基づいて、今回の更新対象となる教示用のオブジェクトを把握する。教示用のオブジェクトとは、遊技の状況を遊技者に教示可能とする画像を表示する場合に利用されるオブジェクトのことであり、例えばラウンド中であれば、現状のラウンドが何番目のラウンドであるかといった内容が教示用のオブジェクトを用いて教示される(図52参照)。また、開閉実行モードへの移行の契機となった遊技回において有効ライン上に最終停止表示された図柄の組合せの種類の情報が教示用のオブジェクトを用いて教示される(図52参照)。ちなみに、ステップS2903の処理の実行タイミングでは、上記教示用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2904では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 In the subsequent step S2903, the teaching object to be updated this time is grasped based on the currently set data table. A teaching object is an object that is used to display an image that enables the player to learn the game situation. For example, if a round is in progress, what round is the current round? Such contents are taught using teaching objects (see FIG. 52). In addition, information on the type of combination of symbols finally stopped and displayed on the active line in the game round that triggered the shift to the opening/closing execution mode is taught using a teaching object (see FIG. 52). Incidentally, at the execution timing of the processing in step S2903, the setting processing for starting control of the teaching object (step S901) has been completed. In subsequent step S2904, various parameters of the grasped object are calculated to update control information.

続くステップS2905では、現状設定されているデータテーブルに基づいて、開閉実行モードにおけるピント演出期間であるか否かを判定する。ピント演出期間は、遊技者による演出用操作装置48の操作に基づきピント表示を行うことが可能な期間のことである。本パチンコ機10では、開閉実行モードの一部の期間としてピント演出期間が設定されており、具体的には第1ラウンド目といった所定のラウンド(すなわち可変入賞装置22への入賞が可能となる期間)にピント演出期間が設定されている。但し、これに限定されることはなく、複数のラウンドに対してピント演出期間が設定されていてもよく、オープニングやエンディングにおいてピント演出期間が設定されていてもよく、ラウンド間にピント演出期間が設定されていてもよく、所定のラウンドとその次のラウンドに亘ってピント演出期間が設定されていてもよく、開閉実行モードの全体がラウンド演出期間として設定されていてもよい。 In subsequent step S2905, based on the data table currently set, it is determined whether or not it is the focus effect period in the opening/closing execution mode. The focus effect period is a period during which focus display can be performed based on the operation of the effect operation device 48 by the player. In this pachinko machine 10, a focus effect period is set as a part of the period of the opening and closing execution mode. ), the focus effect period is set. However, it is not limited to this, and the focus effect period may be set for a plurality of rounds, the focus effect period may be set in the opening or ending, and the focus effect period may be set between rounds. A focus effect period may be set over a predetermined round and the next round, or the entire open/close execution mode may be set as a round effect period.

ピント演出期間ではない場合(ステップS2905:NO)には、そのまま本演出用演算処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。 If it is not the focus effect period (step S2905: NO), the main effect calculation process is terminated. When the effect arithmetic processing in the open/close execution mode is executed in this way, the drawing list created by the subsequent drawing list output processing contains the instructions for using the effect object ascertained in step S2901. Information is set along with information of texture usage instructions corresponding to those objects. In addition, in the drawing list, the parameter calculated in step S2902 is set, and the instruction object usage instruction information grasped in step S2903 is set. The calculated parameters are set.

ピント演出期間である場合(ステップS2905:YES)には、ステップS2906にて、ピント選択期間であるか否かを判定する。ピント演出期間には、その開始タイミングから300フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って遊技者によってピントを選択可能とするピント選択期間が設定されている。当該ピント選択期間にて遊技者によるピント選択指示が演出用操作装置48の操作に基づきなされた場合に、ピント表示実行期間が行われるように設定されている。このピンと表示実行期間は、実行対象となっているラウンドの終了まで行われる。ピント選択期間にてピント選択の対象となる個別画像は、その後に続くピント表示実行期間においても表示が継続されるため、ピント選択期間におけるピント選択の結果を反映したピント表示を実行することが可能となる。 If it is the focus effect period (step S2905: YES), it is determined in step S2906 whether or not it is the focus selection period. In the focus effect period, a focus selection period is set in which the player can select the focus over a predetermined number of frames such as 300 frames (predetermined multiple image update timings) from the start timing. The focus display execution period is set to be performed when the player issues a focus selection instruction based on the operation of the effect operation device 48 during the focus selection period. This ping and display execution period will continue until the end of the round in which it is being executed. Individual images that are subject to focus selection during the focus selection period continue to be displayed during the subsequent focus display execution period, so it is possible to execute focus display that reflects the results of focus selection during the focus selection period. becomes.

なお、ピント表示実行期間は、少なくとも500フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って実行される。また、所定のラウンドがピント選択期間として設定されており、それ以降のラウンドがピント表示実行期間として設定されている構成としてもよい。 Note that the focus display execution period is executed over a predetermined number of frames (a plurality of predetermined image update timings) such as at least 500 frames. Alternatively, a predetermined round may be set as the focus selection period, and subsequent rounds may be set as the focus display execution period.

ピント選択期間である場合(ステップS2906:YES)には、ステップS2907にて、ピント選択用のパラメータ調整処理を実行するとともに、ステップS2908にて、ピント選択の実行指定情報を記憶した後に、本演出用演算処理を終了する。 If it is the focus selection period (step S2906: YES), in step S2907, the parameter adjustment process for focus selection is executed. Terminate the calculation process for

上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2901にて把握された演出用のオブジェクトのパラメータとして、ピント選択用のパラメータが設定されるとともに、ピント選択の実行指定情報が設定される。 When the effect arithmetic processing in the open/close execution mode is executed as described above, the drawing list created by the subsequent drawing list output processing includes the instruction for using the effect object grasped in step S2901. is set together with the information of the texture use instruction corresponding to those objects. In addition, in the drawing list, the parameter calculated in step S2902 is set, and the instruction object usage instruction information grasped in step S2903 is set. The calculated parameters are set. Further, in the drawing list, a parameter for focus selection is set as a parameter of the object for effect grasped in step S2901, and execution designation information for focus selection is set.

ここで、ピント選択期間においては、表示面Gにてピント選択を可能とする個別画像が除々に切り換えられていると遊技者が認識可能な表示が行われる。例えば、複数の個別画像が表示面Gの奥行き方向にずれて配置されているかのように同時に表示されている状態において、それら複数の個別画像が順次、ピント選択可能状態へと遷移される。このピント選択可能状態とする方法は任意であるが、例えば個別画像の周縁を囲むようにして環状部を表示させるとともに、その環状部を点滅表示させる構成や、個別画像を拡大表示させる構成や、個別画像を拡大させた後に縮小表示させる構成や、個別画像を指し示す別画像を表示させる構成が考えられる。このようなピント選択可能状態の表示は、ピント選択の実行指定情報が設定された描画リストが出力されている状況において、VDP135にて上記ピント選択用のパラメータが参照されることで実行される。 Here, during the focus selection period, a display that allows the player to recognize that the individual images enabling focus selection are gradually switched on the display surface G is performed. For example, in a state in which a plurality of individual images are displayed at the same time as if they were displaced in the depth direction of the display surface G, the plurality of individual images are sequentially transitioned to a focus selectable state. The method of making this focus selectable state is arbitrary. may be enlarged and then displayed in reduced size, or a configuration in which another image pointing to the individual image is displayed. Such display of the focus selectable state is executed by referring to the parameters for focus selection in the VDP 135 in a situation in which a drawing list in which execution designation information for focus selection is set is output.

なお、本パチンコ機10においては、ピント選択が可能となる個別画像は背景の手前にて表示される演出用の個別画像であるが、背景の画像が含まれていてもよい。 In the pachinko machine 10, the individual image that enables focus selection is the individual image for effect displayed in front of the background, but the background image may be included.

一方、ピント選択期間ではない場合(ステップS2906:NO)には、ステップS2909に進む。ステップS2909では、ピント表示の実行中であるか否かを判定する。ピント表示の実行中ではない場合には、ステップS2910にて、音声発光制御装置60からピント指示コマンドを受信しているか否かを判定する。ピント指示コマンドは、ピント選択期間にて遊技者によるピント選択指示がなされた場合において、当該ピント選択期間の終了タイミングにて音声発光制御装置60から送信されるコマンドであり、当該ピント指示コマンドにはピント選択指示された個別画像の情報が含まれる。 On the other hand, if it is not the focus selection period (step S2906: NO), the process proceeds to step S2909. In step S2909, it is determined whether focus display is being executed. If focus display is not being executed, it is determined in step S2910 whether or not a focus instruction command has been received from the sound emission control device 60. FIG. The focus instruction command is a command transmitted from the sound emission control device 60 at the end timing of the focus selection period when the player issues a focus selection instruction during the focus selection period. The information of the individual image for which focus selection has been instructed is included.

ステップS2910にて否定判定をした場合には、そのまま本処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、上記ステップS2905にて否定判定をして本演出用演算処理を終了した場合と同様の情報が設定される。 If a negative determination is made in step S2910, the process ends. In this way, when the operation processing for effect in the open/close execution mode is executed, the drawing list created by the subsequent drawing list output processing makes a negative determination in step S2905, and ends the operation processing for effect. The same information as when

ステップS2910にて肯定判定をした場合には、ステップS2911にてピント範囲の算出処理を実行する。ピント範囲の算出処理では、ピント指示コマンドに含まれているピント選択指示対象の個別画像の情報からピントを合わせる範囲を算出する処理を実行する。この場合、ピント演出期間にて表示される個別画像の種類は、パチンコ機10の設計段階において既に定められているため、ピント選択対象となる個別画像に1対1で対応させてピント範囲のデータがピント範囲テーブルとして予め定められている。したがって、ステップS2911では、先ずメモリモジュール133からピント範囲テーブルを読み出し、上記ピント選択指示対象となった個別画像に対応したピント範囲のデータを読み出す。その後、ステップS2912にて、ピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。 If an affirmative determination is made in step S2910, focus range calculation processing is executed in step S2911. In the focus range calculation process, the process of calculating the focus range from the information of the individual image for which the focus selection instruction is included in the focus instruction command is executed. In this case, since the type of individual image to be displayed in the focus effect period is already determined at the design stage of the pachinko machine 10, the data of the focus range is made to correspond to the individual image to be the focus selection target on a one-to-one basis. is predetermined as a focus range table. Therefore, in step S2911, first, the focus range table is read out from the memory module 133, and data of the focus range corresponding to the individual image for which the focus selection instruction is made is read. After that, in step S2912, after storing the execution designation information of the focus effect, the arithmetic processing for the main effect ends.

上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2911にて算出したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が記憶される。 When the effect arithmetic processing in the open/close execution mode is executed as described above, the drawing list created by the subsequent drawing list output processing includes the instruction for using the effect object grasped in step S2901. is set together with the information of the texture use instruction corresponding to those objects. In addition, in the drawing list, the parameter calculated in step S2902 is set, and the instruction object usage instruction information grasped in step S2903 is set. The calculated parameters are set. Further, in the drawing list, the data of the focus range calculated in step S2911 is set, and the execution designation information of the focus effect is stored.

ステップS2910にて肯定判定をした場合には、ピント表示の実行状態となる。このピント表示の実行状態への設定は、例えばデータテーブルにおいてピント表示の実行状態か否かを区別するためのフラグに「1」をセットすることなどによって行われる。ピント表示の実行状態となった場合には、ステップS2909にて肯定判定をし、ステップS2912にてピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。 If an affirmative determination is made in step S2910, the focus display is executed. This setting to the execution state of the focus display is performed, for example, by setting "1" to a flag for distinguishing whether or not the focus display is in the execution state in the data table. If the focus display is to be executed, an affirmative determination is made in step S2909, and after storing the execution designation information of the focus effect in step S2912, the arithmetic processing for this effect ends.

このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、今回のピント演出に対応したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が設定される。 When the effect arithmetic processing in the open/close execution mode is executed in this way, the drawing list created by the subsequent drawing list output processing contains the instructions for using the effect object ascertained in step S2901. Information is set along with information of texture usage instructions corresponding to those objects. In addition, in the drawing list, the parameter calculated in step S2902 is set, and the instruction object usage instruction information grasped in step S2903 is set. The calculated parameters are set. In addition, in the drawing list, data of the focus range corresponding to the current focus effect is set, and information specifying execution of the focus effect is set.

VDP135では、表示CPU131から送信される描画リストに基づいて、ピント選択期間用の画像表示を行うとともに、ピント表示実行期間用の画像表示を行う。この場合、ピント選択期間用の画像表示については、ピント選択用のパラメータを参照しながら描画処理(図16)を実行することに基づき、既に説明したようなピント選択可能状態となる個別画像が順次切り換わるような画像表示が行われる。一方、ピント表示実行期間用の画像表示は、3次元画像データの状態から2次元画像データの状態に移行させる処理が実行された後に、ピントを調整するための処理が実行されることにより行われる。 Based on the drawing list transmitted from the display CPU 131, the VDP 135 performs image display for the focus selection period and image display for the focus display execution period. In this case, regarding the image display for the focus selection period, the individual images that are in the focus selectable state as described above are sequentially displayed based on the execution of the drawing process (FIG. 16) while referring to the parameters for focus selection. An image display that switches is performed. On the other hand, the image display for the focus display execution period is performed by executing the process for adjusting the focus after executing the process of shifting from the state of the three-dimensional image data to the state of the two-dimensional image data. .

以下、VDP135においてピントを調整するための具体的な構成について説明する。図49(a)は、VDP135においてピントを調整する上で用いられるVRAM134の各エリアを説明するための説明図である。 A specific configuration for adjusting the focus in the VDP 135 will be described below. FIG. 49(a) is an explanatory diagram for explaining each area of the VRAM 134 used for adjusting the focus in the VDP 135. FIG.

図49(a)に示すように、VRAM134には、第1フレーム領域142a及び第2フレーム領域142bを有するフレームバッファ142と、Zバッファ143とが設けられている。これら各バッファ142,143については既に説明したとおりであり、フレームバッファ142の各フレーム領域142a,142bには、図柄表示装置31への描画を実行する際に参照される2次元データである描画データが作成され、Zバッファ143は、隠面処理(図18)を実行する際にZ軸方向の座標データを一時的に記憶するために利用される。 As shown in FIG. 49A, the VRAM 134 is provided with a frame buffer 142 having a first frame area 142a and a second frame area 142b, and a Z buffer 143. As shown in FIG. These buffers 142 and 143 are as already explained, and in each frame area 142a and 142b of the frame buffer 142, drawing data which is two-dimensional data to be referred to when executing drawing on the pattern display device 31 is stored. is created, and the Z-buffer 143 is used to temporarily store coordinate data in the Z-axis direction when performing hidden surface removal (FIG. 18).

VRAM134には、上記各バッファ142,143以外にも、VDP135においてピントを調整するためのエリアとして、ぼかし用バッファ181が設けられている。ぼかし用バッファ181は、フレーム領域142a,142bと同一数の単位エリアを有している。つまり、各フレーム領域142a,142bは相互に同一数の単位エリアを有しており、それと同一の数の単位エリアを、ぼかし用バッファ181は有している。ぼかし用バッファ181は、一のフレーム領域に作成されている描画リストをそのままの状態で一時記憶することが可能となっている。 The VRAM 134 is provided with a blurring buffer 181 as an area for adjusting the focus in the VDP 135 in addition to the buffers 142 and 143 described above. The blurring buffer 181 has the same number of unit areas as the frame areas 142a and 142b. That is, each of the frame regions 142a and 142b has the same number of unit areas, and the blurring buffer 181 has the same number of unit areas. The blurring buffer 181 can temporarily store the drawing list created in one frame area as it is.

なお、描画リストをそのままの状態で一時記憶させることができるのであれば、ぼかし用バッファ181における単位エリアの数は、一のフレーム領域が有する単位エリアの数よりも多くてもよい。 Note that the number of unit areas in the blurring buffer 181 may be larger than the number of unit areas in one frame area as long as the drawing list can be temporarily stored as it is.

VDP135においてピントを調整するための処理は、描画処理(図16)におけるステップS1012の描画データ合成処理にて実行される。図49(b)は、描画データ合成処理を示すフローチャートである。 The process for adjusting the focus in the VDP 135 is executed in the drawing data synthesizing process of step S1012 in the drawing process (FIG. 16). FIG. 49(b) is a flow chart showing the drawing data synthesizing process.

描画データ合成処理では、先ずステップS3001にて、今回の描画リストにおいてピント演出の実行指定情報が設定されているか否かを判定する。設定されていない場合には、ステップS3002に進む。 In the drawing data synthesizing process, first, in step S3001, it is determined whether or not execution designation information for focus effects is set in the current drawing list. If not set, the process advances to step S3002.

ステップS3002では、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。その後、ステップS3003にて、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込んだ後に、本合成処理を終了する。 In step S3002, the background drawing data already created in the immediately preceding step S1010 and stored in the screen buffer 144 is written to the current drawing target frame areas 142a and 142b. Thereafter, in step S3003, the effect and pattern drawing data already created in immediately preceding step S1011 and stored in the screen buffer 144 are transferred to the frame area 142a in which the background drawing data has been written as described above. , 142b, the synthesis process ends.

この場合においてα値を参照しながら演出及び図柄用の描画データが書き込まれることは、既に説明したとおりである。また、開閉実行モードにおいては、演出及び図柄用の描画データにおいて図柄は存在しておらず、演出用の個別画像に対応したデータのみが存在している。さらにまた、開閉実行モードにおいては、演出及び図柄用の描画データに、教示用のオブジェクトに対して教示用のテクスチャを貼り付けることに基づき作成された教示用の個別画像のデータが含まれており、当該教示用の個別画像のデータに対しては他の個別画像のデータが手前側から重なることがないように演出及び図柄用の描画データが作成されている。 In this case, drawing data for effects and symbols are written while referring to the α value, as already described. In addition, in the open/close execution mode, there is no pattern in the drawing data for effects and patterns, and only data corresponding to individual images for effects exist. Furthermore, in the open/close execution mode, the drawing data for effects and patterns includes the data of individual teaching images created based on pasting teaching textures to teaching objects. For the data of the teaching individual image, the drawing data for effects and patterns is created so that the data of another individual image does not overlap from the front side.

一方、今回の描画リストにおいてピント演出の実行指定情報が設定されている場合には、ステップS3004に進む。ステップS3004では、上記ステップS3002と同様に、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。続くステップS3005では、上記ステップS3003と同様に、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込む。その後、ステップS3006にて、ピント演出用の調整処理を実行した後に、本合成処理を終了する。 On the other hand, if the execution designation information for the focus effect is set in the current drawing list, the process proceeds to step S3004. In step S3004, as in step S3002, the background drawing data already created in step S1010 and stored in the screen buffer 144 is written to the current drawing target frame areas 142a and 142b. In the following step S3005, similarly to step S3003, the drawing data for effects and patterns that have already been created in step S1011 immediately before and stored in the screen buffer 144 are written as the drawing data for the background as described above. are written in the frame areas 142a and 142b. After that, in step S3006, after performing the adjustment processing for the focus effect, the synthesis processing ends.

図50(a)はピント演出用の調整処理を示すフローチャートである。 FIG. 50(a) is a flow chart showing adjustment processing for focus effects.

ピント演出用の調整処理では、先ずステップS3101~ステップS3107にて、ピント演出を実行するために参照するぼかしマップデータを作成するためのぼかしマップ作成処理を実行する。ぼかしマップデータは、2次元画像データである描画データにおいて、当該描画データが作成されているフレーム領域142a,142bの各単位エリアに設定された色情報が、3次元画像データの状況にてどのようなZ軸方向の座標を有していたのかをVDP135にて特定するためのマップデータである。つまり、フレーム領域142a,142bの各単位エリアに1対1で対応させてZ軸方向の座標データが設定されたデータである。 In the focus effect adjustment process, first, in steps S3101 to S3107, a blur map creation process for creating blur map data to be referred to for executing the focus effect is executed. The blurring map data is a representation of how the color information set in each unit area of the frame regions 142a and 142b in which the drawing data is created in the drawing data, which is two-dimensional image data, in the situation of the three-dimensional image data. This is map data for specifying in the VDP 135 whether or not the Z-axis direction coordinates were present. In other words, it is data in which coordinate data in the Z-axis direction is set in one-to-one correspondence with each unit area of the frame regions 142a and 142b.

ここで、既に説明したとおり、背景用の描画データや演出及び図柄用の描画データは、描画処理(図16)にて、ワールド座標系に対して各オブジェクトを設定し(ステップS1002~ステップS1004)、カメラ座標系への変換処理(ステップS1005)を経て、視野座標系への変換処理(ステップS1006)を実行し、さらにその状態で、クリッピング処理(ステップS1007)、ライティング処理(ステップS1008)及び色情報の設定処理(ステップS1009)を実行した後に、作成する。この場合において、各描画データは、フレーム領域142a,142bに対して作成されるものであるため、当該描画データの作成に際して、上記のように視野座標系にて色情報の設定処理が行われたデータの状態は維持されており、描画データの作成後においても新たな描画処理が起動されるまでは維持される。そして、この視野座標系にて色情報の設定処理が行われた状態のデータを利用して、ぼかしマップデータが作成される。 Here, as already explained, the drawing data for the background and the drawing data for effects and patterns are set for each object in the world coordinate system in the drawing process (FIG. 16) (steps S1002 to S1004). , conversion processing to the camera coordinate system (step S1005), conversion processing to the visual field coordinate system (step S1006) is executed, and in that state, clipping processing (step S1007), lighting processing (step S1008), and color It is created after executing the information setting process (step S1009). In this case, since each drawing data is created for the frame regions 142a and 142b, color information setting processing was performed in the visual field coordinate system as described above when creating the drawing data. The state of the data is maintained, and even after the drawing data is created, it is maintained until new drawing processing is started. Blur map data is created using the data in the state where the color information setting process has been performed in this visual field coordinate system.

ぼかしマップ作成処理では、Zバッファ143を利用して、隠面処理(図18)と同様の処理を実行することに基づき、ぼかしマップデータを作成する。但し、隠面処理(図18)では、背景用の画像データのみを処理対象として背景用の描画データを作成し、演出及び図柄用の描画データのみを処理対象として演出及び図柄用の描画データを作成する構成であったが、ぼかしマップ作成処理では、このような区別を行うことなく、視野座標系においてクリッピングされた全ての画像データをまとめて処理対象として扱う。 In the blur map creation process, the Z buffer 143 is used to create blur map data based on executing the same process as the hidden surface process (FIG. 18). However, in the hidden surface processing (FIG. 18), only the background image data is processed to create background drawing data, and only the effect and pattern drawing data is processed. However, in the blurring map creation processing, all image data clipped in the visual field coordinate system are collectively treated as processing targets without making such a distinction.

ぼかしマップ作成処理について具体的には、先ずステップS3101にて、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS3102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。 Specifically, in step S3101, an individual image included on the Z-axis based on the current projection target dot in the screen area PC12 (see FIG. 17) is generated in step S3101. The Z value set for the target pixel of the individual image to be tested is grasped. In the subsequent step S3102, the Z value set in the area of the dot corresponding to the dot to be drawn on a one-to-one basis in the Z buffer 143 is grasped.

続くステップS3103では、ステップS3101にて把握した個別画像のZ値が、ステップS3102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS3104に進み、ステップS3101にて把握したZ値を、Zバッファ143におけるステップS3102にて参照したドットのエリアに上書きする。その後にステップS3105に進む。 In the following step S3103, it is determined whether the Z value of the individual image grasped in step S3101 corresponds to the front side in the Z axis direction than the Z value of the Z buffer 143 grasped in step S3102. If it corresponds to the near side, the process advances to step S3104 to overwrite the dot area referred to in step S3102 in the Z buffer 143 with the Z value grasped in step S3101. After that, the process advances to step S3105.

一方、ステップS3103にて、手前側に対応していないと判定した場合には、ステップS3104の処理を実行することなく、ステップS3105に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合にはZバッファ143の更新は行われない。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われる。 On the other hand, if it is determined in step S3103 that it does not correspond to the near side, the process advances to step S3105 without executing the process of step S3104. In other words, when the Z value of the pixel to be tested is the same as the Z value already set for the target dot in the Z buffer 143 or on the far side in the Z axis direction, the Z buffer 143 is not updated. . On the other hand, if the Z value of the pixel to be tested is on the Z-axis direction front side of the Z value already set for the target dot in the Z buffer 143, the Z buffer 143 is updated.

ステップS3105では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS3101に戻り、新たな対象ピクセルに対してZテストを行う。 In step S3105, it is determined whether or not the Z test has been completed for all target pixels included on the Z axis with respect to the projection target dot. If not, return to step S3101 to perform the Z test on the new target pixel.

完了している場合には、ステップS3106にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS3107にて、投影対象ドットを更新した後にステップS3101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には、ぼかしマップデータの作成が完了したことを意味するため、ステップS3108に進む。 If completed, it is determined in step S3106 whether or not the Z test has been completed for all dots in the screen area PC12. If not completed, in step S3107, after updating the projection target dot, the process returns to step S3101 to perform the Z test on the new projection target dot. If it has been completed, it means that the creation of the blur map data has been completed, so the process advances to step S3108.

上記のようにぼかしマップデータが作成されることにより、合成描画データの各単位エリアに対応した色情報がZ軸方向においてどのような座標を有するものであるか否かをVDP135にて特定することが可能となる。よって、各単位エリアに対応した色情報について、奥行き方向の相対的な位置関係をVDP135にて特定することが可能となる。 By creating the blurring map data as described above, the VDP 135 can specify what kind of coordinates the color information corresponding to each unit area of the synthetic drawing data has in the Z-axis direction. becomes possible. Therefore, the VDP 135 can specify the relative positional relationship in the depth direction for the color information corresponding to each unit area.

ピント演出用の調整処理では、ステップS3101~ステップS3107にて、ぼかしマップデータを作成した後に、ステップS3108に進む。 In the focus effect adjustment process, after creating the blurring map data in steps S3101 to S3107, the process proceeds to step S3108.

ステップS3108では、描画データ合成処理(図49(b))におけるステップS3004及びステップS3005の処理により、描画対象のフレーム領域142a,142bに作成された合成描画データを、ぼかし用バッファ181に保存する。続くステップS3109では今回の描画リストにおいて設定されているピント範囲のデータを読み出す。 In step S3108, the composite drawing data created in the drawing target frame areas 142a and 142b by the processing in steps S3004 and S3005 in the drawing data composition processing (FIG. 49B) is saved in the blurring buffer 181. FIG. In the subsequent step S3109, the focus range data set in the current rendering list is read.

その後、ステップS3110~ステップS3117にて、その読み出したピント範囲のデータに基づいて、ぼかし処理を実行する。当該ぼかし処理では、今回の描画対象のフレーム領域142a,142bにおける単位エリアについて、ぼかし処理の実行対象であるか否かの判定処理を実行するとともに、実行対象であると判定した単位エリアに対して、ぼかしを生じさせる処理を実行し、さらにこれらの処理を今回の描画対象のフレーム領域142a,142bに含まれる全ての単位エリアに対して実行する。 After that, in steps S3110 to S3117, blurring processing is executed based on the read focus range data. In the blurring process, the unit area in the frame areas 142a and 142b to be drawn this time is subjected to a determination process as to whether or not the unit area is subject to the blurring process. , blurring processing is executed, and these processings are executed for all unit areas included in the frame regions 142a and 142b to be drawn this time.

ここで、Z軸方向の座標データがピント範囲に対応している単位エリアに対しては、ぼかしを生じさせる処理は実行れないが、当該ピント範囲はZ軸方向の単一の座標データに対応しているのではなく、図50(b)に示すように、Z軸方向に連続する複数の座標データに対応している。つまり、ピント範囲は、ある程度の被写界深度を有するように設定されており、表示面Gに表示される画像をぼかし過ぎないようにされている。ピント範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように設定されていることが好ましい。 Here, for a unit area whose coordinate data in the Z-axis direction corresponds to the focus range, blurring processing is not executed, but the focus range corresponds to single coordinate data in the Z-axis direction. Instead, as shown in FIG. 50(b), it corresponds to a plurality of coordinate data continuous in the Z-axis direction. That is, the focus range is set so as to have a certain depth of field so that the image displayed on the display surface G is not blurred too much. Although the focus range is specifically arbitrary, it is set so as to be a range that can include the entire individual image for presentation having a predetermined thickness in the Z-axis direction in the state of three-dimensional image data. preferably.

Z軸方向の座標データがピント範囲から外れている単位エリアについては、ピント範囲から遠い距離に存在するものほど、ぼかしの度合いが大きくなるように設定されている。具体的には、図50(b)に示すように、ピント範囲から遠ざかるに従って段階的にぼかしの度合いが大きくなるように、第1ぼかし範囲と、第2ぼかし範囲と、第3ぼかし範囲とが設定されている。 For unit areas whose coordinate data in the Z-axis direction are out of the focus range, the degree of blurring is set to increase as the distance from the focus range increases. Specifically, as shown in FIG. 50B, the first blurring range, the second blurring range, and the third blurring range are divided so that the degree of blurring increases stepwise as the distance from the focus range increases. is set.

第1ぼかし範囲はピント範囲から連続するようにして設定されており、Z軸方向においてピント範囲から遠ざかる側に連続する複数の座標データに対応している。第1ぼかし範囲は、ピント範囲の奥側及び手前側の両方に存在する。また、第2ぼかし範囲は第1ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲及び第1ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第2ぼかし範囲は、奥側の第1ぼかし範囲のさらなる奥側及び手前側の第1ぼかし範囲のさらなる手前側の両方に存在する。また、第3ぼかし範囲は第2ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲、第1ぼかし範囲及び第2ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第3ぼかし範囲は、奥側の第2ぼかし範囲のさらなる奥側及び手前側の第2ぼかし範囲のさらなる手前側の両方に存在する。 The first blurring range is set so as to be continuous from the focus range, and corresponds to a plurality of continuous coordinate data on the side away from the focus range in the Z-axis direction. The first blurring range exists on both the far side and the near side of the focus range. The second blurring range is set so as to be continuous from the first blurring range, and corresponds to a plurality of continuous coordinate data on the side away from the focus range and the first blurring range in the Z-axis direction. The second blurring range exists both on the further back side of the first blurring range on the back side and on the further front side of the first blurring range on the front side. Also, the third blurring range is set so as to be continuous from the second blurring range, and corresponds to a plurality of continuous coordinate data on the side away from the focus range, the first blurring range, and the second blurring range in the Z-axis direction. are doing. The third blurring range exists both on the further back side of the second blurring range on the back side and on the further front side of the second blurring range on the front side.

第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように、それぞれ設定されていることが好ましい。この場合、第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲に含まれるZ軸方向の座標データの数は相互に同一であり且つその座標データの数はピント範囲と同一であるが、ピント範囲とは異なっていてもよく、相互に異なっていてもよい。例えばピント範囲から遠いぼかし範囲ほど含まれるZ軸方向の座標データの数が多くなる構成としてもよい。 Specifically, the first blurring range, the second blurring range, and the third blurring range are arbitrary, but in the state of three-dimensional image data, the entire individual image for one effect having a predetermined thickness in the Z-axis direction It is preferable that each be set so as to be within a range that can include In this case, the number of coordinate data in the Z-axis direction included in the first blurring range, the second blurring range, and the third blurring range is the same as that of the focus range, but It may be different from the focus range and may be different from each other. For example, a blurring range farther from the focus range may include more coordinate data in the Z-axis direction.

ピント範囲は、既に説明したとおり、遊技者の演出用操作装置48の操作に基づき変更されるものであるため、メモリモジュール133に予め記憶されているピント範囲用のデータは、当該ピント範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、遊技者による演出用操作装置48の操作に基づき、そのピント範囲を設定する上で基準となるZ軸方向の座標が決定され、その座標を基準として、ピント範囲用のデータに含まれるZ軸方向の座標データの数が実際の座標データの範囲として変換されることで、ピント範囲が設定される。この場合、ピント範囲を設定する上で基準となるZ軸方向の座標は、ピント範囲の最も手前側の座標又は最も奥側の座標として設定しておくことが好ましい。最も手前側の座標として設定しておくことで、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に加算するだけで、ピント範囲を設定することが可能となる。また、最も奥側の座標として設定した場合であっても、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に減算するだけで、ピント範囲を設定することが可能となる。 As already explained, the focus range is changed based on the player's operation of the production operation device 48, so the focus range data stored in advance in the memory module 133 is included in the focus range. It is set as data of the number of consecutive coordinate data in the Z-axis direction. Then, based on the player's operation of the effect operating device 48, the coordinates in the Z-axis direction, which serve as the reference for setting the focus range, are determined. The focus range is set by converting the number of coordinate data in the axial direction as the range of the actual coordinate data. In this case, it is preferable to set the coordinate in the Z-axis direction, which is the reference for setting the focus range, as the coordinate on the frontmost side or the coordinate on the farthest back side of the focus range. By setting the coordinates of the frontmost side, the focus range can be set by simply adding the number of coordinate data set in the focus range data to the reference coordinates. becomes possible. In addition, even when the coordinates are set as the farthest side, the focus range can be changed by simply subtracting the number of coordinate data set in the data for the focus range from the reference coordinates. can be set.

同様に、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲についても、メモリモジュール133に予め記憶されている各ぼかし範囲用のデータは、当該ぼかし範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、上記のように決定されたピント範囲に基づき、各ぼかし範囲の基準となる座標が決定され、その基準となる座標に対して各ぼかし範囲用のデータを適用することにより、各ぼかし範囲を設定することが可能となる。 Similarly, for the first blurring range, the second blurring range, and the third blurring range, the data for each blurring range pre-stored in the memory module 133 is set in the Z-axis direction to be included in the blurring range. It is set as data of the number of consecutive coordinate data. Then, based on the focus range determined as described above, the reference coordinates of each blurring range are determined, and by applying the data for each blurring range to the reference coordinates, each blurring range is can be set.

上記のとおりピント範囲の手前側及び奥側のそれぞれに対して、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲を設定可能な構成であるが、既に説明したとおりピント範囲は遊技者の演出用操作装置48の操作に基づき決定される。そうすると、ピント範囲が最も手前側に存在する演出用の個別画像に対応させて設定されることがある。この場合には、各ぼかし範囲は、ピント範囲に対して奥側にのみ設定されることとなる。 As described above, the first blurring range, the second blurring range, and the third blurring range can be set for each of the front side and the back side of the focus range. It is determined based on the operation of the operating device 48 for presentation. In this case, the focus range may be set so as to correspond to the individual image for effect that exists on the frontmost side. In this case, each blurring range is set only on the far side with respect to the focus range.

図50(a)の説明に戻り、ぼかし処理では、先ずステップS3110にて、今回の単位エリアに対応したZ軸方向の座標データを、ステップS3101~ステップS3107にて作成したぼかしマップデータから読み出す。続くステップS3111では、ステップS3110にて読み出したZ軸方向の座標データが、ステップS3109にて読み出したピント範囲内に含まれるか否かを判定する。ピント範囲内に含まれている場合には、その単位エリアに対しては、ぼかしを生じさせる処理を実行する必要がないため、ステップS3112~ステップS3115の処理を実行することなくステップS3116に進む。 Returning to the description of FIG. 50A, in the blurring process, first, in step S3110, coordinate data in the Z-axis direction corresponding to the current unit area is read out from the blurring map data created in steps S3101 to S3107. In subsequent step S3111, it is determined whether or not the coordinate data in the Z-axis direction read out in step S3110 is included in the focus range read out in step S3109. If it is included in the focus range, there is no need to execute blurring processing for that unit area, so the process advances to step S3116 without executing the processing of steps S3112 to S3115.

ピント範囲内に含まれていない場合には、ステップS3112にて、今回の単位エリアが教示用の個別画像を表示するための教示用エリアに対応しているか否かを判定する。教示用の個別画像は、既に説明した教示用のオブジェクトを利用して表示される画像のことである。教示用エリアに対応している場合には、ステップS3113~ステップS3115の処理を実行することなくステップS3116に進む。つまり、教示用の個別画像に対しては、ぼかしを生じさせる処理は実行されない。これにより、ピント演出を行う場合であっても、教示用の個別画像を利用した情報の教示を好適に行うことが可能となる。 If it is not within the focus range, it is determined in step S3112 whether or not the current unit area corresponds to a teaching area for displaying a teaching individual image. The individual image for instruction is an image displayed using the already-described object for instruction. If it corresponds to the teaching area, the process proceeds to step S3116 without executing the processing of steps S3113 to S3115. In other words, blurring processing is not performed on the teaching individual image. As a result, even when performing a focus effect, it is possible to appropriately teach information using the individual image for teaching.

ちなみに、教示用の個別画像が表示される位置は、遊技者による演出用操作装置48の操作態様に関係なく不変であるため、教示用エリアに含まれる単位エリアのアドレスは事前に定められており、そのデータはメモリモジュール133に予め記憶されている。 Incidentally, since the position at which the teaching individual image is displayed remains unchanged regardless of the mode of operation of the effect operation device 48 by the player, the address of the unit area included in the teaching area is determined in advance. , the data is pre-stored in the memory module 133 .

ステップS3112にて否定判定をした場合には、ステップS3113に進む。ステップS3113では、ぼかし範囲の決定処理を実行する。具体的には、ステップS3110にて読み出したZ軸方向の座標データが、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲のいずれに含まれているのかを判定し、ぼかしを生じさせる上で対象となるぼかし範囲を決定する。その後、ステップS3114にて、ぼかし発生処理を実行する。 If a negative determination is made in step S3112, the process proceeds to step S3113. In step S3113, blurring range determination processing is executed. Specifically, it is determined in which of the first blurring range, the second blurring range, and the third blurring range the coordinate data in the Z-axis direction read in step S3110 is included, and blurring is generated. to determine the target blur range. Thereafter, in step S3114, blur generation processing is executed.

ぼかし発生処理について、図51(a)のフローチャートを参照しながら説明する。 The blur generating process will be described with reference to the flowchart of FIG. 51(a).

先ずステップS3201では、上記ステップS3113にて第1ぼかし範囲が決定されたか否かを判定する。第1ぼかし範囲が決定されている場合には、ステップS3202にて、今回の単位エリアを基準として、X軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、今回の描画対象となっているフレーム領域142a,142bからではなく、ぼかし用バッファ181から行う。また、ステップS3202では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。 First, in step S3201, it is determined whether or not the first blurring range has been determined in step S3113. If the first blurring range has been determined, then in step S3202 a first predetermined number of unit areas are specified in each of the X-axis directions with the current unit area as a reference, and a color is obtained from each of these unit areas. Extract information. This extraction is performed not from the frame areas 142a and 142b that are drawing targets this time, but from the blurring buffer 181. FIG. In step S3202, the color information set in the current unit area is also extracted, and this extraction is also performed from the blurring buffer 181.

続くステップS3203では、X軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのX軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。 In the subsequent step S3203, blur generation processing in the X-axis direction is executed. In the blur generating process, a Gaussian filter is used to generate blur. In other words, with the target unit area as the center, weighting according to the distance in the X-axis direction from the center unit area is determined using the Gaussian function for each unit area extracted above. Then, with the determined weighting applied, the color information of the center unit area and the color information of the extracted unit area are blended. The color information resulting from this blending is temporarily stored in the register 153 .

続くステップS3204では、今回の単位エリアを基準として、Y軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3204では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。 In subsequent step S3204, a first predetermined number of unit areas are specified in each of the Y-axis directions using the current unit area as a reference, and color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181 . In step S3204, the color information set in the current unit area is also extracted, and this extraction is also performed from the blurring buffer 181. FIG.

続くステップS3205では、Y軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのY軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。 In the subsequent step S3205, blur generation processing in the Y-axis direction is executed. In the blur generating process, a Gaussian filter is used to generate blur. In other words, with the target unit area as the center, weighting according to the distance in the Y-axis direction from the center unit area is determined using the Gaussian function for each unit area extracted above. Then, with the determined weighting applied, the color information of the center unit area and the color information of the extracted unit area are blended. The color information resulting from this blending is temporarily stored in the register 153 .

その後、ステップS3206にて、ブレンド処理を実行する。具体的には、上記ステップS3203にて算出したブレンド結果の色情報と、上記ステップS3205にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。 After that, in step S3206, a blending process is executed. Specifically, the blended color information calculated in step S3203 and the blended color information calculated in step S3205 are blended at the same ratio. After that, the blur generating process is terminated.

上記のようにぼかし発生処理が実行されることにより、図51(b-1)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。 By executing the blur generation process as described above, as shown in FIG. 51(b-1), a first predetermined number Each color information set in the unit area of 1, and each color information set in the first predetermined number of unit areas on both sides in the Y-axis direction are the colors of the target unit area. Blended against information.

ステップS3201にて否定判定をした場合には、ステップS3207にて、上記ステップS3113において第2ぼかし範囲が決定されたか否かを判定する。第2ぼかし範囲が決定されている場合には、ステップS3208にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3208では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 If a negative determination is made in step S3201, it is determined in step S3207 whether or not the second blurring range has been determined in step S3113. If the second blurring range has been determined, in step S3208, a second predetermined number of unit areas, which are larger than the first predetermined number, are specified in each of the X-axis directions, using the current unit area as a reference. , color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181 . Also, in step S3208, the color information set in the current unit area is extracted from the buffer 181 for blurring.

続くステップS3209では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。 In the subsequent step S3209, blur generation processing in the X-axis direction is executed. The specific contents of this process are the same as those in step S3203 above.

続くステップS3210では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3210では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 In subsequent step S3210, using the current unit area as a reference, a second predetermined number of unit areas larger than the first predetermined number are specified in each of the Y-axis directions, and color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181 . Also, in step S3210, the color information set in the current unit area is extracted from the blurring buffer 181. FIG.

続くステップS3211では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。 In the subsequent step S3211, blur generation processing in the Y-axis direction is executed. The specific contents of this processing are the same as in step S3205 above.

その後、ステップS3212にて、ブレンド処理を実行する。具体的には、上記ステップS3209にて算出したブレンド結果の色情報と、上記ステップS3211にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。 After that, in step S3212, a blending process is executed. Specifically, the blended color information calculated in step S3209 and the blended color information calculated in step S3211 are blended at the same ratio. After that, the blur generating process is terminated.

上記のようにぼかし発生処理が実行されることにより、図51(b-2)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。この場合、ブレンド対象となる単位エリアの数が図51(b-1)の場合よりも多くなるため、第1ぼかし範囲の場合よりも第2ぼかし範囲の場合の方が、ぼかしの度合いが大きくなる。 By executing the blur generation process as described above, as shown in FIG. 51(b-2), a second predetermined number Each color information set in the unit area of 1, and each color information set in the second predetermined number of unit areas on both sides in the Y-axis direction are the colors of the target unit area. Blended against information. In this case, since the number of unit areas to be blended becomes larger than in the case of FIG. Become.

ステップS3207にて否定判定をした場合には、上記ステップS3113において第3ぼかし範囲が決定されたことを意味する。第3ぼかし範囲が決定されている場合には、ステップS3213にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3213では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 A negative determination in step S3207 means that the third blurring range has been determined in step S3113. If the third blurring range has been determined, in step S3213 a third predetermined number of unit areas larger than the second predetermined number are specified in each of the X-axis directions, using the current unit area as a reference. , color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181 . Also, in step S3213, the color information set in the current unit area is extracted from the blurring buffer 181. FIG.

続くステップS3214では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。 In the subsequent step S3214, blur generation processing in the X-axis direction is executed. The specific contents of this process are the same as those in step S3203 above.

続くステップS3215では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3215では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 In the subsequent step S3215, with the current unit area as a reference, a third predetermined number of unit areas, which is larger than the second predetermined number, are specified in each of the Y-axis directions, and color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181 . Also, in step S3215, the color information set in the current unit area is extracted from the buffer 181 for blurring.

続くステップS3216では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。 In the subsequent step S3216, blur generation processing in the Y-axis direction is executed. The specific contents of this processing are the same as in step S3205 above.

その後、ステップS3217にて、ブレンド処理を実行する。具体的には、上記ステップS3214にて算出したブレンド結果の色情報と、上記ステップS3216にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。上記のようにぼかし発生処理が実行されることにより、ぼかしの度合いを、第2ぼかし範囲の場合よりも大きくすることが可能となる。 After that, in step S3217, a blending process is executed. Specifically, the blended color information calculated in step S3214 and the blended color information calculated in step S3216 are blended at the same ratio. After that, the blur generating process is terminated. By executing the blurring generation process as described above, the degree of blurring can be made larger than in the case of the second blurring range.

ピント演出用の調整処理(図50(a))の説明に戻り、ステップS3114にて、ぼかし発生処理を実行した後は、ステップS3115にて、当該ぼかし発生処理にて算出した結果の色情報を、描画対象となっているフレーム領域142a,142bにおける今回の単位エリアに対して上書きした後に、ステップS3116に進む。これにより、各ぼかし範囲に対応した状態の色情報が単位エリアに設定されることとなる。 Returning to the description of the focus effect adjustment process (FIG. 50(a)), after executing the blur generation process in step S3114, in step S3115, the color information calculated by the blur generation process is obtained. , the current unit area in the frame areas 142a and 142b to be drawn is overwritten, and then the flow advances to step S3116. As a result, color information corresponding to each blurring range is set in the unit area.

ここで、このようにぼかしを生じさせた結果の色情報が順次、描画対象となっているフレーム領域142a,142bに設定される構成において、ぼかし発生処理では、上記のとおり、フレーム領域142a,142bから色情報を読み出すのではなく、ぼかし用バッファ181から色情報を読み出す。これにより、所定の単位エリアにぼかしを発生させる場合において、既にぼかしを生じさせた結果の色情報が用いられないようにすることが可能となる。よって、ぼかし発生処理を実行する順番に依存しない態様で、ぼかしを生じさせることが可能となる。 Here, in the configuration in which the color information as a result of blurring is sequentially set in the frame regions 142a and 142b to be drawn, the blur generation processing includes the frame regions 142a and 142b as described above. The color information is read from the buffer 181 for blurring instead of reading the color information from the . As a result, when blurring is generated in a predetermined unit area, it is possible not to use the color information as a result of already blurring. Therefore, blurring can be generated in a manner that does not depend on the order in which the blurring generation processing is executed.

ステップS3116では、今回の描画対象のフレーム領域142a,142bについて全ての単位エリアを、上記ステップS3110~ステップS3115の処理の実行対象としたか否かを判定する。完了していない場合には、ステップS3117にて、対象単位エリアを更新した後にステップS3110に戻り、新たな対象単位エリアに対して、上記ステップS3110~ステップS3115の処理を実行する。完了している場合には、本調整処理を終了する。 In step S3116, it is determined whether or not all unit areas of the frame areas 142a and 142b to be drawn this time have been subjected to the processing of steps S3110 to S3115. If not completed, in step S3117, after updating the target unit area, the process returns to step S3110, and the above steps S3110 to S3115 are executed for the new target unit area. If completed, the adjustment process is terminated.

次に、ピント表示の内容について、図52を参照しながら説明する。 Next, the content of the focus display will be described with reference to FIG.

図52(a)はピント表示が行われていない状態を示し、図52(b)はピント表示が行われている状態を示す。 FIG. 52(a) shows a state in which focus display is not performed, and FIG. 52(b) shows a state in which focus display is performed.

ピント表示が行われていない状態では、図52(a)に示すように、各演出用の個別画像CH11,CH12,CH13、背景の画像(海面の画像、砂浜の画像及び空の画像)CH14及び各教示用の個別画像CH15,CH16は、いずれもピントが合った状態となっている。したがって、これら各画像CH11~CH16は、その模様の境界や曲がり部分の境界、さらに外縁部分が鮮明に表示されている。 When the focus display is not performed, individual images CH11, CH12, and CH13 for each effect, background images (sea surface image, sandy beach image, and sky image) CH14 and Both of the teaching individual images CH15 and CH16 are in focus. Therefore, in each of these images CH11 to CH16, the boundary of the pattern, the boundary of the curved portion, and the outer edge portion are clearly displayed.

一方、ピント表示が行われている状態では、図52(b)に示すように、演出用の個別画像CH11及び当該個別画像CH11が存在している砂浜部分の背景の画像CH14については、ピント範囲に含まれているため、鮮明に表示されているが、他の演出用の個別画像CH12,CH13及び他の部分の背景の画像CH14については、ピント範囲から外れているため、模様の境界や曲り部分の境界、さらには外縁部分がぼかした状態で表示され、不鮮明となっている。特に、ぼかした状態は、ピント範囲に含まれている演出用の個別画像CH11から表示面Gの奥行き方向において手前側及び奥側に遠くなるように表示されているものほど、その度合いが大きくなっている。これにより、遊技者に対して、演出用の個別画像CH11にピントが合っていると認識させることが可能となる。 On the other hand, when the focus display is performed, as shown in FIG. 52(b), the individual image CH11 for effect and the background image CH14 of the sandy beach where the individual image CH11 is present are displayed in the focus range. However, since the individual images CH12 and CH13 for other effects and the background image CH14 of other parts are out of the focus range, the borders and curves of the pattern are displayed. The boundaries of the parts and even the outer edge parts appear blurred and unsharp. In particular, the degree of the blurred state increases as the image is displayed farther in the depth direction of the display surface G from the effect individual image CH11 included in the focus range. ing. This allows the player to recognize that the individual image CH11 for effect is in focus.

但し、ピント表示が行われている状態であっても、図52(b)に示すように、教示用の個別画像CH15,CH16は、図52(a)と同様に鮮明に表示されている。これにより、ピント表示が行われているとしても、教示用の個別画像CH15,CH16を利用した情報の教示を良好に行うことが可能となる。また、教示用の個別画像CH15,CH16は、他の画像よりも手前側に配置されているかのように表示されているため、ぼかし発生の対象から除外されたとしても、ピント表示の対象から除外されている遊技者に明確に認識させることができ、ピント表示を良好に行うことが可能となる。 However, as shown in FIG. 52(b), the teaching individual images CH15 and CH16 are clearly displayed in the same manner as in FIG. 52(a) even when the focus display is performed. Accordingly, even when the focus display is performed, it is possible to excellently teach information using the individual images CH15 and CH16 for teaching. In addition, since the individual images CH15 and CH16 for teaching are displayed as if they are arranged on the nearer side than the other images, even if they are excluded from blur generation targets, they are excluded from focus display targets. It is possible to make the player clearly recognize the focus, and it is possible to perform the focus display well.

また、上記ピント表示に際しては、ぼかしマップデータがメモリモジュール133に予め記憶されているのではなく、VDP135にてその都度作成される。これにより、データ容量の削減を図ることが可能となる。特に、遊技者による演出用操作装置48の操作に基づきピント範囲を設定するようにしたことにより、遊技者の遊技への積極参加を可能とした構成においては、ぼかしマップデータを事前に予め設定しておこうとすると、データ容量が膨大なものとなる。また、このデータ容量の膨大化を抑えようとすると、演出用操作装置48の操作に基づき選択できるピント範囲のパターンが少なくなってしまう。これに対して、上記のように、ぼかしマップデータをVDP135にてその都度作成するようにしたことにより、データ容量の削減を図りつつ、遊技者の遊技への積極参加を好適に促すことが可能となる。 Further, when the focus is displayed, the blurring map data is not stored in advance in the memory module 133, but created by the VDP 135 each time. This makes it possible to reduce the data capacity. In particular, in a configuration in which the player can actively participate in the game by setting the focus range based on the player's operation of the performance operating device 48, the blurring map data is set in advance. If you try to store it, the amount of data will be enormous. Moreover, if an attempt is made to suppress the increase in data volume, the number of focus range patterns that can be selected based on the operation of the operating device 48 for presentation will be reduced. On the other hand, as described above, the VDP 135 creates the blur map data each time, so that the data volume can be reduced and the player's active participation in the game can be favorably encouraged. becomes.

その一方、上記のようにぼかしマップデータを作成するようにすると、それだけVDP135の処理負荷が増加する。これに対して、ぼかしを発生させる際には、3次元画像の状態で行うのではなく、2次元画像の状態で行うようにしたことにより、色情報の平均化に際して複雑な処理を実行する必要がなくなり、ぼかしを発生させる上での処理負荷の軽減が図られる。 On the other hand, if blur map data is created as described above, the processing load on the VDP 135 increases accordingly. On the other hand, when blurring is generated, it is performed in the state of a two-dimensional image instead of in the state of a three-dimensional image. is eliminated, and the processing load for generating blurring is reduced.

<ピント表示の別形態>
・ぼかしマップデータを描画データの作成に際して作成する構成に限定されることはなく、ぼかしマップデータをメモリモジュール133に予め記憶させておく構成としてもよい。この場合に、ピント範囲が演出用操作装置48の操作に基づき選択される構成であれば、その選択に係る全てのバリエーションに対応させて、ぼかしマップデータを予め作成しておく必要がある。また、ピント範囲が演出用操作装置48の操作に基づき選択されずに、一定の態様でぼかし表示が行われるのであれば、その態様に則したぼかしマップデータを予め作成しておけばよい。
<Another form of focus display>
The configuration is not limited to the one where the blurring map data is created when creating the drawing data, and the configuration may be such that the blurring map data is stored in advance in the memory module 133 . In this case, if the focus range is selected based on the operation of the operating device 48 for presentation, it is necessary to create blur map data in advance so as to correspond to all variations related to the selection. In addition, if the focus range is not selected based on the operation of the operating device 48 for presentation, and the blurred display is performed in a certain manner, blurring map data suitable for that manner should be created in advance.

上記のようにぼかしマップデータが予め作成されている構成においては、ぼかしマップデータにおいて各単位エリアに対応させて設定されているデータは、Z軸方向の座標データである必要はなく、ピント範囲、及び各ぼかし範囲のうち、いずれの範囲に該当しているかを示すデータであってもよい。 In the configuration in which the blur map data is created in advance as described above, the data set corresponding to each unit area in the blur map data need not be coordinate data in the Z-axis direction. and data indicating which of the blurring ranges corresponds to.

・ぼかしを生じさせるための色情報の平均化処理は、3次元画像データを2次元画像データに変換した後に行う必要はなく、3次元画像データの状態において行うようにしてもよい。この場合、基準となるピクセルに対して、その周囲のピクセルをブレンドする際には、基準となるピクセルからそれら周囲のピクセルまでの距離を3次元の状態で算出し、その算出結果に応じた重み付けをそれら周囲のピクセルの色情報に適用した状態でブレンド処理を行うようにすればよい。 Averaging processing of color information for blurring need not be performed after converting 3D image data into 2D image data, but may be performed in the state of 3D image data. In this case, when blending surrounding pixels with respect to a reference pixel, the distances from the reference pixel to the surrounding pixels are calculated in a three-dimensional state, and weighting is performed according to the calculation result. is applied to the color information of the surrounding pixels, and the blending process is performed.

・ぼかしを生じさせるための色情報の平均化処理は、ガウス関数を利用して中心からの距離に応じた重み付けを行うのではなく、抽出した色情報を均等にブレンドする構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。 The color information averaging process for generating blurring may be configured to evenly blend the extracted color information instead of weighting according to the distance from the center using a Gaussian function. In this case, the processing load can be reduced, although the realism of the blurred display is reduced.

・ぼかしを生じさせるための色情報の平均化処理は、X軸方向及びY軸方向のそれぞれについて行う構成に限定されることはなく、いずれか一方についてのみ行う構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。 The color information averaging process for blurring is not limited to the configuration performed in each of the X-axis direction and the Y-axis direction, and may be configured to perform only one of them. In this case, the processing load can be reduced, although the realism of the blurred display is reduced.

・ぼかしを生じさせるための色情報の平均化処理に際しては、描画対象のフレーム領域142a,142bに設定されている描画データを、ぼかし用バッファ181に別保存した状態で行う構成に限定されることはなく、描画対象のフレーム領域142a,142bをそのまま利用する構成としてもよい。この場合、所定の単位エリアの色情報についてぼかしを生じさせる場合において、既にぼかしを生じさせた単位エリアの色情報が用いられることになり、ぼかしを生じさせる処理の順番がぼかしの度合いに影響を与えることとなるが、ぼかし用バッファ181を別途設ける必要がない点で、記憶容量の削減が図られるとともに、ぼかし用バッファ181への別保存を行う必要がない点で、処理負荷の軽減が図られる。 - When averaging color information to generate blurring, the drawing data set in the frame areas 142a and 142b to be drawn is limited to being separately stored in the blurring buffer 181. Instead, the frame areas 142a and 142b to be drawn may be used as they are. In this case, when the color information of a predetermined unit area is blurred, the color information of the unit area that has already been blurred is used, and the order of blurring does not affect the degree of blurring. However, since there is no need to provide a separate blurring buffer 181, the storage capacity can be reduced, and since there is no need to store separately in the blurring buffer 181, the processing load can be reduced. be done.

・ぼかしマップデータを作成する際にZバッファ143以外のバッファを用いるようにしてもよい。この場合、VRAM134に、ぼかしマップデータを作成するための専用のバッファを設けるようにしてもよい。 - A buffer other than the Z-buffer 143 may be used when creating blur map data. In this case, the VRAM 134 may be provided with a dedicated buffer for creating blur map data.

・背景用の描画データと、演出及び図柄用の描画データとを個別に作成し、それらを合成して1フレーム分の描画データを作成する構成ではなく、ステップS1009にて色情報の設定処理を実行した後は、1フレーム分の描画データをまとめて作成する構成としてもよい。当該構成においては、隠面処理を利用して当該1フレーム分の描画データを作成した場合、Zバッファ143には各単位エリアに対応したZ軸方向の座標データが設定されていることとなる。したがって、この隠面処理にてZバッファ143に作成されたデータを、ぼかしマップデータとしてそのまま利用することが可能となる。 - Instead of creating drawing data for the background and drawing data for effects and patterns separately and synthesizing them to create drawing data for one frame, color information setting processing is performed in step S1009. After execution, drawing data for one frame may be collectively created. In this configuration, when drawing data for one frame is created using hidden surface processing, coordinate data in the Z-axis direction corresponding to each unit area is set in the Z-buffer 143 . Therefore, the data created in the Z buffer 143 by this hidden surface processing can be used as it is as blur map data.

・遊技回用の演出としてピント表示を行うようにしてもよい。この場合、上記のように教示用の個別画像を、ぼかし対象から除外したのと同様に、各図柄列SA1~SA3にて変動表示されている図柄は、ぼかし対象から除外してもよい。また、リーチ中の演出として、ピント表示を行うのであれば、先に停止表示されている図柄列SA1,SA3上において、リーチラインを形成している図柄を、ぼかし対象から除外してもよく、それに加えて又は代えて、最終停止図柄列SA2の図柄を、ぼかし対象から除外してもよい。リーチラインを形成している図柄を除外することで、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となり、最終停止図柄列SA2の図柄を除外することで、最終停止図柄列SA2においてリーチライン付近に存在している図柄の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。 - A focus display may be performed as an effect for game rounds. In this case, the symbols that are variably displayed in each of the symbol rows SA1 to SA3 may be excluded from the blurring target, in the same manner as the teaching individual image is excluded from the blurring target as described above. Further, if focus display is to be performed as an effect during reach, the patterns forming the reach line on the pattern rows SA1 and SA3 that are stopped and displayed first may be excluded from the blurring target. Additionally or alternatively, the symbols in the final stop symbol row SA2 may be excluded from being blurred. By excluding the patterns forming the ready-to-win line, it becomes possible to use the focus display as a ready-to-win performance without lowering the distinguishability of the types of the ready-to-win patterns, and the patterns in the final stop pattern row SA2 are excluded. Thus, it is possible to use the focus display as a ready-to-win effect without deteriorating the identifiability of the symbols existing near the ready-to-win line in the final stop symbol row SA2.

また、リーチラインを形成している図柄又はその種類を教示する画像の表示は行いながら、図柄列SA1~SA3を非表示として、ピント表示を利用したリーチ演出を行う構成においては、リーチラインを形成している図柄又はその種類を教示する画像は、ぼかし対象から除外するようにしてもよい。これにより、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。 In addition, in a configuration in which a ready-to-win effect using a focus display is performed by hiding the pattern rows SA1 to SA3 while displaying an image that teaches the patterns forming the reach-line or the type thereof, the reach-to-reach line is formed. An image that teaches the pattern or the type of pattern that is being blurred may be excluded from the blurring target. As a result, it is possible to use the focus display as a ready-to-win effect without lowering the recognizability of the types of ready-to-win symbols.

また、遊技回用の演出としてピント表示を行う場合において、ぼかし対象から除外する対象は、図柄以外であってもよく、例えば表示面Gにて保留情報の数を教示するための画像を表示するのであれば、当該保留情報の数を教示するための画像を、ぼかし対象から除外してもよい。 In addition, when the focus display is performed as an effect for the game round, the object to be excluded from the blurring object may be other than the pattern. , the image for teaching the number of pending information may be excluded from the blurring target.

3次元画像データを用いた画像表示を行うのではなく、スプライトデータといった2次元画像データを用いた画像表示を行う構成において、ピント表示を行うようにしてもよい。この場合、フレーム領域142a,142bへのスプライトデータの設定に際して、各スプライトデータに、表示面Gの奥行き方向に対応する座標データを設定しておき、その座標データが、ピント範囲及び各ぼかし範囲のうちいずれに含まれるかによって、ぼかし表示を行う構成が考えられる。 Focus display may be performed in a configuration in which image display is performed using two-dimensional image data such as sprite data instead of image display using three-dimensional image data. In this case, when setting the sprite data in the frame areas 142a and 142b, coordinate data corresponding to the depth direction of the display surface G is set in each sprite data, and the coordinate data correspond to the focus range and each blur range. Depending on which one of them is included, a configuration is conceivable in which a blurred display is performed.

・ワールド座標系に画像データを設定した後に、パラメータ群を含むマップデータを作成する処理を実行する構成を、ピント表示以外の目的で行うようにしてもよい。 The configuration for executing the process of creating map data including a group of parameters after image data is set in the world coordinate system may be performed for purposes other than focus display.

例えば、1フレーム分の画像において所定の領域が点滅しているかの表示を行う上で、オブジェクトの面の向きに応じて点灯及び消灯のいずれかを設定する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、点滅表示を行うようにしてもよい。 For example, in a configuration in which either lighting or lighting is set according to the orientation of the surface of an object to display whether a predetermined area is blinking in an image for one frame, the world coordinate system or the visual field coordinate system is set, the orientation of each surface is read as a parameter, and map data is created as data that aggregates them. Blinking display may be performed by processing the color information of the drawing data after projection based on the created map data.

また、例えば、1フレーム分の画像において海面といった形状が経時的に変化する面の表示を行う上で、オブジェクトの面の向きに応じて各面データに設定する色情報を選択する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、面表示を行うようにしてもよい。 Further, for example, when displaying a surface such as the surface of the sea whose shape changes over time in an image for one frame, in a configuration in which color information to be set in each surface data is selected according to the direction of the surface of the object, the world The direction of each surface is read as a parameter in the state set in the coordinate system or the visual field coordinate system, and map data is created as data that aggregates them. Surface display may be performed by processing the color information of the projected drawing data based on the created map data.

<模様変更表示を行うための構成>
次に、模様変更表示を行うための構成について説明する。
<Structure for performing pattern change display>
Next, a configuration for performing pattern change display will be described.

模様変更表示とは、特別キャラクタを複数フレーム(複数の画像更新タイミング)に亘って連続して表示させる場合において、その特別キャラクタの外縁形状は同一としながら、フレームの進行に伴って模様を変化させる表示演出のことである。但し、模様を単純に変化させるのではなく、当該特別キャラクタの一部の模様の変更については、当該特別キャラクタに対応した特別オブジェクトに貼り付ける第1部分テクスチャの種類を切り換えるのに対して、当該特別キャラクタの他の模様の変更については、特別オブジェクトに貼り付ける第2部分テクスチャの種類は同一のものとしながら、その第2部分テクスチャの特別オブジェクトに対する相対的な貼り付け位置を変化させることにより、模様を変化させる。 Pattern change display means that when a special character is displayed continuously over a plurality of frames (a plurality of image update timings), the pattern is changed as the frames progress while the outer edge shape of the special character remains the same. It is a display performance. However, instead of simply changing the pattern, the partial pattern of the special character is changed by switching the type of the first partial texture to be pasted on the special object corresponding to the special character. As for changing other patterns of the special character, while the type of the second partial texture to be pasted on the special object is the same, by changing the relative pasting position of the second partial texture to the special object, change the pattern.

これら特別オブジェクト、第1部分テクスチャ及び第2部分テクスチャについて、図53(a)~(c)を参照しながら詳細に説明する。図53(a)は特別オブジェクトPC20を説明するための説明図であり、図53(b-1)~(b-3)は第1部分テクスチャPC21~PC23を説明するための説明図であり、図53(c-1)~(c-4)は第2部分テクスチャPC24~PC27を説明するための説明図である。 These special objects, the first partial texture and the second partial texture will be described in detail with reference to FIGS. 53(a) to (c). FIG. 53(a) is an explanatory diagram for explaining the special object PC20, and FIGS. 53(b-1) to (b-3) are explanatory diagrams for explaining the first partial textures PC21 to PC23. FIGS. 53(c-1) to (c-4) are explanatory diagrams for explaining the second partial textures PC24 to PC27.

図53(a)に示すように、特別オブジェクトPC20は、多数のポリゴンを含み、立体的な形状に対応したデータとして作成されており、複数のパーツ部BP,AP1~AP4を有している。これら複数のパーツ部BP,AP1~AP4として、本体パーツ部BPと、当該本体パーツ部BPに付属する複数の付属パーツ部AP1~AP4とを有している。特別キャラクタは、鯨を人型に適用したキャラクタであり、本体パーツ部BPはその顔部分及び胴体部分に相当し、各付属パーツ部AP1~AP4は胴体部分から連続する手部分及び足部分に相当している。 As shown in FIG. 53(a), the special object PC20 includes a large number of polygons, is created as data corresponding to a three-dimensional shape, and has a plurality of parts parts BP, AP1 to AP4. As the plurality of parts parts BP, AP1 to AP4, there is a main body part part BP and a plurality of attached parts parts AP1 to AP4 attached to the main body part part BP. The special character is a character in which a whale is applied to a humanoid form, and the main body part BP corresponds to its face and body, and the accessory parts AP1 to AP4 correspond to its hands and feet continuing from the body. are doing.

本体パーツ部BPには、図53(b-1)~(b-3)に示すように、顔の模様(目や口の模様)及び胴体が光に反射しているかのような表示を行うための模様の両方を含む画像を表示させるための第1部分テクスチャPC21~PC23が貼り付けられる。これら第1部分テクスチャPC21~PC23は、本体パーツ部BPの全体を覆うことが可能なように設定されている。また、顔の模様を表示させるためのデータは、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21~PC23間において同一となっている。その一方、胴体が光に反射しているかのような表示を行うためのデータについては、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21~PC23間において異なっている。 As shown in FIGS. 53(b-1) to 53(b-3), the main body parts section BP displays the pattern of the face (the pattern of the eyes and mouth) and the body as if it were reflecting light. The first partial textures PC21 to PC23 are pasted for displaying an image including both of the patterns for . These first partial textures PC21 to PC23 are set so as to be able to cover the entire body parts portion BP. Further, the data for displaying the pattern of the face has the same position (coordinates) of the body part portion BP to which the data is pasted among the first partial textures PC21 to PC23. On the other hand, regarding the data for displaying as if the torso is reflecting light, the positions (coordinates) of the main body parts portion BP to which these data are pasted are the first partial textures PC21 to PC23. are different between

つまり、第1部分テクスチャPC21~PC23は、本体パーツ部BPにおいて貼り付けられる位置が変化しない不変模様を表示させるためのデータと、本体パーツ部BPにおいて貼り付けられる位置が変化する変化模様を表示させるためのデータとを有しており、第1部分テクスチャPC21~PC23間において、不変模様を表示させるためのデータ構成は共通であるが、変化模様を表示させるためのデータ構成は相違している。 In other words, the first partial textures PC21 to PC23 are data for displaying an invariant pattern in which the position of pasting in the main body part portion BP does not change, and display a changing pattern in which the position of pasting in the main body part portion BP changes. The first partial textures PC21 to PC23 have the same data configuration for displaying the unchanged pattern, but differ in the data configuration for displaying the changing pattern.

一方、付属パーツ部AP1~AP4には、図53(c-1)~(c-4)に示すように、手や足の部分が光に反射しているかのような表示を行うための模様を含む画像を表示させるための第2部分テクスチャPC24~PC27が貼り付けられる。これら第2部分テクスチャPC24~PC27は、付属パーツ部AP1~AP4に1対1で対応させて設けられており、さらに一の付属パーツ部AP1~AP4に対して一の第2部分テクスチャPC24~PC27のみが設けられている。各第2部分テクスチャPC24~PC27は、対応する付属パーツ部AP1~AP4を覆うことが可能なように設定されている。この場合、各第2部分テクスチャPC24~PC27のそれぞれにおいて、境界部分を生じさせる模様はそれに対して逆側の境界部分を生じさせる模様と連続性を有するように設定されている。 On the other hand, as shown in FIGS. 53(c-1) to 53(c-4), the accessory parts AP1 to AP4 have patterns for displaying the hands and feet as if they are reflecting light. are pasted on the second partial textures PC24 to PC27 for displaying an image containing These second partial textures PC24 to PC27 are provided in one-to-one correspondence with the attached parts AP1 to AP4, and one second partial texture PC24 to PC27 is provided for one attached parts AP1 to AP4. is provided. Each of the second partial textures PC24-PC27 is set so as to be able to cover the corresponding attached parts AP1-AP4. In this case, in each of the second partial textures PC24 to PC27, the pattern that produces the boundary portion is set so as to have continuity with the pattern that produces the opposite boundary portion.

第1部分テクスチャPC21~PC23及び第2部分テクスチャPC24~PC27の特別オブジェクトPC20に対する貼り付けは、予め定められたUV座標値に基づき行われる。UV座標値は、既に説明したとおりであり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されており、テクスチャ用の画像データの各ピクセルをオブジェクト用の画像データの各ピクセルに1対1で対応させることが可能となる。 The first partial textures PC21-PC23 and the second partial textures PC24-PC27 are attached to the special object PC20 based on predetermined UV coordinate values. As already explained, the UV coordinate values are stored in the memory module 133 in a state attached to the combination of the object image data and the texture image data, and each pixel of the texture image data can be made to correspond to each pixel of the object image data on a one-to-one basis.

上記特別キャラクタを表示させる場合には、特別オブジェクトPC20の本体パーツ部BPに対しては、貼り付け対象となる第1部分テクスチャPC21~PC23が予め定められた順序で変更される。この順序は、上記変化模様が変化していく態様が連続性を有するように設定されている。一方、特別オブジェクトPC20の付属パーツ部AP1~AP4に対しては、それぞれに対応する一の第2部分テクスチャPC24~PC27が貼り付けられることとなるが、その貼り付けを行う際に参照するUV座標値が初期の設定状態から予め定められた態様で変更される。このUV座標値の変更は、各第2部分テクスチャPC24~PC27に対応した各模様のそれぞれが変化していく態様が連続性を有するように設定されている。 When the special character is displayed, the first partial textures PC21 to PC23 to be pasted on the main body part BP of the special object PC20 are changed in a predetermined order. This order is set so that the manner in which the pattern changes has continuity. On the other hand, for the attached parts AP1 to AP4 of the special object PC20, the corresponding second partial textures PC24 to PC27 are pasted. The value is changed in a predetermined manner from the initial set state. The change of the UV coordinate values is set so that each pattern corresponding to each of the second partial textures PC24 to PC27 changes continuously.

以下、特別オブジェクトPC20、第1部分テクスチャPC21~PC23及び第2部分テクスチャPC24~PC27を用いて模様変更表示を実行するための具体的な処理構成を説明する。なお、特別オブジェクトPC20、第1部分テクスチャPC21~PC23及び第2部分テクスチャPC24~PC27は、メモリモジュール133に予め記憶されている。 A specific processing configuration for executing pattern change display using the special object PC20, the first partial textures PC21 to PC23, and the second partial textures PC24 to PC27 will be described below. Note that the special object PC20, the first partial textures PC21 to PC23, and the second partial textures PC24 to PC27 are stored in the memory module 133 in advance.

図54は、表示CPU131にて実行される特別キャラクタ用の演算処理を示すフローチャートである。特別キャラクタ用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、特別キャラクタ用の演算処理は、特別キャラクタが表示される遊技回に対応したデータテーブルが設定されている場合に起動される。 FIG. 54 is a flow chart showing calculation processing for a special character executed by the display CPU 131. As shown in FIG. The arithmetic processing for the special character is executed in the effect arithmetic processing in step S904 of the task processing (FIG. 14). Further, the arithmetic processing for the special character is started when the data table corresponding to the game round in which the special character is displayed is set.

先ずステップS3301では、現状設定されているデータテーブルに基づいて、特別キャラクタの表示中であるか否かを判定する。特別キャラクタの表示中ではない場合にはステップS3302に進む。ステップS3302では、特別キャラクタ表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS3303に進む。 First, in step S3301, based on the currently set data table, it is determined whether or not a special character is being displayed. If the special character is not being displayed, the process advances to step S3302. In step S3302, it is determined whether or not it is time to start displaying a special character. If it is not the start timing, this operation processing ends as it is, and if it is the start timing, the process advances to step S3303.

ステップS3303では、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。ちなみに、ステップS3303の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、特別オブジェクトPC20に対して制御開始用の処理が完了している。また、制御が開始された特別オブジェクトPC20の制御用の情報は、特別キャラクタの表示が完了するまでワークRAM132に記憶保持される。 In step S3303, the special object PC20 is grasped as a controlled object based on the currently set data table. Incidentally, at the execution timing of the processing of step S3303, the processing for starting control of the special object PC20 has been completed in the previous setting processing for starting control (step S901). Information for controlling the special object PC 20 whose control is started is stored in the work RAM 132 until the display of the special character is completed.

続くステップS3304では、第1部分テクスチャの初期設定処理を実行する。具体的には、複数種類の第1部分テクスチャPC21~PC23のうち使用の順番が最初に設定されている第1部分テクスチャPC21を特定し、その第1部分テクスチャPC21の使用指示情報を記憶する。なお、複数種類の第1部分テクスチャPC21~PC23の使用順番のデータは、テーブル情報として、メモリモジュール133に予め記憶されている。 In subsequent step S3304, initial setting processing of the first partial texture is executed. Specifically, the first partial texture PC21 for which the order of use is set first among the plurality of types of first partial textures PC21 to PC23 is specified, and the usage instruction information for the first partial texture PC21 is stored. Data on the order of use of the plurality of types of first partial textures PC21 to PC23 is stored in advance in the memory module 133 as table information.

続くステップS3305では、各第2部分テクスチャの初期設定処理を実行する。ここで、表示CPU131では、各第2部分テクスチャPC24~PC27のUV座標値を変更させる場合、初期座標値からの変化量をそれぞれの第2部分テクスチャPC24~PC27に1対1で対応させて導出し、その導出した各変化量をVDP135に提供する。VDP135では、その提供された各変化量のデータを、それぞれ対応する各初期座標値に対して適用する。この場合、一の第2部分テクスチャPC24~PC27で見た場合、当該第2部分テクスチャPC24~PC27には多数のピクセルが含まれているため、初期座標値はそれら多数のピクセル毎に存在している。したがって、一の第2部分テクスチャPC24~PC27に対応する変化量のデータは、当該一の第2部分テクスチャPC24~PC27の各初期座標値に対して一律に適用される。 In the following step S3305, initialization processing for each second partial texture is executed. Here, when the UV coordinate values of the second partial textures PC24 to PC27 are to be changed, the display CPU 131 derives the amounts of change from the initial coordinate values in one-to-one correspondence with the respective second partial textures PC24 to PC27. and provides the VDP 135 with each derived change amount. The VDP 135 applies the supplied change amount data to each corresponding initial coordinate value. In this case, when viewed from one of the second partial textures PC24 to PC27, the second partial textures PC24 to PC27 include a large number of pixels. there is Therefore, the change amount data corresponding to one second partial texture PC24 to PC27 is uniformly applied to each initial coordinate value of the one second partial texture PC24 to PC27.

例えば、一の第2部分テクスチャPC24~PC27を構成する所定のピクセルの初期座標値が(U1、V1)であり、他のピクセルの初期座標値が(U2、V2)である状況において、変化量のデータが(w1、w2)である場合には、上記所定のピクセルのUV座標値は、(U1+w1、V1+w2)に設定され、他のピクセルのUV座標値は、(U2+w1、V2+w2)に設定される。したがって、付属パーツ部AP1~AP4に対する第2部分テクスチャPC24~PC27の相対位置が同一の方向性であって同一の変化量で変更されることとなる。ステップS3305は、初期設定処理であるため、変化量は存在しないことに対応したデータが記憶される。 For example, in a situation where the initial coordinate values of a predetermined pixel forming one second partial texture PC24 to PC27 are (U1, V1) and the initial coordinate values of other pixels are (U2, V2), the amount of change is (w1, w2), the UV coordinate values of the predetermined pixel are set to (U1+w1, V1+w2), and the UV coordinate values of other pixels are set to (U2+w1, V2+w2). be. Therefore, the relative positions of the second partial textures PC24 to PC27 with respect to the attached parts AP1 to AP4 are changed with the same directionality and by the same amount of change. Since step S3305 is initialization processing, data corresponding to the fact that there is no variation is stored.

なお、第2部分テクスチャPC24~PC27のUV座標値を初期座標値から変更させるための変化量のデータは、テーブル情報として、使用順序の情報と1対1で対応させて設定されており、このテーブル情報は、メモリモジュール133に予め記憶されている。また、当該テーブル情報は、各第2部分テクスチャPC24~PC27に対して個別に設定されている。 The amount of change data for changing the UV coordinate values of the second partial textures PC24 to PC27 from the initial coordinate values is set as table information in a one-to-one correspondence with information on the order of use. Table information is pre-stored in the memory module 133 . Further, the table information is individually set for each of the second partial textures PC24 to PC27.

その後、ステップS3306にて、特別キャラクタの開始指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。 After that, in step S3306, the special character start designation information is stored, and in step S3307, various parameters are calculated for the special object PC20, and after updating the control information related to the special object PC20, This calculation process is terminated.

上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3304にて記憶した第1部分テクスチャPC21の使用指示情報と、上記ステップS3305にて導出した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの開始指定情報が設定される。 When the arithmetic processing for the special character is executed as described above, the drawing list created by the subsequent drawing list output processing is set with the information of the instruction to use the special object PC 20, and the processing proceeds to step S3304. The usage instruction information of the first partial texture PC21 stored in step S3305 and the data of each amount of change derived in step S3305 are set. Furthermore, in the drawing list, the parameters calculated in step S3307 are set, and the special character start designation information is set.

ステップS3301にて特別キャラクタの表示中であると判定した場合には、ステップS3308にて、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。 If it is determined in step S3301 that the special character is being displayed, then in step S3308 the special object PC20 is grasped as a controlled object based on the currently set data table.

続くステップS3309では、現状設定されているデータテーブルに基づいて、第1部分テクスチャPC21~PC23の更新タイミングであるか否かを判定する。第1部分テクスチャPC21~PC23の更新タイミングは、所定の複数である第1特定数フレームに1回、すなわち所定の複数である第1特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定の第1部分テクスチャPC21~PC23から次の第1部分テクスチャPC21~PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該第1部分テクスチャPC21~PC23からさらに次の第1部分テクスチャPC21~PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。 In the subsequent step S3309, based on the currently set data table, it is determined whether or not it is time to update the first partial textures PC21 to PC23. The update timing of the first partial textures PC21 to PC23 is set once in a first specific number of frames, which is a predetermined plurality, that is, once in a first specific number of image update timings, which is a predetermined plurality. Furthermore, this update timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing. The number of frames until the update timing of the textures PC21 to PC23 (number of image update timings), and the number of frames from the first partial textures PC21 to PC23 to the update timing of the next first partial textures PC21 to PC23 ( image update timing number) may be different.

第1部分テクスチャPC21~PC23の更新タイミングではない場合には、ステップS3310にて、前回の処理回にて記憶した第1部分テクスチャPC21~PC23の使用指示情報をそのまま記憶する。一方、第1部分テクスチャPC21~PC23の更新タイミングである場合には、ステップS3311にて、次の順番の第1部分テクスチャPC21~PC23に対応した使用指示情報を記憶する。 If it is not the time to update the first partial textures PC21 to PC23, in step S3310, the usage instruction information of the first partial textures PC21 to PC23 stored in the previous processing is stored as it is. On the other hand, when it is time to update the first partial textures PC21 to PC23, in step S3311, use instruction information corresponding to the next first partial textures PC21 to PC23 is stored.

ステップS3310又はステップS3311の処理を実行した後は、ステップS3312にて、各第2部分テクスチャPC24~PC27に適用するUV座標値の更新タイミングであるか否かを判定する。UV座標値の更新タイミングは、所定の複数である第2特定数フレームに1回、すなわち所定の複数である第2特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定のUV座標値から次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該UV座標値からさらに次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。 After executing the process of step S3310 or step S3311, it is determined in step S3312 whether or not it is time to update the UV coordinate values applied to the second partial textures PC24 to PC27. The update timing of the UV coordinate values is set once in a second specific number of frames, which is a predetermined plurality, that is, once in a second specific number of image update timings, which is a predetermined plurality. Timing is constant. However, it is not limited to this, and may be set once for each frame, that is, once for each image update timing. The number of frames (number of image update timings) until the next UV coordinate value may be different from the number of frames (number of image update timings) from the current UV coordinate value to the update timing of the next UV coordinate value.

また、UV座標値の更新タイミングは、第1部分テクスチャPC21~PC23の更新タイミングと同期しているが、非同期であってもよい。非同期とする上では、各更新周期を相違させる構成が考えられる。この場合に、UV座標値の更新タイミングを、第1部分テクスチャPC21~PC23の更新タイミングよりも短い周期としてもよく、長い周期としてもよいが、UV座標値の更新側であれば更新周期を短くしてもデータ容量への影響がほとんどないことに鑑みて、UV座標値の更新タイミングを第1部分テクスチャPC21~PC23の更新タイミングよりも短い周期とすることが好ましい。 Also, the update timing of the UV coordinate values is synchronized with the update timing of the first partial textures PC21 to PC23, but may be asynchronous. In order to make them asynchronous, it is conceivable to configure each update period to be different. In this case, the update timing of the UV coordinate values may be shorter or longer than the update timing of the first partial textures PC21 to PC23. Considering that there is almost no effect on the data capacity even if this is done, it is preferable to set the update timing of the UV coordinate values to a period shorter than the update timing of the first partial textures PC21 to PC23.

UV座標値の更新タイミングではない場合には、ステップS3313にて、前回の処理回にて記憶した各変化量のデータをそのまま記憶する。一方、UV座標値の更新タイミングである場合には、ステップS3314にて、次の順番の各変化量のデータを記憶する。 If it is not the time to update the UV coordinate values, in step S3313, the data of each amount of change stored in the previous processing is stored as it is. On the other hand, if it is time to update the UV coordinate values, in step S3314, data of each amount of change in the next order is stored.

ステップS3313又はステップS3314の処理を実行した後は、ステップS3315にて、特別キャラクタの継続指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。 After executing the process of step S3313 or step S3314, in step S3315, the special character continuation designation information is stored, and in step S3307, various parameters are calculated for the special object PC20, and the special object PC20 After updating the control information related to , this calculation process is terminated.

上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3310及びステップS3311のいずれかにて記憶した第1部分テクスチャPC21~PC23の使用指示情報と、上記ステップS3313及び上記ステップS3314のいずれかにて記憶した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの継続指定情報が設定される。 When the arithmetic processing for the special character is executed as described above, the drawing list created in the subsequent drawing list output processing is set with the information of the use instruction of the special object PC 20, and the above steps S3310 and The use instruction information of the first partial textures PC21 to PC23 stored in any one of step S3311 and the data of each amount of change stored in either step S3313 or S3314 are set. Furthermore, in the drawing list, the parameters calculated in step S3307 are set, and the special character continuation designation information is set.

VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合には、描画処理(図16)における演出用の設定処理(ステップS1003)にて、特別オブジェクトPC20をワールド座標系に設定する処理を実行する。この場合、ワールド座標系に設定する際の座標、スケール及び回転角度なども描画リストにて指定されているため、それらを適用した状態で特別オブジェクトPC20を設定する。また、特別キャラクタは、複数フレームに亘って所定の方向に変位するかのように表示されるため、それに即した描画リストがVDP135に対して適用され、それに即した状態でワールド座標系への特別オブジェクトPC20の設定が行われる。 When the VDP 135 receives the drawing list for displaying the special character, it executes the processing for setting the special object PC 20 in the world coordinate system in the effect setting processing (step S1003) in the drawing processing (FIG. 16). do. In this case, since the coordinates, scale, rotation angle, etc. for setting to the world coordinate system are also specified in the drawing list, the special object PC20 is set in a state in which these are applied. In addition, since the special character is displayed as if it were displaced in a predetermined direction over a plurality of frames, a drawing list corresponding to that is applied to the VDP 135, and a special character to the world coordinate system is drawn in a state corresponding to that. Setting of the object PC 20 is performed.

また、VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合、描画処理(図16)における色情報の設定処理(ステップS1009)にて、特別オブジェクトPC20に対して第1部分テクスチャPC21~PC23及び第2部分テクスチャPC24~PC27を貼り付ける。当該テクスチャの貼り付けに係る処理について、以下に説明する。 Further, when the VDP 135 receives the drawing list for displaying the special character, it performs the color information setting processing (step S1009) in the drawing processing (FIG. 16) to display the first partial textures PC21 to PC23 for the special object PC20. and second partial textures PC24 to PC27 are pasted. Processing related to pasting the texture will be described below.

図55は、特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。特別キャラクタ用のテクスチャマッピング処理は、今回の描画リストに特別キャラクタの開始指定情報及び特別キャラクタの継続指定情報のいずれかが設定されている場合に起動される。 FIG. 55 is a flowchart showing texture mapping processing for special characters. The special character texture mapping process is started when either the special character start designation information or the special character continuation designation information is set in the current drawing list.

先ずステップS3401では、今回の描画リストにおいて設定されている第1部分テクスチャPC21~PC23の使用指定情報を把握する。続くステップS3402では、ステップS3401にて把握した使用指定情報に対応した第1部分テクスチャPC21~PC23をメモリモジュール133から読み出す。その後、ステップS3403にて、上記ステップS3402にて読み出した第1部分テクスチャPC21~PC23を、特別オブジェクトPC20の本体パーツ部BPに貼り付ける。これにより、本体パーツ部BPへのテクスチャの貼り付けが完了する。 First, in step S3401, use designation information of the first partial textures PC21 to PC23 set in the current rendering list is grasped. In the subsequent step S3402, the first partial textures PC21 to PC23 corresponding to the usage designation information ascertained in step S3401 are read out from the memory module 133. FIG. After that, in step S3403, the first partial textures PC21 to PC23 read out in step S3402 are pasted onto the main body parts portion BP of the special object PC20. This completes the pasting of the texture to the main body part portion BP.

続くステップS3404では、レジスタ153に設けられた付属パーツカウンタに、付属パーツ部AP1~AP4の数に対応した情報である「4」をセットし、ステップS3405に進む。ステップS3405では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1~AP4に対応した第2部分テクスチャPC24~PC27をメモリモジュール133から読み出す。 In the subsequent step S3404, the attached parts counter provided in the register 153 is set to "4", which is information corresponding to the number of attached parts AP1 to AP4, and the process proceeds to step S3405. In step S3405, the second partial textures PC24-PC27 corresponding to the accessory parts AP1-AP4 indicated by the numerical information of the current accessory parts counter are read out from the memory module 133. FIG.

続くステップS3406では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1~AP4に対応した初期座標値のデータを読み出す。また、ステップS3407では、今回の描画リストにおいて設定されている変化量のデータのうち、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1~AP4に対応した変化量のデータを把握する。そして、ステップS3408において、ステップS3406にて読み出した初期座標値に対して、ステップS3407にて把握した変化量を適用することで、今回のUV座標値を導出する。その後、ステップS3409では、ステップS3408にて導出したUV座標値に従って、ステップS3405にて読み出した第2部分テクスチャPC24~PC27を、対応する付属パーツ部AP1~AP4に貼り付ける。 In the subsequent step S3406, data of initial coordinate values corresponding to the accessory parts AP1 to AP4 indicated by the numerical information of the current accessory parts counter is read. In step S3407, among the change amount data set in the current drawing list, the change amount data corresponding to the accessory parts AP1 to AP4 indicated by the current numerical information of the accessory part counter is grasped. Then, in step S3408, the current UV coordinate value is derived by applying the amount of change determined in step S3407 to the initial coordinate value read out in step S3406. After that, in step S3409, according to the UV coordinate values derived in step S3408, the second partial textures PC24 to PC27 read out in step S3405 are pasted on the corresponding attached parts AP1 to AP4.

続くステップS3410では、付属パーツカウンタの数値情報を1減算し、ステップS3411にて、減算後の付属パーツカウンタの数値情報が「0」であるか否かを判定する。「0」ではない場合には、ステップS3405に戻り、次の付属パーツ部AP1~AP4に対して上記ステップS3405~ステップS3409による第2部分テクスチャPC24~PC27の貼り付け処理を実行する。ステップS3411にて、付属パーツカウンタの数値情報が「0」であると判定した場合には、本テクスチャマッピング処理を終了する。 In subsequent step S3410, 1 is subtracted from the numerical information of the attached parts counter, and in step S3411, it is determined whether or not the numerical information of the attached parts counter after subtraction is "0". If it is not "0", the process returns to step S3405, and the process of pasting the second partial textures PC24 to PC27 in steps S3405 to S3409 is executed for the next attached parts AP1 to AP4. If it is determined in step S3411 that the numerical value information of the attached parts counter is "0", this texture mapping process ends.

次に、模様変更表示の内容について、図56を参照しながら説明する。 Next, the contents of the pattern change display will be described with reference to FIG.

図56(a),(b)は模様変更表示の内容を説明するための説明図である。 56(a) and (b) are explanatory diagrams for explaining the contents of the pattern change display.

特別キャラクタCH17を利用した模様変更表示は、図56(a),(b)に示すように、遊技回中において、所定の有効ライン上にてリーチラインが形成され、最終停止図柄列SA2にて図柄の変動表示が行われている状況で実行される。本パチンコ機10では、当該遊技回が開閉実行モードの移行契機となる期待度を高いことを遊技者に報知するための演出として模様変更表示が行われる。なお、特別キャラクタCH17を用いた模様変更表示は、開閉実行モードの移行契機となる遊技回においてのみ所定の確率で発生する構成としてもよい。 As shown in FIGS. 56(a) and 56(b), the pattern change display using the special character CH17 is such that a reach line is formed on a predetermined effective line during a game turn, and a final stop symbol row SA2 is displayed. It is executed in the situation where the variable display of the pattern is being performed. In the pachinko machine 10, pattern change display is performed as an effect for informing the player that the game round is highly expected to trigger the shift to the open/close execution mode. It should be noted that the pattern change display using the special character CH17 may be configured to occur with a predetermined probability only in the game cycle that triggers the transition to the opening/closing execution mode.

模様変更表示では、特別キャラクタCH17が所定の方向に変位表示される。この場合に、特別キャラクタCH17の変位に伴って、当該特別キャラクタCH17に付されている模様が変更される。具体的には、特別キャラクタCH17の表面が光に照らされて反射するとともに、その反射して明るくなっている箇所が変位していくように模様が変更される。この模様の変更は、本体パーツ部BP及び各付属パーツ部AP1~AP4のそれぞれにて発生する。その一方、特別キャラクタCH17に表示されている目や口の位置は一定となっている。 In the pattern change display, the special character CH17 is displaced and displayed in a predetermined direction. In this case, the pattern attached to the special character CH17 is changed as the special character CH17 is displaced. Specifically, the pattern is changed such that the surface of the special character CH17 is illuminated with light and reflected, and the brightened portion of the reflected light is displaced. This pattern change occurs in each of the main body part BP and the accessory parts AP1 to AP4. On the other hand, the positions of the eyes and mouth displayed on the special character CH17 are fixed.

以上のように、特別オブジェクトPC20の一部に対しては、複数種類のテクスチャPC21~PC23を予め記憶させておき、貼り付け対象とするテクスチャPC21~PC23を順次変更するのに対して、特別キャラクタCH17の他の部分に関しては単一のテクスチャPC24~PC27としながら、そのテクスチャPC24~PC27のUV座標値を順次変更する構成としたことにより、データ容量と処理負荷とのバランスを図りながら模様変更表示を行うことが可能となる。 As described above, a plurality of types of textures PC21 to PC23 are stored in advance for a part of the special object PC20, and the textures PC21 to PC23 to be pasted are sequentially changed. As for the other parts of CH17, single textures PC24 to PC27 are used, and the UV coordinate values of the textures PC24 to PC27 are sequentially changed, so that pattern change display is achieved while balancing data capacity and processing load. It is possible to do

また、目や口といった特別キャラクタにおいてその外縁に対する相対位置が変化しない模様が存在している箇所は、単一のテクスチャのUV座標値の切り換えにより模様の変更を行うのではなく、貼り付け対象とするテクスチャPC21~PC23を順次変更することによって模様の変更を行うようにしたことにより、当該箇所の模様を変更する際の処理負荷の軽減を図ることが可能となる。 Also, for special characters such as the eyes and mouth, where there is a pattern that does not change relative to the outer edge, the pattern is not changed by switching the UV coordinate values of a single texture, but it is pasted. Since the pattern is changed by sequentially changing the textures PC21 to PC23, it is possible to reduce the processing load when changing the pattern of the relevant portion.

その一方、比較的サイズの小さい付属パーツ部AP1~AP4については、単一のテクスチャPC24~PC27のUV座標値の切り換えにより模様の変更を行うようにしたことにより、UV座標値の変更に伴って模様の形状が若干変形してしまったとしても、それが目立たないようにすることが可能となる。 On the other hand, for the accessory parts AP1 to AP4, which are relatively small in size, the patterns are changed by switching the UV coordinate values of the single textures PC24 to PC27. Even if the shape of the pattern is slightly deformed, it can be made inconspicuous.

<模様変更表示の別形態>
・第2部分テクスチャPC24~PC27が各付属パーツ部AP1~AP4に1対1で対応させて設定されている構成に代えて、所定の第2部分テクスチャは複数の付属パーツ部AP1~AP4に対して共通して用いられる構成としてもよく、一の第2部分テクスチャが全ての付属パーツ部AP1~AP4に対して共通して用いられる構成としてもよい。この場合、各付属パーツ部AP1~AP4の模様の態様を異ならせる上では、UV座標値の初期設定値をそれぞれ相違させるようにするとよい。
<Another form of pattern change display>
・Instead of setting the second partial textures PC24 to PC27 in one-to-one correspondence with the attached parts AP1 to AP4, predetermined second partial textures are provided for the attached parts AP1 to AP4. Alternatively, one second partial texture may be commonly used for all attached parts AP1 to AP4. In this case, in order to make the patterns of the accessory parts AP1 to AP4 different, it is preferable to make the initial setting values of the UV coordinate values different.

・各付属パーツ部AP1~AP4において貼り付け対象の第2部分テクスチャPC24~PC27のUV座標値が変更される速度は、同一である構成に限定されることはなく、一部については相違している構成としてもよく、全部が相違している構成としてもよい。 ・The speed at which the UV coordinate values of the second partial textures PC24 to PC27 to be pasted in each of the attached parts AP1 to AP4 are not limited to the same configuration, and are partially different. It is good also as a structure with which all are different.

・本体パーツ部BPと付属パーツ部AP1~AP4の少なくとも一つとを跨ぐようにして模様が付されている構成としてもよい。この場合、特別キャラクタの外観を変更する場合において、上記跨いでいる部分における模様の連続性が担保されるように、第1部分テクスチャPC21~PC23が変更される場合の上記跨いでいる模様の変化態様と、第2部分テクスチャPC24~PC27が変更される場合の上記跨いでいる模様の変化態様とを対応付けることが好ましい。 - A pattern may be applied across the main body part BP and at least one of the accessory parts AP1 to AP4. In this case, when the appearance of the special character is changed, the straddling pattern changes when the first partial textures PC21 to PC23 are changed so as to ensure the continuity of the pattern in the straddling portion. It is preferable to associate the mode with the change mode of the straddling pattern when the second partial textures PC24 to PC27 are changed.

<ラウンド演出に係る構成について>
次に、ラウンド演出に係る構成について説明する。
<About the configuration related to the round production>
Next, the configuration related to the round effect will be described.

ラウンド演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。開閉実行モードでは複数回のラウンド遊技が行われるように設定されており、ラウンド演出は、開閉実行モードに移行する場合に実行されるラウンド演出抽選にて当該ラウンド演出を行うことに当選した場合に、ラウンド遊技が行われる度に実行される。なお、上記ラウンド演出抽選で当選しなかった場合には、開閉実行モード時の演算処理等が実行されることとなる。 The round effect is a effect that can be executed when a round game is performed in the opening/closing execution mode. In the opening and closing execution mode, the round game is set to be performed multiple times, and the round production is performed when the round production lottery executed when shifting to the opening and closing execution mode is won. , is executed each time a round game is played. In addition, when the lottery for the round effect is not won, the arithmetic processing and the like in the open/close execution mode will be executed.

なお、ラウンド遊技とは、既に説明した通り、(1)可変入賞装置22の開放時間が所定時間を経過すること、(2)可変入賞装置22への遊技球の総入賞個数が所定個数となること、のいずれか一方の条件が満たされるまで継続する遊技のことである。 As already explained, the round game means that (1) the opening time of the variable winning device 22 has passed a predetermined time, and (2) the total winning number of game balls to the variable winning device 22 has reached a predetermined number. It is a game that continues until one of the conditions is satisfied.

ラウンド演出では、動画像データが用いられる。動画像データとは、1フレーム分の静止画像データを基準として複数の差分データを有するようにフレーム間圧縮されて、例えばMPEG2方式で符号化された画像データである。当該動画像データが、VDP135に設けられた動画デコーダ(図示略)によってデコードされた場合には、複数フレーム分の静止画像データに展開される。これら静止画像データを順次描画することにより、一連のムービーが再生される。 Moving image data is used in the round effect. Moving image data is image data that is interframe-compressed so as to have a plurality of differential data based on one frame of still image data, and is encoded, for example, by the MPEG2 system. When the moving image data is decoded by a moving image decoder (not shown) provided in the VDP 135, it is developed into still image data for a plurality of frames. A series of movies is reproduced by sequentially drawing these still image data.

本パチンコ機10に設定されている動画像データについて図57を参照しながら説明する。 Moving image data set in the pachinko machine 10 will be described with reference to FIG.

図57に示すように、ラウンド演出で用いられる動画像データとして、ラウンド動画像データRMD0が設定されている。ラウンド動画像データRMD0は、最初のアドレスにファイルデータが設定され、それに続けて各フレームの圧縮データが設定されている。なお、各フレームの圧縮データにはフレームヘッダが付随している。 As shown in FIG. 57, round moving image data RMD0 is set as the moving image data used in the round effect. In round moving image data RMD0, file data is set at the first address, followed by compressed data of each frame. A frame header is attached to the compressed data of each frame.

圧縮データは、基準データに相当する1フレーム分のIピクチャデータと、第1の差分データに相当する複数フレーム分のPピクチャデータと、第2の差分データに相当する複数フレーム分のBピクチャデータと、を有している。 The compressed data includes one frame of I-picture data corresponding to the reference data, a plurality of frames of P-picture data corresponding to the first difference data, and a plurality of frames of B-picture data corresponding to the second difference data. and have

Iピクチャデータは、復号に際して、当該データ単独で1フレーム分の静止画像データを作成することができるデータである。Pピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータを参照して前方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。Bピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータと、1フレーム又は複数フレーム後のIピクチャデータ若しくはPピクチャデータとを参照して双方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。 The I-picture data is data capable of creating one frame of still image data by itself when decoding. P-picture data is data capable of creating still image data for one frame by performing forward prediction with reference to I-picture data or P-picture data of one frame or a plurality of frames before when decoding. . B-picture data can be bidirectionally predicted by referring to I-picture data or P-picture data one frame or a plurality of frames before and I-picture data or P-picture data one or more frames after when decoding. , is data that can create still image data for one frame.

ラウンド動画像データRMD0の圧縮データでは、1フレーム目のデータとしてIピクチャデータが設定されている。また、2フレーム目,…,m―1フレーム目のデータとしてBピクチャデータが設定されている。また、mフレーム目のデータとしてPピクチャデータが設定されている。また、m+1フレーム目,…,n―1フレーム目のデータとしてBピクチャデータが設定されている。また、nフレーム目のデータとしてPピクチャデータが設定されている。なお、ピクチャデータの配列パターンは上記のものに限定されることはなく任意である。 In the compressed data of the round moving image data RMD0, I picture data is set as the first frame data. Also, B picture data is set as the data of the 2nd frame, . . . , m−1th frame. Also, P picture data is set as the m-th frame data. In addition, B picture data is set as data of the m+1th frame, . . . , n−1th frame. Also, P picture data is set as the n-th frame data. Note that the arrangement pattern of picture data is not limited to the one described above and is arbitrary.

ラウンド動画像データRMD0から作成される静止画像データのサイズは、表示面Gに対応させて設定されており、具体的には表示面G全体に表示させることが可能な大きさに設定されている。 The size of the still image data created from the round moving image data RMD0 is set to correspond to the display surface G, and specifically is set to a size that can be displayed on the entire display surface G. .

また、ラウンド演出では、上記ラウンド動画像データRMD0とは別に、静止画像データである挿入画像データIPD0が用いられる。上記ラウンド動画像データRMD0及び挿入画像データIPD0の内容について図58を参照しながら説明する。図58(a)はラウンド動画像データRMD0に設定されている画像の一部の内容を示し、図58(b)は挿入画像データIPD0に設定されている画像を示す。 Further, in the round effect, insert image data IPD0, which is still image data, is used in addition to the round moving image data RMD0. The contents of the round moving image data RMD0 and the insertion image data IPD0 will be described with reference to FIG. FIG. 58(a) shows the content of part of the image set in the round moving image data RMD0, and FIG. 58(b) shows the image set in the insertion image data IPD0.

ラウンド動画像データRMD0には、図58(a-1)に示すように、波立っている様子を示す第1背景画像BP1に対して重なるようにして、サーフィンをしている様子を示す第1移動キャラクタ画像MP1及び蛸の画像である第2移動キャラクタ画像MP2が付加された基準データ(Iピクチャデータ)RMD1が設定されている。 In the round moving image data RMD0, as shown in FIG. 58(a-1), a first background image BP1 showing waves is superimposed on a first background image BP1 showing waves, showing a state of surfing. Reference data (I picture data) RMD1 to which a moving character image MP1 and a second moving character image MP2, which is an image of an octopus, are added are set.

また、図58(a-2),(a-3)に示すように、第1背景画像BP1を有さないが、各移動キャラクタ画像MP1,MP2が移動するのに対応した差分データ(Pピクチャデータ又はBピクチャデータ)RMD2が設定されている。基準データRMD1により1フレーム分の静止画像データが作成されるとともに基準データRMD1に対して差分データRMD2が適用されることにより、基準データRMD1に設定された第1背景画像BP1に対して各差分データRMD2に設定された各移動キャラクタ画像MP1,MP2が付加された1フレーム分の静止画像データが作成される。 Also, as shown in FIGS. 58(a-2) and (a-3), although the first background image BP1 is not included, the difference data (P picture) corresponding to the movement of the moving character images MP1 and MP2 data or B picture data) RMD2 is set. One frame of still image data is created from the reference data RMD1, and the difference data RMD2 is applied to the reference data RMD1. One frame of still image data is created to which the moving character images MP1 and MP2 set in RMD2 are added.

ちなみに、ラウンド動画像データRMD0には、各移動キャラクタ画像MP1,MP2が表示面Gからフレームアウトするように設定されている。具体的には各移動キャラクタ画像MP1,MP2がフレームアウトした位置まで移動するように差分データが設定されている。 Incidentally, the round moving image data RMD0 is set so that the moving character images MP1 and MP2 are framed out of the display surface G. FIG. Specifically, the difference data is set so that the moving character images MP1 and MP2 move to the frame-out position.

また、ラウンド動画像データRMD0には、図58(a-3)に示すように、雲が示された第2背景画像BP2が描画された基準データRMD3が設定されている。 Further, as shown in FIG. 58(a-3), reference data RMD3 in which a second background image BP2 showing clouds is drawn is set in the round moving image data RMD0.

さらに、ラウンド動画像データRMD0には、図58(a-4)に示すように、男の子の第3移動キャラクタ画像MP3が拡大して描画された基準データRMD4が設定されている。また、図示は省略するが、ラウンド動画像データRMD0には、第3移動キャラクタ画像MP3が所定の動作を行うのに対応した差分データが設定されている。 Furthermore, as shown in FIG. 58(a-4), the round moving image data RMD0 is set with reference data RMD4 in which the boy's third moving character image MP3 is enlarged and drawn. Although not shown, difference data corresponding to the third moving character image MP3 performing a predetermined action is set in the round moving image data RMD0.

上記各データRMD1~RMD4により作成される静止画像データを、動画用オブジェクトに順次貼り付けることにより、一連の動画表示が行われる。 A series of moving image display is performed by sequentially pasting the still image data created from the data RMD1 to RMD4 on the moving image object.

挿入画像データIPD0は、図58(b)に示すように、表示面Gの一部に表示される画像に対応したものであり、表示面G全体を表示させるのに用いられる画像データよりもそのサイズ及びデータ量(データ容量)が小さく設定されたデータである。 The insert image data IPD0 corresponds to an image displayed on a part of the display surface G, as shown in FIG. This is data whose size and amount of data (data capacity) are set to be small.

挿入画像データIPD0には、表示態様が異なる複数種類の画像データが設定されている。具体的には、挿入画像データIPD0には、図58(b-1)に示すように、2人の女の子が示された第1挿入キャラクタ画像IP1が描画された第1挿入画像データIPD1と、図58(b-2)に示すように、3人の女の子が示された第2挿入キャラクタ画像IP2が描画された第2挿入画像データIPD2と、が設定されている。 A plurality of types of image data with different display modes are set in the insertion image data IPD0. Specifically, as shown in FIG. 58(b-1), the insertion image data IPD0 includes first insertion image data IPD1 in which a first insertion character image IP1 showing two girls is drawn, As shown in FIG. 58(b-2), second insertion image data IPD2 in which a second insertion character image IP2 showing three girls is drawn is set.

ラウンド演出では、ラウンド動画像データRMD0に設定された一連のラウンド動画が再生される。そして、当該動画の再生中の所定のタイミングにて、挿入画像データIPD0を用いて挿入キャラクタ画像が挿入表示される。この場合、ラウンドに応じて、用いられる挿入画像データIPD0が異なるように設定されている。 In the round effect, a series of round moving images set in the round moving image data RMD0 are reproduced. Then, at a predetermined timing during reproduction of the moving image, an insertion character image is inserted and displayed using the insertion image data IPD0. In this case, the insertion image data IPD0 to be used is set differently depending on the round.

ラウンド動画像データRMD0及び挿入画像データIPD0を用いてラウンド演出を行うための具体的な処理構成について以下に説明する。 A specific processing configuration for performing a round effect using the round moving image data RMD0 and the insertion image data IPD0 will be described below.

図59は、表示CPU131にて実行されるラウンド演出用の演算処理を示すフローチャートである。ラウンド演出用の演算処理は、開閉実行モードに対応したデータテーブルが設定された場合に、タスク処理(図14)におけるステップS904の演出用演算処理にて起動される。 FIG. 59 is a flow chart showing arithmetic processing for round effects executed by the display CPU 131 . Calculation processing for round effects is started in the calculation processing for effects in step S904 in the task processing (FIG. 14) when the data table corresponding to the opening/closing execution mode is set.

先ずステップS3501では、開閉実行モードに対応したデータテーブルに基づいてラウンド演出の実行中であるか否かを判定する。開閉実行モードに対応したデータテーブルは、ラウンド演出としてラウンド動画が複数回再生されるよう設定されており、具体的には、ラウンド数と同じ回数だけラウンド動画が再生されるように設定されている。 First, in step S3501, it is determined whether or not the round effect is being executed based on the data table corresponding to the opening/closing execution mode. The data table corresponding to the opening and closing execution mode is set so that the round animation is played multiple times as a round effect. Specifically, it is set so that the round animation is played the same number of times as the number of rounds. .

ラウンド演出が実行中でない場合には、ステップS3502に進み、開閉実行モードに対応したデータテーブルに基づいてラウンド動画の再生開始タイミングであるか否かを判定する。具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画を複数回再生させることに対応させて、ラウンド動画の再生開始タイミングが複数設定されている。当該再生開始タイミングは、ラウンド遊技の開始タイミングと同期しており、詳細にはラウンド遊技の開始タイミングよりも1処理回分(20msec)だけ前のタイミングとなるよう構成されている。 If the round effect is not being executed, the process advances to step S3502 to determine whether or not it is time to start playing the round animation based on the data table corresponding to the opening/closing execution mode. Specifically, in the data table corresponding to the open/close execution mode, a plurality of reproduction start timings of the round moving image are set so as to correspond to the reproduction of the round moving image a plurality of times. The reproduction start timing is synchronized with the start timing of the round game, and more specifically, is configured to be the timing before the start timing of the round game by one process (20 msec).

なお、ラウンド動画像データRMD0をデコードするのに上記1処理回分の期間よりも長い期間を要する場合には、ラウンド動画の再生開始タイミングを、ラウンド遊技の開始タイミングよりも上記ラウンド動画像データRMD0をデコードするのに要する期間分だけ更に前に設定しておくとよい。これにより、デコードに要する期間によって生じ得るタイムラグに好適に対応することができる。要は、ラウンド動画の再生と、ラウンド遊技の開始とが同一タイミングとなるように、ラウンド動画像データRMD0をデコードするのに要する期間を考慮してラウンド動画の再生開始タイミングが設定されていればよい。 If a period longer than the period for one process is required to decode the round moving image data RMD0, the playback start timing of the round moving image is set to the round moving image data RMD0 before the start timing of the round game. It is preferable to set the period further forward by the period required for decoding. As a result, it is possible to appropriately cope with the time lag that may occur due to the period required for decoding. In short, if the playback start timing of the round video is set in consideration of the period required to decode the round video image data RMD0 so that the playback of the round video and the start of the round game are at the same timing. good.

ラウンド動画の再生開始タイミングでない場合には、そのまま本ラウンド演出用の演算処理を終了する一方、ラウンド動画の再生開始タイミングである場合には、ステップS3503に進み、ワークRAM132に設けられたラウンドカウンタエリアに記憶されているラウンドカウンタRCの更新処理を実行する。ラウンドカウンタRCは、表示制御装置130にてラウンド数を把握するためのものである。ラウンドカウンタRCは、開閉実行モードに対応したデータテーブルが設定された場合に初期値として「0」が設定される。 If it is not the timing to start playing the round animation, the arithmetic processing for this round effect is terminated as it is. update processing of the round counter RC stored in . The round counter RC is for the display control device 130 to grasp the number of rounds. The round counter RC is set to "0" as an initial value when the data table corresponding to the opening/closing execution mode is set.

ステップS3503では、ラウンドカウンタRCを1加算する処理を実行する。これにより、ラウンドカウンタRCを把握することにより、1の開閉実行モードにおいてラウンド動画が再生された回数を把握することができる。すなわち、ラウンドカウンタRCを把握することにより、現状行われているラウンド遊技が何ラウンド目であるかを特定することができる。 In step S3503, processing for adding 1 to the round counter RC is executed. Accordingly, by grasping the round counter RC, it is possible to grasp the number of times the round animation has been reproduced in one opening/closing execution mode. That is, by grasping the round counter RC, it is possible to specify the number of rounds of the round game currently being played.

その後、ステップS3504にて、開閉実行モードに対応したデータテーブルに基づいて、各種アドレスを把握する。具体的には、VRAM134の展開用バッファ141においてラウンド動画像データRMD0が格納されているアドレスと、当該ラウンド動画像データRMD0をデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 After that, in step S3504, various addresses are grasped based on the data table corresponding to the opening/closing execution mode. Specifically, when the still image data for a plurality of frames is generated by decoding the address at which the round moving image data RMD0 is stored in the development buffer 141 of the VRAM 134 and the round moving image data RMD0, the static image data is generated. The address of the area in which the image data is stored is grasped.

続くステップS3505では、VDP135にてラウンド動画像データRMD0をデコードするように指定するデコード指定情報を記憶して、本演算処理を終了する。 In the subsequent step S3505, the VDP 135 stores the decoding designation information designating that the round moving image data RMD0 is decoded, and the arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、ラウンド動画像データRMD0のデコード指定情報が設定された描画リストが作成され、VDP135に送信される。 When the above arithmetic processing is executed, a drawing list in which the decoding designation information of the round moving image data RMD0 is set is created and transmitted to the VDP 135 in the subsequent drawing list output processing (step S806).

ラウンド演出が実行中である場合には、ステップS3506に進み、動画用オブジェクトを把握する。動画用オブジェクトは、静止画像データをマッピングするためのオブジェクトである。動画用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。 If the round effect is being executed, the process advances to step S3506 to grasp the moving image object. A moving image object is an object for mapping still image data. The moving image object is composed of rectangular plate-like plate polygons. A plate polygon can also be said to be an object with a small number of polygons, and is low-definition data configured in a planar shape without unevenness in the three-dimensional direction.

動画用オブジェクトのサイズは、表示面G全体の画像を表示することが可能なサイズに設定されている。具体的には、動画用オブジェクトの板面のサイズが上記静止画像データと同一サイズに設定されている。 The size of the moving image object is set to a size that allows the image of the entire display surface G to be displayed. Specifically, the size of the board surface of the moving image object is set to the same size as the still image data.

動画用オブジェクトを把握した後は、ステップS3507にて、当該動画用オブジェクトに対してマッピングする静止画像データを特定するための処理を実行する。具体的には、ラウンド動画像データRMD0から作成された静止画像データのうち今回のフレーム番号に対応した静止画像データが格納されているアドレスを把握する。このアドレスの把握は、現状設定されている開閉実行モードに対応したデータテーブルに基づいて行われる。 After grasping the moving image object, in step S3507, processing for specifying still image data to be mapped to the moving image object is executed. Specifically, the address at which the still image data corresponding to the current frame number among the still image data created from the round moving image data RMD0 is stored is grasped. This address is grasped based on the data table corresponding to the currently set open/close execution mode.

続くステップS3508では、動画用オブジェクトに適用されるパラメータを決定する演算処理を実行する。そして、ステップS3509にて、ラウンド動画像データRMD0から作成した静止画像データを使用することを示す動画像指定情報を記憶する。 In the following step S3508, arithmetic processing is executed to determine parameters to be applied to the moving image object. Then, in step S3509, moving image designation information indicating that the still image data created from the round moving image data RMD0 is to be used is stored.

ステップS3509の処理の実行後は、ステップS3510~ステップS3518にて、挿入画像データIPD0に係る演算処理を実行する。 After execution of the processing of step S3509, arithmetic processing relating to the insertion image data IPD0 is executed in steps S3510 to S3518.

先ず、ステップS3510にて、現状設定されているデータテーブルに基づいて挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合にはステップS3511に進み、挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。 First, in step S3510, it is determined whether or not an insertion character image is being displayed based on the currently set data table. If the inserting character image is not being displayed, the flow advances to step S3511 to determine whether or not it is time to start displaying the inserting character image.

具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画中に挿入キャラクタ画像の表示開始タイミング(挿入タイミング)が予め定められている。詳細には、挿入キャラクタ画像の挿入タイミングはラウンド動画の内容に対応させて設定されており、各移動キャラクタ画像MP1,MP2がフレームアウトしたタイミングと基準データRMD4の表示タイミングとの間、詳細には基準データRMD3の表示タイミングに設定されている。当該データテーブルに基づいて、挿入キャラクタ画像の挿入タイミングであるか否かを判定する。 Specifically, the data table corresponding to the opening/closing execution mode predetermines the display start timing (insertion timing) of the character image to be inserted into the round moving image. More specifically, the insertion timing of the insertion character image is set corresponding to the contents of the round moving image. It is set to the display timing of the reference data RMD3. Based on the data table, it is determined whether or not it is time to insert the character image to be inserted.

挿入キャラクタ画像の挿入タイミングである場合には、ステップS3512~ステップS3516にて挿入キャラクタ画像の挿入に係る処理を実行する。 If it is time to insert the character image to be inserted, processing relating to the insertion of the character image to be inserted is executed in steps S3512 to S3516.

具体的には、先ずステップS3512にて、挿入画像データIPD0を描画するための挿入用オブジェクトを把握する。挿入用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンは、既に説明した通り、ポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。 Specifically, first, in step S3512, an insertion object for rendering the insertion image data IPD0 is grasped. The insertion object is composed of rectangular plate-like plate polygons. As already explained, the plate polygon can be said to be an object with a small number of polygons, and is low-definition data configured in a planar shape without unevenness in the three-dimensional direction.

挿入用オブジェクトは、挿入画像データIPD0に対応させて設定されている。詳細には、挿入用オブジェクトの板面のサイズと挿入画像データIPD0のサイズとが同一となるように、挿入用オブジェクトのサイズが設定されている。これにより、圧縮等の特別な処理をすることなく、挿入用オブジェクトに対して挿入画像データIPD0をマッピングすることができ、当該マッピングにより挿入キャラクタ画像を表示させることができる。 The inserting object is set to correspond to the inserting image data IPD0. Specifically, the size of the insertion object is set so that the size of the board surface of the insertion object and the size of the insertion image data IPD0 are the same. As a result, the insertion image data IPD0 can be mapped to the insertion object without special processing such as compression, and the insertion character image can be displayed by the mapping.

ここで、挿入画像データIPD0は、表示面Gにおいて部分的に表示される画像に係る画像データである。このため、当該挿入画像データIPD0に対応させて設定された挿入用オブジェクトは、表示面G全体の画像を表示させるのに用いられる動画用オブジェクトよりも小さく設定されている。 Here, the insertion image data IPD0 is image data relating to an image partially displayed on the display surface G. FIG. Therefore, the insertion object set corresponding to the insertion image data IPD0 is set smaller than the moving image object used to display the image of the entire display surface G. FIG.

挿入用オブジェクトを把握した後は、ステップS3513~ステップS3515にて、挿入用オブジェクトに対してマッピングする画像データ(テクスチャ)を把握する処理を実行する。この場合、現状のラウンド動画が何回目のラウンドであるかに応じて、マッピングする画像データを異ならせる。 After grasping the object for insertion, in steps S3513 to S3515, processing for grasping image data (texture) to be mapped to the object for insertion is executed. In this case, the image data to be mapped is changed according to the number of rounds of the current round moving image.

具体的には、先ずステップS3513にて、今回のラウンド演出が何回目のラウンドに対応したものであるかを把握する。具体的には、ラウンドカウンタRCを把握する。 Specifically, first, in step S3513, it is determined which round the current round effect corresponds to. Specifically, it grasps the round counter RC.

そして、ステップS3514にて、各挿入画像データIPD1,IPD2のうち、ステップS3513にて把握されたラウンドカウンタRCに対応した1の画像データを選択する。詳細には、ステップS3513にて把握されたラウンドカウンタRCが奇数である場合には、第1挿入キャラクタ画像IP1に対応する第1挿入画像データIPD1を選択し、ステップS3513にて把握されたラウンドカウンタRCが偶数である場合には、第2挿入キャラクタ画像IP2に対応する第2挿入画像データIPD2を選択する。そして、当該選択された挿入画像データのアドレスを設定する。 Then, in step S3514, one image data corresponding to the round counter RC ascertained in step S3513 is selected from the insertion image data IPD1 and IPD2. Specifically, when the round counter RC grasped in step S3513 is an odd number, the first insertion image data IPD1 corresponding to the first insertion character image IP1 is selected, and the round counter grasped in step S3513 is selected. If RC is an even number, the second insert image data IPD2 corresponding to the second insert character image IP2 is selected. Then, the address of the selected insertion image data is set.

その後、ステップS3515にて、挿入用オブジェクトの各種パラメータの演算処理を実行する。この場合、挿入用オブジェクトの座標は、ワールド座標系に変換した場合に表示面Gの中央に挿入キャラクタ画像が表示されるように設定されているとともに、動画用オブジェクトよりも前になるよう設定されている。 After that, in step S3515, various parameters of the insertion object are calculated. In this case, the coordinates of the inserting object are set so that the inserting character image is displayed in the center of the display surface G when converted to the world coordinate system, and is set so as to be ahead of the moving image object. ing.

その後、ステップS3516にて、挿入キャラクタ画像を表示することを示す画像挿入指定情報を設定し、本演算処理を終了する。 After that, in step S3516, image insertion specification information indicating that an insertion character image is to be displayed is set, and this arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定される。また、当該描画リストには、動画用オブジェクトが設定されるとともに、当該動画用オブジェクトに適用される各種パラメータが設定される。この場合、当該パラメータには、動画用オブジェクトに対してマッピングされる画像データ(テクスチャ)としてラウンド動画像データRMD0から作成された静止画像データのアドレスが含まれている。 When the above arithmetic processing is executed, moving image designation information is set in the drawing list created in the subsequent drawing list output processing (step S806). Also, in the drawing list, moving image objects are set, and various parameters applied to the moving image objects are set. In this case, the parameter includes the address of the still image data created from the round moving image data RMD0 as the image data (texture) mapped to the moving image object.

さらに、今回の演算処理が挿入キャラクタ画像の挿入タイミングである場合には、今回のラウンド演出に対応した挿入キャラクタ画像を表示するための情報、具体的には挿入用オブジェクト、及び当該挿入用オブジェクトに適用されるパラメータが設定されるとともに、画像挿入指定情報が設定される。この場合、上記パラメータには、挿入用オブジェクトに対してマッピングされる画像データ(テクスチャ)として、今回のラウンドに対応した挿入画像データのアドレスが含まれている。 Furthermore, when the current arithmetic processing is the insertion timing of the insertion character image, information for displaying the insertion character image corresponding to the current round effect, specifically the insertion object, and the insertion object The parameters to be applied are set, and the image insertion designation information is set. In this case, the parameter includes the address of the insertion image data corresponding to the current round as the image data (texture) mapped to the insertion object.

挿入キャラクタ画像が表示中である場合には、ステップS3510を肯定判定し、ステップS3517及びステップS3518にて、現状表示されている挿入キャラクタ画像の表示を維持する処理を実行する。具体的には、ステップS3517にて、挿入用オブジェクトを把握し、ステップS3518にて、現状設定されている挿入用オブジェクトのパラメータを維持する演算を行う。この場合、挿入用オブジェクトに対してマッピングされる挿入画像データのアドレスも維持する。そして、ステップS3516にて画像挿入指定情報を設定し、本演算処理を終了する。 If the inserting character image is being displayed, an affirmative determination is made in step S3510, and in steps S3517 and S3518, processing for maintaining the currently displayed inserting character image is executed. Specifically, in step S3517, the insertion object is grasped, and in step S3518, an operation is performed to maintain the currently set parameters of the insertion object. In this case, it also maintains the address of the insert image data mapped to the insert object. Then, in step S3516, the image insertion specification information is set, and this arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定されるとともに、今回のフレーム番号に対応した静止画像データに対応した画像を表示させるための情報が設定される。 When the above arithmetic processing is executed, moving image designation information is set in the drawing list created in subsequent drawing list output processing (step S806), and still image data corresponding to the frame number of this time is set. Information for displaying an image is set.

また、挿入キャラクタ画像が表示中である場合には、描画リストには、今回のラウンドに対応した挿入キャラクタ画像に対応した画像を表示するための情報が設定される。 Further, when the inserting character image is being displayed, information for displaying an image corresponding to the inserting character image corresponding to the current round is set in the drawing list.

なお、ラウンド演出用の演算処理において、現在のラウンド遊技が何ラウンド目であるかを認識させるための個別画像の演算処理を実行する構成としてもよい。この場合、遊技者が今回のラウンド遊技が何ラウンド目であるかを容易に確認することができる。 In addition, in the arithmetic processing for the round effect, it may be configured to execute the arithmetic processing of the individual image for recognizing what round the current round game is. In this case, the player can easily confirm what round the current round game is.

また、開閉実行モード中は、図柄用演算処理(ステップS905)はスキップするよう構成されている。これにより、開閉実行モード中は、図柄の変動表示が表示されないため、ラウンド動画像データRMD0によるラウンド動画に遊技者の注意を惹きつけることができるとともに、開閉実行モード中における処理負荷の軽減を図ることができる。なお、これに限られず、開閉実行モード中に図柄の変動表示を行わせる構成としてもよい。 Further, during the open/close execution mode, the design calculation process (step S905) is skipped. As a result, the variable display of the pattern is not displayed during the opening/closing execution mode, so that the player's attention can be attracted to the round moving image based on the round moving image data RMD0, and the processing load during the opening/closing execution mode can be reduced. be able to. It should be noted that the present invention is not limited to this, and a configuration may be adopted in which the symbols are displayed in a variable manner during the open/close execution mode.

さらに、ラウンド動画の再生中は、背景用の設定処理(ステップS903)はスキップするよう構成されている。この場合であっても、動画用オブジェクトに対してラウンド動画像データRMD0から作成された静止画像データが貼り付けられることにより、表示面G全体に亘って上記静止画像データに係る画像が表示される。つまり、上記動画表示に係る画像が背景画像として機能する。これにより、背景用の設定処理に係る処理負荷分だけ、処理負荷の軽減を図ることができる。 Furthermore, the background setting process (step S903) is skipped during playback of the round moving image. Even in this case, by pasting the still image data created from the round moving image data RMD0 to the moving image object, the image related to the still image data is displayed over the entire display surface G. . That is, the image related to the moving image display functions as a background image. As a result, the processing load can be reduced by the processing load associated with the background setting process.

次に、VDP135の動画デコーダにて実行されるデコード処理について、図60のフローチャートを参照しながら説明する。当該デコード処理は、表示CPU131から送信される描画リストにいずれかのデコード指定情報が設定されている場合に起動される。また、当該デコード処理は、VDP135にて実行される描画処理(図16)とは非同期で起動される。 Next, decoding processing executed by the video decoder of the VDP 135 will be described with reference to the flowchart of FIG. The decoding process is started when any of the decoding designation information is set in the drawing list transmitted from the display CPU 131 . Also, the decoding process is started asynchronously with the drawing process (FIG. 16) executed by the VDP 135 .

先ずステップS3601では、描画リストにて指定されたアドレスの情報から、ラウンド動画像データRMD0のアドレスを把握する。続くステップS3602では、描画リストにて指定された展開先アドレスの情報から、ラウンド動画像データRMD0の展開先のエリアを把握する。 First, in step S3601, the address of round moving image data RMD0 is grasped from the address information specified in the drawing list. In the following step S3602, the development destination area of the round moving image data RMD0 is grasped from the information of the development destination address specified in the rendering list.

続くステップS3603では、ステップS3601にて把握したアドレスからラウンド動画像データRMD0を読み出すとともに、当該ラウンド動画像データRMD0をデコードする。そして、そのデコード結果の各静止画像データを、ステップS3602にて把握したアドレスの各エリアに書き込む。その後、本デコード処理を終了する。 In subsequent step S3603, the round moving image data RMD0 is read from the address grasped in step S3601, and the round moving image data RMD0 is decoded. Each piece of still image data resulting from the decoding is written in each area of the address grasped in step S3602. After that, the decoding process is terminated.

ちなみに、デコード指定情報が設定された描画リストをVDP135が受信してから、ラウンド動画の1フレーム目の静止画像データを作成するまでに要する期間は、描画リストの受信周期(20msec)よりも小さく設定されている。これにより、デコード指定情報が設定された描画リストを受信してから、1フレーム目の静止画像データに対応したアドレスが設定された描画リストを受信するまでには、1フレーム目の静止画像データが作成されている。よって、アドレスに対応した静止画像データが存在しないという事態が発生しないようになっている。 Incidentally, the period required from when the VDP 135 receives the drawing list in which the decoding designation information is set until the still image data of the first frame of the round video is created is set to be shorter than the drawing list reception cycle (20 msec). It is As a result, after receiving the drawing list in which the decode designation information is set, until receiving the drawing list in which the address corresponding to the still image data of the first frame is set, the still image data of the first frame is created. Therefore, the situation that the still image data corresponding to the address does not exist does not occur.

なお、デコード処理は、描画処理と非同期で起動される構成としたが、これに限られない。例えば、描画処理にて所定のエリアに書き込まれた静止画像データを用いた描画が完了したことに基づいて、新たなフレームに係る静止画像データを展開する構成としてもよい。この場合、デコードされた静止画像データが用いられる毎に静止画像データを順次展開するため、1度に全部を展開して保存する構成と比較して、静止画像データを書き込むためのエリアの領域を少なくすることができる。さらに、デコードしながらラウンド動画を再生する構成であるため、デコードによるタイムラグを小さくすることができる。 Note that the decoding process is configured to be activated asynchronously with the drawing process, but the present invention is not limited to this. For example, upon completion of drawing using the still image data written in a predetermined area in the drawing process, still image data relating to a new frame may be expanded. In this case, since the still image data is sequentially developed each time the decoded still image data is used, the area for writing the still image data is reduced compared to the structure in which all the data is developed and saved at once. can be reduced. Furthermore, since the round video is reproduced while decoding, the time lag due to decoding can be reduced.

次に、VDP135にて実行されるラウンド演出用の設定処理について、図61のフローチャートを参照しながら説明する。 Next, the setting processing for the round effect executed by the VDP 135 will be described with reference to the flowchart of FIG.

ラウンド演出用の設定処理は、描画処理(図16)のステップS1003にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて動画像指定情報が設定されている場合に、当該ラウンド演出用の設定処理が実行される。 The round effect setting process is executed as part of the effect setting process executed in step S1003 of the drawing process (FIG. 16). Further, when moving image designation information is set in the drawing list, setting processing for the round effect is executed.

先ずステップS3701では、描画リストにて設定されている動画用オブジェクトを把握し、ステップS3702にて、描画リストに基づいて当該動画用オブジェクトに対して適用される各種パラメータを把握する。 First, in step S3701, the animation object set in the drawing list is grasped, and in step S3702, various parameters to be applied to the animation object are grasped based on the drawing list.

その後、ステップS3703にて、動画用オブジェクトについてワールド座標系への設定処理を実行し、ステップS3704に進む。 After that, in step S3703, the moving image object is set to the world coordinate system, and the process proceeds to step S3704.

続くステップS3704では、描画リストにおいて画像挿入指定情報が記憶されているか否かを判定する。画像挿入指定情報が記憶されていない場合には、そのまま本設定処理を終了する一方、画像挿入指定情報が記憶されている場合には、ステップS3705にて今回の描画リストに設定されている挿入用オブジェクトを把握し、ステップS3706にて描画リストに基づいて挿入用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS3707にて、挿入用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 In the subsequent step S3704, it is determined whether or not image insertion designation information is stored in the drawing list. If the image insertion designation information is not stored, this setting process is terminated as it is. The object is grasped, and in step S3706 the parameters to be applied to the insertion object are grasped based on the drawing list. Then, in step S3707, setting processing for the insertion object to the world coordinate system is executed, and this setting processing ends.

上記のように設定処理が実行されることにより、ワールド座標系において動画用オブジェクトと挿入用オブジェクトとの配置が同時に開始される。この場合、動画用オブジェクトの前側に挿入用オブジェクトが重なるように配置される。 By executing the setting process as described above, the placement of the moving image object and the insertion object is started simultaneously in the world coordinate system. In this case, the insertion object is arranged so as to overlap the front side of the moving image object.

次に、ラウンド演出用マッピング処理について図62のフローチャートを用いて説明する。当該ラウンド演出用マッピング処理は、描画処理(図16)の色情報の設定処理(ステップS1009)において、ラウンド演出に係る描画リスト(動画指定情報が設定された描画リスト)が作成された場合に起動される。 Next, the round effect mapping process will be described with reference to the flowchart of FIG. The round effect mapping process is started when a drawing list related to the round effect (a drawing list in which moving image designation information is set) is created in the color information setting process (step S1009) of the drawing process (FIG. 16). be done.

先ず、ステップS3801では、今回の設定対象の静止画像データが格納されているアドレスの情報を、描画リストから把握する。続くステップS3802では、ステップS3801にて把握したアドレスの情報から今回の描画対象の静止画像データを把握する。続くステップS3803では、動画用オブジェクトに対してステップS3802にて把握した静止画像データをマッピングする。この場合、静止画像データの座標値は、動画用オブジェクトに対して予め設定されているUV座標値であり、動画用オブジェクトに対する静止画像データの貼付位置は一義的に決まっている。 First, in step S3801, the information of the address where the still image data to be set this time is stored is grasped from the drawing list. In the following step S3802, still image data to be drawn this time is grasped from the address information grasped in step S3801. In subsequent step S3803, the still image data ascertained in step S3802 is mapped to the moving image object. In this case, the coordinate values of the still image data are the UV coordinate values preset for the moving image object, and the pasting position of the still image data on the moving image object is uniquely determined.

その後、ステップS3804では、今回の描画リストに画像挿入指定情報が設定されているか否かを判定する。画像挿入指定情報が設定されていない場合には、そのまま本処理を終了する一方、画像挿入指定情報が設定されている場合には、ステップS3805にて今回の描画リストに設定されている挿入キャラクタ画像データのアドレスの情報を把握する。 After that, in step S3804, it is determined whether or not image insertion designation information is set in the current rendering list. If the image insertion designation information has not been set, this processing is terminated as it is. Grasping the address information of the data.

ステップS3806では、ステップS3805にて把握したアドレスの情報から今回の描画対象の挿入画像データを把握する。その後、ステップS3807にて、挿入用オブジェクトに対してステップS3806にて把握した挿入キャラクタ画像データをマッピングして、本処理を終了する。 In step S3806, the insertion image data to be rendered this time is grasped from the address information grasped in step S3805. Thereafter, in step S3807, the insertion character image data grasped in step S3806 is mapped to the insertion object, and this processing ends.

以上の処理が実行されることにより、表示面Gにてラウンド動画像データRMD0に係るラウンド動画が再生されることとなる。また、画像挿入指定情報が設定されている場合には、当該ラウンド動画に対して重なるようにして挿入キャラクタ画像が表示される。 By executing the above processing, the round moving image related to the round moving image data RMD0 is reproduced on the display surface G. FIG. Further, when image insertion designation information is set, an insertion character image is displayed so as to overlap the round moving image.

ここで、ラウンド動画には、第2背景画像BP2のみが描画されており、各挿入キャラクタ画像は設定されていない。そして、ラウンド数に対応した挿入キャラクタ画像が第2背景画像BP2に対して重なるように表示される構成となっているため、挿入画像データIPD0を表示面G全体に表示される画像データとして用意する必要がない。これにより、挿入画像データIPD0のデータ量の削減を図ることができる。 Here, only the second background image BP2 is drawn in the round moving image, and each insertion character image is not set. Since the insertion character image corresponding to the number of rounds is displayed so as to overlap the second background image BP2, the insertion image data IPD0 is prepared as image data to be displayed on the entire display surface G. No need. As a result, it is possible to reduce the data amount of the insertion image data IPD0.

すなわち、表示面Gの一部を変更する場合には、共通した部分(第2背景画像BP2)に係るデータを動画像データに設定し、個別の部分(各挿入キャラクタ画像IP1,IP2)に係るデータを別に用意することにより、全体としてのデータ量の削減を図ることができる。 That is, when changing a part of the display surface G, the data related to the common part (second background image BP2) is set in the moving image data, and the data related to the individual parts (insertion character images IP1, IP2) By preparing the data separately, it is possible to reduce the amount of data as a whole.

また、動画像データの特性上、連続するフレーム毎に静止画像データを設定する必要がある。この必須の静止画像データを用いて第2背景画像BP2を描画することにより、必須の静止画像データを好適に利用することができ、ラウンド演出に係るデータ量の削減を図ることができる。 Also, due to the characteristics of moving image data, it is necessary to set still image data for each continuous frame. By drawing the second background image BP2 using this essential still image data, the essential still image data can be preferably used, and the amount of data related to the round effect can be reduced.

さらに、例えば第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描かれた画像に対して、第1挿入キャラクタ画像IP1を上書きしようとすると、真ん中に表示される女の子を消去するべく、当該女の子に対応した領域に対して第2背景画像BP2を描画する必要が生じることに起因して上書き対象となる領域が大きくなったり、消去対象となる領域とその他の領域とで異なるα値が設定されたαデータを別途設けたりする必要が生じ得る。このため、処理負荷の増大化が生じたり、データ量の増大化が生じたりする場合がある。これに対して、第2背景画像BP2に係る静止画像データを動画像データに設定し、変更対象となる挿入キャラクタ画像に係る画像データを動画像データとは別に用意することにより、上記不都合を回避することができる。 Furthermore, for example, if an image in which the second inserted character image IP2 is drawn superimposed on the second background image BP2 is overwritten with the first inserted character image IP1, the girl displayed in the middle is deleted. Due to the need to draw the second background image BP2 in the area corresponding to the girl, the area to be overwritten becomes large, or different α values are set for the area to be erased and other areas. It may be necessary to separately provide the alpha data that has been used. Therefore, the processing load may increase, or the amount of data may increase. On the other hand, by setting the still image data related to the second background image BP2 to the moving image data and preparing the image data related to the insertion character image to be changed separately from the moving image data, the above-mentioned inconvenience can be avoided. can do.

なお、動画用オブジェクトの板面は平面であるため、静止画像データに係る画像が湾曲することがない。これにより、静止画像データに係る画像がそのまま表示されることとなる。 In addition, since the board surface of the moving image object is flat, the image related to the still image data is not curved. As a result, the image related to the still image data is displayed as it is.

また、動画用オブジェクト及び挿入用オブジェクトについては平行投影されるように構成されている。これにより、パースペクティブの関係上、表示面Gの縁側の画像が湾曲したりするのを抑えることができる。 Further, moving image objects and insertion objects are configured to be parallel projected. As a result, it is possible to prevent the image on the edge side of the display surface G from being curved due to the perspective.

次にラウンド演出の様子について、図63を用いて説明する。図63は、ラウンド演出の様子を示すタイムチャートである。 Next, the state of the round effect will be described with reference to FIG. FIG. 63 is a time chart showing how round effects are produced.

ラウンド演出の開始タイミングであるt1のタイミングでは、図63(a)に示すように、第1背景画像BP1及び各移動キャラクタ画像MP1,MP2が表示される。 At timing t1, which is the start timing of the round effect, as shown in FIG. 63(a), the first background image BP1 and the moving character images MP1 and MP2 are displayed.

そして、時間の経過(フレーム番号の更新)に伴って、各移動キャラクタ画像MP1,MP2が所定方向に移動する。例えば、t2のタイミングでは、図63(b)に示すように、各移動キャラクタ画像MP1,MP2が波に乗って移動する様子が表示される。そして、各移動キャラクタ画像MP1,MP2がフレームアウトする。 As time passes (the frame number is updated), the moving character images MP1 and MP2 move in a predetermined direction. For example, at timing t2, as shown in FIG. 63(b), the moving character images MP1 and MP2 are displayed as they move in waves. Then, the moving character images MP1 and MP2 are framed out.

その後、画像挿入タイミングであるt3のタイミングにて、第2背景画像BP2を背景として挿入キャラクタ画像が表示される。この場合、今回のラウンド演出が奇数ラウンド目である場合には、図63(c-1)に示すように、第1挿入キャラクタ画像IP1が表示される。一方、今回のラウンド演出が偶数ラウンド目である場合には、図63(c-2)に示すように、第2挿入キャラクタ画像IP2が表示される。 After that, at the timing of t3, which is the image insertion timing, the insertion character image is displayed with the second background image BP2 as the background. In this case, if the current round effect is for the odd-numbered round, the first insert character image IP1 is displayed as shown in FIG. 63(c-1). On the other hand, if the current round effect is for the even-numbered round, the second insert character image IP2 is displayed as shown in FIG. 63(c-2).

その後、t4のタイミングでは、図63(d)に示すように、第3移動キャラクタ画像MP3が表示される。そして、当該第3移動キャラクタ画像MP3が所定の動作を行った後、ラウンド演出が終了する。 After that, at timing t4, as shown in FIG. 63(d), the third moving character image MP3 is displayed. After the third moving character image MP3 performs a predetermined action, the round effect ends.

以上の通り、ラウンド遊技が開始される度にラウンド動画を再生する構成とし、更にラウンド動画の再生中に、当該ラウンド動画に係る画像に対して重なるように今回のラウンドに対応した挿入キャラクタ画像を表示させるラウンド演出を実行する構成とした。これにより、1のラウンド動画像データRMD0を用いて複数の表示態様の動画を視認させることができるため、ラウンド毎にラウンド動画像データRMD0を用意する構成と比較して、メモリモジュール133に記憶させておくデータ量を削減することができる。 As described above, a round video is played every time a round game is started, and furthermore, during the playback of the round video, an inserted character image corresponding to the current round is inserted so as to overlap the image related to the round video. It is configured to execute the round production to be displayed. As a result, moving images in a plurality of display modes can be viewed using one piece of round moving image data RMD0. The amount of data to be stored can be reduced.

特に、開閉実行モードにおいては、同一の遊技、すなわち、ラウンド遊技が繰り返し行われる。この場合、ラウンド遊技が繰り返し行われることに対応させて、同一のラウンド演出を繰り返し実行する構成とすると、ラウンド演出への注目度が低下するおそれがある。かといって、ラウンド遊技毎に異なる動画表示を行う構成とすると、当該動画表示に係る動画像データのデータ量の増大化が懸念される。 In particular, in the open/close execution mode, the same game, that is, the round game is repeated. In this case, if the configuration is such that the same round effect is repeatedly executed in correspondence with the repetition of the round game, the degree of attention to the round effect may decrease. On the other hand, if a different moving image is displayed for each round game, there is a concern that the amount of moving image data related to the moving image display will increase.

これに対して、本パチンコ機10によれば、ラウンド動画の再生中に、今回のラウンドに対応した挿入キャラクタ画像を表示させる構成とすることにより、同一のラウンド動画を用いて、ラウンド演出のバリエーションの多様化を図ることができる。 On the other hand, according to the pachinko machine 10, during the reproduction of the round moving image, by displaying the inserted character image corresponding to the current round, the same round moving image can be used to create variations in the round effect. diversification can be achieved.

なお、挿入画像データIPD0として第1挿入画像データIPD1及び第2挿入画像データIPD2の2種類を用意したが、これに限られず、例えばラウンド数分だけ挿入画像データを用意する構成としてもよい。この場合、各ラウンドに対して各挿入画像データを対応付けて設定するとよい。これにより、ラウンド演出の多様化を図るとともに、挿入画像データに基づいて表示される画像に基づいて今回のラウンド遊技が何ラウンド目であるかを把握することが可能となる。 Although two types of the first insertion image data IPD1 and the second insertion image data IPD2 are prepared as the insertion image data IPD0, the present invention is not limited to this. In this case, each insertion image data may be set in association with each round. As a result, it is possible to diversify the round effects and to grasp what round the current round game is based on the image displayed based on the inserted image data.

さらに、挿入画像データをラウンド数よりも多く用意し、各ラウンドにおける挿入キャラクタ画像の挿入タイミングにて、複数の挿入画像データのうち1の挿入画像データを選択する構成としてもよい。これにより、挿入される挿入キャラクタ画像のランダム性を高め、挿入キャラクタ画像への注目度を高めることができる。 Furthermore, it is also possible to prepare more insertion image data than the number of rounds, and select one insertion image data from a plurality of insertion image data at the insertion timing of the insertion character image in each round. As a result, it is possible to increase the randomness of the inserting character image to be inserted, and to increase the degree of attention to the inserting character image.

また、挿入キャラクタ画像が表示されている状況において、挿入画像データIPD0に適用されるパラメータは変更しない構成としたが、これに限られず、適用されるパラメータを順次更新する構成としてもよい。この場合、一律α値を更新する構成とすれば、挿入キャラクタ画像をフェードイン又はフェードアウトさせることが可能となり、倍率情報を更新する構成とすれば、挿入キャラクタ画像の拡大又は縮小表示を行うことが可能となる。 Also, while the insertion character image is being displayed, the parameters applied to the insertion image data IPD0 are not changed, but the configuration is not limited to this, and the parameters to be applied may be sequentially updated. In this case, if the α value is uniformly updated, the inserted character image can be faded in or faded out, and if the magnification information is updated, the inserted character image can be enlarged or reduced. It becomes possible.

挿入キャラクタ画像をフェードイン又はフェードアウトさせる場合には、挿入キャラクタ画像と、当該挿入キャラクタ画像の背面側に描画されている動画に係る画像とのブレンディング処理を実行する構成としてもよい。これにより、挿入キャラクタ画像と動画に係る画像との親和性を高めることができ、挿入キャラクタ画像と動画に係る画像とを同時に表示させることによって生じ得る違和感を軽減することができる。 When the inserted character image is to be faded in or faded out, the inserted character image may be blended with the moving image drawn behind the inserted character image. As a result, it is possible to increase the affinity between the inserted character image and the moving image, and to reduce discomfort that may be caused by displaying the inserted character image and the moving image at the same time.

また、ラウンド動画に限られず、例えばスーパーリーチ表示を行う場合や、ノーマルリーチ表示を行う場合に本発明を適用してもよい。この場合、スーパーリーチ表示中に再生されるリーチ動画に係るリーチ動画像データを用意するとともに、当該リーチ動画の再生中に挿入される挿入画像の挿入画像データを複数種類用意する。そして、表示CPU131は、スーパーリーチ表示を行う場合に、複数種類の挿入画像データのうち1の画像データを抽選する処理を実行し、抽選された挿入画像データのアドレスをデータテーブルに設定する。そして、挿入画像の挿入タイミングである場合に、データテーブルに設定された挿入画像データのアドレスに基づいて、今回の挿入画像データを把握し、当該挿入画像データに基づいて描画を行わせる。これにより、1のリーチ動画像データを用いて、複数種類のスーパーリーチ表示を行うことが可能となる。 Moreover, the present invention may be applied not only to round moving images, but also to super reach display or normal reach display, for example. In this case, ready-to-reach moving image data relating to the ready-to-reach moving image to be reproduced during super-reach display is prepared, and a plurality of types of insertion image data of inserting images to be inserted during reproduction of the ready-to-reach moving image are prepared. Then, when performing super reach display, the display CPU 131 executes a process of drawing one image data out of a plurality of types of insertion image data, and sets the address of the selected insertion image data in the data table. Then, when it is time to insert an insert image, the current insert image data is grasped based on the address of the insert image data set in the data table, and drawing is performed based on the insert image data. This makes it possible to perform a plurality of types of super reach display using one set of reach moving image data.

また、上記構成では、ラウンド毎にラウンド動画を再生する構成としたが、これに限られず、例えば複数のラウンドに跨って再生される一連のムービーであってもよい。この場合、開閉実行モードが終了するまで繰り返し上記一連のムービーを再生させる構成とするとよい。この場合であっても、一連のムービーの途中に異なる挿入キャラクタ画像を挿入することにより異なるムービーのように認識させることができる。 Also, in the above configuration, a round movie is played back for each round, but the present invention is not limited to this. For example, a series of movies played over a plurality of rounds may be played. In this case, the series of movies may be reproduced repeatedly until the opening/closing execution mode ends. Even in this case, by inserting a different insert character image in the middle of a series of movies, the movie can be recognized as a different movie.

上記複数のラウンドに跨って一連のムービーを再生する場合、各ラウンド間のインターバル期間中に挿入キャラクタ画像を表示させる構成としてもよい。これにより、複数のラウンドに跨って再生されるムービーにおいてインターバル期間中であることを遊技者に好適に認識させることができる。 When a series of movies are reproduced over a plurality of rounds, the inserted character image may be displayed during the interval period between the rounds. As a result, the player can be made to preferably recognize that it is during the interval period in the movie reproduced over a plurality of rounds.

また、基準データRMD3には、第2背景画像BP2のみが描画されていたが、これに限られず、例えば第1挿入キャラクタ画像IP1及び第2背景画像BP2双方が描画されたものとしてもよい。この場合、第1挿入キャラクタ画像IP1に対して第2挿入キャラクタ画像IP2が重なるように、第2挿入画像データIPD2の座標を設定するとよい。これにより、画像を挿入する場合と挿入しない場合とで異なるラウンド演出を表示させることができる。但し、動画像データを有効に活用できる点、奥側に表示される画像を上書きするために画像データのサイズを大きめに確保する必要がある点等を鑑みれば、基準データRMD3には、第2背景画像BP2のみが描画されている構成の方がよい。 Also, although only the second background image BP2 is drawn in the reference data RMD3, the present invention is not limited to this. For example, both the first insertion character image IP1 and the second background image BP2 may be drawn. In this case, the coordinates of the second inserting image data IPD2 should be set so that the second inserting character image IP2 overlaps the first inserting character image IP1. As a result, different round effects can be displayed depending on whether the image is inserted or not. However, in view of the fact that moving image data can be effectively used, and the fact that it is necessary to secure a large image data size in order to overwrite the image displayed on the far side, the reference data RMD3 includes the second A configuration in which only the background image BP2 is drawn is better.

また、挿入キャラクタ画像を表示させる構成としたが、これに限られず、例えばt3のタイミング~t4のタイミングに亘って別の挿入用動画を再生する構成としてもよい。この場合、t3のタイミングにて挿入用動画を再生することができるように、当該t3のタイミングよりも前のタイミングにて挿入用動画のデコードを行うとよい。また、挿入用動画は、表示面Gにおける所定の領域に対応した動画としてもよいし、表示面G全体の動画としてもよい。 Also, although the configuration is such that the insertion character image is displayed, the present invention is not limited to this. For example, a configuration may be adopted in which another insertion moving image is played back over the period from timing t3 to timing t4. In this case, the insertion moving image should be decoded at a timing prior to the timing t3 so that the insertion moving image can be reproduced at the timing t3. Also, the insertion moving image may be a moving image corresponding to a predetermined area on the display surface G, or may be a moving image of the entire display surface G. FIG.

上記構成では、一連のラウンド動画の再生中に、当該ラウンド動画に関連した挿入キャラクタ画像を表示させる構成としたが、これに限られず、ラウンド動画の態様とは関連しない特定画像をラウンド動画とは別に表示させる構成としてもよい。この場合、特定画像はラウンド動画が再生される期間のうち一部の期間において表示される構成としてもよいし、ラウンド動画が再生される期間全体に亘って表示させる構成としてもよい。 In the above configuration, during the reproduction of a series of round animations, the inserted character image related to the round animation is displayed. It is good also as a structure displayed separately. In this case, the specific image may be displayed during a part of the period during which the round motion picture is played, or may be displayed throughout the period during which the round motion picture is played.

特定画像としては、例えば現状のラウンドが何番目のラウンドであるかを遊技者に教示可能な教示画像や、又はラウンド動画の再生回数を教示可能な教示画像や、大当たり当選となった場合に表示面Gにて表示された大当たり図柄の組み合わせを構成した図柄画像又は当該図柄画像に対応した画像等としてもよい。 As the specific image, for example, a teaching image that can teach the player what round the current round is, or a teaching image that can teach the number of times a round video has been played, or a teaching image that can be displayed when a jackpot is won. The symbol image may be a combination of the jackpot symbols displayed on the surface G or an image corresponding to the symbol image.

この場合、例えば教示画像の表示に係る処理としては、ラウンド動画とは別に各種教示用の画像データ(教示用のオブジェクト及び教示用のテクスチャ)を用意して、ラウンド動画に係る画像に対して上記教示用のオブジェクト及び教示用のテクスチャを用いて作成される教示画像を挿入して表示させる構成や、所定の教示画像が含まれたラウンド動画を用意する構成が考えられる。 In this case, for example, as the processing related to the display of the teaching image, various teaching image data (teaching objects and teaching textures) are prepared separately from the round video, and the image related to the round video is displayed as described above. A configuration in which a teaching image created using a teaching object and a teaching texture is inserted and displayed, or a configuration in which a round moving image including a predetermined teaching image is prepared can be considered.

上記所定の教示画像が含まれたラウンド動画を用意する構成において、教示画像の内容を変更する場合には、当該ラウンド動画に含まれている上記所定の教示画像に対して重なるように変更先の教示画像を描画する。具体的には、上記所定の教示画像が表示される領域に重なるように変更先の教示用のオブジェクトを配置する。これにより、ラウンド動画に含まれている上記所定の教示画像に対して変更先の教示画像が上書きされ、当該変更先の教示画像が表示されることとなる。 In the configuration in which a round video including the predetermined teaching image is prepared, when changing the content of the teaching image, the change destination is superimposed on the predetermined teaching image included in the round video. Draw the teaching image. Specifically, the teaching object to be changed is arranged so as to overlap the area where the predetermined teaching image is displayed. As a result, the predetermined teaching image included in the round moving image is overwritten with the teaching image after the change, and the teaching image after the change is displayed.

かかる構成において、挿入キャラクタ画像を挿入表示する場合、当該挿入キャラクタ画像によって上記教示画像が上書きされないように、挿入用オブジェクトと教示用のオブジェクトとの位置関係を設定する。具体的には、ワールド座標系において、視点に対して挿入用オブジェクトよりも近い側に教示用のオブジェクトが配置されるように両者の座標を設定する。これにより、教示画像が挿入キャラクタ画像によって見えなくなるという不都合を回避することができる。 In such a configuration, when inserting and displaying an inserting character image, the positional relationship between the inserting object and the teaching object is set so that the teaching image is not overwritten by the inserting character image. Specifically, in the world coordinate system, the coordinates of both are set so that the teaching object is arranged closer to the viewpoint than the insertion object. As a result, it is possible to avoid the inconvenience that the instruction image is hidden by the inserted character image.

また、2次元表示を行う構成に対して上記画像挿入の発明を適用してもよい。具体的には、例えば挿入する画像に対応した画像データをスプライトデータとしてメモリモジュール133に対して予め記憶させておくとともに、当該スプライトデータに適用される各種パラメータ情報を記憶させておく。そして、動画像データをデコードすることにより作成される静止画像データをフレームバッファ142に書き込み、当該フレームバッファ142に対して挿入する画像に係るスプライトデータを書き込む処理を実行すればよい。 Further, the image insertion invention may be applied to a configuration for two-dimensional display. Specifically, for example, image data corresponding to an image to be inserted is stored in advance in the memory module 133 as sprite data, and various parameter information to be applied to the sprite data is stored. Then, still image data created by decoding the moving image data is written into the frame buffer 142, and sprite data relating to the image to be inserted into the frame buffer 142 is written.

<ラウンド演出を行う場合の別形態>
ラウンド演出を行う場合の別形態について図64~図68を用いて説明する。
<Another form when performing a round production>
Another form of the round effect will be described with reference to FIGS. 64 to 68. FIG.

本別形態では、ラウンド動画像データRMD0の構成が異なっている。その異なる点について図64を用いて説明する。図64は、本別形態におけるラウンド動画像データRMD0の構成を説明するための説明図である。 In this another form, the configuration of the round moving image data RMD0 is different. The different point will be described with reference to FIG. FIG. 64 is an explanatory diagram for explaining the structure of the round moving image data RMD0 in this another form.

本別形態では、ラウンド動画像データRMD0は、挿入キャラクタ画像が表示されるタイミングにて分割されており、詳細には、ラウンド動画の開始タイミングから、当該各移動キャラクタ画像MP1,MP2がフェードアウトするまでの第1ラウンド動画に対応した第1ラウンド動画像データRMD0aと、第3移動キャラクタ画像MP3が表示されてからラウンド動画の終了タイミングまでの第2ラウンド動画に対応した第2ラウンド動画像データRMD0bと、に分割されている。 In this alternative form, the round moving image data RMD0 is divided at the timing when the insertion character image is displayed. and second round moving image data RMD0b corresponding to the second round moving image from the display of the third moving character image MP3 to the end timing of the round moving image. , is divided into

第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bの圧縮態様について図65を用いて説明する。図65は各ラウンド動画像データRMD0a,RMD0bの圧縮態様を説明するための説明図であって、図65(a)は第1ラウンド動画像データRMD0aの圧縮態様を説明するための説明図、図65(b)は第2ラウンド動画像データRMD0bの圧縮態様を説明するための説明図、図65(c)は各ラウンド動画像データRMD0a,RMD0bのビットレートを説明するためのグラフである。 A compression mode of the first round moving image data RMD0a and the second round moving image data RMD0b will be described with reference to FIG. FIG. 65 is an explanatory diagram for explaining the compression mode of each round moving image data RMD0a and RMD0b. FIG. 65(a) is an explanatory diagram for explaining the compression mode for the first round moving image data RMD0a. 65(b) is an explanatory diagram for explaining the compression mode of the second round moving image data RMD0b, and FIG. 65(c) is a graph for explaining the bit rates of the round moving image data RMD0a and RMD0b.

既に説明した通り、第1ラウンド動画像データRMD0aと、第2ラウンド動画像データRMD0bとは、符号化された圧縮データであり、基準データと、差分データとを有している。この場合、各ラウンド動画の再生時間が同一であり且つ各ラウンド動画像データRMD0a,RMD0bに含まれる基準データが同一であっても、ラウンド動画の内容に応じて、第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bのデータ量が異なる場合が生じる。 As already explained, the first round moving image data RMD0a and the second round moving image data RMD0b are encoded compressed data and have reference data and difference data. In this case, even if the playback time of each round moving image is the same and the reference data included in each of the round moving image data RMD0a and RMD0b is the same, the first round moving image data RMD0a and the first round moving image data RMD0a and The data amount of the second round moving image data RMD0b may differ.

具体的には、第1ラウンド動画と第2ラウンド動画とを比較すると、第1ラウンド動画の方が第2ラウンド動画よりも移動対象キャラクタの数が多い分だけ、第1ラウンド動画の方が、第2ラウンド動画よりも動きが激しいとともに、複雑なもの(高精細なもの)となっている。このため、図65(a-1)及び図65(b-1)に示すように、第1ラウンド動画像データRMD0aの差分データは、第2ラウンド動画像データRMD0bの差分データよりも大きくなる。 Specifically, when comparing the first-round video and the second-round video, the first-round video has more characters to move than the second-round video, so the first-round video has more The movement is more intense than the second round animation, and it is complicated (high-definition). Therefore, as shown in FIGS. 65(a-1) and 65(b-1), the difference data of the first round moving image data RMD0a is larger than the difference data of the second round moving image data RMD0b.

ここで、ラウンド動画像データRMD0全体で割り当てることが可能なデータ量は予め定められており、当該データ量に合うように各ラウンド動画像データRMD0a,RMD0bを調整する必要がある。この場合、各ラウンド動画像データRMD0a,RMD0bのビットレートを調整することにより、ラウンド動画全体の画質を維持しつつ、所望のデータ量に設定することができる。 Here, the amount of data that can be allocated to the whole round moving image data RMD0 is predetermined, and it is necessary to adjust each round moving image data RMD0a and RMD0b so as to match the data amount. In this case, by adjusting the bit rate of each round moving image data RMD0a and RMD0b, it is possible to set a desired amount of data while maintaining the overall image quality of the round moving image.

具体的には、動きが少ないもの又は比較的複雑でないもの(低精細なもの)に対してはビットレートを下げても画質は低下しにくい。一方、動きが大きいものや比較的複雑なものに対してビットレートを下げると、ブロックノイズやモスキートノイズが大量に発生し、画質が大きく低下する。このため、図65(a-2)に示すように、第1ラウンド動画像データRMD0aに対しては比較的大きなビットレートを割り当てることで、比較的大きなデータ量(FS1)を確保し、第1ラウンド動画の画質の低下を抑制する。一方、図65(b-2)に示すように、第2ラウンド動画像データRMD0bに対しては比較的小さなビットレートを割り当てることで、比較的小さなデータ量(FS2)を確保し、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。これにより、ラウンド演出で用いられる一連のラウンド動画の画質の低下を抑制することができる。 Specifically, the image quality does not easily deteriorate even if the bit rate is lowered for an image with little motion or a relatively uncomplicated image (low-definition image). On the other hand, if the bit rate is lowered for an image with large movements or a relatively complicated image, a large amount of block noise and mosquito noise will occur, resulting in a significant drop in image quality. Therefore, as shown in FIG. 65(a-2), by allocating a relatively large bit rate to the first round moving image data RMD0a, a relatively large amount of data (FS1) is secured and the first round moving image data RMD0a is allocated. To suppress deterioration of image quality of a round moving image. On the other hand, as shown in FIG. 65(b-2), by allocating a relatively small bit rate to the second round moving image data RMD0b, a relatively small amount of data (FS2) is secured and the second round moving image data RMD0b is processed. It is possible to reduce the data amount of the moving image data RMD0b. As a result, it is possible to suppress deterioration in the image quality of a series of round animations used in the round effect.

すなわち、図65(c)に示すように、第1ラウンド動画像データRMD0aのビットレートを上げ、第2ラウンド動画像データRMD0bのビットレートを下げて設定することにより、各ラウンド動画像データRMD0a,RMD0bが同一のビットレートで設定される場合(図65(c)の点線参照)と比較して、トータルのデータ量が同一にも関わらず、ラウンド動画の画質の低下が抑制されている。これにより、ラウンド動画像データRMD0を所望のデータ量に設定しつつ、ラウンド動画の画質の低下を抑制することができる。 That is, as shown in FIG. 65(c), by increasing the bit rate of the first round moving image data RMD0a and decreasing the bit rate of the second round moving image data RMD0b, each of the round moving image data RMD0a, Compared to the case where RMD0b is set at the same bit rate (see the dotted line in FIG. 65(c)), deterioration in image quality of the round moving image is suppressed despite the same total data amount. As a result, it is possible to set the round moving image data RMD0 to a desired data amount while suppressing deterioration in image quality of the round moving image.

ちなみに、各ラウンド動画像データRMD0a,RMD0bを作成する段階における圧縮処理について詳細に説明すると、各ラウンド動画像データRMD0a,RMD0bは、複数回(具体的には2回)に亘る圧縮処理を行うことにより作成されている。具体的には、先ず1回目の圧縮処理では、予め設定されたラウンド動画像データRMD0全体のデータ量を把握し、そのデータ量となるように各ラウンド動画像データRMD0a,RMD0bに対して割り当てる各データ量FS1,FS2を把握し、それらの各データ量FS1、FS2に対応したビットレートを把握する。そして、2回目の圧縮処理にて、1回目の圧縮処理にて把握されたビットレートを用いて実際の圧縮処理を実行する。これにより、ラウンド動画像データRMD0が予め設定されたデータ量となるようになっている。 By the way, to explain in detail the compression processing at the stage of creating each round moving image data RMD0a and RMD0b, each round moving image data RMD0a and RMD0b is subjected to compression processing a plurality of times (specifically, twice). Created by Specifically, in the first compression process, first, the data amount of the entire round moving image data RMD0 set in advance is grasped, and each of the round moving image data RMD0a and RMD0b is allocated so as to have the data amount. The data amounts FS1 and FS2 are grasped, and the bit rates corresponding to the respective data amounts FS1 and FS2 are grasped. Then, in the second compression process, the actual compression process is executed using the bit rate obtained in the first compression process. As a result, the round moving image data RMD0 has a preset data amount.

ここで、各ラウンド動画像データRMD0a,RMD0bの圧縮においては、それぞれ個別に設定されたビットレートに基づくデータ量となるように、差分データを簡略化することにより差分データを圧縮し、基準データは簡略化されないようになっている。基準データは各差分データ(Pピクチャデータ及びBピクチャデータ)の基準となるデータであるため、基準データの画質が低下すると、フレーム間圧縮による誤差に起因するラウンド動画全体の画質が著しく低下するからである。 Here, in the compression of each of the round moving image data RMD0a and RMD0b, the difference data is compressed by simplifying the difference data so that the amount of data is based on the bit rate set individually, and the reference data is It is not abbreviated. Since the reference data serves as a reference for each difference data (P-picture data and B-picture data), if the image quality of the reference data deteriorates, the image quality of the whole round moving image due to the error due to inter-frame compression will significantly deteriorate. is.

また、本別形態では、挿入画像データIPD0が異なっている。具体的には、本別形態における挿入画像データIPD0のサイズは、当該挿入画像データIPD0に係る画像が表示面G全体に表示可能となるように設定されている。そして、挿入画像データIPD0には、第2背景画像BP2に重ねて第1挿入キャラクタ画像IP1が描画された挿入画像データと、第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描画された挿入画像データと、が設けられている。すなわち、本別形態の挿入画像データIPD0は、表示面G全体に表示される一枚の画像そのものを示すものである。なお、以降の説明において挿入画像データIPD0を用いて表示される画像、すなわち第2背景画像BP2に重ねて各挿入キャラクタ画像IP1,IP2のいずれが描画された画像を単に挿入画像とも言う。 Moreover, in this another form, the insertion image data IPD0 is different. Specifically, the size of the insertion image data IPD0 in this alternative form is set so that the image related to the insertion image data IPD0 can be displayed on the entire display surface G. FIG. Insertion image data in which the first insertion character image IP1 is drawn superimposed on the second background image BP2 and the second insertion character image IP2 in superimposition on the second background image BP2 are drawn in the insertion image data IPD0. Insert image data and are provided. In other words, the insert image data IPD0 of this alternative form indicates a single image displayed on the entire display surface G itself. In the following description, an image displayed using the insertion image data IPD0, that is, an image in which either of the insertion character images IP1 and IP2 is drawn superimposed on the second background image BP2 is simply referred to as an insertion image.

本別形態では、これら分割された各ラウンド動画像データRMD0a,RMDbを所定の間隔を介して順次デコードし、第1ラウンド動画及び第2ラウンド動画を所定の間隔を介して順次再生するとともに、当該間隔中に上記挿入画像データIPD0を用いて、第2背景画像BP2と、各挿入キャラクタ画像IP1,IP2のいずれか一方とが一体となった挿入画像を表示させることにより、一連のラウンド動画を再生させる。 In this embodiment, the divided round moving image data RMD0a and RMDb are sequentially decoded at predetermined intervals, the first round moving image and the second round moving image are sequentially reproduced at predetermined intervals, and the During the interval, the inserted image data IPD0 is used to display an inserted image in which the second background image BP2 and one of the inserted character images IP1 and IP2 are integrated, thereby reproducing a series of round animations. Let

次に、本別形態におけるラウンド演出用の演算処理について図66のフローチャートを用いて説明する。 Next, the arithmetic processing for the round effect in this another form will be described with reference to the flowchart of FIG. 66 .

先ず、ステップS3901では、現状設定されているデータテーブル、詳細には開閉実行モードに対応したデータテーブルに基づいて、挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合には、ステップS3902に進み、現状設定されているデータテーブルに基づいて挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。挿入キャラクタ画像の表示開始タイミングは、開閉実行モードに対応したデータテーブルに予め定められており、詳細には第1ラウンド動画の終了タイミングと同一に設定されている。 First, in step S3901, it is determined whether or not an inserting character image is being displayed based on the currently set data table, more specifically, the data table corresponding to the opening/closing execution mode. If the inserting character image is not being displayed, the flow advances to step S3902 to determine whether it is time to start displaying the inserting character image based on the currently set data table. The display start timing of the insertion character image is predetermined in the data table corresponding to the opening/closing execution mode, and more specifically, is set to be the same as the end timing of the first round animation.

挿入キャラクタ画像の表示開始タイミングでない場合には、ステップS3903に進み、現状設定されているデータテーブルに基づいてラウンド動画に係る演出が実行中であるか否かを判定する。この場合、第1ラウンド動画又は第2ラウンド動画に係る演出が実行中であるか否かを判定する、
ラウンド動画に係る演出が実行中でない場合には、ステップS3904にて第1ラウンド動画の再生開始タイミングであるか否かを判定する。第1ラウンド動画の再生開始タイミングでない場合には、そのまま本演算処理を終了する一方、第1ラウンド動画の再生開始タイミングである場合には、ステップS3905にてラウンドカウンタRCを1加算する処理を実行し、ステップS3906及びステップS3907にて、第1ラウンド動画像データRMD0aのデコードに係る処理を実行する。
If it is not the display start timing of the inserted character image, the process advances to step S3903 to determine whether or not an effect related to the round animation is being executed based on the currently set data table. In this case, it is determined whether the effect related to the first round video or the second round video is being executed,
If the effect related to the round moving image is not being executed, it is determined in step S3904 whether or not it is time to start playing the first round moving image. If it is not the timing to start playing the first round video, this arithmetic processing ends as it is.If it is the timing to start playing the first round video, the round counter RC is incremented by 1 in step S3905. Then, in steps S3906 and S3907, processing related to decoding of the first round moving image data RMD0a is executed.

詳細には、ステップS3906にて、VRAM134の展開用バッファ141において第1ラウンド動画像データRMD0aが格納されているアドレスと、当該第1ラウンド動画像データRMD0aをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 Specifically, in step S3906, the address where the first round moving image data RMD0a is stored in the development buffer 141 of the VRAM 134 and the first round moving image data RMD0a are decoded to generate still image data for a plurality of frames. is created, the address of the area in which the still image data is stored is grasped.

そして、ステップS3907では、第1ラウンド動画像データRMD0aのデコード指定情報を設定し、本演算処理を終了する。 Then, in step S3907, the decoding designation information of the first round moving image data RMD0a is set, and this arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第1ラウンド動画像データRMD0aのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第1ラウンド動画像データRMD0aのデコード処理を実行する。当該デコード処理は、既に説明した通りであるため、説明を省略する。 When the above arithmetic processing is executed, a drawing list in which the decoding designation information of the first round moving image data RMD0a is set is created and transmitted to the VDP 135 in the subsequent drawing list output processing (step S806). The moving image recorder of the VDP 135 executes decoding processing of the first round moving image data RMD0a based on receiving the drawing list in which the decoding designation information is set. Since the decoding process has already been described, the description thereof will be omitted.

ラウンド動画に係る演出が実行中である場合には、ステップS3908~ステップS3910にてラウンド動画に対応した静止画像データを描画対象として設定する処理を実行する。この場合、デコードされているラウンド動画像データRMD0が第1ラウンド動画像データRMD0aである場合には、第1ラウンド動画に係る静止画像データが描画対象として設定される一方、デコードされているラウンド動画像データRMD0が第2ラウンド動画像データRMD0bである場合には、第2ラウンド動画に係る静止画像データが描画対象として設定される。なお、当該処理の具体的な構成については、既に説明した通りであるため、説明を省略する。 When an effect related to the round moving image is being executed, a process of setting still image data corresponding to the round moving image as a drawing object is executed in steps S3908 to S3910. In this case, when the decoded round moving image data RMD0 is the first round moving image data RMD0a, the still image data related to the first round moving image is set as a drawing target, while the decoded round moving image data When the image data RMD0 is the second round moving image data RMD0b, the still image data related to the second round moving image is set as the drawing target. It should be noted that the specific configuration of this process has already been described, and therefore the description thereof will be omitted.

その後、ステップS3911にて、ラウンド演出を実行することをVDP135にて特定させるためのラウンド演出指定情報を設定し、本演算処理を終了する。 Thereafter, in step S3911, round effect specifying information for specifying execution of the round effect by the VDP 135 is set, and this arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、動画用オブジェクトが描画対象として設定されるとともに、当該動画用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、動画用オブジェクトに対してマッピングされる画像データとして静止画像データのアドレスが含まれている。 When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), the moving image object is set as a drawing target, and various parameters applied to the moving image object are set. The various parameters include addresses of still image data as image data mapped to moving image objects.

一方、挿入キャラクタ画像の表示開始タイミングである場合には(ステップS3902:YES)、ステップS3912~ステップS3915にて、挿入キャラクタ画像を描画対象として設定する処理を実行する。 On the other hand, if it is time to start displaying the inserting character image (step S3902: YES), processing for setting the inserting character image as a drawing target is executed in steps S3912 to S3915.

ここで、本別形態の挿入用オブジェクトのサイズは、挿入画像データIPD0のサイズに対応させて設定されている。具体的には、挿入画像データIPD0のサイズと同一になるように挿入用オブジェクトのサイズが設定されている。つまり、本別形態においては、挿入用オブジェクトと動画用オブジェクトとは同一である。 Here, the size of the insertion object of this alternative form is set in correspondence with the size of the insertion image data IPD0. Specifically, the size of the insertion object is set to be the same as the size of the insertion image data IPD0. In other words, in this alternative form, the insertion object and the moving image object are the same.

なお、ステップS3912~ステップS3915の具体的な処理構成は既に説明した通りであるため、説明を省略する。 Since the specific processing configuration of steps S3912 to S3915 has already been described, the description will be omitted.

ステップS3912~ステップS3915の処理の実行後は、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。 After execution of the processing of steps S3912 to S3915, the round effect designation information is set in step S3911, and this calculation processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、挿入用オブジェクトが描画対象として設定されるとともに、当該挿入用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、挿入用オブジェクトに対してマッピングされる画像データとして今回のラウンド遊技に対応した挿入画像データのアドレスが含まれる。 When the above arithmetic processing is executed, in the drawing list output processing (step S806) that follows, the insertion object is set as a drawing target, and various parameters to be applied to the insertion object are set. The various parameters include addresses of insertion image data corresponding to the current round game as image data mapped to the insertion object.

ここで、挿入用オブジェクトのサイズは表示面G全体に対応したものとなっており、且つ当該挿入用オブジェクトにマッピングされる挿入画像データIPD0のサイズは表示面G全体に対応したものに設定されている。そして、本別形態における挿入画像データIPD0には、第2背景画像BP2が予め描画されている。これにより、本別形態においては、挿入画像は背景画像として機能する。すなわち、本別形態において挿入画像は、背景画像とキャラクタ画像とを合わせた1の画像であると言える。これにより、ラウンド動画が再生されない状況であっても表示面G全体に所定の画像が表示される。 Here, the size of the insertion object corresponds to the entire display surface G, and the size of the insertion image data IPD0 mapped to the insertion object is set to correspond to the entire display surface G. there is A second background image BP2 is drawn in advance in the insertion image data IPD0 in this alternative form. Thereby, in this another form, an insertion image functions as a background image. That is, it can be said that the inserting image in this another form is one image including the background image and the character image. As a result, the predetermined image is displayed on the entire display surface G even in a situation where the round moving image is not reproduced.

挿入キャラクタ画像が表示中である場合(ステップS3901:YES)、ステップS3916に進み、現状設定されているデータテーブルに基づいて第2ラウンド動画の再生開始タイミングであるか否かを判定する。第2ラウンド動画の再生開始タイミングは、挿入画像の表示開始タイミング(第1ラウンド動画の終了タイミング)から所定期間が経過したタイミングに設定されている。 If the insert character image is being displayed (step S3901: YES), the process advances to step S3916 to determine whether or not it is time to start playing the second round moving image based on the currently set data table. The reproduction start timing of the second round moving image is set to the timing when a predetermined period has passed from the display start timing of the insertion image (end timing of the first round moving image).

第2ラウンド動画の再生開始タイミングでない場合には、ステップS3917及びステップS3918にて、挿入画像の表示を維持するための処理を実行し、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。これらの処理は、既に説明した通りであるため、説明を省略する。 If it is not the playback start timing of the second round moving image, then in steps S3917 and S3918, processing for maintaining the display of the insertion image is executed, and in step S3911, the round effect designation information is set, and this arithmetic processing is performed. exit. Since these processes have already been described, the description thereof will be omitted.

一方、第2ラウンド動画の再生開始タイミングである場合には、ステップS3919及びステップS3920にて、第2ラウンド動画を再生させるための処理を実行する。具体的には、ステップS3919にて、VRAM134の展開用バッファ141において第2ラウンド動画像データRMD0bが格納されているアドレスと、当該第2ラウンド動画像データRMD0bをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。 On the other hand, if it is time to start playing the second round video, the process for playing the second round video is executed in steps S3919 and S3920. Specifically, in step S3919, the address where the second round moving image data RMD0b is stored in the development buffer 141 of the VRAM 134 and the second round moving image data RMD0b are decoded to generate still images for a plurality of frames. When the data is created, the address of the area in which the still image data is stored is grasped.

そして、ステップS3920では、第2ラウンド動画像データRMD0bのデコード指定情報を設定し、本演算処理を終了する。 Then, in step S3920, the decoding designation information for the second round moving image data RMD0b is set, and this arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第2ラウンド動画像データRMD0bのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第2ラウンド動画像データRMD0bのデコード処理を実行する。 When the above arithmetic processing is executed, a drawing list in which the decoding designation information of the second round moving image data RMD0b is set is created and transmitted to the VDP 135 in the subsequent drawing list output processing (step S806). The moving image recorder of the VDP 135 executes decoding processing of the second round moving image data RMD0b based on receiving the drawing list in which the decoding designation information is set.

かかる処理によれば、第1ラウンド動画又は第2ラウンド動画の再生中である場合には、動画用オブジェクトが描画対象として設定された描画リストが作成される一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中は、挿入用オブジェクトが描画対象として設定された描画リストが作成される。この場合、1の描画リストに、動画用オブジェクトと挿入用オブジェクトとの双方が設定されないようになっている。 According to this process, when the first-round moving image or the second-round moving image is being reproduced, a drawing list in which the moving-image object is set as a drawing target is created. During the period between the start timing of the second round moving image, a drawing list is created in which the insertion object is set as a drawing target. In this case, both moving-image objects and insertion objects are not set in one drawing list.

ちなみに、ステップS3919及びステップS3920の処理を実行した処理回に対して次の処理回以降は、ステップS3908~ステップS3911の処理が実行される。これにより、第2ラウンド動画に係る静止画像データが動画用オブジェクトに対してマッピングされる画像データとして設定されることとなる。 By the way, the processing of steps S3908 to S3911 is executed after the next processing cycle after the processing of steps S3919 and S3920. As a result, the still image data related to the second round moving image is set as the image data mapped to the moving image object.

以上説明した通り、ラウンド演出用の演算処理では、1処理回毎に今回の描画対象が設定される。これにより、1処理回毎に描画リストが設定され、VDP135では1処理回毎に画像が更新されるように描画処理が実行される。つまり、1フレーム毎に画像の更新が行われ、ラウンド動画が再生される期間に亘って、フレームレートは同一に設定されている。 As described above, in the arithmetic processing for the round effect, the current drawing target is set for each processing. As a result, the drawing list is set for each processing, and the VDP 135 executes the drawing processing so that the image is updated for each processing. That is, the image is updated for each frame, and the frame rate is set to be the same throughout the period during which the round moving image is reproduced.

次に、本別形態におけるラウンド演出用の設定処理について図67(a)のフローチャートを用いて説明する。本別形態におけるラウンド演出用の設定処理は、受信した描画リストにラウンド演出指定情報が設定されている場合には、起動するよう構成されている。 Next, the setting processing for the round effect in this another form will be described using the flowchart of FIG. 67(a). The setting process for the round effect in this another form is configured to be started when the round effect specifying information is set in the received drawing list.

先ず、ステップS4001では、描画対象となるオブジェクトを把握する。具体的には、第1ラウンド動画又は第2ラウンド動画が再生中である場合には、動画用オブジェクトが把握される。一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中である場合には、挿入用オブジェクトが把握される。 First, in step S4001, an object to be rendered is grasped. Specifically, when the first round animation or the second round animation is being played, the animation object is grasped. On the other hand, during the period between the end timing of the first round moving image and the start timing of the second round moving image, the insertion object is grasped.

その後、ステップS4002にて、描画リストに基づいて、描画対象のオブジェクトに適用されるパラメータを把握する。その後、ステップS4003にて、上記ステップS4001にて把握された動画用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 After that, in step S4002, parameters to be applied to the drawing target object are grasped based on the drawing list. After that, in step S4003, the moving image object recognized in step S4001 is set to the world coordinate system, and this setting process ends.

次に、本別形態のラウンド演出用マッピング処理を図67(b)のフローチャートを用いて説明する。 Next, the mapping process for round effect of this another form is demonstrated using the flowchart of FIG.67(b).

先ず、ステップS4101では、描画対象となるオブジェクトに対して適用されるパラメータのうち、マッピングする画像データ(テクスチャ)のアドレスを把握する。この場合、描画リストに動画用オブジェクトが設定されている場合には、フレーム番号に対応した静止画像データのアドレスを把握する一方、描画リストに挿入用オブジェクトが設定されている場合には、今回のラウンド遊技に対応した挿入画像データIPD0のアドレスを把握する。 First, in step S4101, the address of the image data (texture) to be mapped is grasped among the parameters applied to the object to be rendered. In this case, if the object for animation is set in the drawing list, the address of the still image data corresponding to the frame number is grasped, and if the object for insertion is set in the drawing list, this The address of the insertion image data IPD0 corresponding to the round game is grasped.

続くステップS4102では、上記ステップS4101にて把握されたアドレスに基づいて、マッピングする画像データ(テクスチャ)を把握する。そして、ステップS4103では、描画対象となるオブジェクトに対して上記ステップS4102にて把握された画像データをマッピングして、本マッピング処理を終了する。 In subsequent step S4102, image data (texture) to be mapped is grasped based on the address grasped in step S4101. Then, in step S4103, the image data obtained in step S4102 is mapped onto the object to be rendered, and this mapping process ends.

次に、本別形態におけるラウンド演出の実行態様を図68のタイムチャートを用いて説明する。図68(a)は第1ラウンド動画の再生期間を示すタイムチャート、図68(b)は挿入画像の表示期間を示すタイムチャート、図68(c)は第2ラウンド動画の再生期間を示すタイムチャートである。 Next, the execution mode of the round effect in this another form will be described with reference to the time chart of FIG. 68 . FIG. 68(a) is a time chart showing the playback period of the first round movie, FIG. 68(b) is a time chart showing the display period of the inserted image, and FIG. 68(c) is a time chart showing the playback period of the second round movie. Chart.

先ず、図68(a)に示すように、ラウンド遊技の開始タイミングであるt11のタイミングにて、表示面Gにて第1ラウンド動画の再生が開始される。そして、t12のタイミングにて第1ラウンド動画が終了すると、図68(a)及び図68(b)に示すように、表示面Gには、第1ラウンド動画に代えて挿入画像データIPD0に係る挿入画像が表示される。詳細には、第2背景画像BP2に重なるようにして、第1挿入キャラクタ画像IP1又は第2挿入キャラクタ画像IP2が表示される。 First, as shown in FIG. 68(a), the reproduction of the first round animation is started on the display screen G at the timing t11, which is the start timing of the round game. Then, when the first round moving image ends at the timing of t12, as shown in FIGS. 68(a) and 68(b), the display screen G displays the insertion image data IPD0 instead of the first round moving image. An inset image is displayed. Specifically, the first inserted character image IP1 or the second inserted character image IP2 is displayed so as to overlap the second background image BP2.

その後、図68(b)及び図68(c)に示すように、t13のタイミングにて挿入画像に代えて第2ラウンド動画が開始され、t14のタイミングにて当該第2ラウンド動画が終了する。これにより、表示面Gにて、第1ラウンド動画→挿入画像→第2ラウンド動画の順に画像が表示される1連のラウンド演出が行われることとなる。 Thereafter, as shown in FIGS. 68(b) and 68(c), the second round moving image is started instead of the insert image at timing t13, and the second round moving image ends at timing t14. As a result, on the display surface G, a series of round effects is performed in which the images are displayed in the order of the first round moving image, the inserted image, and the second round moving image.

そして、次のラウンド遊技の開始タイミングであるt15のタイミングにて、再度第1ラウンド動画から順次再生される。 Then, at the timing of t15, which is the start timing of the next round game, the first round animation is again sequentially reproduced.

以上詳述した本実施の形態によれば、1連のラウンド動画に係るラウンド動画像データRMD0を、ラウンド動画中の動きの激しさに応じて複数の単位データ(第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0b)に分割した。そして、各ラウンド動画像データRMD0a,RMD0b毎にビットレートを調整することにより、ラウンド動画像データRMD0を予め定められたデータ量に設定しつつ、効率的な画質調整を行うことができる。 According to the present embodiment described in detail above, the round moving image data RMD0 related to a series of round moving images is divided into a plurality of unit data (first round moving image data RMD0a and Second round moving image data RMD0b). By adjusting the bit rate for each of the round moving image data RMD0a and RMD0b, efficient image quality adjustment can be performed while setting the round moving image data RMD0 to a predetermined data amount.

詳細には、第1ラウンド動画中の動きが比較的激しいことに起因して差分データが比較的大きくなり易いことが想定される第1ラウンド動画像データRMD0aに対しては、比較的高いビットレートでエンコード処理を行うことにより、第1ラウンド動画の画質を維持することができる。一方、第2ラウンド動画中の動きが比較的穏やかであることに起因して差分データが比較的小さくなり易いことが想定される第2ラウンド動画像データRMD0bに対しては、比較的低いビットレートでエンコード処理を行うことにより、画質を維持しつつ、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。 Specifically, a relatively high bit rate is applied to the first round moving image data RMD0a, for which it is assumed that the difference data tends to be relatively large due to relatively rapid motion in the first round moving image. By performing the encoding process in , the image quality of the first round moving image can be maintained. On the other hand, for the second round moving image data RMD0b, for which it is assumed that the difference data tends to be relatively small due to relatively gentle motion in the second round moving image, a relatively low bit rate By performing the encoding process in , it is possible to reduce the data amount of the second round moving image data RMD0b while maintaining the image quality.

特に、ラウンド動画像データRMD0のデータ量を抑える点に着目すれば、ラウンド動画のフレームレート、具体的には画像の更新タイミングを抑制することも考えられる。しかしながら、フレームレートを変更する構成とすると、現状のフレームレートを把握するための処理等のフレームレートを変更するための処理が別途必要なり、処理負荷の増大化及び上記処理に係るプログラム容量の増大化が懸念される。 In particular, focusing on reducing the data amount of the round moving image data RMD0, it is conceivable to reduce the frame rate of the round moving image, specifically, the update timing of the image. However, if the frame rate is changed, processing for changing the frame rate such as processing for grasping the current frame rate is required separately, increasing the processing load and increasing the program capacity related to the above processing. There is concern that the

これに対して、本別形態によれば、上記フレームレートの変更に係る処理を実行することなく、ラウンド動画像データRMD0のデータ量を抑制することができる。すなわち、データ量の削減を、処理により補償する構成ではなく圧縮態様で実現している。これにより、パチンコ機10に係る処理負荷の増大化を抑制しつつ、ラウンド動画像データRMD0のデータ量の削減を図ることができる。 On the other hand, according to this another embodiment, it is possible to suppress the data amount of the round moving image data RMD0 without executing the processing related to the change of the frame rate. In other words, the reduction of the data amount is realized by the compression mode instead of the configuration for compensating by processing. As a result, it is possible to reduce the data amount of the round moving image data RMD0 while suppressing an increase in the processing load on the pachinko machine 10 .

また、エンコード処理が行われた動画像データのデータ量は、差分データのデータ量に関わらずビットレートに依存する。つまり、エンコーダは、差分データのデータ量に関わらず動画像データのデータとしてビットレートに対応したデータ量を確保することとなる。この場合、差分データが小さくなり易いことが想定される動画に対して比較的高いビットレートでエンコード処理を行った場合、実際には何もデータが格納されていない無駄なデータ量を確保することとなり、データ量の無駄が発生する。これに対して、本別形態によれば、上記無駄なデータの発生を抑制することができるため、データ量の削減を図ることができる。 Also, the amount of moving image data that has undergone encoding processing depends on the bit rate regardless of the amount of difference data. In other words, the encoder secures a data amount corresponding to the bit rate as moving image data regardless of the data amount of difference data. In this case, if a moving image whose difference data is expected to be easily reduced is encoded at a relatively high bit rate, a useless amount of data in which no data is actually stored is secured. As a result, the amount of data is wasted. On the other hand, according to this another form, since generation|occurrence|production of the said useless data can be suppressed, reduction of data amount can be aimed at.

また、第1ラウンド動画と第2ラウンド動画との間に挿入画像を表示させ、当該挿入画像を、現在のラウンド演出に係るラウンドに応じて異ならせる構成とした。これにより、1のラウンド動画像データRMD0を用いて、複数態様のラウンド演出を行うことができる。よって、複数態様のラウンド演出を好適に行いつつ、データ量の削減を図ることができる。 Also, an insert image is displayed between the first round animation and the second round animation, and the insert image is changed according to the round related to the current round effect. As a result, using one piece of round moving image data RMD0, it is possible to perform a plurality of types of round effects. Therefore, it is possible to reduce the amount of data while favorably performing a round effect in a plurality of modes.

さらに、第1ラウンド動画像データRMD0aをデコードするタイミングと、第2ラウンド動画像データRMD0bをデコードするタイミングとが異なるため、ラウンド動画を再生するためのデコードに係る処理負荷が分散されている。これにより、局所的な処理負荷の増大に起因する処理落ちの発生を抑制することができる。 Furthermore, since the timing for decoding the first round moving image data RMD0a and the timing for decoding the second round moving image data RMD0b are different, the processing load related to the decoding for reproducing the round moving image is distributed. As a result, it is possible to suppress the occurrence of processing dropouts due to a local increase in processing load.

なお、本別形態では、ラウンド動画中において場面が切り換わることにより、動きの激しさや複雑さが異なる構成としたが、これに限られず、場面の切り換わりと、動きの激しさ等とが、同期しない構成としてもよい。この場合、場面の切り換わり毎に動画像データを分割する構成としてもよい。これにより、各場面毎に複数の単位動画像データを用意し、これら単位動画像データを組み合わせることにより、一連のラウンド動画の多様化を図ることができる。また、組み合わせ毎に一連の動画像データを用意する構成と比較して、動画像データに係るデータ量の削減を図ることができる。但し、ビットレートの割り当てを好適に行うことができる観点に着目すれば、動きの激しさ等を基準にラウンド動画像データRMD0を分割する構成の方が好ましい。 In addition, in this another form, the scene changes in the round animation, and the intensity and complexity of the movement are different, but it is not limited to this. , may not be synchronized. In this case, the moving image data may be divided at each scene change. Thus, by preparing a plurality of unit moving image data for each scene and combining these unit moving image data, it is possible to diversify a series of round moving images. Also, compared to a configuration in which a series of moving image data is prepared for each combination, it is possible to reduce the amount of data related to moving image data. However, from the viewpoint of being able to appropriately allocate bit rates, it is preferable to divide the round moving image data RMD0 based on the degree of movement or the like.

また、1のラウンド動画を2つの動画像データに分割したが、これに限られず、3つ以上の動画像データに分割する構成としてもよい。但し、動画像データの特性上、1の動画像データ中に、差分データの基準となる規準データが設けられている必要がある。当該基準データは、圧縮対象とはならない又は圧縮するとしても圧縮率が差分データと比較して小さい。このため、ラウンド動画像データRMD0全体のデータ量が却って増大化するおそれがある。よって、1のラウンド動画像データRMD0を複数の動画像データに分割することに起因する基準データの増加と、ビットレートとの調整によるラウンド動画像データRMD0全体のデータ量の削減と、の関係を考慮して、動画像データの分割態様を決定するとよい。具体的には、分割によって生じ得る基準データの増加に起因するデータ量の増加量が、分割した動画像データのビットレート調整により確保可能なデータ量の削減量よりも小さい場合には、動画像データを分割し、上記増加量が上記削減量よりも大きい場合には、分割することなく1の動画像データとして扱うとよい。 Moreover, although one round moving image is divided into two pieces of moving image data, it is not limited to this, and may be divided into three or more pieces of moving image data. However, due to the characteristics of moving image data, reference data that serves as a reference for difference data must be provided in one piece of moving image data. The reference data is not subject to compression, or even if it is compressed, the compression rate is smaller than that of the difference data. Therefore, there is a possibility that the data amount of the entire round moving image data RMD0 may rather increase. Therefore, the relationship between the increase in reference data resulting from dividing one piece of round moving image data RMD0 into a plurality of pieces of moving image data and the reduction in the data amount of the entire round moving image data RMD0 by adjusting the bit rate is Considering this, it is preferable to determine the division mode of the moving image data. Specifically, if the increase in the amount of data due to the increase in the reference data that can be caused by division is smaller than the amount of reduction in the amount of data that can be secured by adjusting the bit rate of the divided moving image data, the moving image When the data is divided and the amount of increase is larger than the amount of reduction, it is preferable to treat the data as one piece of moving image data without dividing.

また、各ラウンド動画像データRMD0a,RMD0bは基準データのデータ量が同一であると仮定したが、これに限られず、異なる構成であってもよい。また、各ラウンド動画像データRMD0a,RMD0bにより再生される各ラウンド動画の再生時間は同一と仮定したが、これに限られず、異なる構成であってもよい。これらの場合であっても、各ラウンド動画像データRMD0a,RMD0bに係るビットレートを調整することにより、ラウンド動画像データRMD0全体のデータ量を好適に調整することができる。 In addition, although it is assumed that the round moving image data RMD0a and RMD0b have the same amount of reference data, the present invention is not limited to this and may have different configurations. Also, it is assumed that the round moving image data reproduced by the round moving image data RMD0a and RMD0b have the same reproduction time, but the present invention is not limited to this, and different configurations may be used. Even in these cases, by adjusting the bit rate of each round moving image data RMD0a and RMD0b, the data amount of the whole round moving image data RMD0 can be preferably adjusted.

また、第1ラウンド動画と第2ラウンド動画との間に所定の期間を設ける構成としたが、これに限られず、例えば第1ラウンド動画と第2ラウンド動画とを連続して表示させる構成としてもよい。この場合、挿入画像を表示しない構成としてもよく、第1ラウンド動画中、第2ラウンド動画中、又は各ラウンド動画に跨って挿入画像を表示する構成としてもよい。 In addition, although a predetermined period is provided between the first round video and the second round video, the present invention is not limited to this. For example, the first round video and the second round video may be displayed continuously. good. In this case, the insert image may not be displayed, or the insert image may be displayed during the first round moving image, during the second round moving image, or across each round moving image.

<砂浜背景画像を表示するための構成及び砂浜疾走演出を行うための構成>
次に、砂浜背景を表示するための構成及び砂浜疾走演出を行うための構成について説明する。
<Configuration for Displaying Sandy Beach Background Image and Configuration for Performing Sandy Beach Running Production>
Next, the configuration for displaying the sandy beach background and the configuration for performing the sandy beach sprint effect will be described.

砂浜背景画像は、砂浜から海を見た場合の画像であり、所定の周期で波が砂浜に打ち寄せられている様子を示す画像である。砂浜背景画像は、図柄の変動表示が行われる場合の背景画像として用いられる。 The sand beach background image is an image when the sea is viewed from the sand beach, and is an image showing waves crashing against the sand beach at a predetermined cycle. The sandy beach background image is used as a background image when symbols are displayed in a variable manner.

砂浜疾走演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。詳細には、砂浜疾走演出は、開閉実行モードに移行する場合に実行される演出抽選処理にて当該砂浜疾走演出を行うことに当選した場合に実行される演出である。 The sandy beach sprinting effect is a effect that can be executed when a round game is being performed in the opening/closing execution mode. Specifically, the sandy beach run effect is an effect executed when the sandy beach run effect is won in the effect lottery process executed when shifting to the opening/closing execution mode.

砂浜疾走演出は、複数の図柄画像が砂浜を疾走する演出である。当該演出では、砂浜背景画像に描かれた風景を別の角度、詳細には当該風景をローアングルから見た場合の画像が背景画像として用いられる。 The sandy beach sprinting production is a production in which a plurality of pattern images sprints on the sandy beach. In this production, the scenery depicted in the sandy beach background image is used as the background image when viewed from another angle, more specifically, from a low angle.

ここで、本パチンコ機10には、投影パターンとして透視投影と平行投影とが設定されており、表示する画像の内容に応じてこれらの投影パターンを使い分けている。透視投影とは、ワールド座標系に配置された各オブジェクトを所定の視点から見た状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点が所定の視点に向けて直線的に移動するように投影することをいう。これにより、視点からの距離に応じて各オブジェクトに係る画像は変化するように表示される。 Here, in the pachinko machine 10, perspective projection and parallel projection are set as projection patterns, and these projection patterns are selectively used according to the content of the image to be displayed. Perspective projection refers to projecting each object placed in the world coordinate system as viewed from a predetermined viewpoint. It means to project as if moving. As a result, the image of each object is displayed so as to change according to the distance from the viewpoint.

これに対して、平行投影は、各オブジェクトをスクリーン領域PC12から見たそのままの状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に移動するように投影することをいう。これにより、所定の視点からの距離に関わらず、各オブジェクトの各画像は常に一定の大きさで表示される。これらの投影パターンの使い分けについては後述する。 In parallel projection, each object is projected as it is viewed from the screen area PC12. Specifically, the vertices of each polygon of each object move perpendicularly to the screen area PC12. It means to project as As a result, each image of each object is always displayed in a fixed size regardless of the distance from the predetermined viewpoint. Proper use of these projection patterns will be described later.

砂浜背景画像の表示に際しては、複数のオブジェクトと、当該各オブジェクトそれぞれに対応させて設定された複数のテクスチャが用いられる。 When displaying the sandy beach background image, a plurality of objects and a plurality of textures set corresponding to each of the objects are used.

砂浜背景画像の表示に用いられる複数のオブジェクトについて図69を用いて説明する。図69は各オブジェクトOB1~OB4を説明するための説明図である。 A plurality of objects used for displaying the beach background image will be described with reference to FIG. FIG. 69 is an explanatory diagram for explaining each of the objects OB1 to OB4.

なお、以降の説明において、特に断りがない限り、ワールド座標系を基準として説明し、視点は+Z方向を向いているとする。 In the following description, unless otherwise specified, the world coordinate system will be used as a reference, and the viewpoint will be in the +Z direction.

図69(a)に示すように、砂浜背景画像の表示に係るオブジェクトとして、砂浜を表示にするのに用いられる砂浜オブジェクトOB1、波を表示するのに用いられる波オブジェクトOB2、海を表示するのに用いられる海オブジェクトOB3及び空を表示するのに用いられる空オブジェクトOB4が設定されている。各オブジェクトOB1~OB4は矩形の板ポリゴンで構成されており、その長手方向のサイズはスクリーン領域PC12の長手方向のサイズよりも大きく設定されている。 As shown in FIG. 69(a), as objects related to the display of the sandy beach background image, a sandy beach object OB1 used to display the sandy beach, a wave object OB2 used to display waves, and an object to display the sea. A sea object OB3 used to display the sky and a sky object OB4 used to display the sky are set. Each of the objects OB1 to OB4 is composed of a rectangular plate polygon, and its longitudinal size is set larger than the longitudinal size of the screen area PC12.

各オブジェクトOB1~OB4は、特定視点PV1から透視投影された場合に、砂浜から見た海の映像となるように配置される。具体的には、ワールド座標系における特定視点PV1から見て奥行き方向(+Z方向)に向かって、砂浜オブジェクトOB1、波オブジェクトOB2、海オブジェクトOB3、空オブジェクトOB4の順番に配置されるように各オブジェクトOB1~OB4の座標が設定されている。 Each of the objects OB1 to OB4 is arranged so as to form an image of the sea seen from the sandy beach when perspectively projected from the specific viewpoint PV1. Specifically, the objects are arranged in the order of the beach object OB1, the wave object OB2, the sea object OB3, and the sky object OB4 in the depth direction (+Z direction) when viewed from the specific viewpoint PV1 in the world coordinate system. Coordinates of OB1 to OB4 are set.

また、図69(b)に示すように、砂浜オブジェクトOB1、波オブジェクトOB2及び海オブジェクトOB3はスクリーン領域PC12(投影平面)に対して傾斜して配置されている。これにより、特定視点PV1から透視投影した場合に、各オブジェクトOB1~OB3により表示される個別画像毎に遠近感(奥行き感)を付与することができる。 Further, as shown in FIG. 69(b), the beach object OB1, the wave object OB2 and the sea object OB3 are arranged to be inclined with respect to the screen area PC12 (projection plane). This makes it possible to give a sense of perspective (a sense of depth) to each individual image displayed by each of the objects OB1 to OB3 when perspectively projected from the specific viewpoint PV1.

また、隣接するオブジェクトの一部がオーバーラップして重なり合うように配置されており、各オブジェクトOB1~OB3が連続している。具体的には、波オブジェクトOB2の手前側の端部が砂浜オブジェクトOB1の奥側の端部の上に重なっており、海オブジェクトOB3の手前側の端部が波オブジェクトOB2の奥側の端部の上に重なっている。この場合、波オブジェクトOB2は、砂浜オブジェクトOB1及び海オブジェクトOB3に対してオーバーラップしているため、波オブジェクトOB2が傾斜方向に移動しても各オブジェクトOB1~OB3間の連続性は確保されている。 In addition, adjacent objects are partially overlapped and arranged so that the objects OB1 to OB3 are continuous. Specifically, the front end of the wave object OB2 overlaps the rear end of the beach object OB1, and the front end of the sea object OB3 is the rear end of the wave object OB2. is overlaid on the In this case, since the wave object OB2 overlaps the beach object OB1 and the sea object OB3, the continuity among the objects OB1 to OB3 is ensured even if the wave object OB2 moves in the direction of inclination. .

なお、空オブジェクトOB4は、海オブジェクトOB3の奥側の端部から連続するように配置されている。当該空オブジェクトOB4は+Y方向に起立して配置されている。 Note that the sky object OB4 is arranged so as to be continuous from the far side end of the sea object OB3. The sky object OB4 is arranged standing up in the +Y direction.

各オブジェクトOB1~OB4に対応させて、複数のテクスチャTD1~TD4が設けられている。これら各テクスチャTD1~TD4について図70を用いて説明する。図70は、各テクスチャTD1~TD4を説明するための説明図である。なお、図面の関係上、各テクスチャTD1~TD4のうち一部を示す。また、2点鎖線は投影領域を示す。 A plurality of textures TD1 to TD4 are provided corresponding to the respective objects OB1 to OB4. Each of these textures TD1 to TD4 will be explained using FIG. FIG. 70 is an explanatory diagram for explaining each texture TD1 to TD4. Note that only a portion of each of the textures TD1 to TD4 is shown for reasons of drawing. A two-dot chain line indicates a projection area.

図70に示すように、各テクスチャTD1~TD4は、各オブジェクトOB1~OB4に対応させて矩形の画像データとして設定されている。各テクスチャTD1~TD4には、それぞれ貼り付けられるオブジェクトに対応した画像が描かれており、具体的には、砂浜オブジェクトOB1に対応するテクスチャとして砂浜が描かれた砂浜テクスチャTD1が設けられており、波オブジェクトOB2に対応するテクスチャとして波が描かれた波テクスチャTD2が設けられており、海オブジェクトOB3に対応するテクスチャとして海が描かれた海テクスチャTD3が設けられており、空オブジェクトOB4に対応するテクスチャとして空が描かれた空テクスチャTD4が設けられている。 As shown in FIG. 70, textures TD1 to TD4 are set as rectangular image data corresponding to objects OB1 to OB4. Each of the textures TD1 to TD4 has an image corresponding to the object to be pasted. Specifically, a sandy beach texture TD1 depicting a sandy beach is provided as a texture corresponding to the sandy beach object OB1. A wave texture TD2 depicting waves is provided as a texture corresponding to the wave object OB2, a sea texture TD3 depicting the sea is provided as a texture corresponding to the sea object OB3, and a texture corresponding to the sky object OB4. A sky texture TD4 in which the sky is drawn is provided as a texture.

ここで、各テクスチャTD1~TD4は、特定視点PV1から各オブジェクトOB1~OB3を見た場合に奥行き感のある砂浜背景画像となるように設定されている。具体的には、特定視点PV1から実際に見た場合の映像に対応したものであって、全体として所定のパースペクティブが掛かった(遠近感が生じる)画像データが各テクスチャTD1~TD4として設定されている。この場合、各テクスチャTD1~TD4は、各オブジェクトOB1~OB4により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、特定視点PV1と各オブジェクトOB1~OB4との距離に対応させて設定されている。これにより、各オブジェクトOB1~OB4が連続して配置されている状況において特定視点PV1から各オブジェクトOB1~OB4を透視投影した場合に、パースペクティブの整合性が取れた奥行き感のある砂浜背景画像が生成されることとなる。 Here, each of the textures TD1 to TD4 is set so that when each of the objects OB1 to OB3 is viewed from the specific viewpoint PV1, the sandy beach background image has a sense of depth. Specifically, image data corresponding to the video when actually viewed from the specific viewpoint PV1 and having a predetermined perspective as a whole (producing a sense of perspective) are set as the respective textures TD1 to TD4. there is In this case, the textures TD1 to TD4 are made to correspond to the distances between the specific viewpoint PV1 and the objects OB1 to OB4 so that the individual images displayed by the objects OB1 to OB4 match in perspective. is set. As a result, when the objects OB1 to OB4 are perspectively projected from the specific viewpoint PV1 in a situation where the objects OB1 to OB4 are arranged in succession, a sandy beach background image with a sense of depth and consistent perspective is generated. It will be done.

以上の通り、各オブジェクトOB1~OB4を連続させながらスクリーン領域PC12(YZ平面)に対して傾けて配置するとともに、当該各オブジェクトOB1~OB4に対して貼り付ける各テクスチャTD1~TD4として、特定視点PV1から見た映像に対応したものであって、全体として所定のパースペクティブが掛かるように各個別画像間のパースペクティブの整合性を取った画像データを用いることにより、板ポリゴンを用いて奥行き感のある砂浜背景画像を作成することができる。これにより、比較的少ない処理負荷及びデータ量で、現実感のある画像を遊技者に対して視認させることができる。 As described above, the objects OB1 to OB4 are continuously arranged while being inclined with respect to the screen area PC12 (YZ plane), and the textures TD1 to TD4 to be pasted on the objects OB1 to OB4 are the specific viewpoint PV1. It corresponds to the image viewed from above, and by using image data that takes perspective consistency between each individual image so that a predetermined perspective is applied as a whole, a sandy beach with a sense of depth is created using plate polygons. Background images can be created. As a result, a realistic image can be visually recognized by the player with a relatively small processing load and data amount.

ちなみに、各個別画像に係るパースペクティブは、各テクスチャTD1~TD4の画像データよりも、特定視点PV1及び各オブジェクトOB1~OB4間の距離の方が支配的になっている。つまり、各個別画像に係るパースペクティブは、上記距離の変化に対して大きく変化する。 Incidentally, in the perspective of each individual image, the distance between the specific viewpoint PV1 and each object OB1 to OB4 is more dominant than the image data of each texture TD1 to TD4. In other words, the perspective of each individual image changes greatly with the change in distance.

次に、砂浜疾走演出について説明する。 Next, the sandy beach sprinting effect will be described.

砂浜疾走演出とは、連続する複数フレームに亘って、複数の図柄画像が所定の方向に向けて砂浜を走っているように表示される演出である。この演出では、砂浜背景画像を表示するのに用いた各オブジェクトOB1~OB4及び各テクスチャTD1~TD4が用いられる。 The sandy beach sprinting effect is an effect in which a plurality of pattern images are displayed over a plurality of consecutive frames as if they are running on the sandy beach in a predetermined direction. In this rendering, each of the objects OB1 to OB4 and each of the textures TD1 to TD4 used to display the sandy beach background image are used.

ここで、砂浜疾走演出で用いられる背景画像(以降、砂浜背景画像と区別するために演出用背景画像という)は、砂浜背景画像とは視点が異なっている。このため、特定視点PV1に基づいて決定された各テクスチャTD1~TD4を用いると、パースペクティブの整合性が取れなくなり、違和感のある画像となってしまう。 Here, the background image used in the sandy beach sprinting effect (hereinafter referred to as the background image for effect in order to distinguish from the sandy beach background image) has a different viewpoint from the sandy beach background image. Therefore, if the textures TD1 to TD4 determined based on the specific viewpoint PV1 are used, the consistency of the perspective cannot be obtained, resulting in an image with a sense of incompatibility.

当該現象について図71を用いて説明する。図71は、パースペクティブの変化を説明するための説明図である。なお、説明の便宜上、波オブジェクトOB2及び空オブジェクトOB4を省略し、砂浜オブジェクトOB1及び海オブジェクトOB3を連続させたもので説明する。 This phenomenon will be described with reference to FIG. FIG. 71 is an explanatory diagram for explaining changes in perspective. For convenience of explanation, the wave object OB2 and the sky object OB4 are omitted, and the sandy beach object OB1 and the sea object OB3 are continued.

既に説明した通り、砂浜オブジェクトOB1及び海オブジェクトOB3はスクリーン領域PC12に対して傾斜しているため、特定視点PV1及び各オブジェクトOB1,OB3間の距離は、各オブジェクトOB1,OB3の部位に応じて異なっている。具体的には、特定視点PV1から砂浜オブジェクトOB1の手前側の端部までの距離R1、特定視点PV1から海オブジェクトOB3の手前側の端部までの距離R2、特定視点PV1から海オブジェクトOB3の奥側の端部までの距離R3、の順に大きくなっている(R1<R2<R3)。かかる状況において、特定視点PV1を視点として透視投影を行うことにより、各距離R1~R3に応じたパースペクティブが掛かった画像が得られる。 As already explained, since the beach object OB1 and the sea object OB3 are inclined with respect to the screen area PC12, the distances between the specific viewpoint PV1 and the objects OB1 and OB3 differ depending on the parts of the objects OB1 and OB3. ing. Specifically, the distance R1 from the specific viewpoint PV1 to the front end of the beach object OB1, the distance R2 from the specific viewpoint PV1 to the front end of the sea object OB3, and the depth of the sea object OB3 from the specific viewpoint PV1. The distance R3 to the end of the side is increased in order (R1<R2<R3). In such a situation, by performing perspective projection using the specific viewpoint PV1 as a viewpoint, an image with a perspective corresponding to each of the distances R1 to R3 can be obtained.

この場合、パースペクティブの掛かり具合は各距離R1~R3の比率に依存している。具体的には、距離R1に対する距離R2の比率が高いほど砂浜オブジェクトOB1のパースペクティブはより掛かる。そして、距離R2に対する距離R3の比率が高いほど海オブジェクトOB3のパースペクティブはより掛かる。 In this case, the depth of perspective depends on the ratio of the distances R1 to R3. Specifically, the higher the ratio of the distance R2 to the distance R1, the greater the perspective of the beach object OB1. Then, the higher the ratio of the distance R3 to the distance R2, the more the perspective of the sea object OB3.

また、砂浜オブジェクトOB1及び海オブジェクトOB3に対して貼り付けられる各テクスチャTD1、TD3は、各オブジェクトOB1,OB3(実際には波オブジェクトOB2も含む)により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、上記比率を考慮して設定されている。これにより、パースペクティブの整合性が取れた画像を表示させることが可能となっている。 Further, the textures TD1 and TD3 pasted on the beach object OB1 and the sea object OB3 provide perspective between individual images displayed by the objects OB1 and OB3 (actually including the wave object OB2). ) are set in consideration of the above ratio. This makes it possible to display an image with consistent perspective.

ここで、視点を特定視点PV1から-Y方向に移動させて別視点PV2に設定した場合、各距離R1~R3がそれぞれ距離R1’~R3’に変化し、上記比率が変化する。これにより、透視投影した場合のパースペクティブの掛かり具合が異なることとなる。すると、距離R1~R3に合わせて設定された各テクスチャTD1,TD3を用いると、各オブジェクトOB1,OB3間におけるパースペクティブの整合性が取れなくなる。これにより、全体として違和感のある画像となる。 Here, when the viewpoint is moved from the specific viewpoint PV1 in the -Y direction and set to another viewpoint PV2, the distances R1 to R3 change to the distances R1' to R3', respectively, and the above ratio changes. As a result, the degree to which the perspective is applied differs when perspective projection is performed. Then, if the textures TD1 and TD3 set according to the distances R1 to R3 are used, the perspective consistency between the objects OB1 and OB3 cannot be obtained. As a result, an image with a sense of incompatibility as a whole is obtained.

特に、各オブジェクトOB1,OB3を所定の方向に移動させて画像の更新を行う場合には、各オブジェクトOB1,OB3に係る画像のパースペクティブが異なることに起因する違和感が目立ち易い。具体的には、奥側に表示されている海が、手前側に表示されている砂浜よりも速く移動したりする。 In particular, when the images are updated by moving the objects OB1 and OB3 in a predetermined direction, a sense of incongruity due to the different perspectives of the images of the objects OB1 and OB3 is easily noticeable. Specifically, the sea displayed on the far side moves faster than the beach displayed on the near side.

また、視点から画角を変更すると、パースペクティブの掛かり具合が異なることとなるため、上記パースペクティブのずれが目立ち易くなる。 In addition, when the angle of view is changed from the viewpoint, the perspective becomes different, so the deviation of the perspective becomes more noticeable.

これに対して、本実施の形態では、演出用背景画像を作成する場合には、透視投影に代えて平行投影を行う構成とし、さらに奥行き方向の距離に応じて各オブジェクトOB1,OB3のサイズを調整する構成とした。これらの構成について図72を用いて説明する。図72は、演出用背景画像を作成する場合の各オブジェクトOB1,OB3の設定態様を説明するための説明図である。 On the other hand, in the present embodiment, parallel projection is used instead of perspective projection when creating a background image for effect, and the size of each of the objects OB1 and OB3 is adjusted according to the distance in the depth direction. It is configured to be adjusted. These configurations will be described with reference to FIG. FIG. 72 is an explanatory diagram for explaining how the objects OB1 and OB3 are set when creating a background image for effect.

平行投影とは、既に説明した通り、各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に直線的に移動するように投影する手法である。当該平行投影を行う場合、視点からの距離に依存しない画像、すなわち遠近感がない画像が表示される。 Parallel projection, as already explained, is a method of projecting so that the vertices of each polygon of each object move linearly and perpendicularly to the screen area PC12. When performing the parallel projection, an image that does not depend on the distance from the viewpoint is displayed, that is, an image without perspective.

具体的には、砂浜オブジェクトOB1及び海オブジェクトOB3を平行投影すると、スクリーン領域PC12には、海オブジェクトOB3が砂浜オブジェクトOB1よりも奥側にあるのにも関わらず、両者が視点からの距離に対応したサイズ調整がなされることなく表示される。これにより、両者の間に生じ得るパースペクティブのずれが軽減されることとなる。 Specifically, when the beach object OB1 and the sea object OB3 are projected in parallel, both of them correspond to the distance from the viewpoint on the screen area PC12, even though the sea object OB3 is on the far side of the beach object OB1. displayed without any resizing. This reduces the perspective shift that may occur between the two.

特に、各個別画像に係るパースペクティブは、各テクスチャTD1,TD3に係るパースペクティブよりも、視点及び各オブジェクトOB1,OB3間の距離に基づくパースペクティブの方が支配的となっているため、上記距離の変化に基づくパースペクティブのずれは目立ち易い。 In particular, the perspective of each individual image is more dominant than the perspective of each texture TD1, TD3, and the perspective based on the viewpoint and the distance between the objects OB1 and OB3 is dominant. Based perspective deviations are noticeable.

これに対して、平行投影を行うことにより、上記距離に基づくパースペクティブ自体が付加されないため、パースペクティブのずれを軽減することが可能となる。 On the other hand, by performing parallel projection, the perspective itself based on the above distance is not added, so it is possible to reduce the deviation of the perspective.

なお、この場合、各テクスチャTD1,TD3に基づくパースペクティブは反映されるが、当該パースペクティブのずれは、上記距離に基づくパースペクティブのずれよりも目立ちにくい。このため、遊技者としては違和感を抱きにくい。 In this case, the perspectives based on the textures TD1 and TD3 are reflected, but the deviation of the perspective is less conspicuous than the deviation of the perspective based on the distance. Therefore, it is difficult for the player to have a sense of incongruity.

なお、各テクスチャTD1,TD3のパースペクティブをなくす処理を実行してもよい。これにより、よりパースペクティブの矛盾のない画像を遊技者に対して視認させることができる。 It should be noted that a process of eliminating the perspective of each texture TD1, TD3 may be executed. As a result, it is possible for the player to visually recognize an image with a more perspective and without contradiction.

具体的には、例えば各テクスチャTD1,TD3において手前側にマッピングされる領域ほど横方向(X方向)に縮小させ、奥側にマッピングされる領域ほど横方向に拡大させる補正処理を実行するとよい。また、例えば各オブジェクトOB1,OB3を、手前側が長辺で奥側が短辺とする台形オブジェクトとし、当該台形オブジェクトに対してテクスチャをマッピングする構成としてもよい。 Specifically, for example, in each of the textures TD1 and TD3, a correction process may be performed in which regions mapped closer to the front side are shrunk in the horizontal direction (X direction), and regions mapped toward the back side are expanded in the horizontal direction. Alternatively, for example, each of the objects OB1 and OB3 may be a trapezoidal object having long sides on the front side and short sides on the back side, and a texture may be mapped onto the trapezoidal object.

平行投影を行う場合、本来砂浜よりも遠くに存在するために、砂浜よりも小さく見えるはずの海がサイズ調整されることなく表示されるため、奥行き感のない画像となる。換言すれば、砂浜及び海間の大きさの比率が視点からの距離に対応していないため、奥行き感のない画像となる。 In the case of parallel projection, the sea, which should appear smaller than the sandy beach because it is farther than the sandy beach, is displayed without size adjustment, resulting in an image with no sense of depth. In other words, since the size ratio between the beach and the sea does not correspond to the distance from the viewpoint, the image lacks a sense of depth.

これに対して、上記比率が上記視点からの距離に対応するように各オブジェクトOB1,OB3の倍率が設定されている。具体的には、視点からの距離が大きくなるほど、各オブジェクトOB1,OB3の大きさが徐々に小さくなるように各オブジェクトOB1,OB3の大きさが設定されている。 On the other hand, the magnification of each object OB1, OB3 is set so that the ratio corresponds to the distance from the viewpoint. Specifically, the sizes of the objects OB1 and OB3 are set so that the sizes of the objects OB1 and OB3 gradually decrease as the distance from the viewpoint increases.

より詳細に説明すると、変更された視点から砂浜オブジェクトOB1及び海オブジェクトOB3を透視投影すると、図72に示す領域Aにて砂浜オブジェクトOB1に係る画像である砂浜画像が表示される。そして、図72に示す領域Bにて海オブジェクトOB3に係る画像である海画像が表示される。上記各領域A,Bの大きさの比率は、視点からの距離に依存したものである。 More specifically, when the beach object OB1 and the sea object OB3 are perspectively projected from the changed viewpoint, the beach image, which is the image related to the beach object OB1, is displayed in the area A shown in FIG. Then, a sea image, which is an image related to the sea object OB3, is displayed in an area B shown in FIG. The size ratio of the regions A and B depends on the distance from the viewpoint.

各オブジェクトOB1,OB3のサイズ及び座標(詳細にはY座標)は、平行投影された場合に当該各オブジェクトOB1,OB3に係る画像が表示される領域が上記各領域A,Bと同一となるように設定されている。これにより、擬似的に遠近感のある演出用背景画像が表示されることとなる。 The size and coordinates (specifically, the Y coordinate) of each of the objects OB1 and OB3 are set so that the areas in which the images of the objects OB1 and OB3 are displayed are the same as the areas A and B when parallel projected. is set to As a result, the effect background image with a pseudo-perspective effect is displayed.

なお、説明の便宜上、波オブジェクトOB2を省略した態様で説明したが、波オブジェクトOB2が設定されている状況についても同様である。 For convenience of explanation, the wave object OB2 has been omitted, but the situation where the wave object OB2 is set is the same.

上記各画像表示に係る具体的な処理構成について以下に説明する。 A specific processing configuration for each image display will be described below.

先ず、砂浜背景用演算処理について図73のフローチャートを用いて説明する。当該砂浜背景用演算処理は、現状設定されているデータテーブルが砂浜背景画像の表示に対応したものである場合に、表示CPU131のタスク処理(図14)における背景用演算処理(ステップS903)にて実行される。 First, the sandy beach background calculation process will be described with reference to the flowchart of FIG. The sand beach background calculation process is executed in the background calculation process (step S903) in the task processing (FIG. 14) of the display CPU 131 when the currently set data table corresponds to the display of the sand beach background image. executed.

ステップS4201では、砂浜背景画像を表示するのに必要な各オブジェクトOB1~OB4を把握する。 In step S4201, objects OB1 to OB4 required to display the beach background image are grasped.

その後、ステップS4202にて、各オブジェクトOB1~OB4の座標及び角度を更新する。具体的には、ワールド座標系に配置された場合に、各オブジェクトOB1~OB4が奥行き方向(特定視点PV1から遠ざかる方向)に連続して並ぶように且つ空オブジェクトOB4を除く各オブジェクトOB1~OB4がスクリーン領域PC12に対して所定の角度傾くように各座標を設定する。 After that, in step S4202, the coordinates and angles of the objects OB1 to OB4 are updated. Specifically, when arranged in the world coordinate system, the objects OB1 to OB4 are aligned continuously in the depth direction (the direction away from the specific viewpoint PV1), and the objects OB1 to OB4 excluding the sky object OB4 are aligned. Each coordinate is set so as to be inclined by a predetermined angle with respect to the screen area PC12.

続くステップS4203では、各テクスチャのアドレス設定処理を実行する。具体的には、各オブジェクトOB1~OB4に対して貼り付けられる各テクスチャTD1~TD4のアドレスを設定する。その後、ステップS4204にてその他のパラメータを更新する演算処理を行う。 In the following step S4203, address setting processing for each texture is executed. Specifically, the addresses of the textures TD1 to TD4 to be pasted on the objects OB1 to OB4 are set. After that, in step S4204, arithmetic processing for updating other parameters is performed.

続くステップS4205では、各オブジェクトOB1~OB4を透視投影することを特定するための情報である透視投影指定情報を設定する。そして、ステップS4206にてその他の背景用オブジェクトを把握し、ステップS4207にて当該その他の背景用オブジェクトのパラメータの更新に係る演算処理を行い、本砂浜背景用演算処理を終了する。 In subsequent step S4205, perspective projection designation information, which is information for specifying that each of the objects OB1 to OB4 should be perspectively projected, is set. Then, in step S4206, other background objects are grasped, and in step S4207, arithmetic processing for updating the parameters of the other background objects is performed, and the sandy beach background arithmetic processing ends.

かかる処理が行われた場合、その後に行われる描画リスト出力処理(ステップS806)では、描画対象として各オブジェクトOB1~OB4が設定されるとともに、当該各オブジェクトOB1~OB4に対して適用される各種パラメータが設定された描画リストが作成される。また、描画リストには、透視投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1~OB4を既に説明した通りの位置関係となるように各オブジェクトOB1~OB4を配置し、透視投影を行う。これにより、遠近感のある画像が作成される。 When such processing is performed, in the subsequent drawing list output processing (step S806), each object OB1 to OB4 is set as a drawing target, and various parameters to be applied to each object OB1 to OB4 are set. A draw list is created with Further, perspective projection designation information is set in the drawing list. When the VDP 135 receives the drawing list, the VDP 135 arranges the objects OB1 to OB4 so that the objects OB1 to OB4 have the positional relationship as described above, and performs perspective projection. This creates an image with perspective.

次に、砂浜疾走演出の背景用演算処理について図74(a)のフローチャートを用いて説明する。砂浜疾走演出の背景用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、表示CPU131のタスク処理(図14)におけるステップS903の背景用演算処理にて実行される。 Next, a description will be given of the background arithmetic processing for the sand beach running effect using the flowchart of FIG. 74(a). The background arithmetic processing for the sand beach run effect is executed in the background arithmetic processing of step S903 in the task processing (FIG. 14) of the display CPU 131 when the currently set data table corresponds to the sand beach run effect. be done.

先ずステップS4301では、現状設定されているデータテーブルに基づいて、砂浜疾走演出中であるか否かを判定する。 First, in step S4301, based on the currently set data table, it is determined whether or not a sandy beach sprinting presentation is being performed.

砂浜疾走演出中でない場合には、ステップS4302に進み、砂浜疾走演出の開始タイミングであるか否かを判定する。 If the sand beach sprinting effect is not being performed, the process advances to step S4302 to determine whether or not it is time to start the sandy beach sprinting effect.

砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4303~ステップS4308にて、演出用背景画像を描画するための初期設定処理を実行する。 If it is not the start timing of the sandy beach run effect, this operation processing ends as it is. Execute the process.

具体的には、先ずステップS4303にて、各オブジェクトOB1~OB4を把握する処理を実行する。 Specifically, first, in step S4303, a process of grasping each object OB1 to OB4 is executed.

そして、ステップS4304にて、各オブジェクトOB1~OB4の座標を調整する処理を実行し、更にステップS4305にて、各オブジェクトOB1~OB4に対して適用される倍率を調整する処理を実行する。具体的には、各オブジェクトOB1~OB4に対して、演出用背景画像に対応した座標及び倍率を設定する。詳細には、各オブジェクトOB1~OB4が平行投影された場合に、当該平行投影された領域が砂浜背景画像を表示させる場合の各オブジェクトOB1~OB4の座標系において別視点PV2から透視投影を行った場合の投影領域と重なるように、各オブジェクトOB1~OB4の座標及び倍率を設定する。 Then, in step S4304, processing for adjusting the coordinates of each of the objects OB1 to OB4 is executed, and in step S4305, processing for adjusting the magnification applied to each of the objects OB1 to OB4 is executed. Specifically, the coordinates and magnification corresponding to the effect background image are set for each of the objects OB1 to OB4. Specifically, when each of the objects OB1 to OB4 is parallel projected, perspective projection is performed from another viewpoint PV2 in the coordinate system of each of the objects OB1 to OB4 in the case where the parallel projected area displays the sandy beach background image. The coordinates and magnification of each of the objects OB1 to OB4 are set so as to overlap the projection area of the case.

その後、ステップS4306にて視点として別視点PV2を設定し、ステップS4307にて、その他のパラメータの初期設定に係る演算処理を実行する。そして、ステップS4308にて、平行投影指定情報を設定する。当該平行投影指定情報は、VDP135において各オブジェクトOB1~OB4を平行投影するように指示するための情報である。 After that, in step S4306, another viewpoint PV2 is set as the viewpoint, and in step S4307, arithmetic processing related to initial setting of other parameters is executed. Then, in step S4308, parallel projection designation information is set. The parallel projection designation information is information for instructing the VDP 135 to parallel-project each of the objects OB1 to OB4.

その後、ステップS4309にてその他の背景用オブジェクトを把握し、ステップS4310にて当該その他の背景用オブジェクトに対して適用される各種パラメータを更新に係る演算処理を実行して、本演算処理を終了する。 Thereafter, in step S4309, other background objects are grasped, and in step S4310, arithmetic processing for updating various parameters applied to the other background objects is executed, and this arithmetic processing ends. .

かかる処理が行われた場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、描画対象として各オブジェクトOB1~OB4が設定されるとともに、当該各オブジェクトOB1~OB4に対して適用される各種パラメータが設定される。当該各種パラメータは、各オブジェクトOB1~OB4が平行投影される場合に対応したものである。 When such processing is performed, objects OB1 to OB4 are set as objects to be drawn in the drawing list created in subsequent drawing list output processing (step S806). various parameters that apply to The various parameters correspond to parallel projection of each of the objects OB1 to OB4.

また、上記描画リストには平行投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1~OB4を把握し、各オブジェクトOB1~OB4に対して平行投影に対応したパラメータを適用した状態で、別視点PV2を基準とする平行投影を行う。これにより、砂浜背景画像の視点(特定視点PV1)とは異なる視点(別視点PV2)から見た演出用背景画像が作成される。 Parallel projection designation information is set in the drawing list. When the VDP 135 receives the drawing list, the VDP 135 grasps each of the objects OB1 to OB4, applies parameters corresponding to parallel projection to each of the objects OB1 to OB4, and performs parallel projection based on another viewpoint PV2. make a projection. As a result, an effect background image viewed from a viewpoint (another viewpoint PV2) different from the viewpoint (specific viewpoint PV1) of the sandy beach background image is created.

砂浜疾走演出中である場合には、ステップS4311~ステップS4314にて、演出用背景画像をスクロールするための処理を実行する。具体的には、先ずステップS4311にて、各オブジェクトOB1~OB4を把握する。 When the sand beach running effect is being executed, the process for scrolling the background image for effect is executed in steps S4311 to S4314. Specifically, first, in step S4311, each object OB1 to OB4 is grasped.

続くステップS4312では、視点の位置を更新する処理を実行する。具体的には、現状設定されている視点から第1変位量だけ-X方向に変位させる処理を実行する。 In the following step S4312, processing for updating the viewpoint position is executed. Specifically, a process of displacing the currently set viewpoint in the -X direction by a first displacement amount is executed.

その後、ステップS4313にて、各オブジェクトOB1~OB4に適用されるパラメータを更新する演算処理を実行する。具体的には、各オブジェクトOB1~OB4を現状の座標から所定の変位量だけ-X方向に移動させる。当該所定の変位量は、-X方向への視点の変位量よりも小さい範囲内で、各オブジェクトOB1~OB4と視点との距離に応じて設定されている。 After that, in step S4313, arithmetic processing is executed to update the parameters applied to each of the objects OB1 to OB4. Specifically, each of the objects OB1 to OB4 is moved in the -X direction from the current coordinates by a predetermined amount of displacement. The predetermined amount of displacement is set according to the distance between each of the objects OB1 to OB4 and the viewpoint within a range smaller than the amount of displacement of the viewpoint in the -X direction.

具体的には、図74(b)の説明図に示すように、視点と各オブジェクトOB1~OB4とのZ方向の距離が大きくなるほど、視点に対する各オブジェクトOB1~OB4の相対速度が小さくなるように、各オブジェクトOB1~OB4の変位量が設定されている。詳細には、視点と各オブジェクトOB1~OB4のZ方向の距離との距離が大きくなるほど、各オブジェクトOB1~OB4の変位量と第1変位量との差分が小さくなるように各オブジェクトOB1~OB4の変位量が設定されている。これにより、視点に対して手前側に配置されているオブジェクトほど+X方向に速く移動するように見え、視点に対して奥側に配置されているオブジェクトほど+X方向に遅く移動するように見える。よって、擬似的な遠近感を表現することができる。 Specifically, as shown in the explanatory diagram of FIG. 74(b), as the distance in the Z direction between the viewpoint and each of the objects OB1 to OB4 increases, the relative velocity of each of the objects OB1 to OB4 with respect to the viewpoint decreases. , the amount of displacement of each of the objects OB1 to OB4 is set. Specifically, each object OB1 to OB4 is shifted so that the difference between the displacement amount of each object OB1 to OB4 and the first displacement amount decreases as the distance between the viewpoint and the distance in the Z direction of each object OB1 to OB4 increases. Displacement amount is set. As a result, the closer the object is to the viewpoint, the faster the object moves in the +X direction, and the farther the object is from the viewpoint, the slower the object moves in the +X direction. Therefore, a pseudo perspective can be expressed.

また、波オブジェクトOB2については、-X方向への変位だけでなく、Y座標及びZ座標についても座標を更新する処理を実行する。具体的には、図69(b)に示すように、波オブジェクトOB2を、傾斜角度を維持した状態で手前側に進むようにY座標及びZ座標を設定する。これにより、波が手前側に打ち寄せてくる様子を表現することができる。 Also, for the wave object OB2, not only the displacement in the -X direction but also the Y and Z coordinates are updated. Specifically, as shown in FIG. 69(b), the Y and Z coordinates are set so that the wave object OB2 advances forward while maintaining the tilt angle. This makes it possible to express the appearance of waves crashing toward the front.

すなわち、砂浜オブジェクトOB1に対して波オブジェクトOB2を、視点から見て重なり合うように(詳細にはZ方向にずらして)配置し、当該波オブジェクトOB2を砂浜オブジェクトOB1に対して相対的に変位させることにより、砂浜に対して重なるように波が表示されることとなる。 That is, the wave object OB2 is arranged so as to overlap with the sandy beach object OB1 (more specifically, shifted in the Z direction), and the wave object OB2 is displaced relative to the sandy beach object OB1. As a result, the waves are displayed so as to overlap the sandy beach.

そして、波オブジェクトOB2の初期位置からの変位量が予め特定量となった場合には、座標を維持するとともに、波オブジェクトOB2が徐々に消えていくように一律α値を更新する処理を実行する。そして、一律α値が所定の値(例えば完全透過のα値)となったことに基づいて、再度波オブジェクトOB2を初期位置に配置して一連の処理を実行する。これにより、波が打ち寄せて消えていく様子を繰り返し見せることができ、リアルな波を実現することができる。 Then, when the amount of displacement from the initial position of the wave object OB2 reaches a predetermined amount in advance, the coordinates are maintained, and processing is executed to uniformly update the α value so that the wave object OB2 gradually disappears. . Then, when the uniform α value reaches a predetermined value (for example, the α value of complete transmission), the wave object OB2 is placed at the initial position again and a series of processing is executed. As a result, it is possible to repeatedly show the waves crashing and disappearing, and realistic waves can be realized.

その後、ステップS4314にて平行投影指定情報を設定し、ステップS4309及びステップS4310の処理を実行して、本演算処理を終了する。 After that, in step S4314, the parallel projection designation information is set, the processing in steps S4309 and S4310 is executed, and this calculation processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、背景用画像を表示するのに必要な各オブジェクトOB1~OB4が描画対象として設定されるとともに、当該各オブジェクトOB1~OB4に対して適用されるパラメータ情報が設定される。当該各種パラメータには、視点が-X方向に移動するよう設定されているとともに、視点と各オブジェクトOB1~OB4との距離が大きくなるに従って当該視点に対する相対速度が小さくなるように各オブジェクトOB1~OB4の座標の変位量が設定されている。これにより、演出用背景画像が+X方向にスクロールするように表示されることとなる。 When such processing is executed, each object OB1 to OB4 necessary for displaying the background image is set as a drawing target in the drawing list created by the subsequent drawing list output processing. Parameter information applied to objects OB1 to OB4 is set. The various parameters are set so that the viewpoint moves in the -X direction, and each of the objects OB1 to OB4 moves so that the relative speed to the viewpoint decreases as the distance between the viewpoint and the objects OB1 to OB4 increases. is set. As a result, the effect background image is displayed so as to scroll in the +X direction.

なお、視点が移動することにより、投影対象となる領域が各オブジェクトOB1~OB4の端側の領域にとなった場合には、現状投影対象となっている各オブジェクトOB1~OB4に対して視点の進行方向の先側に同一の各オブジェクトOB1~OB4を連続して設定するように構成されている。これにより、視点が各オブジェクトOB1~OB4よりも速い速度で移動することに起因して演出用背景画像が途切れてしまう不都合を回避することができる。 Note that when the viewpoint moves and the area to be projected becomes the area on the end side of each of the objects OB1 to OB4, the viewpoint of each of the objects OB1 to OB4 currently being projected is changed. It is configured such that the same objects OB1 to OB4 are successively set on the forward side in the traveling direction. As a result, it is possible to avoid the inconvenience that the effect background image is interrupted due to the viewpoint moving at a speed faster than that of the objects OB1 to OB4.

また、各テクスチャTD1~TD4における視点の移動方向に対応した両端部、具体的にはX方向の両端部は、描かれた模様が連続するように設定されているとよい。これにより、オブジェクトの切れ目が把握されにくいため、遊技者に対して違和感を与えにくい。 In addition, both ends corresponding to the movement direction of the viewpoint in each of the textures TD1 to TD4, specifically both ends in the X direction, are preferably set so that the drawn patterns are continuous. As a result, since it is difficult for the player to grasp the gap between the objects, it is difficult for the player to feel uncomfortable.

次に、砂浜疾走演出の演出用演算処理について図75のフローチャートを用いて説明する。砂浜疾走演出の演出用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、タスク処理(図14)における演出用演算処理(ステップS904)にて実行される処理である。 Next, a description will be given of the arithmetic processing for effecting the sandy beach sprinting effect with reference to the flow chart of FIG. Arithmetic operation processing for sand beach run effect is executed in effect operation processing (step S904) in task processing (FIG. 14) when the currently set data table corresponds to the sand beach run effect. processing.

先ず、ステップS4401では、現状設定されているデータテーブルに基づいて砂浜疾走演出中であるか否かを判定する。 First, in step S4401, it is determined whether or not the sand beach sprinting presentation is being performed based on the currently set data table.

砂浜疾走演出中でない場合には、ステップS4402に進み、現状設定されているデータテーブルに基づいて砂浜疾走演出の開始タイミングであるか否かを判定する。 If the sand beach sprinting effect is not being performed, the process advances to step S4402 to determine whether or not it is time to start the sandy beach sprinting effect based on the currently set data table.

砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4403に進み、疾走対象の図柄オブジェクトを把握する。そして、ステップS4404にて当該図柄オブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、図柄オブジェクトが平行投影された場合に、当該図柄オブジェクトに係る画像が砂浜画像に重なるように図柄オブジェクトの座標を設定する。詳細には、砂浜オブジェクトOB1とスクリーン領域PC12との間に図柄オブジェクトを配置する。 If it is not the start timing of the sandy beach sprinting effect, this arithmetic processing is terminated as it is. Then, in step S4404, arithmetic processing relating to initial setting of various parameter information applied to the design object is executed. In this case, the coordinates of the design object are set so that the image of the design object overlaps the sandy beach image when the design object is parallel projected. Specifically, the pattern object is arranged between the beach object OB1 and the screen area PC12.

その後、ステップS4405にて、今回の描画対象となる教示用のオブジェクトを把握する。教示用のオブジェクトは、既に説明した通り、遊技状況を遊技者に教示可能となる画像を表示する場合に利用されるオブジェクトであり、詳細には現状のラウンドが何番目のラウンドであるかを教示するためのオブジェクトと、開閉実行モードが連続して行われた回数を示すためのオブジェクトと、が設定されている。ステップS4405では、これらの教示用のオブジェクトを把握する。 After that, in step S4405, a teaching object to be drawn this time is grasped. As already explained, the teaching object is an object used when displaying an image that enables teaching of the game situation to the player. More specifically, it teaches the current round number. and an object for indicating the number of times the open/close execution mode has been performed consecutively. In step S4405, these teaching objects are grasped.

そして、ステップS4406にて上記教示用のオブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、教示用のオブジェクトが演出用背景画像の生成に用いられる各オブジェクトOB1~OB4よりも視点側に配置されるように当該教示用のオブジェクトの座標を設定する。そして、本演算処理を終了する。 Then, in step S4406, arithmetic processing relating to initial setting of various parameter information applied to the teaching object is executed. In this case, the coordinates of the teaching object are set so that the teaching object is positioned closer to the viewpoint than the objects OB1 to OB4 used to generate the effect background image. Then, this arithmetic processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、図柄オブジェクト及び教示用のオブジェクトが描画対象として設定されるとともに、これらのオブジェクトに対して適用されるパラメータが設定される。これらのオブジェクトは演出用背景画像の生成に用いられる各オブジェクトOB1~OB4よりも視点側に配置されるようになっている。これにより、上記各オブジェクトに対して平行投影が行われることにより、演出用背景画像に対して重なるようにして図柄画像及び教示用画像が表示されることとなる。 When such processing is executed, the symbol object and the teaching object are set as the objects to be drawn in the drawing list created in the subsequent drawing list output processing (step S806). Applied parameters are set. These objects are arranged closer to the viewpoint than the objects OB1 to OB4 used to generate the production background image. As a result, the pattern image and the teaching image are displayed so as to be superimposed on the effect background image by performing parallel projection on each of the objects.

砂浜疾走演出中である場合には、ステップS4407にて疾走対象の図柄オブジェクトを把握する処理を実行する。そして、ステップS4408にて図柄オブジェクトに適用されるパラメータを更新する演算処理を実行する。具体的には、-X方向の視点の移動に伴って図柄オブジェクトが移動するように図柄オブジェクトの座標を更新する。この場合、視点の変位量と図柄オブジェクトの変位量とを同一に設定する。これにより、視点の移動と図柄オブジェクトの移動とを同期させることができ、図柄画像の移動に伴って視点が追従していくように見せることができる。 If the sandy beach sprinting effect is being performed, then in step S4407 a process of grasping the design object to be sprinted is executed. Then, in step S4408, arithmetic processing is executed to update the parameters applied to the pattern object. Specifically, the coordinates of the design object are updated so that the design object moves as the viewpoint moves in the -X direction. In this case, the amount of displacement of the viewpoint and the amount of displacement of the design object are set to be the same. As a result, the movement of the viewpoint and the movement of the pattern object can be synchronized, and it can be shown that the viewpoint follows the movement of the pattern image.

続くステップS4409及びステップS4410では、視点の移動に伴う教示用のオブジェクトの更新処理を実行する。具体的には、先ずステップS4409にて教示用のオブジェクトを把握する。そして、ステップS4410にて、教示用のオブジェクトに適用されるパラメータを更新する演算処理実行する。詳細には、-X方向の視点の移動に伴って教示用のオブジェクトが移動するように当該教示用のオブジェクトの座標を更新する。この場合、視点の変位量と教示用のオブジェクトの変位量とを同一に設定する。これにより、視点の移動と教示用のオブジェクトの移動とを同期させることができ、教示用画像を常に表示させることが可能となる。 In subsequent steps S4409 and S4410, updating processing of the teaching object accompanying movement of the viewpoint is executed. Specifically, first, in step S4409, a teaching object is grasped. Then, in step S4410, arithmetic processing is executed to update the parameters applied to the teaching object. Specifically, the coordinates of the teaching object are updated so that the teaching object moves as the viewpoint moves in the -X direction. In this case, the displacement amount of the viewpoint and the displacement amount of the teaching object are set to be the same. As a result, the movement of the viewpoint and the movement of the teaching object can be synchronized, and the teaching image can be displayed at all times.

なお、上記処理では、便宜上、ステップS4403~ステップS4406の処理と、ステップS4407~ステップS4410の処理と、を分けて表示したが、これに限られず、これらの処理を共通化してもよい。この場合、データテーブル上に各更新タイミングにおいて設定すべき画像データを予め設定しておき、更新タイミングとなる度に、当該更新タイミングに対応した上記各種画像データを適宜読み出し、描画に係る設定処理を行う構成とすればよい。 In the above processing, the processing of steps S4403 to S4406 and the processing of steps S4407 to S4410 are separately displayed for convenience, but the present invention is not limited to this, and these processing may be made common. In this case, the image data to be set at each update timing is set in advance on the data table, and each time the update timing comes, the various image data corresponding to the update timing are read as appropriate, and the setting processing related to drawing is performed. It should be configured to perform.

次に、砂浜背景画像及び砂浜疾走演出の様子について図76を用いて説明する。図76(a)は砂浜背景画像が表示された表示面Gを示す説明図、図76(b)は砂浜疾走演出の様子を説明するための説明図である。 Next, the sand beach background image and the appearance of the sand beach sprinting effect will be described with reference to FIG. FIG. 76(a) is an explanatory diagram showing a display surface G on which a sandy beach background image is displayed, and FIG. 76(b) is an explanatory diagram for explaining the state of the sandy beach sprinting effect.

図76(a)に示すように、砂浜背景画像BP10には、手前側から順に、第1砂画像BP11、第1波画像BP12、第1海画像BP13、第1空画像BP14が表示されている。砂浜背景画像BP10は、遠近感のある画像であり、具体的には例えば第1海画像BP13においては奥側(水平線)に近づくに従って波の間隔及び波の幅が小さくなるようになっている。 As shown in FIG. 76(a), on the beach background image BP10, a first sand image BP11, a first wave image BP12, a first sea image BP13, and a first sky image BP14 are displayed in order from the front side. . The sandy beach background image BP10 is an image with a sense of perspective. Specifically, for example, in the first sea image BP13, the distance between waves and the width of waves decrease as the depth side (horizontal line) approaches.

砂浜疾走演出では、図76(b)に示すように、手前側から順に、第2砂画像BP21、第2波画像BP22、第2海画像BP23、第2空画像BP24が表示された画像であって砂浜背景画像BP10とは視点が異なる演出用背景画像BP20が表示される。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に小さく表示されるため、遠近感のある画像となっている。 In the sandy beach run effect, as shown in FIG. 76(b), a second sand image BP21, a second wave image BP22, a second sea image BP23, and a second sky image BP24 are displayed in order from the front side. A production background image BP20 having a viewpoint different from that of the beach background image BP10 is displayed. In this case, since the second sand image BP21→second wave image BP22→second sea image BP23→second sky image BP24 are displayed in order of decreasing size, the image has a sense of perspective.

そして、演出用背景画像BP20に対して重なるように図柄画像CP1~CP3及び教示用画像CP4,CP5が表示される。そして、演出用背景画像BP20が+X方向に対応する方向である右方向に移動することにより、当該図柄画像CP1~CP3が-X方向に対応する方向である左方向に向けて移動するように見える。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に、移動速度は遅くなっている。これにより、奥側(視点から遠く)にあるものほどゆっくり移動するように見え、遠近感が生じている。 Then, the pattern images CP1 to CP3 and the teaching images CP4 and CP5 are displayed so as to overlap the effect background image BP20. When the effect background image BP20 moves rightward, which is the direction corresponding to the +X direction, the pattern images CP1 to CP3 appear to move leftward, which is the direction corresponding to the -X direction. . In this case, the movement speed decreases in the order of second sand image BP21→second wave image BP22→second sea image BP23→second sky image BP24. As a result, objects on the far side (farther from the viewpoint) appear to move more slowly, creating a sense of perspective.

以上の通り、各オブジェクトOB1~OB4を奥行き方向に並べて配置するとともに、各オブジェクトOB1~OB4に対して貼り付けるテクスチャとして、特定視点PV1から見た場合の画像に対応したものを用意し、これらを透視投影することにより砂浜背景画像BP10を表示させる構成において、特定視点PV1とは異なる別視点PV2に基づく演出用背景画像BP20を表示させる場合には各オブジェクトOB1~OB4を平行投影する構成とした。これにより、用いるテクスチャの共通化を図りつつ、視点の変更に伴うパースペクティブの整合性のずれを抑制することができる。よって、テクスチャの共通化を図ることができる点でデータ量の削減を図ることができる。 As described above, the objects OB1 to OB4 are arranged side by side in the depth direction, and textures corresponding to images viewed from the specific viewpoint PV1 are prepared as textures to be pasted on the objects OB1 to OB4. In the configuration for displaying the sandy beach background image BP10 by perspective projection, each object OB1 to OB4 is parallel-projected when displaying the effect background image BP20 based on another viewpoint PV2 different from the specific viewpoint PV1. As a result, it is possible to suppress the deviation of the consistency of the perspective due to the change of the viewpoint, while the texture to be used is shared. Therefore, the amount of data can be reduced in that the texture can be shared.

特に、比較的簡素なオブジェクトである板ポリゴンで構成された各オブジェクトOB1~OB4を投影平面に対して傾斜して配置し、これら各オブジェクトOB1~OB4を透視投影することにより、比較的少ない処理負荷でパースペクティブが掛かった砂浜背景画像BP10を生成することができる。一方、視点が異なると、透視投影に基づくパースペクティブの掛かり具合のずれが目立ち易くなる。 In particular, by arranging the objects OB1 to OB4 composed of plate polygons, which are relatively simple objects, obliquely with respect to the projection plane and perspectively projecting these objects OB1 to OB4, the processing load is relatively small. can generate a perspective beach background image BP10. On the other hand, if the viewpoints are different, the deviation of the perspective based on the perspective projection becomes more noticeable.

これに対して、視点が異なる演出用背景画像BP20を生成する場合には、パースペクティブを生じさせない平行投影を行うことにより、上記ずれの発生を抑制することができる。 On the other hand, when generating a background image for effect BP20 from a different viewpoint, it is possible to suppress the occurrence of the above shift by performing parallel projection that does not produce a perspective.

この場合、視点と各オブジェクトOB1~OB4との距離が大きくなるほど、各オブジェクトOB1~OB4の倍率を小さくするとともに、視点に対する各オブジェクトOB1~OB4の相対移動速度を小さくする構成とした。これにより、平行投影により得られる画像を遠近感のある画像に見せることができる。 In this case, as the distance between the viewpoint and each of the objects OB1 to OB4 increases, the magnification of each of the objects OB1 to OB4 decreases and the relative movement speed of each of the objects OB1 to OB4 with respect to the viewpoint decreases. This makes it possible to make the image obtained by parallel projection look like an image with perspective.

なお、上記構成では、各オブジェクトOB1~OB4は板状ポリゴンであったが、これに限られず、例えば各オブジェクトOB1~OB4のいずれかを、表示対象となる画像に対応させて設定された3次元の特定オブジェクトとして構成してもよい。この場合、当該特定オブジェクトに対応させてテクスチャを設け、当該テクスチャを上記特定オブジェクトに貼り付ける構成とする。これにより、上記特定オブジェクトに係る画像については視点の変化に対応することができる一方、他のオブジェクトについては視点の変化に対応することができず、パースペクティブの整合性が取れなくなる事態が生じ得る。これに対して、視点が変化した場合には平行投影を行うことにより、両者のずれを軽減することができる。 In the above configuration, each of the objects OB1 to OB4 is a plate-like polygon, but the present invention is not limited to this. may be configured as a specific object of In this case, a texture is provided corresponding to the specific object, and the texture is attached to the specific object. As a result, while the image of the specific object can be adapted to the change in viewpoint, the other objects cannot be adapted to the change in viewpoint, and a situation can arise in which the consistency of the perspective cannot be obtained. On the other hand, when the viewpoint changes, the shift between the two can be reduced by performing parallel projection.

また、上記構成では、別視点PV2は特定視点PV1を-Y方向に移動した位置としたが、これに限られず、例えばZ方向にずらした位置にしてもよく、任意である。 Also, in the above configuration, the different viewpoint PV2 is a position shifted in the -Y direction from the specific viewpoint PV1.

また、各オブジェクトOB1~OB4に係る画像間のパースペクティブの整合性について説明したが、これに限られず、例えば最背面画像等の2次元画像データに係る画像と、1のオブジェクトに係る画像との整合性についても同様である。つまり、1のオブジェクトと2次元画像データとを組み合わせて1の画像を表示させる場合にも視点の変化に伴う透視投影と平行投影との切換を適用することができる。 Also, the consistency of the perspective between the images of the respective objects OB1 to OB4 has been described, but the present invention is not limited to this. The same is true for gender. That is, even when displaying one image by combining one object and two-dimensional image data, it is possible to apply switching between perspective projection and parallel projection according to a change in viewpoint.

上記構成では、砂浜背景画像BP10を表示するのに用いられるテクスチャを、演出用背景画像BP20を表示するのに用いる構成としたが、これに限られず、所定の画像を表示するのに用いられるテクスチャを、上記所定の画像とは視点が異なる画像を表示するのに用いる構成であればよく、具体的な表示内容については任意である。 In the above configuration, the texture used to display the sandy beach background image BP10 is used to display the effect background image BP20. is used to display an image from a viewpoint different from that of the predetermined image, and specific display contents are arbitrary.

また、上記構成では、視点を-X方向に移動させる構成としたが、これに限られず、移動させない構成としてもよい。この場合、各オブジェクトOB1~OB4を+X方向に移動させる構成とし、その移動量を視点からの距離に応じて異ならせる構成とするとよい。また、視点の移動方向は-X方向としたが、これに限られず、任意である。 Also, in the above configuration, the viewpoint is moved in the -X direction, but the present invention is not limited to this, and a configuration in which the viewpoint is not moved may be adopted. In this case, each of the objects OB1 to OB4 may be moved in the +X direction, and the amount of movement may be varied according to the distance from the viewpoint. Also, although the moving direction of the viewpoint is the -X direction, it is not limited to this and may be arbitrary.

上記構成では、各オブジェクトOB1~OB4を平行投影した場合の領域が、各オブジェクトOB1~OB4を透視投影した場合の領域と重なるように、各オブジェクトOB1~OB4の座標及び倍率を設定したが、これに限られない。要は、別視点PV2に対応した画像であって遠近感が生じるように各オブジェクトOB1~OB4の座標及び倍率を調整する構成であればよい。 In the above configuration, the coordinates and magnification of each of the objects OB1 to OB4 are set so that the parallel projected area of each of the objects OB1 to OB4 overlaps the perspective projected area of each of the objects OB1 to OB4. is not limited to The point is that the coordinates and magnification of each of the objects OB1 to OB4 should be adjusted so that the image corresponds to the different viewpoint PV2 and a sense of perspective is produced.

さらに、演出用背景画像BP20を表示させる場合に、各オブジェクトOB1~OB3の傾斜角度を、砂浜背景画像BP10を表示させる場合の傾斜角度から変更する構成としてもよく、各オブジェクトOB1~OB3の傾斜角度を個別に変更してもよい。 Furthermore, when the effect background image BP20 is displayed, the tilt angles of the objects OB1 to OB3 may be changed from the tilt angles when the sandy beach background image BP10 is displayed. can be changed individually.

また、砂浜疾走演出にて描画対象となる教示用のオブジェクト及び図柄オブジェクトに対する投影パターンとしては、平行投影及び透視投影どちらでもよい。平行投影を行う場合には図柄画像CP1~CP3及び教示用画像CP4,CP5を見易く表示させることができる一方、透視投影を行う場合には上記各画像CP1~CP5を立体的に表示させることができる。 Moreover, as a projection pattern for the teaching object and pattern object to be drawn in the sandy beach running effect, either parallel projection or perspective projection may be used. When performing parallel projection, the pattern images CP1 to CP3 and teaching images CP4 and CP5 can be displayed in an easy-to-view manner, while when performing perspective projection, the images CP1 to CP5 can be displayed stereoscopically. .

また、教示用のオブジェクトの投影パターンを平行投影に設定し、図柄オブジェクトの投影パターンを透視投影にする構成としてもよい。この場合、教示用画像CP4,CP5を見易く表示させつつ、砂浜疾走演出に係る図柄画像CP1~CP3を立体的に表示させることができる。 Alternatively, the projection pattern of the teaching object may be set to parallel projection, and the projection pattern of the design object may be perspective projection. In this case, it is possible to stereoscopically display the pattern images CP1 to CP3 related to the sandy beach running effect while displaying the teaching images CP4 and CP5 in an easy-to-view manner.

<第2の実施形態>
本実施の形態では、表示演出として歪み演出及び瞬き演出を行うための構成を備えている。そして、歪み演出に合わせて描画処理が第1の実施形態と異なっている。以下に、各演出を行うための構成について説明する。なお、第1の実施形態と同様の構成については説明を省略する。
<Second embodiment>
In the present embodiment, a configuration for performing a distortion effect and a blink effect as display effects is provided. Rendering processing is different from that of the first embodiment in accordance with the distortion effect. Below, the structure for performing each production|presentation is demonstrated. In addition, description is abbreviate|omitted about the structure similar to 1st Embodiment.

<歪み演出を行うための構成について>
歪み演出を行うための構成について説明する。
<Regarding the configuration for performing distortion effects>
A configuration for performing a distortion effect will be described.

歪み演出は、図柄の変動表示が行われる場合に背景画像の一部が歪む演出である。具体的には、背景画像として水中の様子が描かれた画像が表示されている状況において特定方向にスクロールする図柄の変動表示が開始される場合に、背景画像の一部の領域、詳細には図柄に対して当該図柄の進行方向とは逆側の領域が歪むように表示される。これにより、遊技者としては、当該歪みを、図柄がスクロールを開始することにより形成された流れに起因する光の屈折として認識することが想定される。よって、水中での図柄のスクロールをリアルに認識させることができる。 The distortion rendering is rendering in which a part of the background image is distorted when the symbols are displayed in a variable manner. Specifically, when an image depicting an underwater scene is displayed as a background image and a variable display of patterns scrolling in a specific direction is started, a part of the background image, more specifically, The pattern is displayed so as to be distorted in the area on the side opposite to the advancing direction of the pattern. As a result, it is assumed that the player perceives the distortion as refraction of light caused by the flow formed by the pattern starting to scroll. Therefore, it is possible to realistically recognize the scrolling of patterns in water.

当該歪み演出で用いられる構成について図77を用いて説明する。図77(a)は屈折用オブジェクトOB10を示す説明図、図77(b)及び図77(c)は屈折用オブジェクトOB10を変形させた様子を説明するための説明図、図77(d)は屈折用オブジェクトOB10に対して適用される屈折用αデータSKD1を説明するための説明図である。 A configuration used in the distortion rendering will be described with reference to FIG. FIG. 77(a) is an explanatory diagram showing the object for refraction OB10, FIGS. 77(b) and 77(c) are explanatory diagrams for explaining how the object for refraction OB10 is deformed, and FIG. FIG. 10 is an explanatory diagram for explaining α data for refraction SKD1 applied to an object for refraction OB10;

図77(a)に示すように、屈折用オブジェクトOB10は矩形状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向(詳細にはローカル座標系でのZ方向)への凹凸のない平面状に構成された低精彩の画像データである。 As shown in FIG. 77(a), the refraction object OB10 is composed of a rectangular plate polygon. A plate polygon can also be called an object with a small number of polygons, and is low-resolution image data configured in a planar shape without unevenness in the three-dimensional direction (specifically, the Z direction in the local coordinate system).

屈折用オブジェクトOB10の形状(サイズ)は、歪みを発生させたい歪み領域PE1に対応させて設定されており、具体的には、視野座標系への変換処理を行った場合に歪み領域PE1を覆うことができるように設定されている。詳細には、屈折用オブジェクトOB10の形状は、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように設定されている。このため、屈折用オブジェクトOB10を歪み領域PE1に対して重なるように配置された状態で平行投影が行われた場合には、歪み領域PE1に対して屈折用オブジェクトOB10に係る画像が表示されることとなる。 The shape (size) of the refraction object OB10 is set so as to correspond to the distortion area PE1 in which distortion is to be generated. It is set up so that you can Specifically, the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is parallel-projected is larger than the distortion area PE1. Therefore, when parallel projection is performed with the refraction object OB10 placed so as to overlap the distortion area PE1, an image of the refraction object OB10 is displayed in the distortion area PE1. becomes.

屈折用オブジェクトOB10には、格子状に頂点座標が設定されている。当該頂点座標には、ローカル3次元座標が設定されており、各頂点座標のZ座標(奥行き方向の座標)は同一に設定されている。 Vertex coordinates are set in a grid pattern in the refraction object OB10. A local three-dimensional coordinate is set for the vertex coordinate, and the Z coordinate (coordinate in the depth direction) of each vertex coordinate is set to be the same.

屈折用オブジェクトOB10の頂点座標は歪み領域PE1に対応させて設定されており、具体的には屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標によって形成される領域が歪み領域PE1と略同一となるように設定されている。 The vertex coordinates of the refraction object OB10 are set corresponding to the distortion area PE1. Specifically, the area formed by the vertex coordinates other than the vertex coordinates forming the outer edge of the refraction object OB10 is the distortion area PE1. They are set to be approximately the same.

上記屈折用オブジェクトOB10は変形可能に構成されている。具体的には、屈折用オブジェクトOB10の各頂点座標のZ座標はそれぞれ個別に変位可能となっており、当該Z座標が変位することにより屈折用オブジェクトOB10は歪むようになっている。 The refraction object OB10 is configured to be deformable. Specifically, the Z coordinate of each vertex coordinate of the refraction object OB10 can be individually displaced, and the refraction object OB10 is distorted by displacing the Z coordinate.

屈折用オブジェクトOB10の変形形態について詳細に説明する。本実施の形態では、屈折用オブジェクトOB10の変形形態は複数種類設定されている。当該複数種類の変形形態のうちの第1変形形態の屈折用オブジェクトOB10と、第2変形形態の屈折用オブジェクトOB10とについて図77(b)及び図77(c)を用いて説明する。図77(b)は第1変形形態の屈折用オブジェクトOB10を説明するための説明図、図77(c)は第2変形形態の屈折用オブジェクトOB10を説明するための説明図である。なお、説明の便宜上、以降の説明において、第1変形形態の屈折用オブジェクトOB10を単に第1変形形態OB10aと、第2変形形態の屈折用オブジェクトOB10を単に第2変形形態OB10bという。 A modified form of the refraction object OB10 will be described in detail. In the present embodiment, a plurality of deformation modes are set for the refraction object OB10. The object for refraction OB10 of the first modification and the object for refraction OB10 of the second modification among the plurality of types of modification will be described with reference to FIGS. 77(b) and 77(c). FIG. 77(b) is an explanatory diagram for explaining the object for refraction OB10 of the first modification, and FIG. 77(c) is an explanatory diagram for explaining the object for refraction OB10 of the second modification. For convenience of explanation, in the following description, the refraction object OB10 in the first deformation mode is simply referred to as the first deformation mode OB10a, and the refraction object OB10 in the second deformation mode is simply referred to as the second deformation mode OB10b.

図77(b)及び図77(c)に示すように、各変形形態OB10a,OB10bは、テクスチャが貼り付けられる板面に凹凸が形成されるように変形している。具体的には、各変形形態OB10a,OB10bは、屈折用オブジェクトOB10の外縁部を構成する頂点座標のZ座標を基準として、歪み領域PE1に対応する各頂点座標のZ座標がそれぞれ所定量だけ変位することにより変形している。詳細には、X方向における両端の頂点座標を固定端とするZ成分を持つ1周期の正弦波が形成され且つY方向における両端の頂点座標を始点及び終点とする円弧が形成されるように歪み領域PE1に含まれる各頂点座標のZ座標が変位している。そして、各変形形態OB10a,OB10bは、上記正弦波の位相がπだけずれている。 As shown in FIGS. 77(b) and 77(c), each of the deformation forms OB10a and OB10b is deformed such that unevenness is formed on the plate surface to which the texture is applied. Specifically, in each deformation form OB10a, OB10b, the Z coordinate of each vertex coordinate corresponding to the distortion area PE1 is displaced by a predetermined amount with respect to the Z coordinate of the vertex coordinate forming the outer edge of the refraction object OB10. It is transformed by doing. Specifically, a sine wave of one cycle having a Z component having fixed ends at the vertex coordinates of both ends in the X direction is formed, and a circular arc having a starting point and an end point at the vertex coordinates of both ends in the Y direction is formed. The Z coordinate of each vertex coordinate included in the area PE1 is displaced. In each of the modified forms OB10a and OB10b, the phases of the sine waves are shifted by π.

これら各変形形態OB10a,OB10bに対して、背景画像のうち各変形形態OB10a,OB10bが配置される領域に対応した部分のテクスチャがマッピングされることにより、歪み画像が表現される。この場合、所定の更新タイミングとなる度に、屈折用オブジェクトOB10を、X方向への位相が異なる第1変形形態OB10aと第2変形形態OB10bとに交互に変形させることにより、X方向に進行する水の流れに対応した歪み画像を表現することができる。これにより、図柄のX方向のスクロールに伴って、X方向の水の流れが形成されたように視認させることができ、図柄のスクロールと歪み画像との関連付けを好適に行うことができる。 A distorted image is represented by mapping the texture of the portion of the background image corresponding to the area where each of the deformations OB10a and OB10b is arranged to each of these deformations OB10a and OB10b. In this case, the refraction object OB10 is alternately transformed into a first deformation form OB10a and a second deformation form OB10b having different phases in the X direction at each predetermined update timing, thereby advancing in the X direction. A distorted image corresponding to the flow of water can be expressed. As a result, it is possible to visually recognize as if a flow of water is formed in the X direction as the pattern is scrolled in the X direction, and the scrolling of the pattern and the distorted image can be appropriately associated.

また、歪み演出では、屈折用オブジェクトOB10が配置される領域に表示される歪み画像と、その領域の周縁の画像とを馴染ませるために、屈折用αデータSKD1が用いられる。αデータは、既に説明した通り、画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。 Further, in the distortion effect, α data SKD1 for refraction is used in order to blend the distortion image displayed in the area where the object for refraction OB10 is arranged with the image of the periphery of that area. As already described, the α data is transparency information applied to each pixel of the image data, and is stored in advance in the memory module 133 as image data.

屈折用αデータSKD1は、図77(d)に示すように、その外形が適用対象となる屈折用オブジェクトOB10と一致するようにそのサイズが設定されている。屈折用αデータSKD1は、異なるα値が設定された複数の領域に区分けされている。 As shown in FIG. 77(d), the size of the refraction α data SKD1 is set so that its outer shape matches the refraction object OB10 to which it is applied. The α data SKD1 for refraction is divided into a plurality of regions set with different α values.

屈折用αデータSKD1を区分けする領域は、中央側の透明度よりも縁側の透明度の方が高くなるように形成されている。詳細には、屈折用αデータSKD1は、屈折用αデータSKD1の中央領域に設けられ、不透過情報である「1」が設定された不透過領域SKA0と、当該不透過領域SKA0を囲むように設けられ、部分透過情報(0<α1<1)が設定された第1部分透過領域SKA1と、当該第1部分透過領域SKA1を囲むように設けられ、第1部分透過領域SKA1よりも透過率が高い部分透過情報(0<α2<α1)が設定された第2部分透過領域SKA2と、に区分けされている。 The regions for dividing the refraction α data SKD1 are formed so that the transparency on the edge side is higher than the transparency on the center side. Specifically, the alpha data for refraction SKD1 is provided in the central region of the alpha data for refraction SKD1, and includes an opaque area SKA0 set with opacity information "1" and an area surrounding the opaque area SKA0. A first partial transmission area SKA1 in which partial transmission information (0<α1<1) is set, and a first partial transmission area SKA1 are provided so as to surround the first partial transmission area SKA1, and the transmittance is higher than that of the first partial transmission area SKA1. and a second partial transmission area SKA2 in which high partial transmission information (0<α2<α1) is set.

屈折用オブジェクトOB10(第1変形形態OB10a及び第2変形形態OB10bを含む)に対して屈折用αデータSKD1が適用されることにより、屈折用オブジェクトOB10に含まれる各ピクセルに対して屈折用αデータSKD1に含まれるα値が適用される。 By applying the refraction α data SKD1 to the refraction object OB10 (including the first deformation OB10a and the second deformation OB10b), the refraction α data SKD1 is applied to each pixel included in the refraction object OB10. The α value contained in SKD1 is applied.

また、歪み画像を表示面Gの奥側にて重なる画像と重ね合わせる場合には、その重ね合わせに係る各ドットでは、屈折用αデータSKD1にて定められているα値と屈折用オブジェクトOB10に設定されている一律α値とを基準とした数値情報の融合(すなわち、ブレンディング)が行われる。具体的には、屈折用αデータSKD1に設定されているα値を個別α値とすると、
R:「奥側画像のR値」×(「1」-「個別α値」×「一律α値」)+「歪み画像のR値」×「個別α値」×「一律α値」
G:「奥側画像のG値」×(「1」-「個別α値」×「一律α値」)+「歪み画像のG値」×「個別α値」×「一律α値」
B:「奥側画像のB値」×(「1」-「個別α値」×「一律α値」)+「歪み画像のB値」×「個別α値」×「一律α値」
の演算が行われる。
When the distorted image is superimposed on the image that overlaps on the far side of the display surface G, each dot involved in the superimposition has an α value determined by the refraction α data SKD1 and the refraction object OB10. Numerical information is fused (that is, blended) based on the set uniform α value. Specifically, if the α value set in the refraction α data SKD1 is the individual α value,
R: "R value of back side image" x ("1" - "individual α value" x "uniform α value") + "R value of distorted image" x "individual α value" x "uniform α value"
G: "G value of back side image" x ("1" - "individual α value" x "uniform α value") + "G value of distorted image" x "individual α value" x "uniform α value"
B: "B value of back side image" x ("1" - "individual α value" x "uniform α value") + "B value of distorted image" x "individual α value" x "uniform α value"
is calculated.

屈折用αデータSKD1が適用されることにより、歪み画像は、中央領域から縁側に向かうに従って徐々に透明となる。これにより、歪み画像の縁が背景画像に馴染み、当該歪み画像の縁が目立ちにくくなっている。 By applying the refraction α data SKD1, the distorted image gradually becomes transparent from the central region toward the edge side. As a result, the edge of the distorted image blends in with the background image, making the edge of the distorted image less noticeable.

また、歪み画像は、一律α値を反映した状態で表示される。具体的には、一律α値が小さい場合、歪み画像よりも奥側画像が反映される。一方、一律α値が大きい場合には歪み画像が奥側画像よりも反映される。 Also, the distorted image is displayed in a state in which the α value is uniformly reflected. Specifically, when the uniform α value is small, the image on the far side of the distorted image is reflected. On the other hand, when the uniform α value is large, the distorted image is reflected more than the depth image.

歪み演出の具体的な処理構成について説明する。 A specific processing configuration of the distortion rendering will be described.

図78は、表示CPU131にて実行される歪み演出演算処理を示すフローチャートである。歪み演出演算処理は、タスク処理(図14)におけるステップS904の演出用演算処理において、現状設定されているデータテーブルが歪み演出に対応したデータテーブルである場合に実行される。 FIG. 78 is a flow chart showing a distortion rendering calculation process executed by the display CPU 131. FIG. The distortion effect calculation process is executed when the data table currently set in the effect calculation process of step S904 in the task process (FIG. 14) is a data table corresponding to the distortion effect.

先ず、ステップS4501では、現状設定されているデータテーブルに基づいて、歪み演出の実行中であるか否かを判定する。 First, in step S4501, based on the currently set data table, it is determined whether or not the distortion effect is being executed.

歪み演出の実行中でない場合には、ステップS4502に進み、現状設定されているデータテーブルに基づいて、歪み演出の開始タイミングであるか否かを判定する。具体的には、現状設定されているデータテーブルに、歪み演出の開始タイミングであることを特定する情報が設定されているか否かを判定する。当該歪み演出の開始タイミングは図柄の変動開始タイミングと同一に設定されている。これにより、歪み演出は図柄の変動開始が行われる場合に実行されることとなる。 If the distortion effect is not being executed, the process advances to step S4502 to determine whether or not it is time to start the distortion effect based on the currently set data table. Specifically, it is determined whether or not information specifying the start timing of the distortion effect is set in the currently set data table. The start timing of the distortion effect is set to be the same as the symbol variation start timing. As a result, the distortion effect is executed when the symbol variation is started.

開始タイミングでない場合にはそのまま本演算処理を終了する一方、開始タイミングである場合には、ステップS4503~ステップS4507にて屈折用オブジェクトOB10の初期設定に係る処理を実行する。具体的には、先ずステップS4503にて、屈折用オブジェクトOB10を把握する。そして、ステップS4504にて、当該屈折用オブジェクトOB10の座標の初期設定を行う。 If it is not the start timing, this arithmetic processing is terminated as it is. Specifically, first, in step S4503, the refraction object OB10 is grasped. Then, in step S4504, the coordinates of the refraction object OB10 are initialized.

当該座標は、データテーブル上に予め設定されている。詳細には、図柄画像に対して当該図柄画像のスクロール方向とは逆側の領域が歪み領域PE1として設定されており、当該歪み領域PE1に対して重なるように屈折用オブジェクトOB10の座標が設定されている。より詳細には、屈折用オブジェクトOB10が投影された場合に屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標が歪み領域PE1に含まれるように屈折用オブジェクトOB10の座標が設定されている。 The coordinates are set in advance on the data table. Specifically, an area opposite to the scroll direction of the pattern image is set as the distortion area PE1, and the coordinates of the refraction object OB10 are set so as to overlap the distortion area PE1. ing. More specifically, the coordinates of the refraction object OB10 are set so that the distortion area PE1 includes vertex coordinates other than the vertex coordinates forming the outer edge of the refraction object OB10 when the refraction object OB10 is projected. there is

その後、ステップS4505にて、一律α値として不透過情報である「1」を設定する。続くステップS4506では、屈折用オブジェクトOB10に適用されるその他のパラメータの演算処理を行う。 Thereafter, in step S4505, "1", which is opaque information, is uniformly set as the α value. In subsequent step S4506, calculation processing of other parameters applied to the refraction object OB10 is performed.

そして、ステップS4507にて、座標マッピングデータの初期設定を行う。当該座標マッピングデータについて図79を用いて説明する。図79は座標マッピングデータを説明するための説明図である。詳細には、図79(a)は第1座標マッピングデータMD1を説明するための説明図、図79(b)は第2座標マッピングデータMD2を説明するための説明図である。 Then, in step S4507, initial setting of the coordinate mapping data is performed. The coordinate mapping data will be described with reference to FIG. FIG. 79 is an explanatory diagram for explaining coordinate mapping data. Specifically, FIG. 79(a) is an explanatory diagram for explaining the first coordinate mapping data MD1, and FIG. 79(b) is an explanatory diagram for explaining the second coordinate mapping data MD2.

各座標マッピングデータMD1,MD2は、屈折用オブジェクトOB10を構成する各頂点座標のZ方向の変位量を決定するために用いられるデータである。各座標マッピングデータMD1,MD2には、屈折用オブジェクトOB10の各頂点に対して1対1に対応させてZ方向の変位量が設定されている。詳細には、屈折用オブジェクトOB10の頂点がX方向に10個、Y方向に7個だけマトリックス状に設定されていることに対応させて、屈折用オブジェクトOB10を構成する頂点のうち左上端の頂点に対して適用されるZ方向の変位量をZ(1,1)としてマトリックス状にZ(a,b)(a:1~10、b:1~7)が設定されている。なお、説明の便宜上、第1座標マッピングデータMD1に設定されているZ(a,b)をZ1(a,b)と、第2座標マッピングデータMD2に設定されているZ2(a,b)といい、Z(a,b)はZ1(a,b)及びZ2(a,b)の双方を示すものだとする。 Each of the coordinate mapping data MD1 and MD2 is data used to determine the amount of displacement in the Z direction of each vertex coordinate forming the object for refraction OB10. In each of the coordinate mapping data MD1 and MD2, the amount of displacement in the Z direction is set in one-to-one correspondence with each vertex of the refraction object OB10. Specifically, in accordance with the fact that 10 vertices in the X direction and 7 vertices in the Y direction of the object for refraction OB10 are set in a matrix, the upper left vertex of the vertices constituting the object for refraction OB10 Z(a, b) (a: 1 to 10, b: 1 to 7) is set in a matrix, where Z(1, 1) is the displacement amount in the Z direction applied to . For convenience of explanation, Z(a, b) set in the first coordinate mapping data MD1 is referred to as Z1(a, b), and Z2(a, b) set in the second coordinate mapping data MD2. Okay, let Z(a,b) denote both Z1(a,b) and Z2(a,b).

Z(a,b)は、屈折用オブジェクトOB10の外縁を形成する各頂点のZ座標を基準とするZ方向の変位量が設定されたものである。詳細には、屈折用オブジェクトOB10の外縁を形成する各頂点に対応したZ(1,b)、Z(10,b),Z(a,1),Z(a,7)には「0」が設定されており、その他のZ(x,y)(x:2~9、y:2~6)には、各変形形態OB10a,OB10bに対応した変位量が設定されている。 Z(a, b) is the amount of displacement in the Z direction based on the Z coordinate of each vertex forming the outer edge of the refraction object OB10. Specifically, Z(1, b), Z(10, b), Z(a, 1), and Z(a, 7) corresponding to the vertices forming the outer edge of the refraction object OB10 are "0". are set, and displacement amounts corresponding to the deformation forms OB10a and OB10b are set to the other Z(x, y) (x: 2 to 9, y: 2 to 6).

具体的には、Z1(x,y)は、屈折用オブジェクトOB10が第1変形形態OB10aに変形するよう設定されている。一方、Z2(x,y)は、屈折用オブジェクトOB10が第2変形形態OB10bに変形するよう設定されている。 Specifically, Z1(x, y) is set so that the refraction object OB10 transforms into the first deformation form OB10a. On the other hand, Z2(x, y) is set so that the refraction object OB10 transforms into the second deformation form OB10b.

ステップS4507では、初期設定として第1座標マッピングデータMD1のアドレス情報を描画リストに設定する処理を実行する。これにより、第1座標マッピングデータMD1のアドレス情報が設定された描画リストが作成される。そして、VDP135では、当該アドレス情報に基づいて第1座標マッピングデータMD1を取得し、屈折用オブジェクトOB10の各頂点に対して、当該各頂点に対応するZ座標の変位量の分だけ変位させることで、屈折用オブジェクトOB10を第1変形形態OB10aに変形させる処理を実行する。 In step S4507, a process of setting the address information of the first coordinate mapping data MD1 in the drawing list is executed as initial setting. As a result, a drawing list is created in which the address information of the first coordinate mapping data MD1 is set. Then, the VDP 135 acquires the first coordinate mapping data MD1 based on the address information, and displaces each vertex of the refraction object OB10 by the displacement amount of the Z coordinate corresponding to each vertex. , to transform the refraction object OB10 into the first deformation form OB10a.

なお、ステップS4507では、現状どちらの座標マッピングデータが設定されているかを表示CPU131にて特定するための処理を実行する。具体的には、ワークRAM132には、現状設定されている座標マッピングデータを特定するための情報を格納する特定記憶領域が設けられている。ステップS4507では、当該特定記憶領域に対して、第1座標マッピングデータMD1に対応した情報を設定する。 In step S4507, the display CPU 131 executes processing for specifying which coordinate mapping data is currently set. Specifically, the work RAM 132 is provided with a specific storage area for storing information for specifying currently set coordinate mapping data. In step S4507, information corresponding to the first coordinate mapping data MD1 is set in the specific storage area.

ステップS4507の処理の実行後は、ステップS4508~ステップS4510にて、屈折用αデータSKD1の設定を行う。具体的には、ステップS4508にて屈折用αデータSKD1を把握し、ステップS4509にて、屈折用αデータSKD1の座標を屈折用オブジェクトOB10と同一座標に設定する。そして、ステップS4510にて屈折用αデータSKD1に適用されるその他のパラメータの演算処理を行う。 After executing the process of step S4507, the α data for refraction SKD1 is set in steps S4508 to S4510. Specifically, the refraction α data SKD1 is obtained in step S4508, and the coordinates of the refraction α data SKD1 are set to the same coordinates as the refraction object OB10 in step S4509. Then, in step S4510, other parameters applied to the refraction α data SKD1 are calculated.

その後、ステップS4511にてその他の演出用オブジェクトを把握し、ステップS4512にて当該演出用オブジェクトに適用されるパラメータの演算処理を行う。 After that, in step S4511, another effect object is grasped, and in step S4512, the parameters applied to the effect object are calculated.

続くステップS4513では、VDP135にて歪み演出が行われることを特定するための歪み演出指定情報を設定し、本演算処理を終了する。 In the following step S4513, distortion effect specifying information for specifying that the distortion effect is to be performed in the VDP 135 is set, and this calculation processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成された描画リストには、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1は同一座標に設定されている。 When such processing is executed, at least the refraction object OB10 and the refraction α data SKD1 are set in the drawing list created in the subsequent drawing list output processing (step S806). In this case, the refraction object OB10 and the refraction α data SKD1 are set to the same coordinates.

また、当該描画リストには、第1座標マッピングデータMD1のアドレス情報及び歪み演出指定情報が設定されている。 In addition, address information and distortion rendering designation information of the first coordinate mapping data MD1 are set in the drawing list.

一方、歪み演出実行中である場合(ステップS4501:YES)、ステップS4514にて、現状設定されているデータテーブルに基づいて、透明化期間中であるか否かを判定する。具体的には、歪み演出に対応したデータテーブルには、透明化期間であることを特定するための情報が設定されている。当該透明化期間は、歪み演出の終了タイミングに対して複数フレーム(例えば10フレーム)前のタイミングから歪み演出の終了タイミングまでの期間に設定されている。ステップS4514では、現状設定されているデータテーブルに当該情報が設定されているか否かを判定する。 On the other hand, if the distortion effect is being executed (step S4501: YES), it is determined in step S4514 whether or not it is during the transparency period based on the currently set data table. Specifically, information for identifying the transparency period is set in the data table corresponding to the distortion effect. The transparency period is set to a period from the timing a plurality of frames (for example, 10 frames) before the end timing of the distortion effect to the end timing of the distortion effect. In step S4514, it is determined whether or not the information is set in the currently set data table.

透明化期間中でない場合には、ステップS4515にて屈折用オブジェクトOB10を把握し、ステップS4516にてパラメータの演算処理を実行する。この場合、初期設定された各種パラメータを維持する。 If it is not during the transparency period, the refraction object OB10 is grasped in step S4515, and parameter calculation processing is executed in step S4516. In this case, the initialized parameters are maintained.

その後、ステップS4517にて、屈折用オブジェクトOB10の変形を更新する処理、すなわち座標マッピングデータを更新する処理を実行する。具体的には、特定記憶領域に記憶されている情報に基づいて、前の処理回にて設定された座標マッピングデータを把握する。そして、前の処理回にて把握された座標マッピングデータとは異なる座標マッピングデータのアドレスを設定するとともに、特定記憶領域に今回設定した座標マッピングデータに対応した情報を格納する。例えば、前の処理回にて第1座標マッピングデータMD1が設定された場合には第2座標マッピングデータMD2を設定し、前の処理回にて第2座標マッピングデータMD2が設定された場合には第1座標マッピングデータMD1を設定する。 After that, in step S4517, a process of updating the deformation of the refraction object OB10, that is, a process of updating the coordinate mapping data is executed. Specifically, based on the information stored in the specific storage area, the coordinate mapping data set in the previous processing is grasped. Then, an address of coordinate mapping data different from the coordinate mapping data grasped in the previous processing is set, and information corresponding to the coordinate mapping data set this time is stored in the specific storage area. For example, when the first coordinate mapping data MD1 was set in the previous processing, the second coordinate mapping data MD2 is set, and when the second coordinate mapping data MD2 was set in the previous processing, Set the first coordinate mapping data MD1.

そして、ステップS4508~ステップS4513の処理を実行し、本演算処理を終了する。 Then, the processing of steps S4508 to S4513 is executed, and this calculation processing ends.

以上の処理が実行された場合、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定された描画リストが作成される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1に対して適用されるパラメータは維持されている。 When the above processing is executed, a drawing list is created in which at least the refraction object OB10 and the refraction α data SKD1 are set. In this case, the parameters applied to the refraction object OB10 and refraction α data SKD1 are maintained.

また、今回作成された描画リストには、前回作成された描画リストに設定された座標マッピングデータとは異なる座標マッピングデータのアドレスが設定されているとともに、歪み演出指定情報が設定されている。 Further, in the drawing list created this time, the address of the coordinate mapping data different from the coordinate mapping data set in the drawing list created last time is set, and the distortion rendering designation information is set.

透明化期間中である場合(ステップS4514:YES)、ステップS4518にて屈折用オブジェクトOB10を把握する。そして、ステップS4519にて一律α値を更新する。具体的には、一律α値を所定値(例えば0.1)だけ減算する処理を実行する。 If it is during the transparency period (step S4514: YES), the refraction object OB10 is grasped in step S4518. Then, in step S4519, the α value is uniformly updated. Specifically, a process of uniformly subtracting a predetermined value (for example, 0.1) from the α value is executed.

その後、ステップS4520にてその他のパラメータの演算処理を実行し、ステップS4521にて座標マッピングデータの更新処理を実行する。そして、ステップS4508~ステップS4513の処理を実行して、本演算処理を終了する。これらの処理については既に説明した通りであるため、説明を省略する。 Then, in step S4520, calculation processing of other parameters is executed, and in step S4521, update processing of coordinate mapping data is executed. Then, the processing of steps S4508 to S4513 is executed, and this calculation processing ends. Since these processes have already been described, the description thereof will be omitted.

以上の処理が実行された場合、屈折用オブジェクトOB10に適用される一律α値が異なる描画リストが作成される。当該一律α値は、フレーム毎に徐々に小さくなる。 When the above processing is executed, a drawing list is created in which the uniform α value applied to the refraction object OB10 is different. The uniform α value gradually decreases for each frame.

ここで、透明化期間と一律α値の減算値とは対応させて設定されている。具体的には、歪み演出の終了タイミングにおいて一律α値が「0」となるように、減算値と透明化期間とが設定されている。詳細には、透明化期間に係るフレーム数=1/減算値となるように両者が設定されている。これにより、屈折用オブジェクトOB10に貼り付けられた画像が徐々に消えていき、歪み演出の終了タイミングでは完全に消えるようになっている。 Here, the transparent period and the subtraction value of the uniform α value are set in association with each other. Specifically, the subtraction value and the transparency period are set so that the α value is uniformly “0” at the end timing of the distortion effect. Specifically, both are set so that the number of frames for the transparency period=1/subtraction value. As a result, the image pasted on the refraction object OB10 gradually disappears, and completely disappears at the end timing of the distortion rendering.

なお、タスク処理(図14)の図柄用演算処理(ステップS905)では、歪み演出の開始と同期して、図柄の変動表示の開始に係る処理が実行される。具体的には、各図柄画像が所定の方向(左方向)に向けてスクロールするための処理が実行される。 In the symbol calculation process (step S905) of the task process (FIG. 14), in synchronism with the start of the distortion effect, the process relating to the start of the variable display of the symbol is executed. Specifically, a process for scrolling each pattern image in a predetermined direction (leftward direction) is executed.

次に、本実施の形態におけるVDP135にて行われる描画処理について図80のフローチャートを用いて説明する。当該描画処理は、予め定められた周期にて定期的に行われるループ処理であり、詳細には描画リストが作成される周期(20msec)よりも短い周期で行われる。この場合、描画処理の実行に係る時間は、描画リストの受信間隔よりも短く設定されている。これにより、描画処理が行われている最中に新たな描画リストが受信されてないようになっている。 Next, drawing processing performed by the VDP 135 in this embodiment will be described using the flowchart of FIG. The drawing process is a loop process that is periodically performed at a predetermined cycle, and more specifically, it is performed at a cycle shorter than the cycle (20 msec) at which the drawing list is created. In this case, the time required to execute the drawing process is set shorter than the receiving interval of the drawing list. As a result, a new drawing list is not received while the drawing process is being performed.

さらに、描画処理の実行に係る時間と、描画リストが作成され当該描画リストを受信するまでの時間とを合わせた時間が、画像の更新間隔よりも短くなるように設定されている。これにより、画像の更新間隔よりも描画に係る時間が長くなる事態が生じないようになっている。 Further, the sum of the time required to execute the drawing process and the time from the creation of the drawing list to the reception of the drawing list is set to be shorter than the image update interval. This prevents a situation in which the drawing time is longer than the image update interval.

先ず、ステップS4601にて、新たな描画リストを受信したか否かを判定する。新たな描画リストを受信していない場合にはそのまま本処理を終了する一方、新たな描画リストを受信している場合には、ステップS4602~ステップS4608にて先に背景用の描画データ(背景画像)を作成する。 First, in step S4601, it is determined whether or not a new drawing list has been received. If a new drawing list has not been received, this process is terminated. On the other hand, if a new drawing list has been received, background drawing data (background image ).

具体的には、先ずステップS4602にて背景用の設定処理を実行する。そして、当該ステップS4602にて把握された最背面画像及び背景用のオブジェクトに対して、ステップS4603~ステップS4608の処理を実行する。これにより、背景用の描画データが先に作成され、背景用のバッファに書き込まれる。 Specifically, first, background setting processing is executed in step S4602. Then, the processes of steps S4603 to S4608 are executed for the backmost image and the background object grasped in step S4602. As a result, the drawing data for the background is created first and written to the buffer for the background.

その後、ステップS4609~ステップS4616の処理を実行することにより、演出及び図柄用の描画データを作成する。そして、ステップS4617にて描画データ合成処理を実行し、本描画処理を終了する。 After that, by executing the processing of steps S4609 to S4616, drawing data for effects and symbols are created. Then, in step S4617, drawing data synthesizing processing is executed, and the present drawing processing ends.

かかる構成によれば、演出用及び図柄用の描画データの作成に係る処理を実行する前段階で、背景画像の作成が完了している。これにより、演出用及び図柄用の描画データの作成に係る処理を実行する場合に、背景画像を用いることが可能となっている。 According to such a configuration, the background image is completed before the process for creating drawing data for effects and symbols is executed. As a result, the background image can be used when executing processing related to creation of rendering data for effects and symbols.

次に、歪み演出用の設定処理について図81のフローチャートを用いて説明する。歪み演出用の設定処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4609の演出用の設定処理にて実行される。 Next, setting processing for distortion effect will be described using the flowchart of FIG. 81 . The distortion effect setting process is executed in the effect setting process in step S4609 of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list.

先ず、ステップS4701では、描画リストに設定されている屈折用オブジェクトOB10を把握する。 First, in step S4701, the refraction object OB10 set in the drawing list is grasped.

その後ステップS4702にて、描画リストに設定されている座標マッピングデータのアドレス情報に基づいて、今回適用される座標マッピングデータを把握する。続くステップS4703では、ステップS4702にて把握された座標マッピングデータを用いて屈折用オブジェクトOB10を変形させる。 After that, in step S4702, based on the address information of the coordinate mapping data set in the drawing list, the coordinate mapping data to be applied this time is grasped. In the following step S4703, the refraction object OB10 is deformed using the coordinate mapping data grasped in step S4702.

具体的には、座標マッピングデータを参照することにより、屈折用オブジェクトOB10を構成する各頂点に対応するZ方向の変位量を把握する。そして、ローカル座標系における各頂点のZ座標を、把握されたZ方向の変位量だけ変位させる。これにより、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形する。 Specifically, by referring to the coordinate mapping data, the amount of displacement in the Z direction corresponding to each vertex forming the object for refraction OB10 is grasped. Then, the Z coordinate of each vertex in the local coordinate system is displaced by the grasped displacement amount in the Z direction. As a result, the refraction object OB10 is transformed into the first deformation form OB10a or the second deformation form OB10b.

その後、ステップS4704にて第2変形形態OB10bに対して適用される各種パラメータを把握する。そして、ステップS4705にて、第1変形形態OB10a又は第2変形形態OB10bについてワールド座標系への設定処理を実行し、ステップS4706に進む。 After that, in step S4704, various parameters to be applied to the second modified form OB10b are grasped. Then, in step S4705, setting processing to the world coordinate system is executed for the first deformation form OB10a or the second deformation form OB10b, and the process advances to step S4706.

ステップS4706では、その他の演出用オブジェクトを把握し、ステップS4707では当該演出用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS4708にて、その他の演出用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 In step S4706, other objects for effect are grasped, and in step S4707, parameters to be applied to the object for effect are grasped. Then, in step S4708, setting processing to the world coordinate system is executed for other effect objects, and this setting processing ends.

上記のように設定処理が実行されることにより、屈折用オブジェクトOB10を変形することで形成された第1変形形態OB10a又は第2変形形態OB10bがワールド座標系に配置される。 By executing the setting process as described above, the first deformation form OB10a or the second deformation form OB10b formed by deforming the refraction object OB10 is arranged in the world coordinate system.

次に、歪み演出用テクスチャマッピング処理について図82のフローチャートを用いて説明する。歪み演出用テクスチャマッピング処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4615における色情報の設定処理にて実行される。 Next, the distortion rendering texture mapping process will be described with reference to the flowchart of FIG. The distortion effect texture mapping process is executed in the color information setting process in step S4615 of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list.

歪み演出用テクスチャマッピング処理では、屈折用オブジェクトOB10(詳細には各変形形態OB10a,OB10bのいずれか)に対して貼り付けられるテクスチャとして背景画像の一部を用いる処理を実行する。 In the distortion effect texture mapping process, a part of the background image is used as a texture to be applied to the refraction object OB10 (specifically, one of the deformed forms OB10a and OB10b).

ステップS4801では、今回の描画対象として設定されている背景画像を把握する。具体的には、描画処理(図80)のステップS4608にて背景用のバッファに書き込まれた背景用の描画データを把握する。 In step S4801, the background image set as the current rendering target is grasped. Specifically, the background drawing data written in the background buffer in step S4608 of the drawing process (FIG. 80) is grasped.

続くステップS4802では、ステップS4801にて把握された背景画像を用いて、屈折用オブジェクトOB10に貼り付けるテクスチャを作成する処理を実行する。具体的には、把握された背景画像をトリミングすることにより、当該背景画像のうち屈折用オブジェクトOB10に係る領域、具体的には屈折用オブジェクトOB10が投影される領域に対応した部分の画像データを抜き出す。この場合、当該画像データのサイズが屈折用オブジェクトOB10のサイズと同一になるように抜き出す。 In subsequent step S4802, the background image grasped in step S4801 is used to create a texture to be pasted on the refraction object OB10. Specifically, by trimming the grasped background image, the image data of the area related to the refraction object OB10 in the background image, specifically the area corresponding to the area where the refraction object OB10 is projected, is obtained. Pull out. In this case, the size of the image data is extracted so as to be the same as the size of the refraction object OB10.

なお、トリミングの際には、背景用のバッファに書き込まれている背景用の描画データ自体は変更せず、別途バッファを用いて行う。 When trimming, the background drawing data itself written in the background buffer is not changed, and a separate buffer is used.

その後、ステップS4803にて、屈折用オブジェクトOB10(第1変形形態OB10a又は第2変形形態OB10b)に対して、ステップS4802にて抜き出した部分の画像データをテクスチャとして貼り付ける。この場合、ラップマッピング手法又はUVラッピング手法で行う。 After that, in step S4803, the image data of the portion extracted in step S4802 is pasted as a texture to the object for refraction OB10 (first modified form OB10a or second modified form OB10b). In this case, the wrap mapping technique or the UV lapping technique is used.

その後、ステップS4804にて、描画リストに基づいてその他のオブジェクトに対して貼り付けられるテクスチャを把握し、ステップS4805にて各オブジェクトに対してテクスチャを貼り付けて本処理を終了する。 After that, in step S4804, textures to be pasted to other objects are grasped based on the drawing list, and in step S4805 the textures are pasted to each object, and this processing ends.

かかる構成によれば、屈折用オブジェクトOB10に対して、当該屈折用オブジェクトOB10の投影領域に対応した背景画像が貼り付けられる。この場合、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形した状態で投影されることにより、屈折用オブジェクトOB10の投影領域に対応する歪み領域PE1の背景画像が歪む。これにより、歪みに対応したテクスチャを別途設けることなく、背景画像の一部が歪む様子を表現することができる。 According to such a configuration, a background image corresponding to the projection area of the refraction object OB10 is attached to the refraction object OB10. In this case, the background image of the distortion area PE1 corresponding to the projection area of the refraction object OB10 is distorted by projecting the refraction object OB10 in a state of being deformed into the first deformation form OB10a or the second deformation form OB10b. As a result, it is possible to express how the background image is partially distorted without providing a separate texture corresponding to the distortion.

ここで、既に説明した通り、屈折用オブジェクトOB10に貼り付けられるテクスチャのサイズと屈折用オブジェクトOB10のサイズとは同一に設定されている。これにより、他の領域に表示される画像の画質と比較して、屈折用オブジェクトOB10が変形することによって生じ得る歪み画像の画質の低下が目立ちにくい。 Here, as already explained, the size of the texture pasted on the object for refraction OB10 and the size of the object for refraction OB10 are set to be the same. As a result, deterioration in the image quality of the distorted image that may occur due to the deformation of the refraction object OB10 is less noticeable than in the image quality of the image displayed in other areas.

なお、歪み演出を実行する場合における描画処理(図80)のステップS4616の演出及び図柄用の描画データ作成処理では、平行投影で投影することで描画データを作成する。これにより、視点からの距離を考慮して屈折用オブジェクトOB10のサイズを設定する必要がないため、屈折用オブジェクトOB10のサイズの設定を簡単に行うことができる。 It should be noted that drawing data is created by parallel projection in the drawing data creating process for drawing and design in step S4616 of the drawing process (FIG. 80) in the case of executing a distortion effect. Accordingly, since it is not necessary to set the size of the refraction object OB10 in consideration of the distance from the viewpoint, the size of the refraction object OB10 can be easily set.

但し、平行投影に限られず透視投影を行う構成としてもよい。この場合、屈折用オブジェクトOB10が投影された場合に当該屈折用オブジェクトOB10の投影領域が歪み領域PE1に対応するように、視点からの距離を考慮して屈折用オブジェクトOB10のサイズ及び屈折用オブジェクトOB10の座標が設定されているとよい。 However, the configuration is not limited to parallel projection and perspective projection may be used. In this case, the size of the object for refraction OB10 and the size of the object for refraction OB10 are determined in consideration of the distance from the viewpoint so that the projection area of the object for refraction OB10 corresponds to the distortion area PE1 when the object for refraction OB10 is projected. coordinates should be set.

次に、歪み演出用融合処理について図83のフローチャートを用いて説明する。歪み演出用融合処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)の描画データ合成処理(ステップS4617)において実行される。なお、説明の便宜上、フレームバッファ142のうち、変形した屈折用オブジェクトOB10が投影された領域に含まれるドットに対応する単位エリアを対象として説明し、その他の領域に含まれるドットに対応する単位エリアについては説明を省略する。さらに、最初に対象となるドットは予め定められているとする。 Next, the fusion processing for distortion effect will be described using the flowchart of FIG. 83 . The distortion effect fusion process is executed in the drawing data synthesizing process (step S4617) of the drawing process (FIG. 80) when the distortion effect specifying information is set in the drawing list. For convenience of explanation, the unit area corresponding to the dots included in the area onto which the deformed refraction object OB10 is projected will be described in the frame buffer 142, and the unit area corresponding to the dots included in other areas will be described. The description of is omitted. Furthermore, it is assumed that the first target dot is predetermined.

先ずステップS4901では、演出用の描画データに基づいて、屈折用オブジェクトOB10が投影された領域に含まれるドットのうち今回の対象ドットに対応した対象ピクセルの数値情報を把握する。当該数値情報が歪み画像の数値情報(「m」とする)に対応する。 First, in step S4901, numerical information of the target pixel corresponding to the current target dot among the dots included in the area where the object for refraction OB10 is projected is grasped based on the drawing data for rendering. The numerical information corresponds to the numerical information (assumed to be "m") of the distorted image.

そして、ステップS4902にて、屈折用αデータSKD1に基づいて、今回の対象ドットに対応する個別α値を把握し、ステップS4903にて、描画リストに基づいて屈折用オブジェクトOB10に対して適用される一律α値を把握する。 Then, in step S4902, the individual α value corresponding to the current target dot is grasped based on the refraction α data SKD1, and in step S4903, it is applied to the refraction object OB10 based on the drawing list. Grasp the uniform α value.

続くステップS4904では、背景用の描画データに基づいて、背景画像における今回の対象ドットに対応する対象ピクセルの数値情報を把握する。当該数値情報が奥側画像の数値情報(「n」とする)に対応する。 In the following step S4904, numerical information of the target pixel corresponding to the current target dot in the background image is grasped based on the drawing data for the background. The numerical information corresponds to the numerical information (assumed to be "n") of the image on the far side.

そして、ステップS4905にて、上記ステップS4901~ステップS4904の処理により把握された把握結果に基づいて融合処理(ブレンディング処理)を実行し、その融合結果を、フレームバッファ142における各単位エリアのうち今回の対象ドットに対応した単位エリアに書き込む。 Then, in step S4905, fusion processing (blending processing) is executed based on the grasped results grasped by the processing of steps S4901 to S4904, and the fusion result is transferred from each unit area in the frame buffer 142 to the current unit area. Write to the unit area corresponding to the target dot.

上記融合処理では、先に説明した演算式が用いられる。すなわち、n×(1-「個別α値」×「一律α値」)+m×「個別α値」×「一律α値」の演算を行う。 The above-described arithmetic expression is used in the fusion process. That is, n×(1−“individual α value”דuniform α value”)+mדindividual α value”דuniform α value” is calculated.

続くステップS4906では、屈折用オブジェクトOB10の投影領域に含まれる全ドットについて融合処理が完了しているか否かを判定する。完了していない場合には、ステップS4907にて対象ドットを更新する処理を実行し、ステップS4901に戻る。これにより、新たな対象ドットに対して融合処理を実行することとなる。完了している場合には、本融合処理を終了する。 In the subsequent step S4906, it is determined whether or not the fusion processing has been completed for all dots included in the projection area of the refraction object OB10. If not completed, the process of updating the target dot is executed in step S4907, and the process returns to step S4901. As a result, the fusion process is executed for the new target dot. If completed, the fusion process is terminated.

以上の処理が実行されることにより、歪み画像と背景画像との融合が行われることとなる。つまり、一律α値が「1」である場合には、外縁部に向かうに従って透明となる歪み画像が表示される。一方、一律α値が「0」である場合には、背景画像がそのまま表示される。 By executing the above processing, the distortion image and the background image are fused. That is, when the uniform α value is “1”, a distorted image that becomes more transparent toward the outer edge is displayed. On the other hand, when the uniform α value is "0", the background image is displayed as it is.

次に、歪み演出の様子について図84を用いて説明する。図84は、歪み演出を説明するための説明図であり、図84(a)は歪み演出が開始される前の画像を説明するための説明図、図84(b)は第1変形形態OB10aに基づく歪み画像を説明するための説明図、図84(c)は第2変形形態OB10bに基づく歪み画像を説明するための説明図である。なお、図面の関係上、表示面Gの一部を示すとともに、歪み演出の対象となる図柄画像CP11及び海中の様子を示す背景画像の一部として2つの珊瑚画像CP12のみを表示するが、実際には複数の個別画像及び最背面画像が表示される。 Next, the state of the distortion rendering will be described with reference to FIG. FIG. 84 is an explanatory diagram for explaining the distortion effect, FIG. 84(a) is an explanatory diagram for explaining an image before the distortion effect is started, and FIG. 84(b) is the first modified form OB10a. FIG. 84(c) is an explanatory diagram for explaining a distorted image based on the second modified form OB10b. Due to the drawing, only a part of the display surface G is shown, and only the pattern image CP11 to be distorted and the two coral images CP12 as part of the background image showing the state of the sea are displayed. , a plurality of individual images and the backmost image are displayed.

図84(a)に示すように、歪み演出が開始される前には、図柄画像CP11が停止表示されている。この場合、表示面Gにおける歪み領域PE1、具体的には図柄画像CP11に対して当該図柄画像CP11のスクロール方向(左方向)とは逆側の領域(右側領域)には、珊瑚が描かれた2つの珊瑚画像CP12が並んで表示されている。 As shown in FIG. 84(a), the symbol image CP11 is stopped and displayed before the distortion effect is started. In this case, coral is drawn in the distorted area PE1 on the display surface G, specifically, in the area (right side area) opposite to the scroll direction (leftward direction) of the pattern image CP11 with respect to the pattern image CP11. Two coral images CP12 are displayed side by side.

歪み演出が開始されると、図柄画像CP11が左方向にスクロール移動する。この場合、図84(b)に示すように、歪み領域PE1には、膨張した膨張珊瑚画像CP13と収縮した収縮珊瑚画像CP14が描かれた第1歪み画像CP15が表示される。この場合、膨張珊瑚画像CP13が図柄画像CP11側に表示され、収縮珊瑚画像CP14がそれとは反対側に表示される。 When the distortion effect is started, the pattern image CP11 is scrolled leftward. In this case, as shown in FIG. 84(b), a first distorted image CP15 in which an expanded coral image CP13 and a contracted coral image CP14 are drawn is displayed in the distorted area PE1. In this case, the expanded coral image CP13 is displayed on the pattern image CP11 side, and the contracted coral image CP14 is displayed on the opposite side.

歪み演出の開始タイミングに対して次のフレームでは、図8(c)に示すように、歪み領域PE1には、膨張珊瑚画像CP13及び収縮珊瑚画像CP14の位置関係が逆になった第2歪み画像CP16が表示される。 In the next frame with respect to the start timing of the distortion effect, as shown in FIG. 8C, a second distorted image in which the positional relationship of the expanded coral image CP13 and the contracted coral image CP14 is reversed is displayed in the distorted area PE1. CP16 is displayed.

その後、フレーム毎に各歪み画像CP15,CP16が交互に表示される。これにより、図柄画像CP11に対して当該図柄画像CP11の進行方向とは逆側の領域にて水中の流れが形成されたことに起因して揺らいでいるように見える。 After that, the distorted images CP15 and CP16 are alternately displayed for each frame. As a result, the pattern image CP11 appears to sway due to the formation of the underwater flow in the area opposite to the direction in which the pattern image CP11 advances.

そして、図柄画像CP11のスクロール(歪み演出)が開始されてから、所定数のフレームが更新されたことに基づいて、歪み領域PE1には、徐々に膨張珊瑚画像CP13及び収縮珊瑚画像CP14に代えて、珊瑚画像CP12が表示される。 Then, based on the update of a predetermined number of frames after the start of scrolling (distortion effect) of the pattern image CP11, the distorted area PE1 is gradually replaced with the expanded coral image CP13 and the contracted coral image CP14. , the coral image CP12 is displayed.

以上の通り、図柄画像CP11の変動表示が行われる場合に、歪み領域PE1に各歪み画像CP15,CP16を交互に表示することにより、図柄画像CP11のスクロールにより水中に流れが形成されて奥側の背景が揺らいだように見せることができる。これにより、水中における図柄のスクロールを、よりリアルに表現することが可能となる。 As described above, when the symbol image CP11 is displayed in a variable manner, by alternately displaying the distorted images CP15 and CP16 in the distorted area PE1, a flow is formed in the water due to the scrolling of the symbol image CP11. You can make the background look like it's shaking. This makes it possible to more realistically express the scrolling of patterns in water.

この場合、屈折用オブジェクトOB10を第1変形形態OB10a又は第2変形形態OB10bに変形させ、これらに対して背景画像の一部をテクスチャとして貼り付けることにより各歪み画像CP15,CP16を作成した。これにより、歪みを表現するためのテクスチャを別途用意する必要がないため、画像を歪ませるのに要するデータ量の削減を図ることができる。 In this case, the distorted images CP15 and CP16 were created by deforming the refraction object OB10 into the first deformed form OB10a or the second deformed form OB10b, and pasting a part of the background image as a texture to these forms. As a result, it is not necessary to separately prepare a texture for expressing distortion, so it is possible to reduce the amount of data required to distort an image.

また、屈折用オブジェクトOB10の描画に係る処理を実行する前に背景画像の描画データを作成し、当該描画データを用いて屈折用オブジェクトOB10への貼付対象となるテクスチャを作成する構成とした。これにより、屈折用オブジェクトOB10に対して貼り付けるテクスチャを予め用意しておく必要がないため、テクスチャのデータ量の更なる削減を図ることができる。 Also, the drawing data of the background image is created before executing the process for drawing the refraction object OB10, and the drawing data is used to create the texture to be applied to the refraction object OB10. As a result, since it is not necessary to prepare the texture to be pasted on the refraction object OB10 in advance, it is possible to further reduce the amount of texture data.

具体的には、背景用の各種オブジェクトをワールド座標系に配置し、これらを投影することにより歪み対象となる描画データ、すなわち背景用の2次元画像データを取得する。その後、屈折用オブジェクトOB10を配置し且つ変形させた状態で当該屈折用オブジェクトOB10に対して歪み対象となる描画データをテクスチャとして貼り付け且つ投影する構成とした。これにより、テクスチャの作成に係る処理を描画処理の一部として用いることができるため、処理負荷の軽減を図ることができる。換言すれば、描画処理の途中段階で作成される画像をテクスチャとして用いることができる。 Specifically, various background objects are placed in the world coordinate system and drawn data to be distorted, that is, two-dimensional image data for the background are acquired by projecting them. After that, in a state where the refraction object OB10 is arranged and deformed, drawing data to be distorted is pasted as a texture onto the refraction object OB10 and projected. As a result, processing related to texture creation can be used as a part of drawing processing, so that the processing load can be reduced. In other words, an image created in the middle of drawing processing can be used as a texture.

ここで、テクスチャの各単位領域(ピクセル)には、色情報として3色分の数値情報が格納されている。このため、Z方向の変位量のみが設定されている座標マッピングデータと比較して、情報量が大きくなり易い。この点、上記構成によれば、情報量が比較的少ない座標マッピングデータのみを用いて各歪み画像CP15,CP16を表示することができるため、各歪み画像CP15,CP16に係るテクスチャを別途設ける構成と比較して、歪み演出に係るデータ量を小さくすることができる。 Here, each unit area (pixel) of the texture stores numerical information for three colors as color information. Therefore, compared to coordinate mapping data in which only the amount of displacement in the Z direction is set, the amount of information tends to be large. In this regard, according to the above configuration, each of the distorted images CP15 and CP16 can be displayed using only coordinate mapping data with a relatively small amount of information. By comparison, the amount of data related to the distortion rendering can be reduced.

また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定し屈折用オブジェクトOB10を変形させる場合に当該屈折用オブジェクトOB10の外縁部のZ座標は変更しない構成とした。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界が目立つことを回避することができる。 Further, when the shape of the refraction object OB10 is set so that the display area of the refraction object OB10 when projected in parallel is larger than the distortion area PE1, and when the refraction object OB10 is deformed, the outer edge of the refraction object OB10 is set. The configuration was such that the Z coordinate of the part was not changed. This makes it possible to avoid conspicuous boundaries between the image related to the refraction object OB10 and other images.

さらに、各歪み画像CP15,CP16の外縁部に向かうに従って当該各歪み画像CP15,CP16が透明となるように屈折用αデータSKD1を設けた。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界をより好適に目立ちにくくすることができる。 Furthermore, α data SKD1 for refraction is provided so that each of the strain images CP15 and CP16 becomes transparent toward the outer edge of each of the strain images CP15 and CP16. As a result, the boundary between the image related to the refraction object OB10 and other images can be made less conspicuous.

そして、歪み演出が終了する場合には、各歪み画像CP15,CP16を徐々に透明にする構成とした。これにより、各歪み画像CP15,CP16から珊瑚画像CP12に移り変わる場合に当該移り変わりを目立ちにくくすることができる。 Then, when the distortion effect ends, the distortion images CP15 and CP16 are gradually made transparent. Thereby, when the distorted images CP15 and CP16 are changed to the coral image CP12, the change can be made inconspicuous.

なお、上記構成では、歪みを表現する場面として、図柄画像CP11が変動表示を開始する場面を設定したが、これに限られず、任意である。例えば、物体が高速移動することによって生じる衝撃波を表現するのに用いてもよく、場面の切換、図柄画像CP11を別の図柄画像に切り換える場合に用いてもよい。この場合、歪ませたい領域(歪み領域PE1)に合わせて屈折用オブジェクトOB10の形状を設定する。 In the above configuration, the scene in which the pattern image CP11 starts the variable display is set as the scene for expressing the distortion, but it is not limited to this and is arbitrary. For example, it may be used to express a shock wave generated by an object moving at high speed, or may be used to switch scenes or switch the pattern image CP11 to another pattern image. In this case, the shape of the refraction object OB10 is set according to the region (distortion region PE1) to be distorted.

また、歪みを表現する演出に限られず、画像の一部又は全部を変化させる表示演出に対して本発明を適用することができる。例えば屈折用オブジェクトOB10に対して適用されるパラメータを変更することにより画像の一部を拡大又は縮小させる構成としてもよく、回転させる構成としてもよい。さらに、表示面Gに表示されている画像の一部を他の領域と比較して透明にしてもよい。 In addition, the present invention can be applied not only to effects that express distortion, but also to display effects that change part or all of an image. For example, by changing the parameters applied to the refraction object OB10, the image may be partially enlarged or reduced, or may be rotated. Furthermore, part of the image displayed on the display surface G may be made transparent compared to other areas.

さらに、例えば、投影された場合に表示面G全体を表示可能な特定オブジェクトを設け、当該特定オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける。そして、予め定められた更新タイミングとなる度に、上記特定オブジェクトを複数の部品オブジェクトに分割し、当該部品オブジェクトをそれぞれ独立して移動させることにより、表示面Gに表示されていた背景画像が割れたように視認させる演出を行うことができる。これにより、場面の切換等を好適に行うことができる。 Furthermore, for example, a specific object that can display the entire display surface G when projected is provided, and the drawing data of the background image stored in the background buffer is pasted as it is to the specific object. Then, each time a predetermined update timing comes, the specific object is divided into a plurality of part objects, and the part objects are moved independently, thereby breaking the background image displayed on the display surface G. It is possible to produce a visual effect like this. As a result, it is possible to suitably perform scene switching and the like.

また、上記構成によれば、屈折用オブジェクトOB10に対して貼り付けられるテクスチャが屈折用オブジェクトOB10と同一のサイズとなるように背景画像をトリミングする構成としたが、これに限られず、例えば異なるサイズとなるようにトリミングする構成としてもよい。この場合、屈折用オブジェクトOB10のサイズに合わせて拡大又は縮小処理を実行するとよい。これにより、上記拡大又は縮小処理により屈折用オブジェクトOB10尾に貼り付けられる画像が歪むため、歪み画像をより歪ませることができる。但し、上記構成の場合、歪み画像と他の画像との境界が目立ち易くなるため、当該境界の目立ち易さを考慮すれば上記構成の方がよい。 Further, according to the above configuration, the background image is trimmed so that the texture applied to the refraction object OB10 has the same size as the refraction object OB10. It is good also as a structure trimmed so that it may become. In this case, the enlargement or reduction process should be executed according to the size of the refraction object OB10. As a result, the image pasted on the refraction object OB10 is distorted by the enlargement or reduction processing, so that the distorted image can be further distorted. However, in the case of the above configuration, the boundary between the distorted image and the other image is likely to stand out.

また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定したが、これに限られず、例えば上記表示領域が歪み領域PE1と一致するように屈折用オブジェクトOB10の形状を設定してもよい。この場合、屈折用オブジェクトOB10を変形させる場合には屈折用オブジェクトOB10の外縁部を構成する頂点座標についても変位させる構成とするとよい。 Further, the shape of the refraction object OB10 is set so that the display area when the object for refraction OB10 is parallel-projected is larger than the distortion area PE1. The shape of the refraction object OB10 may be set to match. In this case, when the object for refraction OB10 is deformed, it is preferable that the vertex coordinates forming the outer edge of the object for refraction OB10 are also displaced.

また、上記構成では、第1座標マッピングデータMD1及び第2座標マッピングデータMD2を交互に用いることにより、背景画像が揺らいだように見せる構成としたが、これに限られず、例えば徐々に歪みが大きくなる又は小さくなる演出及びこれらの演出を組み合わせた演出を実行する構成としてもよい。 Further, in the above configuration, the first coordinate mapping data MD1 and the second coordinate mapping data MD2 are alternately used to make the background image look like it fluctuates. It is good also as a structure which performs the production|presentation which becomes or becomes small, and the production|presentation which combined these production|presentations.

上記構成では、歪みの対象は背景画像の一部であったが、これに限られず、例えば背景画像の全部を歪ませる構成としてもよい。この場合、表示面G全体を覆うことが可能な屈折用オブジェクトを設け、当該屈折用オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける構成とする。 In the above configuration, the target of distortion is a part of the background image, but the present invention is not limited to this. For example, the entire background image may be distorted. In this case, a refraction object capable of covering the entire display surface G is provided, and the drawing data of the background image stored in the background buffer is pasted to the refraction object as it is.

また、背景画像に限られず、図柄画像、所定のキャラクタ画像又は表示面Gに表示されている画像そのものの全部又は一部を歪ませる構成としてもよい。この場合、屈折用オブジェクトの描画に係る処理を実行する前に、歪ませたい対象を含む画像に係る描画データを予め作成しておき、屈折用オブジェクトの描画に係る処理において、上記描画データに基づいて屈折用オブジェクトに対して貼り付けるテクスチャを作成して、貼り付ける構成とするよい。 Moreover, not only the background image, but also a pattern image, a predetermined character image, or an image itself displayed on the display surface G may be distorted in whole or in part. In this case, drawing data for an image including an object to be distorted is created in advance before executing the processing for drawing the refraction object, and the processing for drawing the refraction object is performed based on the drawing data. A texture to be pasted on the refraction object may be created and pasted.

また、上記構成では、屈折用オブジェクトOB10の変形を各座標マッピングデータMD1,MD2を用いることで実現したが、これに限られず、例えば4次元関数(x、y、z、t)を定義し、当該4次元関数に基づいて各頂点のZ方向の変位量を導出することにより屈折用オブジェクトOB10を変形させる構成としてもよい。この場合、歪み演出に係るデータ量の更なる削減を図ることができる。但し、VDP135の処理負荷の増大化、高精細な歪みに起因する関数の複雑化等に鑑みれば、各座標マッピングデータMD1,MD2を用いる構成の方が好ましい。 In the above configuration, the deformation of the object for refraction OB10 is realized by using the coordinate mapping data MD1 and MD2. The refraction object OB10 may be deformed by deriving the Z-direction displacement amount of each vertex based on the four-dimensional function. In this case, it is possible to further reduce the amount of data related to the distortion effect. However, in view of the increased processing load of the VDP 135 and the complexity of the function due to high-definition distortion, the configuration using each of the coordinate mapping data MD1 and MD2 is preferable.

なお、上記構成では、屈折用オブジェクトOB10を、当該屈折用オブジェクトOB10の板面に凹凸が形成されるように各頂点座標のZ座標を変位させて変形させたが、これに限られず、例えばX座標及びY座標の少なくとも一方を変位させる構成としてもよい。この場合、格子状に配置された各頂点により渦が形成されるように各頂点のXY座標を設定するとよい。これにより、各頂点に対応させてテクスチャを貼り付けることにより歪んだ画像を表現することが可能となる。但し、処理負荷の観点に着目すれば、Z方向の変位のみの方がよい。 In the above configuration, the object for refraction OB10 is deformed by displacing the Z coordinate of each vertex coordinate so that unevenness is formed on the plate surface of the object for refraction OB10. At least one of the coordinate and the Y coordinate may be displaced. In this case, it is preferable to set the XY coordinates of each vertex such that each vertex arranged in a grid pattern forms a vortex. This makes it possible to express a distorted image by pasting textures corresponding to each vertex. However, from the viewpoint of the processing load, it is better to use only displacement in the Z direction.

また、上記構成では、先に背景用の描画データ(2次元画像データ)を作成した後に、演出用及び図柄用の描画データを作成する構成としたが、これに限られず、例えば第1の実施の形態のように、背景用、演出用及び図柄用の各オブジェクトをワールド座標系に配置し、当該各オブジェクトに対して投影することで各描画データを作成する構成としてもよい。この場合、2回描画処理を実行する構成とするとよい。具体的には、1回目では屈折用オブジェクトOB10を除く各オブジェクトを配置し投影することにより各描画データを作成し、2回目では屈折用オブジェクトOB10を含む各オブジェクトを配置し投影して各描画データを作成する。この場合、2回目の描画処理にて、1回目の描画処理にて作成された背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを作成する構成とする。これにより、背景画像の一部をテクスチャとして用いることができる。但し、上記構成の場合、同一処理を重複して行う必要があるため、無駄な処理が増え、処理負荷の増大化が懸念される。この点に着目すれば、先に背景用の描画データを作成した後に、演出用及び図柄用の描画データを作成する構成の方が優れている。 In the above configuration, drawing data for the background (two-dimensional image data) is created first, and then drawing data for effects and patterns is created. As in the form of , each drawing data may be created by arranging each object for background, effect and design in the world coordinate system and projecting each object. In this case, it is preferable that the drawing process is executed twice. Specifically, each drawing data is created by arranging and projecting each object except the refraction object OB10 in the first time, and each drawing data is created by arranging and projecting each object including the refraction object OB10 in the second time. to create In this case, in the second drawing process, the background drawing data created in the first drawing process is used to create a texture to be pasted on the refraction object OB10. Thereby, part of the background image can be used as a texture. However, in the case of the above configuration, since it is necessary to perform the same processing redundantly, there is concern that wasteful processing will increase and the processing load will increase. Focusing on this point, it is better to create the drawing data for the effect and the design after creating the drawing data for the background first.

また、変形対象となる画像が更新される構成であってもよい。例えば、図柄画像CP11のスクロールに伴って歪み領域PE1を順次スクロールさせる構成としてもよい。この場合、所定の更新タイミング(例えば各フレーム)毎に屈折用オブジェクトOB10の座標を更新するとともに、歪み演出用マッピング処理(図82)におけるトリミング処理(ステップS4802)においてトリミングする領域を、屈折用オブジェクトOB10の座標に合わせて変更するようにするとよい。これにより、データ量の増大化を招くことなく、歪み領域PE1の変位に好適に対応することができる。 Further, the configuration may be such that the image to be deformed is updated. For example, the distorted area PE1 may be sequentially scrolled as the pattern image CP11 is scrolled. In this case, the coordinates of the refraction object OB10 are updated at predetermined update timings (for example, each frame), and the area to be trimmed in the trimming process (step S4802) in the distortion rendering mapping process (FIG. 82) is changed to the refraction object OB10. It is preferable to change them according to the coordinates of OB10. As a result, it is possible to appropriately cope with the displacement of the distorted region PE1 without causing an increase in the amount of data.

また、歪み領域PE1を固定しつつ背景画像を変位させる構成としてもよい。この場合であっても、フレーム毎に背景画像に係る背景用の描画データを生成し、さらにフレーム毎に当該背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを生成する構成であるため、変位した背景画像を歪ませることができる。 Alternatively, the background image may be displaced while the distorted region PE1 is fixed. Even in this case, the background drawing data related to the background image is generated for each frame, and the texture to be pasted on the refraction object OB10 is generated using the background drawing data for each frame. Therefore, the displaced background image can be distorted.

なお、背景画像の変位としては、所定の方向への背景画像のスクロールが考えられる。当該スクロールは、背景画像を構成するオブジェクトの移動又は視点の移動により実現することができる。 Note that scrolling of the background image in a predetermined direction can be considered as the displacement of the background image. The scrolling can be realized by moving an object forming the background image or moving the viewpoint.

また、画像の一部を加工して表示演出を行う構成は、2次元表示に係る構成に適用してもよい。具体的には、メモリモジュール133に複数種類のスプライトデータを記憶させておき、当該スプライトデータを用いて所定の画像に係る描画データを生成する。そして、当該描画データをフレームバッファ142に設けられた仮バッファに記憶させておき、当該描画データの一部を抜き出し、当該抜き出したデータをスプライトデータとして扱う構成とするとよい。これにより、描画データに係る画像の一部を拡大又は縮小したり、所定の方向に移動させたりする表示演出を行うことができる。 Also, the configuration of processing a part of an image to produce a display effect may be applied to a configuration related to two-dimensional display. Specifically, a plurality of types of sprite data are stored in the memory module 133, and drawing data for a predetermined image is generated using the sprite data. Then, the drawing data may be stored in a temporary buffer provided in the frame buffer 142, a part of the drawing data may be extracted, and the extracted data may be treated as sprite data. As a result, it is possible to perform a display effect such as enlarging or reducing a part of the image related to the drawing data or moving it in a predetermined direction.

さらに抜き出したデータを別のスプライトデータに対して重ねることにより、抜き出したデータに係る画像に上書きすることもできる。 Furthermore, by superimposing the extracted data on another sprite data, it is possible to overwrite the image related to the extracted data.

また、屈折用オブジェクトOB10に対して貼り付けるテクスチャは、投影することにより作成されたものであったが、これに限られず、例えば予めメモリモジュール133に記憶させておく構成としてもよい。但し、テクスチャのデータ量の増大化に着目すれば、投影することで作成する構成の方がよい。 Also, the texture to be pasted onto the refraction object OB10 was created by projection, but is not limited to this, and may be stored in the memory module 133 in advance, for example. However, if attention is paid to an increase in the amount of texture data, it is better to create a structure by projection.

また、屈折用オブジェクトOB10は板状ポリゴンであったが、これに限られず、任意の形状のポリゴンを用いてもよい。但し、処理負荷の観点に着目すれば、板状ポリゴンである構成の方がよい。 Further, although the refraction object OB10 is a plate-like polygon, it is not limited to this, and polygons of any shape may be used. However, from the viewpoint of the processing load, it is better to use a plate-shaped polygon.

上記構成では、屈折用オブジェクトOB10の変形形態を、第1変形形態OB10aと第2変形形態OB10bとに交互に切り換えることで、歪みを表現したが、これに限られず、例えば2つの屈折用オブジェクトOB10を設け、各屈折用オブジェクトOB10をそれぞれ第1変形形態OB10aと、第2変形形態OB10bとに変形させて、両者を短辺部にて連結させる構成としてもよい。この場合、連結したものを所定の方向にスクロールさせる構成とするとよい。この場合であっても、揺らいだ画像を好適に表示させることができる。 In the above configuration, the deformation of the refraction object OB10 is expressed by alternately switching between the first deformation OB10a and the second deformation OB10b. may be provided, and each refraction object OB10 may be transformed into a first deformation mode OB10a and a second deformation mode OB10b, and the two may be connected at the short side. In this case, it is preferable to adopt a configuration in which the linked items are scrolled in a predetermined direction. Even in this case, it is possible to preferably display a wavering image.

<瞬き演出を行うための構成について>
次に、瞬き演出を行うための構成について説明する。
<About the configuration for blinking>
Next, a configuration for performing a blink effect will be described.

瞬き演出とは、所定のキャラクタ画像が瞬きをする演出である。 The blink effect is a effect in which a predetermined character image blinks.

当該瞬き演出では、所定のキャラクタ画像を表示するのに用いられるベースオブジェクトOB21及びベーステクスチャTD11と、目の部分を変更するのに用いられる部分オブジェクトOB22及び部分テクスチャTD12とが用いられる。これらの各構成について図85を用いて説明する。図85(a)はベースオブジェクトOB21及び部分オブジェクトOB22を説明するための説明図、図85(b)はベーステクスチャTD11を説明するための説明図、図85(c)は部分テクスチャTD12を説明するための説明図である。なお、ベースオブジェクトOB21と部分オブジェクトOB22との関係を説明するために、図85(a)においてベースオブジェクトOB21と部分オブジェクトOB22とを重ねて示すとともに、部分オブジェクトOB22を点線で示す。さらに、ベーステクスチャTD11と部分テクスチャTD12との関係を説明するために、図85(b)において部分テクスチャTD12の外形を点線で示す。 The blink effect uses a base object OB21 and base texture TD11 used to display a predetermined character image, and a partial object OB22 and partial texture TD12 used to change the eye portion. Each of these configurations will be described with reference to FIG. FIG. 85(a) is an explanatory diagram for explaining the base object OB21 and the partial object OB22, FIG. 85(b) is an explanatory diagram for explaining the base texture TD11, and FIG. 85(c) is an explanatory diagram for explaining the partial texture TD12. It is an explanatory diagram for. In order to explain the relationship between the base object OB21 and the partial object OB22, FIG. 85(a) shows the base object OB21 and the partial object OB22 superimposed, and the partial object OB22 is indicated by a dotted line. Furthermore, in order to explain the relationship between the base texture TD11 and the partial texture TD12, the outline of the partial texture TD12 is indicated by dotted lines in FIG. 85(b).

ベースオブジェクトOB21は、図85(a)に示すように、複数の部品オブジェクトからなる1単位のオブジェクトであり、各部品オブジェクトに適用されるパラメータを更新することで3D画像のキャラクタに動きや変化を与えることができる。 As shown in FIG. 85(a), the base object OB21 is a unit object composed of a plurality of part objects, and by updating the parameters applied to each part object, the character in the 3D image can be moved or changed. can give.

また、ベースオブジェクトOB21において、キャラクタの頭部に対応した頭部オブジェクトOB31に貼り付けるテクスチャとしてベーステクスチャTD11が設定されている。ベーステクスチャTD11は、図85(b)に示すように、顔が描かれた画像データである。ベーステクスチャTD11は頭部オブジェクトOB31に対応させた矩形状の画像データとして設定されている。具体的には、ベーステクスチャTD11は、3次元の頭部オブジェクトOB31を2次元に展開した場合の画像データに対応させて設定されており、展開した画像データと同一の形状となるように縦横ピクセル数が設定されている。当該ベーステクスチャTD11が頭部オブジェクトOB31に対して貼り付けられることにより、顔が表現されることとなる。 Also, in the base object OB21, a base texture TD11 is set as a texture to be pasted on the head object OB31 corresponding to the head of the character. The base texture TD11 is image data in which a face is drawn, as shown in FIG. 85(b). The base texture TD11 is set as rectangular image data corresponding to the head object OB31. Specifically, the base texture TD11 is set so as to correspond to the image data when the three-dimensional head object OB31 is developed two-dimensionally. number is set. A face is expressed by pasting the base texture TD11 on the head object OB31.

なお、髪型については、頭部オブジェクトOB31とは別に髪型オブジェクトOB32が設けられているとともに、当該髪型オブジェクトOB32に対して貼り付ける髪型テクスチャが設けられている。これらを用いて髪型を表現し、髪型オブジェクトOB32と頭部オブジェクトOB31とを重ねあわせることにより、キャラクタの頭部を表現する。 As for the hairstyle, a hairstyle object OB32 is provided separately from the head object OB31, and a hairstyle texture to be attached to the hairstyle object OB32 is provided. The hairstyle is expressed using these, and the character's head is expressed by overlapping the hairstyle object OB32 and the head object OB31.

また、ベーステクスチャTD11は矩形状の画像データとして設定されている構成としたが、これに限られず、頭部オブジェクトOB31の形状に合わせて異なる形状の画像データとして設定してもよい。 Also, although the base texture TD11 is set as rectangular image data, it is not limited to this, and may be set as image data having a different shape according to the shape of the head object OB31.

部分オブジェクトOB22は、当該部分オブジェクトOB22が投影された場合にベースオブジェクトOB21における目の表示領域を覆うことが可能となるようにその形状及びサイズが設定されている。具体的には、部分オブジェクトOB22は、図85(a)に示すように、ベースオブジェクトOB21において目が表示される領域と同一の形状となる矩形板状ポリゴンで構成されている。これにより、ワールド座標系においてベースオブジェクトOB21が配置され、視点とベースオブジェクトOB21との間であって且つベースオブジェクトOB21において目が表示される領域に対して重なるように部分オブジェクトOB22が配置された状態で平行投影が行われた場合には、ベーステクスチャTD11の目に代えて、部分オブジェクトOB22の画像が表示されることとなる。この場合、部分オブジェクトOB22に対して、ベーステクスチャTD11の目とは態様が異なるテクスチャが貼り付けられることにより、目の態様が異なるキャラクタ画像が表示される。 The shape and size of the partial object OB22 are set so that the partial object OB22 can cover the eye display area of the base object OB21 when projected. Specifically, as shown in FIG. 85(a), the partial object OB22 is composed of a rectangular plate-shaped polygon having the same shape as the area where the eye is displayed in the base object OB21. As a result, the base object OB21 is placed in the world coordinate system, and the partial object OB22 is placed between the viewpoint and the base object OB21 and overlapping the area where the eye is displayed in the base object OB21. , the image of the partial object OB22 is displayed instead of the eyes of the base texture TD11. In this case, a character image with eyes different in appearance is displayed by pasting a texture different in appearance from the eyes of the base texture TD11 to the partial object OB22.

当該部分オブジェクトOB22に対して貼り付けるテクスチャとして複数種類(具体的には3種類)の部分テクスチャTD12が設けられている。 A plurality of types (specifically, three types) of partial textures TD12 are provided as textures to be pasted onto the partial object OB22.

部分テクスチャTD12について説明すると、部分テクスチャTD12のサイズは部分オブジェクトOB22と同一に設定されており、具体的には、部分オブジェクトOB22の形状と同一となるように、部分テクスチャTD12の各縦横ピクセル数が設定されている。このため、部分オブジェクトOB22に対して部分テクスチャTD12は変形することなく貼り付けられることとなる。 Regarding the partial texture TD12, the size of the partial texture TD12 is set to be the same as that of the partial object OB22. is set. Therefore, the partial texture TD12 is attached to the partial object OB22 without being deformed.

この場合、ベーステクスチャTD11のピクセル数は頭部オブジェクトOB31全体の大きさに対応させて設定されており、部分テクスチャTD12のピクセル数は頭部オブジェクトOB31のうち目の部分に対応させて設定されているため、図85(b)に示すように、部分テクスチャTD12の方がベーステクスチャTD11よりもサイズが小さく、データ量が少ない画像データとなっている。 In this case, the number of pixels of the base texture TD11 is set corresponding to the size of the entire head object OB31, and the number of pixels of the partial texture TD12 is set corresponding to the eye portion of the head object OB31. Therefore, as shown in FIG. 85(b), the partial texture TD12 is smaller in size than the base texture TD11, and has image data with a smaller amount of data.

部分テクスチャTD12には目が開いた状態の画像データである第1部分テクスチャTD21(図85(c-1)参照)と、目が開いた状態と目が閉じた状態との中間状態の画像データである第2部分テクスチャTD22(図85(c-2)参照)と、目が閉じた状態の第3部分テクスチャTD23(図85(c-3)参照)と、が設定されている。第1部分テクスチャTD21は、ベーステクスチャTD11の目の部分と同一の画像が描かれたテクスチャである。 The partial texture TD12 includes a first partial texture TD21 (see FIG. 85(c-1)), which is image data with the eyes open, and image data in an intermediate state between the open and closed eyes. (see FIG. 85(c-2)) and a third partial texture TD23 (see FIG. 85(c-3)) in which the eyes are closed. The first partial texture TD21 is a texture in which the same image as the eye portion of the base texture TD11 is drawn.

部分オブジェクトOB22に対して貼り付けるテクスチャを第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャTD23→第2部分テクスチャTD22→第1部分テクスチャTD21を1周期として順次切り換えることにより、瞬きを表現することができる。 By sequentially switching the texture to be applied to the partial object OB22 in the order of the first partial texture TD21→second partial texture TD22→third partial texture TD23→second partial texture TD22→first partial texture TD21, blinking is achieved. can be expressed.

瞬き演出の具体的な処理構成について説明する。 A specific processing configuration of the blink effect will be described.

図86は、表示CPU131にて実行される瞬き演出用演算処理を示すフローチャートである。瞬き演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理において、現状設定されているデータテーブルが瞬き演出に対応したものである場合に起動される。 FIG. 86 is a flow chart showing the blink effect arithmetic processing executed by the display CPU 131 . The blink effect calculation process is started when the currently set data table corresponds to the blink effect in the effect calculation process in step S904 of the task processing (FIG. 14).

先ずステップS5001にて、現状設定されているデータテーブルに基づいて、瞬き演出中であるか否かを判定する。 First, in step S5001, based on the currently set data table, it is determined whether or not blinking effect is being performed.

瞬き演出の実行中でない場合には、ステップS5002に進み、現状設定されているデータテーブルに基づいて、瞬き演出の開始タイミングであるか否かを判定する。 If the blinking effect is not being executed, the process advances to step S5002 to determine whether it is time to start the blinking effect based on the currently set data table.

瞬き演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、瞬き演出の開始タイミングである場合には、ステップS5003に進み、ベースオブジェクトOB21を把握する。そして、ステップS5004に進み、ベーステクスチャTD11を含むベースオブジェクトOB21に対して貼り付けられる各種テクスチャのアドレス情報を設定する。 If it is not the blinking effect start timing, this arithmetic processing is terminated as it is. Then, in step S5004, address information of various textures to be pasted on the base object OB21 including the base texture TD11 is set.

その後、ステップS5005にて、ベースオブジェクトOB21に対して適用されるその他のパラメータの初期設定に係る演算処理を行う。 After that, in step S5005, arithmetic processing related to initial setting of other parameters applied to the base object OB21 is performed.

続くステップS5006では、部分オブジェクトOB22を把握する。そして、ステップS5007にて当該部分オブジェクトOB22の初期座標を設定する。初期座標はデータテーブルに予め設定されており、具体的には、ワールド座標系に変換した場合にベースオブジェクトOB21よりも前側(視点側)であって投影(平行投影)した場合にベースオブジェクトOB21において目が表示される領域と重なるように配置されるよう設定されている。 In the subsequent step S5006, the partial object OB22 is grasped. Then, in step S5007, the initial coordinates of the partial object OB22 are set. The initial coordinates are set in the data table in advance. It is set to be placed so that it overlaps the area where the eyes are displayed.

その後、ステップS5008では、部分テクスチャTD12のアドレス情報の初期設定を行う。具体的には、第1部分テクスチャTD21のアドレス情報を設定する。そして、ステップS5009にてその他のパラメータの初期設定に係る演算処理を実行する。 After that, in step S5008, initial setting of the address information of the partial texture TD12 is performed. Specifically, the address information of the first partial texture TD21 is set. Then, in step S5009, arithmetic processing related to initial setting of other parameters is executed.

その後、ステップS5010にて瞬き演出指定情報を描画リストに設定して本演算処理を終了する。当該瞬き演出指定情報は、VDP135において瞬き演出に係る描画処理を実行することを特定するのに用いられる情報である。 After that, in step S5010, blinking effect specifying information is set in the drawing list, and this arithmetic processing ends. The blink effect specifying information is information used to specify that the VDP 135 executes drawing processing related to the blink effect.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、ベースオブジェクトOB21及び部分オブジェクトOB22が描画対象として設定されるとともに、各オブジェクトOB21,OB22に対応したパラメータが設定される。この場合、投影した場合にベースオブジェクトOB21の頭部オブジェクトOB31及びベーステクスチャTD11による目の画像に重なるように部分オブジェクトOB22及び第1部分テクスチャTD21による目の画像が表示されるように各オブジェクトOB21,OB22の座標が設定されている。また、上記描画リストには、瞬き演出指定情報が設定されている。 When this process is executed, the base object OB21 and the partial object OB22 are set as drawing targets in the drawing list created by the subsequent drawing list output process, and the parameters corresponding to the respective objects OB21 and OB22 are set. set. In this case, the respective objects OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21, OB21 The coordinates of OB22 are set. In addition, blinking effect designation information is set in the drawing list.

一方、瞬き演出中である場合には、ステップS5011~ステップS5013にて、ベースオブジェクトOB21の設定に係る処理を実行する。具体的には、ステップS5011にて、ベースオブジェクトOB21を把握し、ステップS5012にて各種テクスチャのアドレスを設定する。そして、ステップS5013にてその他のパラメータの演算処理を行う。この場合、初期設定された各種パラメータを維持する処理を実行する。 On the other hand, if the blinking effect is being performed, the processing related to the setting of the base object OB21 is executed in steps S5011 to S5013. Specifically, in step S5011, the base object OB21 is grasped, and in step S5012, addresses of various textures are set. Then, in step S5013, other parameters are calculated. In this case, a process of maintaining various parameters that have been initialized is executed.

その後、ステップS5014~ステップS5018にて部分オブジェクトOB22の設定に係る処理を実行する。具体的には、先ずステップS5014にて部分オブジェクトOB22を把握する。そして、ステップS5015にて、現状設定されているデータテーブルに基づいて、部分テクスチャTD12の更新タイミングであるか否かを判定する。具体的には、瞬き演出に対応したデータテーブルには、所定数のフレーム毎に部分テクスチャTD12の更新タイミングを特定するための情報が設定されている。ステップS5015では、上記情報が設定されているか否かを判定する。 After that, in steps S5014 to S5018, processing for setting the partial object OB22 is executed. Specifically, first, the partial object OB22 is grasped in step S5014. Then, in step S5015, based on the currently set data table, it is determined whether or not it is time to update the partial texture TD12. Specifically, information for specifying the update timing of the partial texture TD12 for each predetermined number of frames is set in the data table corresponding to the blink effect. In step S5015, it is determined whether or not the above information is set.

部分テクスチャTD12の更新タイミングでない場合には、ステップS5016に進み、前回の部分テクスチャTD12のアドレス情報を設定する。そして、ステップS5017にてその他のパラメータの演算処理を実行し、ステップS5010にて瞬き演出指定情報を設定し、本演算処理を終了する。 If it is not the update timing of the partial texture TD12, the process advances to step S5016 to set the address information of the previous partial texture TD12. Then, in step S5017, calculation processing of other parameters is executed, and in step S5010, blink effect specifying information is set, and this calculation processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理では、前回作成された描画リストと同一の描画リストが作成される。 When such processing is executed, the same drawing list as the previous drawing list is created in the subsequent drawing list output processing.

一方、部分テクスチャTD12の更新タイミングである場合には、ステップS5018に進み、前回の部分テクスチャに対して次の部分テクスチャのアドレス情報を設定する処理を実行する。具体的には、瞬き演出に対応したデータテーブルには、部分オブジェクトOB22に対する貼付対象となる各部分テクスチャTD21~TD23の順序が予め設定されている。詳細には、第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャ→第2部分テクスチャTD22を1周期として設定されている。ステップS5018では、上記周期に基づいて、前回の描画リストにおいて設定された部分テクスチャに対して次の部分テクスチャを把握し、当該次の部分テクスチャに対応したアドレスを設定する処理を実行する。 On the other hand, if it is time to update the partial texture TD12, the process advances to step S5018 to execute processing for setting the address information of the next partial texture for the previous partial texture. Specifically, the order of the partial textures TD21 to TD23 to be applied to the partial object OB22 is set in advance in the data table corresponding to the blink effect. Specifically, one period is set as the first partial texture TD21→the second partial texture TD22→the third partial texture→the second partial texture TD22. In step S5018, based on the cycle, the next partial texture is grasped for the partial texture set in the previous drawing list, and the process of setting the address corresponding to the next partial texture is executed.

そして、ステップS5017及びステップS5010の処理を実行して本演算処理を終了する。 Then, the processing of steps S5017 and S5010 is executed, and this arithmetic processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、前回作成された描画リストと比較して、部分オブジェクトOB22に対して貼り付けられる部分テクスチャTD12が異なっている。 When such processing is executed, the drawing list created by the subsequent drawing list output processing has a different partial texture TD12 pasted to the partial object OB22 compared to the previously created drawing list. .

VDP135は、瞬き演出指定情報が設定された描画リストを受信した場合、各オブジェクトOB21,OB22に設定されている座標に基づいてワールド座標系への設定を行う。そして、ベースオブジェクトOB21に対してベーステクスチャTD11を含む各種テクスチャをマッピングするとともに、部分オブジェクトOB22に対して今回描画リストに設定されている部分テクスチャTD12をマッピングし、演出及び図柄用の描画データ作成処理にて、各オブジェクトOB21,OB22を平行投影し、描画データを作成する。これにより、目の部分が部分テクスチャTD12の画像に置き換わったキャラクタ画像が作成される。 When the VDP 135 receives the drawing list in which the blink effect designation information is set, the VDP 135 sets the world coordinate system based on the coordinates set in each of the objects OB21 and OB22. Various textures including the base texture TD11 are mapped to the base object OB21, and the partial texture TD12 currently set in the drawing list is mapped to the partial object OB22 to create drawing data for effects and patterns. , the respective objects OB21 and OB22 are parallel-projected to create drawing data. As a result, a character image is created in which the eye portion is replaced with the image of the partial texture TD12.

この場合、部分テクスチャTD12の更新タイミングに係る描画リストには、前回の描画リストとは異なる部分テクスチャTD12が設定されているため、表示面Gには、前回の処理により表示されたキャラクタ画像と比較して、目の態様が異なるキャラクタ画像が表示されることとなる。 In this case, the partial texture TD12 different from the previous drawing list is set in the drawing list related to the update timing of the partial texture TD12. As a result, character images with different eye patterns are displayed.

次に、瞬き演出の様子について図87を用いて説明する。図87は、瞬き演出を説明するための説明図であり、具体的には図87(a)は瞬き演出の開始タイミングにおいて表示面Gに表示される画像を説明するための説明図、図87(b)及び図87(c)はキャラクタ画像CP22の表示態様の移り変わりを時系列で示した説明図である。なお、説明の便宜上、キャラクタ画像CP22以外の画像を省略して示すが、実際には背景画像及び図柄画像等が表示される。 Next, the state of the blink effect will be described with reference to FIG. 87A and 87B are explanatory diagrams for explaining the blinking effect. Specifically, FIG. 87A is an explanatory diagram for explaining the image displayed on the display surface G at the start timing of the blinking effect. 87(b) and 87(c) are explanatory diagrams showing changes in the display mode of the character image CP22 in chronological order. For convenience of explanation, images other than the character image CP22 are omitted, but in reality, a background image, a pattern image, and the like are displayed.

瞬き演出が開始される場合、図87(a)に示すように、ベースオブジェクトOB21及びベーステクスチャTD11を含む各種テクスチャを用いて作成されたベース画像CP21を有するキャラクタ画像CP22が表示される。この場合、ベース画像CP21における重ね合わせ領域PE2(詳細には目の領域)には、部分オブジェクトOB22及び第1部分テクスチャTD21を用いて作成された第1部分画像CP23が表示される。 When the blink effect is started, as shown in FIG. 87(a), a character image CP22 having a base image CP21 created using various textures including the base object OB21 and the base texture TD11 is displayed. In this case, the first partial image CP23 created using the partial object OB22 and the first partial texture TD21 is displayed in the overlapping area PE2 (specifically, the eye area) in the base image CP21.

なお、既に説明した通り、第1部分テクスチャTD21に描かれている目の画像は、ベース画像CP21における目の画像と同一であるため、実際にはベース画像CP21と同一の画像が表示されることとなる。 As already described, the image of the eye drawn on the first partial texture TD21 is the same as the image of the eye in the base image CP21, so the same image as the base image CP21 is actually displayed. becomes.

その後、部分テクスチャTD12の更新タイミングとなることに基づいて、図87(b)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第2部分テクスチャTD22を用いて作成された第2部分画像CP24が表示される。 After that, based on the update timing of the partial texture TD12, as shown in FIG. Image CP24 is displayed.

そして、次の更新タイミングとなることに基づいて、図87(c)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第3部分テクスチャTD23を用いて作成された第3部分画像CP25が表示される。 Then, based on the next update timing, a third partial image CP25 created using the partial object OB22 and the third partial texture TD23 is displayed in the overlapping area PE2 as shown in FIG. is displayed.

以上のように、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25の順に更新されることにより、目が徐々に閉じていく様子が表現される。 As described above, by updating in the order of the first partial image CP23, the second partial image CP24, and the third partial image CP25, a state in which the eyes gradually close is expressed.

その後、更新タイミングとなる度に、重ね合わせ領域PE2には、第2部分画像CP24→第1部分画像CP23が表示される。 Thereafter, the second partial image CP24→the first partial image CP23 is displayed in the superimposition area PE2 each time the update timing comes.

すなわち、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25→第2部分画像CP24→第1部分画像CP23→…、という順序で繰り返し画像が更新されることにより、キャラクタ画像CP22が瞬きをしているように見える。 That is, the character image CP22 is updated repeatedly in the order of the first partial image CP23→second partial image CP24→third partial image CP25→second partial image CP24→first partial image CP23→ . It looks like he's blinking.

以上の通り、キャラクタ画像CP22の目の部分に対して局所的に部分オブジェクトOB22を配置し、所定の更新タイミングとなる度に当該部分オブジェクトOB22に対して貼り付ける部分テクスチャTD12を更新することにより、キャラクタ画像CP22の瞬きを表現することができる。この場合、部分テクスチャTD12はベーステクスチャTD11の一部の領域のテクスチャであるため、ベーステクスチャTD11と比較してデータ量が小さい。これにより、ベーステクスチャTD11を複数用意する構成と比較して、瞬き演出を行うのに必要なデータ量の削減を図ることができる。 As described above, by locally arranging the partial object OB22 with respect to the eye portion of the character image CP22 and updating the partial texture TD12 pasted on the partial object OB22 each time a predetermined update timing is reached, The blink of the character image CP22 can be expressed. In this case, since the partial texture TD12 is a texture of a partial area of the base texture TD11, the data amount is smaller than that of the base texture TD11. This makes it possible to reduce the amount of data required to perform the blink effect, compared to a configuration in which a plurality of base textures TD11 are prepared.

すなわち、ベース画像CP21を、変化対象となる部位と変化対象とならない部位とに区分けし、変化対象となる部位のみに対応したテクスチャを設け、当該テクスチャとベース画像CP21とを用いてキャラクタ画像の動作を表現する構成とした。これにより、ベース画像CP21全体に係るテクスチャ、すなわちベーステクスチャTD11を複数用意する必要がない。よって、データ量の削減を図りつつ、特定キャラクタ画像の一部を変化させることが可能となる。 That is, the base image CP21 is divided into portions to be changed and portions not to be changed, textures corresponding to only the portions to be changed are provided, and the textures and the base image CP21 are used to perform the motion of the character image. It was configured to express This eliminates the need to prepare a plurality of textures for the entire base image CP21, that is, the base textures TD11. Therefore, it is possible to partially change the specific character image while reducing the amount of data.

この場合、例えば頭部オブジェクトOB31を、目の部分に対応した目オブジェクトと、目よりも下の部分に対応した第1オブジェクトと、目よりも上の部分に対応した第2オブジェクトとに分割し、当該目オブジェクトに対して貼り付けるテクスチャを変更することにより、瞬きを表現する構成も考えられる。しかしながら、かかる構成の場合、頭部オブジェクトOB31を分割することに起因して描画対象となるオブジェクト数が増加し、把握対象となる頂点数が増加する。このため、処理負荷の増大化が懸念される。 In this case, for example, the head object OB31 is divided into an eye object corresponding to the eye portion, a first object corresponding to the portion below the eye, and a second object corresponding to the portion above the eye. Alternatively, a configuration is also conceivable in which blinking is expressed by changing the texture applied to the eye object. However, in such a configuration, the number of objects to be drawn increases due to the division of the head object OB31, and the number of vertices to be grasped increases. Therefore, there is concern about an increase in processing load.

これに対して、本形態によれば、1の頭部オブジェクトOB31と、描画に係る処理負荷が比較的少ない板状ポリゴンである1の部分オブジェクトOB22とで瞬きを実現することができる。これにより、瞬き演出を行うのに要する処理負荷の増大化を抑制することができる。 On the other hand, according to the present embodiment, blinking can be achieved with one head object OB31 and one partial object OB22, which is a plate-like polygon with a relatively low processing load for rendering. As a result, it is possible to suppress an increase in the processing load required for performing the blink effect.

なお、瞬きについて説明したが、これに限られず、1単位の個別画像の一部を変化させる場合に本発明を適用することができる。具体的には、変化対象となる領域に対して重なるように部分オブジェクトを配置し、当該部分オブジェクトに対して当該領域に表示される変化後の部分画像に対応した部分テクスチャを貼り付ければよい。例えば、口を変える場合、服の模様を一部変更する場合にも本発明を適用することができる。 Note that blinking has been described, but the present invention is not limited to this, and can be applied to a case where a part of an individual image of one unit is changed. Specifically, a partial object may be arranged so as to overlap the area to be changed, and a partial texture corresponding to the partial image after the change to be displayed in the area may be pasted on the partial object. For example, the present invention can be applied to change the mouth or partially change the pattern of clothes.

また、瞬き演出を行う場合に、ベース画像CP21の目の画像と同一の第1部分テクスチャTD21を用意して、当該第1部分テクスチャTD21を用いて第1部分画像CP23を表示させる構成としたが、これに限られず、第1部分テクスチャTD21を用意しない構成としてもよい。これにより、瞬き演出に要するデータ量の削減を好適に図ることができる。この場合、瞬き演出に対応したデータテーブルに、ベース画像CP21をそのまま表示する期間であることを特定するための情報を設定し、ステップS5013の処理の実行後に、当該期間中であるか否かを判定する処理を実行する。当該判定処理にて、ベース画像CP21をそのまま表示する期間であると判定した場合には、部分オブジェクトOB22の設定に係る処理(ステップS5014~ステップS5017)を実行することなく、本演算処理を終了する。一方、ベース画像CP21をそのまま表示する期間でないと判定した場合には、部分オブジェクトOB22の設定に係る処理を実行する構成とするとよい。これにより、ベース画像CP21の一部を流用して瞬き演出を行うことが可能となる。但し、上記判定処理に係る処理負荷分だけ瞬き演出用演算処理の処理負荷が大きくなることに着目すれば、第1部分テクスチャTD21を予め用意しておく構成の方がよい。 Further, when performing the blink effect, the first partial texture TD21 that is the same as the eye image of the base image CP21 is prepared, and the first partial image CP23 is displayed using the first partial texture TD21. , the configuration is not limited to this, and a configuration in which the first partial texture TD21 is not prepared may be employed. As a result, it is possible to suitably reduce the amount of data required for the blink effect. In this case, information for identifying the period in which the base image CP21 is displayed as it is is set in the data table corresponding to the blink effect, and whether or not it is during the period is determined after the processing of step S5013 is executed. Execute the judgment process. If it is determined in the determination process that it is time to display the base image CP21 as it is, this calculation process is terminated without executing the process related to the setting of the partial object OB22 (steps S5014 to S5017). . On the other hand, if it is determined that it is not the period for displaying the base image CP21 as it is, the configuration may be such that the processing related to the setting of the partial object OB22 is executed. This makes it possible to use part of the base image CP21 to perform a blink effect. However, if attention is paid to the fact that the processing load of the calculation processing for blink effect increases by the processing load related to the determination processing, it is better to prepare the first partial texture TD21 in advance.

特に、一般的に定期処理では、最大負荷が付与された場合であっても処理落ちしないように設計する必要がある。このため、上記構成の場合、上記判定処理及び部分オブジェクトOB22の設定に係る処理が実行された場合であっても処理落ちしないように設計する必要がある。これに対して、第1部分テクスチャTD21を用意する構成の場合、上記判定処理が必要なく、その分だけ余裕を持たせることができる。これにより、瞬き演出に要するテクスチャのデータ量の削減と、瞬き演出に起因する処理負荷の増大化の抑制とのバランスを取ることができる。 In particular, in general, periodic processing must be designed so that processing does not drop even when the maximum load is applied. For this reason, in the case of the above configuration, it is necessary to design so that even if the determination process and the process related to the setting of the partial object OB22 are executed, the process will not fail. On the other hand, in the case of the configuration in which the first partial texture TD21 is prepared, the determination process described above is not necessary, and a margin can be provided accordingly. As a result, it is possible to strike a balance between reducing the amount of texture data required for the blink effect and suppressing an increase in the processing load due to the blink effect.

なお、瞬きの途中態様の様子を示す第2部分テクスチャTD22を設ける構成としたが、これに限られず、例えば第1部分テクスチャTD21及び第3部分テクスチャTD23に基づいて中間態様の部分テクスチャを作成する構成としてもよい。この場合、中間態様の部分テクスチャに係る画像データを用意する必要がないため、データ量の削減を図ることができる。但し、中間態様の部分テクスチャの作成に係る処理負荷を考慮すれば、中間態様の部分テクスチャを予め用意しておく構成の方が好ましい。 Although the second partial texture TD22 indicating the state of the blinking halfway state is provided, the present invention is not limited to this. For example, a partial texture of the intermediate state is created based on the first partial texture TD21 and the third partial texture TD23. may be configured. In this case, since it is not necessary to prepare image data for the partial texture of the intermediate mode, it is possible to reduce the amount of data. However, considering the processing load associated with the creation of the partial texture of the intermediate mode, it is preferable to prepare the partial texture of the intermediate mode in advance.

上記構成においては、部分オブジェクトOB22を設け、ベースオブジェクトOB21に対して部分オブジェクトOB22が重なるように両者の位置関係を設定することで瞬き演出を実現させる構成としたが、これに限られず、部分オブジェクトOB22を設けない構成としてもよい。この場合、部分テクスチャTD12を頭部オブジェクトOB31における目の領域に対して直接上書きする構成としてもよい。具体的には、ベーステクスチャTD11が貼り付けられた頭部オブジェクトOB31の目の領域に対応する頂点に対応付けて部分テクスチャTD12のUV座標を設定し、当該部分テクスチャTD12を上記目の領域に貼り付ける処理を実行する。但し、部分オブジェクトOB22は板ポリゴンであるため、当該部分オブジェクトOB22を構成する頂点の数は頭部オブジェクトOB31における目の領域を形成する頂点の数よりも少なくなり易い。このため、部分オブジェクトOB22を用いて瞬き演出を行う構成の方が、マッピングに係る処理負荷が軽くなり易い。 In the above configuration, the partial object OB22 is provided, and the positional relationship between the partial object OB22 and the base object OB21 is set so that the partial object OB22 overlaps with the base object OB21, thereby realizing the blink effect. A configuration without the OB 22 may be employed. In this case, the partial texture TD12 may be directly overwritten on the eye area of the head object OB31. Specifically, the UV coordinates of the partial texture TD12 are set in association with the vertices corresponding to the eye area of the head object OB31 to which the base texture TD11 is pasted, and the partial texture TD12 is pasted to the eye area. Execute the attaching process. However, since the partial object OB22 is a plate polygon, the number of vertices forming the partial object OB22 is likely to be smaller than the number of vertices forming the eye region of the head object OB31. For this reason, the configuration in which the partial object OB22 is used to create the blink effect tends to reduce the processing load associated with mapping.

さらに、髪型オブジェクトOB32に対して貼り付けるテクスチャを複数種類設け、当該髪型オブジェクトOB32に貼り付けるテクスチャを場面に応じて切り換える構成としてもよい。 Furthermore, a configuration may be adopted in which a plurality of types of textures are provided for the hairstyle object OB32, and the texture to be attached to the hairstyle object OB32 is switched according to the scene.

<その他の実施形態>
なお、上述した各実施形態の記載内容に限定されず、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能である。例えば以下のように変更してもよい。ちなみに、以下の別形態の構成を、上記実施の形態の構成に対して、個別に適用してもよく、組み合わせて適用してもよい。
<Other embodiments>
It should be noted that the present invention is not limited to the description of each embodiment described above, and various modifications and improvements are possible without departing from the gist of the present invention. For example, it may be changed as follows. Incidentally, the configurations of the following other forms may be applied individually or in combination with the configurations of the above embodiments.

(1)描画データを作成する上で必要となる画像データを、その必要となったタイミングでメモリモジュール133から読み出すのではなく、その必要となるタイミングよりも前に事前にVRAM134に読み出しておく構成としてもよい。このような事前読み出しを行うことにより、描画データの作成を好適に行うことが可能となる。特に、メモリモジュール133としてNAND型フラッシュメモリを用いる場合には、読み出しに要する時間がNOR型フラッシュメモリよりも長時間化してしまう傾向にあるため、このような構成に、上記事前読み出しの構成を適用すると効果的である。なお、VDP135において使用される画像データに加えて又は代えて、表示CPU131において使用されるプログラムやデータが事前に読み出される構成としてもよい。 (1) A configuration in which the image data necessary for creating the drawing data is not read out from the memory module 133 at the timing when it is needed, but is read out to the VRAM 134 in advance before the timing at which it is needed. may be By performing such pre-reading, it is possible to suitably create drawing data. In particular, when a NAND flash memory is used as the memory module 133, the time required for reading tends to be longer than that of a NOR flash memory. Therefore, the pre-reading configuration is applied to such a configuration. Then it is effective. In addition to or in place of the image data used in the VDP 135, the configuration may be such that programs and data used in the display CPU 131 are read in advance.

(2)演出用の描画データが書き込まれる演出用のバッファと、図柄用の描画データが書き込まれる図柄用のバッファとが個別に設けられており、最終的な生成データの生成に際しては、背景用のバッファに書き込まれた描画データと、演出用のバッファに書き込まれた描画データと、図柄用の描画データに書き込まれた描画データと、が合成される構成としてもよい。また、これに代えて、第1演出用の描画データが作成されるバッファと、第2演出用の描画データが作成されるバッファとが存在していて、第1演出用の描画データは背景用の描画データと図柄用の描画データとの間に存在し、第2演出用の描画データは最前面に存在するように、描画データの合成が行われる構成としてもよい。 (2) A performance buffer into which rendering data is written and a design buffer into which design drawing data is written are separately provided. The drawing data written in the buffer, the drawing data written in the rendering buffer, and the drawing data written in the design drawing data may be synthesized. In place of this, there are a buffer for creating drawing data for the first effect and a buffer for creating drawing data for the second effect, and the drawing data for the first effect is for the background. The drawing data may be synthesized such that the drawing data for the second effect exists between the drawing data for the second effect and the drawing data for the pattern, and the drawing data for the second effect exists in the foreground.

(3)カメラ(視点)がワールド座標系に配置される画像データ毎に個別に設定される構成としたが、これに代えて、ワールド座標系に配置される全画像データに対して単一のカメラが共通して設定される構成としてもよい。 (3) The camera (viewpoint) is configured to be set individually for each image data arranged in the world coordinate system. A configuration in which cameras are set in common may be adopted.

(4)ワールド座標系に配置された画像データは、背景画像、演出画像及び図柄画像の単位で投影される構成としたが、背景画像及び演出画像の単位でまとめて投影される構成としてもよく、演出画像及び図柄画像の単位でまとめて投影される構成としてもよく、全てがまとめて投影される構成としてもよい。 (4) The image data arranged in the world coordinate system was configured to be projected in units of the background image, effect image, and pattern image, but may be configured to be collectively projected in units of the background image and effect image. , the effect image and the symbol image may be collectively projected, or all may be collectively projected.

(5)上作動口23への入賞に係る保留情報と下作動口24への入賞に係る保留情報とが区別して記憶されるとともに、下作動口24への入賞に係る保留情報が優先して消化される構成を適用してもよく、これとは逆に上作動口23への入賞に係る保留情報が優先して消化される構成を適用してもよい。 (5) Reserved information relating to winning to the upper working port 23 and reserved information relating to winning to the lower working port 24 are stored separately, and the reserved information relating to winning to the lower working port 24 is preferentially stored. You may apply the structure which is digested, and conversely, the structure which preferentially digests the pending|holding information which concerns on the prize-winning to the upper operation|movement opening 23 may be applied.

また、上記構成において、複数の作動口が上下に並設されているのではなく、上作動口23に対応した第1作動口と、下作動口24に対応した第2作動口とが左右に並設された構成としてもよく、これら両作動口が斜めに並設された構成としてもよい。さらにまた、発射ハンドル41の操作態様に応じて、第1作動口への入賞のみ又は第2作動口への入賞のみを狙えるように、両作動口を離間して配置する構成としてもよい。 In the above configuration, the first working port corresponding to the upper working port 23 and the second working port corresponding to the lower working port 24 are arranged side by side instead of vertically arranging the plurality of working ports. A configuration in which they are arranged side by side may be employed, or a configuration in which both of these operating ports are arranged side by side obliquely may be employed. Furthermore, depending on the operation mode of the shooting handle 41, both working openings may be spaced apart so that only winning in the first working opening or only winning in the second working opening can be aimed.

また、上記構成において、メイン表示部33に、上作動口23への入賞に基づき取得された保留情報の当否判定の結果を表示する第1表示領域と、下作動口24への入賞に基づき取得された保留情報の当否判定の結果を表示する第2表示領域とを設けてもよい。この場合、上作動口23への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第1表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。また、下作動口24への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第2表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。 Further, in the above configuration, the main display unit 33 has a first display area for displaying the result of the validity determination of the hold information acquired based on the winning to the upper operating port 23, and the acquisition based on the winning to the lower operating port 24 A second display area may be provided for displaying the result of the validity determination of the reserved information. In this case, prior to the reservation information acquired based on the winning of the upper operation port 23 becoming the target of the winning judgment, or based on the winning judgment being made, the pattern is displayed in the first display area. is started, the stop result corresponding to the win/loss determination is displayed, and the variation display for one game round is terminated. In addition, prior to the pending information acquired based on the winning of the lower opening 24 becoming the target of the winning judgment, or based on the winning judgment, the pattern fluctuation display is displayed in the second display area. As soon as it is started, the stop result corresponding to the win/loss determination is displayed, and the variation display for one game round is terminated.

(6)上作動口23への入賞に係る保留情報が当否判定の対象となった場合と、下作動口24への入賞に係る保留情報が当否判定の対象となった場合とで、遊技者が得られる利益が異なる構成としてもよい。また、上記各実施形態のように作動口を複数設ける構成においては、作動口の数は2個に限定されることはなく、3個以上であってもよい。また、作動口が1個のみ設けられた構成としてもよい。 (6) When the pending information related to the winning to the upper operating port 23 is the target of the winning judgment and the case of the pending information related to the winning to the lower operating port 24 becomes the target of the winning judgment, the player It is good also as a structure from which the profit obtained differs. Moreover, in the configuration in which a plurality of operation ports are provided as in each of the above embodiments, the number of operation ports is not limited to two, and may be three or more. Also, a configuration in which only one operating port is provided may be employed.

(7)主制御装置50から出力されるコマンドに基づいて、音声発光制御装置60により表示制御装置70,130が制御される構成に代えて、主制御装置50から出力されるコマンドに基づいて、表示制御装置70,130が音声発光制御装置60を制御する構成としてもよい。また、音声発光制御装置60と表示制御装置70,130とが別々に設けられた構成に代えて、両制御装置が一の制御装置として設けられた構成としてもよく、それら両制御装置のうち一方の機能が主制御装置50に集約されていてもよく、それら両制御装置の両機能が主制御装置50に集約されていてもよい。また、主制御装置50から音声発光制御装置60に出力されるコマンドの構成も任意である。 (7) Based on a command output from the main controller 50, instead of controlling the display control devices 70 and 130 by the sound emission control device 60, based on the command output from the main controller 50, The display control devices 70 and 130 may be configured to control the sound emission control device 60 . Further, instead of the configuration in which the sound emission control device 60 and the display control devices 70 and 130 are provided separately, a configuration in which both control devices are provided as one control device may be employed. may be integrated in the main controller 50, or both functions of both controllers may be integrated in the main controller 50. Also, the configuration of the command output from the main control device 50 to the sound emission control device 60 is arbitrary.

(8)上記各実施形態とは異なる他のタイプのパチンコ機等、例えば特別装置の特定領域に遊技球が入ると電動役物が所定回数開放するパチンコ機や、特別装置の特定領域に遊技球が入ると権利が発生して大当たりとなるパチンコ機、他の役物を備えたパチンコ機、アレンジボール機、雀球等の遊技機にも、本発明を適用できる。 (8) Other types of pachinko machines different from the above embodiments, such as a pachinko machine in which an electric accessory is released a predetermined number of times when a game ball enters a specific area of a special device, or a game ball in a specific area of a special device The present invention can also be applied to a pachinko machine in which a right is generated and a jackpot is obtained when a coin is entered, a pachinko machine equipped with other accessories, an arrangement ball machine, a mahball, or the like.

また、弾球式でない遊技機、例えば、複数種の図柄が周方向に付された複数の周回体として複数のリールを備え、メダルの投入及びスタートレバーの操作によりリールの回転を開始し、ストップスイッチが操作されることでリールが停止した後に、表示窓から視認できる有効ライン上に特定図柄又は特定図柄の組み合わせが成立していた場合にはメダルの払い出し等といった特典を遊技者に付与するスロットマシンにも、本発明を適用できる。この場合、スロットマシンの各種制御に対して本発明を適用できるとともに、リールとは別に液晶表示装置といった表示装置を備えた構成においては当該表示制御装置における画像の表示に係る制御に対して本発明を適用できる。 In addition, a non-ball game machine, for example, has a plurality of reels as a plurality of revolving bodies on which a plurality of patterns are attached in the circumferential direction, and the rotation of the reel is started and stopped by inserting medals and operating the start lever. After the reels are stopped by operating a switch, a slot that gives a player a privilege such as payout of medals when a specific pattern or a combination of specific patterns is established on an effective line that can be visually recognized from a display window. The invention can also be applied to machines. In this case, the present invention can be applied to various controls of the slot machine. can be applied.

また、取込装置を備え、貯留部に貯留されている所定数の遊技球が取込装置により取り込まれた後にスタートレバーが操作されることによりリールの回転を開始する、パチンコ機とスロットマシンとが融合された遊技機にも、本発明を適用できる。 Also, a pachinko machine and a slot machine, which are provided with a take-in device and start rotating the reels by operating a start lever after a predetermined number of game balls stored in the storage part are taken in by the take-in device. The present invention can also be applied to a gaming machine in which

<上記実施形態から抽出される発明群について>
以下、上述した実施形態から抽出される発明群の特徴について、必要に応じて効果等を示しつつ説明する。なお以下においては、理解の容易のため、上記実施形態において対応する構成を括弧書き等で適宜示すが、この括弧書き等で示した具体的構成に限定されるものではない。
<Invention group extracted from the above embodiment>
Hereinafter, the features of the group of inventions extracted from the above-described embodiments will be described while showing effects and the like as necessary. In the following description, for ease of understanding, configurations corresponding to the above-described embodiments are appropriately shown in parentheses or the like, but are not limited to the specific configurations shown in parentheses or the like.

<特徴A群>
特徴A1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記データ生成手段は、
複数の個別画像を含む画像群を前記表示部に表示させる場合に適用する前記パラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)と、
当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic group A>
Feature A1. a display means (symbol display device 31) having a display portion (display surface G);
When an image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) and a predetermined update timing comes, display control means (display circuit 155 of VDP 135) for updating the contents of an image;
with
In the gaming machine, wherein the data generating means generates the generated data based on using image data and applying parameter data that determines a display mode of an image based on the image data,
The data generation means is
Derivation means for deriving the parameter data applied when an image group including a plurality of individual images is displayed on the display unit (the function of executing the processing of steps S2204, S2208 and S2212 in the VDP 135, or step S2305 in the VDP 135 , step S2310, step S2317), and
The parameter data derived by the deriving means is applied to the specific image data (the particle dispersion object PC17), and the specific image data is used to generate data for displaying the image group on the display unit. Image group means (function for executing the processing of steps S2206, S2210 and S2214 in the VDP 135, or function for executing the processing of steps S2307, S2313 and S2319 in the VDP 135) that enables generation;
with
The derivation means provides first parameter data (e.g., first key data KD1) to be applied when the image group is displayed at a first update timing, and a second update timing after the first update timing. using second parameter data (e.g., second key data KD2) applied when the image group is displayed by using A gaming machine characterized by comprising specific derivation means for deriving specific parameter data to be applied when displaying (a function of executing the processing of step S2208 in the VDP 135 or a function of executing the processing of step S2310 in the VDP 135). .

特徴A1によれば、複数の個別画像を含む画像群が表示されることにより、表示内容の複雑化が可能となり、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。 According to the feature A1, by displaying an image group including a plurality of individual images, it is possible to complicate the display content and increase the player's interest in the image displayed on the display unit. Become.

この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。 In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived using the first parameter data and the second parameter data, the specific parameter data is not required to be stored in advance, the data capacity can be reduced, and furthermore, it is possible to ensure continuity with respect to each of the first parameter data and the second parameter data.

さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。 Furthermore, the parameter data for displaying the plurality of individual images included in the image group at the update timing between the first update timing and the second update timing are the first parameter data and the second parameter data as the specific parameter data. It is derived collectively using data. As a result, parameter data to be referred to in deriving parameter data among a plurality of individual images included in the image group correspond to the same update timing. Therefore, the processing load for deriving the specific parameter data can be reduced.

特徴A2.前記画像群には、第1個別画像(例えば粒子単体画像PT1)と第2個別画像(例えば粒子単体画像PT2)とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータとを含む前記特定パラメータデータを導出するものであることを特徴とする特徴A1に記載の遊技機。
Feature A2. The group of images includes a first individual image (for example, a single particle image PT1) and a second individual image (for example, a single particle image PT2),
The first parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The second parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The specific derivation means uses the first parameter data and the second parameter data to apply parameter data when displaying the first individual image and when displaying the second individual image. The gaming machine according to feature A1, wherein the specific parameter data including the parameter data to be obtained is derived.

特徴A2によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。 According to feature A2, each of the first parameter data, the second parameter data, and the specific parameter data includes parameter data corresponding to each of the first individual image and the second individual image included in the image group. Become. Accordingly, in a configuration in which parameter data for displaying a plurality of individual images included in an image group at update timings between the first update timing and the second update timing are collectively derived as specific parameter data, the time When changing the display mode of the first individual image and the second individual image with the progress of , it is possible to make the changing mode correspond to each individual image.

特徴A3.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであることを特徴とする特徴A1又はA2に記載の遊技機。 Feature A3. The game according to feature A1 or A2, wherein the specific derivation means derives the specific parameter data by blending the first parameter data and the second parameter data at a predetermined ratio. machine.

特徴A3によれば、第1パラメータデータと第2パラメータデータとをそのまま利用しながら特定パラメータデータを導出することが可能となる。 According to feature A3, it is possible to derive the specific parameter data while using the first parameter data and the second parameter data as they are.

特徴A4.前記画像群には、第1個別画像と第2個別画像とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、
前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用される第1特定パラメータデータと、前記第2個別画像を表示させる場合に適用される第2特定パラメータデータとを含む前記特定パラメータデータを導出するものでり、
且つ、特定の更新タイミングにて前記特定パラメータデータを導出する場合において、前記第1特定パラメータデータを導出する場合における前記所定の比率と、前記第2特定パラメータデータを導出する場合における前記所定の比率とが同一であることを特徴とする特徴A3に記載の遊技機。
Feature A4. The group of images includes a first individual image and a second individual image,
The first parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The second parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The specific derivation means is
Using the first parameter data and the second parameter data, first specific parameter data applied when displaying the first individual image and second specific parameter data applied when displaying the second individual image 2 specific parameter data and deriving the specific parameter data,
Further, in the case of deriving the specific parameter data at a specific update timing, the predetermined ratio in deriving the first specific parameter data and the predetermined ratio in deriving the second specific parameter data. is the same as the gaming machine according to feature A3.

特徴A4によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。 According to feature A4, the first parameter data, the second parameter data, and the specific parameter data each include parameter data corresponding to each of the first individual image and second individual image included in the image group. Become. Accordingly, in a configuration in which parameter data for displaying a plurality of individual images included in an image group at update timings between the first update timing and the second update timing are collectively derived as specific parameter data, the time When the display modes of the first individual image and the second individual image are changed with the progress of , the changing mode can be made to correspond to each individual image.

また、このように各個別画像に対応した各パラメータデータを含むようにして特定パラメータデータを導出する構成において、第1個別画像に対応した第1特定パラメータデータを導出する場合に用いられる所定の比率と、第2個別画像に対応した第2特定パラメータデータを導出する場合に用いられる所定の比率とが同一となっている。これにより、所定の比率の情報を共通して使用することが可能となり、所定の比率がそれぞれ異なる構成に比べて処理負荷の軽減が図られる。 Further, in the configuration for deriving the specific parameter data so as to include each parameter data corresponding to each individual image, a predetermined ratio used when deriving the first specific parameter data corresponding to the first individual image; The predetermined ratio used when deriving the second specific parameter data corresponding to the second individual image is the same. This makes it possible to use the information of the predetermined ratio in common, thereby reducing the processing load compared to a configuration in which the predetermined ratios are different.

特徴A5.前記第1更新タイミングと前記第2更新タイミングとの間には、前記画像群の表示態様が変更される更新タイミングが複数存在しており、
前記特定導出手段は、前記第1更新タイミングと前記第2更新タイミングとの間にて前記画像群の表示態様が変更される複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとを用いて前記特定パラメータデータを導出するものであることを特徴とする特徴A1乃至A4のいずれか1に記載の遊技機。
Feature A5. Between the first update timing and the second update timing, there are a plurality of update timings at which the display mode of the group of images is changed,
The specific derivation means performs the first parameter data and the second parameter data at each of a plurality of update timings at which the display mode of the image group is changed between the first update timing and the second update timing. The gaming machine according to any one of features A1 to A4, wherein the specific parameter data is derived using data.

特徴A5によれば、第1更新タイミングと第2更新タイミングとの間に含まれる複数の更新タイミングのそれぞれにおいて同一の特定パラメータデータを用いるのではなく、それぞれの更新タイミングにて個別に特定パラメータデータが導出される構成であるため、第1パラメータデータから第2パラメータデータへと除々に近付くようにパラメータデータを導出することが可能となる。これにより、画像群の表示態様を一連のものとして遊技者に視認させることが可能となる。 According to the feature A5, the specific parameter data are individually generated at each update timing instead of using the same specific parameter data at each of the plurality of update timings included between the first update timing and the second update timing. is derived, it is possible to derive the parameter data so as to gradually approach the second parameter data from the first parameter data. As a result, it is possible for the player to visually recognize the display mode of the image group as a series.

また、複数の更新タイミングのそれぞれにおいて用いられるパラメータデータが第1パラメータデータと第2パラメータデータとを用いて導出される構成であるため、それらパラメータデータを予め記憶させておく構成に比べ、データ容量の削減が図られる。さらにまた、それら複数のパラメータデータは、いずれも第1パラメータデータと第2パラメータデータとを用いて導出されるため、それら複数のパラメータデータを導出する上で参照すべきパラメータデータの種類を変更する必要が生じない。よって、処理負荷の軽減が図られる。 In addition, since the parameter data used at each of the plurality of update timings is derived using the first parameter data and the second parameter data, the data capacity is larger than that of a configuration in which the parameter data are stored in advance. will be reduced. Furthermore, since each of the plurality of parameter data is derived using the first parameter data and the second parameter data, the type of parameter data to be referred to when deriving the plurality of parameter data is changed. no need arises. Therefore, the processing load can be reduced.

特徴A6.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであり、
前記データ生成手段は、前記複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとをブレンドする場合における前記所定の比率を決定する比率決定手段(表示CPU131におけるステップS2109の処理を実行する機能、又はVDP135におけるステップS2309の処理を実行する機能)を備え、
当該比率決定手段は、前記複数の更新タイミングにおいて一の更新タイミングから次の更新タイミングとなった場合の前記所定の比率の変化量と、当該次の更新タイミングからさらに次の更新タイミングとなった場合の前記所定の比率の変化量とが同一となるように前記決定を行うものであることを特徴とする特徴A5に記載の遊技機。
Feature A6. The specific derivation means derives the specific parameter data by blending the first parameter data and the second parameter data at a predetermined ratio,
The data generation means is configured to determine the ratio determination means for determining the predetermined ratio when blending the first parameter data and the second parameter data at each of the plurality of update timings (the processing of step S2109 in the display CPU 131). or a function to execute the processing of step S2309 in the VDP 135),
The ratio determination means determines the amount of change in the predetermined ratio when one update timing becomes the next update timing among the plurality of update timings, and the amount of change in the predetermined ratio when the next update timing occurs after the next update timing. The game machine according to feature A5, wherein the determination is made so that the amount of change of the predetermined ratio of is the same.

特徴A6によれば、第1更新タイミングと第2更新タイミングとの間の複数の更新タイミングのそれぞれでは、一定の変化量で所定の比率を変更していくだけでよいため、所定の比率を変化させる上での構成の簡素化が図られる。 According to feature A6, at each of the plurality of update timings between the first update timing and the second update timing, it is only necessary to change the predetermined ratio by a constant amount of change, so the predetermined ratio is changed. The simplification of the above configuration is achieved.

特徴A7.一の更新タイミングにおける画像を表示させるのに必要は画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を出力する描画指示手段(表示CPU131)を備え、
前記表示制御手段は、前記描画指示手段にて指示されている情報に従って画像の表示を行わせるものであり、
当該表示制御手段が、前記特定導出手段を有していることを特徴とする特徴A1乃至A6のいずれか1に記載の遊技機。
Feature A7. Rendering instruction means (display CPU 131) for outputting rendering instruction information (drawing list) including at least information designating image data necessary for displaying an image at one update timing and parameter data to be applied to the image data. ,
The display control means causes the image to be displayed according to the information instructed by the drawing instruction means,
The game machine according to any one of features A1 to A6, wherein the display control means has the specific derivation means.

特徴A7によれば、描画指示手段側において特定パラメータデータを導出する必要がないため、当該描画指示手段の処理負荷の軽減が図られる。 According to feature A7, since there is no need to derive the specific parameter data on the drawing instruction means side, the processing load on the drawing instruction means can be reduced.

特徴A8.前記第1パラメータデータ、前記第2パラメータデータ及び前記特定パラメータデータは、前記画像群が表示される位置を決定するための座標情報を含んでいることを特徴とする特徴A1乃至A7のいずれか1に記載の遊技機。 Feature A8. Any one of features A1 to A7, wherein the first parameter data, the second parameter data, and the specific parameter data include coordinate information for determining a position where the group of images is displayed. The gaming machine described in .

特徴A8によれば、既に説明したような優れた効果を奏しながら、画像群に含まれる各個別画像の位置が変化していく画像を表示することが可能となる。 According to feature A8, it is possible to display an image in which the position of each individual image included in the image group changes while exhibiting the excellent effects already described.

特徴A9.前記特定パラメータデータに対応した座標情報は、前記画像群に含まれる各個別画像の位置が、前記第1パラメータデータにより定まる位置と、前記第2パラメータデータにより定まる位置とを結ぶ仮想直線上となるようにする座標情報であることを特徴とする特徴A8に記載の遊技機。 Feature A9. The coordinate information corresponding to the specific parameter data is such that the position of each individual image included in the image group is on a virtual straight line connecting the position determined by the first parameter data and the position determined by the second parameter data. The gaming machine according to feature A8, characterized in that the information is coordinate information for

特徴A9によれば、第1パラメータデータにより定まる位置から、第2パラメータデータにより定まる位置へと移動しているように画像群を表示させる場合において、それらの両位置を結ぶ直線上を移動するように特定パラメータデータを導出するだけでよいため、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出する上で、当該導出に際しての処理負荷の軽減が図られる。 According to feature A9, when displaying an image group as if it were moving from a position determined by the first parameter data to a position determined by the second parameter data, the image group is displayed so as to move on a straight line connecting those positions. Since it is only necessary to derive the specific parameter data by using the first parameter data and the second parameter data, the processing load for deriving the specific parameter data can be reduced.

特徴A10.前記導出手段は、前記第1パラメータデータ及び前記第2パラメータデータを記憶手段(メモリモジュール133)から読み出すことで導出するものであることを特徴とする特徴A1乃至A9のいずれか1に記載の遊技機。 Feature A10. The game according to any one of features A1 to A9, wherein the derivation means derives the first parameter data and the second parameter data by reading them from storage means (memory module 133). machine.

特徴A10によれば、第1更新タイミングにおいては第1パラメータデータを読み出して用い、第2更新タイミングにおいては第2パラメータデータを読み出して用いるだけでよいため、それら更新タイミングにおける処理負荷の軽減が図られる。その一方、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいては、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出すればよいため、それだけパラメータデータを記憶しておくためのデータ容量が削減できる。つまり、本構成によれば、データ容量及び処理負荷の両方のバランスを図りながら、画像群を用いた表示を行うことが可能となる。 According to feature A10, it is only necessary to read and use the first parameter data at the first update timing, and to read and use the second parameter data at the second update timing. be done. On the other hand, at the update timing between the first update timing and the second update timing, the specific parameter data may be derived using the first parameter data and the second parameter data, so the parameter data is stored accordingly. The amount of data to store can be reduced. That is, according to this configuration, it is possible to perform display using a group of images while balancing both the data capacity and the processing load.

特徴A11.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を備え、
前記特定画像データは、オブジェクトの画像データに対応しており、前記画像群に含まれる前記複数の個別画像はそれぞれ、前記オブジェクトの画像データの各頂点データに対応していることを特徴とする特徴A1乃至A10のいずれか1に記載の遊技機。
Feature A11. The data generation means includes placement means (function for executing the processing of steps S1002 to S1004 in the VDP 135) for placing image data of an object, which is three-dimensional information, in the virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. A viewpoint setting means (a function of executing the processing of step S1006 in the VDP 135) for setting the image data of the object onto a projection plane set based on the viewpoint, and based on the data projected onto the projection plane drawing setting means (function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data by
The specific image data corresponds to image data of an object, and each of the plurality of individual images included in the image group corresponds to each vertex data of the image data of the object. The game machine according to any one of A1 to A10.

特徴A11によれば、3次元情報を利用したリアルな画像表示を可能とした構成において、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。 According to feature A11, in a configuration that enables realistic image display using three-dimensional information, when displaying a group of images, it is sufficient to arrange one object in a virtual three-dimensional space, thereby reducing the processing load. It is possible to display a group of images while

特徴A12.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定画像データの使用指示情報が含まれている場合、前記特定画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A11に記載の遊技機。
Feature A12. The arrangement means sends drawing instruction information (drawing list) including at least information designating image data necessary for displaying an image at one update timing and parameter data to be applied to the image data to the drawing instruction means (display CPU 131). ), it is possible to generate generated data corresponding to the drawing instruction information by arranging the image data in the virtual three-dimensional space according to the information indicated by the drawing instruction information. and
When the image group is displayed, the drawing instruction means includes use instruction information of the specific image data in the drawing instruction information,
The arranging means arranges the specific image data in the virtual three-dimensional space when the drawing instruction information includes use instruction information for the specific image data, thereby generating data for displaying the image group. The gaming machine according to feature A11, characterized in that it enables generation.

特徴A12によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。 According to the feature A12, when the image group is displayed, the drawing instruction means only needs to include the use instruction information for one object in the drawing instruction information. Therefore, the processing load required for setting the drawing instruction information can be reduced. In addition, the data capacity of the drawing instruction information can be reduced.

特徴A13.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、複数の個別画像を含む画像群を前記表示部に表示させる場合に適用するパラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)を備え、
前記配置手段は、当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
Feature A13. Arrangement means for arranging image data of an object, which is 3D information, in a virtual 3D space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual 3D space (a function of executing the processing of step S1006 in the VDP 135); and projecting the image data of the object onto a projection plane set based on the viewpoint, and generating data (drawing data) based on the data projected onto the projection plane. ), and data generation means (display CPU 131, geometry calculation section 151 and rendering section 152) having a drawing setting means (function for executing the processing of steps S1010 to S1012 in VDP 135) to generate data generated by a storage means (frame buffer 142) for storing;
display control means (display circuit 155 of VDP 135) for outputting and displaying an image corresponding to the generated data stored in the storage means on display means (symbol display device 31);
In a gaming machine equipped with
The data generation means is a derivation means for deriving parameter data applied when an image group including a plurality of individual images is displayed on the display unit (a function of executing the processing of steps S2204, S2208 and S2212 in the VDP 135, or step S2305, step S2310, step S2317) in VDP 135,
The arranging means displays the group of images on the display unit based on using the specific image data (particle dispersion object PC17) in a state in which the parameter data derived by the deriving means is applied to the specific image data. Image group means (function for executing the processing of steps S2206, S2210 and S2214 in the VDP 135, or function of executing the processing of steps S2307, S2313 and S2319 in the VDP 135) that enables generation of generation data to be displayed and,
with
The derivation means provides first parameter data (e.g., first key data KD1) to be applied when the image group is displayed at a first update timing, and a second update timing after the first update timing. using second parameter data (e.g., second key data KD2) applied when the image group is displayed by using A gaming machine characterized by comprising specific derivation means for deriving specific parameter data to be applied when displaying (a function of executing the processing of step S2208 in the VDP 135 or a function of executing the processing of step S2310 in the VDP 135). .

特徴A13によれば、3次元情報を利用したリアルな画像表示が可能となり、さらには複数の個別画像を含む画像群が表示されることにより表示内容の複雑化が可能となる。よって、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。 According to the feature A13, it is possible to display a realistic image using three-dimensional information, and furthermore, it is possible to complicate the display content by displaying an image group including a plurality of individual images. Therefore, it is possible to increase the player's interest in the image displayed on the display unit.

この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。 In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived using the first parameter data and the second parameter data, the specific parameter data is not required to be stored in advance, the data capacity can be reduced, and furthermore, it is possible to ensure continuity with respect to each of the first parameter data and the second parameter data.

さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。 Furthermore, the parameter data for displaying the plurality of individual images included in the image group at the update timing between the first update timing and the second update timing are the first parameter data and the second parameter data as the specific parameter data. It is derived collectively using data. As a result, parameter data to be referred to in deriving parameter data among a plurality of individual images included in the image group correspond to the same update timing. Therefore, the processing load for deriving the specific parameter data can be reduced.

特徴A14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示制御手段は、特定の生成データを用いることにより、複数の個別画像を含む画像群を同時に表示させる構成であり、
前記画像群を表示させるために前記配置手段により前記仮想3次元空間に配置される画像データは、当該画像群に含まれる前記複数の個別画像のそれぞれが、各頂点データに対応付けられている特定オブジェクトの画像データ(粒子分散用オブジェクトPC17)であることを特徴とする遊技機。
Feature A14. Arrangement means for arranging image data of an object, which is 3D information, in a virtual 3D space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual 3D space (a function of executing the processing of step S1006 in the VDP 135); and projecting the image data of the object onto a projection plane set based on the viewpoint, and generating generated data based on the data projected onto the projection plane. Generated data (drawing data) generated by data generation means (display CPU 131, geometry calculation unit 151 and rendering unit 152) having drawing setting means (function for executing the processing of steps S1010 to S1012 in VDP 135) a storage means (frame buffer 142) for storing;
display control means (display circuit 155 of VDP 135) for outputting and displaying an image corresponding to the generated data stored in the storage means on display means (symbol display device 31);
In a gaming machine equipped with
The display control means is configured to simultaneously display an image group including a plurality of individual images by using specific generated data,
The image data arranged in the virtual three-dimensional space by the arrangement means for displaying the image group is such that each of the plurality of individual images included in the image group is associated with each vertex data. A game machine characterized by being image data of an object (particle dispersion object PC 17).

特徴A14によれば、3次元情報を利用したリアルな画像表示が可能となる。この場合に、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。 According to feature A14, realistic image display using three-dimensional information is possible. In this case, when displaying the image group, it is only necessary to arrange one object in the virtual three-dimensional space. Therefore, it is possible to display the image group while reducing the processing load.

特徴A15.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定オブジェクトの画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定オブジェクトの画像データの使用指示情報が含まれている場合、当該特定オブジェクトの画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A14に記載の遊技機。
Feature A15. The arrangement means sends drawing instruction information (drawing list) including at least information designating image data necessary for displaying an image at one update timing and parameter data to be applied to the image data to the drawing instruction means (display CPU 131). ), it is possible to generate generated data corresponding to the drawing instruction information by arranging the image data in the virtual three-dimensional space according to the information indicated by the drawing instruction information. and
The drawing instruction means includes use instruction information of image data of the specific object in the drawing instruction information when displaying the image group,
The arranging means displays the image group by arranging the image data of the specific object in the virtual three-dimensional space when the drawing instruction information includes use instruction information of the image data of the specific object. The gaming machine according to feature A14, characterized in that it is capable of generating generation data that causes a game to be played.

特徴A15によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。 According to feature A15, when displaying an image group, the drawing instruction means only needs to include use instruction information about one object in the drawing instruction information. Therefore, the processing load required for setting the drawing instruction information can be reduced. In addition, the data capacity of the drawing instruction information can be reduced.

上記特徴A群の発明は、以下の課題に対して効果的である。 The invention of the above characteristic group A is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where an image is displayed using two-dimensional image data, the image data memory stores image data for displaying the background and image data for displaying characters and the like. It is Further, by reading the image data, generation data for displaying a character or the like in front of the background is generated in storage means such as a VRAM. By outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, polygons, which are three-dimensional image data, are set in the virtual three-dimensional space, and textures, which are two-dimensional image data such as characters and patterns, are pasted on the polygons. Generated data is generated by projecting the textured polygon onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the generated data.

ここで、個別画像の表示方向を複雑なものとしたり、複数の個別画像を同時に表示させることにより、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となると考えられる。しかしながら、このような画像の表示を行う場合に、処理負荷が極端に増加してしまうことや、データ容量が極端に増加してしまうことは好ましくない。 Here, by making the display direction of the individual images complicated or displaying a plurality of individual images at the same time, it is possible to increase the player's interest in the images displayed on the display unit. However, when displaying such an image, it is not preferable that the processing load increases significantly or the data volume increases significantly.

本発明は、上記例示した事情等に鑑みてなされたものであり、処理負荷を抑えながら、表示演出を良好に行うことが可能な遊技機を提供することを目的とするものである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a game machine capable of performing good display effects while suppressing the processing load.

<特徴B群>
特徴B1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記配置手段による前記仮想3次元空間への配置対象となるオブジェクトの画像データには、複数の面を定めることが可能なデータを有し且つそれら複数の面データ(面データSD)によって3次元形状を定めることが可能な多面オブジェクトの画像データ(海面用オブジェクトPC19)が含まれており、
前記データ生成手段は、
複数の更新タイミングに亘って前記多面オブジェクトの画像データに対応した多面画像を表示させるべく前記仮想3次元空間に前記多面オブジェクトの画像データを配置する場合に、前記多面画像の表示態様が変更されるように前記複数の面データのうち少なくとも一部についての前記仮想3次元空間への配置態様を変更させる配置態様変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135における海面表示用の設定処理を実行する機能)と、
当該配置態様変更手段により前記配置態様が変更された前記面データに対して適用する色情報を、当該面データの配置態様に応じて当該面データ単位で変更させることにより、前記多面画像の少なくとも一部の領域の表示色が複数の更新タイミング間において異なることとなる画像表示を可能とする表示色変更手段(VDP135における海面表示用の色情報設定処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Characteristic group B>
Feature B1. Arrangement means for arranging image data of an object, which is 3D information, in a virtual 3D space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual 3D space (a function of executing the processing of step S1006 in the VDP 135); and projecting the image data of the object onto a projection plane set based on the viewpoint, and generating data (drawing data) based on the data projected onto the projection plane. ), and data generation means (display CPU 131, geometry calculation section 151 and rendering section 152) having a drawing setting means (function for executing the processing of steps S1010 to S1012 in VDP 135) to generate data generated by a storage means (frame buffer 142) for storing;
display means (symbol display device 31) to display an image corresponding to the generated data stored in the storage means, and display control means (of the VDP 135) to update the content of the image when a predetermined update timing comes a display circuit 155);
In a gaming machine equipped with
The image data of the object to be placed in the virtual three-dimensional space by the placement means includes data capable of defining a plurality of planes, and a three-dimensional shape based on the plane data (plane data SD). contains image data (sea surface object PC 19) of a multi-surface object capable of defining
The data generation means is
When arranging the image data of the multifaceted object in the virtual three-dimensional space in order to display the multifaceted image corresponding to the image data of the multifaceted object over a plurality of update timings, the display mode of the multifaceted image is changed. arrangement mode changing means for changing the arrangement mode of at least some of the plurality of surface data in the virtual three-dimensional space (function for executing arithmetic processing for sea surface display in display CPU 131, sea surface display in VDP 135 function to execute setting processing) and
By changing the color information applied to the plane data whose arrangement mode has been changed by the arrangement mode changing means for each plane data according to the arrangement mode of the plane data, at least one of the multi-plane images is changed. a display color changing means (a function of executing color information setting processing for sea surface display in the VDP 135) that enables image display in which the display color of the area of the part is different between a plurality of update timings;
A game machine characterized by comprising:

特徴B1によれば、複数の面データのうち少なくとも一部についての配置態様が変更されるとともに、当該配置態様が変更された面データに適用される色情報がその配置態様の変更に伴って変更される。これにより、表示演出を複雑化させることが可能となり、表示演出への遊技者の興味を高めることが可能となる。 According to the feature B1, the layout of at least some of the plurality of plane data is changed, and the color information applied to the plane data whose layout has been changed is changed in accordance with the change of the layout. be done. As a result, it is possible to complicate the display effect and increase the player's interest in the display effect.

また、上記色情報の変更は、面データの配置態様に応じて当該面データ単位で行われる。これにより、色情報が変更されるパターンに対応させて多数のテクスチャを事前に記憶させておかなくても、面データの配置態様に応じた色情報の設定を行うことが可能となる。よって、データ容量の増大化を抑制しながら、表示演出への遊技者の興味を高めることが可能となる。 Further, the color information is changed in units of surface data according to the layout of the surface data. This makes it possible to set color information in accordance with the layout of surface data without pre-storing a large number of textures corresponding to patterns in which color information is changed. Therefore, it is possible to increase the player's interest in the display performance while suppressing an increase in data volume.

なお、「前記配置態様変更手段は、前記配置態様を変更させる場合、前記複数の面データのうち少なくとも一部について、向き、形状及びサイズのうち少なくとも一つを変更させる」という構成が上記構成に含まれる。 It should be noted that the above configuration includes a configuration in which "the arrangement mode changing means changes at least one of the orientation, shape, and size of at least a portion of the plurality of surface data when changing the arrangement mode". included.

特徴B2.前記配置態様変更手段は、前記複数の面データのうち一部の面データの配置態様を変更させ、且つ他の面データの配置態様を当該一部の面データに対する配置態様の変更に対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1に記載の遊技機。 Feature B2. The arrangement mode changing means is means for changing the arrangement mode of some of the plurality of plane data and making the arrangement mode of the other plane data correspond to the change in the arrangement mode of the part of the plane data. (a function of executing normal parameter setting processing in the VDP 135).

特徴B2によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。 According to feature B2, it is possible to individually control the layout of the surface data while maintaining the continuity between the surface data.

特徴B3.前記配置態様変更手段は、前記多面画像において対応する領域が相互に連続しない非連続の面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つ前記多面画像において対応する領域が前記非連続の面データに対応する領域と連続する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記非連続の面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1又はB2に記載の遊技機。 Feature B3. The arrangement mode changing means changes a predetermined parameter, which is at least one of orientation, shape, and size, for discontinuous plane data (applied plane data SD1) in which corresponding areas in the multi-plane image are not continuous. and making the predetermined parameter of the plane data (buffer plane data SD2) corresponding to the discontinuous plane data correspond to the discontinuous plane data. (a function of executing normal parameter setting processing in the VDP 135).

特徴B3によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。特に、配置態様を積極的に変更させる対象を非連続の面データとし、当該非連続の面データに連続する面データについては、上記非連続の面データに対応させることにより、このような切り分けを行わずに配置態様の変更を行う構成に比べて、各面データ間の連続性を担保するための調整に要する処理負荷の軽減が図られる。 According to feature B3, it is possible to individually control the layout of the surface data while maintaining the continuity between the surface data. In particular, discontinuous surface data is used as a target for positively changing the arrangement mode, and surface data that is continuous with the discontinuous surface data is made to correspond to the discontinuous surface data. The processing load required for the adjustment to ensure the continuity between the plane data can be reduced compared to the configuration in which the arrangement mode is changed without performing the change.

なお、上記特徴B3のより具体的な構成としては、
「前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記頂点データを相互に共有していない面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つそれら変更対象となった面データと頂点データを共有する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記変更対象となった面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えている」
という構成が考えられる。
In addition, as a more specific configuration of the feature B3,
"Each of the surface data is determined by a plurality of vertex data, and the predetermined plurality of surface data share a part of the vertex data with each other,
The arrangement mode changing means changes a predetermined parameter, which is at least one of orientation, shape, and size, for surface data (surface data SD1 to be applied) that do not share the vertex data, and changes the parameters. Means for making the predetermined parameters of the surface data (buffer surface data SD2) sharing vertex data with the target surface data correspond to the surface data to be changed (normal parameter setting processing in the VDP 135). It has the ability to execute
A configuration can be considered.

特徴B4.前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記各頂点データの座標を個別に変更させることにより、前記各面データの向き、形状及びサイズのうち少なくとも一つを変更させるものであることを特徴とする特徴B1又はB2に記載の遊技機。
Feature B4. each of the surface data is defined by a plurality of vertex data, and the predetermined plurality of surface data share a part of the vertex data;
Characteristic B1, wherein the arrangement mode changing means changes at least one of the orientation, shape, and size of each face data by individually changing the coordinates of each vertex data; or The gaming machine described in B2.

特徴B4によれば、一の頂点データの座標を変更することで、複数の面データの向き、形状及びサイズのうち少なくとも一つを変更することが可能となる。このように面データ単位でパラメータを制御するのではなく、頂点データ単位でパラメータを制御することで、面データ間の連続性を担保させるための処理構成をあえて設定しなくても、面データの配置態様を個別に制御することが可能となる。 According to feature B4, by changing the coordinates of one vertex data, it is possible to change at least one of the orientation, shape, and size of a plurality of surface data. By controlling the parameters in units of vertex data instead of controlling parameters in units of surface data in this way, even if you do not set a processing configuration to ensure continuity between surface data, It is possible to individually control the arrangement mode.

特徴B5.前記配置態様変更手段は、
前記複数の面データの各配置態様を個別に変更させることを可能とする個別制御データ(第1法線マップデータND1、第2法線マップデータND2)を記憶手段(メモリモジュール133)から読み出すデータ読出手段(VDP135におけるステップS2503を実行する機能)と、
前記個別制御データを前記多面オブジェクトの画像データに適用する場合の態様を前記複数の更新タイミング間において異ならせる適用変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B4のいずれか1に記載の遊技機。
Feature B5. The arrangement mode changing means is
Data for reading individual control data (first normal map data ND1, second normal map data ND2) for individually changing the arrangement of the plurality of surface data from the storage means (memory module 133); reading means (function for executing step S2503 in VDP 135);
Application changing means (function for executing the processes of steps S2506, S2507, S2511 and S2512 in the VDP 135) for changing the manner in which the individual control data is applied to the image data of the multifaceted object between the plurality of update timings )and,
The gaming machine according to any one of features B1 to B4, characterized by comprising:

特徴B5によれば、予め記憶された個別制御データを利用して面データの配置態様を変更させる構成において、その個別制御データを利用しながら、複数の更新タイミング間において多面画像の表示態様を変更させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。 According to the characteristic B5, in the configuration for changing the layout of the plane data using pre-stored individual control data, the display mode of the multi-plane image is changed between a plurality of update timings while using the individual control data. It is possible to Therefore, it is possible to achieve the excellent effects already described while balancing both the data capacity and the processing load.

特徴B6.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5に記載の遊技機。
Feature B6. The individual control data has a plurality of unit control data (unit normal data UND), and the unit control data are applied to the surface data or data defining the surface data,
The application changing means changes the correspondence relationship between the target data to which the unit control data is applied and the unit control data in the image data of the multi-faceted object according to the switching of the update timing. The gaming machine according to feature B5, characterized by comprising a function of executing the processes of steps S2506, S2507, S2511 and S2512.

特徴B6によれば、単位制御データを適用する対象のデータと当該単位制御データとの対応関係を切り換えることによって複数の更新タイミング間において多面画像の表示態様を変更させる構成であるため、個別制御データを利用しながら多面画像の表示態様を変更させる構成において処理負荷を軽減することが可能となる。 According to feature B6, by switching the correspondence relationship between the data to which the unit control data is applied and the unit control data, the display mode of the multi-view image is changed between a plurality of update timings. It is possible to reduce the processing load in a configuration in which the display mode of the multi-faceted image is changed while using .

特徴B7.前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して複数の前記単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5又はB6に記載の遊技機。 Feature B7. The application changing means includes multiple applying means for reflecting the content of the plurality of unit control data on one data to which the unit control data is applied in the image data of the multifaceted object (steps S2506 and S2507 in the VDP 135). , a function of executing the processes of steps S2511 and S2512).

特徴B7によれば、単位制御データを参照しながら配置態様を変更させる構成において、その変更させる配置態様の多様化が図られる。 According to the feature B7, in the configuration for changing the arrangement mode while referring to the unit control data, the arrangement mode to be changed is diversified.

特徴B8.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記データ読出手段は、複数の前記個別制御データを前記記憶手段から読み出すものであり、
前記適用変更手段は、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して、前記複数の個別制御データのそれぞれの単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の個別制御データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴B5又はB6に記載の遊技機。
Feature B8. The individual control data has a plurality of unit control data (unit normal data UND), and the unit control data are applied to the surface data or data defining the surface data,
The data reading means reads a plurality of the individual control data from the storage means,
The application change means is
Multiple application means (step S2507 in VDP 135 and step a function to execute the processing of S2512);
In the image data of the multifaceted object, the correspondence relationship between the target data to which the unit control data is applied and the unit control data is changed according to the switching of the update timing, and the change in the correspondence relationship is changed by the plurality of individual control data. Correspondence changing means for each of
The gaming machine according to feature B5 or B6, characterized by comprising:

特徴B8によれば、遊技機設計段階における個別制御データの設計の容易化を図りながら、配置態様を複雑に変化させることが可能となる。 According to the feature B8, it is possible to change the layout in a complicated manner while facilitating the design of the individual control data in the game machine design stage.

特徴B9.前記配置態様変更手段は、
複数の前記面データを含む一群のデータについてまとめて配置態様を変更させる第1変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135におけるステップS2504及びステップS2509を実行する機能)と、
当該第1変更手段により配置態様が変更された前記一群のデータに含まれる各面データの配置態様を個別に変更させる第2変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B8のいずれか1に記載の遊技機。
Feature B9. The arrangement mode changing means is
a first change unit (function of executing arithmetic processing for sea surface display in the display CPU 131, function of executing steps S2504 and S2509 in the VDP 135) for collectively changing the layout of a group of data including a plurality of surface data; ,
A second changing unit for individually changing the layout of each face data included in the group of data whose layout has been changed by the first changing unit (the processing of steps S2506, S2507, S2511 and S2512 in the VDP 135). function) and
The gaming machine according to any one of features B1 to B8, characterized by comprising:

特徴B9によれば、大きな流れに沿って配置態様を変更するようにしながら、面データ単位での配置態様を複雑に変化させることが可能となる。 According to the feature B9, it is possible to change the arrangement mode in units of plane data in a complicated manner while changing the arrangement mode along a general flow.

なお、このような作用効果を生じさせるより具体的な構成としては、「前記第1変更手段により変更される配置態様の種類は、位置、向き及びサイズの少なくとも一つであり、前記第2変更手段により変更される配置態様の種類には、前記第1変更手段により変更される配置対象の種類の少なくとも一部が含まれている」構成が考えられる。 In addition, as a more specific configuration for producing such a function and effect, "the type of arrangement mode changed by the first change means is at least one of position, orientation and size, and the second change means A configuration is conceivable in which at least part of the types of placement targets changed by the first changing means are included in the types of placement modes changed by the means.

また、「前記多面オブジェクトの画像データには、前記一群のデータが複数含まれており、前記第1変更手段は、それら複数の一群のデータの配置態様を個別に変更させるものである」構成が考えられる。 Further, there is a configuration in which ``the image data of the multifaceted object includes a plurality of the groups of data, and the first changing means individually changes the layout of the groups of the plurality of data''. Conceivable.

特徴B10.前記表示色変更手段は、
前記配置態様変更手段による変更対象となった配置態様に応じて、前記面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702~ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記配置態様とは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B9のいずれか1に記載の遊技機。
Feature B10. The display color changing means is
Section specifying means (step S2702 to step function to execute S2705);
color information for selecting color information to be applied to the face data identified as being included in the predetermined division by the division identifying means from among a plurality of stages of color information based on a parameter of a type different from the arrangement mode; selection means (function for executing steps S2706 and S2707 in VDP 135);
The gaming machine according to any one of features B1 to B9, characterized by comprising:

特徴B10によれば、配置態様に応じて色情報を変化させながら、さらに配置態様とは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、リアルな画像表示を実現することが可能となる。 According to feature B10, the color information is determined based on parameters different from the layout mode while changing the color information according to the layout mode, so it is possible to set the color information in a complicated manner. This makes it possible to realize realistic image display.

特徴B11.前記配置態様変更手段は、前記面データの向きを少なくとも変更させるものであり、
前記表示色変更手段は、前記視点に対する前記面データの角度に基づき、当該面データに適用する色情報を変更させるものであることを特徴とする特徴B1乃至B10のいずれか1に記載の遊技機。
Feature B11. The arrangement mode changing means changes at least the orientation of the plane data,
The gaming machine according to any one of features B1 to B10, wherein the display color changing means changes color information applied to the plane data based on an angle of the plane data with respect to the viewpoint. .

特徴B11によれば、面の向きに応じた色情報の設定を行うことが可能となり、多面画像の表示をリアルに行うことが可能となる。 According to the feature B11, it is possible to set color information according to the direction of the surface, and it is possible to display a multi-surface image realistically.

特徴B12.前記表示色変更手段は、
前記配置態様変更手段により変更された前記面データの向きに応じて、当該面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702~ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記向きとは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B11に記載の遊技機。
Feature B12. The display color changing means is
According to the direction of the surface data changed by the arrangement mode changing unit, the section identifying means (steps S2702 to a function to execute step S2705);
Color information selection for selecting color information to be applied to the surface data identified as being included in the predetermined section by the section identifying means from among a plurality of levels of color information based on a parameter of a type different from the direction. means (the function of executing steps S2706 and S2707 in the VDP 135);
The gaming machine according to feature B11, characterized by comprising:

特徴B12によれば、面の向きに応じて色情報を変化させながら、さらに面の向きとは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、多面画像の表示をリアルに行うことが可能となる。 According to the feature B12, the color information is determined based on a parameter different from the surface orientation while changing the color information according to the surface orientation. Therefore, it is possible to set the color information in a complicated manner. This makes it possible to display a multifaceted image realistically.

特徴B13.前記色情報選択手段は、前記区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記視点からの所定方向の距離に基づき、複数段階の色情報の中から選択するものであることを特徴とする特徴B12に記載の遊技機。 Feature B13. The color information selection means selects the color information to be applied to the surface data identified as being included in the predetermined division by the division identification means, based on the distance in a predetermined direction from the viewpoint. The game machine according to feature B12, characterized in that it is selected from among.

特徴B13によれば、面の向きだけでなく面の位置に応じて色情報が変化するため、多面画像の表示をリアルに行うことが可能となる。 According to the characteristic B13, since the color information changes depending on not only the direction of the surface but also the position of the surface, it is possible to display a multi-surface image realistically.

上記特徴B群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group B is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, an object, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the object. Generated data is generated by projecting the textured object onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the generated data.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, it is not preferable that the data capacity increases significantly in order to further improve the display effect.

<特徴C群>
特徴C1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic group C>
Feature C1. Display means (symbol display device 31) having a display portion (display surface G);
When an image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) and a predetermined update timing comes, display control means (display circuit 155 of VDP 135) for updating the contents of an image;
In a game machine equipped with
The display mode of the images on the display section includes a mode in which the plurality of individual images are displayed in such a manner that the player recognizes that they are displayed in a positional relationship shifted in the depth direction of the display section. ,
The data generation means generates an individual image displayed so that the player can recognize that it exists on the near side in the depth direction with respect to the predetermined reference position in the depth direction, and the image on the far side in the depth direction. The target individual image, which is at least one of the individual images displayed so as to be recognized by the player as existing at the reference position, has an outline compared to the image recognized by the player as existing at the reference position. A gaming machine characterized by comprising a blurring setting means (a function of executing adjustment processing for focus effect in a VDP 135) for displaying a blurry state by blurring a line.

特徴C1によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。 According to the feature C1, it is possible to perform a display effect as if the focus is on the reference position, and it is possible to perform a display effect with a sense of depth.

特徴C2.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記生成データは、色情報が設定された単位データを多数有しており、
前記ぼかし設定手段は、
前記設定用記憶手段に設定された前記画像データに対応したデータであって前記各単位データを生じさせる各データのそれぞれについて前記奥行きパラメータを導出するパラメータ導出手段(VDP135におけるステップS3101~ステップS3107を実行する機能)と、
前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していないデータに対してぼかし発生処理を実行することにより、当該データに対応した画像部分がぼかした状態で表示されるようにするぼかし実行手段(VDP135におけるステップS3110~ステップS3115を実行する機能)と、
を備えていることを特徴とする特徴C1に記載の遊技機。
Feature C2. The data generating means generates the generated data based on setting the image data, and sets the image data in a state in which a depth parameter corresponding to the display position in the depth direction is applied. Based on this, the display mode is such that the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction,
The generated data has a large number of unit data in which color information is set,
The blur setting means includes:
Parameter deriving means for deriving the depth parameter for each data corresponding to the image data set in the setting storage means and generating each unit data (executing steps S3101 to S3107 in VDP 135) function) and
Blur execution for displaying an image portion corresponding to the data in a blurred state by executing blur generation processing on data whose depth parameter does not correspond to the reference parameter corresponding to the reference position. Means (function for executing steps S3110 to S3115 in VDP 135);
The gaming machine according to feature C1, characterized by comprising:

特徴C2によれば、ぼかした状態とするための画像データを予め記憶させておく必要がないため、データ容量の削減を図りながら、ぼかした状態での表示を行うことが可能となる。また、各単位データを生じさせる各データのそれぞれについて奥行きパラメータが導出される構成であるため、ぼかした状態の表示を細かく制御することが可能となる。 According to the feature C2, since it is not necessary to store the image data for the blurred state in advance, it is possible to display the blurred state while reducing the data capacity. Further, since the depth parameter is derived for each piece of data that generates each piece of data, it is possible to finely control display in a blurred state.

特徴C3.前記表示手段における表示演出として、前記ぼかした状態での表示が複数の更新タイミングに亘って行われるぼかし表示演出が含まれており、
前記パラメータ導出手段は、前記奥行きパラメータの導出を、1回の前記ぼかし表示演出の一の更新タイミングと他の更新タイミングとのそれぞれにおいて行うものであることを特徴とする特徴C2に記載の遊技機。
Feature C3. The display effect in the display means includes a blurred display effect in which the display in the blurred state is performed over a plurality of update timings,
The gaming machine according to feature C2, wherein the parameter derivation means derives the depth parameter at each of one update timing and another update timing of the blurred display effect. .

特徴C3によれば、表示演出の進行に応じて、ぼかした状態の表示を変化させることが可能となる。 According to the feature C3, it is possible to change the display in the blurred state according to the progress of the display effect.

特徴C4.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を備えており、
前記パラメータ導出手段は、前記投影後の2次元情報のデータに含まれる各単位データのそれぞれについて前記奥行きパラメータを導出するものであり、
前記ぼかし実行手段は、前記投影後の2次元情報のデータに対して、前記奥行きパラメータを利用して前記ぼかし発生処理を実行するものであることを特徴とする特徴C2又はC3に記載の遊技機。
Feature C4. The data generation means includes placement means (function for executing the processing of steps S1002 to S1004 in the VDP 135) for placing image data of an object, which is three-dimensional information, in the virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. a viewpoint setting means (a function of executing the processing of step S1006 in the VDP 135) for setting the image data of the object onto a projection plane set based on the viewpoint, and the two-dimensional information projected onto the projection plane drawing setting means (function for executing the processing of steps S1010 to S1012 in the VDP 135) that generates generation data that is two-dimensional information based on the data of
The parameter deriving means derives the depth parameter for each unit data included in the projected two-dimensional information data,
The gaming machine according to feature C2 or C3, wherein the blurring execution means executes the blurring process on the projected two-dimensional information data using the depth parameter. .

特徴C4によれば、奥行きパラメータの導出やぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、これら処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature C4, the depth parameter derivation and blur generation processing are performed not on the data of the three-dimensional information but on the data of the two-dimensional information, so that the processing load can be reduced. However, it is possible to obtain the excellent effects as described above.

特徴C5.前記ぼかし実行手段は、前記ぼかし発生処理として、前記投影後の2次元情報のデータに含まれる単位データの色情報をその周囲の単位データの色情報とブレンディングさせる処理(VDP135におけるステップS3206、ステップS3212及びステップS3217を実行する機能)を実行するものであることを特徴とする特徴C4に記載の遊技機。 Feature C5. As the blur generation process, the blur execution means blends the color information of the unit data included in the data of the two-dimensional information after projection with the color information of the surrounding unit data (steps S3206 and S3212 in the VDP 135). and a function of executing step S3217).

特徴C5によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。この場合に、そのブレンディングさせる処理は、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C5, since the blending process is executed when blurring occurs, it is possible to display the blurred state according to the type of the image to be displayed in the blurred state display effect. , it is possible to suitably display the blurred state. In this case, the blending process is performed not on the data of the three-dimensional information, but on the data of the two-dimensional information. can be preferably performed.

特徴C6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を備えており、
前記ぼかし設定手段は、前記投影後の2次元情報のデータに対してぼかし発生処理を実行することにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C5のいずれか1に記載の遊技機。
Feature C6. The data generation means includes arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. a viewpoint setting means (a function of executing the processing of step S1006 in the VDP 135) for setting the image data of the object onto a projection plane set based on the viewpoint, and two-dimensional information projected onto the projection plane drawing setting means (function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data, which is two-dimensional information, based on the data of
The blurring setting means is characterized in that the target individual image is displayed in a blurred state by executing a blurring generation process on the projected two-dimensional information data. The gaming machine according to any one of features C1 to C5.

特徴C6によれば、ぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature C6, since the blurring generation process is performed not on the data of the three-dimensional information but on the data of the two-dimensional information, it is possible to reduce the processing load as described above. It becomes possible to exhibit an excellent effect.

特徴C7.前記ぼかし設定手段は、前記ぼかした状態での表示を行う場合、特別画像(教示用の個別画像CH15,CH16)については、前記基準位置に対して前記奥行き方向にずれた位置に存在していると遊技者に認識されるように表示されるとしても、前記ぼかした状態での表示対象から除外するものであることを特徴とする特徴C1乃至C6のいずれか1に記載の遊技機。 Feature C7. When the blurring setting means performs display in the blurring state, the special images (individual images CH15 and CH16 for teaching) are present at positions shifted in the depth direction with respect to the reference position. The gaming machine according to any one of features C1 to C6, wherein even if it is displayed so as to be recognized by the player, it is excluded from the display objects in the blurred state.

特徴C7によれば、ぼかした状態での表示を行う場合、基準位置に対してずれた位置に存在しているように表示されている個別画像に対して一律にぼかした状態での表示を適用しようとすると、遊技者に認識させるべき情報を認識させづらくしてしまう可能性が生じる。これに対して、特別画像については、基準位置に存在しているように表示されているか否かに関係なく、ぼかした状態での表示対象から除外する構成としたことにより、上記のような不都合の発生を抑制しながら、ぼかした状態での表示を実現することが可能となる。 According to feature C7, when displaying in a blurred state, display in a uniformly blurred state is applied to individual images that are displayed as if they exist at positions shifted from the reference position. If you try, there is a possibility that it will be difficult for the player to recognize the information that should be recognized. On the other hand, regardless of whether or not the special image is displayed as if it were present at the reference position, the special image is excluded from being displayed in the blurred state. While suppressing the occurrence of , it is possible to realize display in a blurred state.

なお、前記特別画像には、遊技者に遊技状況を教示するために用いられる教示用画像が含まれる。 Incidentally, the special image includes a teaching image used for teaching the game situation to the player.

特徴C8.前記特別画像は、前記基準位置に対して前記奥行き方向の手前側に存在していると遊技者に認識されるように表示される画像であることを特徴とする特徴C7に記載の遊技機。 Feature C8. The gaming machine according to feature C7, wherein the special image is an image displayed so as to be recognized by the player as existing on the front side in the depth direction with respect to the reference position.

特徴C8によれば、特別画像がぼかした状態の表示対象から除外される構成において、それが意図的に除外されていると遊技者に認識させ易くなる。よって、ぼかした状態の表示演出に違和感を与えることなく、特別画像をぼかした状態の表示対象から除外することが可能となる。 According to feature C8, in a configuration in which the special image is excluded from the blurred display targets, it is easy for the player to recognize that the special image is intentionally excluded. Therefore, it is possible to exclude the special image from the blurred display target without giving a sense of discomfort to the blurred display effect.

特徴C9.遊技者による操作を受け付ける操作受付手段(演出用操作装置48)を備え、
前記ぼかし設定手段は、前記操作受付手段に対する遊技者の操作に基づき、前記基準位置を変更させるものであることを特徴とする特徴C1乃至C8のいずれか1に記載の遊技機。
Feature C9. Equipped with an operation reception means (an effect operation device 48) that receives an operation by a player,
The gaming machine according to any one of features C1 to C8, wherein the blurring setting means changes the reference position based on the player's operation on the operation receiving means.

特徴C9によれば、ぼかした状態の表示演出の画一化が抑えられ、当該表示演出への注目度を高めることが可能となる。 According to the characteristic C9, the uniformity of the display effects in the blurred state is suppressed, and it becomes possible to increase the degree of attention to the display effects.

特徴C10.前記ぼかし設定手段は、予め定められた第1表示期間(遊技回)では前記ぼかした状態の表示を行わず、前記ぼかした状態の表示に要する処理を除いた処理の処理負荷が前記第1表示期間よりも低い第2表示期間(ラウンド遊技)にて前記ぼかした状態の表示を行うものであることを特徴とする特徴C1乃至C9のいずれか1に記載の遊技機。 Feature C10. The blurring setting means does not display the blurred state during a predetermined first display period (game time), and the processing load of the processing excluding the processing required for displaying the blurred state is reduced to the first display period. The gaming machine according to any one of features C1 to C9, wherein the blurred state is displayed in a second display period (round game) shorter than the period.

特徴C10によれば、ぼかした状態の表示を行う場合における更新タイミングの処理負荷が極端に増加してしまうことが抑制される。 According to the feature C10, an extreme increase in the processing load of the update timing when displaying a blurred state is suppressed.

特徴C11.前記データ生成手段は、画像データを設定することに基づき前記生成データを生成するものであり、
前記ぼかし設定手段は、前記画像データによって決定付けられる少なくとも一部の色情報をその周囲の色情報とブレンディングさせることにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C10のいずれか1に記載の遊技機。
Feature C11. The data generating means generates the generated data based on setting image data,
The blurring setting means causes the target individual image to be displayed in a blurred state by blending at least part of the color information determined by the image data with surrounding color information. The gaming machine according to any one of features C1 to C10, characterized by:

特徴C11によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C11, since the blending process is executed when blurring occurs, it is possible to display the blurred state according to the type of the image to be displayed in the blurred state display effect. , it is possible to suitably display the blurred state.

特徴C12.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記ぼかし設定手段は、前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していない画像データに対してぼかし発生処理を実行することにより、当該画像データに対応した前記対象個別画像がぼかした状態で表示されるようにするものであり、
前記基準パラメータは、前記基準位置が前記奥行き方向の所定範囲に対応するように所定のパラメータ範囲を有していることを特徴とする特徴C1乃至C11のいずれか1に記載の遊技機。
Feature C12. The data generating means generates the generated data based on setting the image data, and sets the image data in a state in which a depth parameter corresponding to the display position in the depth direction is applied. Based on this, the display mode is such that the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction,
The blurring setting means blurs the target individual image corresponding to the image data by executing blurring generation processing on the image data whose depth parameter does not correspond to the reference parameter corresponding to the reference position. It is intended to be displayed in the state,
The gaming machine according to any one of features C1 to C11, wherein the reference parameter has a predetermined parameter range such that the reference position corresponds to the predetermined range in the depth direction.

特徴C12によれば、被写界深度をある程度広げた状態で、ぼかした状態の表示を行うことが可能となる。よって、ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C12, it is possible to display a blurred state with the depth of field widened to some extent. Therefore, it is possible to preferably perform display in a blurred state.

特徴C13.前記ぼかし設定手段は、前記基準位置から前記奥行き方向に所定距離だけ離れた位置に存在していると遊技者に認識される画像よりも、当該所定距離よりも前記奥行き方向に遠い位置に存在していると遊技者に認識される画像の方が前記ぼかした状態で表示される度合いが大きくなるようにするものであることを特徴とする特徴C1乃至C12のいずれか1に記載の遊技機。 Feature C13. The blurring setting means exists at a position farther in the depth direction than the image recognized by the player as being at a position away from the reference position by the predetermined distance in the depth direction. The gaming machine according to any one of the features C1 to C12, wherein the image recognized by the player as being blurred is displayed to a greater extent.

特徴C13によれば、ぼかした状態の表示をよりリアルに行うことが可能となる。 According to the feature C13, it is possible to display the blurred state more realistically.

特徴C14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
Feature C14. Arrangement means for arranging image data of an object, which is 3D information, in a virtual 3D space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual 3D space (a function of executing the processing of step S1006 in the VDP 135); and projecting the image data of the object onto a projection plane set based on the viewpoint, and generating data (drawing data) based on the data projected onto the projection plane. ), and data generation means (display CPU 131, geometry calculation section 151 and rendering section 152) having a drawing setting means (function for executing the processing of steps S1010 to S1012 in VDP 135) to generate data generated by a storage means (frame buffer 142) for storing;
display control means (display circuit 155 of VDP 135) for outputting and displaying an image corresponding to the generated data stored in the storage means on display means (symbol display device 31);
In a game machine equipped with
The display mode of the images on the display section includes a mode in which the plurality of individual images are displayed in such a manner that the player recognizes that they are displayed in a positional relationship shifted in the depth direction of the display section. ,
The data generating means generates an individual image displayed such that the player recognizes that it exists on the near side in the depth direction with respect to the predetermined reference position in the depth direction, and the image on the far side in the depth direction. The target individual image, which is at least one of the individual images displayed so as to be recognized by the player as existing at the reference position, has an outline compared to the image recognized by the player as existing at the reference position. A gaming machine characterized by comprising blurring setting means (a function of executing adjustment processing for focus effects in a VDP 135) for displaying lines in a blurred state by blurring them.

特徴C14によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。 According to the feature C14, it is possible to perform a display effect as if the focus is on the reference position, and it is possible to perform a display effect with a sense of depth.

上記特徴C群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group C is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where an image is displayed using two-dimensional image data, the image data memory stores image data for displaying the background and image data for displaying characters and the like. It is Further, by reading the image data, generation data for displaying a character or the like in front of the background is generated in storage means such as a VRAM. By outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, an object, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the object. Rendering data is created by projecting the textured object onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the drawing data.

ここで、表示演出への遊技者の注目度を高めるためには、よりリアルな画像表示を行うことが好ましく、この点について未だ改良の余地がある。 Here, in order to increase the player's attention to the display effect, it is preferable to display a more realistic image, and there is still room for improvement in this regard.

<特徴D群>
特徴D1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101~ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
<Characteristic group D>
Feature D1. a display means (symbol display device 31) having a display portion (display surface G);
When an image is displayed on the display unit using the generated data (drawing data) generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) and a predetermined update timing comes, display control means (display circuit 155 of VDP 135) for updating the contents of an image;
with
In the gaming machine, wherein the data generating means generates the generated data based on using image data and applying parameter data that determines a display mode of an image based on the image data,
The generated data has a large number of unit data in which color information is set,
The data generation means is a set data derivation means (step in VDP 135) for deriving set data (normal map data ND1, ND2, blur map data) to be used for each generation unit data that generates each unit data. a function of executing S2503, a function of executing steps S3101 to S3107 in the VDP 135), and applying each unit parameter data included in the set data derived by the set data deriving means to each of the generation unit data. and by changing at least one of the method of applying aggregated data and the contents of the aggregated data to be applied, generating the generated data in which the same type of individual image is displayed in a different manner A gaming machine characterized in that it

特徴D1によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。 According to feature D1, each unit parameter data group is treated as set data, so that the processing of data handling can be simplified. In addition, by changing at least one of the method of applying aggregated data and the content of aggregated data to be applied, generation data is generated in which the same type of individual image is displayed in a different manner. It is possible to diversify the display effects while suppressing the amount of image data to be stored in advance.

特徴D2.前記集合データ導出手段は、記憶手段(メモリモジュール133)から前記集合データ(第1法線マップデータND1、第2法線マップデータND2)を読み出すことで当該集合データを導出するものであることを特徴とする特徴D1に記載の遊技機。 Feature D2. The collective data deriving means derives the collective data by reading out the collective data (first normal map data ND1, second normal map data ND2) from the storage means (memory module 133). The gaming machine according to feature D1.

特徴D2によれば、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D2, it is possible to achieve the above-described excellent effects while reducing the processing load.

特徴D3.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出される前記集合データ(第1法線マップデータND1、第2法線マップデータND2)は、前記仮想3次元空間に配置されている前記オブジェクトの画像データに対して適用されることを特徴とする特徴D1又はD2に記載の遊技機。
Feature D3. The data generation means includes placement means (function for executing the processing of steps S1002 to S1004 in the VDP 135) for placing image data of an object, which is three-dimensional information, in the virtual three-dimensional space, and a viewpoint in the virtual three-dimensional space. a viewpoint setting means (a function of executing the processing of step S1006 in the VDP 135) for setting the image data of the object onto a projection plane set based on the viewpoint, and the two-dimensional information projected onto the projection plane drawing setting means (function for executing the processing of steps S1010 to S1012 in the VDP 135) that generates generation data that is two-dimensional information based on the data of
The set data (first normal map data ND1, second normal map data ND2) derived by the set data deriving means is applied to the image data of the object arranged in the virtual three-dimensional space. The gaming machine according to feature D1 or D2, characterized in that

特徴D3によれば、集合データを利用して3次元情報の画像データの配置態様を変更することが可能となるため、リアルな画像表示を実現しながら、さらに複雑な画像表示を行うことが可能となる。この場合に、その複雑な画像表示を行う場合において、上記のとおり集合データを利用する構成であるため、データ容量及び処理負荷の両方のバランスを図ることが可能となる。 According to the feature D3, it is possible to change the layout of the image data of the three-dimensional information using the set data, so that more complex image display can be performed while realizing realistic image display. becomes. In this case, in the case of displaying the complicated image, it is possible to achieve a balance between both the data capacity and the processing load because of the configuration using the set data as described above.

特徴D4.前記集合データ導出手段は、前記画像データが設定された状態において、当該設定された状態に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであり、
前記データ生成手段は、その導出された前記集合データを、前記画像データから作成されたデータに対して適用することに基づき、前記生成データを生成するものであることを特徴とする特徴D1乃至D3のいずれか1に記載の遊技機。
Feature D4. The set data deriving means derives the set data (blur map data) by specifying each unit parameter data (Z value) corresponding to the set state in the state in which the image data is set. is a
Features D1 to D3, wherein the data generating means generates the generated data based on applying the derived set data to data generated from the image data. The gaming machine according to any one of 1.

特徴D4によれば、集合データを予め記憶させておく必要がないため、データ容量の削減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D4, since it is not necessary to store aggregated data in advance, it is possible to achieve the above excellent effects while reducing the data volume.

特徴D5.前記集合データ導出手段は、前記集合データを用いて前記生成データが生成される状況において、各生成データのそれぞれに対応した前記集合データを導出するものであることを特徴とする特徴D4に記載の遊技機。 Feature D5. Characteristic feature D4 according to feature D4, wherein the aggregate data deriving means derives the aggregate data corresponding to each of the generated data in a situation where the aggregate data is used to generate the generated data. game machine.

特徴D5によれば、各更新タイミングにおいて異なる集合データを用いることが可能となり、表示演出の多様化を図ることが可能となる。また、この場合であっても、集合データは予め記憶されているのではなく、その都度作成されるため、データ容量の削減を図りながら、表示演出の多様化を図ることが可能となる。 According to the feature D5, it is possible to use different set data at each update timing, and it is possible to diversify the display effects. Also, even in this case, the set data is not stored in advance, but is created each time. Therefore, it is possible to diversify the display effect while reducing the data capacity.

特徴D6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段は、前記配置手段による前記オブジェクトの画像データの配置態様に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであることを特徴とする特徴D4又はD5に記載の遊技機。
Feature D6. The data generation means includes arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. a viewpoint setting means (a function of executing the processing of step S1006 in the VDP 135) for setting the image data of the object onto a projection plane set based on the viewpoint, and two-dimensional information projected onto the projection plane drawing setting means (function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data, which is two-dimensional information, based on the data of
The set data derivation means derives the set data (blur map data) by specifying each unit parameter data (Z value) according to the arrangement mode of the image data of the object by the arrangement means. The gaming machine according to feature D4 or D5, characterized by:

特徴D6によれば、3次元情報の画像データを利用することでリアルな画像表示を実現した構成において、そのリアルな画像表示を可能とするデータ設定態様に則して集合データが作成されるため、集合データの利用がリアルな画像表示に悪影響を及してしまわないようにすることが可能となる。 According to feature D6, in a configuration that realizes realistic image display by using image data of three-dimensional information, aggregate data is created in accordance with a data setting mode that enables realistic image display. , it is possible to prevent the use of aggregated data from adversely affecting realistic image display.

特徴D7.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出された前記集合データ(ぼかしマップデータ)は、前記投影後の2次元情報のデータに対して適用されることを特徴とする特徴D1乃至D6のいずれか1に記載の遊技機。
Feature D7. The data generation means includes arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. a viewpoint setting means (a function of executing the processing of step S1006 in the VDP 135) for setting the image data of the object onto a projection plane set based on the viewpoint, and two-dimensional information projected onto the projection plane drawing setting means (function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data, which is two-dimensional information, based on the data of
The aggregate data (blurred map data) derived by the aggregate data deriving means is applied to the data of the two-dimensional information after projection, according to any one of features D1 to D6. game machine.

特徴D7によれば、集合データは、3次元情報のデータに対して適用されるのではなく、2次元情報のデータに対して適用される構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D7, the set data is applied not to the data of the three-dimensional information but to the data of the two-dimensional information. It is possible to achieve excellent effects such as

特徴D8.前記データ生成手段は、前記集合データの前記各単位パラメータデータを前記各生成用単位データに適用する場合の態様を複数の更新タイミング間において異ならせることに基づき、同一種類の個別画像の表示態様が変化していくことに対応した前記生成データを生成する生成実行手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能、ステップS1010~ステップS1012を実行する機能)を備えていることを特徴とする特徴D1乃至D7のいずれか1に記載の遊技機。 Feature D8. The data generating means changes the display mode of the same type of individual image based on different modes of applying the unit parameter data of the collective data to the generation unit data between a plurality of update timings. Generating and executing means for generating the generated data corresponding to changes (function for executing the processes of steps S2506, S2507, steps S2511 and S2512 in the VDP 135, and function for executing steps S1010 to S1012). The game machine according to any one of features D1 to D7, characterized in that

特徴D8によれば、単一の集合データを利用しながら、複数の更新タイミング間において同一種類の個別画像の表示態様を変化させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。 According to feature D8, it is possible to change the display mode of the same type of individual image between a plurality of update timings while using a single set of data. Therefore, it is possible to achieve the excellent effects already described while balancing both the data capacity and the processing load.

特徴D9.前記生成実行手段は、前記各単位パラメータデータと前記各生成用単位データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8に記載の遊技機。 Feature D9. The generation execution means includes a correspondence change means (steps S2506, S2507, S2511 and steps S2506, S2507, S2511 and S2511 in the VDP 135) that changes the correspondence between each unit parameter data and each generation unit data according to the change of update timing. function of executing the processing of S2512).

特徴D9によれば、単位パラメータデータと生成用単位データとの対応関係を切り換えることで、複数の更新タイミング間において画像の表示態様を変更させる構成であるため、集合データを利用しながら画像の表示態様を変更させる構成において、処理負荷を軽減することが可能となる。 According to feature D9, by switching the correspondence relationship between the unit parameter data and the generation unit data, the display mode of the image is changed between a plurality of update timings. Therefore, the image is displayed while using the collective data. In the configuration for changing the mode, it is possible to reduce the processing load.

特徴D10.前記生成実行手段は、前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、複数の単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8又はD9に記載の遊技機。 Feature D10. The generation execution means includes multiple application means (steps S2506 and S2507 in the VDP 135) for reflecting the contents of a plurality of unit parameter data on one data to which the unit parameter data is applied in each of the generation unit data. , a function of executing the processes of steps S2511 and S2512).

特徴D10によれば、単位パラメータデータを参照しながら表示態様を変更させる構成において、その変更させる表示態様の多様化が図られる。 According to the feature D10, in the configuration in which the display mode is changed while referring to the unit parameter data, the changed display mode is diversified.

特徴D11.前記集合データ導出手段は、前記集合データを複数導出するものであり、
前記生成実行手段は、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、前記複数の集合データのそれぞれの単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象のデータと当該単位パラメータデータとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の集合データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴D8に記載の遊技機。
Feature D11. The collective data derivation means derives a plurality of the collective data,
The generation execution means is
Multiple application means (steps S2507 and S2512 in the VDP 135) for reflecting the content of the unit parameter data of each of the plurality of set data on one data to which the unit parameter data is applied in each of the generation unit data function to execute the processing of
changing the correspondence relationship between the data to which the unit parameter data is applied and the unit parameter data in each of the generation unit data in accordance with a change in update timing, and changing the correspondence relationship between the plurality of set data; Correspondence changing means for each (function for executing the processing of steps S2506 and S2511 in the VDP 135);
The gaming machine according to feature D8, characterized by comprising:

特徴D11によれば、遊技機設計段階における集合データの設計の容易化を図りながら、表示態様を複雑に変化させることが可能となる。 According to the feature D11, it is possible to change the display mode in a complicated manner while facilitating the design of the collective data in the game machine design stage.

特徴D12.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101~ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
Feature D12. Arrangement means for arranging image data of an object, which is 3D information, in a virtual 3D space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual 3D space (a function of executing the processing of step S1006 in the VDP 135); and projecting the image data of the object onto a projection plane set based on the viewpoint, and generating data (drawing data) based on the data projected onto the projection plane. ), and data generation means (display CPU 131, geometry calculation section 151 and rendering section 152) having a drawing setting means (function for executing the processing of steps S1010 to S1012 in VDP 135) to generate data generated by a storage means (frame buffer 142) for storing;
display control means (display circuit 155 of VDP 135) for outputting and displaying an image corresponding to the generated data stored in the storage means on display means (symbol display device 31);
In a gaming machine equipped with
The generated data has a large number of unit data in which color information is set,
The data generation means is a set data derivation means (step in VDP 135) for deriving set data (normal map data ND1, ND2, blur map data) to be used for each generation unit data that generates each unit data. a function of executing S2503, a function of executing steps S3101 to S3107 in the VDP 135), and applying each unit parameter data included in the set data derived by the set data deriving means to each of the generation unit data. and by changing at least one of the method of applying aggregated data and the contents of the aggregated data to be applied, generating the generated data in which the same type of individual image is displayed in a different manner A gaming machine characterized in that it

特徴D12によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。 According to feature D12, each unit parameter data group is treated as set data, so that the processing of data handling can be simplified. In addition, by changing at least one of the method of applying aggregated data and the content of aggregated data to be applied, generation data is generated in which the same type of individual image is displayed in a different manner. It is possible to diversify the display effects while suppressing the amount of image data to be stored in advance.

上記特徴D群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group D is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where an image is displayed using two-dimensional image data, the image data memory stores image data for displaying the background and image data for displaying characters and the like. It is Further, by reading the image data, generation data for displaying a character or the like in front of the background is generated in storage means such as a VRAM. By outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, an object, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the object. Rendering data is created by projecting the textured object onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the drawing data.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, it is not preferable that the data capacity increases significantly in order to further improve the display effect.

<特徴E群>
特徴E1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、前記オブジェクトの画像データに対してテクスチャの画像データを設定するテクスチャ設定手段(VDPにおける特別キャラクタ用のテクスチャマッピング処理を実行する機能)を備え、
前記オブジェクトの画像データとして所定個別画像(特別キャラクタ)を表示させる場合に用いられる所定オブジェクトデータ(特別オブジェクトPC20)が含まれており、さらに前記テクスチャの画像データとして前記所定オブジェクトデータに対して設定される所定テクスチャデータ(第1部分テクスチャPC21~PC23、第2部分テクスチャPC24~PC27)が含まれており、
前記所定テクスチャデータは、
前記所定オブジェクトデータの第1パーツデータ(本体パーツ部BP)に対して設定される第1テクスチャデータ(第1部分テクスチャPC21~PC23)と、
前記所定オブジェクトデータの第2パーツデータ(付属パーツ部AP1~AP4)に対して設定される第2テクスチャデータ(第2部分テクスチャPC24~PC27)と、
が含まれており、
前記テクスチャ設定手段は、
前記第1パーツデータに対して設定する前記第1テクスチャデータの種類を変更する第1設定手段(VDP135におけるステップS3401~ステップS3403を実行する機能)と、
前記第2パーツデータに対して前記第2テクスチャデータを設定する場合において、当該第2パーツデータに対する当該第2テクスチャデータの設定位置関係を変更する第2設定手段(VDP135におけるステップS3405~ステップS3409を実行する機能)と、
を備えていることを特徴とする遊技機。
<Characteristic group E>
Feature E1. Arrangement means for arranging image data of an object, which is 3D information, in a virtual 3D space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual 3D space (a function of executing the processing of step S1006 in the VDP 135); and projecting the image data of the object onto a projection plane set based on the viewpoint, and generating data (drawing data) based on the data projected onto the projection plane. ), and data generation means (display CPU 131, geometry calculation section 151 and rendering section 152) having a drawing setting means (function for executing the processing of steps S1010 to S1012 in VDP 135) to generate data generated by a storage means (frame buffer 142) for storing;
display means (symbol display device 31) to display an image corresponding to the generated data stored in the storage means, and display control means (of the VDP 135) to update the content of the image when a predetermined update timing comes a display circuit 155);
In a game machine equipped with
The data generating means comprises texture setting means (function for executing texture mapping processing for a special character in VDP) for setting texture image data for the image data of the object,
The object image data includes predetermined object data (special object PC20) used when displaying a predetermined individual image (special character), and the texture image data is set for the predetermined object data. contains predetermined texture data (first partial textures PC21 to PC23, second partial textures PC24 to PC27),
The predetermined texture data is
first texture data (first partial textures PC21 to PC23) set for the first part data (main body part portion BP) of the predetermined object data;
second texture data (second partial textures PC24 to PC27) set for the second part data (attached part parts AP1 to AP4) of the predetermined object data;
contains
The texture setting means is
a first setting means (a function of executing steps S3401 to S3403 in the VDP 135) for changing the type of the first texture data to be set for the first parts data;
When setting the second texture data for the second parts data, second setting means for changing the setting positional relationship of the second texture data for the second parts data (steps S3405 to S3409 in the VDP 135 functions to perform) and
A game machine characterized by comprising:

特徴E1によれば、所定個別画像の外観を変化させる場合において、設定するテクスチャデータの種類をまとめて変更するのではなく、テクスチャデータの一部である第1テクスチャデータについては種類を変更する一方、テクスチャデータの他の一部である第2テクスチャデータについては第2パーツデータに対する設定位置関係を変更させる構成である。これにより、所定個別画像の一部については外観を複雑に変化させるようにしながら、他の一部については外観の変化の複雑さを低減する代わりにデータ容量の削減が図られる。よって、データ容量と処理負荷とのバランスを図りながら、上記のように所定個別画像の外観を変化させることが可能となる。 According to the feature E1, when changing the appearance of the predetermined individual image, the type of the first texture data, which is a part of the texture data, is changed instead of changing the type of texture data to be set all at once. , the second texture data, which is another part of the texture data, is configured to change the set positional relationship with respect to the second part data. As a result, the appearance of part of the predetermined individual image is changed in a complex manner, while the data volume of the other part is reduced in exchange for reducing the complexity of the appearance change. Therefore, it is possible to change the appearance of the predetermined individual image as described above while balancing the data capacity and the processing load.

特徴E2.前記所定個別画像において前記第2パーツデータが占める割合は、前記第1パーツデータが占める割合よりも小さいことを特徴とする特徴E1に記載の遊技機。 Feature E2. The gaming machine according to feature E1, wherein a ratio of the second parts data in the predetermined individual image is smaller than a ratio of the first parts data.

特徴E2によれば、テクスチャデータの種類ではなく設定位置関係が変更される領域は、テクスチャデータの設定位置関係ではなく種類が変更される領域に比べて、外観を変化させる場合においてその変化が乏しいものとなるが、前者の領域の方が小さいため、所定個別画像全体としては外観が大きく変化していると遊技者に認識させることが可能となる。 According to feature E2, regions where the set positional relationship, not the type of texture data, is changed are less likely to change when changing the appearance than regions where the type, not the set positional relationship, of texture data is changed. However, since the former area is smaller, it is possible for the player to recognize that the appearance of the predetermined individual image as a whole has changed significantly.

特徴E3.前記所定オブジェクトデータに対応した所定個別画像において前記第1パーツデータが占める領域には、当該所定個別画像において特定の外縁部分に対する相対位置が変化しない画像部分(目や口の模様部分)が存在していることを特徴とする特徴E1又はE2に記載の遊技機。 Feature E3. In the region occupied by the first part data in the predetermined individual image corresponding to the predetermined object data, there is an image portion (pattern portion of eyes and mouth) whose relative position with respect to a specific outer edge portion in the predetermined individual image does not change. The gaming machine according to feature E1 or E2, characterized in that

特徴E3によれば、相対位置が変化すると好ましくない画像部分については、第1テクスチャデータとして設定されているため、当該画像部分を含めた領域の外観の変化を好適に行うことが可能となる。 According to the feature E3, since the image portion that is not preferable when the relative position changes is set as the first texture data, it is possible to appropriately change the appearance of the area including the image portion.

特徴E4.前記第2テクスチャデータは、一方の境界部分に設定されている色情報がその逆側の境界部分に設定されている色情報に対して連続性を有していることを特徴とする特徴E1乃至E3のいずれか1に記載の遊技機。 Feature E4. In the second texture data, the color information set at one boundary portion has continuity with the color information set at the opposite boundary portion. The gaming machine according to any one of E3.

特徴E4によれば、第2テクスチャデータの設定位置関係を変化していった場合において、所定個別画像に模様の境界が生じてしまうことが抑制される。 According to feature E4, when the set positional relationship of the second texture data is changed, the occurrence of a pattern boundary in the predetermined individual image is suppressed.

特徴E5.前記第2パーツデータ及び前記第2テクスチャデータの組合せは、複数存在しており、
前記第2設定手段は、一の前記第2テクスチャデータの設定位置関係を変更する場合には他の前記第2テクスチャデータの設定位置関係を変更するものであることを特徴とする特徴E1乃至E4のいずれか1に記載の遊技機。
Feature E5. A plurality of combinations of the second parts data and the second texture data exist,
Characteristic features E1 to E4, wherein the second setting means changes the set positional relationship of the other second texture data when changing the set positional relationship of one of the second texture data. The gaming machine according to any one of 1.

特徴E5によれば、第2テクスチャデータが複数存在している構成において、それら第2テクスチャデータの設定に要する処理負荷の軽減が図られる。 According to feature E5, in a configuration in which a plurality of second texture data exist, the processing load required for setting the second texture data can be reduced.

上記特徴E群の発明は、以下の課題に対して効果的である。 The invention of the characteristic group E is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, an object, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the object. Generated data is generated by projecting the textured object onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the generated data.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, it is not preferable that the data capacity increases significantly in order to further improve the display effect.

<特徴F群>
特徴F1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した1の動画を前記複数の更新タイミング分の期間に亘って表示させる表示演出を実行する表示演出実行手段(表示CPU131においてラウンド演出用の演算処理を実行する機能、VDP135におけるラウンド演出用の設定処理及びラウンド演出用マッピング処理を実行する機能)と、
を備え、
前記表示演出実行手段は、前記表示演出の演出期間のうち一部の特定期間において所定の画像を挿入することにより、前記1の動画を用いて複数種類の表示パターンの表示演出を実行可能に構成されていることを特徴とする遊技機。
<Feature group F>
Feature F1. Display means (symbol display device 31) having a display portion (display surface G);
display storage means (memory module 133) storing image data in advance;
display control means (display CPU 131, VDP 135) for displaying an image on the display unit using the image data stored in the display storage means;
In a gaming machine equipped with
The display storage means stores compressed moving image data used for reproducing moving images,
The display control means is
a rendering means (moving image decoder) for rendering any moving image data in an rendering area and creating still image data for a plurality of update timings for an image corresponding to the moving image data;
By using the still image data for a plurality of update timings developed by the development means in the order determined in the moving image data, one moving image corresponding to the moving image data is generated for the plurality of update timings. Display effect execution means for executing a display effect to be displayed over a period of (function of executing arithmetic processing for round effect in display CPU 131, function of executing setting process for round effect and mapping process for round effect in VDP 135) and,
with
The display effect executing means is configured to be able to execute display effects of a plurality of types of display patterns using the one moving image by inserting a predetermined image in a part of specific periods of the effect period of the display effect. A gaming machine characterized by:

特徴F1によれば、1の動画を用いて複数種類の表示パターンの表示演出を実行することにより、表示演出毎に動画像データを用意する構成と比較して、表示演出に要するデータ量の削減を図ることができる。よって、表示演出の多様化を図りつつ、データ量の増大化を抑制することができる。 According to feature F1, by executing display effects of a plurality of types of display patterns using one moving image, the amount of data required for display effects is reduced compared to a configuration in which moving image data is prepared for each display effect. can be achieved. Therefore, it is possible to suppress an increase in the amount of data while diversifying display effects.

特徴F2.前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記表示演出実行手段は、前記特定期間において前記所定画像データを用いて前記所定の画像を表示させ得るものであることを特徴とする特徴F1に記載の遊技機。
Feature F2. the display storage means stores predetermined image data (insertion image data IPD0) which is image data used for displaying the predetermined image and has a data amount smaller than that of the moving image data;
The gaming machine according to feature F1, wherein the display effect executing means is capable of displaying the predetermined image using the predetermined image data during the specific period.

特徴F2によれば、所定画像データを用いて所定の画像が表示される。当該所定画像データは動画像データよりも少ないデータ量に設定されている。これにより、表示演出毎に動画像データを用意する構成と比較して、少ないデータ量で表示演出の多様化を図ることができる。 According to the feature F2, the predetermined image is displayed using the predetermined image data. The predetermined image data is set to have a data amount smaller than that of the moving image data. As a result, it is possible to diversify display effects with a small amount of data compared to a configuration in which moving image data is prepared for each display effect.

また、所定画像データを用いて所定の画像を表示させる構成の方が、所定の画像を作成して表示させる構成と比較して、所定の画像の作成に係る処理を実行する必要がない分だけ所定の画像の表示に係る処理負荷が軽くなり易い。これにより、表示演出に係るデータ量の削減を図りつつ、所定の画像を表示させるのに要する処理負荷を軽減させることができ、データ量の削減と処理負荷とのバランスを図ることができる。 Further, the configuration for displaying a predetermined image using predetermined image data eliminates the need to execute processing related to creating a predetermined image, compared to the configuration for creating and displaying a predetermined image. The processing load associated with displaying a predetermined image is likely to be lightened. As a result, the processing load required to display a predetermined image can be reduced while reducing the amount of data related to the display effect, and the reduction of the data amount and the processing load can be balanced.

特徴F3.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に代えて前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。 Feature F3. The gaming machine according to feature F1 or feature F2, wherein the display effect executing means displays the predetermined image instead of the image related to the one moving image during the specific period.

特徴F3によれば、特定期間において動画に係る画像が表示される場合と所定の画像が表示される場合とがある。これにより、表示演出の表示パターンの1つとして1の動画に係る画像の表示を用いることができる。よって、少ないデータ量で表示演出の多様化を図ることができる。 According to the feature F3, there are cases in which an image related to a moving image is displayed and in which a predetermined image is displayed in a specific period. As a result, the display of an image related to one moving image can be used as one of the display patterns of the display effect. Therefore, it is possible to diversify display effects with a small amount of data.

なお、本特徴の具体的な構成としては、「前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に対して前記所定の画像を上書きするものである」ことが考えられる。かかる構成によれば、動画表示に係る処理にて特別な処理を行うことなく、1の動画に係る画像に代えて所定の画像を表示させることができる。 As a specific configuration of this feature, it is conceivable that "the display effect executing means overwrites the image related to the one moving image with the predetermined image in the specific period." According to such a configuration, it is possible to display a predetermined image instead of an image related to one moving image without performing special processing in the processing related to moving image display.

特徴F4.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像と、前記所定の画像とを重ね合わせることで合成画像を作成し、当該合成画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。 Feature F4. The display effect executing means is characterized in that, in the specific period, the image related to the one moving image and the predetermined image are superimposed to create a composite image, and display the composite image. The gaming machine according to feature F1 or feature F2.

特徴F4によれば、1の動画に係る画像と所定の画像との合成画像が表示されるため、1の動画に係る画像を用いて、当該1の動画に係る画像とは異なる画像を表示させることができる。 According to the feature F4, since a composite image of an image related to one moving image and a predetermined image is displayed, an image different from the image related to the one moving image is displayed using the image related to one moving image. be able to.

特に、動画像データの特性上、当該動画像データは、更新タイミング毎の連続するデータを保持する必要がある。この点、本特徴によれば、当該連続するデータを用いて合成画像を作成する構成としたことにより、当該連続するデータを好適に利用することができ、表示演出全体に係るデータ量の削減を好適に行うことができる。 In particular, due to the characteristics of moving image data, it is necessary to hold continuous data for each update timing. In this regard, according to this feature, the continuous data can be preferably used by creating a composite image using the continuous data, and the amount of data related to the entire display effect can be reduced. It can be done suitably.

また、特徴F2との関係によれば、所定の画像のみで画像表示を行う構成と比較して、所定の画像の表示領域を小さくすることができるため、所定画像データのデータ量の削減を図ることができる。これにより、所定の画像を表示するのに要するデータ量を少なくすることができる。 Further, according to the relationship with the feature F2, the display area of the predetermined image can be reduced compared to the configuration in which only the predetermined image is displayed, so that the data amount of the predetermined image data can be reduced. be able to. As a result, the amount of data required to display a given image can be reduced.

特徴F5.仮想3次元空間内にオブジェクトの画像データを配置する配置手段(VDP135におけるラウンド演出用の設定処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記画像データを投影させることで作成された投影データを用いて生成データを生成するとともに、前記視点が向く方向に複数の前記画像データが並んでいる場合、その並んでいる各部分において前記視点が向く方向における当該視点からの距離が小さい側の部分を優先して前記生成データに反映させる描画用設定手段(VDP135における演出用の描画データ作成処理を実行する機能)と、によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)を備え、
前記表示制御手段は、前記記憶手段に記憶された生成データに対応した画像を前記表示部に表示させるものであり、
前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記オブジェクトには、
前記動画像データから生成される静止画像データがテクスチャとして貼り付けられる第1オブジェクト(動画用オブジェクト)と、
前記所定画像データがテクスチャとして貼り付けられる第2オブジェクト(挿入用オブジェクト)と、
が含まれており、
前記配置手段は、前記特定期間において、前記視点が向く方向における当該視点からの距離が、前記第1オブジェクトよりも前記第2オブジェクトの方が小さくなるように、前記各オブジェクトを配置するものであることを特徴とする特徴F3又は特徴F4に記載の遊技機。
Feature F5. Arranging means for arranging object image data in the virtual three-dimensional space (function for executing setting processing for round effect in VDP 135); a function to execute conversion processing to) and projection data created by projecting the image data onto a projection plane set based on the viewpoint to generate generated data, and the direction in which the viewpoint faces When a plurality of the image data are arranged in a row, drawing setting means ( A function for executing drawing data creation processing for rendering in the VDP 135), and a storage means (frame buffer 142) for storing generated data (drawing data) generated by
The display control means causes the display unit to display an image corresponding to the generated data stored in the storage means,
the display storage means stores predetermined image data (insertion image data IPD0) which is image data used for displaying the predetermined image and has a data amount smaller than that of the moving image data;
Said object includes:
a first object (moving image object) to which still image data generated from the moving image data is pasted as a texture;
a second object (insertion object) to which the predetermined image data is pasted as a texture;
contains
The arranging means arranges each of the objects such that the distance from the viewpoint in the direction in which the viewpoint faces is smaller than that of the first object in the specific period. The gaming machine according to feature F3 or feature F4, characterized by:

特徴F5によれば、第1オブジェクトに対して、動画像データから生成される静止画像データがテクスチャとして貼り付けられ、当該静止画像データが更新タイミングとなる度に更新されることにより、1の動画が表示される。また、第2オブジェクトに対して、所定画像データがテクスチャとして貼り付けられることにより、所定の画像が表示される。この場合、所定の画像に係る第2オブジェクトが1の動画に係る第1オブジェクトよりも前面側に配置されるため、陰面消去の構成により1の動画に係る画像に対して重なるように所定の画像が表示される。これにより、3次元画像を表示するための陰面消去の構成を利用して、1の動画に係る画像に代えて所定の画像を表示させたり、1の動画に係る画像と所定の画像とを合成させたりすることができる。 According to the feature F5, the still image data generated from the moving image data is pasted as a texture to the first object, and the still image data is updated each time the update timing comes, thereby forming one moving image. is displayed. Further, a predetermined image is displayed by pasting the predetermined image data as a texture on the second object. In this case, since the second object related to the predetermined image is arranged on the front side of the first object related to the one moving image, the predetermined image is arranged so as to overlap the image related to the one moving image by the hidden surface elimination configuration. is displayed. As a result, a predetermined image is displayed in place of an image related to one moving image, or an image related to one moving image and a predetermined image are synthesized by using the hidden surface elimination configuration for displaying a three-dimensional image. You can let

特徴F6.前記各オブジェクトは、少なくとも一方の面に前記各テクスチャが貼り付けられる板状オブジェクトであることを特徴とする特徴F5に記載の遊技機。 Feature F6. The gaming machine according to feature F5, wherein each of the objects is a plate-shaped object to which each texture is applied on at least one surface.

特徴F6によれば、各画像データの貼付対象として、比較的処理負荷が少ない板状オブジェクトを用いることにより、処理負荷の軽減を図ることができる。 According to the feature F6, it is possible to reduce the processing load by using a plate-shaped object with a relatively small processing load as a pasting target of each image data.

特徴F7.前記動画像データには、所定の単位で分割された第1単位動画像データ(第1ラウンド動画像データRMD0a)と第2単位動画像データ(第2ラウンド動画像データRMD0b)とが含まれており、
前記表示演出実行手段は、前記第1単位動画像データによる動画を表示させた後、前記特定期間が経過したことに基づいて前記第2単位動画像データによる動画を表示させることにより、前記1の動画を表示させるものであり、
前記表示演出実行手段は、前記特定期間に亘って前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。
Feature F7. The moving image data includes first unit moving image data (first round moving image data RMD0a) and second unit moving image data (second round moving image data RMD0b) divided into predetermined units. cage,
The display effect executing means displays the moving image based on the second unit moving image data after displaying the moving image based on the first moving image data unit, and displays the moving image based on the second unit moving image data based on the elapse of the specific period. It displays videos,
The gaming machine according to feature F1 or feature F2, wherein the display effect executing means displays the predetermined image for the specific period.

特徴F7によれば、単一の動画像データを用いるのではなく、少なくとも第1単位動画像データ及び第2単位動画像データを用いて1の動画が表示される。これにより、例えば、上記1の動画表示の開始時に第1単位動画像データに対して展開用の処理を実行し、その後第2単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両動画像データ分の展開がまとめて行われる構成に比べ、上記1の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。 According to the feature F7, one moving image is displayed using at least the first unit moving image data and the second unit moving image data instead of using a single moving image data. As a result, for example, at the start of moving image display in 1 above, it is possible to execute processing for expansion on the first unit moving image data, and then execute processing for expansion on the second unit moving image data. becomes. In this case, compared to a configuration in which both pieces of moving image data are developed collectively, it is possible to suppress a local increase in the processing load when starting the moving image display in 1 above.

かかる構成において、所定の画像は、第1単位動画像データによる動画表示と、第2単位動画像データによる動画表示との間に設けられた所定の期間に亘って表示される。これにより、所定の画像を介して、分割した各動画像データに係る動画表示が連続して表示されることとなり、遊技者に1の動画として認識させることができる。 In such a configuration, the predetermined image is displayed for a predetermined period provided between the moving image display based on the first unit moving image data and the moving image display based on the second unit moving image data. As a result, the moving image display related to each divided moving image data is continuously displayed via a predetermined image, and the player can recognize it as one moving image.

また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。 Moreover, according to such a configuration, it is not necessary to simultaneously perform the processing related to moving image display and the processing related to predetermined image display. This makes it possible to reduce the processing load associated with image display.

特徴F8.前記表示演出実行手段は、前記特定期間において表示対象となる前記所定の画像を変更可能であることを特徴とする特徴F1乃至F7のいずれか1に記載の遊技機。 Feature F8. The gaming machine according to any one of features F1 to F7, wherein the display effect executing means can change the predetermined image to be displayed during the specific period.

特徴F8によれば、表示演出が実行される度に特定期間において表示させる所定の画像を異ならせることにより、異なる表示演出であるように認識させることができる。これにより、表示演出の表示パターンの更なる多様化を図ることができる。 According to the feature F8, by changing the predetermined image to be displayed in the specific period each time the display effect is executed, it is possible to make the player recognize that the display effect is different. As a result, it is possible to further diversify the display patterns of the display effects.

なお、本特徴の具体的な構成としては、例えば「前記表示用記憶手段には、表示内容が相違する複数種類の所定画像データが記憶されており、前記表示演出実行手段は、前記複数種類の所定画像データのうちいずれかを選択する選択手段を備え、前記選択手段により選択された所定画像データを用いて前記特定期間において前記選択手段により選択された所定画像データに対応した画像を表示させるものである」構成が考えられる。 As a specific configuration of this feature, for example, "the display storage means stores a plurality of types of predetermined image data with different display contents, and the display effect execution means stores the plurality of types of predetermined image data. comprising a selection means for selecting one of predetermined image data, and displaying an image corresponding to the predetermined image data selected by the selection means in the specific period using the predetermined image data selected by the selection means. is" configuration is conceivable.

特徴F9.前記表示演出実行手段は、予め定められた特定条件が成立した場合には、前記動画が複数回繰り返し表示されるようにするものであり、前記複数回の動画表示のうち所定回数目の動画表示における前記特定期間では前記所定の画像として第1所定画像を表示させ、前記所定回数目の動画表示とは異なる回数目の動画表示における前記特定期間では前記第1所定画像とは異なる第2所定画像を表示させるものであることを特徴とする特徴F8に記載の遊技機。 Feature F9. The display effect executing means causes the moving image to be repeatedly displayed a plurality of times when a predetermined specific condition is satisfied, and the moving image is displayed a predetermined number of times among the plurality of moving image displays. a first predetermined image is displayed as the predetermined image in the specific period of time, and a second predetermined image different from the first predetermined image is displayed in the specific period of the number of moving image display times different from the predetermined number of moving image display times. The gaming machine according to feature F8, characterized in that it displays the .

特徴F9によれば、動画表示が繰り返し実行される場合がある。この場合、所定回数目の動画表示と当該所定回数目とは異なる回数目の動画表示とで、表示される所定の画像が異なるため、全体としてはバリエーションが異なる表示演出が実行されることとなる。これにより、当該表示演出が繰り返し行われることに起因する当該表示演出への注目度の低下を抑制することができる。 According to feature F9, moving image display may be repeatedly executed. In this case, since the predetermined image to be displayed is different between the predetermined number of moving image display and the different number of moving image display from the predetermined number of times, a display effect with different variations as a whole is executed. . As a result, it is possible to suppress a decrease in the degree of attention to the display effect due to the repeated performance of the display effect.

特徴F10.予め定められた抽選契機に基づいて、遊技状態を遊技者に有利な特定遊技状態に移行させるか否かを判定する判定手段(主制御装置50における当否判定処理を実行する機能)と、
前記判定手段の判定結果が、前記遊技状態を前記特定遊技状態に移行させることに対応した移行対応結果である場合に、前記特定遊技状態に移行させる移行手段(主制御装置50における遊技状態移行処理を実行する機能)と、
を備え、
特定遊技状態では、当該特定遊技状態の所定のタイミングにて開始され、予め定められた終了条件が成立するまで継続される特定単位遊技が複数回繰り返し行われ、
前記表示演出実行手段は、前記特定単位遊技が行われる度に実行されるものであり、1の特定遊技状態中における前記特定単位遊技の実行回数に応じて、異なる前記所定の画像を表示させることが可能であることを特徴とする特徴F8又は特徴F9に記載の遊技機。
Feature F10. Based on a predetermined lottery opportunity, determination means for determining whether or not to shift the game state to a specific game state that is advantageous to the player (function for executing win/fail determination processing in the main controller 50);
When the determination result of the determination means is a transition corresponding result corresponding to shifting the game state to the specific game state, the transition means for shifting to the specific game state (game state transition processing in the main controller 50 function) and
with
In the specific game state, a specific unit game that is started at a predetermined timing in the specific game state and continues until a predetermined end condition is satisfied is repeated multiple times,
The display effect executing means is executed each time the specific unit game is performed, and displays a different predetermined image according to the number of executions of the specific unit game during one specific game state. The gaming machine according to feature F8 or feature F9, characterized in that it is possible to

特徴F10によれば、特定遊技状態中は、特定単位遊技が複数回繰り返し行われる。この場合、特定単位遊技が行われる度に1の動画を用いた表示演出が実行される。これにより、当該表示演出が繰り返し実行されることにより、特定単位遊技が繰り返し行われていることを遊技者が把握することができる。 According to the feature F10, during the specific game state, the specific unit game is repeated multiple times. In this case, every time a specific unit game is played, a display effect using one moving image is executed. As a result, the player can understand that the specific unit game is being repeatedly performed by repeatedly executing the display effect.

この場合、同一の表示演出が実行されると、遊技者の表示演出への注目度が低下する。かといって、全く異なる表示演出を実行する構成とすると、データ量の増大化という不都合が生じ得る。 In this case, when the same display effect is executed, the player's attention to the display effect decreases. On the other hand, if a configuration is adopted in which a completely different display effect is executed, the inconvenience of an increase in the amount of data may occur.

これに対して、本特徴によれば、特定単位遊技の実行回数に応じて所定の画像を異ならせることにより、特定単位遊技が繰り返し行われる特定遊技状態において1の動画像データを用いてバリエーションの異なる表示演出を実行することが可能となり、上記不都合を回避することができる。 On the other hand, according to the present feature, by changing the predetermined image according to the number of executions of the specific unit game, variations are possible using one moving image data in the specific game state in which the specific unit game is repeatedly performed. It becomes possible to execute different display effects, and the above inconvenience can be avoided.

上記特徴F群は以下の課題に対して効果的である。 The feature group F is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。 Pachinko game machines, slot machines, and the like are known as types of game machines. These gaming machines are equipped with a control board on which a CPU and elements such as a memory storing control programs related to games are mounted, and a series of games are controlled by the control board. Note that there is also known a configuration in which the CPU and memory are not individually mounted on the control board, but are mounted on the control board in an integrated state.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。 Among the gaming machines described above, there is known one equipped with a display device having a display section, such as a liquid crystal display device. Such a game machine is equipped with an image data memory in which image data is stored in advance, and a predetermined image is displayed on the display unit using the image data read out from the memory.

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。 Also, a configuration is known in which moving image data is provided as image data. Since the amount of moving image data is larger than that of still image data, it is stored in a compressed state in the image data memory. When reproducing a moving image related to the compressed moving image data, the moving image data is decompressed in a predetermined memory area using a decoder to form a plurality of still image data, and the image is updated using the plurality of still image data. It is necessary to use them in a predetermined order every time the timing comes.

ここで、表示演出の多様化を図るべく、複数種類の動画を再生したい場合がある。この場合、動画像データを複数種類設け、当該複数種類の動画像データのうちいずれかをデコードして当該動画像データに係る動画を再生する構成が考えられる。しかしながら、かかる構成では、動画像データのデータ量の増大化が懸念される。 Here, in order to diversify display effects, there are cases where it is desired to reproduce a plurality of types of moving images. In this case, a configuration is conceivable in which a plurality of types of moving image data are provided, one of the plurality of types of moving image data is decoded, and a moving image related to the moving image data is reproduced. However, with such a configuration, there is concern about an increase in the amount of moving image data.

<特徴G群>
特徴G1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した画像の動画を前記複数の更新タイミング分の表示期間に亘って表示させる動画像表示実行手段(VDP135における動画像用の設定処理を実行する機能)と、
を備え、
前記動画像データは、当該動画像データにより表示される動画の態様に応じて、複数の単位動画像データに分割されており、
前記動画像表示実行手段は、前記各単位動画像データによる動画を、予め定められた順序で順次表示することにより、一連の動画を表示させるものであり、
前記各単位動画像データは、当該各単位動画像データにより表示される各動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なるようにして圧縮されていることを特徴とする遊技機。
<Characteristic group G>
Feature G1. Display means (symbol display device 31) having a display portion (display surface G);
display storage means (memory module 133) storing image data in advance;
display control means (display CPU 131, VDP 135) for displaying an image on the display unit using the image data stored in the display storage means;
In a gaming machine equipped with
The display storage means stores compressed moving image data used for reproducing moving images,
The display control means is
a rendering means (moving image decoder) for rendering any moving image data in an rendering area and creating still image data for a plurality of update timings for an image corresponding to the moving image data;
By using the still image data for a plurality of update timings developed by the development means in the order determined in the moving image data, the moving image of the image corresponding to the moving image data is generated for the plurality of update timings. a moving image display executing means (a function of executing setting processing for moving images in the VDP 135) for displaying over the display period of
with
The moving image data is divided into a plurality of unit moving image data according to the aspect of the moving image displayed by the moving image data,
The moving image display execution means displays a series of moving images by sequentially displaying the moving images of the respective unit moving image data in a predetermined order,
Each of the moving image data units is compressed in such a manner that the amount of data assigned to each moving image data unit differs according to the aspect of each moving image displayed by each moving image data unit. game machine.

特徴G1によれば、単一の動画像データを用いるのではなく、各単位動画像データを順次用いることにより一連の動画表示が行われる。これにより、例えば、上記一連の動画表示の開始時に1の単位動画像データに対して展開用の処理を実行し、その後、他の単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両単位動画像データ分の展開がまとめて行われる構成に比べ、上記一連の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。 According to the feature G1, a series of moving image display is performed by sequentially using each unit of moving image data instead of using a single piece of moving image data. As a result, for example, at the start of the series of moving image display, processing for expansion is executed for one unit of moving image data, and then processing for expansion is executed for other units of moving image data. It becomes possible. In this case, it is possible to suppress a local increase in the processing load at the time of starting the series of moving image display, as compared with a configuration in which both units of moving image data are developed collectively.

かかる構成において、各単位動画像データにより表示される動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なる。これにより、動画の態様に応じて画質を調整することができるため、効率的な画質の調整を行うことができる。 In such a configuration, the amount of data assigned to each unit of moving image data differs depending on the aspect of the moving image displayed by each unit of moving image data. As a result, it is possible to adjust the image quality according to the mode of the moving image, so it is possible to efficiently adjust the image quality.

特徴G2.前記表示期間には、前記動画の態様が異なる第1区間及び第2区間が含まれており、
前記単位動画像データには、
前記第1区間に対応した第1単位動画像データ(第1ラウンド動画像データRMD0a)と、
前記第2区間に対応した第2単位動画像データ(第2ラウンド動画像データRMD0b)と、
が設けられており、
前記第1単位動画像データと前記第2単位動画像データとで、単位期間当たりにおける画像表示を行うためのデータ量が異なるよう設定されていることを特徴とする特徴G1に記載の遊技機。
Feature G2. The display period includes a first section and a second section in which the aspect of the moving image is different,
In the unit video data,
first unit moving image data (first round moving image data RMD0a) corresponding to the first section;
second unit moving image data (second round moving image data RMD0b) corresponding to the second interval;
is provided,
The gaming machine according to feature G1, wherein the first unit moving image data and the second unit moving image data are set to have different amounts of data for image display per unit period.

特徴G2によれば、各単位動画像データの単位期間当たりにおける画像表示を行うためのデータ量を異ならせることにより、各単位動画像データにより表示される動画の画質の低下を抑制しつつ、動画像データ全体のデータ量の削減を図ることができる。 According to feature G2, by varying the amount of data for displaying an image per unit period of each unit of moving image data, it is possible to display a moving image while suppressing deterioration in the image quality of the moving image displayed by each unit of moving image data. It is possible to reduce the data amount of the entire image data.

特徴G3.前記第1区間及び前記第2区間は、各更新タイミング間における画像の変化量が相対的に大小となる大変化区間及び小変化区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2に記載の遊技機。
Feature G3. The first section and the second section are a large change section and a small change section in which the amount of change in the image between each update timing is relatively large and small,
The gaming machine according to feature G2, wherein the first unit moving image data is set to have a larger amount of data for image display per unit period than the second unit moving image data.

特徴G3によれば、画像の変化量が比較的大きい大変化区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。 According to the feature G3, a relatively large amount of data is allocated to the first unit moving image data corresponding to a large-change section in which the amount of change in the image is relatively large, so that block noise, mosquito noise, and the like occur. hard to do.

一方、画像の変化量が比較的小さい小変化区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。 On the other hand, since a relatively small amount of data is assigned to the second unit video data corresponding to the small change section in which the image change amount is relatively small, the data amount of the second unit video data should be reduced. can be planned.

特徴G4.前記第1区間及び前記第2区間は、静止画像データに係る画像の精細さが相対的に高低となる高精細区間及び低精細区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2又は特徴G3に記載の遊技機。
Feature G4. The first section and the second section are a high-definition section and a low-definition section in which the definition of an image related to still image data is relatively high and low,
The feature G2 or feature G3 according to feature G2 or feature G3, wherein the first unit moving image data is set to have a larger amount of data for image display per unit period than the second unit moving image data. game machine.

特徴G4によれば、画像の精細さが比較的高い高精細区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。 According to the feature G4, a relatively large amount of data is allocated to the first unit moving image data corresponding to a high-definition section with relatively high image definition, so that block noise, mosquito noise, and the like occur. hard to do.

一方、画像の細かさが比較的低い低精細区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。 On the other hand, a relatively small amount of data is assigned to the second unit video data corresponding to the low-definition section with relatively low image detail. can be planned.

特徴G5.前記更新タイミングの間隔は、各区間に関わらず同一に設定されていることを特徴とする特徴G2乃至G4のいずれか1に記載の遊技機。 Feature G5. The game machine according to any one of features G2 to G4, wherein the update timing interval is set to be the same regardless of each section.

特徴G5によれば、更新タイミングの間隔は各区間に関わらず同一に設定されているため、各区間に応じて更新タイミングの間隔の変更を行う構成と比較して、当該変更に係る処理分だけ、動画の表示に係る処理負荷の軽減を図ることができるとともに、その変更に係る処理を実行するプログラム分だけプログラム容量の削減を図ることができる。 According to feature G5, the update timing interval is set to be the same regardless of each section. In addition, it is possible to reduce the processing load related to the display of the moving image, and to reduce the program capacity by the amount of the program that executes the processing related to the change.

また、この場合であっても、単位期間当たりにおける画像表示を行うためのデータ量を調整することにより、画質の低下を抑制しつつ、動画像データ全体のデータ量を所定量に圧縮することができる。 Also, even in this case, by adjusting the amount of data for image display per unit period, it is possible to compress the entire data amount of the moving image data to a predetermined amount while suppressing deterioration in image quality. can.

特徴G6.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記表示制御手段は、
前記所定画像データを用いて前記表示部に前記所定の画像を表示させる所定画像表示実行手段(表示CPU131のステップS3510~ステップS3516の処理を実行する機能、VDP135のステップS3704~ステップS3707、ステップS3804~ステップS3807の処理を実行する機能)を備え、前記動画像表示実行手段及び前記所定画像表示実行手段の双方を同時に実行することにより、前記動画と前記所定の画像とを同時に表示させることが可能であることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Feature G6. predetermined image data (insertion image data IPD0) corresponding to a predetermined image is stored in the display storage means;
The display control means is
Predetermined image display executing means for displaying the predetermined image on the display section using the predetermined image data (function for executing the processing of steps S3510 to S3516 of the display CPU 131, steps S3704 to S3707 of the VDP 135, steps S3804 and function of executing the processing of step S3807), and simultaneously executing both the moving image display execution means and the predetermined image display execution means, it is possible to simultaneously display the moving image and the predetermined image. The game machine according to any one of features G1 to G5, characterized in that

特徴G6によれば、動画と所定の画像とを組み合わせることにより、画像の表示態様の多様化を図ることができる。 According to the characteristic G6, by combining a moving image and a predetermined image, it is possible to diversify the display mode of the image.

この場合、動画像及び所定の画像を同時に表示させるために、動画像表示及び所定の画像表示双方の表示制御に係る処理を実行する必要がある。このため、処理負荷の増大化が懸念される。 In this case, in order to display the moving image and the predetermined image at the same time, it is necessary to execute processing related to display control of both the moving image display and the predetermined image display. Therefore, there is concern about an increase in processing load.

これに対して、特徴G5との関係によれば、更新タイミングの間隔の変更に係る処理負荷の分だけ、動画の表示中の処理負荷を軽減することができる。これにより、動画像及び所定の画像双方を同時に表示させる場合に処理落ちすることを抑制することができる。 On the other hand, according to the relationship with the feature G5, the processing load during display of the moving image can be reduced by the amount of the processing load associated with changing the update timing interval. As a result, it is possible to prevent the processing from dropping when both the moving image and the predetermined image are displayed at the same time.

特徴G7.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記動画像表示実行手段は、前記複数の単位動画像データのうち所定の単位動画像データによる動画を表示させた場合には、当該所定の単位動画像データによる動画表示から所定の期間が経過したことに基づいてその後の単位動画像データによる動画を表示させるものであり、
前記表示制御手段は、
前記所定の期間に亘って前記所定画像データを用いて前記表示部に前記所定の画像を表示させる手段(表示CPU131におけるステップS3912~ステップS3915の処理を実行する機能)を備えていることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Feature G7. predetermined image data (insertion image data IPD0) corresponding to a predetermined image is stored in the display storage means;
The moving image display executing means, when displaying a moving image based on predetermined unit moving image data among the plurality of moving image data units, determines that a predetermined period of time has passed since the moving image display based on the predetermined unit moving image data has been displayed. Based on this, the moving image based on the subsequent unit moving image data is displayed,
The display control means is
Means for displaying the predetermined image on the display unit using the predetermined image data for the predetermined period (function for executing the processing of steps S3912 to S3915 in the display CPU 131) is provided. The gaming machine according to any one of features G1 to G5.

特徴G7によれば、所定の単位動画像データによる動画表示とその後の単位動画像データによる動画表示との間に設けられた所定の期間に亘って所定の画像が表示される。これにより、所定の画像を介して、分割した両単位動画像データに係る動画表示が連続して表示されることとなり、遊技者に一連の動画として認識させることができる。 According to the feature G7, a predetermined image is displayed over a predetermined period provided between the moving image display by the predetermined unit moving image data and the subsequent moving image display by the unit moving image data. As a result, the moving image display related to both divided moving image data units is continuously displayed via a predetermined image, so that the player can recognize it as a series of moving images.

また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。 Moreover, according to such a configuration, it is not necessary to simultaneously perform the processing related to moving image display and the processing related to predetermined image display. This makes it possible to reduce the processing load associated with image display.

上記特徴G群は以下の課題に対して効果的である。 The feature group G is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。 Pachinko game machines, slot machines, and the like are known as types of game machines. These gaming machines are equipped with a control board on which a CPU and elements such as a memory storing control programs related to games are mounted, and a series of games are controlled by the control board. A configuration is also known in which the CPU and memory are not individually mounted on the control board, but are mounted on the control board in an integrated state.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。 Among the gaming machines described above, there is known one equipped with a display device having a display section, such as a liquid crystal display device. Such a game machine is equipped with an image data memory in which image data is stored in advance, and a predetermined image is displayed on the display unit using the image data read out from the memory.

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。 Also, a configuration is known in which moving image data is provided as image data. Since the amount of moving image data is larger than that of still image data, it is stored in a compressed state in the image data memory. When reproducing a moving image related to the compressed moving image data, the moving image data is decompressed in a predetermined memory area using a decoder to form a plurality of still image data, and the image is updated using the plurality of still image data. It is necessary to use them in a predetermined order every time the timing comes.

ここで、画像データ用のメモリの記憶容量と他の画像データとの関係から、動画像データのデータ量を、予め定められた設定量となるように圧縮する必要が生じる場合がある。この場合、動画像データの圧縮態様によっては、動画像データを用いた動画の画質が低下し、当該動画への注目度が低下するという不都合が生じ得る。 Depending on the relationship between the storage capacity of the memory for image data and other image data, it may be necessary to compress the amount of moving image data to a predetermined set amount. In this case, depending on the compression mode of the moving image data, the image quality of the moving image using the moving image data may be degraded, resulting in the inconvenience that the degree of attention to the moving image is reduced.

<特徴H群>
特徴H1.オブジェクトの画像データ及び当該オブジェクトに貼り付けられるテクスチャの画像データを含む各種画像データが記憶された画像データ記憶手段(メモリモジュール133)と、仮想3次元空間内に前記オブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、前記オブジェクトに対して前記テクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記テクスチャが貼り付けられたオブジェクトを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)と、を有するデータ生成手段(表示CPU131及びVDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記オブジェクトには、変形対象として設定された変形対象オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記データ生成手段は、当該変形対象オブジェクトを変形させることにより、前記画像の少なくとも一部を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic group H>
Feature H1. Image data storage means (memory module 133) storing various image data including image data of objects and image data of textures to be pasted on the objects; arrangement means (VDP 135) for arranging the objects in virtual three-dimensional space; function to execute the processing of steps S4602, S4609, and S4610 in step S4602, step S4609, and step S4610); execution function), pasting means for pasting the texture to the object (function for executing color information setting processing in the VDP 135), and pasting the texture on the projection plane set based on the viewpoint. Rendering setting means for projecting the projected object and generating generated data (rendering data) based on the data projected onto the projection plane (a function of creating a rendering list in the display CPU 131 and a function of executing rendering processing in the VDP 135) and storage means (frame buffer 142) for storing generated data generated by data generation means (display CPU 131 and VDP 135),
Display control means (display CPU 131 and VDP 135) and
In a gaming machine equipped with
The objects include a deformation target object (refracting object OB10) set as a deformation target,
The data generating means includes distortion forming means (a function of executing distortion effect calculation processing in the display CPU 131 and various processes for distortion effect in the VDP 135) that distorts at least a part of the image by deforming the deformation target object A gaming machine characterized by comprising a function to execute

特徴H1によれば、変形対象オブジェクトを変形させることにより、表示部に表示される画像の少なくとも一部を歪ませることができる。これにより、画像を歪ませるために専用のテクスチャを用意する必要がない。よって、データ量の増大化を抑制しつつ、画像の歪みを比較的容易に表現することができる。 According to the feature H1, at least part of the image displayed on the display unit can be distorted by deforming the deformation target object. This eliminates the need to prepare a dedicated texture for distorting the image. Therefore, it is possible to express image distortion relatively easily while suppressing an increase in the amount of data.

特徴H2.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴H1に記載の遊技機。 Feature H2. The characteristic feature H1 according to feature H1, wherein the distortion forming means deforms the deformation target object by individually updating coordinates of at least a part of vertices constituting the deformation target object. game machine.

特徴H2によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像が歪んだように視認させることができる。 According to the feature H2, by updating the coordinates of at least some of the vertices forming the deformation target object, the individual image based on the deformation target object can be visually recognized as distorted.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記歪み形成手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 It should be noted that "coordinate mapping data specifying coordinates at each vertex constituting the object to be transformed is provided, and a plurality of types of the coordinate mapping data are set with different specified coordinates, and The distortion forming means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referred to each time a predetermined update timing occurs, so that the deformation target object It is something that transforms so that it fluctuates." According to such a configuration, fluctuations in an image can be expressed, and compared to a configuration in which a calculation formula for each coordinate is given and calculated from the calculation formula, the coordinates of each vertex of the object to be transformed are individually set. It is possible to reduce the processing load required for

特徴H3.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴H2に記載の遊技機。 Feature H3. Characteristic feature H2, wherein the distortion forming means does not change the coordinates of the vertices constituting the object to be transformed, of the vertices related to the outer edge of the individual image based on the object to be transformed. game machine.

特徴H3によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、画像の一部を歪ませることができる。 According to the feature H3, since the coordinates of the vertices of the outer edge of the individual image based on the deformation target object are not changed, the boundary between the individual image based on the deformation object and its surrounding images is less noticeable. This makes it possible to distort a part of the image while blending the two.

特徴H4.前記変形対象オブジェクトは、歪みの対象となる画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴H1乃至H3のいずれか1に記載の遊技機。 Feature H4. The game machine according to any one of features H1 to H3, wherein the deformation target object is a plate-like object having a plane set corresponding to the image to be distorted.

特徴H4によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、歪ませるための処理負荷の軽減を図ることができる。 According to the feature H4, by using a relatively simple plate-shaped object as the object to be transformed, the object to be transformed can be easily transformed. As a result, the processing load for distorting can be reduced.

特徴H5.前記歪み形成手段は、所定の画像を表示させるための所定のオブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記所定の画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴H1乃至H4のいずれか1に記載の遊技機。 Feature H5. The distortion forming means arranges the deformation target object closer to the viewpoint than a predetermined object for displaying a predetermined image, and applies image data corresponding to the predetermined image to the deformation target object as the texture. The game machine according to any one of features H1 to H4, characterized in that the game machine sticks as an image.

特徴H5によれば、変形対象オブジェクトを変形させることにより所定の画像が歪むこととなる。これにより、歪ませる場合と歪ませない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。 According to the feature H5, the predetermined image is distorted by deforming the deformation target object. As a result, it is possible to standardize the processing in that there is no need to change the processing for a given object between when it is distorted and when it is not distorted.

また、歪ませる場合と歪ませない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、歪ませる場合と歪ませない場合との切換を比較的容易に行うことができる。 In addition, since the case of distorting and the case of not distorting can be dealt with by arranging or not arranging the deformation target object, it is possible to relatively easily switch between the case of distorting and the case of not distorting. .

特徴H6.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記所定のオブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記所定のオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記所定の画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記所定の画像に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記歪み形成手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像を歪ませるものであることを特徴とする特徴H5に記載の遊技機。
Feature H6. The arranging means includes means for arranging the predetermined object among a plurality of objects set as display targets (function for executing the processing of step S4602 in the VDP 135),
The drawing setting means is a means for projecting the predetermined object and generating predetermined generated data corresponding to an image including the predetermined image based on the data projected onto the projection plane (the processing of step S4608 in the VDP 135). function),
The data generation means extracts the image data corresponding to the predetermined image included in the predetermined generation data to generate the texture to be pasted on the deformation target object (steps S4801 and S4802 in the VDP 135). function to execute the processing of
The distortion forming means arranges at least the object to be transformed in the virtual three-dimensional space, pastes the texture generated by the texture generating means on the object to be transformed, and projects the object to be transformed. The gaming machine according to feature H5, characterized in that the predetermined image is distorted by distorting the predetermined image.

特徴H6によれば、所定のオブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、所定の画像を歪ませることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature H6, the predetermined generation data is generated by performing the first projection on the predetermined object, and the texture to be applied to the transformation target object is generated using the predetermined generation data. Then, a predetermined image can be distorted by performing a second projection on the deformation target object to which the texture is attached. As a result, the amount of data can be reduced in that it is not necessary to store in advance the texture to be applied to the transformation target object.

また、変形対象オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 In addition, since the texture applied to the object to be transformed is generated by projecting a predetermined object, the image associated with the texture is actually displayed using the predetermined object. It can resemble a predetermined image. As a result, the image based on the object to be transformed and the surrounding image can be blended together.

特徴H7.前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴H6に記載の遊技機。
Feature H7. The predetermined image is configured to be updateable each time the update timing is reached,
The predetermined generation data is generated each time the update timing comes,
The texture generating means is characterized in that, every time the update timing comes, the texture to be pasted on the deformation target object is generated using the predetermined generation data generated at the update timing. The gaming machine described in H6.

特徴H7によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、所定の画像が更新された場合であっても、当該更新された所定の画像を歪ませることができる。 According to feature H7, the predetermined generation data is generated each time the update timing comes, and the texture to be pasted on the transformation target object is generated. Thereby, even when the predetermined image is updated, the updated predetermined image can be distorted.

なお、「前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記所定のオブジェクトが配置される座標を更新することにより、前記所定の画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。 A specific configuration of ``the predetermined image is configured to be updateable each time the update timing'' is, for example, ``the arranging means updates the predetermined object each time the update timing comes.'' The predetermined image is scrolled in a predetermined direction by updating the coordinates at which the image is arranged," and the configuration "moves the viewpoint in a predetermined direction each time the update timing comes." Conceivable.

特徴H8.前記歪み形成手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像が歪んだ歪み画像に対応した歪み生成データ(演出及び図柄用の描画データ)を作成するものであり、
前記データ生成手段は、前記所定生成データと前記歪み生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴H6又は特徴H7に記載の遊技機。
Feature H8. The distortion forming means arranges the deformation target object in the virtual three-dimensional space, pastes a texture corresponding to the deformation target object, and further projects the deformation target object to form the predetermined image. is to create distortion generation data (drawing data for effects and patterns) corresponding to the distorted image,
The data generating means is characterized in that it comprises synthesizing means (a function of executing the processing of step S4617 in the VDP 135) for generating one piece of generated data by synthesizing the predetermined generated data and the distortion generated data. The gaming machine according to feature H6 or feature H7.

特徴H8によれば、所定の画像に係る所定生成データを生成する処理と、歪み生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。 According to feature H8, the process of generating predetermined generated data for a predetermined image and the process of generating distortion generated data are distinguished, and the two are combined to generate one piece of generated data. , the process of generating the texture to be pasted on the object to be transformed can be used as the process of generating 1 generation data. This makes it possible to reduce the processing load.

また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。 Moreover, according to the above feature, it is possible to reduce the number of overlapping objects arranged in two projections. This makes it possible to reduce the processing load caused by overlapping arrangement, overlapping projection, and the like.

特徴H9.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴H1乃至H8のいずれか1に記載の遊技機。
Feature H9. The data generating means generates the generated data based on applying various parameter information that determines a display mode of an image by the object to the object,
The various parameter information includes individual reflection value information (individual α value) and
The distortion forming means adjusts the individual reflection value information applied to the deformation target object so that the color information related to the individual image based on the deformation target object is less likely to be reflected toward the outer edge of the individual image. The gaming machine according to any one of features H1 to H8, characterized in that it is configured to:

特徴H9によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、歪んだ画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。 According to the feature H9, the color information of the individual image based on the object to be transformed becomes less likely to be reflected toward the outer edge of the individual image. As a result, the outer edge side of the individual image based on the deformation target object is displayed as an image that blends in with the other regions. Therefore, it is possible to make the boundary between the area where the distorted image is displayed and other areas inconspicuous.

特徴H10.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴H1乃至H9のいずれか1に記載の遊技機。
Feature H10. The data generating means generates the generated data based on applying various parameter information that determines a display mode of an image by the object to the object,
The various parameter information includes reflection value information (uniform α value) that determines the degree of reflection of the color information of the texture applied to the object on the display unit,
The distortion forming means gradually adjusts the reflection value information applied to the deformation target object, thereby gradually not reflecting the color information related to the individual image based on the deformation target object ( The gaming machine according to any one of features H1 to H9, characterized in that it has a function of executing the processing of step S4519 by the display CPU 131 .

特徴H10によれば、歪みを表現していた画像は徐々に消えていくため、歪みが消えていく過程が目立ちにくい。これにより、歪みが消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature H10, since the image representing the distortion gradually disappears, the process of disappearing the distortion is less noticeable. As a result, it is possible to reduce discomfort given to the player when the distortion disappears.

特徴H11.前記歪ませる対象となる画像は、前記表示部全体に表示される背景画像の一部であることを特徴とする特徴H1乃至H10のいずれか1に記載の遊技機。 Feature H11. The gaming machine according to any one of features H1 to H10, wherein the image to be distorted is a part of a background image displayed on the entire display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を歪ませるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display section, the data amount of the image data tends to be larger than that of the individual image displayed on a part of the display section. Therefore, if a plurality of types of background image data are prepared in order to partially distort the background image, the amount of data tends to become large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を歪ませることができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, since it is possible to partially distort the background image without preparing multiple types of background image data, it is possible to suitably reduce the amount of data.

上記特徴H群は以下の課題に対して効果的である。 The feature group H is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, polygons, which are three-dimensional image data, are set in the virtual three-dimensional space, and textures, which are two-dimensional image data such as characters and patterns, are pasted on the polygons. Generated data is generated by projecting the textured polygon onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the generated data.

ここで、遊技への注目度を高めるために、表示部に表示される画像をよりリアルに表現する演出が行われる場合がある。当該演出としては、例えば光の屈折に基づく空間の歪みを表現する演出がある。この場合、例えば光の屈折の反映度を演算により導出させる構成とすると、処理負荷の増大化が懸念される。一方、光の屈折を反映した画像データを予め記憶しておく構成とすると、データ量の増大化が懸念される。 Here, in order to increase the degree of attention to the game, an effect may be performed to more realistically express the image displayed on the display unit. As the effect, for example, there is a effect expressing spatial distortion based on refraction of light. In this case, for example, if a configuration is adopted in which the degree of reflection of refraction of light is derived by calculation, there is concern about an increase in processing load. On the other hand, if the image data reflecting the refraction of light is stored in advance, there is a concern that the amount of data will increase.

<特徴I群>
特徴I1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、複数種類の画像データを用いて所定の第1生成データ(背景用の描画データ)を生成し、少なくとも前記第1生成データを利用して前記第1生成データとは異なる第2生成データ(演出及び図柄用の描画データ、又は1の描画データ)を生成するものであり、
前記表示制御手段は、少なくとも前記第2生成データを用いて前記表示部に画像を表示させることを特徴とする遊技機。
<Characteristic group I>
Features I1. a display means (symbol display device 31) having a display portion (display surface G);
Using the generated data (drawing data) generated by the data generation means (the function of creating a drawing list in the display CPU 131 and the function of executing the drawing process in the VDP 135), the image is displayed on the display unit, and the predetermined display control means (display CPU 131 and VDP 135) for updating the content of an image when it is time to update;
In a gaming machine equipped with
The data generating means generates predetermined first generated data (drawing data for background) using a plurality of types of image data, and utilizes at least the first generated data to create data different from the first generated data. 2 Generate data (drawing data for effects and patterns, or 1 drawing data),
The gaming machine, wherein the display control means causes the display unit to display an image using at least the second generated data.

特徴I1によれば、第1生成データが生成され、当該生成された第1生成データを用いて第2生成データが生成される。これにより、第2生成データを用いた画像表示を行うことにより、第1生成データに係る画像を用いた画像を表示させることができる。よって、表示演出の多様化を図ることができるとともに、第1生成データを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to feature I1, the first generated data is generated, and the second generated data is generated using the generated first generated data. Accordingly, by displaying an image using the second generated data, an image using the image related to the first generated data can be displayed. Therefore, it is possible to diversify the display effects, and it is possible to reduce the amount of data since it is not necessary to store the first generated data in advance.

特徴I2.前記データ生成手段は、前記第1生成データの少なくとも一部を加工し、当該加工されたデータを用いて前記第2生成データを生成するものであることを特徴とする特徴I1に記載の遊技機。 Feature I2. The gaming machine according to feature I1, wherein the data generating means processes at least part of the first generated data and generates the second generated data using the processed data. .

特徴I2によれば、第1生成データの少なくとも一部が加工されて第2生成データが生成される。これにより、第1生成データをそのまま用いる構成と比較して、表示される画像のバリエーションの多様化を図ることができる。 According to feature I2, at least part of the first generated data is processed to generate the second generated data. As a result, it is possible to diversify the variations of the image to be displayed as compared with the configuration in which the first generated data is used as it is.

特徴I3.前記データ生成手段は、予め定められた対象画像が複数の更新タイミングに亘って移り変わる表示演出が行われるように、前記対象画像に係る前記第1生成データを生成し、当該第1生成データの少なくとも一部を加工して前記対象画像の移り変わりに対応した前記第2生成データを生成可能であることを特徴とする特徴I2に記載の遊技機。 Feature I3. The data generating means generates the first generated data related to the target image so as to perform a display effect in which a predetermined target image changes over a plurality of update timings, and generates at least the first generated data The gaming machine according to feature I2, wherein the second generation data corresponding to the transition of the target image can be generated by partially processing the target image.

特徴I3によれば、第1生成データ及び第2生成データを用いることにより複数の更新タイミングに亘って対象画像が移り変わる表示演出を実行することができる。これにより、表示演出の多様化を図ることができるとともに、上記移り変わりに対応した画像データを更新タイミング毎に用意しなくてよい点でデータ量の削減を図ることができる。 According to the feature I3, by using the first generated data and the second generated data, it is possible to execute a display effect in which the target image changes over a plurality of update timings. As a result, it is possible to diversify the display effect, and to reduce the amount of data because it is not necessary to prepare image data corresponding to the transition for each update timing.

特徴I4.前記データ生成手段は、前記第1生成データと前記第2生成データとを合成することにより、1の更新タイミングに対応する前記生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴I1又は特徴I2に記載の遊技機。 Feature I4. The data generating means combines the first generated data and the second generated data to generate the generated data corresponding to one update timing (a function of executing the process of step S4617 in the VDP 135). ), the gaming machine according to feature I1 or feature I2.

特徴I4によれば、第1生成データと第2生成データとを合成することにより1の更新タイミングに対応する生成データが生成されるため、第2生成データで用いられる第1生成データを生成するための処理を、上記生成データを生成するための処理に流用することができる。これにより、1の更新タイミングにて、第1生成データを生成しつつ上記生成データを生成する場合の処理負荷の軽減を図ることができる。 According to the feature I4, by synthesizing the first generated data and the second generated data, the generated data corresponding to the update timing of 1 is generated. Therefore, the first generated data used in the second generated data is generated. can be diverted to the process for generating the generated data. This makes it possible to reduce the processing load when generating the generated data while generating the first generated data at one update timing.

特徴I5.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135における各種描画データ生成処理を実行する機能)と、
を備え、
前記オブジェクトには、前記第2生成データを生成する場合に用いられる特定オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記第2生成データは、少なくとも前記特定オブジェクトが配置され、当該特定オブジェクトが投影されることにより生成されるものであり、
前記貼付手段は、前記第2生成データを生成する場合には、前記特定オブジェクト(屈折用オブジェクトOB10)に貼り付けられるテクスチャとして、前記第1生成データの少なくとも一部を用いることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I5. The data generation means is
Arrangement means for arranging objects in the virtual three-dimensional space (function for executing the processing of steps S4602, S4609, and S4610 in the VDP 135);
viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function for executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
Pasting means for pasting a texture to the object (function for executing color information setting processing in the VDP 135);
Rendering setting means for projecting the object onto a projection plane set based on the viewpoint and generating the generation data based on the data projected onto the projection plane (function for executing various rendering data generation processing in the VDP 135) )and,
with
The objects include a specific object (refracting object OB10) used when generating the second generated data,
The second generated data is generated by arranging at least the specific object and projecting the specific object,
The pasting means uses at least part of the first generated data as a texture to be pasted on the specific object (object for refraction OB10) when generating the second generated data. The game machine according to any one of I1 to I4.

特徴I5によれば、特定オブジェクトに対して貼り付けられるテクスチャとして、第1生成データの少なくとも一部が用いられる。これにより、特定オブジェクトに貼り付けるテクスチャを予め記憶しておく必要がない点でデータ量の削減を図ることができる。 According to the feature I5, at least part of the first generated data is used as the texture pasted on the specific object. As a result, the amount of data can be reduced because it is not necessary to store the texture to be pasted on the specific object in advance.

特徴I6.前記データ生成手段は、
仮想3次元空間内において表示対象となっている複数のオブジェクトのうち所定のオブジェクトを配置する第1配置手段(VDP135におけるステップS4602の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
少なくとも前記所定のオブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第1配置手段により配置された前記所定のオブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記第1生成データを生成する第1描画用設定手段(VDP135におけるステップS4608の処理を実行する機能)と、
前記第1生成データを用いて、予め定められた特定オブジェクト(屈折用オブジェクトOB10)に対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)と、
前記仮想3次元空間内において少なくとも前記特定オブジェクトを配置する第2配置手段(VDP135におけるステップS4609及びステップS4610の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第2配置手段により配置されたオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記第2生成データを生成する第2描画用設定手段(VDP135におけるステップS4616の処理を実行する機能)と、
を備え、
前記貼付手段は、前記特定オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付けるものであることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I6. The data generation means is
a first arranging means (function for executing the processing of step S4602 in the VDP 135) for arranging a predetermined object among a plurality of objects to be displayed in the virtual three-dimensional space;
viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function for executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
Pasting means (function for executing color information setting processing in the VDP 135) for pasting a texture to at least the predetermined object;
projecting the predetermined object arranged by the first arranging means onto a projection plane set based on the viewpoint, and generating the first generated data based on the data projected onto the projection plane; 1 rendering setting means (function for executing the processing of step S4608 in the VDP 135);
Texture generation means (function for executing the processes of steps S4801 and S4802 in the VDP 135) for generating a texture to be pasted on a predetermined specific object (object for refraction OB10) using the first generation data;
a second arrangement unit (function for executing the processing of steps S4609 and S4610 in the VDP 135) that arranges at least the specific object in the virtual three-dimensional space;
A second rendering for projecting the object arranged by the second arrangement means onto a projection plane set based on the viewpoint and generating the second generated data based on the data projected onto the projection plane. setting means (function for executing the process of step S4616 in the VDP 135);
with
The game machine according to any one of features I1 to I4, wherein the pasting means pastes the texture generated by the texture generating means to the specific object.

特徴I6によれば、所定のオブジェクトに対して1回目の投影を行うことにより第1生成データが生成され、当該第1生成データを用いて特定オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた特定オブジェクトに対して2回目の投影を行うことにより、第2生成データを生成することができる。これにより、特定オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to feature I6, the first generated data is generated by performing the first projection on a predetermined object, and the texture to be applied to the specific object is generated using the first generated data. Then, the second generated data can be generated by performing the second projection on the specific object to which the texture is pasted. As a result, the amount of data can be reduced because it is not necessary to store the texture to be pasted on the specific object in advance.

また、特定オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、所定オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 In addition, since the texture applied to the specific object is generated by projecting the predetermined object, the image related to the texture is actually displayed using the predetermined object. can resemble the image of As a result, the image based on the predetermined object and the surrounding image can be blended together.

さらに、第2生成データを生成するための処理と同様の処理で、特定オブジェクトに対して貼り付けるテクスチャを生成することができるため、処理の流用を図ることができる。 Furthermore, since the texture to be pasted on the specific object can be generated by the same processing as the processing for generating the second generation data, it is possible to divert the processing.

特徴I7.前記特定オブジェクトは、変形対象として設定された変形対象オブジェクトであり、
前記配置手段は、変化対象として設定された変化対象画像を表示させるためのオブジェクトに対して前記視点側から重なるように前記変形対象オブジェクトを配置する手段(VDP135における屈折用オブジェクトOB10を配置する機能)を備え、
前記データ生成手段は、前記変形対象オブジェクトを変形させることにより前記変化対象画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させるための機能)を備えていることを特徴とする特徴I5又は特徴I6に記載の遊技機。
Feature I7. the specific object is a deformation target object set as a deformation target;
The arranging means is means for arranging the deformation target object so as to overlap the object for displaying the change target image set as the change target from the viewpoint side (function of arranging the refraction object OB10 in the VDP 135). with
The data generating means is characterized in that it comprises changing means (function for displaying the distorted images CP15 and CP16 in the display CPU 131 and the VDP 135) for changing the image to be changed by deforming the object to be deformed. The gaming machine according to feature I5 or feature I6.

特徴I7によれば、変形対象オブジェクトに対して貼り付けるテクスチャを記憶させておくことなく変化対象画像を変化させることができる。 According to the feature I7, the change target image can be changed without storing the texture to be pasted on the deformation target object.

特徴I8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴I7に記載の遊技機。 Feature I8. The game according to feature I7, wherein the changing means transforms the transformation target object by individually updating coordinates of at least a part of vertices constituting the transformation target object. machine.

特徴I8によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。 According to feature I8, the individual image based on the object to be transformed can be changed by updating the coordinates of at least some of the vertices forming the object to be transformed.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 It should be noted that "coordinate mapping data specifying coordinates at each vertex constituting the object to be transformed is provided, and a plurality of types of the coordinate mapping data are set with different specified coordinates, and The changing means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the referenced coordinate mapping data each time a predetermined update timing is reached, so that the object to be transformed is It is something that transforms so that it fluctuates." According to such a configuration, fluctuations in an image can be expressed, and compared to a configuration in which a calculation formula for each coordinate is given and calculated from the calculation formula, the coordinates of each vertex of the object to be transformed are individually set. It is possible to reduce the processing load required for

特徴I9.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴I8に記載の遊技機。 Feature I9. The game according to feature I8, wherein the changing means does not change the coordinates of the vertices that form the object to be transformed and that relate to the outer edge of the individual image based on the object to be transformed. machine.

特徴I9によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象画像を変化させることができる。 According to feature I9, since the coordinates of the vertices of the outer edge of the individual image based on the deformation target object are not changed, the boundary between the individual image based on the deformation object and its surrounding images is less noticeable. As a result, it is possible to change the image to be changed while familiarizing the two.

特徴I10.前記変形対象オブジェクトは、前記変化対象画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴I7乃至I9のいずれか1に記載の遊技機。 Feature I10. The game machine according to any one of features I7 to I9, wherein the object to be transformed is a plate-like object having a plane set corresponding to the image to be changed.

特徴I10によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象画像を変化させるための処理負荷の軽減を図ることができる。 According to the feature I10, by using a relatively simple plate-shaped object as the object to be transformed, the object to be transformed can be easily transformed. This makes it possible to reduce the processing load for changing the change target image.

特徴I11.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴I7乃至I10のいずれか1に記載の遊技機。 Feature I11. The changing means is distortion forming means for distorting the image to be changed by deforming the object to be deformed. function).

特徴I11によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。 According to the feature I11, distortion of the image can be expressed by deforming the object to be deformed.

特徴I12.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴I7乃至I11のいずれか1に記載の遊技機。
Feature I12. The data generating means generates the generated data based on applying various parameter information that determines a display mode of an image by the object to the object,
The various parameter information includes individual reflection value information (individual α value) and
The changing means adjusts the individual reflection value information applied to the object to be transformed so that the color information relating to the individual image based on the object to be transformed becomes less likely to be reflected toward the outer edge of the individual image. The gaming machine according to any one of features I7 to I11, characterized in that it is designed to

特徴I12によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化した画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。 According to the feature I12, the color information of the individual image based on the object to be transformed becomes less likely to be reflected toward the outer edge of the individual image. As a result, the outer edge side of the individual image based on the deformation target object is displayed as an image that blends in with the other regions. Therefore, it is possible to make the boundary between the area where the changed image is displayed and the other area inconspicuous.

特徴I13.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴I7乃至I12のいずれか1に記載の遊技機。
Feature I13. The data generating means generates the generated data based on applying various parameter information that determines a display mode of an image by the object to the object,
The various parameter information includes reflection value information (uniform α value) that determines the degree of reflection of the color information of the texture applied to the object on the display unit,
The changing means gradually adjusts the reflection value information applied to the deformation target object so as to gradually stop reflecting the color information related to the individual image based on the deformation target object (display unit). A gaming machine according to any one of features I7 to I12, characterized by comprising a function of executing the processing of step S4519 by the CPU 131.

特徴I13によれば、変形対象オブジェクトに基づく画像は徐々に消えていくため、当該画像が消えていく過程が目立ちにくい。これにより、変形対象オブジェクトに基づく画像が消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature I13, since the image based on the object to be transformed gradually disappears, the disappearing process of the image is inconspicuous. As a result, it is possible to reduce the sense of incongruity given to the player when the image based on the deformation target object disappears.

特徴I14.前記第1生成データは、前記表示部全体に表示される背景画像に係る画像データであることを特徴とする特徴I1乃至I13のいずれか1に記載の遊技機。 Feature I14. The gaming machine according to any one of features I1 to I13, wherein the first generated data is image data relating to a background image displayed on the entire display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を加工するために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display section, the data amount of the image data tends to be larger than that of the individual image displayed on a part of the display section. Therefore, if a plurality of types of background image data are prepared to process a part of the background image, the amount of data tends to become large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を用いた演出を行うことができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, since it is possible to perform an effect using a part of the background image without preparing multiple types of background image data, it is possible to suitably reduce the amount of data.

上記特徴I群は以下の課題に対して効果的である。 The feature group I is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where an image is displayed using two-dimensional image data, the image data memory stores image data for displaying the background and image data for displaying characters and the like. It is Further, by reading the image data, generation data for displaying a character or the like in front of the background is generated in storage means such as a VRAM. By outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, polygons, which are three-dimensional image data, are set in the virtual three-dimensional space, and textures, which are two-dimensional image data such as characters and patterns, are pasted on the polygons. Generated data is generated by projecting the textured polygon onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the generated data.

ここで、表示演出への注目度を高めるには、表示演出の多様化を図ることが考えられる。しかしながら、当該表示演出の多様化を図るために画像データを複数設ける構成とすると、データ量の増大化が懸念される。 Here, in order to raise the degree of attention to the display effect, it is conceivable to diversify the display effect. However, if a plurality of pieces of image data are provided in order to diversify the display effect, there is a concern that the amount of data will increase.

<特徴J群>
特徴J1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、前記表示部に表示される特定個別画像(背景画像、キャラクタ画像CP22)の一部である変化対象部位(歪み領域PE1、重ね合わせ領域PE2)を、特定画像データを用いて変化させることにより前記特定個別画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させる機能、及び各部分画像CP23~CP25を表示させる機能)を備えていることを特徴とする遊技機。
<Characteristic group J>
Feature J1. Display means (symbol display device 31) having a display portion (display surface G);
Using the generated data (drawing data) generated by the data generation means (the function of creating a drawing list in the display CPU 131 and the function of executing the drawing process in the VDP 135), the image is displayed on the display unit, and the predetermined Display control means (display CPU 131 and VDP 135) for updating the content of an image when it is time to update;
In a gaming machine equipped with
The data generation means converts a change target portion (distortion region PE1, superimposition region PE2), which is a part of a specific individual image (background image, character image CP22) displayed on the display unit, using specific image data. It is characterized by having changing means for changing the specific individual image by changing it (the function of displaying the distorted images CP15 and CP16 in the display CPU 131 and the VDP 135, and the function of displaying the partial images CP23 to CP25). game machine.

特徴J1によれば、特定画像データを用いることにより変化対象画像を変化させることで特定個別画像を変化させることができる。これにより、表示演出の多様化を図ることができる。この場合、特定画像データは変化対象部位を変化させるためのものであるため、特定個別画像全体に対応する画像データと比較して、特定画像データに係るデータ量を小さくすることができる。よって、表示演出の多様化を図りつつ、当該多様化に伴うデータ量の増大化を抑制することができる。 According to the feature J1, the specific individual image can be changed by changing the change target image using the specific image data. As a result, it is possible to diversify display effects. In this case, since the specific image data is for changing the change target part, the amount of data relating to the specific image data can be reduced compared to the image data corresponding to the entire specific individual image. Therefore, it is possible to suppress an increase in the amount of data accompanying the diversification while diversifying the display effects.

特徴J2.前記データ生成手段は、前記特定個別画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記変化手段は、前記変化対象部位において前記所定生成データに係る画像に代えて前記特定画像データに基づく画像が表示されるようにするものであることを特徴とする特徴J1に記載の遊技機。
Feature J2. The data generation means includes means for generating predetermined generation data corresponding to the specific individual image (function for executing the processing of step S4608 in the VDP 135),
The gaming machine according to feature J1, wherein the changing means displays an image based on the specific image data instead of the image based on the predetermined generation data at the change target portion.

特徴J2によれば、変化対象部位において所定生成データに係る画像に代えて特定画像データに基づく画像が表示されることにより、特定個別画像が変化する。これにより、所定生成データに係る画像と特定画像データに係る画像とを組み合わせる構成と比較して、変化対象部位の変化を容易に行うことができる。 According to the feature J2, the specific individual image is changed by displaying an image based on the specific image data instead of the image based on the predetermined generation data at the change target site. As a result, compared to a configuration in which an image related to the predetermined generated data and an image related to the specific image data are combined, it is possible to easily change the change target region.

特徴J3.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616及びステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、前記変化対象部位に対応させて設定された特定テクスチャであり、
前記変化手段は、前記特定テクスチャを用いて前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Feature J3. The data generation means is
Arranging means for arranging objects in the virtual three-dimensional space (function for executing the processing of steps S4602, S4609, and S4610 in the VDP 135);
viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function for executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
pasting means for pasting a texture to the object (function for executing the processes of steps S4607 and S4615 in the VDP 135);
Drawing setting means (steps S4608, S4616 and S4617 in VDP 135) for projecting the object onto a projection plane set based on the viewpoint and generating the generated data based on the data projected onto the projection plane. function to perform processing) and
with
The objects include a specific object that is used to display the specific individual image and in which the change target part is set,
the specific image data is a specific texture set in correspondence with the change target part;
The gaming machine according to feature J1 or feature J2, wherein the changing means changes an image displayed on the change target portion using the specific texture.

特徴J3によれば、特定テクスチャを用いて変化対象部位に表示される画像を変化させることができる。この場合、特定テクスチャは変化対象部位に対応させて設定されているため、特定オブジェクト全体に係るテクスチャを用意する構成と比較して、特定テクスチャのデータ量が小さくなり易い。これにより、データ量の削減を図ることができる。 According to the feature J3, it is possible to change the image displayed on the change target region using the specific texture. In this case, since the specific texture is set in correspondence with the part to be changed, the amount of data of the specific texture tends to be small compared to the structure in which the texture for the entire specific object is prepared. This makes it possible to reduce the amount of data.

特徴J4.前記オブジェクトには、前記変化対象部位に対応させて形成された板状オブジェクトが含まれており、
前記変化手段は、前記変化対象部位に対して前記板状オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記板状オブジェクトを配置し、前記板状オブジェクトに対して前記特定テクスチャを貼り付けることにより、前記変化対象部位の画像を前記特定テクスチャに対応した画像に変化させるものであることを特徴とする特徴J3に記載の遊技機。
Feature J4. The object includes a plate-shaped object formed corresponding to the change target part,
The changing means arranges the specific object and the plate-like object so that the plate-like object overlaps the part to be changed from the viewpoint side, and pastes the specific texture on the plate-like object. The gaming machine according to feature J3, wherein the image of the change target portion is changed to an image corresponding to the specific texture.

特徴J4によれば、板状オブジェクトは比較的頂点が少ないポリゴンであるため、板状オブジェクトの頂点数が特定オブジェクトにおける変化対象部位に対応する頂点数よりも少なくない易い。これにより、特定オブジェクトの変化対象部位に対して特定テクスチャを貼り付ける構成と比較して、特定テクスチャを貼り付ける処理負荷を軽減することができる。 According to feature J4, since the plate-shaped object is a polygon having relatively few vertices, the number of vertices of the plate-shaped object is likely to be not less than the number of vertices corresponding to the change target portion in the specific object. As a result, the processing load for pasting the specific texture can be reduced compared to the structure for pasting the specific texture to the change target portion of the specific object.

また、変化させる場合と変化させない場合とを、板状オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。 In addition, since the case of changing and the case of not changing can be dealt with by whether or not the plate-shaped object is arranged, switching between the case of changing and the case of not changing can be relatively easily performed.

特徴J5.前記特定テクスチャは複数種類用意されており、
前記変化手段は、予め定められた更新タイミングとなる度に、前記複数種類の特定テクスチャを予め定められた順序で用いることにより、前記変化対象部位において一連の動作が行われるようにするものであることを特徴とする特徴J4に記載の遊技機。
Feature J5. A plurality of types of the specific texture are prepared,
The changing means uses the plurality of types of specific textures in a predetermined order each time a predetermined update timing is reached, so that a series of operations are performed in the change target portion. The gaming machine according to feature J4, characterized by:

特徴J5によれば、用いる特定テクスチャが予め定められた順序で用いられることにより、変化対象部位にて一連の動作が行われる。この場合、1の特定テクスチャのデータ量は特定オブジェクト全体のテクスチャのデータ量よりも小さくなっているため、一連の動作に係るデータ量を大幅に小さくすることができる。これにより、少ないデータ量で上記一連の動作に係る画像の表示を行うことができる。 According to the feature J5, a series of actions are performed in the change target part by using the specific textures to be used in a predetermined order. In this case, since the amount of data for one specific texture is smaller than the amount of data for the entire texture of the specific object, the amount of data for a series of operations can be greatly reduced. As a result, it is possible to display images related to the series of operations with a small amount of data.

特徴J6.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616、ステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、変形対象として設定された変形対象オブジェクトであり、
前記変化手段は、前記変化対象部位に対して前記変形対象オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Feature J6. The data generation means is
Arrangement means for arranging objects in the virtual three-dimensional space (function for executing the processing of steps S4602, S4609, and S4610 in the VDP 135);
viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function for executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
pasting means for pasting a texture to the object (function for executing the processes of steps S4607 and S4615 in the VDP 135);
Drawing setting means (steps S4608, S4616 and S4617 in VDP 135) for projecting the object onto a projection plane set based on the viewpoint and generating the generated data based on the data projected onto the projection plane. function to perform processing) and
with
The objects include a specific object that is used to display the specific individual image and in which the change target part is set,
the specific image data is a deformation target object set as a deformation target;
The changing means arranges the specific object and the transformation target object so that the transformation target object overlaps the transformation target part from the viewpoint side, and transforms the transformation target object to change the transformation target part. The game machine according to feature J1 or feature J2, characterized in that the image displayed on the screen is changed.

特徴J6によれば、変化対象部位と重なるように変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、変形対象オブジェクトに基づく個別画像が変化し、変化対象部位に表示される画像が変化することとなる。これにより、画像を変化させるための画像データとしてテクスチャを複数用意する必要がない点でデータ量の削減を図ることができる。 According to the feature J6, by arranging the deformation target object so as to overlap the change target part and deforming the deformation target object, the individual image based on the deformation target object changes, and the image displayed on the change target part changes. It will change. This makes it possible to reduce the amount of data in that it is not necessary to prepare a plurality of textures as image data for changing an image.

特徴J7.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴J6に記載の遊技機。 Feature J7. The game according to feature J6, wherein the changing means transforms the transformation target object by individually updating coordinates of at least a part of vertices constituting the transformation target object. machine.

特徴J7によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。 According to the characteristic J7, the individual image based on the deformation target object can be changed by updating the coordinates of at least some of the vertices forming the deformation target object.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 It should be noted that "coordinate mapping data specifying coordinates at each vertex constituting the object to be transformed is provided, and a plurality of types of the coordinate mapping data are set with different specified coordinates, and The changing means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the referenced coordinate mapping data each time a predetermined update timing is reached, so that the object to be transformed is It is something that transforms so that it fluctuates." According to such a configuration, fluctuations in an image can be expressed, and compared to a configuration in which a calculation formula for each coordinate is given and calculated from the calculation formula, the coordinates of each vertex of the object to be transformed are individually set. It is possible to reduce the processing load required for

特徴J8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴J7に記載の遊技機。 Feature J8. The game according to feature J7, wherein the changing means does not change the coordinates of the vertices constituting the object to be transformed, of the vertices related to the outer edge of the individual image based on the object to be transformed. machine.

特徴J8によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変化対象部位に係る画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象部位の画像を変化させることができる。 According to the feature J8, since the coordinates of the vertices of the outer edge of the individual image based on the transformation target object are not changed, the boundary between the image of the change target region and the surrounding images is less noticeable. As a result, it is possible to change the image of the part to be changed while familiarizing the two.

特徴J9.前記変形対象オブジェクトは、前記変化対象部位に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴J6乃至J8のいずれか1に記載の遊技機。 Feature J9. The game machine according to any one of characteristics J6 to J8, wherein the object to be transformed is a plate-like object having a plane set corresponding to the part to be changed.

特徴J9によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象部位を変化させるための処理負荷の軽減を図ることができる。 According to feature J9, by using a relatively simple plate-shaped object as the object to be transformed, the object to be transformed can be easily transformed. As a result, it is possible to reduce the processing load for changing the part to be changed.

特徴J10.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象部位に係る画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴J6乃至J9のいずれか1に記載の遊技機。 Feature J10. The changing means is a distortion forming means for distorting the image of the part to be changed by deforming the object to be deformed. The gaming machine according to any one of features J6 to J9, characterized in that the function of executing

特徴J10によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。 According to the characteristic J10, distortion of the image can be expressed by deforming the object to be deformed.

特徴J11.前記変化手段は、前記特定オブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記変化対象部位に表示される画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴J6乃至J10のいずれか1に記載の遊技機。 Feature J11. The changing means arranges the deformation target object closer to the viewpoint than the specific object, and pastes image data corresponding to an image displayed on the change target region to the deformation target object as the texture. The gaming machine according to any one of features J6 to J10, characterized in that:

特徴J11によれば、変形対象オブジェクトを変形させることにより変化対象部位の画像が変化することとなる。これにより、変化させる場合と変化させない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。 According to the feature J11, the image of the change target portion is changed by deforming the deformation target object. As a result, it is possible to standardize the processing in that there is no need to change the processing for a predetermined object depending on whether it is changed or not.

また、変化させる場合と変化させない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。 Further, since the case of changing and the case of not changing can be dealt with by arranging or not arranging the deformation target object, it is possible to relatively easily switch between the case of changing and the case of not changing.

特徴J12.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記特定オブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記特定オブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記特定個別画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記特定個別画像の前記変化対象部位に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記変化手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像を変化させるものであることを特徴とする特徴J11に記載の遊技機。
Feature J12. The arranging means includes means for arranging the specific object among a plurality of objects set as display targets (function for executing the processing of step S4602 in the VDP 135),
The drawing setting means is means for projecting the specific object and generating predetermined generation data corresponding to the image including the specific individual image based on the data projected onto the projection plane (the process of step S4608 in the VDP 135 is functions to execute),
The data generation means extracts image data corresponding to the change target portion of the specific individual image included in the predetermined generation data, thereby generating a texture to be pasted on the deformation target object. A function to execute the processing of steps S4801 and S4802),
The changing means arranges at least the object to be transformed in the virtual three-dimensional space, pastes the texture generated by the texture generating means on the object to be transformed, and projects the object to be transformed. The gaming machine according to feature J11, wherein the image of the change target portion is changed by:

特徴J12によれば、特定オブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、変化対象部位に係る画像を変化させることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature J12, the predetermined generation data is generated by performing the first projection on the specific object, and the texture to be pasted on the deformation target object is generated using the predetermined generation data. Then, by performing the second projection on the object to be transformed to which the texture is applied, the image of the part to be changed can be changed. As a result, the amount of data can be reduced in that it is not necessary to store in advance the texture to be applied to the transformation target object.

また、変形対象オブジェクトに対して貼り付けられるテクスチャは、特定オブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に特定オブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 In addition, since the texture applied to the deformation target object is configured to be generated by projecting the specific object, the image related to the texture is actually displayed using the specific object. It can resemble an image. As a result, the image based on the object to be transformed and the surrounding image can be blended together.

さらに、特定オブジェクトに対して貼り付けるテクスチャを生成する処理と、変化対象部位の画像を変化させる処理とが投影するという点で共通しているため、両者の処理構成の共通化を図ることができる。 Furthermore, since the process of generating the texture to be pasted on the specific object and the process of changing the image of the part to be changed are common in that they are projected, it is possible to standardize the processing configuration for both. .

特徴J13.前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴J12に記載の遊技機。
Feature J13. The specific individual image is configured to be updateable each time the update timing is reached,
The predetermined generation data is generated each time the update timing comes,
The texture generating means is characterized in that, every time the update timing comes, the texture to be pasted on the deformation target object is generated using the predetermined generation data generated at the update timing. The gaming machine described in J12.

特徴J13によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、特定個別画像が更新された場合であっても、当該更新された特定個別画像を変化させることができる。 According to the characteristic J13, the predetermined generation data is generated each time the update timing comes, and the texture to be pasted on the deformation target object is generated. Thereby, even when the specific individual image is updated, the updated specific individual image can be changed.

なお、「前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記特定オブジェクトが配置される座標を更新することにより、前記特定個別画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。 In addition, as a specific configuration of "the specific individual image is configured to be able to be updated at each update timing", for example, "the arrangement means updates the specific object at each update timing." A configuration in which the specific individual image is scrolled in a predetermined direction by updating the arranged coordinates, a configuration in which the viewpoint is moved in a predetermined direction each time the update timing is reached, etc. can be considered. be done.

特徴J14.前記変化手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像が変化した変化生成データを作成するものであり、
前記データ生成手段は、前記所定生成データと前記変化生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴J12又は特徴J13に記載の遊技機。
Feature J14. The changing means arranges the deformation target object in the virtual three-dimensional space, pastes a texture corresponding to the deformation target object, and further projects the deformation target object, thereby changing the deformation target part. creating change generation data in which the image has changed,
The data generation means is characterized by comprising synthesis means (a function of executing the processing of step S4617 in the VDP 135) for generating one generation data by synthesizing the predetermined generation data and the change generation data. The gaming machine according to feature J12 or feature J13.

特徴J14によれば、特定個別画像を含む画像に対応した所定生成データを生成する処理と、変化生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。 According to the feature J14, the process of generating the predetermined generated data corresponding to the image including the specific individual image is divided into the process of generating the change generated data, and the two are combined to generate one generated data. As a result, the process of generating the texture to be pasted on the object to be transformed can be used as the process of generating 1 generation data. This makes it possible to reduce the processing load.

また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。 Moreover, according to the above feature, it is possible to reduce the number of overlapping objects arranged in two projections. This makes it possible to reduce the processing load caused by overlapping arrangement, overlapping projection, and the like.

特徴J15.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記個別反映値情報を調整することにより、前記特定画像データに基づく画像に係る前記色情報が当該画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴J1乃至J14のいずれか1に記載の遊技機。
Feature J15. The data generating means generates the generated data based on applying various parameter information that determines the display mode of the image based on the image data to the image data,
The various parameter information includes individual reflection value information (individual α value) that determines the degree to which the color information of the image data is reflected on the display unit for each predetermined unit area (pixel),
The changing means adjusts the individual reflection value information applied to the specific image data so that the color information relating to the image based on the specific image data is less likely to be reflected toward the outer edge of the image. The game machine according to any one of features J1 to J14, characterized in that

特徴J15によれば、特定画像データに基づく画像の外縁に向かうに従って当該画像に係る色情報が反映されにくくなっている。これにより、特定画像データに基づく画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化対象部位の画像と他の領域の画像との境界を目立ちにくくすることができる。 According to the feature J15, the color information of the image based on the specific image data is less likely to be reflected toward the outer edge of the image. As a result, an image that blends in with other regions is displayed toward the outer edge of the image based on the specific image data. Therefore, it is possible to make the boundary between the image of the change target site and the image of the other area inconspicuous.

特徴J16.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記反映値情報を段階的に調整することにより、徐々に前記特定画像データの色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴J1乃至J15のいずれか1に記載の遊技機。
Feature J16. The data generating means generates the generated data based on applying various parameter information that determines the display mode of the image based on the image data to the image data,
The various parameter information includes reflection value information (uniform α value) that determines the degree of reflecting the color information of the image data on the display unit,
The changing means is means for gradually not reflecting the color information of the specific image data by adjusting the reflection value information applied to the specific image data step by step. The game machine according to any one of features J1 to J15, characterized in that it has a function of executing processing.

特徴J16によれば、変化対象部位に表示される特定画像データに基づく画像は徐々に消えていくため、変化画像が消えていく過程が目立ちにくい。これにより、変化画像が消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature J16, the image based on the specific image data displayed in the change target region gradually disappears, so the disappearing process of the changed image is inconspicuous. As a result, it is possible to reduce the sense of incongruity given to the player when the changing image disappears.

特徴J17.前記特定個別画像は、前記表示部に表示される背景画像の一部であることを特徴とする特徴J1乃至J16のいずれか1に記載の遊技機。 Feature J17. The gaming machine according to any one of features J1 to J16, wherein the specific individual image is a part of a background image displayed on the display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を変化させるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display section, the data amount of the image data tends to be larger than that of the individual image displayed on a part of the display section. Therefore, if a plurality of types of background image data are prepared in order to partially change the background image, the amount of data tends to become large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、当該背景画像の一部を変化させることができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, since a part of the background image can be changed without preparing a plurality of types of background image data, the amount of data can be suitably reduced.

上記特徴J群は以下の課題に対して効果的である。 The above feature group J is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 To explain in more detail the case where an image is displayed using two-dimensional image data, the image data memory stores image data for displaying the background and image data for displaying characters and the like. It is Further, by reading the image data, generation data for displaying a character or the like in front of the background is generated in storage means such as a VRAM. By outputting a signal to the display device based on the generated data, an image in which a character or the like is arranged in front of the background is displayed on the display unit.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, polygons, which are three-dimensional image data, are set in the virtual three-dimensional space, and textures, which are two-dimensional image data such as characters and patterns, are pasted on the polygons. Generated data is generated by projecting the textured polygon onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the generated data.

ここで、表示部に表示されている画像の一部を変化させる表示演出を行うことで、表示演出の多様化を図ることが可能となると考えられる。しかしながら、当該表示演出を行うために例えば表示部全体の画像データを設ける構成とすると、データ量の増大化が懸念される。 Here, it is considered possible to diversify the display effects by performing a display effect in which a part of the image displayed on the display unit is changed. However, if image data for the entire display section is provided for performing the display effect, there is a concern that the amount of data will increase.

<特徴K群>
特徴K1.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる所定オブジェクト(各オブジェクトOB1~OB4)が含まれており、さらに前記テクスチャには、前記所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記所定オブジェクトを見た場合の画像に対応した所定テクスチャ(各テクスチャTD1~TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Characteristic group K>
Features K1. Arrangement means for arranging an object, which is 3D information, in the virtual 3D space (function for executing the processing of steps S1002 to S1004 in the VDP 135); a function of executing the processing of steps S1005 and S1006); pasting means for pasting a texture to the object (a function of executing color information setting processing in the VDP 135); and a projection plane set based on the viewpoint. Projection means for projecting the object onto the VDP 135 (function for executing the processes of steps S1010 and S1011 in the VDP 135), and drawing setting means for generating generation data (drawing data) based on the data projected onto the projection plane ( a function of executing the processing of steps S1010 to S1012 in the VDP 135); storage means (frame buffer 142) for storing generated data generated by the data generation means (display CPU 131, VDP 135);
Display control means (VDP 135) for displaying an image corresponding to the generated data stored in the storage means on a display unit (display surface G) and for updating the content of the image when a predetermined update timing comes. ,
In a gaming machine equipped with
The objects include predetermined objects (objects OB1 to OB4) used when displaying a predetermined first predetermined image (sand beach background image BP10) on the display unit, and the texture includes the A texture to be pasted on a predetermined object, which includes predetermined textures (each texture TD1 to TD4) corresponding to an image when the predetermined object is viewed from a predetermined specific viewpoint,
the projection means includes perspective projection and parallel projection as projection patterns for projecting the object onto the projection plane;
The data generation means is
A first generation means for generating generated data corresponding to the first predetermined image using the predetermined object and the predetermined texture by setting the viewpoint to the specific viewpoint and the projection pattern to the perspective projection. (a function of executing arithmetic processing for a sandy beach background in the display CPU 131 and a function of executing drawing processing in the VDP 135);
a second predetermined image different from the first predetermined image using the predetermined object and the predetermined texture by changing the viewpoint from the specific viewpoint to a predetermined changed viewpoint and setting the projection pattern to the parallel projection; second generation means for generating generation data corresponding to (the function of executing the background arithmetic processing of the sandy beach running effect in the display CPU 131 and the function of executing the drawing processing in the VDP 135);
A game machine characterized by comprising:

特徴K1によれば、視点を特定視点に設定し且つ投影パターンとして透視投影を設定し、さらに所定テクスチャを所定オブジェクトに対して貼り付けることにより、所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。 According to the feature K1, the first predetermined image can be obtained without complicating the predetermined object by setting the viewpoint to the specific viewpoint, setting the perspective projection as the projection pattern, and pasting the predetermined texture to the predetermined object. can be made into a perspective image.

かかる構成において、所定テクスチャは、特定視点から所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間で遠近感が整合しない。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。 In such a configuration, the predetermined texture corresponds to the image when the predetermined object is viewed from the specific viewpoint. Therefore, when the viewpoint is changed from the specific viewpoint to the changed viewpoint, the image displayed with the predetermined object and the predetermined texture and the other image are displayed. The perspective is inconsistent with the image of For this reason, the second predetermined image becomes an image that makes the player feel uncomfortable, which may give the player a sense of discomfort.

これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 On the other hand, according to this feature, since the second predetermined image is generated by performing perspective projection without considering the depth, the image displayed by the predetermined object and the predetermined texture and the other image It is possible to achieve matching of perspective at Thereby, two different predetermined images can be displayed while using the same texture. Therefore, it is possible to diversify display effects while suppressing an increase in the amount of data.

特徴K2.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002~ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010~ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる複数の所定オブジェクト(各オブジェクトOB1~OB4)が含まれており、さらに前記テクスチャには、前記各所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記各所定オブジェクトを見た場合の画像に対応した複数の所定テクスチャ(各テクスチャTD1~TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像(演出用背景画像BP20)に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
Feature K2. Arrangement means for arranging an object, which is 3D information, in the virtual 3D space (function for executing the processing of steps S1002 to S1004 in the VDP 135); a function of executing the processing of steps S1005 and S1006); pasting means for pasting a texture to the object (a function of executing color information setting processing in the VDP 135); and a projection plane set based on the viewpoint. Projection means for projecting the object onto the VDP 135 (function for executing the processes of steps S1010 and S1011 in the VDP 135), and drawing setting means for generating generation data (drawing data) based on the data projected onto the projection plane ( a function of executing the processing of steps S1010 to S1012 in the VDP 135); storage means (frame buffer 142) for storing generated data generated by the data generation means (display CPU 131, VDP 135);
display control means (VDP 135) for displaying an image corresponding to the generated data stored in the storage means on the display section (display surface G) and for updating the contents of the image when a predetermined update timing comes; ,
In a gaming machine equipped with
The objects include a plurality of predetermined objects (objects OB1 to OB4) used when displaying a predetermined first predetermined image (sand beach background image BP10) on the display section, and the texture includes: , a plurality of predetermined textures (each texture TD1 to TD4) corresponding to an image when each predetermined object is viewed from a predetermined specific viewpoint, which are textures to be affixed to each of the predetermined objects. and
the projection means includes perspective projection and parallel projection as projection patterns for projecting the object onto the projection plane;
The data generation means is
generating data corresponding to the first predetermined image using each predetermined object and each predetermined texture by setting the viewpoint to the specific viewpoint and the projection pattern to the perspective projection; generation means (a function of executing arithmetic processing for a sandy beach background in the display CPU 131 and a function of executing drawing processing in the VDP 135);
By changing the viewpoint from the specific viewpoint to a predetermined modified viewpoint and setting the projection pattern to the parallel projection, a second predetermined image different from the first predetermined image using the predetermined objects and the predetermined textures is obtained. a second generating means (a function of executing background arithmetic processing for the sandy beach run effect in the display CPU 131 and a function of executing drawing processing in the VDP 135) for generating generated data corresponding to a predetermined image (background image for effect BP20);
A game machine characterized by comprising:

特徴K2によれば、投影パターンとして透視投影を設定するとともに、各所定オブジェクトを奥行き方向に異なる位置に配置し、さらに各所定テクスチャを各所定オブジェクトに対して貼り付けることにより、各所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。 According to feature K2, by setting perspective projection as a projection pattern, arranging each predetermined object at different positions in the depth direction, and attaching each predetermined texture to each predetermined object, each predetermined object can be made complex. It is possible to make the first predetermined image an image with a sense of perspective.

かかる構成において、各所定テクスチャは、特定視点から各所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると、ある所定オブジェクト及びそれに対応した所定テクスチャにより表示される画像と、他の所定オブジェクト及びそれに対応した所定テクスチャとにより表示される画像との間で遠近感が整合しなくなる。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。 In such a configuration, each predetermined texture corresponds to an image when each predetermined object is viewed from a specific viewpoint. Therefore, when the viewpoint is changed from a specific viewpoint to a changed viewpoint, a certain predetermined object and a predetermined texture corresponding to it are displayed. There is a mismatch in perspective between the displayed image and the image displayed by other predetermined objects and their corresponding predetermined textures. For this reason, the second predetermined image becomes an image that makes the player feel uncomfortable, which may give the player a sense of discomfort.

これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、両者の間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 On the other hand, according to this feature, since the second predetermined image is generated by performing perspective projection without considering the depth, it is possible to match the perspective between the two. Thereby, two different predetermined images can be displayed while using the same texture. Therefore, it is possible to diversify display effects while suppressing an increase in the amount of data.

特徴K3.前記第2生成手段は、前記各所定オブジェクトを用いて表示される各画像をそれぞれ同一方向に移動させることにより前記第2所定画像が移動するように前記生成データを生成するものであることを特徴とする特徴K2に記載の遊技機。 Feature K3. The second generating means is characterized in that the generated data is generated such that the second predetermined image moves by moving each image displayed using each predetermined object in the same direction. The gaming machine according to feature K2.

特徴K3によれば、各所定オブジェクトを用いて表示される各画像を同一方向に移動させることにより、第2所定画像を移動させることができ、表示演出の多様化を図ることができる。一方、各画像を同一方向に移動させると、各画像間の遠近感の不整合が目立ち易くなり、第2所定画像が移動する表示演出が違和感のあるものとなり易い。 According to the feature K3, by moving the images displayed using the predetermined objects in the same direction, the second predetermined image can be moved, thereby diversifying the display effects. On the other hand, if the images are moved in the same direction, the inconsistency in the sense of perspective between the images is likely to be noticeable, and the display effect in which the second predetermined image is moved tends to be uncomfortable.

これに対して、特徴K2によれば、平行投影を行うことにより第2所定画像に対応した生成データを生成する構成としたことにより、上記不整合を目立ちにくくすることができるため、上記表示演出を好適に行うことができる。 On the other hand, according to the feature K2, the generated data corresponding to the second predetermined image is generated by parallel projection, so that the mismatch can be made less conspicuous. can be preferably performed.

特徴K4.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記第2生成手段は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるほど、当該各所定オブジェクトに対して適用される前記倍率情報を小さく設定するものであることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Feature K4. The data generating means generates the generated data based on applying parameter information that determines a display mode of an image by the object to the object,
The parameter information includes magnification information of the object,
Characteristic feature K2, wherein the second generating means sets the magnification information applied to each predetermined object smaller as the distance between the changed viewpoint and each predetermined object increases, or The game machine according to feature K3.

特徴K4によれば、変更視点を基準として遠い位置に配置されている所定オブジェクトに係る画像ほど小さく表示される。これにより、擬似的に遠近感が生じるため、平行投影において遠近感のある画像を表現することができる。 According to the feature K4, the image related to the predetermined object located farther from the changed viewpoint is displayed in a smaller size. As a result, since a pseudo perspective effect is generated, an image with a perspective effect can be expressed in parallel projection.

特徴K5.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記各所定オブジェクトを平行投影した場合の当該各所定オブジェクトが投影される領域が前記各所定オブジェクトを透視投影した場合の領域と同一となるように、前記各所定オブジェクトの倍率情報及び座標が設定されていることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Feature K5. The data generating means generates the generated data based on applying parameter information that determines a display mode of an image by the object to the object,
The parameter information includes magnification information of the object,
Magnification information and coordinates of each of the predetermined objects are set so that a region onto which each of the predetermined objects is projected when each of the predetermined objects is parallel projected is the same as a region when each of the predetermined objects is projected by perspective projection. The gaming machine according to feature K2 or feature K3, characterized in that

特徴K5によれば、各所定オブジェクトを平行投影することにより得られる画像を、各所定オブジェクトを透視投影することにより得られる画像に似せることができる。これにより、平行投影により得られた画像を、あたかも透視投影により得られる遠近感のある画像のように見せることができる。 According to the feature K5, an image obtained by parallel projection of each predetermined object can be made to resemble an image obtained by perspective projection of each predetermined object. This makes it possible to make an image obtained by parallel projection look like an image with perspective obtained by perspective projection.

特徴K6.前記第2生成手段は、少なくとも前記各所定オブジェクトを所定の速度で移動させる移動手段(表示CPU131におけるステップS4313の処理を実行する機能)を備え、
前記各所定オブジェクトの移動速度は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるに従って前記変更視点に対する前記各所定オブジェクトの相対速度が小さくなるように設定されていることを特徴とする特徴K2乃至K5のいずれか1に記載の遊技機。
Feature K6. The second generating means includes at least moving means (function for executing the processing of step S4313 in the display CPU 131) for moving each of the predetermined objects at a predetermined speed,
The moving speed of each predetermined object is set such that the relative speed of each predetermined object with respect to the changed viewpoint decreases as the distance between the changed viewpoint and each predetermined object increases. The game machine according to any one of K2 to K5.

特徴K6によれば、変更視点からの距離が大きい所定オブジェクトほどゆっくり移動するように見え、変更視点からの距離が小さい所定オブジェクトほど速く移動するように見える。これにより、平行投影を行う構成において擬似的に遠近感を発生させることができる。 According to the feature K6, the predetermined object that is farther from the changed viewpoint appears to move slowly, and the predetermined object that is closer to the changed viewpoint appears to move faster. As a result, a pseudo perspective can be generated in a configuration that performs parallel projection.

特徴K7.前記各所定オブジェクトはそれぞれ板状オブジェクトであり、
前記各板状オブジェクトは、前記投影平面に対して傾斜した状態で前記特定視点の奥行き方向に並べて配置されており、
前記各所定オブジェクトに対して貼り付けられるテクスチャは、前記特定視点から見た場合の画像に対応するように前記傾斜に対応させて設定されていることを特徴とする特徴K2乃至K6のいずれか1に記載の遊技機。
Feature K7. each of the predetermined objects is a plate-shaped object,
the plate-like objects are arranged side by side in the depth direction of the specific viewpoint while being inclined with respect to the projection plane;
Any one of features K2 to K6, characterized in that the texture applied to each of the predetermined objects is set in correspondence with the inclination so as to correspond to the image viewed from the specific viewpoint. The gaming machine described in .

特徴K7によれば、透視投影を行うことにより比較的簡素な板状オブジェクトを用いて遠近感のある画像を生成することができるため、当該画像の表示に係る処理負荷を軽減することができる。一方、視点が変更することに起因する各個別画像間における遠近感のずれが目立ち易い。 According to the feature K7, it is possible to generate an image with perspective using a relatively simple plate-like object by performing perspective projection, so that the processing load associated with displaying the image can be reduced. On the other hand, a shift in perspective between individual images due to a change in viewpoint is likely to be conspicuous.

これに対して、上記特徴K2によれば、平行投影することにより、視点の変更に伴う遠近感のずれを抑制することができる。 On the other hand, according to the feature K2, parallel projection can suppress the shift in the sense of perspective that accompanies the change of the viewpoint.

上記特徴K群は以下の課題に対して効果的である。 The feature K group described above is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 Pachinko game machines, slot machines, and the like are known as types of game machines. As these game machines, those equipped with a display device such as a liquid crystal display device are known. The game machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions instead of simply displaying a two-dimensional image. When performing the display, polygons, which are three-dimensional image data, are set in the virtual three-dimensional space, and textures, which are two-dimensional image data such as characters and patterns, are pasted on the polygons. Generated data is generated by projecting the textured polygon onto a plane from a desired viewpoint. A stereoscopic image is displayed by outputting a signal to the display device based on the generated data.

ここで、表示演出への遊技者の興味を高めるためには、表示演出の多様化を図ることが好ましい。その一方、表示演出の多様化を図る上で、データ量の極端な増大化は好ましくない。 Here, in order to increase the player's interest in the display effects, it is preferable to diversify the display effects. On the other hand, an extreme increase in the amount of data is not preferable in order to diversify the display effects.

以下に、以上の各特徴を適用し得る各種遊技機の基本構成を示す。 The basic configuration of various gaming machines to which the above features can be applied is shown below.

パチンコ遊技機:遊技者が操作する操作手段と、その操作手段の操作に基づいて遊技球を発射する遊技球発射手段と、その発射された遊技球を所定の遊技領域に導く球通路と、遊技領域内に配置された各遊技部品とを備え、それら各遊技部品のうち所定の通過部を遊技球が通過した場合に遊技者に特典を付与する遊技機。 Pachinko machine: an operating means operated by a player, a game ball shooting means for shooting a game ball based on the operation of the operating means, a ball passage for guiding the shot game ball to a predetermined game area, and a game This game machine is provided with game parts arranged in an area, and gives a privilege to a player when a game ball passes through a predetermined passing part of the game parts.

スロットマシン等の回胴式遊技機:複数の絵柄を可変表示させる絵柄表示装置を備え、始動操作手段の操作に起因して前記複数の絵柄の可変表示が開始され、停止操作手段の操作に起因して前記複数の絵柄の可変表示が停止され、その停止後の絵柄に応じて遊技者に特典を付与する遊技機。 A game machine such as a slot machine: equipped with a pattern display device for variably displaying a plurality of patterns, the variable display of the plurality of patterns is started by the operation of the start operation means, and the operation of the stop operation means is caused by the operation of the stop operation means. Then, the variable display of the plurality of patterns is stopped, and a privilege is given to the player according to the patterns after the stop.

10…パチンコ機、31…図柄表示装置、48…演出用操作装置、131…表示CPU、133…メモリモジュール、135…VDP、142…フレームバッファ、151…ジオメトリ演算部、152…レンダリング部、155…表示回路、AP1~AP4…付属パーツ部、BP…本体パーツ部、CH15…教示用の個別画像、CH16…教示用の個別画像、KD1…第1キーデータ、KD2…第2キーデータ、ND1…第1法線マップデータ、ND2…第2法線マップデータ、PC17…粒子分散用オブジェクト、PC19…海面用オブジェクト、PC20…特別オブジェクト、PC21~PC23…第1部分テクスチャ、PC24~PC27…第2部分テクスチャ、PT1…粒子単体画像、PT2…粒子単体画像、SD…面データ、SD1…適用対象の面データ、SD2…緩衝用の面データ、RMD0…ラウンド動画像データ、IPD0…挿入画像データ、IP1…第1挿入キャラクタ画像、IP2…第2挿入キャラクタ画像、RMD0a…第1ラウンド動画像データ、RMD0b…第2ラウンド動画像データ、OB1…砂浜オブジェクト、OB2…波オブジェクト、OB3…海オブジェクト、OB4…空オブジェクト、TD1…砂浜テクスチャ、TD2…波テクスチャ、TD3…海テクスチャ、TD4…空テクスチャ、PV1…特定視点、PV2…別視点、BP10…砂浜背景画像、BP20…演出用背景画像、OB10…屈折用オブジェクト、SKD1…屈折用αデータ、MD1…第1座標マッピングデータ、MD2…第2座標マッピングデータ、CP13…膨張珊瑚画像、CP14…収縮珊瑚画像、CP15…第1歪み画像、CP16…第2歪み画像、PE1…歪み領域、OB21…ベースオブジェクト、OB22…部分オブジェクト、OB31…頭部オブジェクト、TD11…ベーステクスチャ、TD12…部分テクスチャ、TD21~TD23…第1~第3部分テクスチャ、CP21…ベース画像、CP23~CP25…第1~第3部分画像、PE2…重ね合わせ領域。 DESCRIPTION OF SYMBOLS 10... Pachinko machine 31... Symbol display device 48... Operation device for production 131... Display CPU 133... Memory module 135... VDP 142... Frame buffer 151... Geometry calculation unit 152... Rendering unit 155... Display circuit, AP1 to AP4...Attachment parts, BP...Main body parts, CH15...Individual image for teaching, CH16...Individual image for teaching, KD1...First key data, KD2...Second key data, ND1...Second 1 normal map data, ND2...second normal map data, PC17...particle dispersion object, PC19...sea surface object, PC20...special object, PC21 to PC23...first partial texture, PC24 to PC27...second partial texture , PT1...Particle single image, PT2...Particle single image, SD...Surface data, SD1...Surface data to be applied, SD2...Surface data for buffering, RMD0...Round moving image data, IPD0...Inserted image data, IP1...Second 1 inserted character image, IP2...second inserted character image, RMD0a...first round moving image data, RMD0b...second round moving image data, OB1...sand beach object, OB2...wave object, OB3...sea object, OB4...sky object , TD1... sandy beach texture, TD2... wave texture, TD3... sea texture, TD4... sky texture, PV1... specific viewpoint, PV2... another viewpoint, BP10... sandy beach background image, BP20... background image for presentation, OB10... object for refraction, SKD1... α data for refraction, MD1... First coordinate mapping data, MD2... Second coordinate mapping data, CP13... Expanded coral image, CP14... Contracted coral image, CP15... First distorted image, CP16... Second distorted image, PE1 ... distortion area OB21 ... base object OB22 ... partial object OB31 ... head object TD11 ... base texture TD12 ... partial texture TD21 to TD23 ... first to third partial textures CP21 ... base image CP23 to CP25 . . . First to third partial images, PE2 .

Claims (1)

表示部を有する表示手段と、a display means having a display;
画像データを予め記憶した表示用記憶手段と、display storage means for storing image data in advance;
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段と、display control means for displaying an image on the display section using the image data stored in the display storage means;
を備えている遊技機において、In a gaming machine equipped with
前記表示用記憶手段は、前記表示部全体に表示させることが可能なサイズの動画を再生させるために用いられる圧縮された動画像データと、前記動画像データよりもサイズが小さくかつデータ量が少ない所定画像データと、を記憶しており、The display storage means stores compressed moving image data used for reproducing a moving image of a size that can be displayed on the entire display unit, and a smaller size and smaller amount of data than the moving image data. predetermined image data, and
前記表示制御手段は、The display control means is
いずれかの動画像データを展開用領域に展開して、静止画像データを作成する展開手段と、a rendering means for rendering any moving image data in a rendering area to create still image data;
当該展開手段により展開された静止画像データを用いることにより、その動画像データに対応した画像の動画を所定の表示期間に亘って表示させる表示演出を実行する表示演出実行手段と、display effect executing means for executing a display effect for displaying a moving image of an image corresponding to the moving image data over a predetermined display period by using the still image data developed by the developing means;
を備え、with
前記表示用記憶手段に記憶されている画像データによる演出として、背景画像と当該背景画像に重なりかつ時間の経緯とともに移動する所定の移動キャラクタ画像が表示される第1演出と、前記移動キャラクタ画像が含まれずかつ背景画像が含まれる第2演出とが連続可能に構成されており、As effects based on the image data stored in the display storage means, a first effect in which a background image and a predetermined moving character image that overlaps the background image and moves over time are displayed; A second effect that does not include a background image and includes a background image is configured to be continuous,
前記表示演出実行手段は、前記所定画像データを用いて所定の画像を挿入することにより、前記表示演出の演出期間のうち少なくとも一部の期間において前記第2演出に係る画像と前記所定の画像とが重ね合わされた画像を表示させることが可能な手段を備え、By inserting a predetermined image using the predetermined image data, the display effect executing means inserts the image related to the second effect and the predetermined image in at least a part of the effect period of the display effect. is provided with means capable of displaying an image superimposed on
前記所定の移動キャラクタ画像を移動させることによって、当該所定の移動キャラクタ画像が前記表示部の所定の表示領域から表示されないようにすることが可能とされていることを特徴とする遊技機。A gaming machine characterized in that it is possible to prevent the predetermined moving character image from being displayed from a predetermined display area of the display unit by moving the predetermined moving character image.
JP2022026807A 2020-05-01 2022-02-24 game machine Active JP7283599B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022026807A JP7283599B2 (en) 2020-05-01 2022-02-24 game machine

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020081268A JP2020138037A (en) 2020-05-01 2020-05-01 Game machine
JP2022026807A JP7283599B2 (en) 2020-05-01 2022-02-24 game machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020081268A Division JP2020138037A (en) 2020-05-01 2020-05-01 Game machine

Publications (2)

Publication Number Publication Date
JP2022060501A JP2022060501A (en) 2022-04-14
JP7283599B2 true JP7283599B2 (en) 2023-05-30

Family

ID=87852716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022026807A Active JP7283599B2 (en) 2020-05-01 2022-02-24 game machine

Country Status (1)

Country Link
JP (1) JP7283599B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004329650A (en) 2003-05-09 2004-11-25 Daikoku Denki Co Ltd Display unit for game machine and game machine using the same
JP2010227702A (en) 2010-07-22 2010-10-14 Sankyo Co Ltd Game machine

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004329650A (en) 2003-05-09 2004-11-25 Daikoku Denki Co Ltd Display unit for game machine and game machine using the same
JP2010227702A (en) 2010-07-22 2010-10-14 Sankyo Co Ltd Game machine

Also Published As

Publication number Publication date
JP2022060501A (en) 2022-04-14

Similar Documents

Publication Publication Date Title
JP5703736B2 (en) Game machine
JP6131972B2 (en) Game machine
JP5703735B2 (en) Game machine
JP5565292B2 (en) Game machine
JP5482642B2 (en) Game machine
JP6015791B2 (en) Game machine
JP5910672B2 (en) Game machine
JP5783285B2 (en) Game machine
JP6702403B2 (en) Amusement machine
JP6311762B2 (en) Game machine
JP7283599B2 (en) game machine
JP7120409B2 (en) game machine
JP7120408B2 (en) game machine
JP6011659B2 (en) Game machine
JP6015792B2 (en) Game machine
JP5703734B2 (en) Game machine
JP5703733B2 (en) Game machine
JP2017121589A (en) Game machine
JP6604394B2 (en) Game machine
JP6614262B2 (en) Game machine
JP6614261B2 (en) Game machine
JP6311763B2 (en) Game machine
JP6315047B2 (en) Game machine
JP2019042554A (en) Game machine
JP2018015579A (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R150 Certificate of patent or registration of utility model

Ref document number: 7283599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150