JP2019042554A - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP2019042554A
JP2019042554A JP2018234536A JP2018234536A JP2019042554A JP 2019042554 A JP2019042554 A JP 2019042554A JP 2018234536 A JP2018234536 A JP 2018234536A JP 2018234536 A JP2018234536 A JP 2018234536A JP 2019042554 A JP2019042554 A JP 2019042554A
Authority
JP
Japan
Prior art keywords
display
data
image data
processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018234536A
Other languages
Japanese (ja)
Inventor
伊藤 啓介
Keisuke Ito
啓介 伊藤
岡村 鉉
Gen Okamura
鉉 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2018234536A priority Critical patent/JP2019042554A/en
Publication of JP2019042554A publication Critical patent/JP2019042554A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Pinball Game Machines (AREA)
  • Display Devices Of Pinball Game Machines (AREA)

Abstract

To provide a gaming machine capable of reducing the data amount of moving image data, while suppressing deterioration of image quality of the moving images.SOLUTION: The memory module 133 stores image data corresponding to a plurality of types of objects and still images. On the basis of the drawing instruction from a display CPU 131, a VDP 135 performs geometry calculations including arrangement processing of the image data in the world coordinate system, performs rendering including projection processing on a projection plane, and thereby creates drawing data which is two-dimensional data. In addition, the memory module stores moving image data as the image data. The moving image data is decoded through a moving image decoder and developed into still image data for a plurality of frames. In this case, one moving image data is divided into a plurality of moving image data according to the mode of the moving image. The data amount assigned to each divided moving image data is different.SELECTED DRAWING: Figure 4

Description

本発明は遊技機に関するものである。   The present invention relates to a gaming machine.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。   Pachinko gaming machines and slot machines are known as a type of gaming machine. These gaming machines are equipped with a control board on which a CPU is mounted and an element such as a memory in which a control program related to gaming is stored is mounted, and a series of games are controlled by the control board. A configuration is also known in which the CPU and the memory are not individually mounted on the control substrate, but are mounted on the control substrate in a state in which they are integrated.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる(例えば特許文献1参照)。   Among the above-mentioned gaming machines, for example, a liquid crystal display device is known in which a display device having a display unit is mounted. In such a gaming machine, a memory for image data in which image data is stored in advance is mounted, and a predetermined image is displayed on the display unit using the image data read from the memory ( See, for example, Patent Document 1).

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。   Also, a configuration is known in which moving image data is provided as image data. Since the data amount of moving image data is larger than that of still image data, it is stored in a compressed state in a memory for image data. When reproducing a moving image related to the compressed moving image data, the moving image data is expanded in a predetermined memory area using a decoder to form a plurality of still image data, and the plurality of still image data is updated as an image It is necessary to use in a predetermined order each time the timing comes.

特開2004−208830号公報JP 2004-208830 A

ここで、画像データ用のメモリの記憶容量と他の画像データとの関係から、動画像データのデータ量を、予め定められた設定量となるように圧縮する必要が生じる場合がある。この場合、動画像データの圧縮態様によっては、動画像データを用いた動画の画質が低下し、当該動画への注目度が低下するという不都合が生じ得る。   Here, due to the relationship between the storage capacity of the memory for image data and other image data, it may be necessary to compress the data amount of moving image data so as to be a predetermined set amount. In this case, depending on the compression mode of the moving image data, the image quality of the moving image using the moving image data may be degraded, and the degree of attention to the moving image may be reduced.

本発明は、上記例示した事情等に鑑みてなされたものであり、圧縮された動画像データを用いて動画を表示させる遊技機において、動画の画質の低下を抑制しつつ、動画像データのデータ量の削減を図ることが可能な遊技機を提供することを目的とするものである。   The present invention has been made in view of the above-described circumstances and the like, and in a game machine for displaying a moving image using compressed moving image data, the data of moving image data is suppressed while suppressing the deterioration of the image quality of the moving image. It is an object of the present invention to provide a gaming machine capable of reducing the amount.

本発明は、
表示部を有する表示手段と、
画像データを予め記憶した表示用記憶手段と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段と、
遊技球を受け入れ可能となるように開放可能な入賞手段と、
遊技者に有利な遊技状態となった場合に前記入賞手段を開放状態とした後に閉鎖状態に切り換える開閉制御を実行可能であり、当該開閉制御であるラウンド遊技を複数回実行可能な開閉制御手段と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した画像の動画を前記複数の更新タイミング分の表示期間に亘って表示させる表示演出を実行する表示演出実行手段と、
を備え、
前記動画像データは、当該動画像データにより表示される動画の態様に応じて、複数の単位動画像データに分割されており、
前記表示演出実行手段は、各前記単位動画像データによる動画を予め定められた順序で順次表示し、かつ所定の前記単位動画像データの表示と他の前記単位動画像データの表示との間に所定の画像を挿入することにより、前記入賞手段の開放状態における一連の表示演出を実行するものであり、
前記所定の画像は、前記ラウンド遊技とそれに続く前記ラウンド遊技との間において挿入されるものであり、
各前記単位動画像データは、前記所定の画像が挿入される前の前記所定の単位動画像データに割り当てられるデータ量が、前記所定の画像が挿入された後の前記他の単位動画像データに割り当てられるデータ量よりも多くなるようにして圧縮されていることを特徴とする。
The present invention
Display means having a display unit;
Display storage means for storing image data in advance;
A display control unit that causes the display unit to display an image using the image data stored in the display storage unit;
Winning means that can be opened to accept the game ball;
An open / close control means capable of executing an open / close control to switch the closed means to a closed state after making the winning means open when a game state advantageous to the player can be executed, ,
In the gaming machine provided with
The display storage means stores compressed moving image data used to reproduce a moving image,
The display control means
An expanding means for expanding any moving image data into an expansion area and creating still image data for a plurality of update timings with respect to an image corresponding to the moving image data;
By using still image data for a plurality of update timings expanded by the expansion means in the order defined in the moving image data, a moving image of an image corresponding to the moving image data for the plurality of update timings Display effect execution means for executing a display effect to be displayed over the display period of
Equipped with
The moving image data is divided into a plurality of unit moving image data according to an aspect of a moving image displayed by the moving image data,
The display effect execution means sequentially displays moving images according to the unit moving image data in a predetermined order, and between display of a predetermined unit moving image data and display of another unit moving image data By inserting a predetermined image, a series of display effects in the open state of the winning means are executed.
The predetermined image is to be inserted between the round game and the subsequent round game,
Each unit moving image data has a data amount allocated to the predetermined unit moving image data before the predetermined image is inserted into the other unit moving image data after the predetermined image is inserted. It is characterized in that it is compressed to be larger than the amount of data to be allocated.

本発明によれば、動画の画質の低下を抑制しつつ、動画像データのデータ量の削減を図ることができる。   According to the present invention, it is possible to reduce the data amount of moving image data while suppressing the deterioration of the image quality of the moving image.

パチンコ機を示す正面図である。It is a front view showing a pachinko machine. (a)〜(j)図柄表示装置の表示面における表示内容を説明するための説明図である。(A)-(j) It is explanatory drawing for demonstrating the display content in the display surface of a symbol display apparatus. (a),(b)図柄表示装置の表示面における表示内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the display content in the display surface of a symbol display apparatus. パチンコ機の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a pachinko machine. 当否抽選などに用いられる各種カウンタの内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of the various counters used for the etc. lottery. 主制御装置にて実行されるタイマ割込み処理を示すフローチャートである。It is a flowchart which shows the timer interruption process performed by a main control apparatus. 主制御装置にて実行される通常処理を示すフローチャートである。It is a flowchart which shows the normal processing performed by a main control apparatus. 主制御装置にて実行される遊技回制御処理を示すフローチャートである。It is a flowchart which shows the game times control processing performed by a main control apparatus. 主制御装置にて実行される変動開始処理を示すフローチャートである。It is a flowchart which shows the fluctuation | variation start process performed by a main control apparatus. 主制御装置の処理構成の別形態であってメイン処理を示すフローチャートである。It is another form of the processing structure of a main control apparatus, and is a flowchart which shows main processing. 主制御装置の処理構成の別形態であってタイマ割込み処理を示すフローチャートである。It is another form of the processing structure of a main control apparatus, and is a flowchart which shows a timer interruption process. 表示CPUにて実行されるメイン処理を示すフローチャートである。It is a flowchart which shows the main processing performed by display CPU. 表示CPUにて実行されるV割込み処理を示すフローチャートである。It is a flowchart which shows V interruption processing performed by display CPU. 表示CPUにて実行されるタスク処理を示すフローチャートである。It is a flowchart which shows the task processing performed by display CPU. (a)〜(c)描画リストの内容を説明するための説明図である。(A)-(c) is an explanatory view for explaining the contents of a drawing list. VDPにて実行される描画処理を示すフローチャートである。It is a flowchart which shows the drawing process performed by VDP. 描画処理の実行に伴い描画データが作成される様子を説明するための説明図である。FIG. 10 is an explanatory diagram for describing a state in which drawing data is created along with execution of drawing processing. VDPにて実行されるZバッファを用いた隠面処理を示すフローチャートである。It is a flowchart which shows the hidden surface process using Z buffer performed by VDP. 表示CPUにて実行されるマスク用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the masks performed by display CPU. (a),(b)第1のマスク表示の具体的な内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the concrete content of a 1st mask display. (a)〜(d)第2のマスク表示の具体的な内容を説明するための説明図である。(A)-(d) It is explanatory drawing for demonstrating the concrete content of a 2nd mask display. 表示CPUにて実行されるマスク用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the masks performed by display CPU. 表示CPUにて実行される操作発生コマンド対応処理を示すフローチャートである。It is a flowchart which shows the operation generation command corresponding | compatible process performed by display CPU. 表示CPUにて実行される表示モード背景用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the display mode background performed by display CPU. 表示CPUにて実行される図柄用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for symbols performed by display CPU. VDPにて実行される背景用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the background performed by VDP. VDPにて実行される背景用の描画データ作成処理を示すフローチャートである。It is a flowchart which shows the drawing data creation process for backgrounds performed by VDP. 第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを示すタイミングチャートである。It is a timing chart which shows the timing by which another preservation data for the 1st display mode and another preservation data for the 2nd display mode are created. (a),(b)連結オブジェクトを説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating a connection object. 表示CPUにて実行される連結オブジェクト用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for connection objects performed by display CPU. VDPにて実行される連結オブジェクト演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the connection object performance performed by VDP. (a)〜(c)連結オブジェクト演出を説明するための説明図である。(A)-(c) It is an explanatory view for explaining connected object production. (a)は粒子分散用オブジェクトを説明するための説明図であり、(b)は粒子分散用テクスチャを説明するための説明図であり、(c)〜(e)はキーデータを説明するための説明図である。(A) is an explanatory view for explaining an object for particle dispersion, (b) is an explanatory view for explaining a texture for particle dispersion, (c) to (e) are for explaining key data FIG. (a)は表示CPUにて実行される連結オブジェクト用の演算処理を示すフローチャートであり、(b)はブレンド用テーブルを説明するための説明図である。(A) is a flowchart which shows the calculation processing for a connection object performed by display CPU, (b) is explanatory drawing for demonstrating the table for a blend. VDPにて実行される粒子分散演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for particle | grain dispersion presentation performed by VDP. (a)は粒子分散演出を説明するための説明図であり、(b−1)及び(b−2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。(A) is an explanatory view for explaining the particle dispersion rendition, (b-1) and (b-2) are for simply explaining on what trajectory each particle single-piece image is displaced. FIG. VDPにて実行される粒子分散演出用の設定処理の別形態を示すフローチャートである。It is a flowchart which shows another form of the setting process for particle | grain dispersion presentation performed by VDP. (a)は海面用オブジェクトを説明するための説明図であり、(b)は法線マップデータを説明するための説明図である。(A) is explanatory drawing for demonstrating the object for sea surface, (b) is explanatory drawing for demonstrating normal line map data. (a),(b)一対の法線マップデータを海面用オブジェクトに適用する手法を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the method of applying a pair of normal line map data to the object for sea surface. (a)〜(c)各面データに対する変更データの適用の仕方を説明するための説明図である。(A)-(c) is an explanatory view for explaining how to apply change data to each surface data. (a)は表示CPUにて実行される海面表示用の演算処理を示すフローチャートであり、(b)は海面用アニメーションデータを説明するための説明図である。(A) is a flowchart which shows the arithmetic processing for sea surface display performed by display CPU, (b) is explanatory drawing for demonstrating the animation data for sea surface. VDPにて実行される海面表示用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the sea surface display performed by VDP. VDPにて実行される法線パラメータの設定処理を示すフローチャートである。It is a flowchart which shows the setting process of the normal-line parameter performed by VDP. (a)〜(c)各面データに色情報を設定する手法を説明するための説明図である。(A)-(c) It is explanatory drawing for demonstrating the method of setting color information to each surface data. (a)はVDPにて実行される海面表示用の色情報設定処理を示すフローチャートであり、(b)はVDPにて実行される海面用の調整処理を示すフローチャートである。(A) is a flowchart which shows the color information setting process for sea surface display performed by VDP, (b) is a flowchart which shows the adjustment process for sea surfaces performed by VDP. (a)は海面表示を説明するための説明図であり、(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。(A) is explanatory drawing for demonstrating a sea surface display, (b) is explanatory drawing for demonstrating simply the setting aspect of the color information of the area | region where sea surface display is performed. VDPにて実行される海面表示用の色情報設定処理の別形態を示すフローチャートである。It is a flowchart which shows another form of the color information setting process for sea surface display performed by VDP. 表示CPUにて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。It is a flowchart which shows the calculation processing for effects at the time of opening / closing execution mode performed by display CPU. (a)はVDPにおいてピントを調整する上で用いられるVRAMの各エリアを説明するための説明図であり、(b)はVDPにて実行される描画データ合成処理を示すフローチャートである。(A) is explanatory drawing for demonstrating each area of VRAM used when adjusting a focus in VDP, (b) is a flowchart which shows the drawing data synthetic | combination processing performed by VDP. (a)はVDPにて実行されるピント演出用の調整処理を示すフローチャートであり、(b)はピント範囲及び各ぼかし範囲を説明するための説明図である。(A) is a flowchart which shows the adjustment process for focus effects performed by VDP, (b) is explanatory drawing for demonstrating a focus range and each blurring range. (a)はVDPにて実行されるぼかし発生処理を示すフローチャートであり、(b−1)及び(b−2)はぼかし発生処理に際しての単位エリアの抽出態様を説明するための説明図である。(A) is a flowchart which shows the blurring generation | occurrence | production process performed by VDP, (b-1) and (b-2) are explanatory drawings for demonstrating the extraction aspect of the unit area in the case of blurring generation | occurrence | production processing . (a)はピント表示が行われていない状態を説明するための説明図であり、(b)はピント表示が行われている状態を説明するための説明図である。(A) is an explanatory view for explaining a state in which the focus display is not performed, and (b) is an explanatory view for explaining a state in which the focus display is performed. (a)は特別オブジェクトを説明するための説明図であり、(b−1)〜(b−3)は第1部分テクスチャを説明するための説明図であり、(c−1)〜(c−4)は第2部分テクスチャを説明するための説明図である。(A) is an explanatory view for explaining a special object, (b-1) to (b-3) are explanatory views for explaining a first partial texture, and (c-1) to (c) -4) is an explanatory view for explaining the second partial texture. 表示CPUにて実行される特別キャラクタ用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for special characters performed by display CPU. VDPにて実行される特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。It is a flowchart which shows the texture mapping process for special characters performed by VDP. (a),(b)模様変更表示の内容を説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating the content of pattern change display. ラウンド動画像データのデータ構成を説明するための説明図である。It is an explanatory view for explaining data composition of round moving picture data. (a)ラウンド動画像データによる表示内容を説明するための説明図であり、(b)挿入画像データによる表示内容を説明するための説明図である。(A) It is explanatory drawing for demonstrating the display content by round moving image data, (b) It is explanatory drawing for demonstrating the display content by insertion image data. 表示CPUにより実行されるラウンド演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the round presentation performed by display CPU. 動画デコーダによるデコード処理を示すフローチャートである。It is a flowchart which shows the decoding process by a moving image decoder. VDPにより実行されるラウンド演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for the round presentation performed by VDP. VDPにより実行されるラウンド演出用マッピング処理を示すフローチャートである。It is a flowchart which shows the mapping process for round effects performed by VDP. (a)〜(d)ラウンド演出の様子を説明するための説明図である。(A)-(d) It is explanatory drawing for demonstrating the mode of round presentation. 別形態におけるラウンド動画像データのデータ構成を説明するための説明図である。It is explanatory drawing for demonstrating the data structure of the round moving image data in another form. (a)第1ラウンド動画像データの圧縮態様を説明するための説明図であり、(b)第2ラウンド動画像データの圧縮態様を説明するための説明図であり、(c)各ラウンド動画像データのビットレートを説明するためのグラフである。(A) It is explanatory drawing for demonstrating the compression aspect of 1st round moving image data, (b) It is explanatory drawing for demonstrating the compression aspect of 2nd round moving image data, (c) Each round moving image It is a graph for demonstrating the bit rate of image data. 別形態におけるラウンド演出用の演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing for the round presentation in another form. (a)別形態におけるラウンド演出用の設定処理を示すフローチャートであり、(b)別形態におけるラウンド演出用マッピング処理を示すフローチャートである。(A) It is a flowchart which shows the setting process for round effects in another form, (b) It is a flowchart which shows the mapping process for round effects in another form. ラウンド演出の実行態様を説明するためのタイムチャートである。It is a time chart for explaining the execution mode of round production. (a),(b)砂浜背景画像を表示させるのに用いられる各オブジェクトを説明するための説明図である。(A), (b) It is explanatory drawing for demonstrating each object used for displaying a sandy beach background image. 砂浜背景画像を表示させるのに用いられる各テクスチャを説明するための説明図である。It is an explanatory view for explaining each texture used for displaying a sandy beach background image. 視点が変更されることによるパースペクティブの変化を説明するための説明図である。It is an explanatory view for explaining change of a perspective by changing a viewpoint. 演出用背景画像を作成する場合の各オブジェクトの設定態様を説明するための説明図である。It is an explanatory view for explaining a setting mode of each object in the case of creating a background image for performance. 砂浜背景用演算処理を示すフローチャートである。It is a flowchart which shows the calculation processing for sandy beach backgrounds. (a)砂浜疾走演出の背景用演算処理を示すフローチャートであり、(b)各オブジェクトの視点からの距離と当該視点に対する相対速度との関係を説明するための説明図である。(A) It is a flowchart which shows the calculation process for backgrounds of a sandy beach sprint production, It is explanatory drawing for demonstrating the relationship between the distance from the viewpoint of each object, and the relative velocity with respect to the said viewpoint (b). 砂浜疾走演出の演出用演算処理を示すフローチャートである。It is a flowchart which shows the arithmetic processing of an effect for a sandy beach sprint effect. (a)砂浜背景画像が表示された表示面を示す説明図であり、(b)砂浜疾走演出の様子を説明するための説明図である。(A) It is explanatory drawing which shows the display surface in which the sandy beach background image was displayed, (b) It is explanatory drawing for demonstrating the mode of a beach sprint running presentation. (a)屈折用オブジェクトを説明するための説明図であり、(b)第1変形形態を説明するための説明図であり、(c)第2変形形態を説明するための説明図であり、(d)屈折用αデータを説明するための説明図である。(A) is an explanatory diagram for describing an object for refraction, (b) is an explanatory diagram for describing a first modified embodiment, (c) is an explanatory diagram for describing a second modified embodiment, (D) It is explanatory drawing for demonstrating alpha data for refraction. 歪み演出演算処理を示すフローチャートである。It is a flowchart which shows distortion production arithmetic processing. (a)第1座標マッピングデータを説明するための説明図であり、(b)第2座標マッピングデータを説明するための説明図である。(A) It is explanatory drawing for demonstrating 1st coordinate mapping data, (b) It is explanatory drawing for demonstrating 2nd coordinate mapping data. 第2の実施形態における描画処理を示すフローチャートである。It is a flowchart which shows the drawing process in 2nd Embodiment. 歪み演出用の設定処理を示すフローチャートである。It is a flowchart which shows the setting process for distortion production. 歪み演出用テクスチャマッピング処理を示すフローチャートである。It is a flow chart which shows texture mapping processing for distortion production. 歪み演出用融合処理を示すフローチャートである。It is a flow chart which shows fusion processing for distortion production. 歪み演出の様子を説明するための説明図である。It is an explanatory view for explaining a situation of distortion production. (a)ベースオブジェクト及び部分オブジェクトを説明するための説明図であり、(b)ベーステクスチャを説明するための説明図であり、(c)各部分テクスチャを説明するための説明図である。(A) is an explanatory view for explaining a base object and a partial object, (b) is an explanatory view for explaining a base texture, and (c) is an explanatory view for explaining each partial texture. 瞬き演出用演算処理を示すフローチャートである。It is a flowchart which shows the operation processing for blink effects. 瞬き演出の様子を説明するための説明図である。It is an explanatory view for explaining a situation of blink production.

<第1の実施形態>
以下、遊技機の一種であるパチンコ遊技機(以下、「パチンコ機」という)の一実施形態を、図面に基づいて説明する。図1はパチンコ機10の正面図である。
First Embodiment
Hereinafter, an embodiment of a pachinko gaming machine (hereinafter referred to as a "pachinko machine") which is a type of gaming machine will be described based on the drawings. FIG. 1 is a front view of a pachinko machine 10.

パチンコ機10は、図1に示すように、当該パチンコ機10の外殻を形成する外枠11と、この外枠11に対して前方に回動可能に取り付けられた遊技機本体12とを有する。遊技機本体12は、内枠(図示略)と、その内枠の前方に配置される前扉枠14と、内枠の後方に配置される裏パックユニット(図示略)とを備えている。   As shown in FIG. 1, the pachinko machine 10 has an outer frame 11 forming an outer shell of the pachinko machine 10 and a gaming machine main body 12 rotatably attached to the outer frame 11 in the forward direction. . The gaming machine main body 12 includes an inner frame (not shown), a front door frame 14 disposed in front of the inner frame, and a back pack unit (not shown) disposed behind the inner frame.

遊技機本体12のうち内枠が、左右両側部のうち一方を支持側として外枠11に回動可能に支持されている。また、内枠には、前扉枠14が回動可能に支持されており、左右両側部のうち一方を支持側として前方へ回動可能とされている。また、内枠には、裏パックユニットが回動可能に支持されており、左右両側部のうち一方を支持側として後方へ回動可能とされている。   An inner frame of the gaming machine main body 12 is rotatably supported by the outer frame 11 with one of the left and right side portions as a support side. Further, the front door frame 14 is rotatably supported by the inner frame, and can be rotated forward with one of the left and right side portions as a support side. In addition, the back pack unit is rotatably supported by the inner frame, and can be rotated backward with one of the left and right side portions as the support side.

なお、遊技機本体12には、その回動先端部に施錠装置(図示略)が設けられており、遊技機本体12を外枠11に対して開放不能に施錠状態とする機能を有しているとともに、前扉枠14を内枠に対して開放不能に施錠状態とする機能を有している。これらの各施錠状態は、パチンコ機10前面にて露出させて設けられたシリンダ錠17に対して解錠キーを用いて解錠操作を行うことにより、それぞれ解除される。   The gaming machine body 12 is provided with a locking device (not shown) at its rotating tip and has a function to lock the gaming machine body 12 to the outer frame 11 so as not to be opened. And has a function to lock the front door frame 14 against the inner frame in an unopenable manner. Each of these locked states is released by performing an unlocking operation on the cylinder lock 17 provided exposed on the front surface of the pachinko machine 10 using an unlocking key.

内枠には遊技盤20が搭載されている。遊技盤20には前後方向に貫通する大小複数の開口部が形成されている。各開口部には一般入賞口21,可変入賞装置22,上作動口23,下作動口24,スルーゲート25、可変表示ユニット26、メイン表示部33及び役物用表示部34等がそれぞれ設けられている。   The game board 20 is mounted on the inner frame. The game board 20 is formed with a plurality of large and small openings penetrating in the front-rear direction. In each opening, a general winning opening 21, a variable winning device 22, an upper operating opening 23, a lower operating opening 24, a through gate 25, a variable display unit 26, a main display unit 33, a display unit 34 and the like are provided. ing.

一般入賞口21、可変入賞装置22、上作動口23及び下作動口24への入球が発生すると、それが遊技盤20の背面側に配設された検知センサ(図示略)により検知され、その検知結果に基づいて所定数の賞球の払い出しが実行される。その他に、遊技盤20の最下部にはアウト口27が設けられており、各種入賞口等に入らなかった遊技球はアウト口27を通って遊技領域から排出される。また、遊技盤20には、遊技球の落下方向を適宜分散、調整等するために多数の釘28が植設されていると共に、風車等の各種部材が配設されている。   When the ball is entered into the general winning opening 21, the variable winning device 22, the upper operating opening 23, and the lower operating opening 24, it is detected by a detection sensor (not shown) disposed on the back side of the game board 20. A payout of a predetermined number of winning balls is executed based on the detection result. In addition, an out port 27 is provided at the lowermost portion of the game board 20, and game balls which have not entered the various winning ports etc. are discharged from the game area through the out port 27. Further, on the game board 20, a large number of nails 28 are implanted to appropriately disperse and adjust the falling direction of the game ball, and various members such as a windmill are disposed.

ここで、入球とは、所定の開口部を遊技球が通過することを意味し、開口部を通過した後に遊技領域から排出される態様だけでなく、開口部を通過した後に遊技領域から排出されない態様も含まれる。但し、以下の説明では、アウト口27への遊技球の入球と明確に区別するために、可変入賞装置22、上作動口23、下作動口24又はスルーゲート25への遊技球の入球を、入賞とも表現する。   Here, entering the ball means that the gaming ball passes through the predetermined opening, and it is discharged not only from the gaming area after passing through the opening, but also discharged from the gaming area after passing through the opening Not included. However, in the following description, the variable winning device 22, the upper operation opening 23, the lower operation opening 24 or the entry of the game ball to the through gate 25 is clearly entered in order to distinguish clearly from the entry of the game ball to the out port 27. Is also expressed as a prize.

上作動口23及び下作動口24は、作動口装置としてユニット化されて遊技盤20に設置されている。上作動口23及び下作動口24は共に上向きに開放されている。また、上作動口23が上方となるようにして両作動口23,24は鉛直方向に並んでいる。下作動口24には、左右一対の可動片よりなるガイド片(サポート片)としての電動役物24aが設けられている。電動役物24aの閉鎖状態(非サポート状態又は非ガイド状態)では遊技球が下作動口24に入賞できず、電動役物24aが開放状態(サポート状態又はガイド状態)となることで下作動口24への入賞が可能となる。   The upper operating opening 23 and the lower operating opening 24 are unitized as an operating opening device and installed on the game board 20. The upper operating opening 23 and the lower operating opening 24 are both open upward. Further, both operation ports 23 and 24 are aligned in the vertical direction so that the upper operation port 23 is on the upper side. The lower operating port 24 is provided with a motorized part 24a as a guide piece (support piece) composed of a pair of left and right movable pieces. In the closed state (non-supporting state or non-guided state) of the motorized part 24a, the gaming ball can not win the lower operating port 24, and the lower operating port is opened by the motored part 24a being opened (supported or guided). It will be possible to win 24.

可変入賞装置22は、遊技盤20の背面側へと通じる大入賞口22aを備えているとともに、当該大入賞口22aを開閉する開閉扉22bを備えている。開閉扉22bは、通常は遊技球が入賞できない又は入賞し難い閉鎖状態になっており、内部抽選において開閉実行モードへの移行に当選した場合に遊技球が入賞しやすい所定の開放状態に切り換えられるようになっている。ここで、開閉実行モードとは、大当たり当選となった場合に移行することとなるモードである。当該開閉実行モードについては、後に詳細に説明する。可変入賞装置22の開放態様としては、所定時間(例えば30sec)の経過又は所定個数(例えば10個)の入賞を1ラウンドとして、複数ラウンド(例えば15ラウンド)を上限として可変入賞装置22が繰り返し開放される態様がある。   The variable winning device 22 has a large winning opening 22a communicating with the back side of the game board 20, and an open / close door 22b for opening and closing the large winning opening 22a. The open / close door 22b is normally in a closed state in which the game ball can not win or hardly wins, and is switched to a predetermined open state in which the game ball is easy to win in the internal lottery when winning transition to the open / close execution mode It is supposed to be. Here, the open / close execution mode is a mode in which transition is made when a big hit is won. The open / close execution mode will be described in detail later. As an opening aspect of the variable winning device 22, the variable winning device 22 is repeatedly opened with a plurality of rounds (for example, 15 rounds) as an upper limit, with a predetermined time (for example, 30 seconds) elapsed or a predetermined number (for example, 10) of winnings. There is an aspect to be done.

メイン表示部33及び役物用表示部34は、遊技領域の下部側に設けられている。メイン表示部33では、上作動口23又は下作動口24への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が表示によって明示される。つまり、本パチンコ機10では、上作動口23への入賞と下作動口24への入賞とが内部抽選において区別されておらず、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が共通の表示領域であるメイン表示部33にて明示される。そして、上作動口23又は下作動口24への入賞に基づく内部抽選の結果が開閉実行モードへの移行に対応した当選結果であった場合には、メイン表示部33にて所定の停止結果が表示されて変動表示が停止された後に、開閉実行モードへ移行する。   The main display unit 33 and the character display unit 34 are provided on the lower side of the game area. In the main display unit 33, the variation display of the pattern is performed with the winning of the upper operating opening 23 or the lower operating opening 24 as a trigger, and the winning of the upper operating opening 23 or the lower operating opening 24 is performed as a result of stopping the variable display. The result of the internal lottery made on the basis is clearly indicated by the display. That is, in the pachinko machine 10, the winning on the upper operating opening 23 and the winning on the lower operating opening 24 are not distinguished in the internal lottery, and the row is based on the winning on the upper operating opening 23 or the lower operating opening 24. The result of the internal lottery is clearly indicated on the main display 33 which is a common display area. Then, when the result of the internal lottery based on the winning to the upper operation port 23 or the lower operation port 24 is the winning result corresponding to the transition to the open / close execution mode, the predetermined display result is After being displayed and the fluctuation display is stopped, the mode is shifted to the open / close execution mode.

なお、メイン表示部33は、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT、ドットマトリックス等その他のタイプの表示装置によって構成されていてもよい。また、メイン表示部33にて変動表示される絵柄としては、複数種の文字が変動表示される構成、複数種の記号が変動表示される構成、複数種のキャラクタが変動表示される構成又は複数種の色が切り換え表示される構成などが考えられる。   In addition, although the main display part 33 is comprised by the segment display which the some segment light emission part is arranged in a predetermined | prescribed aspect, it is not limited to this, A liquid crystal display device, an organic electroluminescence display, It may be configured by a CRT, a dot matrix, or another type of display device. In addition, as a pattern that is variably displayed on the main display unit 33, a configuration in which plural types of characters are variably displayed, a configuration in which plural types of symbols are variably displayed, a configuration in which plural types of characters are variably displayed A configuration in which the color of the species is switched and displayed may be considered.

役物用表示部34では、スルーゲート25への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、スルーゲート25への入賞に基づいて行われた内部抽選の結果が表示によって明示される。スルーゲート25への入賞に基づく内部抽選の結果が電役開放状態への移行に対応した当選結果であった場合には、役物用表示部34にて所定の停止結果が表示されて変動表示が停止された後に、電役開放状態へ移行する。電役開放状態では、下作動口24に設けられた電動役物24aが所定の態様で開放状態となる。   In the prize display portion 34, the variation display of the pattern is performed triggered by the winning of the through gate 25, and as a result of the stop of the variation display, the result of the internal lottery performed based on the winning of the through gate 25 is Explicitly shown. When the result of the internal lottery based on the winning on the through gate 25 is the winning result corresponding to the shift to the electronic part opening state, a predetermined stopping result is displayed on the symbol display portion 34 and the variable display is performed. After being stopped, shift to the open state. In the open state, the motorized accessory 24a provided in the lower operation port 24 is opened in a predetermined manner.

可変表示ユニット26には、絵柄の一種である図柄を変動表示する図柄表示装置31が設けられている。また、可変表示ユニット26には、図柄表示装置31を囲むようにしてセンターフレーム32が配設されている。このセンターフレーム32は、その上部がパチンコ機10前方に延出している。これにより、図柄表示装置31の表示面の前方を遊技球が落下していくのが防止されており、遊技球の落下により表示面の視認性が低下するといった不都合が生じない構成となっている。   The variable display unit 26 is provided with a symbol display device 31 that variably displays a symbol that is a kind of symbol. Further, a center frame 32 is disposed on the variable display unit 26 so as to surround the symbol display device 31. The upper portion of the center frame 32 extends forward of the pachinko machine 10. Thereby, the game ball is prevented from falling in front of the display surface of the symbol display device 31, and a disadvantage that the visibility of the display surface is reduced due to the fall of the game ball does not occur. .

図柄表示装置31は、液晶ディスプレイを備えた液晶表示装置として構成されており、後述する表示制御装置により表示内容が制御される。なお、図柄表示装置31は、液晶表示装置であることに限定されることはなく、プラズマディスプレイ装置、有機EL表示装置又はCRTといった他の表示装置であってもよい。   The symbol display device 31 is configured as a liquid crystal display device provided with a liquid crystal display, and the display content is controlled by a display control device described later. The symbol display device 31 is not limited to a liquid crystal display device, and may be another display device such as a plasma display device, an organic EL display device, or a CRT.

図柄表示装置31では、上作動口23又は下作動口24への入賞に基づいて図柄の変動表示が開始される。すなわち、メイン表示部33において変動表示が行われる場合には、それに合わせて図柄表示装置31において変動表示が行われる。そして、例えば、遊技結果が大当たり結果となる遊技回では、図柄表示装置31では予め設定されている有効ライン上に所定の組み合わせの図柄が停止表示される。   In the symbol display device 31, variable display of symbols is started based on winning on the upper operation port 23 or the lower operation port 24. That is, when the variable display is performed in the main display unit 33, the variable display is performed in the symbol display device 31 in accordance with that. Then, for example, in the game round where the game result is a big hit result, in the symbol display device 31, symbols of a predetermined combination are stopped and displayed on an effective line set in advance.

図柄表示装置31の表示内容について、図2及び図3を参照して詳細に説明する。図2は図柄表示装置31にて変動表示される図柄を個々に示す図であり、図3は図柄表示装置31の表示面Gを示す図である。   The display contents of the symbol display device 31 will be described in detail with reference to FIGS. 2 and 3. FIG. 2 is a view individually showing the symbols variably displayed by the symbol display device 31, and FIG. 3 is a view showing a display surface G of the symbol display device 31. As shown in FIG.

図2(a)〜(j)に示すように、絵柄の一種である図柄は、「1」〜「9」の数字が各々付された9種類の主図柄と、貝形状の絵図柄からなる副図柄とにより構成されている。より詳しくは、タコ等の9種類のキャラクタ図柄に「1」〜「9」の数字がそれぞれ付されて主図柄が構成されている。   As shown in FIGS. 2 (a) to 2 (j), a pattern, which is a type of pattern, consists of nine main designs each having a numeral "1" to "9" and a shell-shaped picture It is constituted by the sub pattern. More specifically, the main symbols are configured by attaching numbers of "1" to "9" to nine types of character symbols such as octopus.

図3(a)に示すように、図柄表示装置31の表示面Gには、複数の表示領域として、上段・中段・下段の3つの図柄列SA1,SA2,SA3が設定されている。各図柄列SA1〜SA3は、主図柄と副図柄が所定の順序で配列されて構成されている。詳細には、上図柄列SA1には、「1」〜「9」の9種類の主図柄が数字の降順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。下図柄列SA3には、「1」〜「9」の9種類の主図柄が数字の昇順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。   As shown in FIG. 3A, on the display surface G of the symbol display device 31, three symbol rows SA1, SA2 and SA3 of upper, middle and lower are set as a plurality of display areas. In each of the symbol rows SA1 to SA3, main symbols and sub symbols are arranged in a predetermined order. Specifically, in the upper symbol row SA1, nine types of main symbols from "1" to "9" are arranged in descending numerical order, and one sub-symbol is arranged between each main symbol. . In the lower figure pattern row SA3, nine types of main symbols of "1" to "9" are arranged in the ascending order of the numbers, and one sub-symbol is arranged between each main symbol.

つまり、上図柄列SA1と下図柄列SA3は18個の図柄により構成されている。これに対し、中図柄列SA2には、数字の昇順に「1」〜「9」の9種類の主図柄が配列された上で「9」の主図柄と「1」の主図柄との間に「4」の主図柄が付加的に配列され、これら各主図柄の間に副図柄が1つずつ配されている。つまり、中図柄列SA2に限っては、10個の主図柄が配されて20個の図柄により構成されている。そして、表示面Gでは、これら各図柄列SA1〜SA3の図柄が周期性をもって所定の向きにスクロールするように変動表示される。   That is, the upper pattern row SA1 and the lower pattern row SA3 are formed of 18 symbols. On the other hand, in the middle symbol row SA2, nine main symbols of “1” to “9” are arranged in ascending order of numbers, and then between the main symbol of “9” and the main symbol of “1” The main symbols of "4" are additionally arranged in each, and one sub-symbol is arranged between each of these main symbols. That is, only in the middle symbol row SA2, ten main symbols are arranged and configured by twenty symbols. Then, on the display surface G, the symbols of each of the symbol rows SA1 to SA3 are variably displayed so as to scroll in a predetermined direction with periodicity.

図3(b)に示すように、表示面Gは、図柄列毎に3個の図柄が停止表示されるようになっており、結果として3×3の計9個の図柄が停止表示されるようになっている。また、表示面Gには、5つの有効ライン、すなわち左ラインL1、中ラインL2、右ラインL3、右下がりラインL4、右上がりラインL5が設定されている。そして、上図柄列SA1→下図柄列SA3→中図柄列SA2の順に変動表示が停止し、いずれかの有効ラインに同一の数字が付された図柄の組み合わせが形成された状態で全図柄列SA1〜SA3の変動表示が終了すれば、後述する通常大当たり結果又は15R確変大当たり結果の発生として大当たり動画が表示されるようになっている。   As shown in FIG. 3 (b), on the display surface G, three symbols are stopped and displayed for each symbol row, and as a result, a total of nine 3 × 3 symbols are stopped and displayed. It is supposed to be. Further, on the display surface G, five effective lines, that is, a left line L1, a middle line L2, a right line L3, a right downward line L4, and a right upward line L5 are set. Then, the variation display is stopped in the order of upper symbol row SA1 → lower symbol row SA3 → middle symbol row SA2, and all symbol rows SA1 are formed in a combination of symbols with the same numeral attached to one of the effective lines. When the variable display of ~ SA3 is finished, the big hit moving picture is displayed as the occurrence of the normal big hit result or 15R probability variation big hit result described later.

本パチンコ機10では、奇数番号(1,3,5,7,9)が付された主図柄は「特定図柄」に相当し、15R確変大当たり結果が発生する場合には、同一の特定図柄の組み合わせが停止表示される。また、偶数番号(2,4,6,8)が付された主図柄は「非特定図柄」に相当し、通常大当たり結果が発生する場合には、同一の非特定図柄の組み合わせが停止表示される。   In this pachinko machine 10, the main symbol with an odd number (1, 3, 5, 7, 9) corresponds to the "specific symbol", and when the 15R probability variation jackpot result occurs, the same specific symbol The combination is displayed stopped. Also, the main symbol with an even number (2, 4, 6, 8) corresponds to the "non-specific symbol", and when a big hit usually occurs, the combination of the same non-specific symbol is stopped and displayed Ru.

また、後述する明示2R確変大当たり結果となる場合には、同一の図柄の組み合わせとは異なる所定の図柄の組み合わせが形成された状態で全図柄列SA1〜SA3の変動表示が終了し、その後に、明示用動画が表示されるようになっている。   In addition, when it becomes explicit 2R probability variation big hit result which it mentions later, fluctuation indication of all design line SA1-SA3 ends in the state where combination of the specified design which differs from the combination of the same design is formed, after that, An explicit movie is displayed.

なお、図柄表示装置31における図柄の変動表示の態様は上記のものに限定されることはなく任意であり、図柄列の数、図柄列における図柄の変動表示の方向、各図柄列の図柄数などは適宜変更可能である。また、図柄表示装置31にて変動表示される絵柄は上記のような図柄に限定されることはなく、例えば絵柄として数字のみが変動表示される構成としてもよい。   In addition, the aspect of the variation display of the symbols in the symbol display device 31 is not limited to the above and is arbitrary, the number of symbol rows, the direction of the variation display of symbols in the symbol rows, the number of symbols of each symbol row, etc. Can be changed as appropriate. Further, the pattern variably displayed on the symbol display device 31 is not limited to the above-described symbol. For example, only numbers may be variably displayed as a pattern.

また、いずれかの作動口23,24への入賞に基づいて、メイン表示部33及び図柄表示装置31にて変動表示が開始され、所定の停止結果を表示し上記変動表示が停止されるまでが遊技回の1回に相当する。   Also, based on winning on any of the operation openings 23, 24, variable display is started on the main display 33 and the symbol display device 31, and a predetermined stop result is displayed until the variable display is stopped. It corresponds to one game play.

センターフレーム32の前面側における左上部分には、メイン表示部33及び図柄表示装置31に対応した第1保留発光部35が設けられている。遊技球が上作動口23又は下作動口24に入賞した個数は最大4個まで保留され、第1保留発光部35の点灯によってその保留個数が表示されるようになっている。   In the upper left portion on the front side of the center frame 32, a first reserved light emitting unit 35 corresponding to the main display unit 33 and the symbol display device 31 is provided. The number of game balls winning in the upper operation opening 23 or the lower operation opening 24 is held up to a maximum of four, and the number of the held holdings is displayed by lighting of the first holding light emitting unit 35.

センターフレーム32の右上部分には、役物用表示部34に対応した第2保留発光部36が設けられている。遊技球がスルーゲート25を通過した回数は最大4回まで保留され、第2保留発光部36の点灯によってその保留個数が表示されるようになっている。なお、各保留発光部35,36の機能が図柄表示装置31の一部の領域における表示により果たされる構成としてもよい。   At the upper right portion of the center frame 32, a second reserved light emitting unit 36 corresponding to the character display unit 34 is provided. The number of times the game ball passes through the through gate 25 is suspended up to four times, and the number of the reserved balls is displayed by lighting of the second reserved light emitting unit 36. Note that the function of each reserved light emitting unit 35, 36 may be performed by display in a partial area of the symbol display device 31.

遊技盤20には、レール部37が取り付けられており、当該レール部37により誘導レールが構成され、内枠において遊技盤20の下方に搭載された遊技球発射機構(図示略)から発射された遊技球が遊技領域の上部に案内されるようになっている。遊技球発射機構は、前扉枠14に設けられた発射ハンドル41が操作されることにより遊技球の発射動作が行われる。   A rail portion 37 is attached to the game board 20, and a guide rail is constituted by the rail portion 37, and is fired from a game ball firing mechanism (not shown) mounted below the game board 20 in an inner frame. The game ball is guided to the top of the game area. In the gaming ball launch mechanism, the launch operation of the gaming ball is performed by operating the launch handle 41 provided in the front door frame 14.

内枠の前面側全体を覆うようにして前扉枠14が設けられている。前扉枠14には、図1に示すように、遊技領域のほぼ全域を前方から視認することができるようにした窓部42が形成されている。窓部42は、略楕円形状をなし、図示しない窓パネルが嵌め込まれている。窓パネルは、ガラスによって無色透明に形成されているが、これに限定されることはなく合成樹脂によって無色透明に形成してもよい。   A front door frame 14 is provided to cover the entire front side of the inner frame. As shown in FIG. 1, the front door frame 14 is formed with a window portion 42 that enables the player to view substantially the entire game area from the front. The window portion 42 has a substantially elliptical shape, and a window panel (not shown) is fitted therein. The window panel is formed to be colorless and transparent by glass, but is not limited thereto and may be formed to be colorless and transparent by a synthetic resin.

窓部42の周囲には、発光手段が設けられている。当該発光手段の一部として表示発光部44が窓部42の上方に設けられている。また、表示発光部44の左右両側には、遊技状態に応じた効果音などが出力されるスピーカ部45が設けられている。   A light emitting means is provided around the window portion 42. A display light emitting unit 44 is provided above the window 42 as a part of the light emitting means. In addition, on both left and right sides of the display light emitting unit 44, speaker units 45 to which sound effects and the like according to the game state are output are provided.

前扉枠14における窓部42の下方には、手前側へ膨出した上側膨出部46と下側膨出部47とが上下に並設されている。上側膨出部46内側には上方に開口した上皿46aが設けられており、下側膨出部47内側には同じく上方に開口した下皿47aが設けられている。上皿46aは、後述する払出装置より払い出された遊技球を一旦貯留し、一列に整列させながら遊技球発射機構側へ導くための機能を有する。また、下皿47aは、上皿46a内にて余剰となった遊技球を貯留する機能を有する。上皿46a及び下皿47aには、裏パックユニットに搭載された払出装置から払い出された遊技球が排出される。   Below the window portion 42 of the front door frame 14, an upper bulging portion 46 and a lower bulging portion 47 bulging toward the front side are vertically juxtaposed. An upper plate 46a opened upward is provided inside the upper bulging portion 46, and a lower plate 47a similarly opened upward is provided inside the lower bulging portion 47. The upper tray 46a has a function for temporarily storing the game balls paid out from the later described payout device and guiding the game balls to the game ball launch mechanism side while aligning them in a line. Further, the lower tray 47a has a function of storing the game balls which become surplus in the upper tray 46a. The game balls paid out from the payout device mounted on the back pack unit are discharged to the upper plate 46a and the lower plate 47a.

上側膨出部46においてパチンコ機10前方を向く領域には、遊技者により手動操作される操作部を具備する演出用操作装置48が設けられている。演出用操作装置48の操作部は、図柄表示装置31の表示面Gなどにおける演出内容を所定の演出内容とするために遊技者により手動操作される。   In the upper bulging portion 46, in the area facing the front of the pachinko machine 10, an effect operating device 48 having an operating portion manually operated by the player is provided. The operation unit of the operation device for effect 48 is manually operated by the player in order to set the content of effect on the display surface G of the symbol display device 31 or the like to a predetermined effect content.

内枠の背面側には、主制御装置と、音声発光制御装置と、表示制御装置とが搭載されている。また、内枠の背面に対しては既に説明したとおり裏パックユニットが設けられており、当該裏パックユニットには、払出装置を含む払出機構部と、払出制御装置と、電源及び発射制御装置とが搭載されている。以下、パチンコ機10の電気的な構成について説明する。   On the back side of the inner frame, a main control device, an audio light emission control device, and a display control device are mounted. In addition, a back pack unit is provided on the back of the inner frame as described above, and the back pack unit includes a dispensing mechanism including a dispensing device, a dispensing control device, a power supply and a firing control device. Is mounted. Hereinafter, the electrical configuration of the pachinko machine 10 will be described.

<パチンコ機10の電気的構成>
図4は、パチンコ機10の基本的な電気的構成を示すブロック図である。
<Electric Configuration of Pachinko Machine 10>
FIG. 4 is a block diagram showing a basic electrical configuration of the pachinko machine 10.

<主制御装置50>
主制御装置50は、遊技の主たる制御を司る主制御基板51を具備している。なお、主制御装置50において主制御基板51などを収容する基板ボックスに対して、その開放の痕跡を残すための痕跡手段を付与する又はその開放の痕跡を残すための痕跡構造を設けておくようにしてもよい。当該痕跡手段としては、基板ボックスを構成する複数のケース体を分離不能に結合するとともにその分離に際して所定部位の破壊を要する結合部(カシメ部)の構成や、引き剥がしにして粘着層が接着対象に残ることで剥がされたことの痕跡を残す封印シールを複数のケース体間の境界を跨ぐようにして貼り付ける構成が考えられる。また、痕跡構造としては、基板ボックスを構成する複数のケース体間の境界に対して接着剤を塗布する構成が考えられる。
<Main controller 50>
The main control device 50 has a main control board 51 which controls the main control of the game. Incidentally, in the main control unit 50, the substrate box accommodating the main control substrate 51 etc. is provided with a trace means for leaving a trace of the opening, or a trace structure for leaving a trace of the opening is provided. You may As the trace means, a plurality of case bodies constituting the substrate box can not be separably joined, and the structure of the joining portion (crimping portion) which requires destruction of a predetermined portion in the case of separation, A configuration is conceivable in which a sealing seal that leaves a trace of being peeled off by being left on is pasted across the boundaries between the plurality of case bodies. Moreover, as a trace structure, the structure which apply | coats an adhesive agent with respect to the boundary between several case bodies which comprise a board | substrate box can be considered.

主制御基板51には、MPU52が搭載されている。MPU52には、当該MPU52により実行される各種の制御プログラムや固定値データを記憶したROM53と、そのROM53内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM54と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。   The MPU 52 is mounted on the main control board 51. The MPU 52 is a ROM 53 storing various control programs to be executed by the MPU 52 and fixed value data, and a memory for temporarily storing various data etc. when the control program stored in the ROM 53 is executed. A RAM 54, an interrupt circuit, a timer circuit, a data input / output circuit, various counter circuits as a random number generator, etc. are incorporated.

なお、ROM53として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM53と、RAM54とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。   As the ROM 53, storage means (that is, non-volatile storage means) that can be accessed randomly at the time of reading the control program and fixed value data and that do not require external power supply for storage are used. Further, the configuration in which the control and operation portion, the ROM 53, and the RAM 54 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions are separate chips. It may be configured to be mounted.

MPU52には、入力ポート及び出力ポートがそれぞれ設けられている。MPU52の入力側には、電源及び発射制御装置57が接続されている。電源及び発射制御装置57は、例えば、遊技場等における商用電源(外部電源)に接続されている。そして、その商用電源から供給される外部電力に基づいて主制御基板51に対して各々に必要な動作電力を生成するとともに、その生成した動作電力を供給する。ちなみに、当該動作電力は主制御基板51だけでなく、払出制御装置55や後述する表示制御装置130といった他の機器にも供給される。   The MPU 52 is provided with an input port and an output port. A power supply and emission control device 57 is connected to the input side of the MPU 52. The power supply and launch control device 57 is connected to, for example, a commercial power supply (external power supply) in a game arcade or the like. Then, based on the external power supplied from the commercial power supply, the main control board 51 generates necessary operation power for each, and supplies the generated operation power. Incidentally, the operation power is supplied not only to the main control board 51 but also to other devices such as the payout control device 55 and the display control device 130 described later.

なお、MPU52と電源及び発射制御装置57との電力経路上に停電監視基板を設けてもよい。この場合、当該停電監視基板により停電の発生が監視され、停電の発生が確認された場合にはMPU52に対して停電信号が送信されるようにすることで、MPU52において停電時用の処理を実行することが可能となる。   A power failure monitoring board may be provided on the power path between the MPU 52 and the power supply and emission control device 57. In this case, the occurrence of a power failure is monitored by the power failure monitoring board, and the power failure signal is transmitted to the MPU 52 when the occurrence of the power failure is confirmed, so that the MPU 52 executes processing for power failure. It is possible to

また、MPU52の入力側には、図示しない各種センサが接続されている。当該各種センサの一部として、一般入賞口21、可変入賞装置22、上作動口23、下作動口24及びスルーゲート25といった入賞対応入球部に対して1対1で設けられた検知センサが含まれており、MPU52において各入球部への入賞判定(入球判定)が行われる。また、MPU52では上作動口23及び下作動口24への入賞に基づいて大当たり発生抽選及び大当たり結果種別抽選を実行するとともに、各遊技回のリーチ発生抽選や表示継続期間の決定抽選を実行する。   Further, various sensors (not shown) are connected to the input side of the MPU 52. As part of the various sensors, there is a detection sensor provided on a one-on-one basis for winning support entry parts such as general winning opening 21, variable winning device 22, upper operating opening 23, lower operating opening 24 and through gate 25 It is included, and in the MPU 52, a winning determination (entry determination) for each ball entry portion is performed. Further, the MPU 52 executes a big hit occurrence lottery and a big hit result type lottery based on winning on the upper actuation opening 23 and the lower actuation opening 24, and executes a reach occurrence lottery for each game round and a determination lottery for a display continuation period.

ここで、MPU52にて各種抽選を行うための構成について説明する。   Here, the structure for performing various lottery in MPU52 is demonstrated.

MPU52は遊技に際し各種カウンタ情報を用いて、大当たり発生抽選、メイン表示部33の表示の設定、図柄表示装置31の図柄表示の設定、役物用表示部34の表示の設定などを行うこととしており、具体的には、図5に示すように、大当たり発生抽選に使用する大当たり乱数カウンタC1と、確変大当たり結果や通常大当たり結果等の大当たり種別を判定する際に使用する大当たり種別カウンタC2と、図柄表示装置31が外れ変動する際のリーチ発生抽選に使用するリーチ乱数カウンタC3と、大当たり乱数カウンタC1の初期値設定に使用する乱数初期値カウンタCINIと、メイン表示部33及び図柄表示装置31における変動表示時間を決定する変動種別カウンタCSとを用いることとしている。さらに、下作動口24の電動役物24aを電役開放状態とするか否かの抽選に使用する電動役物開放カウンタC4を用いることとしている。   The MPU 52 uses the various counter information during game play to perform a big hit lottery, setting of display of the main display 33, setting of symbol display of the symbol display device 31, setting of display of the symbol display 34 and the like. Specifically, as shown in FIG. 5, a jackpot random number counter C1 used for a jackpot occurrence lottery, a jackpot type counter C2 used when determining a jackpot type such as a probability variation jackpot result or a regular jackpot result, a symbol Change in reach random number counter C3 used for reach occurrence lottery when display device 31 deviates, random number initial value counter CINI used for initial value setting of big hit random number counter C1, and fluctuation in main display 33 and symbol display device 31 The variation type counter CS that determines the display time is used. Furthermore, the electric combination release counter C4 used in the drawing of whether or not the electric combination 24a of the lower operation opening 24 is in the electric combination release state is used.

各カウンタC1〜C3,CINI,CS,C4は、その更新の都度前回値に1が加算され、最大値に達した後0に戻るループカウンタとなっている。各カウンタは短時間間隔で更新され、その更新値がRAM54の所定領域に設定された抽選カウンタ用バッファ54aに適宜格納される。このうち抽選カウンタ用バッファ54aにおいて、大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3に対応した情報は、上作動口23又は下作動口24への入賞が発生した場合に、取得情報記憶手段としての保留球格納エリア54bに格納される。   Each of the counters C1 to C3, CINI, CS, and C4 is a loop counter in which 1 is added to the previous value each time it is updated, and reaches a maximum value and returns to 0. Each counter is updated at a short time interval, and the updated value is appropriately stored in a lottery counter buffer 54a set in a predetermined area of the RAM 54. Among them, in the lottery counter buffer 54a, information corresponding to the big hit random number counter C1, the big hit type counter C2 and the reach random number counter C3 is obtained information storage when winning in the upper operation port 23 or the lower operation port 24 occurs. It is stored in the holding ball storage area 54b as a means.

保留球格納エリア54bは、保留用エリアREと、実行エリアAEとを備えている。保留用エリアREは、第1保留エリアRE1、第2保留エリアRE2、第3保留エリアRE3及び第4保留エリアRE4を備えており、上作動口23又は下作動口24への入賞履歴に合わせて、抽選カウンタ用バッファ54aに格納されている大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報が保留情報として、いずれかの保留エリアRE1〜RE4に格納される。   The holding ball storage area 54b includes a holding area RE and an execution area AE. The reserve area RE is provided with a first reserve area RE1, a second reserve area RE2, a third reserve area RE3 and a fourth reserve area RE4, according to the winning history to the upper operation port 23 or the lower operation port 24. The numerical value information of the jackpot random number counter C1, the jackpot type counter C2 and the reach random number counter C3 stored in the lottery counter buffer 54a is stored in any one of the holding areas RE1 to RE4 as holding information.

この場合、第1保留エリアRE1〜第4保留エリアRE4には、上作動口23又は下作動口24への入賞が複数回連続して発生した場合に、第1保留エリアRE1→第2保留エリアRE2→第3保留エリアRE3→第4保留エリアRE4の順に各数値情報が時系列的に格納されていく。このように4つの保留エリアRE1〜RE4が設けられていることにより、上作動口23又は下作動口24への遊技球の入賞履歴が最大4個まで保留記憶されるようになっている。また、保留用エリアREは、保留数記憶エリアNAを備えており、当該保留数記憶エリアNAには上作動口23又は下作動口24への入賞履歴を保留記憶している数を特定するための情報が格納される。   In this case, the first reserve area RE1 → the second reserve area RE1 → the second reserve area RE1 to the fourth reserve area RE4 when winning in the upper operation port 23 or the lower operation port 24 occurs a plurality of times consecutively. Each numerical value information is stored chronologically in the order of RE 2 → third reserve area RE 3 → fourth reserve area RE 4. By providing four reserve areas RE1 to RE4 as described above, the game ball's winning history of the upper operating opening 23 or the lower operating opening 24 is reserved and stored up to four at maximum. In addition, the holding area RE is provided with a holding number storage area NA, and in the holding number storage area NA, to specify the number for which the winning history to the upper operation port 23 or the lower operation port 24 is held and stored. Information is stored.

なお、保留記憶可能な数は、4個に限定されることはなく任意であり、2個、3個又は5個以上といったように他の複数であってもよく、単数であってもよい。   The number that can be reserved and stored is not limited to four and is arbitrary, and may be other plural such as two, three, five or more, or may be singular.

実行エリアAEは、メイン表示部33の変動表示を開始する際に、保留用エリアREの第1保留エリアRE1に格納された各値を移動させるためのエリアであり、1遊技回の開始に際しては実行エリアAEに記憶されている各種数値情報に基づいて、当否判定などが行われる。   The execution area AE is an area for moving each value stored in the first holding area RE1 of the holding area RE when the variable display of the main display section 33 is started, and at the start of one game cycle, Based on the various numerical value information stored in the execution area AE, the determination of success or failure is performed.

上記各カウンタについて詳細に説明する。   The respective counters will be described in detail.

各カウンタについて詳しくは、大当たり乱数カウンタC1は、例えば0〜599の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。特に大当たり乱数カウンタC1が1周した場合、その時点の乱数初期値カウンタCINIの値が当該大当たり乱数カウンタC1の初期値として読み込まれる。なお、乱数初期値カウンタCINIは、大当たり乱数カウンタC1と同様のループカウンタである(値=0〜599)。大当たり乱数カウンタC1は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。   Specifically, for each counter, the jackpot random number counter C1 is configured to be sequentially incremented by one within a range of 0 to 599, for example, and returned to zero after reaching the maximum value. In particular, when the big hit random number counter C1 makes one revolution, the value of the random number initial value counter CINI at that time is read as the initial value of the big hit random number counter C1. The random number initial value counter CINI is a loop counter similar to the large hitting random number counter C1 (value = 0 to 599). The jackpot random number counter C1 is periodically updated, and is stored in the holding ball storage area 54b at the timing when the gaming ball has won in the upper operating opening 23 or the lower operating opening 24.

大当たり当選となる乱数の値は、ROM53における当否情報群記憶手段としての当否テーブル記憶エリアに当否テーブルとして記憶されている。当否テーブルとしては、低確率モード用の当否テーブルと、高確率モード用の当否テーブルとが設定されている。つまり、本パチンコ機10は、当否抽選手段における抽選モードとして、低確率モードと高確率モードとが設定されている。   The value of the random number for winning the big hit is stored as a yes / no table in a yes / no table storage area as a yes / no information group storage unit in the ROM 53. As the pass / fail table, a pass / fail table for the low probability mode and a pass / fail table for the high probability mode are set. That is, in the pachinko machine 10, the low probability mode and the high probability mode are set as the lottery mode in the hit / fall lottery means.

上記抽選に際して低確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は2個である。一方、上記抽選に際して高確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は20個である。なお、低確率モードよりも高確率モードの方の当選確率が高くなるのであれば、上記当選となる乱数の数は任意である。   Under the gaming state where the low probability mode hit / fail table is referred to at the time of the lottery, the number of random numbers to be a big hit is two. On the other hand, under the gaming state where the high-probability mode hit / fail table is referred to at the time of the lottery, the number of random numbers to be a big hit is twenty. If the winning probability in the high probability mode is higher than that in the low probability mode, the number of random numbers to be won is arbitrary.

大当たり種別カウンタC2は、0〜29の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。大当たり種別カウンタC2は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。   The jackpot type counter C2 is configured to be sequentially incremented by one within the range of 0 to 29 and to return to 0 after reaching the maximum value. The jackpot type counter C2 is periodically updated, and is stored in the holding ball storage area 54b at the timing when the gaming ball is won in the upper operating opening 23 or the lower operating opening 24.

本パチンコ機10では、複数の大当たり結果が設定されている。これら複数の大当たり結果は、(1)開閉実行モードにおける可変入賞装置22の開閉制御の態様、(2)開閉実行モード終了後の当否抽選手段における抽選モード、(3)開閉実行モード終了後の下作動口24の電動役物24aにおけるサポートモード、という3つの条件に差異を設けることにより、複数の大当たり結果が設定されている。   In the pachinko machine 10, a plurality of jackpot results are set. These plural jackpot results are (1) the mode of opening / closing control of the variable winning device 22 in the opening / closing execution mode, (2) the lottery mode in the lottery means after completion of the opening / closing execution mode, (3) under the end of the opening / closing execution mode A plurality of jackpot results are set by making a difference in the three conditions of the support mode in the motorized accessory 24 a of the operation port 24.

開閉実行モードにおける可変入賞装置22の開閉制御の態様としては、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が相対的に高低となるように高頻度入賞モードと低頻度入賞モードとが設定されている。具体的には、高頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が15回(高頻度用回数)行われるとともに、1回の開放は30sec(高頻度時間)が経過するまで又は大入賞口22aへの入賞個数が10個(高頻度個数)となるまで継続される。一方、低頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が2回(低頻度用回数)行われるとともに、1回の開放は0.2sec(低頻度時間)が経過するまで又は大入賞口22aへの入賞個数が6個(低頻度個数)となるまで継続される。   As an aspect of the opening and closing control of the variable winning device 22 in the opening and closing execution mode, the occurrence frequency of winnings on the variable winning device 22 is relatively high and low between the start and the end of the opening and closing execution mode. A frequency winning mode and a low frequency winning mode are set. Specifically, in the high frequency winning mode, the large winning opening 22a is opened and closed 15 times (number of times for high frequency) from the start to the end of the opening and closing execution mode, and one opening is 30 seconds (high frequency time) Is continued until the number of winning prizes for the special winning opening 22a reaches 10 (high-frequency number). On the other hand, in the low frequency winning mode, the special winning opening 22a is opened and closed twice (the number of times for low frequency) from the start to the end of the open / close execution mode, and one opening is 0.2 sec (low frequency time) Is continued until the number of winning prizes for the large winning opening 22a reaches 6 (low frequency number).

本パチンコ機10では、発射ハンドル41が遊技者により操作されている状況では、0.6secに1個の遊技球が遊技領域に向けて発射されるように遊技球発射機構58が駆動制御される。これに対して、低頻度入賞モードでは、上記のとおり1回の大入賞口22aの開放時間は0.2secとなっている。つまり、低頻度入賞モードでは、遊技球の発射周期よりも1回の大入賞口22aの開放時間が短くなっている。したがって、低頻度入賞モードにかかる開閉実行モードでは実質的に遊技球の入賞が発生しない。   In the pachinko machine 10, in a situation where the release handle 41 is operated by the player, the game ball emission mechanism 58 is drive-controlled so that one game ball is emitted toward the game area in 0.6 sec. . On the other hand, in the low frequency winning mode, as described above, the opening time of one big winning opening 22a is 0.2 sec. That is, in the low frequency winning mode, the opening time of one big winning opening 22a is shorter than the firing cycle of the game balls. Therefore, in the opening / closing execution mode according to the low frequency winning mode, winning of the gaming ball does not substantially occur.

なお、高頻度入賞モード及び低頻度入賞モードにおける大入賞口22aの開閉回数、1回の開放に対する開放制限時間及び1回の開放に対する開放制限個数は、高頻度入賞モードの方が低頻度入賞モードよりも、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が高くなるのであれば、上記の値に限定されることはなく任意である。具体的には、高頻度入賞モードの方が低頻度入賞モードよりも、開閉回数が多い、1回の開放に対する開放制限時間が長い又は1回の開放に対する開放制限個数が多く設定されていればよい。   The number of times of opening and closing of the special winning opening 22a in the high frequency winning mode and the low frequency winning mode, the opening time limit for one opening, and the opening number of times for one opening are the low frequency winning mode in the high frequency winning mode. Further, if the frequency of occurrence of winnings on the variable winning device 22 becomes high between the start of the open / close execution mode and the end, the value is not limited to the above and is arbitrary. Specifically, if the high frequency winning mode has a greater number of opening and closing times, a longer opening limit time for one opening, or a greater number of opening limits for one opening than the low frequency winning mode. Good.

但し、高頻度入賞モードと低頻度入賞モードとの間での特典の差異を明確にする上では、低頻度入賞モードにかかる開閉実行モードでは、実質的に可変入賞装置22への入賞が発生しない構成とするとよい。例えば、高頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも短く設定する一方、低頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも長く設定する構成としてもよい。また、遊技球の発射間隔及び1回の大入賞口22aの開放時間が上記のものでなかったとしても、低頻度入賞モードでは、前者よりも後者の方が短くなるように設定することで、実質的に可変入賞装置22への入賞が発生しない構成を容易に実現することができる。   However, in order to clarify the difference in benefits between the high-frequency winning mode and the low-frequency winning mode, substantially no winning of the variable winning device 22 occurs in the open / close execution mode according to the low-frequency winning mode It is good to be configured. For example, in the high-frequency winning mode, the product of the firing cycle of the gaming ball and the opening limit number is set shorter than the opening limit time for one opening, while in the low-frequency winning mode, one opening is The product of the firing cycle of the gaming balls and the release limit number may be set to be longer than the release limit time. Also, even if the firing interval of the game ball and the opening time of one big winning opening 22a are not the above, in the low frequency winning mode, by setting the latter to be shorter than the former, It is possible to easily realize a configuration in which winning of the variable winning device 22 substantially does not occur.

下作動口24の電動役物24aにおけるサポートモードとしては、遊技領域に対して同様の態様で遊技球の発射が継続されている状況で比較した場合に、下作動口24の電動役物24aが単位時間当たりに開放状態となる頻度が相対的に高低となるように、低頻度サポートモード(低頻度サポート状態又は低頻度ガイド状態)と高頻度サポートモード(高頻度サポート状態又は高頻度ガイド状態)とが設定されている。   As a support mode in the motorized character 24a of the lower operation port 24, when compared in the situation where the firing of the game ball is continued in the same manner with respect to the game area, the electric character 24a of the lower operation port 24 Low-frequency support mode (low-frequency support state or low-frequency guide state) and high-frequency support mode (high-frequency support state or high-frequency guide state) so that the frequency of opening state per unit time becomes relatively high and low And is set.

具体的には、低頻度サポートモードと高頻度サポートモードとでは、電動役物開放カウンタC4を用いた電動役物開放抽選における電役開放状態当選となる確率は同一(例えば、共に4/5)となっているが、高頻度サポートモードでは低頻度サポートモードよりも、電役開放状態当選となった際に電動役物24aが開放状態となる回数が多く設定されており、さらに1回の開放時間が長く設定されている。この場合、高頻度サポートモードにおいて電役開放状態当選となり電動役物24aの開放状態が複数回発生する場合において、1回の開放状態が終了してから次の開放状態が開始されるまでの閉鎖時間は、1回の開放時間よりも短く設定されている。さらにまた、高頻度サポートモードでは低頻度サポートモードよりも、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で最低限確保される確保時間として短い時間が選択されるように設定されている。   Specifically, in the low-frequency support mode and the high-frequency support mode, the probability of being in the electronic combination open state in the electric combination open lottery using the electric combination release counter C4 is the same (for example, both 4/5) However, in the high-frequency support mode, the number of times the motorized jack 24a is released when the electronic-wiring-released state is elected is set to a greater number of times than in the low-frequency support mode. The time is set long. In this case, in the high frequency support mode, when the open state is elected and the open state of the motorized accessory 24a occurs a plurality of times, closing from the end of one open state to the start of the next open state The time is set shorter than one open time. Furthermore, the high frequency support mode has a shorter time than the low frequency support mode as a securing time that is minimally secured after the one electric combination opening lottery is performed and the next electric combination opening lottery is performed. Is set to be selected.

上記のように高頻度サポートモードでは、低頻度サポートモードよりも下作動口24への入賞が発生する確率が高くなる。換言すれば、低頻度サポートモードでは、下作動口24よりも上作動口23への入賞が発生する確率が高くなるが、高頻度サポートモードでは、上作動口23よりも下作動口24への入賞が発生する確率が高くなる。そして、下作動口24への入賞が発生した場合には、所定個数の遊技球の払出が実行されるため、高頻度サポートモードでは、遊技者は持ち球をあまり減らさないようにしながら遊技を行うことができる。   As described above, in the high frequency support mode, the probability of the winning of the lower operation port 24 is higher than in the low frequency support mode. In other words, in the low frequency support mode, the probability of winning in the upper operation port 23 is higher than that of the lower operation port 24 but in the high frequency support mode, the lower operation port 24 to the lower operation port 24. The probability of winning will increase. And, when the winning a prize to the lower operation opening 24 occurs, because the payout of the specified number of game balls is executed, in the high frequency support mode, the player plays the game while not reducing the balls much be able to.

なお、高頻度サポートモードを低頻度サポートモードよりも単位時間当たりに電役開放状態となる頻度を高くする上での構成は、上記のものに限定されることはなく、例えば電動役物開放抽選における電役開放状態当選となる確率を高くする構成としてもよい。また、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間(例えば、スルーゲート25への入賞に基づき役物用表示部34にて実行される変動表示の時間)が複数種類用意されている構成においては、高頻度サポートモードでは低頻度サポートモードよりも、短い確保時間が選択され易い又は平均の確保時間が短くなるように設定されていてもよい。さらには、開放回数を多くする、開放時間を長くする、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間を短くする(すなわち、役物用表示部34における1回の変動表示時間を短くする)、係る確保時間の平均時間を短くする及び当選確率を高くするのうち、いずれか1条件又は任意の組み合わせの条件を適用することで、低頻度サポートモードに対する高頻度サポートモードの有利性を高めてもよい。   The configuration for increasing the frequency with which the high-frequency support mode is to be in the open state per unit time than in the low-frequency support mode is not limited to the above-described one. It is also possible to increase the probability of being in the electronic combination open state winning state in. In addition, a securing time (for example, based on the winning on the through gate 25) is secured on the occasion where the next electric combination opening lottery is performed after one electric combination opening lottery is performed (for example In the configuration where multiple types of variable display to be executed are prepared, the high frequency support mode is set so that the short securing time is easier to be selected or the average securing time is shorter than the low frequency support mode. It may be done. Furthermore, the number of times of opening is increased, the opening time is extended, and the securing time secured upon the next electric combination opening lottery being performed after the one electric combination opening lottery is performed (i.e., shorter) And one of the condition of any combination or any combination of the shortening of the average time of the securing time and the increase of the winning probability. This may enhance the advantage of the frequent support mode over the low frequency support mode.

大当たり種別カウンタC2に対する遊技結果の振分先は、ROM53における振分情報群記憶手段としての振分テーブル記憶エリアに振分テーブルとして記憶されている。そして、かかる振分先として、通常大当たり結果と、明示2R確変大当たり結果と、15R確変大当たり結果とが設定されている。   The distribution destination of the game result for the jackpot type counter C2 is stored as a distribution table in a distribution table storage area as distribution information group storage means in the ROM 53. Then, as such a distribution destination, a normal jackpot result, an explicit 2R probability variation jackpot result, and a 15R probability variation jackpot result are set.

通常大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが低確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。但し、この高頻度サポートモードは、移行後において遊技回数が終了基準回数(具体的には、100回)に達した場合に低頻度サポートモードに移行する。換言すれば、通常大当たり結果は、通常大当たり状態(低確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。   The normal jackpot result is a jackpot result in which the opening / closing execution mode becomes the high frequency winning mode, and after the opening / closing execution mode ends, the pass / fail lottery mode becomes the low probability mode and the support mode becomes the high frequency support mode. However, in the high-frequency support mode, the transition to the low-frequency support mode is made when the number of games has reached the end reference frequency (specifically, 100 times) after the transition. In other words, the normal jackpot result is a jackpot result in which the gaming state is shifted to the normal jackpot state (low probability correspondence special game state).

明示2R確変大当たり結果は、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、明示2R確変大当たり結果は、明示2R確変大当たり状態(明示高確率対応遊技状態)へ遊技状態を移行させる大当たり結果である。   The explicit 2R probability variation jackpot result is a jackpot result in which the opening / closing execution mode becomes the low frequency winning mode, and after the opening / closing execution mode ends, the pass / fail lottery mode becomes the high probability mode and the support mode becomes the high frequency support mode. . The high probability mode and the high frequency support mode continue until the lottery result in the success or failure lottery becomes the jackpot state winning, and shifts to the jackpot state by it. In other words, the explicit 2R probability variation jackpot result is a jackpot result to shift the gaming state to the explicit 2R probability variation jackpot state (explicit high probability corresponding gaming state).

15R確変大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、15R確変大当たり結果は、15R確変大当たり状態(高確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。   The 15R probability variation jackpot result is a jackpot result in which the opening / closing execution mode becomes the high frequency winning mode, and after the opening / closing execution mode ends, the pass / fail lottery mode becomes the high probability mode and the support mode becomes the high frequency support mode. The high probability mode and the high frequency support mode continue until the lottery result in the success or failure lottery becomes the jackpot state winning, and shifts to the jackpot state by it. In other words, the 15R probability variation big hit result is a jackpot result to shift the gaming state to the 15R probability variation big hit state (high probability correspondence special game state).

なお、上記各遊技状態との関係で通常遊技状態とは、当否抽選モードが低確率モードであり、サポートモードが低頻度サポートモードである状態をいう。   Note that the normal gaming state refers to the state where the success or failure lottery mode is the low probability mode and the support mode is the low frequency support mode, in relation to the above-mentioned respective gaming states.

振分テーブルでは、「0〜29」の大当たり種別カウンタC2の値のうち、「0〜9」が通常大当たり結果に対応しており、「10〜14」が明示2R確変大当たり結果に対応しており、「15〜29」が15R確変大当たり結果に対応している。   In the distribution table, among the values of "0 to 29" jackpot type counter C2, "0 to 9" usually correspond to the jackpot result, and "10 to 14" correspond to the explicit 2R probability variation jackpot result "15-29" correspond to the 15R probability variation jackpot result.

上記のように、確変大当たり結果として、明示2R確変大当たり結果が設定されていることにより、確変大当たり結果の態様が多様化する。すなわち、2種類の確変大当たり結果を比較した場合、遊技者にとっての有利度合いは、開閉実行モードにおいて高頻度入賞モードとなり且つサポートモードでは高頻度サポートモードとなる15R確変大当たり結果が最も高く、開閉実行モードにおいて低頻度入賞モードとなるもののサポートモードでは高頻度サポートモードとなる明示2R確変大当たり結果が最も低くなる。これにより、遊技の単調化が抑えられ、遊技への注目度を高めることが可能となる。   As described above, the aspect of the probability variation jackpot result is diversified by the explicit 2R probability variation jackpot result being set as the probability variation jackpot result. That is, when comparing the two types of probability variation big win results, the advantage for the player is the high frequency winning mode in the opening and closing execution mode and the high frequency support mode in the support mode is the highest 15R probability variation jackpot result, opening and closing execution In the support mode, although it becomes the low frequency winning mode in the mode, the explicit 2R probability variation jackpot result becoming the high frequency support mode becomes the lowest. Thereby, monotonization of the game can be suppressed, and the degree of attention to the game can be increased.

なお、確変大当たり結果の一種として、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードがそれまでのモードに維持されることとなる非明示2R確変大当たり結果(非明示高確率対応遊技結果又は潜伏確変状態となる結果)が含まれていてもよい。この場合、確変大当たり結果のさらなる多様化が図られる。   In addition, as one kind of probability variation big hit result, opening and closing execution mode becomes low frequency winning mode, furthermore, after completion of opening and closing execution mode, as well as acceptance lottery mode becomes high probability mode, support mode is maintained in the mode until then The implicit 2R probability variation big hit result (intense high probability correspondence game result or the result of becoming a latent certainty change state) which is different may be included. In this case, further diversification of the probability variation jackpot result is achieved.

さらにまた、当否抽選における外れ結果の一種として、低頻度入賞モードの開閉実行モードに移行するとともに、その終了後において当否抽選モード及びサポートモードの移行が発生しない特別外れ結果が含まれていてもよい。上記のような非明示2R確変大当たり結果と当該特別外れ結果との両方が設定されている構成においては、開閉実行モードが低頻度入賞モードに移行すること、及びサポートモードがそれまでのモードに維持されることで共通しているのに対して、当否抽選モードの移行態様が異なっていることにより、例えば通常遊技状態において非明示2R確変大当たり結果又は特別外れ結果の一方が発生した場合に、それが実際にいずれの結果に対応しているのかを遊技者に予測させることが可能となる。   Furthermore, as one kind of out result in the success or failure lottery, while transitioning to the opening / closing execution mode of the low frequency winning mode, the special out result that transition of the success or failure lottery mode and the support mode does not occur after the end may be included. . In the configuration in which both the implicit 2R probability variation big hit result and the special outlier result as described above are set, the open / close execution mode transitions to the low frequency win mode and the support mode remains in the previous mode. While it is common in that it is common that the transition mode of the lottery mode is different, for example, when either an implicit 2R probability variation jackpot result or an exceptional result occurs in the normal gaming state, It is possible to make the player predict which result actually corresponds to.

リーチ乱数カウンタC3は、例えば0〜238の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。リーチ乱数カウンタC3は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。   For example, the reach random number counter C3 is configured to be sequentially incremented by one within the range of 0 to 238, and to return to 0 after reaching the maximum value. The reach random number counter C3 is periodically updated, and is stored in the holding ball storage area 54b at the timing when the gaming ball is won in the upper operating opening 23 or the lower operating opening 24.

ここで、本パチンコ機10には、図柄表示装置31における表示演出の一種として期待演出が設定されている。期待演出とは、図柄の変動表示を行うことが可能な図柄表示装置31を備え、開閉実行モードが高頻度入賞モードとなる遊技回では変動表示後の停止表示結果が特別表示結果となる遊技機において、図柄表示装置31における図柄の変動表示が開始されてから停止表示結果が導出表示される前段階で、前記特別表示結果となり易い変動表示状態であると遊技者に思わせるための表示状態をいう。   Here, in the present pachinko machine 10, an expected effect is set as a type of display effect on the symbol display device 31. Expected effects are provided with a symbol display device 31 capable of performing variable display of symbols, and a gaming machine in which the stop display result after the variable display is a special display result in the game round where the open / close execution mode is a high frequency winning mode The display state for making the player think that the variable display state is likely to be the special display result before the stop display result is derived and displayed after the variable display of the symbols in the symbol display device 31 is started. Say.

期待演出には、上記リーチ表示と、当該リーチ表示が発生する前段階などにおいてリーチ表示の発生や特別表示結果の発生を期待させるための予告表示との2種類が設定されている。   Two types of expectation rendering are set up: the above-mentioned reach display, and a notice display for expecting the occurrence of reach display and the occurrence of a special display result in a stage before the reach display occurs.

リーチ表示には、図柄表示装置31の表示面Gに表示される複数の図柄列のうち一部の図柄列について図柄を停止表示させることで、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性があるリーチ図柄の組み合わせを表示し、その状態で残りの図柄列において図柄の変動表示を行う表示状態が含まれる。また、上記のようにリーチ図柄の組み合わせを表示した状態で、残りの図柄列において図柄の変動表示を行うとともに、その背景画像において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものや、リーチ図柄の組み合わせを縮小表示させる又は非表示とした上で、表示面の略全体において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものが含まれる。   In the reach display, a combination of jackpot symbols corresponding to the occurrence of the high-frequency winning mode is made by stopping and displaying the symbols for some of the plurality of symbol rows displayed on the display surface G of the symbol display device 31. A combination of reach symbols that may be established is displayed, and in that state, a display state in which the variation display of the symbols is performed in the remaining symbol rows is included. Further, while displaying combinations of reach symbols as described above, while performing variable display of symbols in the remaining symbol rows, and performing reach effects by displaying a predetermined character or the like as a moving image in the background image, or Also, it is possible to perform reach effect by displaying a predetermined character or the like as a moving image over substantially the entire display surface after reducing or non-displaying a combination of reach symbols.

図柄の変動表示に係るリーチ表示について具体的には、図柄の変動表示を終了させる前段階として、図柄表示装置31の表示面内の予め設定された有効ライン上に、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性のあるリーチ図柄の組み合わせを停止表示させることによりリーチラインを形成させ、当該リーチラインが形成されている状況下において最終停止図柄列により図柄の変動表示を行うことである。   Specifically, the reach display according to the fluctuation display of the symbol is generated as a high-frequency winning mode on a preset effective line in the display surface of the symbol display device 31 as a step before the fluctuation display of the symbol is ended. A reach line is formed by stopping and displaying a combination of reach symbols that may be a combination of corresponding big hit symbols, and the variation display of symbols is performed by the final stop symbol row under the situation where the reach line is formed. It is to do.

図3の表示内容について具体的に説明すると、最初に上段の図柄列SA1において図柄の変動表示が終了され、さらに下段の図柄列SA3において図柄の変動表示が終了された状態において、いずれかの有効ラインL1〜L5に同一の数字が付された主図柄が停止表示されることでリーチラインが形成され、当該リーチラインが形成されている状況化において中段の図柄列SA2において図柄の変動表示が行われることでリーチ表示となる。そして、高頻度入賞モードが発生する場合には、リーチラインを形成している主図柄と同一の数字が付された主図柄がリーチライン上に停止表示されるようにして中段の図柄列SA2における図柄の変動表示が終了される。   If the display contents of FIG. 3 are specifically explained, first, in the state where the variation display of symbols is finished in symbol row SA1 of the upper row and the variation display of symbols is finished in symbol row SA3 of the lower row further, any one is effective A reach line is formed by stopping and displaying the main symbols with the same number attached to the lines L1 to L5, and the variation display of symbols is performed in the middle symbol row SA2 in a situation where the reach lines are formed. It becomes a reach indication by being treated. Then, when the high frequency winning mode occurs, the main symbol attached with the same number as the main symbol forming the reach line is stopped and displayed on the reach line, and the symbol row SA2 in the middle row is displayed. The variable display of the symbol is ended.

予告表示には、図柄表示装置31の表示面において図柄の変動表示が開始されてから、全ての図柄列SA1〜SA3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列SA1〜SA3上の図柄とは別にキャラクタを表示させる態様が含まれる。また、背景画像をそれまでの態様とは異なる所定の態様とするものや、図柄列SA1〜SA3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。かかる予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示の行われる場合の方がリーチ表示の行われない場合よりも高確率で発生するように設定されている。   In the advance notice display, after variation display of symbols is started on the display surface of the symbol display device 31, in a situation where symbols are variably displayed in all the symbol rows SA1 to SA3, or a part of the symbol rows In a situation where symbols are variably displayed in a plurality of symbol rows, a mode is included in which characters are displayed separately from the symbols on the symbol rows SA1 to SA3. In addition, the background image is a predetermined mode different from the previous modes, and the pattern on the symbol rows SA1 to SA3 is the predetermined mode different from the previous modes. Such advance notice may occur at any of the game times when the reach display is performed and when the reach display is not performed, but the case where the reach display is performed is higher than the case where the reach display is not performed. It is set to occur with probability.

リーチ表示は、高頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行され、低頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行されない。また、開閉実行モードに移行しない遊技回では、ROM53のリーチ用テーブル記憶エリアに記憶されたリーチ用テーブルを参照して、所定のタイミングで取得したリーチ乱数カウンタC3がリーチ表示の発生に対応している場合に実行される。一方、予告表示を行うか否かの決定は、主制御装置50において行うのではなく、音声発光制御装置60において行われる。   The reach display is executed regardless of the value of the reach random number counter C3 in the game round to shift to the open / close execution mode to be the high frequency winning mode, and in the game round to shift to the open / close execution mode to be the low frequency win mode, the reach random number It is not executed regardless of the value of the counter C3. In addition, in game times which are not shifted to the opening / closing execution mode, the reach random number counter C3 acquired at a predetermined timing is referred to in response to the occurrence of reach display with reference to the reach table stored in the reach table storage area of the ROM 53. Will be executed if On the other hand, the main control unit 50 does not determine whether to display the advance notice, but the sound emission control unit 60 does.

変動種別カウンタCSは、例えば0〜198の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。変動種別カウンタCSは、メイン表示部33における変動表示時間と、図柄表示装置31における図柄の変動表示時間とをMPU52において決定する上で用いられる。変動種別カウンタCSは、後述する通常処理が1回実行される毎に1回更新され、当該通常処理内の残余時間内でも繰り返し更新される。そして、メイン表示部33における変動表示の開始時及び図柄表示装置31による図柄の変動開始時における変動パターン決定に際して変動種別カウンタCSのバッファ値が取得される。なお、変動表示時間の決定に際しては、ROM53の変動表示時間テーブル記憶エリアに予め記憶されている変動表示時間テーブルが参照される。   For example, the fluctuation type counter CS is sequentially incremented by one within the range of 0 to 198, and returns to 0 after reaching the maximum value. The fluctuation type counter CS is used when the MPU 52 determines the fluctuation display time in the main display unit 33 and the fluctuation display time of the symbol in the symbol display device 31. The fluctuation type counter CS is updated once each time a normal process to be described later is executed once, and is repeatedly updated even within the remaining time in the normal process. Then, the buffer value of the fluctuation type counter CS is acquired at the time of the start of the fluctuation display in the main display section 33 and the time of the fluctuation pattern determination at the time of the fluctuation start of the symbol by the symbol display device 31. Note that when determining the variable display time, the variable display time table stored in advance in the variable display time table storage area of the ROM 53 is referred to.

電動役物開放カウンタC4は、例えば、0〜250の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。電動役物開放カウンタC4は定期的に更新され、スルーゲート25に遊技球が入賞したタイミングで電役保留エリア54cに格納される。そして、所定のタイミングにおいて、その格納された電動役物開放カウンタC4の値によって電動役物24aを開放状態に制御するか否かの抽選が行われる。   For example, the motor-operated combination release counter C4 is configured to be incremented by one in order within the range of 0 to 250, and to return to zero after reaching the maximum value. The motorized jack release counter C4 is periodically updated, and is stored in the hold combination area 54c at the timing when the game ball wins the through gate 25. Then, at a predetermined timing, a lottery is performed to determine whether or not to control the motorized jack 24a in the open state based on the value of the stored motorized jack release counter C4.

MPU52の出力側には、払出制御装置55が接続されているとともに、電源及び発射制御装置57が接続されている。払出制御装置55には、例えば、上記入賞対応入球部への入賞判定結果に基づいて賞球コマンドが送信される。払出制御装置55は、主制御装置50から受信した賞球コマンドに基づいて、払出装置56により賞球や貸し球の払出制御を行う。電源及び発射制御装置57には、発射ハンドル41が操作されていることに基づいて発射許可コマンドが送信される。電源及び発射制御装置57は、主制御装置50から受信した発射許可コマンドに基づいて、遊技球発射機構58を駆動させ遊技球を遊技領域に向けて発射させる。   A payout control device 55 is connected to the output side of the MPU 52, and a power supply and emission control device 57 is connected. The payout ball command is transmitted to the payout control device 55, for example, based on the result of the winning determination on the winning combination ball entry unit. The payout control device 55 performs payout control of the winning balls and the rental balls by the payout device 56 based on the winning ball command received from the main control device 50. The power supply and emission control device 57 transmits a release permission command based on the fact that the emission handle 41 is operated. Based on the release permission command received from the main control device 50, the power supply and release control device 57 drives the game ball emission mechanism 58 to cause the game balls to be emitted toward the game area.

また、MPU52の出力側には、メイン表示部33及び役物用表示部34が接続されており、これらメイン表示部33及び役物用表示部34の表示制御がMPU52により直接行われる。つまり、各遊技回に際しては、MPU52においてメイン表示部33の表示制御が実行される。また、電動役物24aを開放状態とするか否かの抽選結果を明示する場合に、MPU52において役物用表示部34の表示制御が実行される。   Further, the main display unit 33 and the symbol display unit 34 are connected to the output side of the MPU 52, and the display control of the main display unit 33 and the symbol display unit 34 is directly performed by the MPU 52. That is, the display control of the main display unit 33 is executed in the MPU 52 at each game play. Further, when the lottery result as to whether or not the motorized combination 24a is to be opened is specified, the display control of the combination display unit 34 is executed in the MPU 52.

また、MPU52の出力側には、可変入賞装置22の開閉扉22bを開閉動作させる可変入賞駆動部、及び下作動口24の電動役物24aを開閉動作させる電動役物駆動部が接続されている。つまり、開閉実行モードにおいては大入賞口22aが開閉されるように、MPU52において可変入賞駆動部の駆動制御が実行される。また、電動役物24aの開放状態当選となった場合には、電動役物24aが開閉されるように、MPU52において電動役物駆動部の駆動制御が実行される。   Further, on the output side of the MPU 52, a variable winning driving unit for opening and closing the opening and closing door 22b of the variable winning device 22 and an electric combination driving unit for opening and closing the electric combination 24a of the lower operation port 24 are connected. . That is, in the open / close execution mode, the MPU 52 executes drive control of the variable winning drive unit so that the special winning opening 22a is opened and closed. Further, when the open state of the motorized product 24a is won, the MPU 52 executes drive control of the motorized product drive unit so that the motorized product 24a is opened and closed.

また、MPU52の出力側には、音声発光制御装置60が接続されており、当該音声発光制御装置60に対して演出用の各種コマンドを送信する。   Further, the sound emission control device 60 is connected to the output side of the MPU 52, and transmits various commands for effect to the sound emission control device 60.

<主制御装置50のMPU52にて実行される処理>
次に、MPU52にて実行される処理について説明する。
<Process Performed by MPU 52 of Main Control Device 50>
Next, processing executed by the MPU 52 will be described.

MPU52は、電源の立ち上げ後において所定の遊技進行用処理を繰り返し実行する。本パチンコ機10では、当該遊技進行用処理として、第1の周期で繰り返し実行される通常処理と、第1の周期よりも短い第2の周期で起動され、通常処理に対して割り込んで実行されるタイマ割込み処理と、が設定されている。   The MPU 52 repeatedly executes predetermined game progression processing after power-on. In the pachinko machine 10, the normal process repeatedly executed in the first cycle and the second cycle shorter than the first cycle are activated as the game progressing process, and are executed by interrupting the normal process. Timer interrupt processing is set.

図6は、タイマ割込み処理を示すフローチャートである。なお、本処理はMPU52により定期的に(例えば2msec周期で)起動される。   FIG. 6 is a flowchart showing timer interrupt processing. Note that this process is activated periodically (for example, in a cycle of 2 msec) by the MPU 52.

先ずステップS101では、読み込み処理を実行する。当該読み込み処理では、各種入賞検知センサの状態を読み込み、これら各種入賞検知センサの状態を判定して入賞検知情報を保存する処理を実行する。また、賞球の発生に対応した入賞検知センサにおいて遊技球の入賞が検知されている場合には、払出制御装置55に対して賞球の払い出し指示を行うための賞球コマンドを設定する。   First, in step S101, a reading process is performed. In the reading process, the states of various types of winning detection sensors are read, the states of the various types of winning detection sensors are determined, and processing for storing the winning detection information is executed. Further, when the winning of the gaming ball is detected by the winning detection sensor corresponding to the generation of the winning ball, a winning ball command for instructing the payout control device 55 to pay out the winning ball is set.

続くステップS102では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。   In the subsequent step S102, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is incremented by 1 and cleared to 0 when the counter value reaches the maximum value.

続くステップS103では、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4の更新を実行する。具体的には、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4をそれぞれ1加算すると共に、それらのカウンタ値が最大値に達した際それぞれ0にクリアする。   In the subsequent step S103, the big hit random number counter C1, the big hit type counter C2, the reach random number counter C3, and the electric character release counter C4 are updated. Specifically, the big hit random number counter C1, the big hit type counter C2, the reach random number counter C3 and the motorized combination release counter C4 are respectively incremented by one, and are cleared to zero when their counter values reach the maximum value.

続くステップS104では、スルーゲート25への入賞に伴うスルー用の入賞処理を実行する。スルー用の入賞処理では、電役保留エリア54cに記憶されている役物保留記憶数が4未満であることを条件として、前記ステップS103にて更新した電動役物開放カウンタC4の値を電役保留エリア54cに格納する。   In the subsequent step S104, a winning process for through is carried out accompanying the winning of the through gate 25. In the through winning process, the value of the motorized product release counter C4 updated in the above step S103 is used as the electric symbol under the condition that the number of award holding memories stored in the electric symbol holding area 54c is less than four. It stores in reserve area 54c.

その後、ステップS105にて、作動口23,24への入賞に伴う作動口用の入賞処理を実行する。作動口用の入賞処理では、上作動口23又は下作動口24への入賞が発生していた場合には、保留球格納エリア54bに記憶されている始動保留記憶数が上限数(例えば、「4」)未満であることを条件として、前記ステップS103にて更新した大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報を保留球格納エリア54bの保留用エリアREに格納する。この場合、保留用エリアREの空き保留エリアRE1〜RE4のうち最初の保留エリア、すなわち現状の始動保留記憶数と対応する保留エリアに格納する。ステップS105の処理を実行した後に、本タイマ割込み処理を終了する。   Thereafter, in step S105, a winning process for the operation opening is performed in conjunction with the winning of the operation openings 23 and 24. In the winning process for the operation port, when the upper operation port 23 or the lower operation port 24 has a winning, the number of start-up storages stored in the storage ball storage area 54b is the upper limit number (for example, “ 4) The numerical information of the jackpot random number counter C1, jackpot type counter C2 and reach random number counter C3 updated in step S103 is stored in the holding area RE of the holding ball storage area 54b under the condition that it is less than 4). . In this case, of the vacant reserve areas RE1 to RE4 of the reserve area RE, the first reserve area is stored in the reserve area corresponding to the current start reserve storage number. After the process of step S105 is performed, the timer interrupt process is ended.

図7は、通常処理を示すフローチャートである。通常処理は電源投入に伴い起動されるメイン処理が実行された後に開始される処理である。その概要として、ステップS201〜ステップS209の処理が4msec周期の処理として実行され、その残余時間でステップS210及びステップS211のカウンタ更新処理が実行される構成となっている。   FIG. 7 is a flowchart showing the normal processing. The normal process is a process that is started after the main process that is started up with the power on is performed. As an outline thereof, the processing of step S201 to step S209 is executed as processing of a 4 msec cycle, and the counter updating processing of step S210 and step S211 is executed with the remaining time.

ステップS201では、タイマ割込み処理又は前回の通常処理で設定したコマンド等の出力データをサブ側の各制御装置に送信する。具体的には、賞球コマンドの有無を判定し、賞球コマンドが設定されていればそれを払出制御装置55に対して送信する。また、所定の演出用コマンドが設定されている場合にはそれを音声発光制御装置60に対して送信する。   In step S201, output data such as a command set in the timer interrupt process or the previous normal process is transmitted to each control device on the sub side. Specifically, it determines the presence or absence of a winning ball command, and if the winning ball command is set, transmits it to the payout control device 55. Further, when a predetermined effect command is set, it is transmitted to the sound emission control device 60.

続くステップS202では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、カウンタ値が最大値に達した際にはカウンタ値を0にクリアする。   In the subsequent step S202, the variation type counter CS is updated. Specifically, the fluctuation type counter CS is incremented by one, and the counter value is cleared to zero when the counter value reaches the maximum value.

続くステップS203では、各遊技回における遊技を制御するための遊技回制御処理を実行する。この遊技回制御処理では、大当たり判定、図柄表示装置31による図柄の変動表示の設定、及びメイン表示部33の表示制御などを行う。   In the subsequent step S203, game number control processing for controlling a game in each game number is executed. In this game number control process, jackpot determination, setting of variable display of symbols by the symbol display device 31, and display control of the main display unit 33 are performed.

その後、ステップS204では、遊技状態を移行させるための遊技状態移行処理を実行する。遊技状態移行処理では、大当たり当選に対応した遊技回が終了している場合に開閉実行モードへの移行処理を実行し、可変入賞装置22の開閉処理を開始する。なお、開閉実行モードを開始する場合、開閉実行モード中、及び開閉実行モードを終了する場合などに、開閉実行モード用の各種コマンドを音声発光制御装置60に送信する。また、開閉実行モードが終了した場合には、当該モードの開始契機となった遊技回に係る大当たり種別に対応させて、当否抽選モードの移行やサポートモードの移行を実行する。   Thereafter, in step S204, a game state transition process is executed to shift the game state. In the gaming state transition process, when the game number corresponding to the big hit is finished, the transition process to the open / close execution mode is executed, and the open / close process of the variable winning device 22 is started. When the open / close execution mode is started, during the open / close execution mode, or when the open / close execution mode is ended, various commands for the open / close execution mode are transmitted to the voice emission control device 60. Further, when the open / close execution mode is ended, transition to the lottery mode or transition to the support mode is executed in correspondence with the jackpot type according to the game round which is the start timing of the mode.

続くステップS205では、デモ表示用処理を実行する。デモ表示用処理では、開閉実行モード中ではない状況で遊技回の終了後において新たな遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、0.1sec)が経過したか否かの判定処理を実行する。また、MPU52への電力供給が開始されてから又はパチンコ機10がリセットされてから、新たに遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、3sec)が経過したか否かの判定処理を実行する。そして、経過していると判定した場合には、デモ表示用のコマンドを音声発光制御装置60に送信する。   In the following step S205, processing for demonstration display is executed. In the processing for demonstration display, a start waiting period (for example, 0.1 sec) for demonstration start predetermined in advance does not start without a new game play being started after the game play ends in a situation where the open / close execution mode is not in progress. Execute determination processing whether or not it has been done. In addition, after the power supply to the MPU 52 is started or the pachinko machine 10 is reset, a predetermined start waiting period for demonstration start (for example, 3 seconds) has elapsed without newly starting a game play. Execute determination processing whether or not it has been done. Then, if it is determined that it has elapsed, a command for demonstration display is transmitted to the sound emission control device 60.

なお、デモ表示とは、予め定められた開始待ち期間が経過している場合に、図柄表示装置31の表示面Gにて表示される開始待ち演出のことをいう。デモ画像では、図柄列SA1〜SA3上に停止表示されている図柄が所定の動作を行っている画像が表示されるが、これに限定されることはなく、例えば、図柄が所定の動作を行っている画像の表示の後に又はそれに代えてメーカ名、機種名若しくは所定のキャラクタによる動画が表示される構成としてもよい。また、図柄列SA1〜SA3上において変動表示される図柄のアニメーションによりデモ表示を行う構成においては、当該図柄として、直前の遊技回で最終停止表示された図柄を用いる構成としてもよい。この場合、デモ表示の多様化が図られる。   In addition, a demonstration display means the thing of the waiting for start display displayed on the display surface G of the symbol display device 31, when the predetermined start waiting period has passed. In the demonstration image, an image is displayed in which the symbols stopped and displayed on the symbol rows SA1 to SA3 perform a predetermined operation, but the present invention is not limited to this, for example, the symbols perform a predetermined operation Alternatively, after or instead of the display of the displayed image, a moving image of a maker name, a model name or a predetermined character may be displayed. In addition, in a configuration in which demonstration display is performed by animation of symbols variably displayed on the symbol rows SA1 to SA3, the symbol may be configured to use a symbol finally displayed in the last game run as the symbol. In this case, the demonstration display can be diversified.

続くステップS206では、下作動口24に設けられた電動役物24aを駆動制御するための電役サポート用処理を実行する。この電役サポート用処理では、RAM54の電役保留エリア54cに格納されている情報を用いて電動役物24aを開放状態とするか否かの判定、電動役物24aの開閉処理及び役物用表示部34の表示制御などを行う。   In the following step S206, a process for supporting the electric combination for driving and controlling the electric part 24a provided in the lower operation port 24 is executed. In the electronic-support support process, the information stored in the electronic-arm holding area 54c of the RAM 54 is used to determine whether or not to open the electric combination 24a, and to open and close the electric combination 24a and to use the combination. The display control of the display unit 34 is performed.

その後、ステップS207では、遊技球発射制御処理を実行する。遊技球発射制御処理では、電源及び発射制御装置57から発射許可信号を入力していることを条件として、所定期間(例えば、0.6sec)に1回、遊技球発射機構58のソレノイドを励磁する。これにより、遊技球が遊技領域に向けて打ち出される。   Thereafter, in step S207, a game ball launch control process is executed. In the game ball emission control process, the solenoid of the game ball emission mechanism 58 is excited once in a predetermined period (for example, 0.6 sec) on condition that the emission permission signal is input from the power supply and emission control device 57. . As a result, the game ball is launched toward the game area.

続くステップS208では、RAM54に電断フラグが格納されているか否かを判定する。電断フラグは、電断の発生が確認された場合に格納され、次回のメイン処理にて消去されるフラグである。   In the following step S208, it is determined whether the power-off flag is stored in the RAM 54 or not. The power failure flag is a flag that is stored when occurrence of power failure is confirmed and is erased in the next main processing.

電断フラグが格納されていない場合は、繰り返し実行される複数の処理の最後の処理が終了したこととなるので、ステップS209にて次の通常処理の実行タイミングに至ったか否か、すなわち前回の通常処理の開始から所定時間(本実施の形態では4msec)が経過したか否かを判定する。そして、次の通常処理の実行タイミングに至るまでの残余時間内において、乱数初期値カウンタCINI及び変動種別カウンタCSの更新を繰り返し実行する。   If the power-off flag is not stored, it means that the last process of the plurality of processes to be repeatedly executed is finished, so whether or not the execution timing of the next normal process has been reached in step S209, that is, the last time It is determined whether a predetermined time (4 msec in the present embodiment) has elapsed since the start of the normal processing. Then, updating of the random number initial value counter CINI and the variation type counter CS is repeatedly executed within the remaining time until the execution timing of the next normal process.

つまり、ステップS210では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。また、ステップS211では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、それらのカウンタ値が最大値に達した際0にクリアする。   That is, in step S210, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is incremented by 1 and cleared to 0 when the counter value reaches the maximum value. In step S211, the variation type counter CS is updated. Specifically, the fluctuation type counter CS is incremented by 1 and cleared to 0 when the counter value reaches the maximum value.

ここで、ステップS201〜S207の各処理の実行時間は遊技の状態に応じて変化するため、次の通常処理の実行タイミングに至るまでの残余時間は一定でなく変動する。故に、かかる残余時間を使用して乱数初期値カウンタCINIの更新を繰り返し実行することにより、乱数初期値カウンタCINI(すなわち、大当たり乱数カウンタC1の初期値)をランダムに更新することができ、同様に変動種別カウンタCSについてもランダムに更新することができる。   Here, since the execution time of each process of steps S201 to S207 changes according to the state of the game, the remaining time until the execution timing of the next normal process is not constant but fluctuates. Therefore, it is possible to randomly update the random number initial value counter CINI (that is, the initial value of the big hit random number counter C1) by repeatedly executing the update of the random number initial value counter CINI using such remaining time. The variation type counter CS can also be updated at random.

一方、ステップS208にて、電断フラグが格納されていると判定した場合は、電源遮断が発生したことになるので、ステップS212以降の電断時処理を実行する。つまり、ステップS212では、タイマ割込み処理の発生を禁止し、その後、ステップS213にてRAM判定値を算出、保存し、ステップS214にてRAM54のアクセスを禁止した後に、電源が完全に遮断して処理が実行できなくなるまで無限ループを継続する。   On the other hand, if it is determined in step S208 that the power-off flag is stored, it means that power-off has occurred, so the processing at the time of power-off after step S212 is executed. That is, in step S212, the generation of timer interrupt processing is prohibited, and then the RAM determination value is calculated and stored in step S213, and after the access to RAM 54 is prohibited in step S214, the power is completely shut off and processing is performed. Continues an infinite loop until it can not execute.

次に、ステップS203の遊技回制御処理を図8等のフローチャートを参照して説明する。   Next, the game number control process of step S203 will be described with reference to the flowchart of FIG.

遊技回制御処理では、先ずステップS301にて、開閉実行モード中か否かを判定する。開閉実行モード中である場合には、ステップS302以降の処理を実行することなく、本遊技回制御処理を終了する。つまり、開閉実行モード中である場合には、作動口23,24への入賞が発生しているか否かに関係なく、遊技回が開始されることはない。   In the game number control process, it is first determined in step S301 whether or not the open / close execution mode is in progress. When the open / close execution mode is in effect, the game play control process is ended without executing the process of step S302 and subsequent steps. That is, when in the opening / closing execution mode, the game play is not started regardless of whether or not a winning to the operation openings 23 and 24 has occurred.

開閉実行モード中でない場合には、ステップS302にて、メイン表示部33が変動表示中であるか否かを判定する。メイン表示部33が変動表示中でない場合には、ステップS303〜ステップS305の遊技回開始用処理に進む。   If the open / close execution mode is not in effect, it is determined in step S302 whether or not the main display unit 33 is displaying variable. If the main display unit 33 is not in the variable display mode, the process proceeds to the processing for starting the game play of steps S303 to S305.

遊技回開始用処理では、先ずステップS303にて、始動保留球数Nが「0」であるか否かを判定する。始動保留球数Nが「0」である場合とは、保留球格納エリア54bに保留情報が記憶されていないことを意味する。したがって、そのまま本遊技回制御処理を終了する。   In the processing for starting a game, first, in step S303, it is determined whether the number of start-holding balls N is "0". The case where the starting pending ball number N is "0" means that the pending information is not stored in the pending ball storage area 54b. Therefore, the game number control process ends.

始動保留球数Nが「0」でない場合には、ステップS304にて保留球格納エリア54bの保留用エリアREに記憶されているデータを変動表示用に設定するためのデータ設定処理を実行する。具体的には、保留用エリアREの第1保留エリアRE1に格納されているデータを実行エリアAEにシフトする。その後、第1保留エリアRE1〜第4保留エリアRE4に格納されているデータを下位エリア側に順にシフトさせる。その後、ステップS305にて変動開始処理を実行した後に、本遊技回制御処理を終了する。   If the starting pending ball number N is not "0", data setting processing for setting data stored in the pending area RE of the pending ball storage area 54b for variable display is executed in step S304. Specifically, the data stored in the first reserve area RE1 of the reserve area RE is shifted to the execution area AE. Thereafter, the data stored in the first reserve area RE1 to the fourth reserve area RE4 are shifted in order to the lower area side. Thereafter, the variation start process is executed in step S305, and then the game play control process is ended.

ステップS305の変動開始処理について、図9のフローチャートを参照しながら説明する。   The variation start process of step S305 will be described with reference to the flowchart of FIG.

ステップS401にて、今回の変動開始処理に対応した保留情報が大当たり当選に対応しているか否かを判定するための当否判定処理を実行する。具体的には実行エリアAEにシフトされた保留情報のうち大当たり乱数カウンタC1に係る数値情報と、現状の当否抽選モードに対応した当否テーブルとを参照して、大当たり当選となるか否かを判定する。   In step S401, a process of determining whether or not the suspension information corresponding to the current fluctuation start process corresponds to a big hit is executed. Specifically, it is determined whether or not a big hit will be made by referring to the numerical information concerning the big hit random number counter C1 among the hold information shifted to the execution area AE and the hit / fail table corresponding to the current pass / fail lottery mode. Do.

続くステップS402では大当たり当選であるか否かを判定する。大当たり当選である場合には、ステップS403にて種別判定処理を実行する。種別判定処理では、実行エリアAEにシフトされた保留情報のうち大当たり種別カウンタC2に係る数値情報と、振分テーブルとを参照して、大当たり種別を特定する。   In the following step S402, it is determined whether or not a jackpot is won. If the jackpot is won, the type determination process is executed in step S403. In the type determination process, the jackpot type is specified with reference to the numerical value information related to the jackpot type counter C2 among the hold information shifted to the execution area AE, and the distribution table.

続くステップS404では、大当たり結果に対応した停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている大当たり結果用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この大当たり結果用の停止結果テーブルには、メイン表示部33に停止表示される絵柄の態様の種類が、大当たり結果の種類毎に相違させて設定されており、ステップS404では、ステップS403にて特定した大当たり結果の種類に応じた絵柄の態様の情報をRAM54に記憶する。   In the subsequent step S404, stop result setting processing corresponding to the big hit result is executed. Specifically, the information on the pattern aspect to be finally displayed on the main display unit 33 as a final stop in the game round related to the start of fluctuation is specified from the stop result table for the jackpot result stored in advance in the ROM 53, The specified information is stored in the RAM 54. In the stop result table for the big hit result, the type of pattern to be stopped and displayed on the main display unit 33 is set to be different for each type of the big hit result, and in step S404, it is specified in step S403. The information of the pattern aspect according to the type of the big hit result is stored in the RAM 54.

一方、ステップS402にて、大当たり当選ではないと判定した場合には、ステップS405にて、外れ時用の停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている外れ時用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この場合に選択される絵柄の態様の情報は、大当たり結果の場合に選択される絵柄の態様の情報とは異なっている。   On the other hand, when it is determined in step S402 that the jackpot has not been won, in step S405, stop result setting processing for out of time is executed. Specifically, the information of the pattern aspect to be finally displayed on the main display unit 33 in the game round related to the start of the change is specified from the stop result table for out of time stored in advance in the ROM 53, The specified information is stored in the RAM 54. The information of the pattern aspect selected in this case is different from the information of the pattern aspect selected in the case of the jackpot result.

ステップS404又はステップS405の処理を実行した後は、ステップS406にて、変動表示時間の設定処理を実行する。   After the process of step S404 or step S405 is performed, in step S406, a setting process of the variable display time is performed.

かかる処理では、RAM54の抽選カウンタ用バッファ54aにおける変動種別カウンタ用バッファに格納されている変動種別カウンタCSの値を取得する。また、今回の遊技回において図柄表示装置31にてリーチ表示が発生するか否かを判定する。具体的には、今回の変動開始に係る遊技回が大当たり結果である場合には、リーチ表示が発生すると判定する。また、大当たり結果ではない場合であっても、実行エリアAEに格納されているリーチ乱数カウンタC3に係る数値情報がリーチ発生に対応した数値情報である場合には、リーチ表示が発生すると判定する。   In this process, the value of the fluctuation type counter CS stored in the fluctuation type counter buffer in the lottery counter buffer 54 a of the RAM 54 is acquired. In addition, it is determined whether reach display is generated in the symbol display device 31 in the current game round. Specifically, it is determined that the reach display is generated when the gaming number relating to the start of the change is the jackpot result. In addition, even if it is not the jackpot result, when the numerical information related to the reach random number counter C3 stored in the execution area AE is the numerical information corresponding to the reach occurrence, it is determined that the reach display occurs.

リーチ表示が発生すると判定した場合には、ROM53に記憶されているリーチ発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報をRAM54に設けられた変動表示時間カウンタにセットする。一方、リーチ表示が発生しないと判定した場合には、ROM53に記憶されているリーチ非発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報を上記変動表示時間カウンタにセットする。ちなみに、リーチ非発生用変動表示時間テーブルを参照して取得され得る変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得され得る変動表示時間と異なっている。   When it is determined that the reach display occurs, the fluctuation display time information corresponding to the value of the fluctuation type counter CS of this time is acquired with reference to the fluctuation generation display time table for reach generation stored in the ROM 53, and the fluctuation thereof The display time information is set in the variable display time counter provided in the RAM 54. On the other hand, when it is determined that the reach display is not generated, the reach non-occurrence change display time table stored in the ROM 53 is referred to, and the change display time information corresponding to the value of the present change type counter CS is acquired Then, the fluctuation display time information is set in the fluctuation display time counter. Incidentally, the fluctuation display time that can be acquired with reference to the non-reach generation fluctuation display time table is different from the fluctuation display time that can be acquired with reference to the reach generation fluctuation display time table.

なお、リーチ非発生時における変動表示時間情報は、始動保留球数の数が多いほど、変動表示時間が短くなるように設定されている。また、サポートモードが高頻度サポートモードである状況においては低頻度サポートモードである状況よりも、保留情報の数が同一である場合で比較して、短い変動表示時間が選択されるようにリーチ非発生用変動表示時間テーブルが設定されている。但し、これに限定されることはなく、始動保留球数やサポートモードに応じて変動表示時間が変動しない構成としてもよく、上記の関係とは逆であってもよい。さらには、リーチ発生時における変動表示時間に対して、上記構成を適用してもよい。また、各種大当たり結果の場合、外れリーチ時の場合及びリーチ非発生の場合のそれぞれに対して個別に変動表示時間テーブルが設定されていてもよい。   In addition, the fluctuation display time information at the time of reach non-occurrence | occurrence | production is set so that the fluctuation display time may become short, so that the number of starting pending balls is large. Also, in the situation where the support mode is the high frequency support mode, the reach non-range is selected so that the short fluctuation display time is selected compared with the situation where the number of holding information is the same than the situation where the low frequency support mode A variation display time table for generation is set. However, the present invention is not limited to this, and the configuration may be such that the variable display time does not change according to the number of start-hold balls and the support mode, and the above relationship may be reversed. Furthermore, the above configuration may be applied to the fluctuation display time at the time of reach occurrence. Further, in the case of various jackpot results, a variable display time table may be individually set for each of the case of outreach and the case of non-reach.

ステップS406にて、変動表示時間の設定処理を実行した後は、ステップS407にて、変動用コマンド及び種別コマンドを設定する。変動用コマンドには、変動表示時間の情報が含まれる。ここで、上記のとおりリーチ非発生用変動表示時間テーブルを参照して取得される変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得される変動表示時間と異なっているため、変動用コマンドにリーチ発生の有無の情報が含まれていなかったとしても、サブ側の制御装置である音声発光制御装置60では変動表示時間の情報からリーチ発生の有無を特定することは可能である。この点、変動用コマンドには、リーチ発生の有無を示す情報が含まれているとも言える。なお、変動用コマンドにリーチ発生の有無を直接示す情報が含まれていてもよい。   After the setting process of the fluctuation display time is executed in step S406, the fluctuation command and the type command are set in step S407. The fluctuation command includes information on fluctuation display time. Here, as described above, the fluctuation display time acquired with reference to the reach non-occurrence fluctuation display time table is different from the fluctuation display time acquired with reference to the reach generation fluctuation display time table, and thus fluctuation Even if information on the presence or absence of reach is not included in the command, the voice emission control device 60, which is the control device on the sub side, can specify the presence or absence of the reach from the information on the variable display time. In this regard, it can be said that the change command includes information indicating the presence or absence of the reach occurrence. Note that the change command may include information directly indicating the presence or absence of reach.

また、種別コマンドには、遊技結果の情報が含まれる。つまり、種別コマンドには、遊技結果の情報として、通常大当たり結果の情報、明示2R確変大当たり結果の情報、15R確変大当たり結果の情報、及び外れ結果の情報のいずれかが含まれる。   Further, the type command includes information on the game result. That is, the type command includes, as information on the game result, any of information on the jackpot result, information on the explicit 2R probability variation jackpot result, information on the 15R probability variation jackpot result, and information on the deviation result as the game result information.

ステップS407にて設定された変動用コマンド及び種別コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。ステップS407の処理を実行した後は、ステップS408にてメイン表示部33において絵柄の変動表示を開始させる。その後、本変動開始処理を終了する。   The variation command and the type command set in step S407 are transmitted to the sound emission control device 60 in step S201 in the normal process (FIG. 7). After the process of step S407 is performed, the variation display of the pattern is started on the main display unit 33 in step S408. Thereafter, the variation start process is ended.

遊技回制御処理(図8)の説明に戻り、メイン表示部33が変動表示中である場合には、ステップS306〜ステップS309の処理を実行する。当該処理では、先ずステップS306にて、今回の遊技回の変動表示時間が経過したか否かを判定する。   Returning to the explanation of the game play control process (FIG. 8), when the main display unit 33 is displaying a change, the processes of steps S306 to S309 are executed. In the processing, first, in step S306, it is determined whether or not the variation display time of the current game number has elapsed.

変動表示時間が経過していない場合には、ステップS307にて変動表示用処理を実行する。変動表示用処理では、メイン表示部33における表示態様を変更する。その後、本遊技回制御処理を終了する。   If the variable display time has not elapsed, processing for variable display is executed in step S307. In the variable display process, the display mode in the main display unit 33 is changed. Thereafter, the game play control process ends.

変動表示時間が経過している場合には、ステップS308にて変動終了処理を実行する。変動終了処理では、上記ステップS404又はステップS405の処理にてRAM54に記憶した情報を特定し、その情報に対応した絵柄の態様がメイン表示部33にて表示されるように当該メイン表示部33を表示制御する。   If the fluctuation display time has elapsed, fluctuation end processing is executed in step S308. In the variation end process, the information stored in the RAM 54 is specified in the process of step S404 or step S405, and the main display unit 33 is displayed so that the aspect of the pattern corresponding to the information is displayed on the main display unit 33. Display control.

続くステップS309では、変動終了コマンドを設定する。ここで設定された変動終了コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。音声発光制御装置60では、受信した変動終了コマンドに基づいて、その遊技回における演出を終了させる。また、それに対応したコマンドが、音声発光制御装置60から表示制御装置70に送信され、表示制御装置70ではその遊技回における最終停止図柄の組み合わせを確定表示(最終停止表示)させる。その後、本遊技回制御処理を終了する。   In the following step S309, a change end command is set. The change end command set here is transmitted to the sound emission control apparatus 60 in step S201 in the normal process (FIG. 7). The sound emission control device 60 ends the effect in the game play based on the received change end command. In addition, a command corresponding to that is transmitted from the sound emission control device 60 to the display control device 70, and the display control device 70 displays the final stop symbol combination in the game round (final stop display). Thereafter, the game play control process ends.

<主制御装置50のMPU52における処理構成の別形態>
MPU52にて実行される処理構成は、上記のものに限定されることはなく、以下の処理構成であってもよい。図10及び図11は、MPU52における処理の別形態を説明するためのフローチャートであり、図10は動作電力の供給が開始された場合に実行されるメイン処理を示し、図11は当該メイン処理に対して定期的に割り込んで起動されるタイマ割込み処理を示す。
<Another form of processing configuration in MPU 52 of main controller 50>
The processing configuration executed by the MPU 52 is not limited to the above, and may be the following processing configuration. 10 and 11 are flowcharts for explaining another form of processing in the MPU 52, and FIG. 10 shows main processing executed when supply of operation power is started, and FIG. 11 shows the main processing. The figure shows a timer interrupt process which is periodically interrupted and started.

図10に示すように、メイン処理では先ずステップS501にて、電源投入に伴う立ち上げ処理を実行する。続くステップS502では、RAM54のアクセスを許可する。その後、ステップS503では、電源及び発射制御装置57に設けられたRAM消去スイッチがオンされているか否かを判定し、続くステップS504ではRAM54に電断フラグが格納されているか否かを判定する。また、ステップS505ではRAM判定値を算出し、続くステップS506では、そのRAM判定値が電源遮断時に保存したRAM判定値と一致するか否か、すなわち記憶保持されたデータの有効性を判定する。   As shown in FIG. 10, in the main process, first, in step S501, a start-up process is performed upon power-on. In the following step S502, access to the RAM 54 is permitted. Thereafter, in step S503, it is determined whether or not the RAM erase switch provided in the power supply and emission control device 57 is turned on, and in the subsequent step S504, it is determined whether or not the power failure flag is stored in the RAM. In step S505, a RAM determination value is calculated, and in the subsequent step S506, it is determined whether the RAM determination value matches the RAM determination value stored at power-off, that is, the validity of the stored data.

RAM消去スイッチがオンされておらず、さらに電断フラグが格納されているとともにRAM判定値が正常である場合には、ステップS507にてRAM54から電断フラグを消去するとともに、ステップS508にてRAM判定値を消去する。その後、ステップS509にて割込み許可を設定し、ステップS510にて乱数初期値カウンタCINIの更新を実行し、ステップS511にて変動種別カウンタCSの更新を実行する。そして、ステップS509〜ステップS511の処理を実行した後は、ステップS509に戻り、ステップS509〜ステップS511の処理を繰り返す。   If the RAM erase switch is not turned on, and the power-off flag is stored and the RAM determination value is normal, the power-off flag is erased from the RAM 54 in step S507, and the RAM in step S508. Delete the judgment value. Thereafter, in step S509, permission of interruption is set, in step S510, updating of the random number initial value counter CINI is performed, and in step S511, updating of the variation type counter CS is performed. Then, after the processes of steps S509 to S511 are performed, the process returns to step S509, and the processes of steps S509 to S511 are repeated.

なお、ステップS509にて割込み許可の設定を行った直後に割込み禁止の設定を行う構成としてもよい。この場合、後述するタイマ割込み処理は、割込み禁止の設定が行われている状況において起動タイミングとなった場合には、次回の割込み許可の設定が行われるまでその実行が待機される構成としてもよい。   Note that the interrupt prohibition setting may be performed immediately after the interrupt permission setting is performed in step S509. In this case, the timer interrupt process described later may be configured to wait until the next interrupt permission setting is performed when the activation timing is reached in a state where the interrupt prohibition setting is performed. .

一方、RAM消去スイッチが押されていれば、ステップS512〜ステップS513の処理に移行する。また、電源遮断の発生情報が設定されていない場合や、RAM判定値により記憶保持されたデータの異常が確認された場合も同様にステップS512〜ステップS513の処理に移行する。   On the other hand, if the RAM erase switch is pressed, the process proceeds to steps S512 to S513. Also, when the occurrence information of the power shutoff is not set, or when the abnormality of the data stored is confirmed by the RAM determination value, the process similarly shifts to the processes of steps S512 to S513.

ステップS512では、RAM54の使用領域を「0」にクリアし、ステップS513では、RAM54の初期設定を実行する。その後、ステップS509〜ステップS511の処理に移行する。   In step S512, the use area of the RAM 54 is cleared to "0", and in step S513, initialization of the RAM 54 is performed. Then, it transfers to the process of step S509-step S511.

図11は、当該別形態におけるタイマ割込み処理を示すフローチャートである。   FIG. 11 is a flowchart showing timer interrupt processing in the other embodiment.

タイマ割込み処理では、ステップS601〜ステップS605にて、上記ステップS101〜ステップS105と同様の処理を実行する。   In the timer interrupt process, the same process as step S101 to step S105 is executed in step S601 to step S605.

その後、ステップS606にて、変動種別カウンタCSの更新処理を実行し、ステップS607にて遊技回制御処理を実行し、ステップS608にて遊技状態移行処理を実行し、ステップS609にてデモ表示用処理を実行し、ステップS610にて電役サポート用処理を実行し、ステップS611にて遊技球発射制御処理を実行し、ステップS612にて外部出力処理を実行する。その後、本タイマ割込み処理を終了する。これら各処理の詳細な内容は、上記図7〜図9を参照して説明した内容と同様である。   Thereafter, in step S606, update processing of the variation type counter CS is executed, in step S607, the game time control processing is executed, in step S608, the gaming state transition processing is executed, and in step S609, processing for demonstration display Is executed in step S610, the game ball launch control process is executed in step S611, and the external output process is executed in step S612. Thereafter, this timer interrupt processing is ended. The detailed contents of each of these processes are the same as the contents described with reference to FIGS. 7 to 9 above.

<音声発光制御装置60>
次に、音声発光制御装置60について説明する。
<Speech emission control device 60>
Next, the sound emission control device 60 will be described.

音声発光制御装置60は、図4に示すように、MPU62が搭載された音声発光制御基板61を具備している。MPU62には、当該MPU62により実行される各種の制御プログラムや固定値データを記憶したROM63と、そのROM63内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM64と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。   As shown in FIG. 4, the sound emission control device 60 includes a sound emission control board 61 on which the MPU 62 is mounted. The MPU 62 is a ROM 63 storing various control programs to be executed by the MPU 62 and fixed value data, and a memory for temporarily storing various data etc. when the control program stored in the ROM 63 is executed. A RAM 64, an interrupt circuit, a timer circuit, a data input / output circuit, various counter circuits as a random number generator, etc. are incorporated.

なお、ROM63として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM63と、RAM64とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。   As the ROM 63, storage means (that is, non-volatile storage means) that can be accessed randomly at the time of reading the control program and fixed value data and that do not require external power supply for storage are used. Further, the configuration in which the control and operation portion, the ROM 63, and the RAM 64 are integrated into one chip is not essential, and each function may be mounted as a separate chip, and some functions are separate chips. It may be configured to be mounted.

MPU62には、入力ポート及び出力ポートがそれぞれ設けられている。MPU62の入力側には演出用操作装置48及び主制御装置50が接続されているとともに、MPU62の出力側には各種発光部35,36,44、スピーカ部45及び表示制御装置130が接続されている。   The MPU 62 is provided with an input port and an output port, respectively. The operation device 48 for performance and the main control device 50 are connected to the input side of the MPU 62, and various light emitting units 35, 36, 44, the speaker unit 45, and the display control device 130 are connected to the output side of the MPU 62 There is.

MPU62では、主制御装置50から送信された変動用コマンドを受信することで、遊技回用の演出を開始させる必要があることを認識し、遊技回用演出開始処理を実行する。また、主制御装置50から送信された終了コマンドを受信することで、遊技回用の演出を終了させる必要があることを認識し、遊技回用演出終了処理を実行する。また、主制御装置50から送信された大当たり演出用の各種コマンドを受信することで、大当たり演出を開始させる必要があること又は進行させる必要があることを認識し、大当たり演出用処理を実行する。また、主制御装置50から送信されたデモ表示用のコマンドを受信することで、デモ表示を開始させる必要があることを認識し、デモ表示用処理を実行する。   By receiving the fluctuation command transmitted from the main control device 50, the MPU 62 recognizes that it is necessary to start an effect for game circulation, and executes a game circulation effect start process. Further, by receiving the end command transmitted from the main control device 50, it is recognized that it is necessary to end the effects for the game use, and the effect for ending the game use is executed. Also, by receiving various commands for the jackpot effect transmitted from the main control device 50, it is recognized that it is necessary to start the jackpot effect or it is necessary to proceed, and the jackpot effect processing is executed. Also, by receiving the command for demonstration display transmitted from the main control device 50, it recognizes that it is necessary to start the demonstration display, and executes the processing for demonstration display.

なお、MPU62において主制御装置50からコマンドを受信するとは、主制御装置50からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。   Note that receiving a command from the main control device 50 in the MPU 62 is not limited to the configuration in which the command is directly received from the main control device 50, but also includes a configuration in which the command relayed to the relay board is received.

遊技回用演出開始処理では、変動用コマンド及び種別コマンドの両コマンドに基づいて、該当遊技回の変動表示時間を把握する変動表示時間の把握処理と、リーチ表示の有無を把握するリーチ表示把握処理と、大当たり結果の有無を把握する大当たり結果発生の把握処理と、大当たり結果が発生する場合における大当たり種別を把握する大当たり種別の把握処理と、を実行する。また、リーチ表示把握処理、大当たり結果発生の把握処理及び大当たり種別の把握処理における把握結果に基づいて、本遊技回において図柄表示装置31の表示面Gに最終停止表示させる図柄の種類を決定する図柄種別把握処理を実行する。そして、上記各把握処理の結果に基づいて、変動表示時間の情報及び表示演出の種類の情報を含む変動パターンコマンドと、最終停止表示させる図柄の種類の情報を含む図柄指定コマンドを、表示制御装置130に送信する。   In the game use effect start process, the process of grasping the fluctuation display time for grasping the fluctuation display time of the corresponding game time and the reach display grasping process of grasping the presence or absence of the reach display based on both commands of fluctuation command and type command And, the grasping process of the jackpot result occurrence which grasps the presence or absence of the jackpot result, and the grasping process of the jackpot type which grasps the jackpot type when the jackpot result occurs are executed. Further, based on the grasped result in reach display grasping process, jackpot result occurrence grasping process and jackpot type grasping process, a symbol for determining the type of symbol to be displayed on display surface G of symbol display device 31 in the final game round Execute type identification processing. Then, based on the result of each grasping process, the display control device, the fluctuation pattern command including the information of fluctuation display time and the information of the type of display effect, and the symbol designation command including the information of the type of symbol to be displayed in the final stop Send to 130

また、遊技回用演出開始処理では、上記各把握処理の他に、予告表示を行うか否かの予告表示抽選処理を実行する。この場合、当該抽選処理では、予告表示の種別抽選についても実行される。そして、予告表示の発生当選である場合には、予告表示の種別の情報を含む予告コマンドを、表示制御装置130に送信する。   Further, in the game-use effect start process, in addition to the above-mentioned grasping processes, a notice display lottery process as to whether or not to perform notice display is executed. In this case, in the lottery process, the type lottery of the advance notice is also executed. Then, if it is determined that the advance notice display has been generated, a notice command including the information of the notice display type is transmitted to the display control device 130.

また、遊技回用演出開始処理では、上記各処理の処理結果に基づいて、遊技回用の表示発光テーブルと遊技回用の音声テーブルとをROM63から読み出す。遊技回用の表示発光テーブルにより、該当する遊技回の進行過程における表示発光部44の発光態様が規定される。また、遊技回用の音声テーブルにより、該当する遊技回の進行過程におけるスピーカ部45からの出力態様が規定される。   In addition, in the game circulation effect start process, the display light emission table for the game circulation and the voice table for the game circulation are read out from the ROM 63 based on the processing result of each of the above processes. The light emission aspect of the display light emission part 44 in the advancing process of applicable game times is prescribed | regulated by the display light emission table for game times. In addition, an output mode from the speaker unit 45 in the progressing process of the corresponding game number is defined by the sound table for the game number.

遊技回用演出終了処理では、現状の遊技回における表示発光部44の発光制御及びスピーカ部45の音声出力制御を終了する。また、当該遊技回用演出終了処理では、遊技回用演出を終了させるべき情報を含む終了コマンドを、表示制御装置130に送信する。   In the game turn effect end process, the light emission control of the display light emitting unit 44 and the sound output control of the speaker unit 45 in the current game turn are ended. In addition, in the game circulation effect end process, an end command including information to be ended of the game circulation effect is transmitted to the display control device 130.

大当たり演出用処理では、受信している大当たり演出用の各種コマンドに基づいて、オープニング時、各ラウンド時、各ラウンド間及びエンディング時などの演出態様を把握し、その把握結果に対応した大当たり演出用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、大当たり演出用の表示発光テーブルと大当たり演出用の音声テーブルとをROM63から読み出し、大当たり演出中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。   In the jackpot effect processing, based on the received various commands for jackpot effect, it grasps the effect mode such as opening time, each round time, each round time, each round time and ending time, and for the jackpot effect corresponding to the grasped result Command is transmitted to the display control device 130. Further, based on the grasped result, the display light emission table for the big hit effect and the voice table for the big hit effect are read from the ROM 63, and the light emission mode of the display light emitting unit 44 and the output mode of the sound from the speaker unit 45 during the big hit effect To define.

デモ表示用処理では、受信しているデモ表示用のコマンドに基づいて、デモ表示の演出態様を把握し、その把握結果に対応したデモ表示用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、デモ表示用の表示発光テーブルとデモ表示用の音声テーブルとをROM63から読み出し、デモ表示中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。   In the process for demonstration display, the presentation mode of the demonstration display is grasped based on the received command for demonstration display, and the demonstration display command corresponding to the grasped result is transmitted to the display control device 130. Further, based on the grasped result, the display light emission table for demonstration display and the voice table for demonstration display are read out from the ROM 63, and the light emission mode of the display light emitting unit 44 and the output mode of sound from the speaker unit 45 during demonstration display To define.

なお、主制御装置50から送信されたコマンドに基づいてMPU62にて実行される処理は、上記処理以外にも、第1保留発光部35や第2保留発光部36を発光制御するための処理が含まれる。   The processing executed by the MPU 62 based on the command transmitted from the main control device 50 is the processing for controlling the light emission of the first reserved light emitting unit 35 and the second reserved light emitting unit 36 besides the above processing. included.

また、MPU62では、演出用操作装置48の操作部が操作されたことに基づき当該演出用操作装置48から送信される操作信号を受信することで、演出用操作装置48が操作されたことを認識し、操作対応処理を実行する。また、操作されている状態が解除された場合にも操作信号の立下りによってそれを認識し、操作対応処理を実行する。   Further, the MPU 62 recognizes that the effect operating device 48 is operated by receiving an operation signal transmitted from the effect operating device 48 based on the operation of the operation unit of the effect operating device 48. And execute operation handling processing. In addition, even when the state being operated is released, it is recognized by the fall of the operation signal, and the operation corresponding processing is executed.

ここで、演出用操作装置48の操作に対応した演出の一部として、演出用操作装置48が操作されたことに基づき、表示モードが変更される演出が実行される。表示モードとは、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。かかる表示モードの詳細な内容、及び演出用操作装置48の操作に基づく表示モードの切り換えに係る処理構成については後に詳細に説明する。   Here, as a part of the effect corresponding to the operation of the operation device 48 for effect, the effect that the display mode is changed is executed based on the operation of the operation device 48 for effect. The display mode is a state in which a predetermined type is defined as a standby image displayed until the game turn is started and a game turn image displayed in a state where the game turn is being executed, and a plurality of types are displayed. The display mode of is set. The detailed contents of the display mode and the processing configuration relating to the switching of the display mode based on the operation of the operation device 48 for effect will be described in detail later.

<表示制御装置130>
表示制御装置130のハード構成について説明する。
<Display control device 130>
The hardware configuration of the display control device 130 will be described.

表示制御装置130は、図4に示すように、表示CPU131と、ワークRAM132と、メモリモジュール133と、VRAM134と、ビデオディスプレイプロセッサ(VDP)135と、が搭載された表示制御基板136を備えている。   The display control device 130 includes a display control board 136 on which a display CPU 131, a work RAM 132, a memory module 133, a VRAM 134, and a video display processor (VDP) 135 are mounted, as shown in FIG. .

表示CPU131は、表示制御装置130においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU131は表示制御基板136に搭載された入力ポート137に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート137を通じて表示CPU131に入力される。なお、表示CPU131において音声発光制御装置60からコマンドを受信するとは、音声発光制御装置60からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。   The display CPU 131 has a function as a main control unit in the display control device 130, and reads, interprets, and executes a control program and the like. In detail, the display CPU 131 is connected to the input port 137 mounted on the display control board 136 via a bus, and various commands transmitted from the audio light emission control device 60 are input to the display CPU 131 through the input port 137 Be done. Note that receiving a command from the voice emission control device 60 in the display CPU 131 is not limited to the configuration in which the command is directly received from the voice emission control device 60, but also includes a configuration in which the command relayed to the relay board is received. Be

表示CPU131は、バスを介してワークRAM132、メモリモジュール133及びVRAM134と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール133に記憶された各種データをワークRAM132やVRAM134に転送させる転送指示を行う。また、表示CPU131は、バスを介してVDP135と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置31に3次元画像(3D画像)を表示させるための描画指示を行う。以下、メモリモジュール133、ワークRAM132、VRAM134及びVDP135について説明する。   The display CPU 131 is connected to the work RAM 132, the memory module 133 and the VRAM 134 via the bus, and based on the command received from the audio light emission control device 60, various data stored in the memory module 133 are stored in the work RAM 132 or VRAM 134. Give a transfer instruction to transfer. In addition, the display CPU 131 is connected to the VDP 135 via the bus, and based on the command received from the sound emission control device 60, a drawing instruction for causing the symbol display device 31 to display a three-dimensional image (3D image) Do. The memory module 133, the work RAM 132, the VRAM 134, and the VDP 135 will be described below.

メモリモジュール133は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、3次元画像を表示するための各種画像データを予め記憶している記憶手段である。当該メモリモジュール133は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール133は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。   The memory module 133 is a storage unit that stores control data including control programs and fixed value data in advance, and also stores various image data for displaying a three-dimensional image in advance. The memory module 133 includes a non-volatile semiconductor memory which does not require an external power supply for storing data. Incidentally, although the storage capacity is 4 G bits, such a storage capacity is arbitrary as long as the control in the display control apparatus 130 is satisfactorily performed. Further, the memory module 133 is used as a non-write memory as a read only memory (ROM) when the pachinko machine 10 is used.

メモリモジュール133に記憶されている各種画像データには、図柄表示装置31に表示される図柄やキャラクタなどのオブジェクト用の画像データと、当該オブジェクトに貼り付けられるテクスチャ用の画像データと、1フレーム分の画像において最背面の画像を構成する背面用の画像データとが含まれている。   The various image data stored in the memory module 133 includes image data for an object such as a symbol or a character displayed on the symbol display device 31, image data for a texture to be attached to the object, and one frame And the image data for the back side which composes the image of the rearmost side in the image of FIG.

ここで、オブジェクトとは、仮想3次元空間に相当する3次元の座標系であるワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。また、ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。オブジェクト用の画像データには、例えばサーフェスモデルを適用するため、オブジェクト毎に予め設定された基準座標を原点として、各ポリゴンの頂点座標情報が設定されている。つまり、各オブジェクト用の画像データでは、自己完結のローカル座標系において各ポリゴンの相対位置(すなわち、向きやサイズ)が3次元的に定義されている。   Here, an object is a three-dimensional virtual object arranged in a world coordinate system, which is a three-dimensional coordinate system corresponding to a virtual three-dimensional space, and is three-dimensional information composed of a plurality of polygons. A polygon is a polygon plane defined by vertices of a plurality of three-dimensional coordinates. For example, in order to apply a surface model, vertex coordinate information of each polygon is set in the image data for an object, with reference coordinates preset for each object as an origin. That is, in the image data for each object, relative positions (that is, orientations and sizes) of the polygons are three-dimensionally defined in the self-contained local coordinate system.

テクスチャとは、オブジェクトの各ポリゴンに貼り付ける画像であり、テクスチャがオブジェクトに貼り付けられることにより、オブジェクトに対応する画像、例えば図柄やキャラクタなどを含む表示画像が生成される。テクスチャ用の画像データの持ち方は、任意であるが、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。   A texture is an image to be attached to each polygon of an object. By attaching a texture to an object, a display image including an image corresponding to the object, such as a pattern or a character, is generated. The way of holding the image data for texture is arbitrary, but includes, for example, at least a combination of bitmap format data and a color palette table to be referred to in determining the display color at each pixel of the bitmap image. There is.

最背面の画像は、2次元画像(2D画像)を構成している。背面用の画像データの持ち方は、任意であるが、例えば2次元の静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。ちなみに、当該背面用の画像データがワールド座標系に配置される場合には板ポリゴンが利用される。   The backmost image constitutes a two-dimensional image (2D image). The way of holding the image data for the back is arbitrary, but for example, two-dimensional still image data is stored and held as JPEG format data in a state of being compressed. Incidentally, when the image data for the back side is arranged in the world coordinate system, a plate polygon is used.

ワークRAM132は、メモリモジュール133から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM132は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、ワークRAM132は、パチンコ機10の使用に際して、読み書き両用として用いられる。   The work RAM 132 is storage means for temporarily storing control data read and transferred from the memory module 133 and temporarily storing flags and the like. The work RAM 132 includes a volatile semiconductor memory that requires an external power supply for storage and storage. Specifically, a DRAM is used as the semiconductor memory. However, the present invention is not limited to the DRAM, and another RAM such as an SRAM may be used. Although the storage capacity is 1 Gbit, the storage capacity is arbitrary as long as the control in the display control apparatus 130 is satisfactorily performed. The work RAM 132 is also used for reading and writing when using the pachinko machine 10.

ワークRAM132には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から制御用データが転送される。そして、表示CPU131は、ワークRAM132に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。   Control data is transferred from the memory module 133 to the work RAM 132 based on a data transfer instruction from the display CPU 131 to the memory module 133. Then, the display CPU 131 reads the control data transferred to the work RAM 132 into the internal memory area (register group) as necessary, and executes various processes.

VRAM134は、図柄表示装置31に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM134は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該VRAM134は、パチンコ機10の使用に際して、読み書き両用として用いられる。   The VRAM 134 is storage means for temporarily storing various data necessary for outputting an image to the symbol display device 31. The VRAM 134 includes a volatile semiconductor memory that requires external power supply for storage and storage. Specifically, an SDRAM is used as the semiconductor memory. However, the present invention is not limited to the SDRAM, and another RAM such as a DRAM, an SRAM or a dual port RAM may be used. Although the storage capacity is 2 G bits, such a storage capacity is arbitrary as long as the control in the display control apparatus 130 is satisfactorily performed. The VRAM 134 is also used for reading and writing when using the pachinko machine 10.

VRAM134は展開用バッファ141を備えており、展開用バッファ141には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から画像データが転送される。この場合、当該画像データは、その画像データを用いたVDP135における処理の実行タイミングとなるまでに事前に転送される。また、VRAM134には、VDP135により描画データ(生成データ)が作成されるフレームバッファ142が設けられている。また、VRAM134には、Zバッファ143、スクリーン用バッファ144及びモード用バッファ145が設けられているが、これらの詳細については後に説明する。   The VRAM 134 includes an expansion buffer 141, and image data is transferred from the memory module 133 to the expansion buffer 141 based on a data transfer instruction from the display CPU 131 to the memory module 133. In this case, the image data is transferred in advance before the execution timing of the process in the VDP 135 using the image data. Further, the VRAM 134 is provided with a frame buffer 142 in which drawing data (generated data) is created by the VDP 135. Further, the VRAM 134 is provided with a Z buffer 143, a screen buffer 144 and a mode buffer 145, the details of which will be described later.

VDP135は、表示CPU131からの描画指示に基づき、展開用バッファ141に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置31に対して描画を行う画像生成デバイスであり、図柄表示装置31において液晶表示部31aを駆動制御するように組み込まれた画像処理デバイス31bを操作する一種の描画回路である。VDP135はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。   The VDP 135 is an image generation device that performs drawing on the symbol display device 31 by specifically processing using data stored and held in the expansion buffer 141 based on a drawing instruction from the display CPU 131. This is a kind of drawing circuit for operating the image processing device 31b incorporated so as to drive and control the liquid crystal display unit 31a in the symbol display device 31. Since the VDP 135 is formed into an IC chip, it is also called a "drawing chip", and its substance is to be said to be a microcomputer chip incorporating firmware dedicated to drawing.

詳細には、VDP135は、ジオメトリ演算部151と、レンダリング部152と、レジスタ153と、表示モード制御部154と、表示回路155と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU131用のI/F156及びVRAM134用のI/F157と接続されている。   Specifically, the VDP 135 includes a geometry calculation unit 151, a rendering unit 152, a register 153, a display mode control unit 154, and a display circuit 155. Further, these circuits are connected to one another via a bus, and also connected to an I / F 156 for the display CPU 131 and an I / F 157 for the VRAM 134.

表示CPU131用のI/F156は、表示CPU131から送信された描画指示情報としての描画リストをレジスタ153に記憶させる。ジオメトリ演算部151は、レジスタ153に格納された描画リストに基づいて、配置対象として指定されているオブジェクトをワールド座標系内に配置する。また、ジオメトリ演算部151は、オブジェクトをワールド座標系内に配置する場合及び配置した後に、各種の座標変換処理を実行する。そして、最終的に表示面Gのスクリーン座標に対応する3次元空間に対応させて、オブジェクトをクリッピングする。   The I / F 156 for the display CPU 131 causes the register 153 to store the drawing list as the drawing instruction information transmitted from the display CPU 131. The geometry calculation unit 151 arranges the object specified as the arrangement target in the world coordinate system based on the drawing list stored in the register 153. Further, the geometry calculation unit 151 executes various coordinate conversion processes when and after arranging the object in the world coordinate system. Then, the object is clipped in correspondence with the three-dimensional space finally corresponding to the screen coordinates of the display surface G.

レンダリング部152は、レジスタ153に格納された描画リストに基づいて、クリッピングされた各オブジェクトに対して光源調整や、テクスチャの貼付を行い、オブジェクトの外観を決定する。また、レンダリング部152は、各オブジェクトを所定の2次元平面上に投影させて2次元データを作成するとともに、深度情報に基づく各種調整を行い2次元データである1フレーム分の描画データをフレームバッファ142に作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置31の表示面Gにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるのに必要なデータのことをいう。   The rendering unit 152 adjusts the light source and pastes the texture on each clipped object based on the drawing list stored in the register 153, and determines the appearance of the object. In addition, the rendering unit 152 projects each object on a predetermined two-dimensional plane to create two-dimensional data, performs various adjustments based on depth information, and performs frame adjustment of drawing data for one frame, which is two-dimensional data. Create at 142 The drawing data for one frame refers to data necessary for displaying an image at one update timing in a configuration in which the image on the display surface G of the symbol display device 31 is updated at a predetermined update timing. Say.

なお、ジオメトリ演算部151及びレンダリング部152が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリをVDP135に内蔵させ、当該制御プログラムと描画リストの内容によってジオメトリ演算部151及びレンダリング部152が処理を実行する構成としてもよい。また、メモリモジュール133から制御プログラムを事前に読み出す構成としてもよい。また、ジオメトリ演算部151及びレンダリング部152がプログラムを利用することなく、描画リストに対応したハード回路の動作のみで処理を実行する構成としてもよい。   Note that all of the control programs for operating the geometry calculation unit 151 and the rendering unit 152 may be provided by the drawing list, a memory in which the control program is stored in advance is built in the VDP 135, and the control program and the drawing list The geometry calculation unit 151 and the rendering unit 152 may execute processing according to the contents of the above. In addition, the control program may be read from the memory module 133 in advance. Further, the geometry calculation unit 151 and the rendering unit 152 may be configured to execute the processing only by the operation of the hardware circuit corresponding to the drawing list without using the program.

ここで、フレームバッファ142には、複数のフレーム領域142a,142bが設けられている。具体的には、第1フレーム領域142aと、第2フレーム領域142bとが設けられている。これら各フレーム領域142a,142bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域142a,142bにはそれぞれ、液晶表示部31a(すなわち表示面G)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。   Here, the frame buffer 142 is provided with a plurality of frame areas 142a and 142b. Specifically, a first frame area 142a and a second frame area 142b are provided. Each of the frame areas 142a and 142b is set to a capacity capable of storing one frame of drawing data. Specifically, each of the frame regions 142a and 142b includes a large number of unit areas corresponding to dots (pixels) of the liquid crystal display unit 31a (that is, the display surface G) at a predetermined magnification. Each unit area has a storage capacity capable of storing data for specifying which color is to be displayed. More specifically, the full color system is adopted, and 256 colors can be set for each of R (red), G (green) and B (blue) in each dot. Corresponding to this, in each unit area, 1 byte (8 bits) is allocated to each color of RGB. That is, each unit area has a storage capacity of at least 3 bytes.

なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。   The present invention is not limited to the full color system. For example, in a configuration in which only 256 colors can be displayed in each dot, the storage capacity required to store color information in each unit area may be 1 byte.

フレームバッファ142に第1フレーム領域142a及び第2フレーム領域142bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置31への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ142として、ダブルバッファ方式が採用されている。   By providing the first frame area 142a and the second frame area 142b in the frame buffer 142, drawing on the symbol display device 31 is executed using drawing data created in one of the frame areas. Creation of drawing data to be used in the future for other frame areas is executed. That is, the double buffer method is adopted as the frame buffer 142.

表示回路155では、第1フレーム領域142a又は第2フレーム領域142bに作成された描画データに基づいて液晶表示部31aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路155に接続された出力ポート138を介して図柄表示装置31に出力される。詳細には、出力対象のフレーム領域142a,142bから表示回路155へ描画データが転送される。その転送された描画データは図柄表示装置31の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置31の各ドットに対応した画像信号が生成されて出力される。なお、表示回路155からは水平同期信号又は垂直同期信号などの同期信号も出力される。   In the display circuit 155, an image signal corresponding to each dot of the liquid crystal display unit 31a is generated based on the drawing data generated in the first frame area 142a or the second frame area 142b, and the image signal is generated in the display circuit 155. It is output to the symbol display device 31 through the connected output port 138. Specifically, drawing data is transferred from the frame regions 142 a and 142 b to be output to the display circuit 155. The transferred drawing data is subjected to resolution adjustment by a scaler (not shown) so as to correspond to the resolution of the symbol display device 31 and converted into gradation data. Then, an image signal corresponding to each dot of the symbol display device 31 is generated and output based on the gradation data. The display circuit 155 also outputs a synchronization signal such as a horizontal synchronization signal or a vertical synchronization signal.

また、表示モード制御部154では、表示モードに対応した画像の表示を行う場合に、レジスタ153に格納された描画リストに基づいて、所定の処理を実行する。当該所定の処理については後に説明する。   Further, when displaying an image corresponding to the display mode, the display mode control unit 154 executes a predetermined process based on the drawing list stored in the register 153. The predetermined process will be described later.

<表示CPU131における基本的な処理>
次に、表示CPU131における基本的な処理について説明する。
<Basic Process in Display CPU 131>
Next, basic processing in the display CPU 131 will be described.

<メイン処理>
先ず、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合に起動されるメイン処理について説明する。図12はメイン処理を示すフローチャートである。
<Main processing>
First, the main processing to be started when the supply of the operation power to the display CPU 131 is started or when the pachinko machine 10 is reset will be described. FIG. 12 is a flowchart showing the main process.

メイン処理では、先ずステップS701にて、初期設定処理を実行する。   In the main process, first, in step S701, an initialization process is performed.

初期設定処理では、表示回路155のスケーラの初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bに作成される描画データに基づいて画像信号が出力される場合に、その画像信号が液晶表示部31aのドット数に対応させて出力されるように、VDP135に対して解像度初期調整用コマンドを送信する。この初期調整値は、パチンコ機10の設計段階において調整されており、その調整結果が解像度初期調整用コマンドとして設定されている。   In the initial setting process, an initial adjustment process of the scaler of the display circuit 155 is performed. In the initial adjustment process, when an image signal is output based on drawing data created in each of the frame areas 142a and 142b of the VRAM 134, the image signal is output in correspondence with the number of dots of the liquid crystal display unit 31a. Thus, the command for initial resolution adjustment is transmitted to the VDP 135. The initial adjustment value is adjusted at the design stage of the pachinko machine 10, and the adjustment result is set as a resolution initial adjustment command.

VDP135に解像度初期調整用コマンドが送信されることで、VDP135のレジスタ153におけるスケーラの解像度調整用のエリアに初期調整値に対応した数値情報が格納される。これにより、VDP135から図柄表示装置31に画像信号が出力される場合、描画データに対応した画像信号が液晶表示部31aのドット数に調整された状態で出力される。   By transmitting a resolution initial adjustment command to the VDP 135, numerical information corresponding to the initial adjustment value is stored in the resolution adjustment area of the scaler in the register 153 of the VDP 135. Thus, when an image signal is output from the VDP 135 to the symbol display device 31, an image signal corresponding to drawing data is output in a state of being adjusted to the number of dots of the liquid crystal display unit 31a.

また、初期設定処理では、地色の初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bの単位エリアに初期値として設定される数値情報が初期数値情報となるように、VDP135に対して地色初期調整用コマンドを送信する。この初期数値情報は、パチンコ機10の設計段階において調整されており、その調整結果が地色初期調整用コマンドとして設定されている。   In the initial setting process, an initial adjustment process of ground color is executed. In the initial adjustment process, a ground color initial adjustment command is transmitted to the VDP 135 such that numerical value information set as an initial value in unit areas of the frame areas 142a and 142b of the VRAM 134 becomes the initial numerical value information. The initial numerical information is adjusted at the design stage of the pachinko machine 10, and the adjustment result is set as a ground color initial adjustment command.

VDP135は地色初期調整用コマンドが送信されることで、VDP135のレジスタ153における地色調整用のエリアに初期数値情報が格納される。これにより、描画データが作成される場合に初期数値情報からの更新が行われなかった単位エリアに対応したドットでは、地色が表示されることとなる。なお、初期の地色として本パチンコ機10では黒色が設定されているが、これに限定されることはなく任意である。   When the VDP 135 transmits a ground color initial adjustment command, initial numerical information is stored in an area for ground color adjustment in the register 153 of the VDP 135. As a result, when the drawing data is created, the ground color is displayed at the dots corresponding to the unit areas for which updating from the initial numerical information has not been performed. Although black is set in the present pachinko machine 10 as an initial ground color, the present invention is not limited to this and is optional.

ステップS701にて初期設定処理を実行した後は、ステップS702にて、各種割込みを許可する。これにより、表示CPU131においてコマンド割込み処理及びV割込み処理を実行することが許容される。その後、メイン処理では、ステップS702の処理を繰り返す。   After the initial setting process is performed in step S701, various interrupts are permitted in step S702. Thus, execution of command interrupt processing and V interrupt processing in the display CPU 131 is permitted. Thereafter, in the main process, the process of step S702 is repeated.

<コマンド割込み処理>
次に、コマンド割込み処理について説明する。
<Command interrupt processing>
Next, command interrupt processing will be described.

コマンド割込み処理は、音声発光制御装置60からストローブ信号を受信した場合に、その時点で実行されている処理が何であったとしても最優先で起動される処理である。コマンド割込み処理では、入力ポート137にて受信しているコマンドを、ワークRAM132に設けられたコマンドバッファに転送し、さらにコマンドを新たに受信したことを示すフラグを対応するエリアにセットする。その後、コマンド割込み処理を終了し、当該コマンド割込み処理の起動前の処理に復帰する。   The command interrupt process is a process that is activated with the highest priority when the strobe signal is received from the audio light emission control device 60, regardless of the process being executed at that time. In the command interrupt process, the command received at the input port 137 is transferred to the command buffer provided in the work RAM 132, and a flag indicating that a command is newly received is set in the corresponding area. Thereafter, the command interrupt process is ended, and the process returns to the process before the start of the command interrupt process.

<V割込み処理>
次に、V割込み処理について、図13のフローチャートを参照しながら説明する。V割込み処理は、予め定められた周期、具体的には20msec周期で繰り返し起動される。
<V interrupt processing>
Next, the V interrupt process will be described with reference to the flowchart of FIG. The V interrupt process is repeatedly activated in a predetermined cycle, specifically, a cycle of 20 msec.

なお、VDP135は図柄表示装置31に1フレーム分の画像信号を出力する場合、表示面Gの左上の隅角部分にあるドットから画像信号の出力を始めて、当該ドットを一端に含む横ライン上に並ぶドットに対して順次画像信号を出力するとともに、各横ラインに対して上から順に左から右のドットへと画像信号を出力する。そして、表示面Gの右下の隅角部分にあるドットに対して最後に画像信号を出力する。この場合に、VDP135は当該最後のドットに対して画像信号を出力したタイミングで、表示CPU131へV割込み信号を出力して1フレームの画像の更新が完了したことを表示CPU131に認識させる。このV割込み信号の出力周期は20msecとなっている。この点、V割込み処理は、V割込み信号の受信に同期して起動されると見なすこともできる。但し、V割込み信号を受信していなくても、前回のV割込み処理が起動されてから20msecが経過している場合には、新たにV割込み処理が起動される。   When the VDP 135 outputs an image signal for one frame to the symbol display device 31, the VDP 135 starts outputting the image signal from the dot at the upper left corner of the display surface G, and on the horizontal line including the dot at one end An image signal is sequentially output to the arranged dots, and an image signal is output from left to right dots in order from the top to each horizontal line. Then, an image signal is finally output to the dots in the lower right corner portion of the display surface G. In this case, the VDP 135 outputs the V interrupt signal to the display CPU 131 at the timing when the image signal is output for the last dot, and causes the display CPU 131 to recognize that the update of the image of one frame is completed. The output cycle of this V interrupt signal is 20 msec. In this regard, the V interrupt process can also be considered to be activated in synchronization with the reception of the V interrupt signal. However, even if the V interrupt signal is not received, if 20 msec has elapsed since the previous V interrupt process was activated, the V interrupt process is newly activated.

V割込み処理では、先ずステップS801にて、コマンド解析処理を実行する。具体的には、ワークRAM132のコマンドバッファに格納されているコマンドの内容を解析する。続くステップS802では、ステップS801の解析結果に基づいて、新規コマンドを受信しているか否かを判定する。新規コマンドを受信している場合には、ステップS803にて、コマンド対応処理を実行する。   In the V interrupt process, first, in step S801, a command analysis process is executed. Specifically, the contents of the command stored in the command buffer of the work RAM 132 are analyzed. In the following step S802, it is determined based on the analysis result in step S801 whether or not a new command has been received. If a new command has been received, command corresponding processing is executed in step S803.

コマンド対応処理では、受信しているコマンドに対応したプログラムを実行するためのデータテーブルをメモリモジュール133から読み出す。データテーブルとは、受信したコマンドに対応した動画を図柄表示装置31の表示面Gに表示させる場合において、画像の各更新タイミングにおける1フレーム分の画像を表示させるのに必要な処理が定められた情報群である。   In the command handling process, a data table for executing a program corresponding to the received command is read from the memory module 133. In the data table, when displaying a moving image corresponding to a received command on the display surface G of the symbol display device 31, processing required to display an image for one frame at each update timing of the image is defined. It is an information group.

ここで、表示CPU131が音声発光制御装置60から受信するコマンドとしては、既に説明したとおり、変動パターンコマンド、図柄指定コマンド及び予告コマンドがある。これらのコマンドを受信した場合、それら各コマンドに対応した遊技回用演出を図柄表示装置31にて実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては終了コマンドがあり、当該コマンドを受信した場合には現状実行されている遊技回用演出を最終停止させるために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、大当たり演出用の各種コマンドがあり、当該コマンドを受信した場合には大当たり演出を実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、デモ表示用のコマンドがあり、当該コマンドを受信した場合にはデモ表示を実行するために必要なデータテーブルを読み出す。さらに読み出したデータテーブルに基づき、処理を実行する場合に必要な他のプログラムデータも読み出す。   Here, as the command received by the display CPU 131 from the voice emission control device 60, there are a variation pattern command, a symbol designation command, and a notice command as described above. When these commands are received, a data table necessary for executing the game-use effects corresponding to the respective commands is read out on the symbol display device 31. Further, there is an end command as the command to be received, and when the command is received, a data table necessary for finally stopping the game effect currently being executed is read out. The received command includes various commands for jackpot effect, and when the command is received, the data table necessary for executing the jackpot effect is read out. The command to be received includes a command for demonstration display, and when the command is received, the data table necessary for executing the demonstration display is read. Further, based on the read data table, other program data necessary for executing the process is also read.

ステップS803にてコマンド対応処理を実行した後は、ステップS804にて、ポインタ更新処理を実行する。当該ポインタ更新処理では、データテーブルに設定されているポインタの情報を、1フレーム分進めるように更新する。これにより、今回の更新タイミングに対応した1フレーム分の画像を表示させるために必要な処理を、表示CPU131において把握することが可能となる。   After executing the command corresponding process in step S803, pointer update process is performed in step S804. In the pointer updating process, the pointer information set in the data table is updated to advance by one frame. As a result, the display CPU 131 can grasp the processing required to display an image of one frame corresponding to the update timing of this time.

続くステップS805では、タスク処理を実行する。タスク処理では、今回の更新タイミングに対応した1フレーム分の画像を表示させるために、VDP135に描画指示を行う上で必要なパラメータの演算を行う。当該タスク処理の詳細については後に説明する。   In the following step S805, task processing is performed. In task processing, in order to display an image of one frame corresponding to the update timing of this time, calculation of parameters necessary for instructing drawing to the VDP 135 is performed. Details of the task processing will be described later.

続くステップS806では、描画リスト出力処理を実行する。描画リスト出力処理では、今回の処理回に係る更新タイミングに対応した1フレーム分の画像を表示させるための描画リストを作成し、その作成した描画リストをVDP135に送信する。この場合、当該描画リストでは、直前のタスク処理にて把握された画像が描画対象となり、さらに当該タスク処理にて更新したパラメータの情報が合わせて設定される。VDP135では、この描画リストに従ってVRAM134のフレーム領域142a,142bに描画データを作成する。このVDP135における処理については後に詳細に説明する。その後、本V割込み処理を終了する。   In the following step S806, a drawing list output process is executed. In the drawing list output process, a drawing list for displaying an image of one frame corresponding to the update timing related to the current processing time is created, and the created drawing list is transmitted to the VDP 135. In this case, in the drawing list, an image grasped in the immediately preceding task processing is a drawing target, and information of parameters updated in the task processing is also set. The VDP 135 creates drawing data in the frame areas 142a and 142b of the VRAM 134 according to the drawing list. The processing in this VDP 135 will be described in detail later. Thereafter, the V interrupt processing is ended.

<表示CPU131におけるタスク処理>
ここで、タスク処理について、図14のフローチャートを参照しながら説明する。
<Task processing in display CPU 131>
Here, the task processing will be described with reference to the flowchart of FIG.

タスク処理では先ずステップS901にて、制御開始用の設定処理を実行する。制御開始用の設定処理では、今回の処理回で表示CPU131において新たに制御(演算)を開始する個別画像を設定するための処理を実行する。なお、個別画像とは、背面用の画像データなどの静止画像データにより規定される一の2次元画像や、オブジェクト用の画像データとテクスチャ用の画像データとの組み合わせにより規定される一の3次元画像のことである。   In task processing, first, in step S901, setting processing for control start is executed. In the setting process for control start, a process for setting an individual image for newly starting control (calculation) in the display CPU 131 at the current processing time is executed. The individual image refers to one two-dimensional image defined by still image data such as image data for the back side, and one three-dimensional defined by a combination of image data for an object and image data for a texture. It is an image.

制御開始用の設定処理について具体的には、先ず現状設定されているデータテーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM132において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータを設定する。   About the setting process for control start Specifically, based on the currently set data table, it is determined whether there is an individual image to be the control start target in the current processing cycle. If it exists, the work RAM 132 searches an empty buffer area for performing various calculations in order to control the individual image, and corresponds one-to-one to the individual image grasped as the control start target Reserve free buffer space to Furthermore, the initialization processing is executed for all the reserved free buffer areas, and the control start parameters corresponding to the individual image are set for the initialized free buffer areas.

続くステップS902では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。   In the following step S902, the control update target is grasped. The control update target is an individual image for which control start processing has been completed, and is an individual image that may be included in an image of one frame after the current processing cycle.

続くステップS903では、背景用演算処理を実行する。背景用演算処理では、背景の画像を構成することとなる最背面用の画像や、背景用キャラクタについて、ワールド座標系内における座標、回転角度、スケール、明暗を付けるためのライトの情報、投影を行うためのカメラの情報、及びZテスト指定などといった描画リストを作成する上で必要な各種パラメータを演算して導き出す処理を実行する。   In the following step S903, the background calculation process is executed. In the background processing, the coordinates, rotation angle, scale, light information for lightening and darkening, and projection in the world coordinate system are used for the image for the backmost side that constitutes the image of the background and the background character. A process of computing and deriving various parameters necessary for creating a drawing list such as camera information to be performed and Z test specification is executed.

続くステップS904では、演出用演算処理を実行する。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる個別画像について、上記各種パラメータを演算して導き出す処理を実行する。   In the subsequent step S904, effect calculation processing is performed. In the effect calculation process, the above-mentioned various parameters are calculated and derived for individual images to be displayed in various effects such as reach display, advance notice display, and jackpot effect.

続くステップS905では、図柄用演算処理を実行する。図柄用演算処理では、各遊技回において変動表示の対象となる図柄の画像について、上記各種パラメータを演算して導き出す処理を実行する。   In the following step S 905, symbol operation processing is executed. In the symbol calculation process, a process of calculating and deriving the above-mentioned various parameters is executed for an image of a pattern to be subjected to variable display in each game run.

ちなみに、ステップS903〜ステップS905の各処理では、ステップS901にて設定された制御開始用のパラメータを更新する処理を実行する。また、ステップS903〜ステップS905の各処理では、個別画像の各種パラメータを画像更新タイミングとなる度に特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、メモリモジュール133に予め記憶されており、個別画像の種類に応じて定められている。   Incidentally, in each processing of step S903 to step S905, processing of updating the control start parameter set in step S901 is executed. Also, in each processing of step S903 to step S905, animation data set so as to change various parameters of the individual image in accordance with a specific pattern each time image update timing is used is used. The animation data is stored in advance in the memory module 133, and is determined according to the type of individual image.

その後、ステップS906にてワールド座標系への配置対象の把握処理を実行した後に、本タスク処理を終了する。ワールド座標系への配置対象の把握処理では、上記ステップS903〜ステップS905の各処理により制御更新対象となった各個別画像のうち、今回の描画リストにおいて描画対象として設定する個別画像を把握する処理を実行する。当該把握は、現状設定されているデータテーブルに基づいて行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。   Thereafter, in step S906, processing for grasping the placement target in the world coordinate system is executed, and then this task processing ends. In the process of grasping the arrangement target in the world coordinate system, a process of grasping an individual image to be set as a drawing object in the current drawing list, out of the individual images subjected to control update in each process of steps S903 to S905. Run. The grasping is performed based on the currently set data table. The individual image grasped here is set as a drawing target in the drawing list.

つまり、表示CPU131にて制御対象となる個別画像の方が、VDP135にて制御対象となる個別画像よりも多く設定されているため、ステップS906においてその調整を行っている。但し、これに限定されることはなく、表示CPU131において制御対象となる個別画像と、VDP135において制御対象となる個別画像とが同一である構成としてもよく、この場合、ステップS906の処理を実行する必要がなくなる。   That is, since the individual images to be controlled by the display CPU 131 are set more than the individual images to be controlled by the VDP 135, the adjustment is performed in step S906. However, the present invention is not limited to this, and the individual image to be controlled in the display CPU 131 may be identical to the individual image to be controlled in the VDP 135. In this case, the process of step S906 is executed. There is no need.

なお、ステップS901の制御開始用の設定処理において、表示CPU131の処理負荷を分散させるべく、各個別画像の制御開始タイミングが分散させて設定されている構成としてもよい。   Note that, in the setting process for control start in step S901, the control start timings of the individual images may be set to be dispersed in order to disperse the processing load of the display CPU 131.

<VDP135における基本的な処理>
次に、VDP135にて実行される基本的な処理について説明する。
<Basic processing in VDP 135>
Next, basic processing executed by the VDP 135 will be described.

VDP135では、表示CPU131から送信されたコマンドに基づいてレジスタ153の値を設定する処理、表示CPU131から送信された描画リストに基づいてフレームバッファ142のフレーム領域142a,142bに描画データを作成する処理、フレーム領域142a,142bに作成された描画データに基づいて図柄表示装置31に画像信号を出力する処理が少なくとも実行される。   The VDP 135 sets the value of the register 153 based on the command sent from the display CPU 131, creates drawing data in the frame areas 142a and 142b of the frame buffer 142 based on the drawing list sent from the display CPU 131, At least a process of outputting an image signal to the symbol display device 31 is executed based on the drawing data created in the frame areas 142a and 142b.

上記各処理のうち、レジスタ153の値を設定する処理は、表示CPU131用のI/F156に付随する図示しない回路によって、コマンドを受信した場合にその都度実行される。また、描画データを作成する処理は、ジオメトリ演算部151及びレンダリング部152の協同により、予め定められた周期(例えば、20msec)で繰り返し実行される。また、画像信号を出力する処理は、表示回路155によって、予め定められた画像信号の出力開始タイミングとなることで実行される。   Among the above processes, the process of setting the value of the register 153 is executed each time a command is received by a circuit (not shown) attached to the I / F 156 for the display CPU 131. Further, the process of creating the drawing data is repeatedly performed in a predetermined cycle (for example, 20 msec) by the cooperation of the geometry calculation unit 151 and the rendering unit 152. Further, the process of outputting the image signal is executed by the display circuit 155 when the output start timing of the image signal is determined in advance.

以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU131からVDP135に送信される描画リストの内容について説明する。図15(a)〜(c)は描画リストの内容を説明するための説明図である。   The process of creating the drawing data will be described in detail below. Prior to the description of the process, the contents of the drawing list transmitted from the display CPU 131 to the VDP 135 will be described. FIGS. 15 (a) to 15 (c) are explanatory diagrams for explaining the contents of the drawing list.

描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像を、第1フレーム領域142a及び第2フレーム領域142bのうちいずれを作成対象とするかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、各種指定情報が設定されている。各種指定情報の内容については後に説明する。なお、VDP135にて取り扱う画像データとして動画像データが含まれている場合には、ヘッダ情報において、デコード指定の有無及びデコード対象となる動画像データがメモリモジュール133において記憶されているアドレスの情報が設定されていてもよい。   Header information is set in the drawing list. In the header information, information of a target buffer is set, which is information indicating which of the first frame area 142a and the second frame area 142b is to be created an image of one frame related to the drawing list. There is. Further, various designation information is set in the header information. The contents of the various designation information will be described later. When moving image data is included as image data handled by the VDP 135, in the header information, the presence / absence of decoding designation and information on the address at which the moving image data to be decoded is stored in the memory module 133 are included. It may be set.

描画リストには、上記ヘッダ情報以外にも、今回の描画データの作成に際してワールド座標系への配置対象となる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させてパラメータの情報が設定されている。   In the drawing list, in addition to the above-mentioned header information, a plurality of types of image data to be arranged in the world coordinate system at the time of creation of the drawing data this time are set. Parameter information of each image data is set. In detail, the information of the drawing order is set so as to be the numerical value information of serial numbers, and the information of the parameters is set in correspondence with each numerical information in a one-to-one manner.

図15(a)の描画リストでは、背面用の画像データが最初の描画対象として設定されているとともに、背景用オブジェクトAが2番目、背景用オブジェクトBが3番目、・・・として設定されている。また、これら背景用の画像データよりも後の順番として、演出用の画像データが設定されており、例えば演出用オブジェクトAがm番目、演出用オブジェクトBがm+1番目、・・・として設定されている。また、これら演出用の画像データよりも後の順番として、図柄用の画像データが設定されており、例えば図柄用オブジェクトAがn番目、図柄用オブジェクトBがn+1番目、・・・として設定されている。   In the drawing list in FIG. 15A, the image data for the back is set as the first drawing object, and the background object A is set as the second, the background object B as the third, and so on. There is. Further, image data for effect is set as the order after the image data for background, for example, the object for effect A is set to the m-th, the object for effect B is set to the m + 1-th,. There is. In addition, the image data for symbols is set as the order after the image data for these effects, for example, the symbol object A is set as the n-th, the symbol object B is set as the n + 1-th, ... There is.

なお、描画リストにおいて各画像データが設定されている順番は上記のものに限定されることはなく、設定されている順番が上記のものとは逆の順番であってもよく、図柄用の画像データの後に演出用の画像データ又は背景用の画像データが設定されていてもよく、所定の演出用の画像データと他の演出用の画像データとの間の順番に図柄用の画像データが設定されていてもよい。   The order in which each image data is set in the drawing list is not limited to the above, and the set order may be the reverse of the above order, and the image for symbols The image data for presentation or the image data for background may be set after the data, and the image data for design is set in the order between the predetermined image data for presentation and the image data for other presentation It may be done.

パラメータの情報P(1),P(2),P(3),・・・,P(m),P(m+1),・・・,P(n),P(n+1),・・・には、複数種類のパラメータが設定されている。背面用の画像データのパラメータP(1)について具体的には、図15(b)に示すように、メモリモジュール133において背面用の画像データが記憶されているエリアのアドレスの情報と、背面用の画像データを設定する場合におけるワールド座標系内の位置を示す座標の情報(X値の情報,Y値の情報,Z値の情報)と、背面用の画像データを設定する場合におけるワールド座標系内の回転角度を示す回転角度の情報と、背面用の画像データの初期状態として設定されているスケールに対して、ワールド座標系に設定する際の倍率を示すスケールの情報と、背面用の画像データを設定する場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、が設定されている。   Parameter information P (1), P (2), P (3), ..., P (m), P (m + 1), ..., P (n), P (n + 1), ... There are several types of parameters set. More specifically, as shown in FIG. 15B, the parameter P (1) of the image data for the back surface is information of the address of the area where the image data for the back surface is stored in the memory module 133 and the back surface image data. Information of the coordinates (X value information, Y value information, Z value information) indicating the position in the world coordinate system when setting the image data of 1 and the world coordinate system when setting the image data for back side Information on the rotation angle indicating the rotation angle in the image, scale information indicating the magnification when setting in the world coordinate system with respect to the scale set as the initial state of the image data for the back surface, and the image for the back surface In the case of setting data, uniform α value information indicating the entire transparency information (or transparency information) is set.

ここで、座標の情報は、オブジェクト用の画像データの全頂点について個別に設定される。また、この座標の情報はオブジェクト用の画像データに対して設定されているが、テクスチャ用の画像データには設定されていない。テクスチャ用の画像データは、各ピクセルの座標値が、オブジェクト用の画像データの各頂点に関連付けて予め定められている。この座標値は、ワールド座標系における座標値とは異なるUV座標値であり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されている。このUV座標値はテクスチャマッピングする際にVDP135により参照される。   Here, coordinate information is individually set for all vertices of image data for an object. Moreover, although the information of this coordinate is set to the image data for the object, it is not set to the image data for the texture. In the image data for texture, the coordinate value of each pixel is predetermined in association with each vertex of the image data for object. This coordinate value is a UV coordinate value different from the coordinate value in the world coordinate system, and is stored in the memory module 133 in a state of being attached to the combination of the image data for the object and the image data for the texture. This UV coordinate value is referred to by the VDP 135 in texture mapping.

パラメータ(P1)には、背面用の画像データを描画用の仮想2次元平面上に投影する場合における仮想カメラの座標及び向きの情報を含むカメラの情報と、背面用の画像データをレンダリングする場合における陰影を決定する仮想光源の位置及び向きの情報を含むライトの情報と、が設定されている。   When rendering camera information including information on coordinates and orientation of a virtual camera in the case of projecting image data for the back on a virtual two-dimensional plane for drawing in the parameter (P1) and image data for the back And light information including information on the position and orientation of the virtual light source that determines the shadow in.

パラメータ(P1)には、隠面消去を行う手法の一種であるZバッファ法の適用有無を示すZテスト指定の情報が設定されている。Zバッファ法とは、ワールド座標系内において多数のオブジェクトや2次元画像が奥行き方向(Z軸方向)に重なった場合に、Z軸上に並ぶ各ピクセル(又は各ボクセル、各画素、各ポリゴン)について視点からの距離を順次参照し、最も視点に近いピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに設定する深度調整用の処理方法である。当該Zバッファ法を適用する場合に、VRAM134に設けられたZバッファ143が利用される。Zバッファ143を利用した隠面処理の具体的な処理構成については後に説明する。   In the parameter (P1), Z test designation information indicating whether or not to apply the Z buffer method, which is a type of hidden surface removal method, is set. In the Z-buffer method, each pixel (or each voxel, each pixel, each polygon) aligned on the Z axis when many objects or a two-dimensional image overlap in the depth direction (Z axis direction) in the world coordinate system. For the depth adjustment processing method, the distance from the viewpoint is sequentially referred to, and the numerical information set to the pixel closest to the viewpoint is set to the corresponding unit area in the frame regions 142a and 142b. When applying the Z buffer method, the Z buffer 143 provided in the VRAM 134 is used. A specific processing configuration of hidden surface processing using the Z buffer 143 will be described later.

なお、上記隠面消去を行う手法としてZバッファ法以外にも、Zソート法が設定されている。Zソート法とは、Z軸上に並ぶ各ピクセルについて、各ピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに順次設定する深度調整用の処理方法である。当該Zソート法を適用する場合には、各ピクセルに設定されているα値が参照されて、Z軸上に並ぶ各ピクセルの色情報に対応した数値情報に対して対応するα値が適用された状態で、それら数値情報の加算処理や融合用の演算処理が実行されることとなる。Zソートによる隠面処理の具体的な処理構成の説明は省略するが、エフェクト画像を表示させる場合に起動される。   In addition to the Z buffer method, a Z sort method is set as a method of performing the hidden surface removal. The Z sort method is a processing method for depth adjustment in which numerical information set in each pixel is sequentially set in corresponding unit areas in the frame regions 142a and 142b for each pixel aligned on the Z axis. When the Z sort method is applied, the α value set for each pixel is referred to, and the corresponding α value is applied to numerical information corresponding to color information of each pixel aligned on the Z axis. In this state, addition processing of the numerical information and calculation processing for fusion are performed. Although the description of the specific processing configuration of the hidden surface processing by Z sorting is omitted, the processing is started when the effect image is displayed.

パラメータ(P1)には、αデータの適用有無及び適用対象を示すαデータ指定の情報と、フォグの適用有無及び適用対象を示すフォグ指定の情報と、背景画像を表示するために作成された背景画像用の描画データについて別保存の有無を示す別保存指定の情報と、が設定されている。   The parameter (P1) includes information on α data specification indicating the application status and application target of α data, fog specification information indicating the application status and application target of fog, and a background created to display a background image. Information on separate storage designation indicating the presence or absence of separate storage for drawing data for an image is set.

ここで、α値とは対応するピクセルの透過情報のことである。このα値の描画リスト上における設定の仕方として、上記一律α値を指定する方法と、αデータ指定を行う方法とがある。一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU131における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、2次元の静止画像データやテクスチャ用の画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。当該αデータは、同一の静止画像データ又は同一のテクスチャ用の画像データの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。   Here, the α value is transmission information of the corresponding pixel. There are two methods of setting the α value on the drawing list: a method of specifying the above-mentioned uniform α value and a method of specifying α data. The uniform α value is transmission information applied to all pixels of one image data, and is numerical information derived as a calculation result in the display CPU 131. The uniform α value is uniformly applied to all pixels of the image data. On the other hand, α data is transmission information applied in units of pixels of two-dimensional still image data and image data for texture, and is stored in advance in the memory module 133 as image data. The alpha data can make transmission information different for each pixel within the range of the same still image data or the same image data for texture. The α data has a larger data capacity than program data for uniformly setting the α value.

上記のように一律α値とαデータとが設定されていることにより、2次元の静止画像データやテクスチャ用の画像データの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。   As described above, since the alpha value and the alpha data are uniformly set, the transparency of the two-dimensional still image data and the image data for texture is not finely controlled in pixel units, but uniformly for all pixels. In the situation where it should be controlled, it is possible to reduce the required data capacity by being able to cope with the uniform α value, and it becomes possible to finely control the transparency in pixel units by applying the α data.

フォグとは、ワールド座標系において所定方向、具体的にはZ軸方向の位置に対する明るさの度合いを調整するための情報である。フォグは、霧を表現したり、洞窟内を表現したりする場合に使用される。ここで、1フレーム分の画像の全体に対して単一のフォグを適用してもよい。この場合、1フレーム分の画像に一定の態様でフォグがかかることとなる。また、これに代えて、1フレーム分の画像の全体に対して複数のフォグを適用してもよい。この場合、Z軸方向の奥側に配置されているオブジェクトに対してその他のオブジェクトと同様のフォグを適用すると暗すぎることで質感がでないような状況において、当該オブジェクトには別のフォグを設定する構成とするとよい。これにより、上記質感を損なわせないようにしつつ、フォグを設定することによる効果を得ることができる。   Fog is information for adjusting the degree of brightness with respect to a position in a predetermined direction in the world coordinate system, specifically, in the Z-axis direction. Fog is used when expressing fog or expressing in a cave. Here, a single fog may be applied to the entire image of one frame. In this case, fog is applied in a fixed manner to an image of one frame. Alternatively, a plurality of fogs may be applied to the entire image of one frame. In this case, another fog is set to the object in a situation where the texture is not displayed because it is too dark when applying the same fog as the other objects to the object arranged on the far side in the Z-axis direction. It is good to be configured. As a result, it is possible to obtain an effect by setting the fog while preventing the above-mentioned texture from being lost.

別保存とは、一旦作成した背景画像用の描画データをその後のフレームにおいてそのまま使用するために、フレーム領域142a,142bとは別に設けられたモード用バッファ145に書き込み保存しておくことをいう。モード用バッファ145には、図4に示すように、各表示モードに1対1で対応するように、第1モード用領域145aと、第2モード用領域145bとが設けられている。この別保存の具体的な内容については、後に詳細に説明する。   The separate storage means writing and storing in the mode buffer 145 provided separately from the frame areas 142a and 142b, in order to use the drawing data for the background image once created in the subsequent frame as it is. As shown in FIG. 4, the mode buffer 145 is provided with a first mode area 145a and a second mode area 145b so as to correspond to each display mode on a one-to-one basis. The specific content of this separate storage will be described in detail later.

パラメータP(2)といった他のパラメータでは、図15(c)に示すように、上記図15(b)の各種情報のうち、背面用の画像データの情報に代えて、オブジェクトの情報とテクスチャの情報とが設定されている。これらの情報としては、メモリモジュール133においてオブジェクトやテクスチャが記憶されているエリアのアドレスの情報が設定されている。   In the other parameters such as parameter P (2), as shown in FIG. 15 (c), among the various information in FIG. 15 (b) above, instead of the information on the image data for the back side, Information is set. As these pieces of information, information of an address of an area in which an object or texture is stored in the memory module 133 is set.

VDP135における描画処理について、図16のフローチャートを参照しながら説明する。なお、以下の説明では、描画処理の実行に伴い描画データが作成される様子を、図17を参照しながら説明する。   The drawing process in the VDP 135 will be described with reference to the flowchart of FIG. In the following description, how drawing data is created along with the execution of drawing processing will be described with reference to FIG.

先ずステップS1001では、表示CPU131から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS1002にて、背景用の設定処理を実行する。   First, in step S1001, it is determined whether a new drawing list has been received from the display CPU 131 or not. If a new drawing list has been received, in step S1002, a setting process for background is executed.

背景用の設定処理では、今回の描画リストにて指定されている画像データのうち、背景画像を表示するための背面用の画像データ及びキャラクタ用のオブジェクトを把握する。そして、それら画像データやキャラクタ用のオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。   In the setting process for the background, among the image data specified in the drawing list this time, the image data for the back surface for displaying the background image and the object for the character are grasped. Then, it is determined whether the image data and the object for the character are already arranged in the world coordinate system.

配置されていない場合には、ワールド座標系への配置を行うために参照する空きバッファ領域を画像データ毎に検索し、空きバッファ領域を確保した場合にはその領域の初期化処理を実行する。その後、メモリモジュール133においてその画像データが記憶されているアドレスを把握して読み出すとともに、描画リストに指定された座標、回転角度及びスケールとなるように、その画像データについてのローカル座標系の座標値をワールド座標系の座標値に変換させるワールド変換処理を実行して、上記確保したバッファ領域に設定する。   If it is not arranged, a vacant buffer area to be referred to for arrangement in the world coordinate system is searched for each image data, and if a vacant buffer area is secured, initialization processing of that area is executed. Thereafter, the memory module 133 grasps and reads the address at which the image data is stored, and coordinates values of the local coordinate system for the image data so as to become the coordinates, rotation angle and scale specified in the drawing list Is converted into coordinate values of the world coordinate system, and is set in the secured buffer area.

配置されている場合には、既に確保されたバッファ領域に設定されている各種パラメータの更新処理を実行する。また、背景用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない背景用の画像データを消去する制御終了処理を実行する。   If it is allocated, the update processing of various parameters set in the already reserved buffer area is executed. In addition, in the setting processing for background, control termination processing is executed to delete the image data for background not designated in the current drawing list among the image data already arranged in the world coordinate system.

続くステップS1003では、演出用の設定処理を実行する。演出用の設定処理では、今回の描画リストにて指定されている画像データのうち、演出画像を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、演出用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない演出用の画像データを消去する制御終了処理を実行する。   In the subsequent step S1003, setting processing for effect is executed. In the effect setting process, among the image data designated in the current drawing list, an object for displaying the effect image is grasped. Then, it is determined whether the grasped object is already arranged in the world coordinate system. If not arranged, processing for starting arrangement is executed as in the case described in the setting processing for background. If it is allocated, update processing of various parameters is executed. Further, in the setting process for effect, a control end process is executed to delete the image data for effect not specified in the current drawing list among the image data already arranged in the world coordinate system.

続くステップS1004では、図柄用の設定処理を実行する。図柄用の設定処理では、今回の描画リストにて指定されている画像データのうち、図柄を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、図柄用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない図柄用の画像データを消去する制御終了処理を実行する。   In the subsequent step S1004, setting processing for symbols is executed. In the setting process for symbols, among the image data designated in the current drawing list, an object for displaying the symbols is grasped. Then, it is determined whether the grasped object is already arranged in the world coordinate system. If not arranged, processing for starting arrangement is executed as in the case described in the setting processing for background. If it is allocated, update processing of various parameters is executed. Further, in the setting process for symbols, control end processing is executed to delete the image data for symbols not specified in the current drawing list among the image data already arranged in the world coordinate system.

上記ステップS1002〜ステップS1004の処理が実行されることにより、図17に示すように、X軸,Y軸,Z軸で規定されたワールド座標系内に、描画リストにより配置対象として指定されている最背面画像PC1と、各種オブジェクトPC2〜PC10とが、同じく描画リストにより指定されている座標、回転角度及びスケールで配置されたシーンの設定が完了する。   Execution of the processes in steps S1002 to S1004 causes the drawing list to be specified as an arrangement target in the world coordinate system defined by the X axis, Y axis, and Z axis as shown in FIG. The setting of the scene in which the backmost image PC1 and the various objects PC2 to PC10 are arranged at the coordinates, the rotation angle, and the scale which are also designated by the drawing list is completed.

なお、図17においては、最背面画像PC1や各種オブジェクトPC2〜PC10が配置されている様子を簡易的に示している。また、最背面画像PC1は、各種オブジェクトPC2〜PC10の全てに対してZ軸方向の座標が奥側に設定されている必要はなく、例えば、最背面画像PC1が曲げられた状態又は傾斜した状態で配置されていることにより、一部のオブジェクトよりもZ軸方向の座標が手前側となる構成としてもよい。但し、この一部のオブジェクトとX軸方向の座標及びY軸方向の座標が同一である最背面画像PC1の領域は、そのオブジェクトよりもZ軸方向の座標が奥側であることにより、全てのオブジェクトが最背面画像PC1により覆われない状態となる。   Note that FIG. 17 simply shows how the rearmost image PC1 and the various objects PC2 to PC10 are arranged. In the backmost image PC1, the coordinates in the Z-axis direction need not be set to the back side with respect to all the various objects PC2 to PC10. For example, the backmost image PC1 is bent or inclined By being arranged in the above, the coordinate in the Z-axis direction may be closer to the front side than some of the objects. However, the region of the backmost image PC1 in which the coordinates in the X-axis direction and the coordinates in the Y-axis direction are the same as this part of the object is all in the Z axis direction coordinates behind that object. The object is not covered by the backmost image PC1.

続くステップS1005では、カメラ座標系(カメラ空間)への変換処理を実行する。カメラ座標系への変換処理では、描画リストにより指定されたカメラの情報により、視点の座標及び向きを決定するとともに、その視点の座標及び向きに基づいて、ワールド座標系を、視点を原点としたカメラ座標系(カメラ空間)に変換する。これにより、図17に示すように、カメラ形状で示す視点PC11が設定され、それに対応した座標系が設定された状態となる。   In the following step S1005, conversion processing to the camera coordinate system (camera space) is executed. In the conversion process to the camera coordinate system, the coordinates and the orientation of the viewpoint are determined by the information of the camera specified by the drawing list, and the world coordinate system is set to the origin as the viewpoint based on the coordinates and the orientation of the viewpoint Convert to camera coordinate system (camera space). As a result, as shown in FIG. 17, the viewpoint PC 11 indicated by the camera shape is set, and the coordinate system corresponding thereto is set.

ここで、カメラの情報は、個別画像(最背面画像PC1及び各種オブジェクトPC2〜PC10)毎に設定されており、実際には個別画像毎にカメラ座標系が存在することとなる。このように個別画像毎にカメラ座標系が設定されることにより、視点切換を個別に行うことが可能となり、描画データの作成の自由度が高められる。但し、説明の便宜上、図17には全ての個別画像が単一の視点に設定されている状態を示す。   Here, camera information is set for each individual image (the rearmost image PC1 and various objects PC2 to PC10), and in actuality, a camera coordinate system exists for each individual image. By setting the camera coordinate system for each individual image as described above, it is possible to individually perform viewpoint switching, and the degree of freedom in creating drawing data is enhanced. However, for convenience of explanation, FIG. 17 shows a state in which all the individual images are set to a single viewpoint.

続くステップS1006では、視野座標系(視野空間)への変換処理を実行する。視野座標系への変換処理では、上記各カメラ座標系を、視点からの視野(視野角)に対応する視野座標系に変換する。これにより、各個別画像について、対応する視点の視野内に含まれている場合にはそれが抽出されるとともに、視点から近い個別画像が拡大されるとともに、視点から遠い個別画像が縮小される。   In the subsequent step S1006, conversion processing to the visual field coordinate system (visual field space) is executed. In the conversion process to the view coordinate system, each camera coordinate system is converted to the view coordinate system corresponding to the view (viewing angle) from the viewpoint. As a result, when each individual image is included in the field of view of the corresponding viewpoint, it is extracted, the individual image close to the viewpoint is enlarged, and the individual image far from the viewpoint is reduced.

続くステップS1007では、クリッピング処理を実行する。クリッピング処理では、ステップS1006にて抽出された各個別画像が、それぞれ対応する視点を共通の原点として把握される。そして、その状態で描画対象のフレーム領域142a,142b(すなわち、図柄表示装置31の表示面G)に応じたスクリーン領域PC12(図17を参照)に対応する空間を基準として、ステップS1006にて抽出された各個別画像をクリッピングする。   In the subsequent step S1007, clipping processing is performed. In the clipping process, the individual images extracted in step S1006 are grasped with the corresponding viewpoints as the common origin. Then, based on the space corresponding to the screen area PC12 (see FIG. 17) corresponding to the frame areas 142a and 142b to be drawn (that is, the display surface G of the symbol display device 31) in that state, extraction is performed in step S1006. Clip each individual image that has been

続くステップS1008では、ライティング処理を実行する。ライティング処理では、描画リストにより指定されたライトの情報により、仮想光源の種類、座標及び向きを決定するとともに、上記クリッピング処理により抽出された各オブジェクトについて上記仮想光源に基づき陰影や反射等を演算する。   In the following step S1008, a writing process is performed. In the lighting process, the type, coordinates, and direction of the virtual light source are determined based on the information of the light designated by the drawing list, and shadows, reflections, etc. are calculated based on the virtual light source for each object extracted by the clipping process. .

続くステップS1009では、色情報の設定処理を実行する。色情報の設定処理では、上記クリッピング処理により抽出された各オブジェクトに対して、ピクセル単位(すなわちポリゴン単位)又は頂点単位で、色情報を設定することで、各オブジェクトの外観を決定する。かかる色情報の設定処理では、基本的に、上記クリッピング処理により抽出された各オブジェクトに対して、それぞれに対応するテクスチャを貼り付けるテクスチャマッピング処理が実行される。また、状況によっては、バンプマッピングや透明度マッピングなどの処理が実行される。   In the subsequent step S1009, color information setting processing is executed. In the color information setting process, the appearance of each object is determined by setting color information in pixel units (that is, polygon units) or in vertex units for each object extracted by the clipping process. In the setting process of the color information, basically, a texture mapping process of pasting a texture corresponding to each of the objects extracted by the clipping process is executed. Also, depending on the situation, processing such as bump mapping and transparency mapping may be performed.

その後、ステップS1010及びステップS1011にて、ステップS1007にて抽出され、さらにライティング処理や色情報の設定処理が完了した各個別画像を、仮想2次元平面であるスクリーン領域PC12に投影(例えば、透視投影や平行投影)することで描画データを作成する。   Thereafter, in steps S1010 and S1011, each individual image extracted in step S1007 and further subjected to the lighting process and the setting process of color information is projected onto the screen area PC12 which is a virtual two-dimensional plane (for example, perspective projection) Create drawing data by parallel projection.

具体的には、先ずステップS1010にて、背景用の描画データ作成処理を実行する。背景用の描画データ作成処理では、背景画像として設定されている最背面画像及びオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、背景用の描画データを作成する。   Specifically, first, in step S1010, background drawing data creation processing is executed. In the background drawing data creation processing, background projection data is created by performing projection on the screen area PC 12 while performing hidden surface removal on the backmost image and object set as the background image.

ここで、VRAM134には、図4に示すようにスクリーン用バッファ144が設けられており、スクリーン用バッファ144には背景用の描画データが書き込まれる背景用のバッファと、演出用の描画データ及び図柄用の描画データがまとめて書き込まれる演出及び図柄用のバッファとが設定されている。また、背景用のバッファ、演出及び図柄用のバッファには、スクリーン領域PC12のピクセル数と同一のドット数のエリアが設定されている。ステップS1010にて作成される背景用の描画データは、背景用のバッファに書き込まれる。なお、描画リストにおいて背景用の画像データが指定されていない場合には、背景用の描画データは作成されない。   Here, the VRAM 134 is provided with a screen buffer 144 as shown in FIG. 4, and the screen buffer 144 is a buffer for background into which drawing data for background is written, drawing data for effect, and a pattern The effect and graphic buffer are set in which drawing data for writing are collectively written. Further, in the buffer for background, the buffer for effect and the pattern, an area having the same number of dots as the number of pixels of the screen area PC 12 is set. The background drawing data created in step S1010 is written to the background buffer. If background image data is not specified in the drawing list, background drawing data is not created.

続くステップS1011では、演出及び図柄用の描画データ作成処理を実行する。演出及び図柄用の描画データ作成処理では、演出画像として設定されているオブジェクト及び図柄として設定されているオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、スクリーン用バッファ144における演出及び図柄用のバッファに演出及び図柄用の描画データを作成する。なお、描画リストにおいて演出及び図柄用の画像データが指定されていない場合には、演出及び図柄用の描画データは作成されない。   In the subsequent step S1011, rendering data creation processing for effect and symbol is executed. In rendering data creation processing for effects and symbols, the screen buffer is used by performing projection on the screen area PC 12 while performing hidden surface removal on the objects set as effect images and the objects set as symbols. The rendering data for the effect and the symbol are created in the effect for the effect 144 and the buffer for the symbol. When the effect and symbol image data are not designated in the drawing list, the effect and symbol drawing data are not created.

その後、ステップS1012にて、描画データ合成処理を実行した後に、本描画処理を終了する。ステップS1012の描画データ合成処理では、ステップS1010及びステップS1011の処理によりそれぞれ個別にスクリーン用バッファ144に作成されている背景用の描画データと、演出及び図柄用の描画データとを合成して、その合成結果を描画対象のフレーム領域142a,142bに1フレーム分の描画データとして書き込む。   Thereafter, in step S1012, after the drawing data combining process is performed, the present drawing process is ended. In the drawing data combining process of step S1012, the drawing data for background and the drawing data for effect and design that are individually created in the screen buffer 144 individually by the processes of step S1010 and step S1011 are combined, and The combined result is written as drawing data of one frame in the frame areas 142a and 142b to be drawn.

この場合、その書き込む順序は、背景用の描画データ→演出及び図柄用の描画データの順序で奥側から手前側に並ぶように規定されている。したがって、描画対象のフレーム領域142a,142bに対して、先ず背景用の描画データを書き込み、次に演出及び図柄用の描画データを書き込む。この際、描画の実行対象となったピクセルに完全透過のα値が設定されている場合には奥側の画像がそのまま利用され、半透過のα値が設定されている場合にはα値を基準とした比率での奥側の画像と手前側の画像との融合が行われ、不透過のα値が設定されている場合には奥側の画像に対する手前側の画像の上書きが行われるように、融合用の演算が実行される。   In this case, the order of writing is specified to be arranged from the back side to the front side in the order of drawing data for background → rendering and drawing data for symbols. Therefore, first, drawing data for background is written in the frame areas 142a and 142b to be drawn, and then drawing data for effect and design is written. At this time, the image on the back side is used as it is when the completely transparent α value is set to the pixel for which drawing is to be executed, and the α value is used when the semi-transparent α value is set. Fusion of the image on the back side and the image on the front side at the ratio used as the reference is performed, and when the alpha value of non-transmission is set, the image on the front side is overwritten on the image on the back side Then, operations for fusion are performed.

ここで、融合用の演算についてより詳細に説明すると、描画対象のフレーム領域142a,142bにおける各ドットのRGBの各数値情報は、演出及び図柄用の描画データにおける描画対象となったピクセルに設定されているα値を基準として、
R:「奥側画像のR値」×(「1」−「α値」)+「手前側画像のR値」×「α値」
G:「奥側画像のG値」×(「1」−「α値」)+「手前側画像のG値」×「α値」
B:「奥側画像のB値」×(「1」−「α値」)+「手前側画像のB値」×「α値」
となる。
Here, to describe the operation for fusion in more detail, each numerical value information of RGB of each dot in the frame areas 142a and 142b of the drawing object is set to the pixel which is the drawing object in the drawing data for effect and design Based on the value of
R: "R value of back side image" × ("1"-"α value") + "R value of front side image" × "α value"
G: "G value of back side image" × ("1"-"α value") + "G value of front side image" × "α value"
B: "B value of back side image" × ("1"-"α value") + "B value of front side image" × "α value"
It becomes.

ちなみに、各描画データは1フレーム分の面積を有するように規定されているが、演出及び図柄用の描画データにおいて投影が行われなかったブランク部分については完全透過のα値が設定されている。   Incidentally, each drawing data is defined to have an area for one frame, but an alpha value of complete transmission is set for a blank portion where projection is not performed in drawing data for effect and symbol.

上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路155から図柄表示装置31に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分後の描画データの作成と並行して行われる。また、表示回路155は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域142a,142bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、描画データの描画対象となっているフレーム領域142a,142bが画像信号を出力するための出力対象とならないように規制されている。   The creation of the drawing data for one frame is performed so as to be completed within the range of 20 msec. Further, although an image signal is output from the display circuit 155 to the symbol display device 31 based on the created drawing data, as the double buffer method is adopted as already described, the output of the image signal is the output. It is performed in parallel with the creation of drawing data for one frame after the frame. Further, the display circuit 155 has a selector circuit which alternately switches the frame areas 142a and 142b to be referred to each time the output of an image signal for one frame is completed. The frame areas 142a and 142b to be drawn are restricted not to be output targets for outputting an image signal.

なお、上記ステップS1002〜ステップS1007までがジオメトリ演算部151により実行される処理であり、上記ステップS1008〜ステップS1012がレンダリング部152により実行される処理である。   Steps S1002 to S1007 are processes executed by the geometry calculation unit 151, and steps S1008 to S1012 are processes executed by the rendering unit 152.

<Zバッファ143を利用したマスク表示>
次に、Zバッファ143を利用したマスク表示について説明する。
<Mask display using Z buffer 143>
Next, mask display using the Z buffer 143 will be described.

Zバッファ143は、既に説明したとおり、Zバッファ法による隠面消去を行う場合に利用される。ここで、VDP135にて実行されるZバッファを用いた隠面処理について、図18のフローチャートを参照しながら説明する。   The Z buffer 143 is used when performing hidden surface removal by the Z buffer method as described above. Here, the hidden surface processing using the Z buffer performed by the VDP 135 will be described with reference to the flowchart of FIG.

Zバッファを用いた隠面処理は、描画リストにてZテスト指定がなされている場合に、描画処理(図16)におけるステップS1010及びステップS1011の各描画データ作成処理にて起動される。また、表示CPU131は、Zテスト指定を行う場合、Zバッファを用いた隠面処理において基準となるスクリーン領域PC12のZ軸を、ワールド座標系のZ軸に対して平行となるように設定し、Z軸方向に平行な方向に並ぶ各ピクセル間において表示対象とするピクセルを決定する。   The hidden surface process using the Z buffer is activated in each drawing data creation process of step S1010 and step S1011 in the drawing process (FIG. 16) when Z test specification is made in the drawing list. Further, when the Z test specification is performed, the display CPU 131 sets the Z axis of the screen area PC 12 as a reference in the hidden surface processing using the Z buffer so as to be parallel to the Z axis of the world coordinate system. Pixels to be displayed are determined between pixels aligned in a direction parallel to the Z-axis direction.

ステップS1010の背景用の描画データ作成処理では、背面用の画像及び背景用のオブジェクトが隠面処理の対象となり、ステップS1011の演出及び図柄用の描画データ作成処理では、演出用のオブジェクト及び図柄用のオブジェクトが隠面処理の対象となる。また、演出及び図柄用の描画データ作成処理における隠面処理では、演出用のオブジェクト及び図柄用のオブジェクトのいずれがも設定されていないブランク部分については、完全透過のα値が設定される。   In the background drawing data creation process in step S1010, the image for the back and the background object are targets of hidden surface processing, and in the effect and the drawing data creation process in step S1011, for the rendering object and the figure Objects are subject to hidden surface processing. Further, in the hidden surface processing in rendering data creation processing for effect and symbol, an alpha value of complete transmission is set for a blank portion in which neither an object for effect nor an object for symbol is set.

Zバッファ143は1個のみ設定されており、スクリーン用バッファ144における背景用のバッファと同一のドット数のエリアを有しているとともに、演出及び図柄用のバッファと同一のドット数のエリアを有している。   Only one Z buffer 143 is set, and it has an area with the same number of dots as the background buffer in the screen buffer 144, and has an area with the same number of dots as the presentation and pattern buffers. doing.

先ずステップS1101では、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS1102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。   First, in step S1101, on the basis of the current projection target dot in the screen area PC12 (see FIG. 17), it is an individual image included on the Z axis and is an object pixel of the individual image to be the test target this time. Understand the set Z value. In the subsequent step S1102, the Z-buffer 143 grasps the Z value set in the area of the dot corresponding to the drawing target dot on a one-to-one basis.

続くステップS1103では、ステップS1101にて把握した個別画像のZ値が、ステップS1102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS1104に進み、ステップS1101にて把握したZ値を、Zバッファ143におけるステップS1102にて参照したドットのエリアに上書きする。続くステップS1105では、ステップS1101にて参照したピクセルに設定されている色情報といった描画用の数値情報を、スクリーン用バッファ144における描画対象のバッファにおいて、今回の投影対象ドットのエリアに上書きする。その後に、ステップS1106に進む。   In the following step S1103, it is determined whether the Z value of the individual image grasped in step S1101 corresponds to the near side in the Z axis direction than the Z value of the Z buffer 143 grasped in step S1102. If it corresponds to the front side, the process advances to step S1104 to overwrite the Z value grasped in step S1101 on the dot area referred to in step S1102 in the Z buffer 143. In the subsequent step S1105, the drawing target numerical value information such as the color information set in the pixel referred to in step S1101 is overwritten on the area of the current projection target dot in the drawing target buffer in the screen buffer 144. Thereafter, the process proceeds to step S1106.

一方、ステップS1103にて、手前側に対応していないと判定した場合には、ステップS1104〜ステップS1105の処理を実行することなく、ステップS1106に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合には、Zバッファ143の更新は行われないとともに、既に設定されている描画用の数値情報がそのまま保持される。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われるとともに、描画用の数値情報も更新される。   On the other hand, if it is determined in step S1103 that the front side is not supported, the process proceeds to step S1106 without executing the processing of steps S1104 to S1105. That is, when the Z value of the pixel to be tested is the same as the Z value already set to the target dot of the Z buffer 143 or on the far side in the Z axis direction, the Z buffer 143 is updated. In addition to this, the already set numerical information for drawing is held as it is. On the other hand, when the Z value of the pixel to be tested is on the near side in the Z axis direction with respect to the Z value already set to the target dot of the Z buffer 143, the Z buffer 143 is updated. The numerical information for drawing is also updated.

ステップS1106では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS1101に戻り、新たな対象ピクセルに対してZテストを行う。   In step S1106, it is determined whether the Z test has been completed for all target pixels included on the Z axis with respect to the projection target dot. If not completed, the process returns to step S1101 to perform a Z test on a new target pixel.

完了している場合には、ステップS1107にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS1108にて、投影対象ドットを更新した後にステップS1101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には本隠面処理を終了する。   If it has been completed, it is determined in step S1107 whether or not the Z test has been completed for all the dots in the screen area PC12. If not completed, the projection target dot is updated in step S1108, and then the process returns to step S1101 to perform a Z test on a new projection target dot. If it has been completed, this hidden surface processing is ended.

上記のように隠面処理が実行されることにより、Z軸上に複数の個別画像が並んだとしても、視点に近い側の個別画像のみが表示されることとなる。ここで、本実施形態では、当該隠面処理を利用して背景用のキャラクタのマスク(すなわち、部分表示)が実行される。そして、このマスクは、表示CPU131においてオブジェクトのZ値をマスク用に設定することで行われる。   By performing hidden surface processing as described above, even if a plurality of individual images are arranged on the Z axis, only the individual image closer to the viewpoint is displayed. Here, in the present embodiment, a mask (that is, a partial display) of a character for background is executed using the hidden surface process. Then, this mask is performed by setting the Z value of the object in the display CPU 131 for the mask.

以下、表示CPU131にて実行されるマスク用の演算処理について、図19のフローチャートを参照しながら説明する。なお、当該マスク用の演算処理は、データテーブルにおいて参照したエリアにマスク用の演算処理を実行すべきことが示されている場合に、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。   Hereinafter, the mask calculation process executed by the display CPU 131 will be described with reference to the flowchart of FIG. In addition, when the arithmetic processing for the mask indicates that the arithmetic processing for the mask is to be performed in the area referred to in the data table, the arithmetic processing for the background in step S903 in the task processing (FIG. 14) is performed. Is executed.

先ずステップS1201では、現状設定されているデータテーブルに基づいて、今回の処理回が第1のマスク表示に対応しているか否かを判定する。ここで、マスク表示として、第1のマスク表示と第2のマスク表示とが設定されている。第1のマスク表示は、キャラクタを一部表示させた状態を複数フレームに亘って維持させる表示態様であり、第2のマスク表示は、キャラクタの全体を表示させた状態からマスクするピクセルを複数フレームに亘って除々に増加させ最終的に消滅させる表示態様である。   First, in step S1201, it is determined based on the currently set data table whether or not the current processing cycle corresponds to the first mask display. Here, a first mask display and a second mask display are set as the mask display. The first mask display is a display mode in which the state in which the character is partially displayed is maintained over a plurality of frames, and the second mask display is a plurality of frames in which pixels masked from the state in which the entire character is displayed The display mode is to gradually increase and eventually disappear.

第1のマスク表示に対応している場合には、ステップS1202にて、現状設定されているデータテーブルに基づいてマスク対象のオブジェクトを把握する。続くステップS1203では、現状設定されているデータテーブルに基づいて、ステップS1202にて把握したオブジェクトにおいてマスク対象となるピクセルを把握する。   If it corresponds to the first mask display, in step S1202, an object to be masked is grasped based on the currently set data table. In the following step S1203, based on the currently set data table, pixels to be masked in the object grasped in step S1202 are grasped.

その後、ステップS1204にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいてマスク対象となっているピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、マスク対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。   Thereafter, after the Z value setting process is performed in step S 1204, the present arithmetic process ends. In the process of setting the Z value, the Z value is set to be behind the image on the backmost side for the pixels that are to be masked in the object, and the pixels that are not to be masked are The Z value is set so as to correspond to the position which is on the front side of the rearmost image and should be displayed.

上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第1のマスク表示が表示面Gにて行われる。第1のマスク表示の具体的な内容について、図20を参照しながら説明する。なお、説明の便宜上、図20では、3次元画像を2次元画像として示す。   As described above, the mask processing process is executed, and the drawing list including the object with the Z value set as the drawing target is transmitted to the VDP 135, and the VDP 135 uses the Z buffer as the hidden surface processing. Hidden surface processing (FIG. 18) is performed, and finally the first mask display is performed on the display surface G. The specific content of the first mask display will be described with reference to FIG. For convenience of explanation, in FIG. 20, a three-dimensional image is shown as a two-dimensional image.

図20(a)は第1のマスク表示が行われることなく通常通りにキャラクタCH1が表示される場合を示している。また、図20(a―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(a―2)は表示面Gでの表示態様を示す。この場合、図20(a―1)に示すように、各ピクセルには最背面の画像よりも手前側となるようにZ値が設定されているため、図20(a―2)に示すようにキャラクタCH1はその全体が表示される。   FIG. 20A shows the case where the character CH1 is displayed as usual without performing the first mask display. FIG. 20 (a-1) is an image diagram of the Z value designated in the display CPU 131 for each pixel of the object PC 13 corresponding to the character CH1, and FIG. 20 (a-2) is a view on the display surface G. The display mode is shown. In this case, as shown in FIG. 20 (a-1), as shown in FIG. 20 (a-2), the Z value is set in each pixel so as to be on the front side of the image on the backmost side. The character CH1 is displayed in its entirety.

図20(b)は第1のマスク表示が行われる場合を示している。また、図20(b―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(b―2)は表示面Gでの表示態様を示す。この場合、図20(b―1)に示すように、各ピクセルの一部には最背面の画像よりも手前側となるようにZ値が設定されているが、残りのピクセルには最背面の画像よりも奥側となるようにZ値が設定されている。したがって、図20(b―2)に示すように、キャラクタCH1は上記手前側となるようにZ値が設定されたピクセルに対応した箇所のみが表示される。   FIG. 20B shows the case where the first mask display is performed. FIG. 20 (b-1) is an image diagram of the Z value designated by the display CPU 131 for each pixel of the object PC 13 corresponding to the character CH1, and FIG. 20 (b-2) is a view on the display surface G. The display mode is shown. In this case, as shown in FIG. 20 (b-1), the Z value is set to a part of each pixel so as to be on the front side of the image on the backmost side, but The Z value is set to be behind the image of. Therefore, as shown in FIG. 20 (b-2), only the portion corresponding to the pixel for which the Z value is set so that the character CH1 is on the front side is displayed.

なお、同一のキャラクタCH1について第1のマスク表示用に対応したZ値の設定パターンが、表示CPU131の制御プログラムで複数種類設定されている構成としてもよい。この場合、同一のキャラクタCH1について第1のマスク表示の態様を複数種類設定することが可能となる。   Note that a plurality of types of Z-value setting patterns corresponding to the first mask display for the same character CH1 may be set by the control program of the display CPU 131. In this case, a plurality of types of first mask display modes can be set for the same character CH1.

マスク用の演算処理(図19)の説明に戻り、ステップS1201にて、今回の処理回が第1のマスク表示に対応していないと判定した場合には、今回の処理回は第2のマスク表示に対応していることを意味しているため、ステップS1205に進む。ステップS1205では、現状設定されているデータテーブルに基づいて、第2のマスク表示の開始タイミングであるか否かを判定する。   Returning to the description of the arithmetic processing for the mask (FIG. 19), if it is determined in step S1201 that the current processing count does not correspond to the first mask display, the current processing count is the second mask. Since this corresponds to the display, the process advances to step S1205. In step S1205, it is determined based on the currently set data table whether or not it is the start timing of the second mask display.

開始タイミングである場合には、ステップS1206にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握する。続くステップS1207では、現状設定されているデータテーブルに基づいて、マスク用の専用テーブルを読み出す。このマスク用の専用テーブルは、今回の第2のマスク表示が完了するまで記憶保持される。続くステップS1208では、上記マスク用の専用テーブルに初期消去対象として設定されているピクセルを把握する。   If it is the start timing, in step S1206, the object to be masked is grasped based on the currently set data table. In the subsequent step S1207, a mask dedicated table is read out based on the currently set data table. The mask dedicated table is stored and held until the current second mask display is completed. In the following step S1208, the pixels set as the initial erase target in the mask dedicated table are grasped.

その後、ステップS1209にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1208にて初期消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、初期消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。   After that, the Z value setting process is performed in step S1209, and then the arithmetic process ends. In the setting process of the Z value, in the above object, with respect to the pixels grasped as the initial deletion target in step S1208, the Z value is set to be behind the image on the rearmost side, For pixels that are not, the Z value is set so as to correspond to the position that is to the front of the rearmost image and should be displayed.

一方、ステップS1205にて開始タイミングでないと判定した場合には、ステップS1210に進む。ステップS1210では、ワークRAM132に設定されている消去対象カウンタを更新する。続くステップS1211では、現状読み出されているマスク用の専用テーブルにおいて、ステップS1210にて更新した消去対象カウンタの値に対応したデータを確認し、消去対象のピクセルを把握する。   On the other hand, when it is determined in step S1205 that it is not the start timing, the process proceeds to step S1210. In step S1210, the deletion target counter set in the work RAM 132 is updated. In the following step S1211, data corresponding to the value of the deletion target counter updated in step S1210 is confirmed in the mask dedicated table currently read out, and the pixel to be deleted is grasped.

その後、ステップS1212にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1211にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。   Thereafter, after the Z value setting process is performed in step S1212, the present arithmetic process ends. In the setting process of the Z value, in the above object, the Z value is set to be behind the image on the rearmost side with respect to the pixels grasped as the deletion target in step S1211, and is the deletion target. For non-pixels, the Z value is set so as to correspond to the position to be displayed on the front side of the image on the backmost side.

上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第2のマスク表示が表示面Gにて行われる。第2のマスク表示の具体的な内容について、図21を参照しながら説明する。なお、説明の便宜上、図21では、3次元画像を2次元画像として示す。   As described above, the mask processing process is executed, and the drawing list including the object with the Z value set as the drawing target is transmitted to the VDP 135, and the VDP 135 uses the Z buffer as the hidden surface processing. Hidden surface processing (FIG. 18) is performed, and finally a second mask display is performed on the display surface G. The specific content of the second mask display will be described with reference to FIG. For convenience of explanation, in FIG. 21, a three-dimensional image is shown as a two-dimensional image.

図21(a)はマスク用の専用テーブルに設定されている情報のイメージ図を示しており、図21(b)は第2のマスク表示が行われることなく通常通りにキャラクタCH2が表示される場合を示している。図21(a)に示すように、キャラクタCH2に対応したオブジェクトPC14は複数のピクセルを有しており、マスク用の専用テーブルでは、それら複数のピクセルが複数ずつグループ分けされているとともに各グループに対して消去対象となるフレーム順序が設定されている。具体的には、「a1」として示すグループが初期消去対象として設定されており、その後は、「a2」として示すグループ→「a3」として示すグループ→「a4」として示すグループ→「a5」として示すグループの順序で消去対象となる。   FIG. 21 (a) shows an image of information set in the mask dedicated table, and FIG. 21 (b) shows the case where the character CH2 is displayed as usual without the second mask display being performed. Is shown. As shown in FIG. 21 (a), the object PC 14 corresponding to the character CH2 has a plurality of pixels, and in the mask dedicated table, the plurality of pixels are divided into a plurality and grouped together. A frame order to be deleted is set for that. Specifically, a group shown as "a1" is set as an initial deletion target, and thereafter, a group shown as "a2" → a group shown as "a3" → a group shown as "a4" → shown as "a5" It becomes an elimination target in the order of the group.

第2のマスク表示が開始され、「a1」として示すグループが消去対象となったフレームにおいては、図21(c)に示すように、「a1」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。また、その後のフレームにおいて、「a2」として示すグループが消去対象となった場合には、図21(d)に示すように、「a1」のグループに加え、「a2」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。そして、最終的に「a5」として示すグループが消去対象となったフレームにおいては、キャラクタCH2が表示されない状態となる。   In the frame in which the second mask display is started and the group indicated as "a1" is to be erased, the pixel portion corresponding to the group "a1" is missing as shown in FIG. 21 (c). The character CH2 is displayed. Also, in the subsequent frame, when the group indicated as "a2" is to be deleted, pixels corresponding to the group "a2" are added to the group "a1" as shown in FIG. 21 (d). The character CH2 is displayed with the part missing. Then, the character CH2 is not displayed in the frame in which the group indicated as "a5" is finally targeted for deletion.

以上のとおり、Zバッファ143を利用してオブジェクトのマスクを行うことができる。また、本構成によれば、表示CPU131のプログラム上でマスク用の演算を行うだけでよく、VDP135において画像データの一種であるマスクデータを設定する必要が生じない。したがって、画像データを記憶しておくのに必要な記憶容量を増加させることなく、マスク表示を行うことができる。   As described above, the Z buffer 143 can be used to mask an object. Further, according to the present configuration, it is only necessary to perform mask calculation on the program of the display CPU 131, and there is no need to set mask data, which is a kind of image data, in the VDP 135. Therefore, mask display can be performed without increasing the storage capacity required to store image data.

また、表示CPU131においては各オブジェクトのZ値を調整するだけでよいため、表示CPU131の処理負荷をさほど増加させることなく上記マスク表示を行うことができる。また、第1のマスク表示及び第2のマスク表示といった複数種類のマスク表示を、上記のような優れた効果を奏することができる。   Further, since the display CPU 131 only needs to adjust the Z value of each object, the mask display can be performed without increasing the processing load of the display CPU 131 so much. In addition, a plurality of types of mask displays such as the first mask display and the second mask display can exhibit the above-described excellent effects.

また、非表示とする部分には最背面画像よりも奥側のZ値が設定される。最背面画像はいずれのフレームにおいても常に背面を構成する画像であるため、Z軸(奥行き方向)の位置として絶対的な基準となる。これを基準に非表示とする部分のZ値を設定することで、非表示とする場合のZ値の設定態様を画一的なものとすることが可能となり、当該Z値の設定に係る処理の処理負荷の軽減が図られる。   In addition, the Z value on the back side of the backmost image is set to the non-displayed portion. Since the backmost image is an image that always constitutes the back in any frame, it becomes an absolute reference as the position of the Z axis (in the depth direction). By setting the Z value of the portion to be non-displayed based on this, it becomes possible to make the setting mode of the Z value in the non-display case uniform, and processing related to the setting of the Z value Can reduce the processing load of

なお、第1のマスク表示及び第2のマスク表示のいずれか一方のみが設定されている構成としてもよい。また、第2のマスク表示において複数のピクセル毎に消去されるのではなく、1ピクセル毎に消去される構成としてもよく、消去対象となったピクセルが再度表示対象に設定されることがある構成としてもよい。   Note that only one of the first mask display and the second mask display may be set. In addition, the configuration may be such that the second mask display is not erased for every plurality of pixels, but may be erased for each pixel, and a pixel that has become an erasure target may be set again as a display target It may be

また、上記Z値の設定を逆に行うことで、複数フレーム分の表示期間に亘ってキャラクタが順次消去されるのではなく、複数フレーム分の表示期間に亘ってキャラクタが順次出現するように表示される構成としてもよい。   Also, by performing the setting of the Z value in reverse, the characters are not sequentially erased over the display period of a plurality of frames, but displayed so that the characters appear sequentially over the display periods of a plurality of frames. It may be configured as

<Zバッファ143を利用したマスク処理の別形態>
Zバッファ143を利用したマスク表示の別形態について説明する。
<Another form of mask processing using Z buffer 143>
Another form of mask display using the Z buffer 143 will be described.

図22は表示CPU131にて実行されるマスク用の演算処理の別形態を示すフローチャートである。   FIG. 22 is a flow chart showing another mode of mask arithmetic processing executed by the display CPU 131.

先ずステップS1301では、現状設定されているデータテーブルに基づいて、開始タイミングであるか否かを判定する。開始タイミングである場合には、ステップS1302にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握するとともに、ステップS1303にて、現状設定されているデータテーブルに基づいて、初期マスク用テーブルを読み出す。   First, in step S1301, based on the currently set data table, it is determined whether it is the start timing. If it is the start timing, in step S1302, the object to be masked is grasped based on the currently set data table, and in step S1303, based on the currently set data table, the initial process is performed. Read the mask table.

続くステップS1304では、マスク抽選処理を実行する。マスク抽選処理では、ワークRAM132に設けられた抽選用カウンタに現状設定されている数値情報を読み出し、その数値情報に対応した消去対象の情報を、ステップS1303にて読み出した初期マスク用テーブルから抽出する。   In the following step S1304, a mask lottery process is executed. In the mask lottery process, numerical information currently set in the lottery counter provided in the work RAM 132 is read out, and information of an erasure target corresponding to the numerical information is extracted from the initial mask table read in step S1303. .

抽選用カウンタは、例えばメイン処理(図12)にてステップS702の処理を実行する度に更新されるように構成されており、さらにはカウンタ値が1周した場合には初期値がランダムに選択される構成となっている。また、初期マスク用テーブルでは、抽選用カウンタの各カウンタ値に1対1で対応させて消去対象の情報が設定されているとともに、その消去対象の情報は、マスク対象のオブジェクトを構成する全ピクセルのうち複数のピクセルを1グループとして、各グループと1対1で対応している。   The lottery counter is configured to be updated, for example, every time the process of step S702 is executed in the main process (FIG. 12), and further, when the counter value makes one revolution, the initial value is randomly selected. It is configured to be Further, in the initial mask table, information to be erased is set in a one-to-one correspondence with each counter value of the lottery counters, and the information to be erased is all pixels constituting the object to be masked. The plurality of pixels in one group corresponds to each group on a one-to-one basis.

続くステップS1305では、ステップS1304にて取得した消去対象の情報から、消去対象のピクセルを把握する。その後、ステップS1306にてZ値の設定処理を実行した後に、本演算処理を終了する。このZ値の設定処理では、上記オブジェクトにおいて、ステップS1305にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。   In the subsequent step S1305, the pixel to be erased is grasped from the information to be erased acquired in step S1304. After that, the Z value setting process is performed in step S1306, and this arithmetic process ends. In this Z value setting process, in the object described above, the Z value is set to be behind the image on the backmost side for the pixels grasped as the erasure target in step S1305, and is the erasure target. For non-pixels, the Z value is set so as to correspond to the position to be displayed on the front side of the image on the backmost side.

一方、ステップS1301にて開始タイミングではないと判定した場合には、ステップS1307に進む。ステップS1307では、既に読み出されている初期マスク用テーブルから、既に消去対象として設定された消去対象の情報が除外されるように、そのマスク用テーブルを書き換える。例えば、既に消去対象として設定された消去対象の情報に対応している上記カウンタ値が、他の消去対象の情報に重複して割り当てられるように、書き換える。この割り当てはランダムに行われてもよく、テーブル上で直下位のカウンタ値に対応した消去対象の情報に割り当てられる構成としてもよい。   On the other hand, if it is determined in step S1301 that it is not the start timing, the process proceeds to step S1307. In step S1307, the mask table is rewritten so that the information to be erased that has already been set as the erasure target is excluded from the already read initial mask table. For example, the counter value corresponding to the information to be erased that has already been set to be erased is rewritten so as to be redundantly assigned to the other information to be erased. This assignment may be performed randomly, or may be assigned to the information to be deleted corresponding to the immediately lower counter value on the table.

その後、ステップS1307にて書き換えたマスク用テーブルを利用して、ステップS1304〜ステップS1306の処理を実行した後に、本演算処理を終了する。   Thereafter, the processing in steps S1304 to S1306 is performed using the mask table rewritten in step S1307, and the present arithmetic processing ends.

以上のとおり、本別形態によれば、消去対象となるピクセルがランダムに選択されることとなるため、マスク表示の態様を多様化することができる。   As described above, according to the present alternative embodiment, since pixels to be erased are randomly selected, the aspect of mask display can be diversified.

なお、Zバッファ143を利用したマスク表示を、背景用のキャラクタではなく、演出用のキャラクタや図柄に対して適用してもよい。例えば、演出用のキャラクタに対して適用する場合、隠面処理が背景用の画像データ及び演出用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。また、図柄に対して適用する場合、隠面処理が背景用の画像データ、演出用の画像データ及び図柄用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。   The mask display using the Z buffer 143 may be applied not to the background character but to the effect character or pattern. For example, in the case of applying to a character for effect, the hidden surface process is collectively performed on the image data for background and the image data for effect, so that the rearmost surface is the same as the above configuration. The distribution of the Z values of the display target and the non-display target may be performed based on the Z value of the image. In addition, in the case of applying to a symbol, the hidden surface processing is performed collectively on the image data for background, the image data for effect, and the image data for symbol in the same manner as the above configuration. The distribution of the Z values of the display target and the non-display target may be performed on the basis of the Z value of the backmost image.

また、隠面処理が背景、演出及び図柄に対して個別に行われる場合であっても、VDP135において最背面画像よりも奥側のZ値が設定されているピクセルは描画対象としないと定められているのであれば、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。   In addition, even if hidden surface processing is performed individually for the background, effects, and patterns, it is determined that pixels for which the Z value on the back side is set in VDP 135 are not to be drawn in VDP 135. If it is, similarly to the above configuration, the distribution of the Z value of the display target and the non-display target may be performed based on the Z value of the backmost image.

また、表示対象及び非表示対象のZ値の振分が、最背面画像のZ値を基準にして行われるのではなく、例えば非表示対象のZ値として視点よりも手前のZ値が設定され、表示対象のZ値として視点よりも奥側のZ値が設定される構成としてもよい。   Further, the distribution of the Z values of the display target and the non-display target is not performed on the basis of the Z value of the backmost image, for example, the Z value of the front of the viewpoint is set as the Z value of the non-display target. The Z value on the rear side of the viewpoint may be set as the Z value of the display target.

また、Zバッファ143を利用した隠面処理は、ワールド座標系のZ軸を基準に行われるのではなく、視点の向く方向を基準に行われる構成としてもよい。   The hidden surface processing using the Z buffer 143 may be performed not based on the Z axis of the world coordinate system but based on the direction in which the viewpoint is directed.

<表示モードの切換に係る構成>
次に、表示モードの切換に係る構成について説明する。
<Configuration for Switching Display Mode>
Next, the configuration relating to the switching of the display mode will be described.

表示モードとは、既に説明したとおり、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。具体的には、第1表示モードと第2表示モードとが設定されている。   In the display mode, as described above, the standby image displayed before the game turn is started, and the state in which the kind of the game turn image displayed in the situation where the game turn is being executed is determined as a predetermined type. And a plurality of display modes are set. Specifically, the first display mode and the second display mode are set.

第1表示モードと第2表示モードとでは、背景画像の表示態様及び各図柄の表示態様が相互に異なっている。具体的には、同一の番号が付された図柄で比較した場合、第1表示モードと第2表示モードとで図柄の外形や形状は同一となっているが、色や模様が異なっている。また、背景画像については、第1表示モードと第2表示モードとで、最背面画像の種類が異なっているとともに、最背面画像の手前にて表示されるキャラクタの数及び種類が異なっており、表示されるキャラクタの数は第1表示モードの方が第2表示モードよりも多く設定されている。   In the first display mode and the second display mode, the display mode of the background image and the display mode of each pattern are different from each other. Specifically, when comparing the symbols assigned the same number, the outer shape and the shape of the symbols are the same in the first display mode and the second display mode, but the colors and the patterns are different. As for the background image, the type of the backmost image is different between the first display mode and the second display mode, and the number and type of characters displayed before the backmost image are also different. The number of characters displayed is set to be larger in the first display mode than in the second display mode.

表示モードの切換は、演出用操作装置48の操作に基づき行われる。具体的には、遊技回や開閉実行モードが実行されていない状況で演出用操作装置48が操作されることで、表示モードが順次切り換えられるようになっている。また、遊技回が実行されている状況における所定の条件下で演出用操作装置48が操作されたことに基づき切り換えられるようになっている。   The switching of the display mode is performed based on the operation of the operation device 48 for effect. Specifically, the display mode is sequentially switched by operating the operation device for effect 48 in a situation where the game times and the opening / closing execution mode are not executed. In addition, the game operation is switched based on that the operation device for effect 48 is operated under predetermined conditions in a situation where the game is being executed.

表示モードの切換に係る具体的な処理構成を説明する。   A specific processing configuration relating to switching of the display mode will be described.

図23は、表示CPU131にて実行される操作発生コマンド対応処理を示すフローチャートである。操作発生コマンド対応処理はV割込み処理(図13)におけるステップS803のコマンド対応処理にて実行される。   FIG. 23 is a flowchart showing operation generation command handling processing executed by the display CPU 131. The operation generation command corresponding process is executed in the command corresponding process of step S 803 in the V interrupt process (FIG. 13).

先ずステップS1401では、音声発光制御装置60からモード切換用の操作発生コマンドを受信しているか否かを判定する。受信していない場合にはそのまま本操作コマンド対応処理を終了し、受信している場合にはステップS1402に進む。   First, in step S1401, it is determined whether an operation generation command for mode switching has been received from the sound emission control device 60 or not. If it has not been received, this operation command corresponding process is ended as it is, and if it has been received, the process proceeds to step S1402.

ステップS1402では、第1切換可能期間であるか否かを判定する。第1切換可能期間とは、遊技回及び開閉実行モードのいずれもが実行されていない期間である。第1切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1402では、現状設定されているデータテーブルに基づいて第1切換可能期間であるか否かを判定する。第1切換可能期間である場合には、ステップS1403にて、ワークRAM132に設けられた所定のエリアに対して第1切換実行フラグをセットする。   In step S1402, it is determined whether or not it is a first switchable period. The first switchable period is a period in which neither the game play nor the opening / closing execution mode is executed. Information for specifying whether it is the first switchable period is set in the data table, and in step S1402, it is determined whether it is the first switchable period based on the currently set data table. . If it is the first switchable period, in step S1403, a first switch execution flag is set for a predetermined area provided in the work RAM 132.

一方、第1切換可能期間ではない場合には、ステップS1404に進み、第2切換可能期間であるか否かを判定する。第2切換可能期間とは、遊技回が実行されている状況において開始タイミングから実行途中における予め定められた基準タイミングまでの期間である。具体的には、図柄表示装置31にて遊技回用演出が実行される場合、全図柄列SA1〜SA3での図柄の変動表示を開始→全図柄列SA1〜SA3での高速変動表示→低速変動表示を経由した各図柄列SA1〜SA3の順次停止という表示の流れを含む。この場合に、第2切換可能期間は、全図柄列SA1〜SA3での図柄の変動表示が開始されてから全図柄列SA1〜SA3での高速変動表示が終了するタイミングまでの期間である。   On the other hand, if it is not the first switchable period, the process proceeds to step S1404 to determine whether it is the second switchable period. The second switchable period is a period from the start timing to a predetermined reference timing in the middle of execution in a situation where the game play is being executed. Specifically, when the game display effect is executed in the symbol display device 31, the variation display of the symbols in all the symbol rows SA1 to SA3 is started → the high speed variation display in all the symbol rows SA1 to SA3 → the low velocity fluctuation The flow of the display of sequentially stopping each symbol row SA1 to SA3 via the display is included. In this case, the second switchable period is a period from when variation display of symbols in all symbol rows SA1 to SA3 is started and high-speed variation display in all symbol rows SA1 to SA3 ends.

なお、図柄の変動表示の態様を、全図柄列SA1〜SA3での図柄の変動表示を開始→全図柄列SA1〜SA3の加速期間→全図柄列SA1〜SA3での高速変動表示(高速は一定速度)→低速変動表示(低速は一定速度)を経由した各図柄列SA1〜SA3の順次停止という表示の流れとしてもよい。この場合、第2切換可能期間を、全図柄列SA1〜SA3での高速変動表示が実行されている期間としてもよい。   In addition, the aspect of the fluctuation display of the symbols starts the fluctuation display of the symbols in all the symbol rows SA1 to SA3 → The acceleration period of all the symbol rows SA1 to SA3 → the high speed fluctuation display in all the symbol rows SA1 to SA3 (high speed is constant It may be a flow of display such as sequential stop of each symbol row SA1 to SA3 via low speed fluctuation display (low speed is constant speed). In this case, the second switchable period may be a period in which high-speed variation display in all the symbol rows SA1 to SA3 is being performed.

また、高速変動表示と低速変動表示との間に中速変動表示が含まれていてもよい。つまり、図柄の変動表示の態様は、2段階、3段階又は4段階以上といったように複数段階で切り換わるのであれば具体的な段階数は任意である。この場合、第2切換可能期間を、各段階のうち遊技者における図柄の識別性が低い低識別な段階の期間としてもよい。   In addition, medium speed fluctuation display may be included between the high speed fluctuation display and the low speed fluctuation display. That is, if the aspect of the variation display of symbols is switched in a plurality of stages such as two stages, three stages, or four or more stages, the specific number of stages is arbitrary. In this case, the second switchable period may be a period of low identification stages in which the player has low in the identification of the symbol.

また、図柄の変動表示の流れにおいて相対的に低識別態様での変動表示→高識別態様での変動表示という状態を含むのであれば具体的な変動態様は任意であり、例えばいずれの態様であっても変動速度は同一であるが、低識別態様での変動表示では図柄が透明、半透明、中抜き又は一部を除いた状態で表示され、高識別態様での変動表示では図柄の全体が表示される構成としてもよい。この場合、第2切換可能期間を、低識別態様での変動表示が行われている期間としてもよい。   In addition, if the flow of the fluctuation display of the symbol includes the state of the fluctuation display in the relatively low identification mode → the fluctuation display in the high identification aspect, the specific fluctuation aspect is arbitrary, for example, any aspect. Even though the fluctuation speed is the same, in the low discrimination mode, the symbol is displayed transparent, semi-transparent, hollow or partially removed, and in the high discrimination mode, the whole symbol is displayed. It may be configured to be displayed. In this case, the second switchable period may be a period in which the variable display in the low identification mode is performed.

第2切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1404では、現状設定されているデータテーブルに基づいて第2切換可能期間であるか否かを判定する。第2切換可能期間ではないと判定した場合には、そのまま本操作発生コマンド対応処理を終了し、第2切換可能期間である場合には、ステップS1405にて、ワークRAM132に設けられた所定のエリアに対して第2切換実行フラグをセットする。   Information for specifying whether it is the second switchable period is set in the data table, and in step S1404, it is determined whether it is the second switchable period based on the currently set data table. . If it is determined that it is not the second switchable period, the present operation generation command correspondence processing is ended as it is, and if it is the second switchable period, the predetermined area provided in work RAM 132 in step S1405. And the second switching execution flag is set.

ステップS1403及びステップS1405のいずれかの処理を実行した後は、ステップS1406に進む。ステップS1406では、表示モード用のカウンタを更新する。   After one of the processes in step S1403 and step S1405 is performed, the process proceeds to step S1406. In step S1406, the display mode counter is updated.

表示モード用のカウンタとは、表示CPU131にて現状の表示モードを特定するためのカウンタであり、ワークRAM132に設けられている。表示モード用のカウンタには各表示モードに1対1で対応させてカウンタ値が設定されている。本実施形態では上記のとおり表示モードとして第1表示モード及び第2表示モードの2種類が設定されているため、上記カウンタ値として第1表示モードに対応した「0」の数値と、第2表示モードに対応した「1」の数値とが設定されている。この場合、表示モード用のカウンタの初期値は「0」として設定されているため、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合には第1表示モードが設定される。   The display mode counter is a counter for specifying the current display mode by the display CPU 131, and is provided in the work RAM 132. In the counters for the display mode, counter values are set in a one-to-one correspondence with each display mode. In the present embodiment, since two types of display modes, the first display mode and the second display mode, are set as the display modes as described above, the numerical value of "0" corresponding to the first display mode as the counter value and the second display The numerical value of "1" corresponding to the mode is set. In this case, since the initial value of the display mode counter is set to “0”, the operation power supply to the display CPU 131 is started, or the pachinko machine 10 is reset. 1 Display mode is set.

ステップS1406では、演出用操作装置48が1回操作される度に表示モードが予め定められた順序に従って順次切り換えられるように表示モード用のカウンタを更新する。具体的には、表示モード用のカウンタが「0」であり第1表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第2表示モードに切り換えるとともに、表示モード用のカウンタが「1」であり第2表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第1表示モードに切り換える。ステップS1406の処理を実行した後に、本操作発生コマンド対応処理を終了する。   In step S1406, the display mode counter is updated so that the display mode is sequentially switched in accordance with a predetermined order each time the effect operating device 48 is operated once. Specifically, when the processing in step S1406 is executed in a situation where the display mode counter is "0" and the first display mode is set, the display mode counter is set to "1" and the second When the processing in step S1406 is executed in a situation where the display mode counter is “1” and the second display mode is set while switching to the display mode, the display mode counter is set to “1”. 1 Switch to the display mode. After the process of step S1406 is performed, the operation occurrence command handling process is finished.

次に、表示CPU131にて実行される表示モード背景用の演算処理について、図24のフローチャートを参照しながら説明する。表示モード背景用の演算処理は、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。なお、大当たり演出を実行する場合などには表示モードに対応した背景画像は表示されないため表示モード背景用の演算処理は実行されず、待機画像を表示する場合や遊技回用の演出を実行する場合などに表示モード背景用の演算処理が実行される。   Next, arithmetic processing for the display mode background executed by the display CPU 131 will be described with reference to the flowchart in FIG. The calculation processing for the display mode background is executed in the background calculation processing in step S 903 in the task processing (FIG. 14). In addition, since the background image corresponding to the display mode is not displayed when executing the jackpot effect, etc., the arithmetic processing for the display mode background is not performed, and the standby image is displayed or the game circulation effect is performed. The arithmetic processing for the display mode background is executed, for example.

先ずステップS1501では、ワークRAM132に設けられた表示モード用のカウンタを参照し、第1表示モードであるか否かを判定する。第1表示モードである場合には、ステップS1502にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第1最背面画像を把握する。続くステップS1503では、その把握した第1最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1504にて、現状設定されているデータテーブルに基づいて、第1表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1505では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。   First, in step S1501, the display mode counter provided in the work RAM 132 is referenced to determine whether or not the first display mode is set. In the case of the first display mode, in step S1502, the first backmost image to be updated at this time is grasped based on the currently set data table. In the following step S1503, various control parameters of the first rear-face image thus grasped are calculated to update control information. In the following step S1504, based on the currently set data table, an object corresponding to the first display mode and an object to be updated for background is grasped. In the subsequent step S1505, various control parameters of the grasped object are calculated to update control information.

一方、第2表示モードである場合には、ステップS1506にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第2最背面画像を把握する。続くステップS1507では、その把握した第2最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1508にて、現状設定されているデータテーブルに基づいて、第2表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1509では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。   On the other hand, in the case of the second display mode, in step S1506, the second backmost image to be updated this time is grasped based on the currently set data table. In the subsequent step S1507, various parameters of the second rearmost image thus grasped are calculated to update control information. In the following step S1508, based on the currently set data table, an object corresponding to the second display mode and an object to be updated for background is grasped. In the following step S1509, various parameters of the grasped object are calculated to update control information.

なお、ステップS1502の処理の実行タイミングでは、第1最背面画像及び第1表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。また、ステップS1506の処理の実行タイミングでは、第2最背面画像及び第2表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。   Note that, at the execution timing of the process of step S1502, the setting process (step S901) for control start of the background object corresponding to the first backmost image and the first display mode is completed. Further, at the execution timing of the process of step S1506, the setting process (step S901) for control start on the background object corresponding to the second backmost image and the second display mode is completed.

ステップS1505又はステップS1509の処理を実行した後は、ステップS1510にて、ワークRAM132に第1切換実行フラグ又は第2切換実行フラグのいずれかがセットされているか否かを判定する。いずれかの切換実行フラグがセットされている場合には、ステップS1511にて、処理負荷の大きい状況であるか否かを判定する。   After executing the processing of step S1505 or step S1509, it is determined in step S1510 whether or not any one of the first switching execution flag and the second switching execution flag is set in the work RAM 132. If one of the switching execution flags is set, it is determined in step S1511 whether or not the processing load is large.

処理負荷の大きい状況とは、今回の描画リストに指定された画像データに対するジオメトリ演算及びレンダリングの両方がVDP135にて実行される場合に、処理落ちが発生する程度にVDP135の処理負荷が大きい又は処理落ちが発生しないまでもVDP135の処理負荷が比較的大きい状況のことをいう。なお、処理負荷の大きい状況か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1511の判定を行う。   When the processing load is large, the processing load of VDP 135 is large enough to cause processing omission when both of the geometry calculation and the rendering for the image data specified in the current drawing list are executed by VDP 135 or processing This refers to a situation where the processing load of VDP 135 is relatively large even if a drop does not occur. Information on whether the processing load is large or not is defined in the data table, and the determination in step S1511 is performed based on the information.

処理負荷の大きい状況ではない場合には、ステップS1512にて、今回の表示モードに対応した背景画像は別保存済みであるか否かを判定する。ここで、別保存とは、各表示モードに対応した背景画像を表示させるための背景用の描画データを個別に保存するとともにその保存している状態を維持することである。別保存に際しては、VRAM134に設けられたモード用バッファ145が用いられる(図4を参照)。   If the processing load is not large, it is determined in step S1512 whether the background image corresponding to the current display mode has already been stored separately. Here, separate storage is to save separately the drawing data for the background for displaying the background image corresponding to each display mode and to maintain the stored state. For separate storage, the mode buffer 145 provided in the VRAM 134 is used (see FIG. 4).

モード用バッファ145には、第1表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第1モード用領域145aと、第2表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第2モード用領域145bと、が設けられている。また、VDP135には、背景用の描画データを第1モード用領域145a及び第2モード用領域145bのいずれかへ書き込む機能と、その書き込まれた背景用の描画データを読み出してスクリーン用バッファ144に書き込む機能と、を有する表示モード制御部154を備えている。   A mode buffer 145 displays a first mode area 145a in which background drawing data for displaying a background image corresponding to the first display mode is written, and a background image corresponding to the second display mode. And a second mode area 145b in which drawing data for background is written. The VDP 135 also has a function of writing background drawing data to either the first mode area 145a or the second mode area 145b, and reads the background drawing data that has been written to the screen buffer 144. And a display mode control unit 154 having a writing function.

別保存済みではない場合にはステップS1513にて別保存の実行指定情報を記憶した後に、本演算処理を終了し、別保存済みである場合にはそのまま本演算処理を終了する。   If it is not saved separately, the execution designation information of the separately saved is stored in step S1513, and then the present computation processing is ended. If it is saved separately, the present computation processing is ended as it is.

上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1513の処理が実行されている場合には別保存の実行指定情報が設定される。別保存の実行指定情報には、別保存を実行すべきことを示す情報が含まれているとともに、別保存先のアドレスの情報も含まれている。   As described above, when the calculation processing for the display mode background is executed, the drawing list created in the subsequent drawing list output processing is for the background corresponding to either the first display mode or the second display mode. The information of usage instruction of the image data is set. When the process of step S1513 is being executed, execution specification information of another storage is set. The execution specification information of the separate storage includes information indicating that the separate storage should be performed, and also includes information of the address of the separate storage destination.

一方、処理負荷の大きい状況である場合(ステップS1511:YES)には、ステップS1514にて、切換先の表示モードの背景画像が別保存済みであるか否かを判定する。別保存済みではない場合にはそのまま本演算処理を終了する。一方、別保存済みである場合にはステップS1515にて別保存データの使用指定情報を記憶した後に、本演算処理を終了する。   On the other hand, if the processing load is large (step S1511: YES), it is determined in step S1514 whether or not the background image of the display mode of the switching destination has been saved separately. If the data has not been separately stored, the present arithmetic processing ends. On the other hand, if it has already been stored separately, the use specification information of the separately stored data is stored in step S1515, and then this arithmetic processing ends.

上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード及び第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1515の処理が実行されている場合には別保存データの使用指定情報が設定される。別保存データの使用指定情報には、別保存データを使用すべきことを示す情報が含まれているとともに、その別保存データが保存されているアドレスの情報も含まれている。   As described above, when the arithmetic processing for the display mode background is executed, the drawing list created in the subsequent drawing list output processing is for the background corresponding to either the first display mode or the second display mode. The information of usage instruction of the image data is set. In addition, when the process of step S1515 is executed, use specification information of another storage data is set. The usage specification information of the separately stored data includes information indicating that the separately stored data should be used, and also includes information of an address at which the separately stored data is stored.

次に、表示CPU131にて実行される図柄用演算処理について、図25のフローチャートを参照しながら説明する。図柄用演算処理はタスク処理(図14)のステップS905にて実行される。   Next, the symbol calculation process executed by the display CPU 131 will be described with reference to the flowchart of FIG. The symbol calculation process is executed in step S905 of the task process (FIG. 14).

先ずステップS1601では、現状設定されているデータテーブルに基づいて、図柄について制御更新用の処理を実行する必要があるか否かを判定する。実行する必要がない場合として大当たり演出を実行している場合が含まれ、実行する必要がある場合として遊技回用の演出を実行している場合及び待機画像を表示している場合が含まれる。実行する必要がない場合にはそのまま本図柄用演算処理を終了し、実行する必要がある場合にはステップS1602にて、現状設定されているデータテーブルに基づいて、遊技回の実行中であるか否かを判定する。   First, in step S1601, it is determined based on the currently set data table whether or not it is necessary to execute processing for control update on a symbol. The case where it is not necessary to execute includes the case where the jackpot effect is being executed, and the case where it is necessary to be executed includes the case where the effect for the game circulation is being executed and the case where the standby image is displayed. If it is not necessary to execute, the symbol processing process is ended as it is, and if it is necessary to execute, whether or not the game is being executed based on the currently set data table in step S1602. It is determined whether or not.

遊技回の実行中でない場合には、ステップS1603にて、ワークRAM132に第1切換実行フラグがセットされているか否かを判定する。第1切換実行フラグがセットされている場合には、ステップS1604にて、制御対象の図柄を切換先の表示モードに対応させて変更する。具体的には、ワークRAM132において図柄の制御を行う上で確保されている各空きバッファ領域のパラメータ用の情報はそのまま保持させながら、制御対象の図柄の情報(例えば記憶されているアドレスの情報)のみを切換先の表示モードに対応した情報に書き換える。なお、ステップS1603及びステップS1604の処理が、タスク処理(図14)における制御開始用の設定処理(ステップS901)にて実行される構成としてもよい。また、ステップS1603にて肯定判定をした場合に第1切換実行フラグをクリアする。   If the game is not being executed, it is determined in step S1603 whether or not the first switching execution flag is set in the work RAM 132. If the first switching execution flag is set, the symbol to be controlled is changed in step S1604 in accordance with the display mode of the switching destination. Specifically, while holding information on parameters of each free buffer area secured in control of symbols in the work RAM 132 as it is, information of symbols to be controlled (for example, information of stored address) Is rewritten to the information corresponding to the display mode of the switching destination. The processes of step S1603 and step S1604 may be executed in the setting process (step S901) for control start in the task process (FIG. 14). In addition, when an affirmative determination is made in step S1603, the first switching execution flag is cleared.

ステップS1603にて否定判定をした場合又はステップS1604の処理を実行した場合は、ステップS1605に進む。ステップS1605では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1606にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。   If a negative determination is made in step S1603 or if the process of step S1604 is performed, the process proceeds to step S1605. In step S1605, an object of a symbol to be controlled is grasped based on the currently set data table, and in step S1606, various parameters of the object are calculated and updated. Thereafter, the present symbol calculation processing ends.

上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した図柄用の画像データの使用指示の情報が設定される。   When the symbol calculation process is executed as described above, the drawing list created in the subsequent drawing list output process is image data for a pattern corresponding to either the first display mode or the second display mode. Information of usage instruction of is set.

遊技回の実行中である場合(ステップS1602:YES)には、ステップS1607にて、現状設定されているデータテーブルに基づいて、全図柄列SA1〜SA3において高速変動表示中であるか否かを判定する。全図柄列SA1〜SA3において高速変動表示中である場合には、ステップS1608にて、ワークRAM132に第2切換実行フラグがセットされているか否かを判定する。   If the game is being executed (step S1602: YES), whether or not high-speed variation display is in progress in all symbol rows SA1 to SA3 based on the currently set data table in step S1607 judge. If high-speed change display is in progress in all the symbol rows SA1 to SA3, it is determined in step S1608 whether the second switching execution flag is set in the work RAM 132 or not.

第2切換実行フラグがセットされている場合には、ステップS1609にて、制御対象の図柄を切換先の表示モードに対応させて変更させることが可能であるか否かを判定する。これは今回の描画リストに対応した描画処理(図16)がVDP135にて実行される場合に、制御対象の図柄を切換先の表示モードに対応させて変更させようとすると、処理落ちが発生するか否かを基準として、処理落ちが発生しないのであれば変更させることが可能となり、処理落ちが発生するのであれば変更させることが不可であると判定される。   If the second switching execution flag is set, it is determined in step S1609 whether or not the symbol to be controlled can be changed according to the display mode of the switching destination. In the case where the drawing process (FIG. 16) corresponding to the drawing list of this time is executed by the VDP 135, if the symbol to be controlled is changed according to the display mode of the switching destination, processing omission occurs. It is possible to change if processing omission does not occur on the basis of whether or not it is determined that it is impossible to change if processing omission occurs.

例えば、今回の描画リストにおいて表示モードの切換に対応した背景用の画像データが新たに設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じるため、VDP135の処理負荷を大きくなる。したがって、この場合は、図柄を変更させることが不可であると判定される。一方、今回の描画リストにおいて背景用の画像データとして別保存データが設定されている場合、又は前回の描画リストに係る表示モードと同一の表示モードに対応した背景用の画像データが設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じないため、VDP135の処理負荷は比較的小さくなる。したがって、この場合は、図柄を変更させることが可能であると判定される。   For example, when background image data corresponding to switching of the display mode is newly set in the drawing list this time, the VDP 135 needs to newly set the image data to the world coordinate system. The processing load of VDP 135 is increased. Therefore, in this case, it is determined that the symbol can not be changed. On the other hand, when separately stored data is set as image data for background in the current drawing list, or when image data for background corresponding to the same display mode as the display mode according to the previous drawing list is set Since there is no need to newly set the setting of image data to the world coordinate system in the VDP 135, the processing load of the VDP 135 is relatively small. Therefore, in this case, it is determined that the symbol can be changed.

なお、変更させることが可能か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1609の判定を行う。また、ステップS1608にて肯定判定をした場合に第2切換実行フラグをクリアする。   Note that information on whether or not it is possible to change is defined in the data table, and the determination in step S1609 is performed based on the information. In addition, when an affirmative determination is made in step S1608, the second switching execution flag is cleared.

ステップS1609にて、変更させることが可能であると判定した場合には、ステップS1610にて、制御対象の図柄を切換先の表示モードに対応させて変更する。この処理の具体的な内容は、ステップS1604と同様である。ステップS1610の処理を実行した後はステップS1613に進む。   If it is determined in step S1609 that the symbol can be changed, in step S1610, the symbol to be controlled is changed according to the display mode of the switching destination. The specific content of this process is the same as in step S1604. After the process of step S1610 is performed, the process proceeds to step S1613.

一方、ステップS1609にて、変更させることが可能ではないと判定した場合には、ステップS1611にて、ワークRAM132に設けられた所定のエリアに対して変更待機フラグをセットした後に、ステップS1613に進む。変更待機フラグは、制御対象の図柄の変更が待機されていることを表示CPU131にて特定するためのフラグである。変更待機フラグがセットされている場合には、ステップS1608にて、第2切換実行フラグがセットされていないと判定されたとしても、ステップS1612の処理が実行されることで、ステップS1609の処理が実行される。なお、第2切換実行フラグ及び変更待機フラグの両方がセットされていない場合には、そのままステップS1613に進む。また、変更待機フラグはステップS1612にて肯定判定をした際にクリアされる。   If it is determined in step S1609 that the change is not possible, then in step S1611, the change standby flag is set for a predetermined area provided in work RAM 132, and then the process proceeds to step S1613. . The change waiting flag is a flag for specifying that the change of the symbol to be controlled is waiting on the display CPU 131. When the change waiting flag is set, even if it is determined in step S1608 that the second switching execution flag is not set, the process of step S1609 is performed by executing the process of step S1612. To be executed. If both the second switching execution flag and the change waiting flag are not set, the process directly proceeds to step S1613. Also, the change standby flag is cleared when an affirmative determination is made in step S1612.

ステップS1613では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1614にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。   In step S 1613, an object of a symbol to be controlled is grasped based on the currently set data table, and in the subsequent step S 1614, various parameters of the object are calculated and updated. Thereafter, the present symbol calculation processing ends.

上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。この場合に、ステップS1609にて、切換先の表示モードに対応した図柄に変更させることができないと判定した場合には、切換元の表示モードに対応した図柄の画像データの使用指示の情報がそのまま描画リストに設定される。そうすると、最終的に表示モードに対応しない図柄が表示面Gに表示されることとなるが、第2切換実行フラグがセットされるタイミングは高速変動表示中であるため、遊技者は上記の状態を認識することができない又は認識しづらい。   As described above, when the symbol operation process is executed, the drawing list created in the subsequent drawing list output process includes instructions for using image data for the symbol corresponding to the first display mode or the second display mode. Information is set. In this case, when it is determined in step S1609 that the symbol corresponding to the display mode of the switching destination can not be changed, the information of the use instruction of the image data of the symbol corresponding to the display mode of the switching source is as it is Set in the drawing list. Then, a symbol not corresponding to the display mode is finally displayed on the display surface G. However, since the timing at which the second switching execution flag is set is under high-speed fluctuation display, the player can not change the above state. Unrecognized or hard to recognize.

また、切換先の表示モードに対応した図柄に変更させることができない場合には、変更待機フラグがセットされて、その後の処理回で変更が行われる。これにより、VDP135において処理落ちを発生させないようにしつつ、表示モードの切換を良好に行うことができる。なお、高速変動表示が行われている範囲で、切換先の表示モードに対応した図柄の変更が行われるように、VDP135の処理負荷が調整されている。   Moreover, when it is not possible to change to a symbol corresponding to the display mode of the switching destination, the change standby flag is set, and the change is performed in the subsequent processing. As a result, the display mode can be properly switched while preventing the processing drop in the VDP 135. In addition, the processing load of VDP135 is adjusted so that the change of the symbol corresponding to the display mode of a switching destination is performed in the range in which the high-speed fluctuation display is performed.

高速変動表示中ではない場合(ステップS1607:NO)には、ステップS1615に進む。ステップS1615では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1616にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。   If the high-speed change display is not in progress (step S1607: NO), the process proceeds to step S1615. In step S1615, an object of a symbol to be controlled is grasped based on the currently set data table, and in the subsequent step S1616, various parameters of the object are calculated and updated. Thereafter, the present symbol calculation processing ends. As described above, when the symbol operation process is executed, the drawing list created in the subsequent drawing list output process includes instructions for using image data for the symbol corresponding to the first display mode or the second display mode. Information is set.

次に、VDP135にて実行される背景用の設定処理を、図26のフローチャートを参照しながら説明する。なお、背景用の設定処理は、描画処理(図16)におけるステップS1002にて実行される。   Next, background setting processing executed by the VDP 135 will be described with reference to the flowchart of FIG. The setting process for background is executed in step S1002 in the drawing process (FIG. 16).

先ずステップS1701では、今回の描画リストにおいて別保存データの使用指定が設定されているか否かを判定する。設定されている場合には、ステップS1702にて、その指定に対応した別保存データを背景用の描画データとして設定するための情報をレジスタ153に記憶させる。   First, in step S1701, it is determined whether use specification of another storage data is set in the current drawing list. If it is set, in step S1702, the register 153 stores information for setting another storage data corresponding to the specification as the drawing data for the background.

設定されていない場合(ステップS1701:NO)又はステップS1702の処理を実行した後は、ステップS1703に進む。ステップS1703では、今回の描画リストに指定されている最背面画像を把握するとともに、ステップS1704にて、その最背面画像について指定されている各種パラメータを把握する。その後、ステップS1705にて、その最背面画像について、ワールド座標系への設定処理を実行する。この設定に係る内容は、既に説明したとおりである。   If it is not set (step S1701: NO) or after the process of step S1702 is performed, the process proceeds to step S1703. In step S1703, the backmost image designated in the current drawing list is grasped, and in step S1704, various parameters designated about the backmost image are grasped. Thereafter, in step S1705, processing for setting the world coordinate system is performed on the backmost image. The contents of this setting are as described above.

続くステップS1706では、今回の描画リストに指定されている背景用のオブジェクトを把握するとともに、ステップS1707にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS1708にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本背景用の設定処理を終了する。   In the following step S1706, an object for background designated in the current drawing list is grasped, and in step S1707, various parameters designated about the object are grasped. Thereafter, in step S1708, the setting process to the world coordinate system is executed for the object, and the setting process for the background is ended.

上記のように背景用の設定処理が実行されることにより、別保存データの使用指定が設定されていない状況だけでなく、別保存データの使用指定が設定されている状況であっても、描画リストにて指定されている画像データをワールド座標系に設定することができる。そして、これに伴って、例えば今回の描画リストが表示モードの切換に係るものである場合には、切換先の表示モードに対応した画像データの制御開始用の設定を行うことができる。   By the background setting process being executed as described above, drawing is performed not only in the case where the use specification of separately stored data is not set, but also in the situation where the use specification of separately stored data is set The image data specified in the list can be set in the world coordinate system. Then, along with this, for example, when the current drawing list relates to the switching of the display mode, it is possible to perform setting for starting control of image data corresponding to the display mode of the switching destination.

次に、VDP135にて実行される背景用の描画データ作成処理を、図27のフローチャートを参照しながら説明する。なお、背景用の描画データ作成処理は、描画処理(図16)におけるステップS1010にて実行される。   Next, a background drawing data creation process executed by the VDP 135 will be described with reference to the flowchart of FIG. The background drawing data creation process is executed in step S1010 in the drawing process (FIG. 16).

先ずステップS1801では、レジスタ153に別保存データの使用設定の情報がセットされているか否かを判定する。セットされていない場合には、ステップS1802にて、隠面処理を実行して、スクリーン用バッファ144に背景用の描画データを作成する。隠面処理については、既に説明したとおりである。   First, in step S1801, it is determined whether the information of use setting of another storage data is set in the register 153 or not. If it is not set, hidden surface processing is executed in step S1802 to create background drawing data in the screen buffer 144. The hidden surface processing is as described above.

続くステップS1803では、今回の描画リストにおいて別保存の実行指定が設定されているか否かを判定する。設定されていない場合には、そのまま本描画データ作成処理を終了する。設定されている場合には、ステップS1804にて、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち対象となるモード用領域へ、ステップS1802にて作成された背景用の描画データを書き込む。これにより、背景用の描画データの別保存が行われる。その後に、本描画データ作成処理を終了する。   In the following step S1803, it is determined whether an execution specification of separate storage is set in the current drawing list. If the setting is not made, the present drawing data creation processing is ended as it is. If it is set, in step S1804, the background area created in step S1802 is set to the target mode area out of the first mode area 145a and the second mode area 145b of the mode buffer 145. Write the drawing data of. Thereby, separate storage of drawing data for background is performed. Thereafter, the drawing data creation process is ended.

一方、ステップS1801にて、レジスタ153に別保存データの使用設定の情報がセットされている場合には、ステップS1805に進む。ステップS1805では、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち、今回指定されているモード用領域から別保存データを読み出し、その読み出した別保存データを、今回の背景用の描画データとして、スクリーン用バッファ144に書き込む。その後に、本描画データ作成処理を終了する。   On the other hand, in step S1801, when the information of the use setting of another storage data is set in the register 153, the process proceeds to step S1805. In step S1805, of the first mode area 145a and the second mode area 145b of the mode buffer 145, another storage data is read from the mode area designated at this time, and the read other storage data is read. The screen buffer 144 is written as drawing data for the background. Thereafter, the drawing data creation process is ended.

上記のように背景用の描画データ作成処理が実行されることにより、ジオメトリ演算及びレンダリングを通じた背景用の描画データ、又は別保存データに係る背景用の描画データがスクリーン用バッファ144に格納される。また、各表示モードに対応した画像が表示されるフレームにおいては、その後に演出及び図柄用の描画データ作成処理(ステップS1011)が実行されて、演出及び図柄用の描画データが作成されるとともに、描画データ合成処理(ステップS1012)が実行されて、1フレーム分の描画データが作成される。   The background drawing data creation processing is executed as described above, whereby the background drawing data for geometry calculation and rendering, or the background drawing data related to another storage data is stored in the screen buffer 144. . Further, in a frame in which an image corresponding to each display mode is displayed, rendering data creation processing for effects and symbols (step S1011) is subsequently performed to create rendering data for effects and symbols, The drawing data combining process (step S1012) is executed to create drawing data for one frame.

ここで、第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを、図28のタイミングチャートを参照しながら説明する。   Here, the timing at which the separate storage data for the first display mode and the separate storage data for the second display mode are created will be described with reference to the timing chart of FIG.

図28(A)は第1表示モードに対応した背景用の描画データPD1を示し、図28(B)は第2表示モードに対応した背景用の描画データPD2を示す。また、図28(a)はパチンコ機10の電源のON/OFFの状態を示し、図28(b)は第1表示モードの有無を示し、図28(c)は第2表示モードの有無を示し、図28(d)は第1表示モード用の別保存データの有無を示し、図28(e)は第2表示モード用の別保存データの有無を示す。   FIG. 28A shows background drawing data PD1 corresponding to the first display mode, and FIG. 28B shows background drawing data PD2 corresponding to the second display mode. Also, FIG. 28 (a) shows the power ON / OFF state of the pachinko machine 10, FIG. 28 (b) shows the presence or absence of the first display mode, and FIG. 28 (c) shows the presence or absence of the second display mode. FIG. 28 (d) shows the presence or absence of separate storage data for the first display mode, and FIG. 28 (e) shows the presence or absence of separate storage data for the second display mode.

t1のタイミングでパチンコ機10の電源がON操作されることで、表示CPU131への電力供給が開始され、表示CPU131にて処理が開始される。また、表示モードは第1表示モードに設定されているため、t1のタイミングよりも後のタイミングで、第1表示モードに対応した画像を表示させるために、描画リストが表示CPU131からVDP135に出力され、さらにその描画リストに基づきVDP135にて第1表示モードに対応した描画データの作成が開始される。   As the power of the pachinko machine 10 is turned on at the timing of t1, the power supply to the display CPU 131 is started, and the processing is started by the display CPU 131. Further, since the display mode is set to the first display mode, the display CPU 131 outputs the drawing list to the VDP 135 to display an image corresponding to the first display mode at a timing later than the timing of t1. Further, generation of drawing data corresponding to the first display mode is started in the VDP 135 based on the drawing list.

その後、t2のタイミングで、第1表示モードに対応した背景用の描画データPD1の作成が完了することで、その描画データが第1表示モード用の別保存データとしてモード用バッファ145の第1モード用領域145aに記憶される。この第1表示モードに対応した背景用の描画データPD1による背景画像では、図28(A)に示すように、最背面画像の手前にて「A」〜「F」にて示す3次元のキャラクタ画像が表示される。また、第1モード用領域145aに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。また、t2のタイミング又はその後の所定のタイミングで、第1表示モードに対応した画像の表示が開始される。   Thereafter, at time t2, when the creation of the background drawing data PD1 corresponding to the first display mode is completed, the drawing data is used as another storage data for the first display mode in the first mode of the mode buffer 145. Are stored in the memory area 145a. In the background image based on the background drawing data PD1 corresponding to the first display mode, as shown in FIG. 28A, three-dimensional characters indicated by “A” to “F” in front of the rearmost image. The image is displayed. Further, the separate storage data stored in the first mode area 145a is stored while the power supply to the VRAM 134 is continued. Further, the display of the image corresponding to the first display mode is started at the timing of t2 or at a predetermined timing thereafter.

その後、t3のタイミングで演出用操作装置48が操作されることに基づき、表示モードが第1表示モードから第2表示モードに切り換えられる。そして、第2表示モード用の描画データが作成され、第2表示モードに対応した画像の表示が開始される。また、当該タイミングにおいて第2表示モードに対応した背景用の描画データPD2の作成が完了するため、その描画データが第2表示モード用の別保存データとしてモード用バッファ145の第2モード用領域145bに記憶される。この第2表示モードに対応した背景用の描画データPD2による背景画像では、図28(B)に示すように、最背面画像の手前にて「G」〜「J」にて示す3次元のキャラクタ画像が表示される。また、第2モード用領域145bに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。   Thereafter, the display mode is switched from the first display mode to the second display mode based on the operation device for effect 48 being operated at the timing of t3. Then, drawing data for the second display mode is created, and display of an image corresponding to the second display mode is started. In addition, since the creation of background drawing data PD2 corresponding to the second display mode is completed at this timing, the drawing data serves as another storage data for the second display mode and the second mode area 145b of the mode buffer 145. Is stored in In the background image based on the background drawing data PD2 corresponding to the second display mode, as shown in FIG. 28B, three-dimensional characters indicated by "G" to "J" in front of the rearmost image. The image is displayed. Further, the separate storage data stored in the second mode area 145 b is stored while the power supply to the VRAM 134 is continued.

ここで、第1表示モードに対応した背景用の描画データPD1は、第2表示モードに対応した背景用の描画データPD2に比べて、設定されるオブジェクトの数が多い。そうすると、第2表示モードから第1表示モードの切換がVDP135の処理負荷の大きい状況で行われると、VDP135にて処理落ちが発生してしまうことが懸念される。これに対して、両別保存データのうち、第1表示モード用の別保存データを電源立ち上げ時の初期設定が行われている時間を利用して作成しておくことで、処理負荷の大きい状況で表示モードが第1表示モードに切り換えられた場合には、その別保存データを利用して処理落ちを回避することができる。   Here, the background drawing data PD1 corresponding to the first display mode has more objects to be set than the background drawing data PD2 corresponding to the second display mode. Then, if switching from the second display mode to the first display mode is performed in a situation where the processing load of the VDP 135 is large, there is a concern that a processing drop may occur in the VDP 135. On the other hand, the processing load is large by creating separately stored data for the first display mode among the stored data separately for both using time when initial setting at power on is performed. In the situation where the display mode is switched to the first display mode, it is possible to use the other stored data to avoid processing omission.

一方、第2表示モードに対応した背景用の描画データPD2は、その作成にかかるVDP135の処理負荷が小さく、VDP135の処理負荷の大きい状況で第2表示モードへの切換が行われたとしても、処理落ちが発生しないように設定されている。但し、第2表示モードに対応した背景用の描画データPD2についても別保存は行われ、処理落ちが発生しないまでも比較的処理負荷が大きい状況で第2表示モードへの切換が行われた場合には、その別保存データが利用される。   On the other hand, the background drawing data PD2 corresponding to the second display mode has a small processing load on the VDP 135 for its creation, and even if switching to the second display mode is performed in a situation where the processing load on the VDP 135 is large, It is set so that processing omission does not occur. However, the background display data PD2 corresponding to the second display mode is also stored separately, and switching to the second display mode is performed in a situation where the processing load is relatively large even if processing omission does not occur. , The other stored data is used.

上記のように別保存データが作成されることで、t4〜t9のタイミングで示すように、表示モードの切換が短時間で繰り返し実行された場合などには、それぞれの表示モードにおいて別保存データを利用して背景用の画像を表示することで、処理落ちの発生を阻止することができる。   As described above, as shown by the timing of t4 to t9, when the switching of the display mode is repeatedly performed in a short time by the separate storage data being created, the other storage data is displayed in each display mode. By using the background image to display, it is possible to prevent the occurrence of processing omission.

また、別保存の対象は背景画像であり、図柄といった変動が注目される個別画像は含まれない。これにより、個別画像が変動している状況で表示モードの切換が行われた場合に、別保存データを使用した画像の表示を行ったとしても、変動が注目される個別画像の動きは継続されるため、遊技者が違和感を抱きづらくなる。   Further, the target of separate storage is a background image, and does not include an individual image in which a change such as a pattern is noted. As a result, when the display mode is switched in a situation where the individual image is changing, the movement of the individual image for which the change is noted continues even if the image is displayed using another stored data. As a result, the player feels uncomfortable.

なお、表示モードは2段階に限定されることはなく、3段階又は4段階以上設定されていてもよい。この場合であっても、各表示モードに対応した背景用の描画データを別保存しておくことで、表示モードの切換を良好に行うことができる。   The display mode is not limited to two stages, and may be set to three stages or four or more stages. Even in this case, the display mode can be switched favorably by separately storing background drawing data corresponding to each display mode.

また、表示モードの切換タイミングがいずれであっても、図柄の種類の切換が待機されることなく行われる構成としてもよい。また、図柄は表示モード間で相違しない構成としてもよい。   Moreover, it is good also as a structure performed without the switch of the kind of symbol being carried out waiting, regardless of the switch timing of a display mode. Further, the symbols may be configured not to differ between the display modes.

また、演出用のキャラクタも表示モードに依存して切り換わる構成としてもよい。この場合、演出用のキャラクタは別保存の対象ではない構成としてもよく、別保存の対象である構成としてもよい。   Also, the effect character may be switched depending on the display mode. In this case, the effect character may not be stored separately, or may be stored separately.

<連結オブジェクトを用いて3次元画像を表示するための構成>
次に、連結オブジェクトを用いて3次元画像を表示するための構成について説明する。
<Configuration for Displaying 3D Image Using Connected Object>
Next, a configuration for displaying a three-dimensional image using a connected object will be described.

連結オブジェクトは、複数の部品オブジェクト(部分オブジェクト)が連結部を関節として連結された一単位のオブジェクトであり、各部品オブジェクトを相対的に変位させることで3次元画像のキャラクタに動きを与えるために設定されている。連結オブジェクトを用いることにより、3次元画像のキャラクタをスムーズに動作させることができる。なお、連結オブジェクトが骨格部と関節部とを有していることに鑑みれば、ボーンモデルと称することもできる。   A linked object is a single unit object in which a plurality of component objects (partial objects) are linked with joints as joints, and to move characters in a three-dimensional image by relatively displacing each component object It is set. By using the connected object, the character of the three-dimensional image can be moved smoothly. In view of the fact that the connected object has a skeleton and joints, it can also be called a bone model.

連結オブジェクトは、所定の動作を行うキャラクタを表示するために設定されている。ここで、本実施形態では、共通のキャラクタを表示するための連結オブジェクトが複数種類設定されている。この複数種類の連結オブジェクトについて、図29を参照しながら説明する。   The connected object is set to display a character that performs a predetermined action. Here, in the present embodiment, a plurality of types of linked objects for displaying a common character are set. The plurality of types of connected objects will be described with reference to FIG.

図29(a),(b)に示すように、共通のキャラクタを表示するために、第1の連結オブジェクトPC15と、第2の連結オブジェクトPC16とが設定されている。これら第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16はそれぞれ複数の連結部CT1,CT2を有しているが、相互に異なる箇所に連結部CT1,CT2が設定されている。   As shown in FIGS. 29A and 29B, in order to display a common character, a first connected object PC15 and a second connected object PC16 are set. Each of the first connected object PC15 and the second connected object PC16 has a plurality of connected parts CT1 and CT2, but the connected parts CT1 and CT2 are set at mutually different places.

具体的には、第1の連結オブジェクトPC15は膝部分に連結部が設けられていないが、肘部分に連結部CT1が設けられており、図29(a―1),(a―2)に示すような動作の表示が可能となっている。一方、第2の連結オブジェクトPC16は肘部分に連結部が設けられていないが、膝部分に連結部CT2が設けられており、図29(b―1),(b―2)に示すような動作の表示が可能となっている。上記のように異なる箇所に連結部が設定されていることにより、第1の連結オブジェクトPC15を使用した場合と第2の連結オブジェクトPC16を使用した場合とで、キャラクタに異なる動作をさせることが可能となる。   Specifically, although the first connected object PC 15 is not provided with a connecting portion at the knee portion, a connecting portion CT1 is provided at the elbow portion, as shown in FIGS. 29 (a-1) and (a-2). It is possible to display the operation as shown. On the other hand, the second connected object PC16 is not provided with the connecting part at the elbow part, but the connecting part CT2 is provided at the knee part, as shown in FIGS. 29 (b-1) and (b-2). It is possible to display the operation. As described above, by setting the connecting parts at different places, it is possible to make the character perform different operations depending on the case where the first connected object PC 15 is used and the case where the second connected object PC 16 is used. It becomes.

なお、両連結オブジェクトPC15,PC16は共通する箇所に連結部CT1,CT2を有しているが、共通する箇所に連結部CT1,CT2を有していない構成としてもよい。また、両連結オブジェクトPC15,PC16に対しては共通のテクスチャがマッピングされるが、それぞれ個別にテクスチャが設定されている構成としてもよい。複数の連結オブジェクトPC15,PC16を用意しておくことでキャラクタに異なる動作をさせることが可能であれば、連結部CT1,CT2の位置やキャラクタの種類は任意である。   Although both connected objects PC15 and PC16 have the connecting parts CT1 and CT2 in the common part, they may be configured not to have the connecting parts CT1 and CT2 in the common part. Also, although a common texture is mapped to both connected objects PC15 and PC16, a texture may be individually set. If it is possible to cause the character to perform different operations by preparing a plurality of connected objects PC15 and PC16, the positions of the connecting parts CT1 and CT2 and the type of the character are arbitrary.

以下、上記両連結オブジェクトPC15,PC16を用いてキャラクタが動作している様子を表示するための具体的な処理構成を説明する。   Hereinafter, a specific processing configuration for displaying a state in which the character is moving using both of the connected objects PC15 and PC16 will be described.

図30は、表示CPU131にて実行される連結オブジェクト用の演算処理を示すフローチャートである。連結オブジェクト用の演算処理はタスク処理(図14)のステップS904における演出用演算処理にて実行される。また、連結オブジェクト用の演算処理は、連結オブジェクトPC15,PC16を用いた演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。   FIG. 30 is a flowchart showing operation processing for a connected object executed by the display CPU 131. Arithmetic processing for connected objects is executed in the effect arithmetic processing in step S904 of task processing (FIG. 14). In addition, the operation process for the connected object is activated when the data table corresponding to the game time in which the effect using the connected objects PC15 and PC16 is executed is set.

先ずステップS1901では、現状設定されているデータテーブルに基づいて、連結オブジェクトPC15,PC16を用いた演出の実行中(上記キャラクタが表示中)であるか否かを判定する。演出の実行中ではない場合にはステップS1902にて、連結オブジェクトPC15,PC16を用いた演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS1903に進む。   First, in step S1901, it is determined based on the currently set data table whether or not rendering using the connected objects PC15 and PC16 is being performed (the above character is being displayed). If the effect is not being executed, it is determined in step S1902 whether or not it is time to start an effect using the connected objects PC15 and PC16. If it is not the start timing, the present arithmetic processing ends, and if it is the start timing, the process proceeds to step S1903.

ステップS1903では、連結オブジェクト演出の開始指定情報を記憶し、続くステップS1904にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。ちなみに、ステップS1904の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、両連結オブジェクトPC15,PC16に対して制御開始用の処理が完了している。また、制御が開始された両連結オブジェクトPC15,PC16の制御用の情報は、連結オブジェクトPC15,PC16を用いた今回の一連の演出が完了するまではワークRAM132に記憶保持される。   In step S1903, the start designation information of the connected object effect is stored, and in the subsequent step S1904, based on the currently set data table, the first connected object PC15 and the second connected object PC16 are grasped as control targets. Do. Incidentally, at the execution timing of the process of step S1904, in the setting process for control start immediately before (step S901), the process for control start is completed for both connected objects PC15 and PC16. Further, information for control of both connected objects PC15 and PC16 for which control has been started is stored in the work RAM 132 until the present series of effects using the connected objects PC15 and PC16 are completed.

続くステップS1905では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1906では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。   In the subsequent step S1905, various parameters of the first connected object PC15 are calculated, and control information related to the first connected object PC15 is updated. In step S1906, various parameters of the second connected object PC16 are calculated, and control information related to the second connected object PC16 is updated.

続くステップS1907では、第1演出期間の指定情報を記憶する。ここで、連結オブジェクトPC15,PC16を用いた演出は、その全体の演出期間が複数種類の演出期間、具体的には第1演出期間,第2演出期間及び第3演出期間に区分けされている。そして、第1演出期間及び第3演出期間は第1の連結オブジェクトPC15を用いてキャラクタが表示され、第2演出期間は第2の連結オブジェクトPC16を用いてキャラクタが表示される。その後、ステップS1908にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。   In the subsequent step S1907, designation information of the first effect period is stored. Here, in the effects using the connected objects PC15 and PC16, the entire effect period is divided into a plurality of effect periods, specifically, a first effect period, a second effect period, and a third effect period. Then, the character is displayed using the first connected object PC 15 in the first effect period and the third effect period, and the character is displayed using the second connected object PC 16 in the second effect period. After that, in step S1908, the parameters of the first connected object PC15 of the both connected objects PC15 and PC16 are set to be specified in the current drawing list.

続くステップS1909では、現状設定されているデータテーブルに基づいて、第1演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ちなみに、ステップS1909の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、今回の更新対象のオブジェクトに対して制御開始用の処理が完了している。その後、ステップS1910にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。   In the subsequent step S1909, based on the currently set data table, the object to be updated this time, which is another object for the first effect period, is grasped. Incidentally, at the execution timing of the process of step S1909, in the setting process for the control start immediately before (step S901), the process for the control start is completed for the object to be updated this time. Thereafter, in step S1910, various parameters of the above-identified other objects are calculated, and control information related to these other objects is updated, after which the present arithmetic processing ends.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、連結オブジェクトPC15,PC16を用いた演出を開始させるべきことを示す連結オブジェクト演出の開始指定情報と、第1演出期間であることを示す第1演出期間の指定情報とが、描画リストに設定される。   As described above, when arithmetic processing for connected objects is executed, information on usage instructions for both connected objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output processing, and The parameters of the first connected object PC15 are set to the objects PC15 and PC16. In addition, start specification information of the connected object effect indicating that the effect using the connection objects PC 15 and PC 16 should be started, and specification information of the first effect period indicating that it is the first effect period are set in the drawing list. Be done.

一方、連結オブジェクトPC15,PC16を用いた演出の実行中である場合(ステップS1901:YES)には、ステップS1911にて、現状設定されているデータテーブルに基づいて、第1演出期間中であるか否かを判定する。第1演出期間中である場合には、ステップS1904〜ステップS1910の処理を実行した後に、本演算処理を終了する。ちなみに、今回は第1演出期間中であるため、当該第1演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1905にてパラメータの演算が行われる。   On the other hand, if the effect using the connected objects PC15 and PC16 is being executed (step S1901: YES), is it in the first effect period based on the data table currently set in step S1911? It is determined whether or not. If it is during the first effect period, the processing of steps S1904 to S1910 is performed, and then this arithmetic processing ends. By the way, since this time during the first effect period, the first connected object PC 15 performs a predetermined first operation (see FIG. 29A) as the first effect period progresses. In step S1905, calculation of parameters is performed.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第1演出期間であることを示す第1演出期間の指定情報が、描画リストに設定される。   As described above, when arithmetic processing for connected objects is executed, information on usage instructions for both connected objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output processing, and The parameters of the first connected object PC15 are set to the objects PC15 and PC16. Further, designation information of the first effect period indicating that it is the first effect period is set in the drawing list.

ステップS1911にて、第1演出期間中ではないと判定した場合には、ステップS1912にて、現状設定されているデータテーブルに基づいて、第2演出期間中であるか否かを判定する。第2演出期間中である場合には、ステップS1913にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。   If it is determined in step S1911 that the first effect period is not in progress, it is determined in step S1912 whether or not the second effect period is in progress based on the currently set data table. If it is in the second effect period, in step S1913, the first connected object PC15 and the second connected object PC16 are grasped as a control target based on the currently set data table.

続くステップS1914では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1915では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。ちなみに、今回は第2演出期間中であるため、当該第2演出期間の進行に伴って第2の連結オブジェクトPC16が予め定められた第2の動作(図29(b)を参照)をするように、ステップS1915にてパラメータの演算が行われる。   In the subsequent step S1914, various parameters of the first connected object PC15 are calculated, and control information related to the first connected object PC15 is updated. In step S1915, various parameters of the second connected object PC16 are calculated, and control information related to the second connected object PC16 is updated. By the way, this time during the second effect period, the second connected object PC 16 performs a predetermined second operation (see FIG. 29B) as the second effect period progresses. In step S1915, calculation of parameters is performed.

続くステップS1916では、第2演出期間の指定情報を記憶し、さらにステップS1917にて、両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のパラメータが今回の描画リストにて指定されるように設定する。   In the subsequent step S1916, the designation information of the second effect period is stored, and in step S1917, the parameter of the second connected object PC16 of the both connected objects PC15 and PC16 is specified in the current drawing list. Set

続くステップS1918では、現状設定されているデータテーブルに基づいて、第2演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第2演出期間は第1演出期間よりも演出が発展した状態であり、少なくとも第1演出期間から第2演出期間への切り換えに際して表示されるオブジェクト数は増加する。第1演出期間から第2演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1918の処理の実行タイミングにおいて完了している。その後、ステップS1919にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。   In the subsequent step S1918, based on the currently set data table, the object to be updated this time, which is another object for the second effect period, is grasped. Here, the second effect period is a state in which the effect has developed more than the first effect period, and the number of objects displayed when switching from at least the first effect period to the second effect period increases. The setting process (step S901) for the control start with respect to the increased object at the time of switching from the first effect period to the second effect period is completed at the execution timing of the process of step S1918. Thereafter, in step S1919, various parameters of the above-identified other objects are calculated, and control information related to these other objects is updated, and then this arithmetic processing ends.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第2の連結オブジェクトPC16のパラメータが設定される。また、第2演出期間であることを示す第2演出期間の指定情報が、描画リストに設定される。   As described above, when arithmetic processing for connected objects is executed, information on usage instructions for both connected objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output processing, and The parameters of the second connected object PC16 are set to the objects PC15 and PC16. Further, designation information of a second effect period indicating that it is a second effect period is set in the drawing list.

ステップS1912にて、第2演出期間中ではないと判定した場合には、第3演出期間であることを意味するため、ステップS1920に進む。ステップS1920では、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。   If it is determined in step S1912 that the second effect period is not in progress, the process proceeds to step S1920 to indicate that it is the third effect period. In step S1920, the first connected object PC 15 and the second connected object PC 16 are grasped as control targets based on the currently set data table.

続くステップS1921では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。ちなみに、今回は第3演出期間中であるため、当該第3演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1921にてパラメータの演算が行われる。また、ステップS1922では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。   In the subsequent step S1921, various parameters of the first connected object PC15 are calculated, and control information related to the first connected object PC15 is updated. By the way, since this time is during the third effect period, the first connected object PC 15 performs a predetermined first operation (see FIG. 29A) as the third effect period progresses. In step S1921, the parameter calculation is performed. In step S1922, various parameters of the second connected object PC16 are calculated, and control information related to the second connected object PC16 is updated.

続くステップS1923では、第3演出期間の指定情報を記憶し、さらにステップS1924にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。   In the subsequent step S1923, the designation information of the third effect period is stored, and in step S1924, the parameter of the first connected object PC15 of both the connected objects PC15 and PC16 is specified in the current drawing list. Set

続くステップS1925では、現状設定されているデータテーブルに基づいて、第3演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第3演出期間は第2演出期間よりも演出が発展した状態であり、少なくとも第2演出期間から第3演出期間への切り換えに際して表示されるオブジェクト数は増加する。第2演出期間から第3演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1925の処理の実行タイミングにおいて完了している。その後、ステップS1926にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。   In the subsequent step S1925, based on the currently set data table, the object to be updated this time, which is another object for the third effect period, is grasped. Here, the third effect period is a state in which the effect has developed more than the second effect period, and the number of objects displayed when switching from at least the second effect period to the third effect period is increased. The setting process (step S901) for the control start on the object that has increased during switching from the second effect period to the third effect period is completed at the execution timing of the process of step S1925. Thereafter, in step S1926, various parameters of the above-identified other objects are calculated, and control information related to these other objects is updated, after which the present arithmetic processing ends.

上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第3演出期間であることを示す第3演出期間の指定情報が、描画リストに設定される。   As described above, when arithmetic processing for connected objects is executed, information on usage instructions for both connected objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output processing, and The parameters of the first connected object PC15 are set to the objects PC15 and PC16. Further, designation information of a third effect period indicating that it is a third effect period is set in the drawing list.

次に、VDP135にて実行される連結オブジェクト演出用の設定処理を、図31のフローチャートを参照しながら説明する。連結オブジェクト演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、連結オブジェクト演出用の設定処理は、今回の描画リストに連結オブジェクト演出の開始指定、第1演出期間乃至第3演出期間の指定のいずれかが設定されている場合に起動される。   Next, the setting process for linked object effect performed by the VDP 135 will be described with reference to the flowchart of FIG. The setting process for connected object effect is executed in the setting process for effect in step S1003 in the drawing process (FIG. 16). Further, the setting process for connected object effect is activated when any one of the start instruction of the connected object effect and the specification of the first effect period to the third effect period is set in the current drawing list.

先ずステップS2001では、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されているか否かを判定する。設定されている場合には、ステップS2002にて、今回の描画リストに基づいて、メモリモジュール133において第1の連結オブジェクトPC15が記憶されているアドレスを把握して、当該第1の連結オブジェクトPC15を読み出す。また、ステップS2003にて、今回の描画リストに基づいて、メモリモジュール133において第2の連結オブジェクトPC16が記憶されているアドレスを把握して、当該第2の連結オブジェクトPC16を読み出す。   First, in step S2001, it is determined whether start designation of connected object effect is set in the current drawing list. If it is set, in step S2002, the memory module 133 recognizes the address at which the first connected object PC 15 is stored based on the current drawing list, and sets the first connected object PC 15 in question. read out. In step S2003, the memory module 133 recognizes the address at which the second connected object PC 16 is stored based on the current drawing list, and reads the second connected object PC16.

続くステップS2004では、第1演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。   In the subsequent step S2004, setting processing of the uniform α value for the first effect period is executed. Specifically, the uniform α value of the first connected object PC 15 is set to “1” which is the opaque information, and the uniform α value of the second connected object PC 16 is set to “0” which is the completely transparent information Do. As a result, while color information (including information of the α value set to each pixel from the beginning) which is set in advance is applied to all pixels of the first connected object PC 15 as it is, The α value of “0” is uniformly applied to all pixels of two connected objects PC 16.

続くステップS2005では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2006にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。   In the subsequent step S2005, the parameter designated for the first connected object PC15 in the current drawing list is grasped as the parameters of both connected objects PC15 and PC16. Thereafter, in step S2006, processing for setting the world coordinate system is executed for both connected objects PC15 and PC16.

今回は連結オブジェクト演出の開始指定に係る処理回であるため、両連結オブジェクトPC15,PC16のワールド座標系への配置を行う。また、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第1の連結オブジェクトPC15のパラメータを第2の連結オブジェクトPC16にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。   Since it is the processing time which concerns on the start specification of a connection object production this time, arrangement | positioning to the world coordinate system of both connection objects PC15 and PC16 is performed. Further, although the shapes of both connected objects PC15 and PC16 substantially match, the connected part of each part object is different. Then, even if the parameter of the first connected object PC15 is applied as it is to the second connected object PC16, pixels for which the coordinate designations do not match are generated, but for such pixels, a predetermined adjustment is performed on the VDP 135 side .

続くステップS2007では、今回の描画リストに指定されている第1演出期間用の他のオブジェクトを把握するとともに、ステップS2008にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2009にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。   In the subsequent step S2007, while grasping other objects for the first effect period designated in the current drawing list, in step S2008, various parameters designated about the object are grasped. Thereafter, in step S2009, the setting process to the world coordinate system is executed for the object, and the setting process for the present connected object effect is ended.

上記のように連結オブジェクト演出用の設定処理が実行されることにより、ワールド座標系に対して両連結オブジェクトPC15,PC16の配置が同時に開始される。また、両連結オブジェクトPC15,PC16に対して同一のパラメータが適用されるため、ワールド座標系の同一の位置に対して両連結オブジェクトPC15,PC16が重ねて配置される。但し、ステップS2004の処理が実行されていることにより、第2の連結オブジェクトPC16はレンダリングに際して完全透明のオブジェクトとして扱われるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。   By executing the setting process for the connected object effect as described above, the arrangement of both connected objects PC15 and PC16 is simultaneously started with respect to the world coordinate system. Further, since the same parameter is applied to both connected objects PC15 and PC16, both connected objects PC15 and PC16 are arranged overlapping on the same position in the world coordinate system. However, since the second connected object PC16 is treated as a completely transparent object at the time of rendering because the process of step S2004 is executed, the first connected object of the both connected objects PC15 and PC16 is displayed on the display surface G. Only the PC 15 is displayed.

一方、ステップS2001にて、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されていないと判定した場合には、ステップS2010に進む。ステップS2010では、今回の描画リストにおいて第1演出期間の指定が設定されているか否かを判定する。   On the other hand, when it is determined in step S2001 that the start designation of the linked object effect is not set in the current drawing list, the process proceeds to step S2010. In step S2010, it is determined whether designation of the first effect period is set in the current drawing list.

設定されている場合には、ステップS2004〜ステップS2009の処理を実行した後に、本設定処理を終了する。この場合、ステップS2006では、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。   If the setting has been made, the processing of steps S2004 to S2009 is performed, and then the setting processing ends. In this case, in step S2006, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are grasped from information of parameters set corresponding to the first connected object PC15 in the drawing list. Update.

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2004の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2005で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第1演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。   By executing the setting process for linked object effect as described above, various parameters of both linked objects PC 15 and PC 16 are updated, but the process of step S 2004 is executed. Of the objects PC15 and PC16, only the first connected object PC15 is displayed. Further, since the parameter updated in step S2005 corresponds to the first connected object PC 15, the first connection is performed so that the first operation is performed on the display surface G as the first effect period progresses. The object PC 15 is displayed.

ステップS2010にて、今回の描画リストにおいて第1演出期間の指定が設定されていないと判定した場合には、ステップS2011に進む。ステップS2011では、今回の描画リストにおいて第2演出期間の指定が設定されているか否かを判定する。   If it is determined in step S2010 that designation of the first effect period is not set in the current drawing list, the process proceeds to step S2011. In step S2011, it is determined whether designation of the second effect period is set in the current drawing list.

設定されている場合には、ステップS2012にて、第2演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を完全透過情報である「0」に設定するとともに、第2の連結オブジェクトPC16の一律α値を不透過情報である「1」に設定する。これにより、第2の連結オブジェクトPC16の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第1の連結オブジェクトPC15の全ピクセルに対して「0」のα値が一律に適用される。   If it is set, in step S2012, a process of setting a uniform α value for the second effect period is executed. Specifically, the uniform α value of the first connected object PC 15 is set to “0” which is complete transparency information, and the uniform α value of the second connected object PC 16 is set to “1” which is opaque information Do. As a result, color information (including information of the α value set to each pixel from the beginning) which is set in advance is applied as it is to all pixels of the second connected object PC16. The α value of “0” is uniformly applied to all pixels of “1” connected object PC 15.

続くステップS2013では、今回の描画リストにおいて第2の連結オブジェクトPC16に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2014にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。   In the subsequent step S2013, the parameters specified for the second connected object PC16 in the current drawing list are grasped as parameters of both connected objects PC15 and PC16. Thereafter, in step S2014, setting processing to the world coordinate system is executed for both connected objects PC15 and PC16.

今回は第2演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第2の連結オブジェクトPC16に対応させて設定されているパラメータの情報から把握して更新する。この場合に、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第2の連結オブジェクトPC16のパラメータを第1の連結オブジェクトPC15にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。   Since this time is processing for updating the second effect period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set corresponding to the second connected object PC16 in the drawing list. Understand and update from the parameter information. In this case, the shapes of both connected objects PC15 and PC16 substantially match, but the connected parts of the respective part objects are different. Then, even if the parameter of the second connected object PC16 is applied as it is to the first connected object PC15, pixels for which the coordinate designations do not match are generated, but for such pixels, a predetermined adjustment is performed on the VDP 135 side .

続くステップS2015では、今回の描画リストに指定されている第2演出期間用の他のオブジェクトを把握するとともに、ステップS2016にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2017にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第1演出期間から第2演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2017ではそれに応じた処理を実行する。   In the following step S2015, while grasping other objects for the second effect period designated in the current drawing list, in step S2016, various parameters designated about the object are grasped. Thereafter, in step S2017, the setting process to the world coordinate system is executed for the object, and the setting process for the present connected object effect is ended. Here, if the current processing time is the timing for switching from the first effect period to the second effect period, the number of objects to be displayed is increased, so the process according to that is executed in step S2017. .

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2012の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のみが表示される。また、ステップS2013で更新されるパラメータは、第2の連結オブジェクトPC16に対応しているため、第2演出期間の進行に伴って、表示面Gでは第2の動作を行うように第2の連結オブジェクトPC16が表示される。   By executing the setting process for the connected object effect as described above, various parameters of both connected objects PC15 and PC16 are updated, but the process of step S2012 is performed. Of the objects PC15 and PC16, only the second connected object PC16 is displayed. In addition, since the parameter updated in step S2013 corresponds to the second connected object PC 16, the second connection is performed so that the second operation is performed on the display surface G as the second effect period progresses. The object PC 16 is displayed.

ステップS2011にて、今回の描画リストにおいて第2演出期間の指定が設定されていないと判定した場合には、今回の描画リストにおいて第3演出期間の指定が設定されていることを意味するため、ステップS2018に進む。   If it is determined in step S2011 that the specification of the second effect period is not set in the current drawing list, this means that the specification of the third effect period is set in the current drawing list, The process advances to step S2018.

ステップS2018では、第3演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。   In step S2018, setting processing of a uniform α value for the third effect period is executed. Specifically, the uniform α value of the first connected object PC 15 is set to “1” which is the opaque information, and the uniform α value of the second connected object PC 16 is set to “0” which is the completely transparent information Do. As a result, while color information (including information of the α value set to each pixel from the beginning) which is set in advance is applied to all pixels of the first connected object PC 15 as it is, The α value of “0” is uniformly applied to all pixels of two connected objects PC 16.

続くステップS2019では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2020にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。   In the subsequent step S2019, the parameter designated for the first connected object PC15 in the current drawing list is grasped as the parameters of both connected objects PC15 and PC16. Thereafter, in step S2020, processing for setting the world coordinate system is executed for both connected objects PC15 and PC16.

今回は第3演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。   Since this time is processing for updating the third effect period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set corresponding to the first connected object PC15 in the drawing list. Understand and update from the parameter information.

続くステップS2021では、今回の描画リストに指定されている第3演出期間用の他のオブジェクトを把握するとともに、ステップS2022にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2023にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第2演出期間から第3演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2023ではそれに応じた処理を実行する。   In the following step S2021, while grasping other objects for the third effect period designated in the current drawing list, in step S2022, various parameters designated about the object are grasped. Thereafter, in step S2023, the setting process to the world coordinate system is executed for the object, and the setting process for the present connected object effect is ended. Here, when the current processing time is a timing related to switching from the second effect period to the third effect period, the number of objects to be displayed is increased, and accordingly, processing corresponding to that is executed in step S2023. .

上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2018の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2019で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第3演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。   By executing the setting process for linked object effect as described above, various parameters of both linked objects PC 15 and PC 16 are updated, but the process of step S 2018 is executed. Of the objects PC15 and PC16, only the first connected object PC15 is displayed. Further, since the parameter updated in step S2019 corresponds to the first connected object PC 15, the first connection is performed so that the first operation is performed on the display surface G with the progress of the third effect period. The object PC 15 is displayed.

次に、連結オブジェクト演出の内容について、図32を参照しながら説明する。   Next, the contents of the connected object effect will be described with reference to FIG.

図32は連結オブジェクト演出を説明するための説明図である。また、図32(a)は第1演出期間を示し、図32(b)は第2演出期間を示し、図32(c)は第3演出期間を示す。なお、図32(a―1),(b―1),(c―1)はワールド座標系のイメージ図であり、図32(a―2),(b―2),(c―2)は表示面Gを示す。また、図32(a―2),(b―2),(c―2)では背景画像や図柄を省略しているが、実際には各演出用の画像の奥側にて背景画像が表示されるとともに手前側にて図柄が表示される。   FIG. 32 is an explanatory view for explaining a connected object effect. Further, FIG. 32 (a) shows a first effect period, FIG. 32 (b) shows a second effect period, and FIG. 32 (c) shows a third effect period. 32 (a-1), (b-1) and (c-1) are image diagrams of the world coordinate system, and FIGS. 32 (a-2), (b-2) and (c-2) are images of the world coordinate system. The display surface G is shown. Moreover, although a background image and a pattern are abbreviate | omitted in FIG. 32 (a-2), (b-2), and (c-2), a background image is actually displayed on the back side of the image for each production At the same time, the symbol is displayed on the near side.

第1演出期間では、図32(a―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(a―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第1演出期間の進行に伴って第1の動作が行われる。また、その他のオブジェクトに対応した画像として、「A」〜「C」に示すキャラクタCH4〜CH6が表示される。   In the first effect period, as shown in FIG. 32 (a-1), both connected objects PC15 and PC16 are set in the world coordinate system, but a transparentizing process is performed on the second connected object PC16. . Therefore, as shown in FIG. 32 (a-2), the character CH3 corresponding to the first connected object PC15 is displayed on the display surface G, and the first operation is performed with the progress of the first effect period. . In addition, characters CH4 to CH6 shown in "A" to "C" are displayed as images corresponding to other objects.

第2演出期間では、図32(b―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第1の連結オブジェクトPC15に対しては透明化処理が行われる。したがって、図32(b―2)に示すように、表示面Gには第2の連結オブジェクトPC16に対応したキャラクタCH3が表示され、第2演出期間の進行に伴って第2の動作が行われる。   In the second effect period, as shown in FIG. 32 (b-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the transparency processing is performed on the first connected object PC15. . Therefore, as shown in FIG. 32 (b-2), the character CH3 corresponding to the second connected object PC16 is displayed on the display surface G, and the second operation is performed with the progress of the second effect period. .

ここで、図32(a―2)と図32(b―2)とで比較した場合、両キャラクタCH3は異なる形状であるかのように示されているが、実際には両連結オブジェクトPC15,PC16に対して同一のテクスチャがマッピングされ、連結部(関節部分)が目立たなくなる。したがって、第1演出期間から第2演出期間に切り換わったとしても、キャラクタCH3に関して表示面Gでは同一、略同一又は同様の画像が表示され、遊技者はその切り換わりを認識しづらくなっている。但し、遊技者が切り換わりの発生を認識しづらいのであれば、両連結オブジェクトPC15,PC16に対して個別にテクスチャが設定されていてもよい。   Here, when FIG. 32 (a-2) and FIG. 32 (b-2) are compared, it is shown that both characters CH3 have different shapes, but actually both connected objects PC15, The same texture is mapped to the PC 16 to make the connection (joint part) inconspicuous. Therefore, even if the first effect period is switched to the second effect period, the same, substantially the same or similar images are displayed on the display surface G with respect to the character CH3, and the player has difficulty in recognizing the switch. . However, if it is difficult for the player to recognize the occurrence of switching, textures may be set individually for both connected objects PC15 and PC16.

また、第2演出期間では、その他のオブジェクトに対応した画像として、「A」〜「E」に示すキャラクタCH4〜CH8が表示される。このキャラクタCH4〜CH8の数は、第1演出期間の場合よりも多い数である。   In addition, in the second effect period, characters CH4 to CH8 shown in "A" to "E" are displayed as images corresponding to other objects. The number of characters CH4 to CH8 is greater than in the first effect period.

第3演出期間では、図32(c―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(c―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第3演出期間の進行に伴って第1の動作が行われる。また、第3演出期間では、その他のオブジェクトに対応した画像として、「A」〜「G」に示すキャラクタCH4〜CH10が表示される。このキャラクタCH4〜CH10の数は、第2演出期間の場合よりも多い数である。   In the third effect period, as shown in FIG. 32 (c-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the transparentizing process is performed on the second connected object PC16. . Therefore, as shown in FIG. 32 (c-2), the character CH3 corresponding to the first connected object PC15 is displayed on the display surface G, and the first operation is performed with the progress of the third effect period. . Further, in the third effect period, characters CH4 to CH10 indicated by "A" to "G" are displayed as images corresponding to the other objects. The number of characters CH4 to CH10 is greater than in the second effect period.

以上のとおり、共通のキャラクタに対して複数の連結オブジェクトPC15,PC16が設定されていることにより、関節部分を利用した動作の種類に応じて表示対象となる連結オブジェクトPC15,PC16を切り換えることができる。例えば、複数種類の動作を単一の連結オブジェクトで行おうとすると、それだけ分の連結部及び部品オブジェクトをその単一の連結オブジェクトに対して設定する必要が生じる。そうすると、一の画像データのデータ容量が大きくなってしまい、メモリモジュール133において単一の画像データとして記憶可能な容量を超えてしまうことが懸念され、超えないとしても単一の画像データを扱う上での処理時間や転送時間の長時間化が懸念される。これに対して、複数の連結オブジェクトPC15,PC16として設定されているため、上記のような不都合を生じさせることなく、キャラクタに対して複数種類の動作を行わせることが可能となる。   As described above, by setting the plurality of connected objects PC15 and PC16 for the common character, it is possible to switch between the connected objects PC15 and PC16 to be displayed according to the type of operation using the joint part. . For example, when performing a plurality of types of operations in a single connected object, it is necessary to set an amount of connected parts and component objects for the single connected object. Then, the data capacity of one image data becomes large, and there is a concern that the capacity which can be stored as a single image data in the memory module 133 may be exceeded. There is concern that the processing time and transfer time in the On the other hand, since the plurality of connected objects PC15 and PC16 are set, it is possible to cause the character to perform a plurality of types of operations without causing the above-mentioned inconvenience.

また、パチンコ機10の設計段階においては演出の修正が行われる機会が多く、キャラクタの動作についての修正の度に連結オブジェクトの全体の動きを見直していると、設計に要する期間が多大なものとなってしまう。これに対して、上記のように行わせたい動作の種類に応じて複数の連結オブジェクトPC15,PC16を設定することで、演出の修正を行う必要が生じたとしても、既に作成済みの連結オブジェクトPC15,PC16の全てを修正する必要がなくなる。よって、パチンコ機10の設計を良好に行えるようにしながら、キャラクタに対して複数種類の動作を行わせることが可能となる。   In addition, at the design stage of the pachinko machine 10, there are many opportunities for correction of the effect, and if the entire movement of the connected object is reviewed each time the character movement is corrected, it takes a long time to design. turn into. On the other hand, by setting the plurality of connected objects PC15 and PC16 according to the type of operation to be performed as described above, even if it is necessary to correct the effect, the already-created connected object PC15 , There is no need to modify all of the PCs 16. Therefore, while enabling the design of the pachinko machine 10 to be performed well, it is possible to cause the character to perform a plurality of types of operations.

また、キャラクタを表示させるために連結オブジェクトが切り換えられるタイミングよりも前に切換元のオブジェクトだけでなく切換先のオブジェクトについても、表示CPU131において制御対象とされるとともに、VDP135においてワールド座標系への配置対象とされる。これにより、切換タイミングとなった場合に表示CPU131及びVDP135では、切換先のオブジェクトに対して制御開始処理を実行するのではなく、当該制御開始処理よりも処理負荷が小さい制御更新処理を実行すればよいため、切換タイミングにおける処理負荷が軽減される。   Further, not only the switching source object but also the switching destination object is controlled by the display CPU 131 prior to the timing when the linked object is switched to display a character, and is arranged in the world coordinate system in the VDP 135 Targeted. Thereby, when the switching timing comes, the display CPU 131 and the VDP 135 do not execute the control start process on the switching destination object, but execute the control update process whose processing load is smaller than that of the control start process. The processing load at the switching timing is reduced because it is good.

特に、切換タイミングでは、演出が発展し、表示されるオブジェクトの数が増加するため、表示CPU131及びVDP135にとって処理負荷が比較的大きくなるタイミングである。この場合に、切換先のオブジェクトに対して制御開始処理を行う構成を想定すると、表示CPU131やVDP135において処理落ちが発生することが懸念されるが、上記のとおり切換先のオブジェクトについて制御更新処理を実行すればよいため、当該処理落ちの発生を阻止することができる。   In particular, at the switching timing, the effect develops and the number of objects displayed increases, so the processing load on the display CPU 131 and the VDP 135 becomes relatively large. In this case, assuming that the control start process is performed on the switching destination object, there is a concern that processing omission may occur in the display CPU 131 or VDP 135. However, as described above, the control updating process is performed on the switching destination object. Since the process can be performed, the occurrence of the process omission can be prevented.

また、ワールド座標系に両連結オブジェクトPC15,PC16を同時に配置するとともに、適用する一律α値を完全透過情報と不透過情報とで切り換える構成であるため、表示CPU131では両者の切換に関して一律α値の切換指定をすればよく、VDP135ではその指定に従って適用する一律α値を切り換えればよい。よって、表示CPU131及びVDP135の処理構成の複雑化を抑えながら、上記のような優れた効果を奏することができる。   In addition, since both connected objects PC15 and PC16 are simultaneously arranged in the world coordinate system, and the uniform α value to be applied is switched between complete transmission information and non-transmission information, the display CPU 131 uniformly changes the α value It suffices to specify switching, and the VDP 135 may switch the uniform α value to be applied according to the specification. Therefore, the above excellent effects can be achieved while suppressing the complication of the processing configuration of the display CPU 131 and the VDP 135.

また、表示CPU131からVDP135には、ワールド座標系に同時に配置される両連結オブジェクトPC15,PC16のうち表示対象の連結オブジェクトに対してのパラメータ情報のみが提供される。これにより、描画リストに設定されるデータ量の軽減が図られる。また、VDP135では、両連結オブジェクトPC15,PC16のパラメータの更新を同一の態様で行えばよいため、VDP135の処理負荷の軽減が図られる。   Further, only the parameter information for the connected object to be displayed among the connected objects PC15 and PC16 simultaneously arranged in the world coordinate system is provided from the display CPU 131 to the VDP 135. This reduces the amount of data set in the drawing list. Further, in the VDP 135, the processing load of the VDP 135 can be reduced because the parameters of both connected objects PC 15 and PC 16 may be updated in the same manner.

なお、第1演出期間〜第3演出期間の切換では、キャラクタの数が増加することに代えて又は加えて、上記複数の連結オブジェクトが用意されているキャラクタとは異なる演出用のキャラクタの動作が新たに追加される構成としてもよく、上記複数の連結オブジェクトが用意されているキャラクタとは別に処理負荷の大きい演出用のキャラクタの表示が開始される構成としてもよい。   In the switching of the first effect period to the third effect period, instead of or in addition to the increase in the number of characters, the motion of the effect character different from the character for which the plurality of connected objects are prepared is It may be configured to be newly added, or may be configured to start displaying a character for presentation with a large processing load separately from the character for which the plurality of connected objects are prepared.

また、第2の連結オブジェクトPC16の表示CPU131における制御開始タイミングやVDP135における制御開始タイミングは、第1の連結オブジェクトPC15と同一ではなくてもよい。例えば、第1演出期間から第2演出期間への切換タイミングよりも前ではあるが、第1の連結オブジェクトPC15の制御開始タイミングよりも後のタイミングであってもよい。   Further, the control start timing in the display CPU 131 of the second connected object PC 16 and the control start timing in the VDP 135 may not be the same as the first connected object PC 15. For example, the timing may be before the switching timing from the first effect period to the second effect period, but after the control start timing of the first connected object PC 15.

また、演出期間の切換タイミングにおける処理負荷が上記構成よりも増加するが、当該切換タイミングにおいて第2の連結オブジェクトPC16の制御が開始される構成としてもよい。この場合、第1の連結オブジェクトPC15と第2の連結オブジェクトPC16とがワールド座標系に同時に配置されることがないため、一律α値を調整して表示対象を切り換える制御を行わなくてもよい。   In addition, although the processing load at the switching timing of the rendering period increases more than the above configuration, the control of the second connected object PC 16 may be started at the switching timing. In this case, since the first connected object PC15 and the second connected object PC16 are not simultaneously arranged in the world coordinate system, it is not necessary to adjust the α value uniformly and switch the display object.

また、ワールド座標系に同時に配置されている両連結オブジェクトPC15,PC16について、表示対象の切換を一律α値の調整により行うのではなく、レンダリング対象の切換により行う構成としてもよい。この場合、表示対象ではない側の連結オブジェクトは、レンダリングが行われないこととなるため、上記構成よりもレンダリング時の処理負荷が軽減される。   In addition, with respect to both connected objects PC15 and PC16 simultaneously arranged in the world coordinate system, switching of display objects may be performed by switching of rendering objects, instead of uniformly adjusting the α value. In this case, since the connected object not to be displayed is not rendered, the processing load at the time of rendering is reduced compared to the above configuration.

また、第3演出期間が不具備である構成としてもよく、第4演出期間以上の演出期間が設定されている構成としてもよい。また、一のキャラクタに対して、3個以上の連結オブジェクトが用意されている構成としてもよい。   In addition, the third effect period may be incomplete, or the effect period of the fourth effect period or more may be set. Further, three or more connected objects may be prepared for one character.

<粒子分散演出を行うための構成>
次に、粒子分散演出を行うための構成について説明する。
<Configuration for performing particle dispersion effect>
Next, a configuration for performing particle dispersion rendition will be described.

粒子分散演出とは、連続する複数フレーム(複数の画像更新タイミング)に亘って、多数の粒子単体画像が分散していくかのように表示される演出のことである。この分散に際しては、多数の粒子単体画像における少なくとも一部の画像同士がそれぞれ異なる軌道で変位していくように表示される。粒子分散演出に際しては、多数の粒子単体画像に対して1対1で対応させて設定された多数の頂点データを有する粒子分散用オブジェクトと、当該粒子分散用オブジェクトに対応させて設定され、各頂点データに対応した位置にそれぞれ対応する粒子単体画像を表示させるための多数の単体画像データを有する粒子分散用テクスチャとが用いられる。   The particle dispersion effect is an effect in which a large number of particle single images are displayed as if they are dispersed over a plurality of continuous frames (a plurality of image update timings). At the time of this dispersion, at least a part of the images of a large number of particle single images are displayed so as to be displaced by different trajectories. In the particle dispersion rendition, it is set in correspondence with the object for particle dispersion having a large number of vertex data set in one-to-one correspondence with a large number of particle single images and the object for particle dispersion, and each vertex A particle dispersion texture having a large number of single image data for displaying a single particle image respectively corresponding to a position corresponding to data is used.

これら粒子分散用オブジェクト及び粒子分散用テクスチャについて、図33(a)及び図33(b)を参照しながら詳細に説明する。図33(a)は粒子分散用オブジェクトPC17を説明するための説明図であり、図33(b)は粒子分散用テクスチャPC18を説明するための説明図である。   The object for particle dispersion and the texture for particle dispersion will be described in detail with reference to FIGS. 33 (a) and 33 (b). FIG. 33 (a) is an explanatory view for explaining the particle dispersion object PC 17, and FIG. 33 (b) is an explanatory view for explaining the particle dispersion texture PC 18. As shown in FIG.

図33(a)に示すように、粒子分散用オブジェクトPC17は、頂点データと、当該頂点データに対応した座標データと、これら以外である他のデータとを含んでいる。頂点データは、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら頂点データによって粒子分散用オブジェクトPC17における各頂点が識別される。座標データは、各頂点データに1対1で対応させて、座標(1),座標(2),座標(3),・・・,座標(99),座標(100)と多数設定されており、VDP135では、これら座標データによって粒子分散用オブジェクトPC17における各頂点のワールド座標系内における位置が認識される。   As shown in FIG. 33A, the particle dispersion object PC 17 includes vertex data, coordinate data corresponding to the vertex data, and other data other than these. Vertex data are set in large numbers such as vertex (1), vertex (2), vertex (3), ..., vertex (99), vertex (100), and in VDP 135, an object for particle dispersion using these vertex data Each vertex in the PC 17 is identified. Coordinate data is set in a large number as coordinate (1), coordinate (2), coordinate (3), ..., coordinate (99), coordinate (100) in a one-to-one correspondence with each vertex data. The VDP 135 recognizes the position in the world coordinate system of each vertex of the particle dispersion object PC 17 by these coordinate data.

他のデータには、例えば粒子分散用オブジェクトPC17の初期スケールのデータや、全頂点データに対して一律に適用される初期α値のデータや、粒子分散用オブジェクトPC17の初期回転角度のデータなどが含まれている。   As other data, for example, data of initial scale of particle dispersion object PC17, data of initial α value applied uniformly to all vertex data, data of initial rotation angle of particle dispersion object PC17, etc. include.

図33(b)に示すように、粒子分散用テクスチャPC18は、単体データと、当該単体データに対応した相関データと、当該単体データに対応した単体画像データと、これら以外である他のデータとを含んでいる。単体画像データは、各単体データに1対1で対応させて、単体画像データ(1),単体画像データ(2),単体画像データ(3),・・・,単体画像データ(99),単体画像データ(100)と多数設定されている。各単体画像データは、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。各単体画像データは同一種類の粒子単体画像を表示させるデータとなっている。具体的には「球形の泡」を表示させるデータとなっており、各単体画像データの一部又は全部において当該「球形の泡」の形状、初期状態における大きさ、及び色彩は異なっている。この場合、粒子分散演出を実行する上でのVDP135における処理負荷の軽減を図りながら、同時に表示させる粒子単体画像の数を多くすべく、初期状態におけるスケールで全単体画像データを設定したとしても、表示面Gにて、全粒子単体画像を同時に表示させることが可能な構成となっている。   As shown in FIG. 33 (b), the particle dispersion texture PC 18 includes simple data, correlation data corresponding to the simple data, simple image data corresponding to the simple data, and other data other than these. Contains. The single image data is made to correspond to each single data in a one-to-one correspondence, single image data (1), single image data (2), single image data (3), ... single image data (99), single image A large number of image data (100) are set. Each single-piece image data includes, for example, at least a combination of bitmap format data and a color palette table to be referred to in determining the display color at each pixel of the bitmap image. Each single image data is data for displaying a single particle image of the same type. Specifically, it is data for displaying "spherical bubbles", and the shape, the size in the initial state, and the color of the "spherical bubbles" are different in part or all of each single image data. In this case, even if the number of particle single particle images to be displayed simultaneously is increased while all the single image data is set with the scale in the initial state, while alleviating the processing load in the VDP 135 when executing particle dispersion rendition, The display surface G is configured to be able to simultaneously display an all-particle simple substance image.

なお、各単体画像データの少なくとも一部について又は全部について粒子の種類が相違していてもよい。また、同一種類の粒子であるとともに、その形状、初期状態におけるスケール、及び色彩が同一であってもよい。   The types of particles may be different for at least a part of each single image data or for all of them. In addition, the particles may be of the same type, and their shape, scale in the initial state, and color may be the same.

粒子分散用テクスチャPC18の単体データは、単体(1),単体(2),単体(3),・・・,単体(99),単体(100)と多数設定されており、VDP135では、これら単体データによって粒子分散用テクスチャPC18に設定されている多数の単体画像データが個別に認識される。相関データは、各単体データに1対1で対応させて、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら相関データによって粒子分散用テクスチャPC18における各単体画像データが粒子分散用オブジェクトPC17における各頂点データのいずれに対応しているかが認識される。   The single data of the particle dispersion texture PC 18 is set as a single (1), a single (2), a single (3), ..., a single (99), a single (100), and in the VDP 135, these singles are set. A large number of single-piece image data set in the particle dispersion texture PC 18 is individually recognized by the data. The correlation data is set in a large number such as vertex (1), vertex (2), vertex (3),..., Vertex (99), vertex (100) in a one-to-one correspondence with each single-piece data. The VDP 135 recognizes, based on the correlation data, which of the vertex data of the particle dispersion object PC 17 corresponds to each of the simplex image data of the particle dispersion texture PC 18.

他のデータには、各単体画像データに対して個別に適用されるα値のデータや、各単体画像データに対して一律に適用されるα値のデータなどが含まれている。   Other data includes data of an α value individually applied to each single image data, data of an α value uniformly applied to each single image data, and the like.

ここで、粒子分散用オブジェクトPC17における各座標データには、それぞれ初期データが設定されており、これら初期データはそれぞれ異なる座標となっている。粒子分散用オブジェクトPC17の各座標データは書き換え可能となっており、当該粒子分散用オブジェクトPC17がワールド座標系に設定される場合には、上記各座標データが初期データとは異なる座標のデータに書き換えられた状態で設定される。かかる書き換えを行うために使用される書き換え用基準データとして、複数種類のキーデータKD1〜KD3が設定されている。   Here, initial data is set to each coordinate data in the particle dispersion object PC 17, and these initial data have different coordinates. Each coordinate data of the particle dispersion object PC 17 is rewritable, and when the particle dispersion object PC 17 is set in the world coordinate system, each coordinate data is rewritten to data of coordinates different from the initial data. It is set in the closed state. A plurality of types of key data KD1 to KD3 are set as reference data for rewriting used to perform such rewriting.

キーデータKD1〜KD3は、少なくとも2種類設定されており、具体的には、図33(c)〜(e)に示すように、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3の3種類が設定されている。これら各キーデータKD1〜KD3は、それぞれ、相関データと、当該相関データに対応した座標データとを含んでいる。   At least two types of key data KD1 to KD3 are set. Specifically, as shown in FIGS. 33 (c) to 33 (e), first key data KD1, second key data KD2, and third key data are set. Three types of KD3 are set. Each of the key data KD1 to KD3 includes correlation data and coordinate data corresponding to the correlation data.

具体的には、第1キーデータKD1の相関データ、第2キーデータKD2の相関データ、及び第3キーデータKD3の相関データはいずれも、適用対象である粒子分散用オブジェクトPC17の各頂点データと1対1で対応させて設定されており、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されている。   Specifically, the correlation data of the first key data KD1, the correlation data of the second key data KD2, and the correlation data of the third key data KD3 all correspond to the vertex data of the particle dispersion object PC17 to be applied. One-to-one correspondence is set, and a large number of vertexes (1), vertices (2), vertices (3),..., Vertices (99), vertices (100) are set.

一方、第1キーデータKD1の座標データ、第2キーデータKD2の座標データ、及び第3キーデータKD3の座標データはそれぞれ、各相関データに1対1で対応させて多数設定されているが、同一の相関データ間で比較した場合において相違している。   On the other hand, a large number of coordinate data of the first key data KD1, coordinate data of the second key data KD2, and coordinate data of the third key data KD3 are set in a one-to-one correspondence with each correlation data, There is a difference in comparison between identical correlation data.

具体的には、第1キーデータKD1の座標データは、座標(1−1),座標(2−1),座標(3−1),・・・,座標(99−1),座標(100−1)と多数設定されており、第2キーデータKD2の座標データは、座標(1−2),座標(2−2),座標(3−2),・・・,座標(99−2),座標(100−2)と多数設定されており、第3キーデータKD3の座標データは、座標(1−3),座標(2−3),座標(3−3),・・・,座標(99−3),座標(100−3)と多数設定されている。また、頂点(1)に対応している座標データが、第1キーデータKD1では座標(1−1)、第2キーデータKD2では座標(1−2)、及び第3キーデータKD3では座標(1−3)であり、頂点(100)に対応している座標データが、第1キーデータKD1では座標(100−1)、第2キーデータKD2では座標(100−2)、及び第3キーデータKD3では座標(100−3)であるように、一の頂点データに対してそれぞれ異なる座標データが設定されている。   Specifically, the coordinate data of the first key data KD1 includes coordinates (1-1), coordinates (2-1), coordinates (3-1), ..., coordinates (99-1), coordinates (100). The coordinate data of the second key data KD2 includes coordinates (1-2), coordinates (2-2), coordinates (3-2), ..., coordinates (99-2). , And a large number of coordinates (100-2), and the coordinate data of the third key data KD3 are coordinates (1-3), coordinates (2-3), coordinates (3-3),. A large number of coordinates (99-3) and coordinates (100-3) are set. The coordinate data corresponding to the vertex (1) are coordinates (1-1) in the first key data KD1, coordinates (1-2) in the second key data KD2, and coordinates (2) in the third key data KD3. 1-3) and the coordinate data corresponding to the vertex (100) are coordinates (100-1) in the first key data KD1, coordinates (100-2) in the second key data KD2, and the third key In the data KD3, different coordinate data is set for one vertex data as indicated by coordinates (100-3).

ちにみに、各キーデータKD1〜KD3は、α値のデータや、回転角度のデータが設定されていないこととの関係で、粒子分散用オブジェクトPC17よりもデータ容量が小さく設定されている。   Incidentally, each key data KD1 to KD3 is set to have a smaller data volume than the particle dispersion object PC 17 in relation to the fact that the data of the α value and the data of the rotation angle are not set.

各キーデータKD1〜KD3は、上記のとおり、各粒子単体画像の変位軌道を決定付けるべく設定されているものであり、粒子分散用オブジェクトPC17に対して適用される順序が予め定められている。具体的には、第2キーデータKD2は、第1キーデータKD1よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられ、第3キーデータKD3は、第2キーデータKD2よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられる。粒子分散用オブジェクトPC17をワールド座標系に設定する場合には、上記キーデータKD1〜KD3の座標データが各頂点データに対して適用されることにより、各頂点データに対応した各粒子単体画像がそれぞれの軌道で変位する。   As described above, each key data KD1 to KD3 is set to determine the displacement trajectory of each particle single particle image, and the order of application to the particle dispersion object PC 17 is predetermined. Specifically, the second key data KD2 is used when setting coordinate data on the displacement direction ahead side of each particle single particle image rather than the first key data KD1, and the third key data KD3 is the second key data It is used when setting the coordinate data of the displacement direction tip side of each particle unitary image rather than KD2. When the particle dispersion object PC 17 is set in the world coordinate system, the coordinate data of the key data KD1 to KD3 is applied to each vertex data, so that each particle single image corresponding to each vertex data is respectively It is displaced by the orbit of

この場合に、少なくとも所定のフレーム数間においては複数のキーデータKD1〜KD3、より詳細には2個のキーデータKD1〜KD3の座標データが融合された状態で各頂点データに対して適用される。具体的には、粒子分散演出の最初のフレーム(すなわち画像更新タイミング)における各頂点データの座標データを決定付ける第1キーデータKD1は、最初のフレームよりも後の複数フレームである第1フレーム数(例えば99フレーム)分に相当する第1フレーム期間に亘って用いられる。第2キーデータKD2は、上記第1フレーム期間、当該第1フレーム期間に対して次のフレームに相当する第1切換対象フレーム、及びそれ以降の複数フレームである第2フレーム数分に相当する第2フレーム期間に亘って用いられる。第3キーデータKD3は、上記第2フレーム期間に亘って用いられる。この場合に、上記第1フレーム数と上記第2フレーム数とは同一のフレーム数となっている。   In this case, the coordinate data of a plurality of key data KD1 to KD3, more specifically, two key data KD1 to KD3 are applied to each vertex data in a state of being fused at least for a predetermined number of frames. . Specifically, the first key data KD1 for determining the coordinate data of each vertex data in the first frame of particle dispersion rendition (that is, image update timing) is the first frame number which is a plurality of frames after the first frame It is used over the first frame period corresponding to (for example, 99 frames). The second key data KD2 corresponds to the first frame period, a first switching target frame corresponding to the next frame with respect to the first frame period, and a second frame number corresponding to a plurality of subsequent frames. It is used over two frame periods. The third key data KD3 is used over the second frame period. In this case, the first number of frames and the second number of frames are the same number of frames.

なお、第3キーデータKD3の後に第4キーデータが設定されていてもよく、この場合には、第3キーデータKD3は、上記第2フレーム期間、当該第2フレーム期間に対して次のフレームに相当する第2切換対象フレーム、及びそれ以降の複数フレームである第3フレーム数(第1フレーム数及び第2フレーム数と同一フレーム数)分に相当する第3フレーム期間に亘って用いられ、第4キーデータは、上記第3フレーム期間に亘って用いられる。   The fourth key data may be set after the third key data KD3. In this case, the third key data KD3 is the next frame with respect to the second frame period and the second frame period. , And the third frame period corresponding to the third frame number (the same number of frames as the first frame number and the second frame number) which is a plurality of subsequent frames corresponding to The fourth key data is used for the third frame period.

かかる構成であることにより、上記キーデータKD1〜KD3の数が、粒子分散演出が実行される場合の連続フレーム数よりも少ない数、より詳細には、粒子分散演出に際して、粒子分散用オブジェクトPC17における各頂点データの座標データが変更される回数よりも少ない数に設定されている構成であっても、各粒子単体画像が変位する様子を滑らかに表示することが可能となる。   With this configuration, the number of the key data KD1 to KD3 is smaller than the number of continuous frames when the particle dispersion rendition is executed, more specifically, in the particle dispersion object PC17 in the particle dispersion rendition. Even when the coordinate data of each vertex data is set to a number smaller than the number of times of change, it is possible to smoothly display the displacement of each particle single particle image.

以下に、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1〜KD3を用いて粒子分散演出を実行するための具体的な処理構成を説明する。なお、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1〜KD3は、メモリモジュール133に予め記憶されている。   Hereinafter, a specific processing configuration for performing particle dispersion rendition will be described using the particle dispersion object PC17, the particle dispersion texture PC18, and the key data KD1 to KD3. The particle dispersion object PC 17, the particle dispersion texture PC 18, and the key data KD 1 to KD 3 are stored in advance in the memory module 133.

図34(a)は、表示CPU131にて実行される粒子分散演出用の演算処理を示すフローチャートである。粒子分散演出用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、粒子分散演出用の演算処理は、粒子分散演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。   FIG. 34 (a) is a flow chart showing the operation processing for particle dispersion effect executed by the display CPU 131. Arithmetic processing for particle dispersion rendition is executed in the arithmetic processing for rendition in step S904 of the task processing (FIG. 14). In addition, the arithmetic processing for particle dispersion rendition is started when the data table corresponding to the game round in which the particle dispersion rendition is executed is set.

先ずステップS2101では、現状設定されているデータテーブルに基づいて、粒子分散演出の実行中であるか否かを判定する。演出の実行中ではない場合にはステップS2102にて、粒子分散演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2103に進む。   First, in step S2101, it is determined based on the currently set data table whether or not particle dispersion rendering is being performed. When the effect is not being executed, it is determined in step S2102 whether or not it is the start timing of the particle dispersion effect. If it is not the start timing, the present arithmetic processing is ended as it is, and if it is the start timing, the process proceeds to step S2103.

ステップS2103では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。ちなみに、ステップS2103の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、粒子分散用オブジェクトPC17に対して制御開始用の処理が完了している。また、制御が開始された粒子分散用オブジェクトPC17の制御用の情報は、粒子分散演出が完了するまではワークRAM132に記憶保持される。   In step S2103, the particle dispersion object PC 17 is grasped as a control target based on the currently set data table. Incidentally, at the execution timing of the process of step S2103, in the setting process for control start immediately before (step S901), the process for start of control for the particle dispersion object PC 17 is completed. Further, information for control of the particle dispersion object PC 17 for which control has been started is stored in the work RAM 132 until the particle dispersion effect is completed.

続くステップS2104では、メモリモジュール133から第1キーデータKD1及び第2キーデータKD2を読み出す初期読み出し処理を実行するとともに、ステップS2105では、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新する。その後、ステップS2106にて粒子分散演出の開始指定情報を記憶した後に、本演算処理を終了する。   In the following step S2104, an initial reading process for reading out the first key data KD1 and the second key data KD2 from the memory module 133 is executed, and in step S2105 various parameters other than the coordinates are calculated for the particle dispersion object PC17. The control information related to the particle dispersion object PC 17 is updated. Thereafter, after the start designation information of the particle dispersion effect is stored in step S2106, the present arithmetic processing ends.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2104にて読み出した第1キーデータKD1及び第2キーデータKD2と、上記ステップS2105にて算出したパラメータとが設定される。また、粒子分散演出を開始すべきことを示す粒子分散演出の開始指定情報が、描画リストに設定される。   As described above, when the arithmetic processing for particle dispersion rendition is executed, in the drawing list created in the subsequent drawing list output processing, the information for using the particle dispersion object PC 17 for the particle dispersion texture PC 18 is used. The first key data KD1 and the second key data KD2 read out at step S2104 and the parameters calculated at step S2105 are set. Further, start designation information of the particle dispersion effect indicating that the particle dispersion effect should be started is set in the drawing list.

ステップS2101にて粒子分散演出中であると判定した場合には、ステップS2107にて、現状設定されているデータテーブルに基づいて、キーデータの更新タイミングであるか否かを判定する。かかる更新タイミングは、上述した第1切換対象フレームに相当する。   If it is determined in step S2101 that particle dispersion rendering is being performed, it is determined in step S2107 based on the currently set data table whether or not it is time to update key data. The update timing corresponds to the first switching target frame described above.

キーデータの更新タイミングではない場合(ステップS2107:NO)には、ステップS2108に進む。当該ステップS2108では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。   If it is not the key data update timing (step S2107: NO), the process proceeds to step S2108. In step S2108, the particle dispersion object PC 17 is grasped as a control target based on the currently set data table.

続くステップS2109では、キーデータのブレンド割合を決定する処理を実行する。かかるブレンド割合を決定する処理では、メモリモジュール133に予め記憶されている図34(b)に示すようなブレンド用テーブルBTを参照することで、現状設定されている2個のキーデータKD1〜KD3の各座標データをブレンドする際のブレンド比率のデータを読み出し、その読み出したデータによる各座標データのブレンドを行う。   In the following step S2109, processing for determining the blend ratio of key data is executed. In the process of determining the blending ratio, the two key data KD1 to KD3 currently set by referring to the blending table BT as shown in FIG. 34 (b) stored in advance in the memory module 133. The data of the blend ratio at the time of blending each coordinate data of is read out, and each coordinate data is blended by the read out data.

ブレンド用テーブルBTについて詳細には、当該ブレンド用テーブルBTには、フレーム数のデータが設定されているとともに、各フレーム数のデータに1対1で対応させて、前側のキーデータに設定されている各座標データに適用すべき比率と、後側のキーデータに設定されている各座標データに適用すべき比率とが設定されている。この場合、フレーム数が1増加する度に、すなわち各粒子単体画像の座標の更新タイミングとなる度に、一定の比率でブレンド割合が変化するようにブレンド用テーブルBTが設定されている。具体的には、前側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が減少し、後側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が増加し、さらに各更新タイミングにおいて前側のキーデータの比率と後側のキーデータの比率との和が100%となるように、ブレンド用テーブルBTが設定されている。   More specifically, with regard to the blending table BT, data of the number of frames is set in the blending table BT, and is set as key data on the front side in a one-to-one correspondence with data of each frame number. The ratio to be applied to each set of coordinate data and the ratio to be applied to each set of coordinate data set on the rear key data are set. In this case, the blending table BT is set such that the blending ratio changes at a constant ratio each time the number of frames increases by one, that is, each time the coordinate of each particle image is updated. Specifically, for the key data on the front side, the ratio at the time of blending decreases by 1% each time each update timing comes, and for the key data on the rear side, 1% every time each update timing comes. The blending table BT is set such that the ratio at the time of blending increases one by one, and that the sum of the ratio of the key data on the front side and the ratio of the key data on the rear side becomes 100% at each update timing.

なお、ブレンド用テーブルBTは、各更新タイミングとなるどに1%ずつ比率が変化していくように設定されている構成に限定されることはなく、2%ずつ又は3%ずつといったように2%以上ずつ変化していくように設定されていてもよく、また一定の比率ではなく異なる比率で変化していくように設定されていてもよい。   Note that the blending table BT is not limited to the configuration in which the ratio is set to change by 1% at each update timing, and may be 2% or 3%. It may be set to change by% or more, or may be set to change at a different ratio instead of a fixed ratio.

ステップS2109では、現状設定されているデータテーブルに基づいて、ブレンド用テーブルBTを参照する。また、ステップS2109では、当該データテーブルに設定されている現状のポインタ情報に基づいて、ブレンド用テーブルBTにおいて参照すべきフレーム数を把握するとともに、そのフレーム数に設定されている前側のキーデータの比率と後側のキーデータの比率とを読み出す。この場合、現状設定されているデータテーブルが第1キーデータKD1及び第2キーデータKD2であれば、第1キーデータKD1が前側のキーデータに相当し、第2キーデータKD2が後側のキーデータに相当する。   In step S2109, the blending table BT is referred to based on the data table currently set. In step S2109, based on the current pointer information set in the data table, the number of frames to be referred to in the blending table BT is grasped, and the front side key data set in the number of frames is Read out the ratio and the ratio of the rear key data. In this case, if the currently set data table is the first key data KD1 and the second key data KD2, the first key data KD1 corresponds to the front key data, and the second key data KD2 is the rear key It corresponds to data.

その後、ステップS2110にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2111にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。   Thereafter, in step S2110, various parameters other than the coordinates are calculated for the particle dispersion object PC17, and the control information related to the particle dispersion object PC17 is updated. In step S2111, the particle dispersion representation is performed. After storing the update designation information, the present arithmetic processing ends.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2109にて決定したブレンド割合のデータと、上記ステップS2110にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。   As described above, when the arithmetic processing for particle dispersion rendition is executed, in the drawing list created in the subsequent drawing list output processing, the information for using the particle dispersion object PC 17 for the particle dispersion texture PC 18 is used. The data is set together with the information of the use instruction, and the data of the blend ratio determined in step S2109 and the parameter calculated in step S2110 are set. Further, update designation information of the particle dispersion effect indicating that the particle dispersion effect should be updated is set in the drawing list.

ステップS2107にて、キーデータの更新タイミングであると判定した場合には、ステップS2112に進む。当該ステップS2112では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。   If it is determined in step S2107 that the key data update timing has come, the process proceeds to step S2112. In step S2112, the particle dispersion object PC 17 is grasped as a control target based on the currently set data table.

続くステップS2113では、新たなキーデータを読み出す処理を実行する。かかる処理では、現状設定されている2個のキーデータのうち後側のキーデータに対して次の順番のキーデータKD1〜KD3をメモリモジュール133から読み出す。具体的には、第1キーデータKD1及び第2キーデータKD2が現状設定されているため、これらのうち後側のキーデータは第2キーデータKD2となり、それに対して次の順番のキーデータは第3キーデータKD3となる。   In the following step S2113, processing for reading out new key data is executed. In this process, the next key data KD1 to KD3 are read from the memory module 133 with respect to the key data on the rear side out of the currently set two key data. Specifically, since the first key data KD1 and the second key data KD2 are currently set, the key data on the rear side among them is the second key data KD2, whereas the key data in the next order is the second key data KD2. The third key data KD3 is obtained.

その後、ステップS2114にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2115にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。   Thereafter, in step S2114, various parameters other than the coordinates are calculated for the particle dispersion object PC17, and the control information related to the particle dispersion object PC17 is updated. In step S2115, the particle dispersion effect is displayed. After storing the update designation information, the present arithmetic processing ends.

上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2112にて読み出した第3キーデータKD3と、上記ステップS2113にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。   As described above, when the arithmetic processing for particle dispersion rendition is executed, in the drawing list created in the subsequent drawing list output processing, the information for using the particle dispersion object PC 17 for the particle dispersion texture PC 18 is used. The third key data KD3 read out in step S2112 and the parameter calculated in step S2113 are set together with the information of the use instruction. Further, update designation information of the particle dispersion effect indicating that the particle dispersion effect should be updated is set in the drawing list.

ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2107にて否定判定をし、ステップS2108〜ステップS2111の処理を実行する。この場合においてステップS2109では、第2キーデータKD2を前側のキーデータ及び第2キーデータKD2を後側のキーデータとして、ブレンド割合が順次決定される。   By the way, from the next processing cycle when the third key data KD3 is newly set, a negative determination is made in step S2107 and the processing in step S2108 to step S2111 is executed until the end timing of particle dispersion rendering comes. In this case, in step S2109, the blend ratio is sequentially determined with the second key data KD2 as the front side key data and the second key data KD2 as the rear side key data.

次に、VDP135にて実行される粒子分散演出用の設定処理を、図35のフローチャートを参照しながら説明する。粒子分散演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、粒子分散演出用の設定処理は、今回の描画リストに粒子分散演出の開始指定情報及び粒子分散演出の更新指定情報のいずれかが設定されている場合に起動される。   Next, the setting process for particle dispersion rendition executed by the VDP 135 will be described with reference to the flowchart of FIG. The setting process for particle dispersion effect is executed in the setting process for effect in step S1003 in the drawing process (FIG. 16). In addition, the setting process for particle dispersion rendition is started when either of the particle dispersion rendition start designation information and the particle dispersion rendition update designation information is set in the current drawing list.

先ずステップS2201では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2202にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17をVRAM134の展開用バッファ141に読み出す。その後、ステップS2203では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。   First, in step S2201, it is determined whether start designation information of particle dispersion effect is set in the current drawing list. If it is set, the memory module 133 recognizes the address at which the particle dispersion object PC 17 is stored based on the current drawing list in step S 2202, and the particle dispersion object PC 17 is stored in the VRAM 134. It is read into the expansion buffer 141. Thereafter, in step S2203, the first key data KD1 and the second key data KD2 set in the current drawing list are stored in the register 153.

続くステップS2204では、初期適用処理を実行する。初期適用処理では、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、第1キーデータKD1に設定されている各座標データに書き換えることにより、各頂点データの開始座標を設定する。また、ステップS2205では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。   In the following step S2204, an initial application process is performed. In the initial application process, the start coordinates of each vertex data are set by rewriting each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 with each coordinate data set in the first key data KD1. In step S2205, parameters other than the coordinates specified for the particle dispersion object PC 17 in the current drawing list are grasped as other parameters of the particle dispersion object PC 17.

その後、ステップS2206にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。これにより、第1キーデータKD1に設定されている各座標データに対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。   Thereafter, in step S2206, the setting process to the world coordinate system is executed for the particle dispersion object PC 17, and this setting process is ended. Thereby, each vertex data of the particle dispersion object PC 17 is set at coordinates corresponding to each coordinate data set in the first key data KD1. In the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the particle simplex image data corresponding to each vertex data for each vertex data set at the coordinates as described above is It is set.

一方、ステップS2201にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2207に進む。ステップS2207では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。   On the other hand, if it is determined in step S2201 that the start designation of particle dispersion effect is not set in the current drawing list, the process advances to step S2207. In step S2207, it is determined whether new key data is designated in the current drawing list.

指定されていない場合には、ステップS2008にて、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、今回の描画リストにおいて設定されているブレンド割合のデータに従ってブレンドする。   If not specified, in step S2008, coordinate blending processing is performed. In the blending process, two sets of key data currently set, specifically, coordinate data of the first key data KD1 and the second key data KD2 in the first frame period are set in the current drawing list. Blend according to the blend ratio data being used.

この場合、先ず第1キーデータKD1の一の頂点データに対応した座標データを読み出すとともに、第2キーデータKD2の上記頂点データに対応した座標データを読み出す。そして、前者の座標データを(x1,y1,z1)、後者の座標データを(x2,y2,z2)、ブレンド用テーブルBTから読み出した前側のキーデータの比率をrt1、及びブレンド用テーブルBTから読み出した後側のキーデータの比率をrt2とした場合において、ブレンド後の座標データ(x,y,z)が、
x:x1×rt1+x2×rt2
y:y1×rt1+y2×rt2
z:z1×rt1+z2×rt2
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した座標データに対して実行する。
In this case, first, coordinate data corresponding to one vertex data of the first key data KD1 is read, and coordinate data corresponding to the vertex data of the second key data KD2 is read. Then, the former coordinate data is (x1, y1, z1), the latter coordinate data is (x2, y2, z2), the ratio of the front key data read from the blending table BT is rt1, and the blending table BT Assuming that the ratio of the key data on the rear side after readout is rt2, coordinate data (x, y, z) after blending is
x: x 1 x rt 1 + x 2 x rt 2
y: y1 x rt1 + y2 x rt2
z: z1 x rt1 + z2 x rt2
Blend to be Also, such blending is performed on coordinate data corresponding to all vertex data.

続くステップS2209では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。その後、ステップS2210にて、上記ステップS2208におけるブレンド結果である各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2209において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。   In the subsequent step S2209, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17. Thereafter, in step S2210, each coordinate data, which is the blending result in step S2208, is set for the particle dispersion object PC 17 already set in the world coordinate system, and the parameters grasped in step S2209 are the particles After setting for the distribution object PC 17, this setting process is ended.

この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2208におけるブレンド結果である各座標データに書き換える。これにより、ステップS2208のブレンド結果に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。   In this case, when setting each coordinate data that is the blending result, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is rewritten to each coordinate data that is the blending result in step S2208. As a result, each vertex data of the particle dispersion object PC 17 is set at coordinates corresponding to the blending result in step S2208. In the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the particle simplex image data corresponding to each vertex data for each vertex data set at the coordinates as described above is It is set.

ステップS2207にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合には、ステップS2211にて、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。   If it is determined in step S2207 that new key data is designated in the current drawing list, key data update processing is executed in step S2211. In the updating process, of the two key data currently stored in the register 153, the key data on the front side, specifically the first key data KD1, is newly set to the new key data set in the current drawing list. Specifically, it is rewritten to the third key data KD3.

続くステップS2212では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2213では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。   In the subsequent step S2212, the application processing at the time of updating is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. In step S2213, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2214にて、上記ステップS2212において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2214において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。   Thereafter, in step S 2214, each coordinate data grasped in step S 2212 is set for the particle dispersion object PC 17 already set in the world coordinate system, and the parameters grasped in step S 2214 are for the particle dispersion. After setting for the object PC 17, the setting process ends.

この場合、上記ステップS2212にて把握した各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2212にて把握した各座標データに書き換える。これにより、第2キーデータKD2に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。   In this case, when setting each coordinate data grasped in step S2212, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is rewritten to each coordinate data grasped in step S2212. Thereby, each vertex data of the particle dispersion object PC 17 is set at the coordinates corresponding to the second key data KD2. In the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the particle simplex image data corresponding to each vertex data for each vertex data set at the coordinates as described above is It is set.

ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2207にて否定判定をし、ステップS2208〜ステップS2210の処理を実行する。この場合においてステップS2208では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行される。   By the way, from the next processing cycle when the third key data KD3 is newly set, a negative determination is made in step S2207 and processing of step S2208 to step S2210 is executed until the end timing of particle dispersion rendering comes. In this case, in step S2208, blending of coordinates is performed using the second key data KD2 and the third key data KD3.

次に、粒子分散演出の内容について、図36を参照しながら説明する。   Next, the contents of the particle dispersion effect will be described with reference to FIG.

図36(a)は粒子分散演出を説明するための説明図であり、図36(b−1)及び(b−2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。   FIG. 36 (a) is an explanatory view for explaining the particle dispersion rendition, and FIGS. 36 (b-1) and (b-2) are simply a locus on which each particle single-piece image is displaced. It is an explanatory view for explaining.

図36(a)に示すように、粒子分散演出は遊技回用の演出として実行され、具体的には遊技回が終了する場合において一の有効ライン上に大当たり図柄の組み合わせが停止表示された場合に、粒子分散演出が実行される。粒子分散演出では、表示面Gにおいて「球形の泡」である粒子単体画像PTが多数表示されるとともに、それら多数の粒子単体画像PTが連続する複数フレームに亘ってそれぞれ所定の軌道で変位するように表示される。   As shown in FIG. 36 (a), the particle dispersion effect is executed as an effect for game circulation, specifically, when the combination of the jackpot symbol is stopped and displayed on one of the effective lines when the game operation is over. The particle dispersion rendition is executed. In the particle dispersion rendition, a large number of particle single particle images PT that are “spherical bubbles” are displayed on the display surface G, and these multiple particle single particle images PT are displaced at predetermined trajectories over a plurality of continuous frames. Is displayed on.

当該所定の軌道について、図36(b−1)及び(b−2)を参照しながら具体的に説明すると、第1キーデータKD1の各座標データが設定された状態では、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b−1)において実線にて示す開始座標に対応した位置にて表示される。この場合、各粒子単体画像PT1〜PT3は、それぞれ異なる位置にて表示される。   The predetermined trajectory is specifically described with reference to FIGS. 36 (b-1) and (b-2). In the state in which each coordinate data of the first key data KD1 is set, the particle simplex image PT1, Each of the single particle image PT2 and the single particle image PT3 is displayed at a position corresponding to the start coordinate indicated by a solid line in FIG. 36 (b-1). In this case, the single particle images PT1 to PT3 are displayed at different positions.

その後の第1フレーム期間では、第1キーデータKD1及び第2キーデータKD2のブレンド処理が実行されることにより、図36(b−1)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1〜PT3の変位軌道は直線状となっている。   In the subsequent first frame period, the blending process of the first key data KD1 and the second key data KD2 is executed, as shown by a two-dot chain line in FIG. 36 (b-1), the particle single image PT1, Each of the particle single image PT2 and the particle single image PT3 is displayed as if they are displaced in different trajectories. In this case, since the coordinates are determined by the blending process of the first key data KD1 and the second key data KD2, the displacement trajectories of the particle single images PT1 to PT3 are linear.

第1フレーム期間が経過した場合には、第2キーデータKD2の各座標データが設定されることにより、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b−2)において実線にて示す切換対象座標に対応した位置にて表示される。この場合、各粒子単体画像PT1〜PT3は、それぞれ異なる位置にて表示される。   When the first frame period has elapsed, each coordinate data of the second key data KD2 is set, whereby each of the particle single image PT1, the particle single image PT2, and the particle single image PT3 is displayed as shown in FIG. In 2), it is displayed at a position corresponding to the switching target coordinates shown by a solid line. In this case, the single particle images PT1 to PT3 are displayed at different positions.

その後の第2フレーム期間では、第2キーデータKD2及び第3キーデータKD3のブレンド処理が実行されることにより、図36(b−2)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1〜PT3の変位軌道は直線状となっている。また、第2フレーム期間における各粒子単体画像PT1〜PT3の軌道は、第1フレーム期間の場合における軌道とは異なっている。   In the subsequent second frame period, the blending process of the second key data KD2 and the third key data KD3 is executed, as shown by a two-dot chain line in FIG. 36 (b-2), the particle single image PT1, Each of the particle single image PT2 and the particle single image PT3 is displayed as if they are displaced in different trajectories. In this case, since the coordinates are determined by the blending process of the first key data KD1 and the second key data KD2, the displacement trajectories of the particle single images PT1 to PT3 are linear. Further, the trajectories of the particle single images PT1 to PT3 in the second frame period are different from the trajectories in the case of the first frame period.

以上のとおり、粒子分散演出では、粒子分散用オブジェクトPC17における各頂点データの座標データを、複数種類のキーデータKD1〜KD3のブレンドを利用しながら設定するようにしたことにより、データ容量の削減及び処理負荷の軽減という両者のバランスを図りながら、多数の粒子単体画像が分散していくかのような表示演出を行うことが可能となる。   As described above, in the particle dispersion rendition, the coordinate data of each vertex data in the particle dispersion object PC 17 is set while using the blend of multiple types of key data KD1 to KD3, thereby reducing the data volume and It is possible to perform a display effect as if a large number of particle single images are dispersed while achieving a balance between the two to reduce the processing load.

すなわち、単体画像データの座標データが全フレーム数に亘って設定されたアニメーションデータを全単体画像データに1対1で対応させて設定する構成も考えられるが、この場合、それだけデータ容量が必要となる。これに対して、上記のように複数種類のキーデータKD1〜KD3のブレンドを利用することで、上記のように全てのアニメーションデータを設定する構成に比べて、必要なデータ容量を削減することが可能となる。   In other words, a configuration may be considered in which animation data in which coordinate data of single image data is set over all frame numbers is set to correspond to all single image data on a one-to-one basis. Become. On the other hand, by using a blend of multiple types of key data KD1 to KD3 as described above, the required data capacity can be reduced as compared to the configuration in which all animation data are set as described above. It becomes possible.

その一方、全単体画像データの座標データをプログラムに基づく処理のみによって算出する構成も考えられるが、この場合、各粒子単体画像が相互に異なる軌道で変位表示されるとすると、それだけ複雑であって膨大なプログラムが必要となる。これに対して、上記のように複数種類のキーデータKD1〜KD3のブレンドを利用することで、座標データを算出するための情報がプログラム側とデータ側とで適度に分散されることとなり、処理負荷の軽減が図られる。   On the other hand, a configuration is also conceivable in which the coordinate data of all single image data is calculated only by processing based on a program, but in this case, assuming that each single particle image is displaced by different trajectories, it is so complicated A huge program is needed. On the other hand, by using a blend of multiple types of key data KD1 to KD3 as described above, information for calculating coordinate data is appropriately dispersed between the program side and the data side. It is possible to reduce the load.

また、単体画像データを個別のオブジェクトとして設定するのではなく、粒子分散用オブジェクトPC17の各頂点データに対応させて設定したことにより、表示CPU131からVDP135に送信される描画リストのデータ容量を削減することが可能となる。   Further, the data volume of the drawing list transmitted from the display CPU 131 to the VDP 135 is reduced by setting the single image data in correspondence with each vertex data of the particle dispersion object PC 17 instead of setting as a single object. It becomes possible.

また、VDP135においても単体画像データを設定するためのオブジェクトを読み出す場合において、各単体画像データに対応した個別のオブジェクトをそれぞれ読み出すのではなく、粒子分散用オブジェクトPC17として読み出すことが可能であるため、当該読み出しに要する処理負荷の軽減が図られる。   In addition, when reading objects for setting single image data also in the VDP 135, individual objects corresponding to single image data can be read as the particle dispersion object PC 17 instead of reading them individually. The processing load required for the reading can be reduced.

また、第1キーデータKD1及び第2キーデータKD2のブレンド処理は、表示CPU131ではなくVDP135にて実行されるため、表示CPU131の処理負荷の軽減を図ることが可能となる。   Further, since the blending process of the first key data KD1 and the second key data KD2 is executed not by the display CPU 131 but by the VDP 135, it is possible to reduce the processing load of the display CPU 131.

<粒子分散演出用の設定処理の別形態>
図37は、VDP135にて実行される粒子分散演出用の設定処理の別形態を説明するためのフローチャートである。
<Another form of setting processing for particle dispersion effect>
FIG. 37 is a flow chart for explaining another form of setting processing for particle dispersion effect performed in the VDP 135.

先ずステップS2301では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2302にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17を読み出す。その後、ステップS2303では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。   First, in step S2301, it is determined whether start designation information of particle dispersion effect is set in the current drawing list. If it is set, in step S 2302, the memory module 133 recognizes the address at which the particle dispersion object PC 17 is stored based on the current drawing list, and reads the particle dispersion object PC 17. Thereafter, in step S2303, the first key data KD1 and the second key data KD2 set in the current drawing list are stored in the register 153.

続くステップS2304では、今回の描画リストに基づいて、メモリモジュール133において第1テクスチャ及び第2テクスチャが記憶されているアドレスを把握する。   In the subsequent step S2304, the memory module 133 grasps the address at which the first texture and the second texture are stored, based on the current drawing list.

ここで、本別形態では、各キーデータKD1〜KD3に1対1で対応させてテクスチャも複数種類設定されている。具体的には、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3に1対1で対応させて第1テクスチャ、第2テクスチャ及び第3テクスチャが設定されている。なお、キーデータが4種類以上設定されている構成においては、それに対応させてテクスチャも4種類以上設定されていればよい。   Here, in this embodiment, a plurality of types of textures are set in correspondence with each of the key data KD1 to KD3 on a one-to-one basis. Specifically, the first texture, the second texture, and the third texture are set in one-to-one correspondence with the first key data KD1, the second key data KD2, and the third key data KD3. In a configuration in which four or more types of key data are set, four or more types of textures may be set correspondingly to that.

各テクスチャには、図33にて示した粒子分散用テクスチャPC18と同様に、各頂点データに1対1で対応させて単体画像データが設定されている。このように単一の粒子分散用オブジェクトPC17に対して複数種類のテクスチャが設定されていることにより、粒子分散用オブジェクトPC17の一の頂点データに対して設定される単体画像データの種類が複数フレームの経過(すなわち複数の更新タイミングの経過)に伴って変更され、さらに当該変更が粒子分散用オブジェクトPC17の多数の頂点データ、より詳細には全頂点データに対して行われる。   Similar to the particle dispersion texture PC 18 shown in FIG. 33, simplex image data is set to each of the textures in one-to-one correspondence with each vertex data. As described above, by setting a plurality of types of textures for a single particle dispersion object PC 17, the type of single image data set for one vertex data of the particle dispersion object PC 17 is a plurality of frames. (I.e., a plurality of update timings), and the change is further performed on a large number of vertex data of the particle dispersion object PC 17, more specifically, on all vertex data.

例えば、第1テクスチャでは、第1の頂点データに対する単体画像データが、第1単体画像(例えば図36に示す「○」)を表示するための第1単体画像データであるのに対して、第2テクスチャでは、第1の頂点データに対する単体画像データが、第2単体画像(例えば図36に示す「□」)を表示するための第2単体画像データとなっている。同様に、第1テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像(例えば図36に示す「△」)を表示するための第3単体画像データであるのに対して、第2テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像とは異なる単体画像(例えば図36に示す「○」)を表示するための単体画像データとなっている。   For example, in the first texture, the single-piece image data for the first vertex data is the first single-piece image data for displaying the first single-piece image (for example, "o" shown in FIG. 36). In the second texture, the single image data for the first vertex data is the second single image data for displaying the second single image (for example, “□” shown in FIG. 36). Similarly, in the first texture, the single-piece image data for the second vertex data is the third single-piece image data for displaying a third single-piece image (for example, “Δ” shown in FIG. 36). In the second texture, the single-piece image data for the second vertex data is single-piece image data for displaying a single-piece image (for example, “o” shown in FIG. 36) different from the third single-piece image.

ステップS2304の処理を実行した後は、ステップS2305にて、上記ステップS2204と同様に、初期適用処理を実行する。これにより、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データが、第1キーデータKD1に設定されている各座標データに対応した開始座標に設定される。   After the process of step S2304 is performed, initial application processing is performed in step S2305 as in step S2204. As a result, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is set to the start coordinate corresponding to each coordinate data set in the first key data KD1.

その後、ステップS2306にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2307にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第1テクスチャ及び第2テクスチャのうち第1テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第1テクスチャに対応した単体画像が、第1キーデータKD1に対応した座標で表示されることとなる。   Thereafter, in step S2306, parameters other than the coordinates specified for the particle dispersion object PC 17 in the current drawing list are grasped as other parameters of the particle dispersion object PC 17, and in step S2307 After the setting process to the world coordinate system is executed for the particle dispersion object PC 17, the present setting process is ended. Also, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, for each vertex data set at the coordinates as described above, the first texture of the first texture and the second texture is used. Only applies to the particle dispersion object PC17. As a result, a single image corresponding to the first texture is displayed at the coordinates corresponding to the first key data KD1.

一方、ステップS2301にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2308に進む。ステップS2308では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。   On the other hand, if it is determined in step S2301 that the start designation of particle dispersion effect is not set in the current drawing list, the process advances to step S2308. In step S2308, it is determined whether new key data is designated in the current drawing list.

指定されていない場合には、ステップS2309にて、レジスタ153に設けられているブレンド用カウンタの数値情報を1加算されるように更新する。ここで、ブレンド用カウンタとは、複数のキーデータを用いた座標データのブレンドを行う場合、及び複数のテクスチャを用いた単体画像データのブレンドを行う場合において、そのブレンドの割合をVDP135にて特定するためのカウンタである。   If not specified, in step S2309, the numerical value information of the blending counter provided in the register 153 is updated so as to be incremented by one. Here, with the blending counter, when blending coordinate data using a plurality of key data, and blending single image data using a plurality of textures, the blending ratio is specified by the VDP 135 Is a counter to

ブレンド用カウンタは、初期値として「0」が設定されており、カウンタ値が「1」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を99%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を1%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を99%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を1%とする。また、カウンタ値が「2」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を98%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を2%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を98%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を2%とする。また、カウンタ値が「99」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を1%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を99%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を1%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を99%とする。つまり、フレーム数が先に進むほど、前側のキーデータの適用比率が低減される一方、後側のキーデータの適用比率が増加され、同様に前側のテクスチャの適用比率が低減される一方、後側のテクスチャの適用比率が増加される。   The blending counter is set to “0” as an initial value, and when the counter value is “1”, the ratio of the key data on the front side (for example, the first key data KD1) is set to 99% and the rear side is set. The ratio of the key data (for example, second key data KD2) is 1%, the ratio of the texture on the front side (for example, the first texture) is 99%, and the ratio of the texture on the rear side (for example, the second texture) is 1 And%. When the counter value is "2", the ratio of the front key data (for example, the first key data KD1) is 98% and the ratio of the rear key data (for example, the second key data KD2) is 2 The ratio of the texture on the front side (for example, the first texture) is 98%, and the ratio of the texture on the rear side (for example, the second texture) is 2%. When the counter value is "99", the ratio of the front key data (for example, the first key data KD1) is 1% and the ratio of the rear key data (for example, the second key data KD2) is 99. The ratio of the texture on the front side (for example, the first texture) is 1%, and the ratio of the texture on the rear side (for example, the second texture) is 99%. That is, as the number of frames advances, the application rate of the key data on the front side is reduced while the application rate of the key data on the rear side is increased, and the application rate of the texture on the front side is similarly reduced. The side texture application rate is increased.

なお、上記のようなブレンド用カウンタの数値情報に対応したブレンド割合の情報は、予めテーブル情報としてメモリモジュール133に記憶されているが、これに限定されることはなく、ブレンド用カウンタの数値情報に対応したブレンド割合の情報を、プログラムにて定められた演算式によって算出する構成としてもよい。   Although the information of the blend ratio corresponding to the numerical information of the blend counter as described above is stored in advance in the memory module 133 as table information, the present invention is not limited to this, and the numerical information of the blend counter It is good also as composition which computes information on a blend rate corresponding to に よ っ て according to an operation formula defined by a program.

続くステップS2310では、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。このブレンドの具体的な演算方法は、上記ステップS2208の場合と同様である。   In the following step S2310, coordinate blending processing is performed. In the blending process, the coordinate process of the two key data currently set, specifically, the coordinate data of the first key data KD1 and the second key data KD2 in the first frame period, is updated in the step S2309. It blends according to the blend ratio corresponding to the numerical information of the counter for blending later. The specific calculation method of this blend is the same as in the case of step S2208 above.

続くステップS2311では、テクスチャのブレンド処理を実行する。当該ブレンド処理では、現状把握されている2個のテクスチャ、具体的には第1フレーム期間であれば第1テクスチャ及び第2テクスチャの各単体画像データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。   In the following step S2311, texture blending processing is performed. In the blending process, for the blending after the updating process in step S2309, two single texture data currently grasped, specifically, single image data of the first texture and the second texture in the case of the first frame period are used. Blend according to the blend ratio corresponding to the numerical information of the counter.

例えば、先ず第1テクスチャの一の頂点データに対応した単体画像データを読み出すとともに、第2テクスチャの上記頂点データに対応した単体画像データを読み出す。そして、前者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)におけるRGBの各色情報を(r1,g1,b1)、後者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)を(r2,g2,b2)、ブレンド用カウンタの数値情報に対応した前側のテクスチャの比率をrt3、及びブレンド用カウンタの数値情報に対応した後側のテクスチャの比率をrt4(rt3+rt4=1)とした場合において、ブレンド後の単体画像データ(r,g,b)が、
r:r1×rt3+r2×rt4
g:g1×rt3+g2×rt4
b:b1×rt3+b2×rt4
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した単体画像データに対して実行する。
For example, while reading out simplex image data corresponding to one vertex data of the first texture, simplex image data corresponding to the vertex data of the second texture is read out first. Then, each color information of RGB in the former single-piece image data (here, 1 pixel for convenience of explanation) is (r1, g1, b1), and the latter single-piece image data (here, 1 pixel for convenience of explanation (R2, g2, b2), the ratio of the texture on the front side corresponding to the numerical information of the blending counter is rt3, and the ratio of the texture on the rear side corresponding to the numerical information of the blending counter is rt4 When blending, the single image data (r, g, b) after blending is
r: r1 × rt3 + r2 × rt4
g: g1 × rt3 + g2 × rt4
b: b1 × rt3 + b2 × rt4
Blend to be Also, such blending is performed on single-piece image data corresponding to all vertex data.

その後、ステップS2312にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2313にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。   Thereafter, in step S2312, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2313 After the setting process to the world coordinate system is executed for the particle dispersion object PC 17, the present setting process is ended.

この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2310におけるブレンド結果である各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、ステップS2311におけるブレンド結果である各単体画像データが適用される。これにより、ステップS2311のブレンド結果に対応した単体画像が、ステップS2310のブレンド結果に対応した座標で表示されることとなる。   In this case, when setting each coordinate data that is the blend result, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is rewritten to each coordinate data that is the blend result in step S2310. In the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, each single-piece image data which is the blending result in step S2311 is set for each vertex data set in the coordinates as described above. Applied. As a result, a single image corresponding to the blending result in step S2311 is displayed at coordinates corresponding to the blending result in step S2310.

ここで、上記のようにVDP135側にてブレンド用カウンタを用いてブレンド割合を導出する構成であるため、表示CPU131においてはブレンド割合を導出するための処理は実行されない。これにより、表示CPU131の処理負荷の軽減が図られる。   Here, since the blending ratio is derived on the VDP 135 side using the blending counter as described above, the processing for deriving the blending ratio is not executed in the display CPU 131. Thus, the processing load on the display CPU 131 can be reduced.

なお、表示CPU131は、第1キーデータKD1と第2キーデータKD2との組み合わせや、第2キーデータKD2と第3キーデータKD3との組み合わせといった、所定のキーデータの組み合わせを用いる場合におけるそれらキーデータのブレンド割合を変更する回数をVDP135に対して指示し、その指示に従ってVDP135がその所定のキーデータの組み合わせについて各変更回におけるブレンド割合を独自に決定する構成としてもよい。この場合、所定のキーデータの組み合わせとして同一のものを用いる期間が複数種類存在している場合において、特定の期間ではそれ以外の期間に比べてVDP135の処理負荷が大きい場合、その特定の期間では、表示CPU131が指示する変更回数を少なくすることで、VDP135の処理負荷の軽減を図ることが可能となる。また、上記構成において、VDP135が、各変更回において一定の割合でブレンド割合が変更されていくように設定されている構成としてもよく、この場合、指示された変更回数に応じて一義的に各変更回のブレンド割合を導出できるようなデータが設定されていてもよく、演算によって各変更回のブレンド割合を導出する構成としてもよい。   The display CPU 131 uses the combination of the predetermined key data such as the combination of the first key data KD1 and the second key data KD2 or the combination of the second key data KD2 and the third key data KD3. The number of times of changing the blend ratio of data may be instructed to the VDP 135, and the VDP 135 may uniquely determine the blend ratio in each change time according to the instruction. In this case, when there are a plurality of types of periods in which the same one is used as a combination of predetermined key data, the processing load of VDP 135 is larger in a specific period compared to the other periods, in that specific period. By reducing the number of changes instructed by the display CPU 131, it is possible to reduce the processing load of the VDP 135. Further, in the above configuration, the VDP 135 may be set so that the blend ratio is changed at a constant rate in each change time. In this case, each of the VDPs 135 is uniquely determined according to the instructed number of changes. Data may be set so as to derive the blend ratio of change times, or may be configured to derive the blend ratio of each change time by calculation.

ステップS2308にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合、ステップS2314にてブレンド用カウンタの初期化を実行する。これにより、次回の処理回からはブレンド割合の算出が最初から開始されることとなる。   If it is determined in step S2308 that new key data is designated in the current drawing list, initialization of the blending counter is executed in step S2314. Thus, the calculation of the blend ratio is started from the beginning from the next processing time.

続くステップS2315では、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。また、ステップS2316では、新たなテクスチャを把握する。当該処理では、レジスタ153に現状記憶されている2個のテクスチャのうち、前側のテクスチャ、具体的には第1テクスチャを、今回の描画リストにおいて設定されている新たなテクスチャ、具体的には第3テクスチャに書き換える。なお、この書き換えに際してはメモリモジュール133からの第3テクスチャの読み出しが行われる。   In the following step S2315, key data update processing is executed. In the updating process, of the two key data currently stored in the register 153, the key data on the front side, specifically the first key data KD1, is newly set to the new key data set in the current drawing list. Specifically, it is rewritten to the third key data KD3. In step S2316, a new texture is grasped. In the processing, the texture on the front side, specifically the first texture, of the two textures currently stored in the register 153, the new texture set in the current drawing list, specifically the first texture. Rewrite to 3 textures. At the time of this rewriting, reading of the third texture from the memory module 133 is performed.

続くステップS2317では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2318では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。   In the following step S2317, the application processing at the time of updating is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. In step S2318, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.

その後、ステップS2319にて、上記ステップS2317において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2318において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。   Thereafter, in step S2319, each coordinate data grasped in step S2317 is set for the particle dispersion object PC 17 already set in the world coordinate system, and the parameter grasped in step S2318 is used for the particle dispersion. After setting for the object PC 17, the setting process ends.

この場合、各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2317にて把握した各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第2テクスチャ及び第3テクスチャのうち第2テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第2テクスチャに対応した単体画像が、第2キーデータKD2に対応した座標で表示されることとなる。   In this case, when setting each coordinate data, each coordinate data corresponding to each vertex data of the particle dispersion object PC 17 is rewritten to each coordinate data grasped in the step S2317. Also, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the VDP 135, the second texture of the second texture and the third texture is applied to each vertex data set at the coordinates as described above. Only applies to the particle dispersion object PC17. As a result, a single image corresponding to the second texture is displayed at the coordinates corresponding to the second key data KD2.

ちなみに、第3キーデータKD3及び第3テクスチャが新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2308にて否定判定をし、ステップS2309〜ステップS2313の処理を実行する。この場合においてステップS2310では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行され、ステップS2311では、第2テクスチャ及び第3テクスチャを用いて単体画像データのブレンドが実行される。   By the way, from the next processing cycle when the third key data KD3 and the third texture are newly set, a negative decision is made in step S2308 until the end timing of the particle dispersion rendition is reached, and the processing in step S2309 to step S2313 Run. In this case, in step S2310, blending of coordinates is performed using the second key data KD2 and third key data KD3, and in step S2311, blending of single image data is performed using the second texture and the third texture. Ru.

上記のように粒子分散演出を実行させるための別形態では、演出が進行することに伴って同一のオブジェクトに適用されるテクスチャが相違されることにより、粒子分散演出の表示態様に変化を与えることが可能となり、当該表示演出の単調化が抑えられる。この場合に、表示態様が変更されるフレーム毎に異なるテクスチャが用いられるのではなく、第1の更新タイミングに対応したテクスチャと、それよりも複数の更新タイミング後である第2の更新タイミングに対応したテクスチャとのブレンドを行うことで、それら第1の更新タイミングと第2の更新タイミングとの間において用いる画像データを作成する構成であるため、予め記憶されておくテクスチャの数を減らすことが可能となり、データ容量の削減が図られる。   As described above, in another mode for executing particle dispersion rendition, the display aspect of particle dispersion rendition is changed by the texture applied to the same object being different as the rendition progresses. And the monotonization of the display effect is suppressed. In this case, different textures are not used for each frame in which the display mode is changed, but the texture corresponding to the first update timing and the second update timing later than a plurality of update timings are supported. By blending with the selected textures, the image data to be used between the first update timing and the second update timing is created, so the number of textures stored in advance can be reduced. Thus, the data capacity can be reduced.

また、各テクスチャは、各キーデータに1対1で対応させて設定されており、さらに各テクスチャの切り換えは、各キーデータの切り換えに合わせて行われる。よって、VDP135における切り換えに係る処理の処理負荷の軽減が図られる。   Further, each texture is set in a one-to-one correspondence with each key data, and switching of each texture is performed in accordance with switching of each key data. Therefore, the processing load of processing related to switching in the VDP 135 can be reduced.

<粒子分散演出についての他の別形態>
・上記粒子分散演出(図35の場合及び図37の場合)において、キーデータKD1〜KD3の数をより多く設定するとともに、用いるキーデータKD1〜KD3の切り換えが発生するまでのフレーム数を少なく設定する(例えば10フレーム毎)ことで、座標データのブレンドを実行しながら、単体画像が直線状ではなく、曲線状の軌跡を描くように変位表示される構成としてもよい。
<Another embodiment of particle dispersion effect>
· In the particle dispersion effect described above (in the case of FIG. 35 and in the case of FIG. 37), the number of key data KD1 to KD3 is set larger, and the number of frames until switching of key data KD1 to KD3 to be used is reduced By doing this (for example, every 10 frames), while blending of coordinate data is performed, a single image may be displaced and displayed so as to draw a curved locus instead of a linear one.

・キーデータKD1〜KD3を用いてブレンドを行う対象を、座標データに加えて又は代えて、透明度を設定するためのα値としてもよく、テクスチャマッピングを実行しなくても頂点データの色情報や複数の頂点データからなるポリゴンの色情報を決定することを可能とする頂点カラーとしてもよい。また、オブジェクトに対するテクスチャの相対的な貼り付け位置を決定するためのUV値を変更させて、同一のテクスチャを貼り付ける場合であっても表示態様を変更させるUVスクロールを行う構成においては、そのUV値をキーデータのブレンドを用いて変更する構成としてもよい。   An object to be blended using the key data KD1 to KD3 may be an α value for setting transparency, in addition to or in place of coordinate data, or color information of vertex data or the like without performing texture mapping It may be a vertex color which makes it possible to determine color information of a polygon composed of a plurality of vertex data. Also, in the configuration that performs UV scrolling in which the display mode is changed by changing the UV value for determining the relative pasting position of the texture with respect to the object, and even when the same texture is pasted, the UV The value may be changed using a blend of key data.

・第1フレーム期間と第2フレーム期間とが同一のフレーム数である構成に限定されることはなく、これらフレーム期間に含まれるフレーム数が異なっていてもよい。この場合、各フレーム期間に応じたブレンド処理を行う必要がある。   The first frame period and the second frame period are not limited to the same number of frames, and the number of frames included in these frame periods may be different. In this case, it is necessary to perform blending processing according to each frame period.

・単体画像を表示させるための単体画像データの種類が同一である構成としてもよい。この場合、粒子分散用テクスチャPC18において各単体データに対応させて単体画像データを設定しておく必要がないため、当該粒子分散用テクスチャPC18のデータ容量の削減が図られる。   The type of single image data for displaying a single image may be the same. In this case, since it is not necessary to set single image data in correspondence with each single data in the particle dispersion texture PC 18, the data volume of the particle dispersion texture PC 18 can be reduced.

・2種類のキーデータを用いてブレンドを行う構成に代えて、3種類以上のキーデータを用いてブレンドを行う構成としてもよい。この場合、これら3種類のキーデータをブレンドする比率を適宜変更することにより、単体画像が変位する場合の軌道を直線状ではなく、曲線状とすることが可能となる。また、3種類以上のキーデータを用いてブレンドを行う場合、例えば、それら3種類以上のキーデータから仮想の円弧や球面を算出により想定し、その想定した仮想の円弧や球面に沿って変位していくように単体画像が表示される構成としてもよい。   In place of the configuration in which blending is performed using two types of key data, blending may be performed using three or more types of key data. In this case, by appropriately changing the blending ratio of these three types of key data, it is possible to make the trajectory when the single image is displaced into a curved shape instead of a linear shape. When blending is performed using three or more types of key data, for example, virtual arcs and spheres are assumed by calculation from the three or more types of key data, and displacement is performed along the assumed virtual arcs and spheres. Alternatively, a single image may be displayed in the same manner as in FIG.

・VDP135が、キーデータを利用して頂点データを算出する専用の回路を有する構成としてもよい。また、VDP135が、キーデータを利用しない場合において頂点データを算出する専用の回路を有する構成としてもよい。これら回路を個別に有する構成とすることにより、それぞれの頂点データの算出に特化させることが可能となり、頂点データの算出を好適に行うことが可能となる。   The VDP 135 may have a dedicated circuit that calculates vertex data using key data. Further, the VDP 135 may be configured to have a dedicated circuit that calculates vertex data when the key data is not used. By individually configuring these circuits, it becomes possible to specialize in calculation of each vertex data, and it becomes possible to preferably calculate vertex data.

・上記のようにキーデータを利用してパラメータデータを導出する構成を、スプライトデータといった2次元情報の画像データを利用して画像表示を行う構成に適用してもよい。例えばスプライトデータをフレームバッファ142に設定する場合の座標のパラメータを導出する上で、複数のキーデータのブレンドを行う構成としてもよい。   The configuration in which parameter data is derived using key data as described above may be applied to a configuration in which image display is performed using image data of two-dimensional information such as sprite data. For example, in order to derive the parameter of the coordinate in the case of setting the sprite data in the frame buffer 142, a configuration may be adopted in which a plurality of key data is blended.

<海面表示を行うための構成>
次に、海面表示を行うための構成について説明する。
<Configuration for performing sea level display>
Next, a configuration for performing sea surface display will be described.

海面表示とは、背景において海面を表示させるための演出であり、さらにその海面が連続する複数フレーム(複数の画像更新タイミング)に亘って、波打つように表示される演出のことである。なお、海面表示は、上述した第1表示モード及び第2表示モードのうち第1表示モードにおいて実行される表示演出である。海面表示に際しては、海面用オブジェクトと、当該海面用オブジェクトの動きを細かく変化させるための法線マップデータとが用いられる。   The sea level display is an effect for displaying the sea level in the background, and is an effect that is displayed so as to be wavy over a plurality of consecutive frames (a plurality of image update timings) of the sea level. The sea surface display is a display effect to be executed in the first display mode out of the above-described first display mode and second display mode. In the sea surface display, a sea surface object and normal map data for finely changing the movement of the sea surface object are used.

これら海面用オブジェクト及び法線マップデータについて、図38(a),(b)を参照しながら詳細に説明する。図38(a)は海面用オブジェクトPC19を説明するための説明図であり、図38(b)は法線マップデータND1,ND2を説明するための説明図である。   These sea surface objects and normal map data will be described in detail with reference to FIGS. 38 (a) and 38 (b). FIG. 38 (a) is an explanatory view for explaining the sea surface object PC 19, and FIG. 38 (b) is an explanatory view for explaining the normal line map data ND1 and ND2.

図38(a)に示すように、海面用オブジェクトPC19は、複数の頂点データによって規定される面データ(ポリゴン)SDを、複数行及び複数列となるように多数有している。この場合、各面データSDは、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(a)において左下角部分の面データSDは第1列第1行の情報を順番情報として有しており、図38(a)において右上角部分の面データSDは第25列第25行の情報を順番情報として有している。   As shown in FIG. 38A, the sea surface object PC 19 has a large number of surface data (polygons) SD defined by a plurality of vertex data so as to form a plurality of lines and a plurality of columns. In this case, each surface data SD has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, the surface data SD in the lower left corner in FIG. 38 (a) has the information in the first column and the first row as the order information, and the surface data SD in the upper right corner in FIG. It has 25 lines of information as the order information.

各面データSDは4個の頂点データによる四角形として定義されているが、これに限定されることはなく、3個の頂点データによる三角形として定義されていてもよく、5個以上の頂点データによる他の多角形として定義されていてもよい。また、任意の一の面データSDは、他の面データSDと隣接しており、当該一の面データSDの頂点データは当該他の面データSDの頂点データを兼用している。つまり、各面データSDは隣り合う面データSD同士において辺が共通している。したがって、基本的には一の頂点データの座標データを変更した場合には、複数の面データSDが変形されることとなり、隣り合う2個の頂点データよりなる一の辺の座標データを変更した場合には、複数の面データSDの向きが変更されることとなる。   Each surface data SD is defined as a quadrangle by four vertex data, but is not limited to this, and may be defined as a triangle by three vertex data, and by five or more vertex data It may be defined as another polygon. Also, any one surface data SD is adjacent to another surface data SD, and vertex data of the one surface data SD is also used as vertex data of the other surface data SD. That is, the sides of the surface data SD are common to the adjacent surface data SD. Therefore, basically, when the coordinate data of one vertex data is changed, a plurality of surface data SD will be deformed, and the coordinate data of one side composed of two adjacent vertex data is changed In this case, the direction of the plurality of surface data SD is changed.

海面用オブジェクトPC19には、上記各面データSDの初期状態における座標や面の向きを決定すべく各頂点データの初期座標データが設定されている。また、これ以外にも、海面用オブジェクトPC19の初期スケールのデータや、全頂点データ(又は面データSD)に対して一律に適用される初期α値のデータや、海面用オブジェクトPC19の初期回転角度のデータなどが含まれている。   Initial coordinate data of each vertex data is set in the sea surface object PC 19 in order to determine coordinates of the initial state of each surface data SD and orientation of the surface. In addition to this, data of initial scale of the object PC19 for sea surface, data of initial α value applied uniformly to all vertex data (or surface data SD), initial rotation angle of object PC19 for sea surface Data etc. are included.

ここで、海面用オブジェクトPC19の各面データSDは、隣接する複数の面データSDをまとめることで複数群に区分けされており、具体的には第1面データ群、・・・、第k面データ群(kは2以上の整数であり、本実施の形態ではk=25)を有している。各面データ群に含まれる面データSDの数は、複数である所定数(具体的には25個)で同一となっているが、少なくとも一部の面データ群間において含まれる面データSDの数が異なっていてもよい。なお、図38(a)においては、太線で囲んだ各単位が面データ群に相当する。   Here, each surface data SD of the sea surface object PC 19 is divided into a plurality of groups by putting together a plurality of adjacent surface data SD, and more specifically, the first surface data group,. It has a data group (k is an integer of 2 or more, and k = 25 in the present embodiment). Although the number of surface data SD included in each surface data group is the same as the predetermined number (specifically, 25) of the plurality, the number of surface data SD included between at least some of the surface data groups The numbers may be different. In FIG. 38A, each unit surrounded by a thick line corresponds to a surface data group.

上記各面データ群は、表示CPU131における制御に基づき、それぞれ個別に座標及び面の向きが決定される。詳細には、第1面データ群に含まれる全面データSDが所定の方向を向く同一の面を構成し、その状態において第1面データ群にて基準となる面データSDの座標が所定の座標となるように、第1面データ群に含まれる各面データSDの座標及び面の向きが決定される。つまり、海面用オブジェクトPC19の各面データSDの座標及び向きは、先ず海面データ群の単位で大まかに決定される。以下、この各面データ群の単位で決定された座標及び向きを、第1段階の形態とも言う。   The coordinate and the direction of the surface of each of the surface data groups are individually determined based on the control of the display CPU 131. More specifically, the entire surface data SD included in the first surface data group constitutes the same surface facing a predetermined direction, and in this state, the coordinates of the surface data SD as a reference in the first surface data group are at predetermined coordinates The coordinates of each surface data SD included in the first surface data group and the orientation of the surface are determined as follows. That is, the coordinates and orientation of each surface data SD of the sea surface object PC 19 are first roughly determined in units of sea surface data groups. Hereinafter, the coordinates and the orientation determined in units of the surface data groups are also referred to as a form of the first stage.

なお、基準となる面データSDは、各面データ群において単一の面データSDであるが、複数の面データSDであってもよい。また、面データSDを基準として座標を設定するのではなく、面データ群の隅角部分を構成する頂点データに対して基準となる座標を設定する構成としてもよく、この場合、隅角部分の全てに対して基準となる座標を設定してもよく、一の隅角部分に対してのみ基準となる座標を設定してもよい。また、海面用オブジェクトPC19を一連のものとすべく、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、上記座標及び面の向きが決定される。   In addition, although surface data SD used as a reference | standard is single surface data SD in each surface data group, several surface data SD may be sufficient. Further, instead of setting coordinates based on the surface data SD, coordinates serving as a reference may be set for vertex data constituting the corner portion of the surface data group. In this case, Coordinates serving as a reference may be set for all, or coordinates serving as a reference may be set for only one corner portion. Further, in order to make the sea surface object PC 19 as a series, in the adjacent surface data group, the coordinates and the orientation of the surface are determined so that the coordinates of the vertex data at the boundary portion between the two become the same.

法線マップデータND1,ND2は、各面データ群の単位で第1段階の形態が決定された後において、各面データ群に含まれる各面データSDの向きを相互に異ならせるためのデータであり、複数種類、具体的には2種類の法線マップデータND1,ND2がメモリモジュール133に予め記憶されている。各法線マップデータND1,ND2はそれぞれ、各面データSDの向きを第1段階の形態から変化させるための単位法線データUNDを多数有している。なお、以下の説明では、一対の法線マップデータND1,ND2の一方を第1法線マップデータND1、他方を第2法線マップデータND2とも言う。   The normal map data ND1 and ND2 are data for making the directions of each surface data SD included in each surface data group different from each other after the form of the first stage is determined in units of each surface data group. A plurality of types, specifically, two types of normal map data ND1, ND2 are stored in advance in the memory module 133. Each of the normal map data ND1 and ND2 has a large number of unit normal data UND for changing the direction of each surface data SD from the form of the first stage. In the following description, one of the pair of normal map data ND1 and ND2 is also referred to as first normal map data ND1, and the other is also referred to as second normal map data ND2.

図38(b)は、多数の単位法線データUNDを多数有している法線マップデータND1,ND2のイメージ図であり、複数行及び複数列となるように配列された各四角部分が単位法線データUNDを示す。この場合、各法線マップデータND1,ND2において各単位法線データUNDはそれぞれ、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(b)において左下角部分の単位法線データUNDは第1列第1行の情報を順番情報として有しており、図38(b)において右上角部分の単位法線データUNDは第35列第35行の情報を順番情報として有している。   FIG. 38 (b) is an image diagram of normal map data ND1, ND2 having a large number of unit normal data UND, where each square portion arranged to form a plurality of rows and a plurality of columns is a unit method Indicates line data UND. In this case, in each of the normal map data ND1 and ND2, each unit normal data UND has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38 (b), unit normal data UND in the lower left corner has information of the first column and the first row as order information, and in FIG. 38 (b) unit normal data UND in the upper right corner is The information in column 35, line 35 is included as the order information.

各単位法線データUNDは、各面データSDの向きを第1段階の形態から変化させる場合における方向のデータ及びその方向に変化させる際の変化量のデータ(以下、変更データともいう)を有している。この場合、一の法線マップデータND1,ND2において、一部の単位法線データUND間ではその変化させる方向のデータ及びその方向への変化量のデータが同一となっている。但し、これに限定されることはなく、全ての単位法線データUND間において相違していてもよい。   Each unit normal data UND has data of the direction when changing the direction of each surface data SD from the form of the first step and data of the amount of change when changing in the direction (hereinafter also referred to as change data). doing. In this case, in one set of normal map data ND1 and ND2, data of the direction to be changed and data of the amount of change in the direction are the same between some of the unit normal data UND. However, the present invention is not limited to this, and all unit normal data UND may be different.

一対の法線マップデータND1,ND2間において、各単位法線データUNDにより決定される変更データとして同一のものは含まれているが、変更データの配列は一致していない。この場合、一対の法線マップデータND1,ND2間における全ての順番情報において、各単位法線データUNDにより決定される変更データが相違していてもよく、少なくとも一部の順番情報において各単位法線データUNDにより決定される変更データが相違している構成としてもよい。各法線マップデータND1,ND2において、単位法線データUNDの数は同一となっているが異なっていもよい。   Between the pair of normal map data ND1 and ND2, although the same change data determined by each unit normal data UND is included, the arrangement of the change data does not match. In this case, the change data determined by each unit normal data UND may be different in all the order information between the pair of normal map data ND1 and ND2, and each unit method in at least a part of the order information The modified data determined by the line data UND may be different. In each normal map data ND1, ND2, the number of unit normal data UND is the same but may be different.

各法線マップデータND1,ND2における単位法線データUNDの数は、海面用オブジェクトPC19を構成する面データSDの数よりも多く設定されている。かかる構成において、各法線マップデータND1,ND2の単位法線データUNDを海面用オブジェクトPC19の面データSDに適用する場合、全面データSDが各法線マップデータND1,ND2に含まれる範囲において、基準となる面データSDに適用する単位法線データUNDが選択され、その関係を基準とするとともに面データSD側の順番情報と単位法線データUND側の順番情報とを利用することで、上記基準となる面データSD以外の面データSDに対応させる単位法線データUNDが選択される。   The number of unit normal data UND in each of the normal map data ND1 and ND2 is set to be larger than the number of plane data SD constituting the sea surface object PC19. In this configuration, when unit normal data UND of normal map data ND1 and ND2 is applied to surface data SD of sea surface object PC19, in the range where entire surface data SD is included in each normal map data ND1 and ND2, The unit normal data UND to be applied to the surface data SD as a reference is selected, and the relationship is used as a reference and by using the order information on the surface data SD side and the order information on the unit normal data UND side, Unit normal data UND corresponding to surface data SD other than reference surface data SD is selected.

より詳細に説明すると、面データSDを第m列第n行分有している構成において(m及びnは1以上の整数)、基準となる面データSDが第1列第1行であり、それに対応する単位法線データUNDが第s列第t行である場合(s及びtは1以上の整数)、今回使用する単位法線データUNDは第s列〜第(s+m−1)列であって、第t列〜第(t+n−1)行分となる。したがって、それら単位法線データUNDが法線マップデータND1,ND2から読み出される。そして、その読み出された各単位法線データUNDは、第s列第t行の順番情報が第1列第1行となる演算によって順番情報の変換が行われるとともに、その変換後の順番情報と同一の順番情報の面データSDに対応付けられる。   More specifically, in the configuration including the surface data SD for the m-th column and the n-th row (m and n are integers of 1 or more), the surface data SD as a reference is the first row and the first row, When the corresponding unit normal data UND is the sth column and the t row (s and t are integers of 1 or more), the unit normal data UND to be used this time is the sth column to the (s + m-1) th column The tth column to the (t + n-1) th row. Therefore, the unit normal data UND is read from the normal map data ND1, ND2. Then, in the unit normal data UND read out, conversion of the order information is performed by an operation in which the order information of the sth column and the tth row becomes the first column and the first row, and the converted order information Are associated with the plane data SD of the same order information.

図39(a)及び(b)を参照しながら、一対の法線マップデータND1,ND2を海面用オブジェクトPC19に適用する手法を説明する。   A method for applying the pair of normal map data ND1 and ND2 to the sea surface object PC19 will be described with reference to FIGS. 39 (a) and 39 (b).

図39(a)に示すように、法線マップデータND1,ND2を用いて海面用オブジェクトPC19の面データSDの向きを変更させる場合には、一対の法線マップデータND1,ND2が海面用オブジェクトPC19に対して同時に適用される。この場合、海面表示の開始時においては、一方の法線マップデータND1の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。また、他方の法線マップデータND2についても同様に、当該法線マップデータND2の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。   As shown in FIG. 39A, in the case of changing the direction of the surface data SD of the sea surface object PC 19 using the normal map data ND1, ND2, the pair of normal map data ND1, ND2 is the sea surface object. It applies simultaneously to PC19. In this case, at the start of sea level display, unit normal data UND of the corner portion of one normal map data ND1 coincides with the corner portion on the same side of sea surface object PC19, and of sea surface object PC19. Data setting is performed such that all surface data SD correspond to different unit normal data UND. Similarly, for the other normal map data ND2, the unit normal data UND of the corner portion of the normal map data ND2 matches the corner portion on the same side of the sea surface object PC19, and the sea surface object Data setting is performed such that all surface data SD of the PC 19 correspond to different unit normal data UND.

この場合、同一の面データSDに対して一方の法線マップデータND1の単位法線データUNDと他方の法線マップデータND2の単位法線データUNDとが同時に対応することとなる。これら単位法線データUNDの変更データを面データSDに適用する場合には、一方の法線マップデータND1に対応した変更データによる面データSDの向きと、他方の法線マップデータND2に対応した変更データによる面データSDの向きとの中間の向きとなるように、各変更データのブレンドが実行され、そのブレンドした結果の変更データが面データSDに対して適用される。   In this case, unit normal data UND of one normal map data ND1 and unit normal data UND of the other normal map data ND2 simultaneously correspond to the same surface data SD. When applying the modified data of the unit normal data UND to the surface data SD, the direction of the surface data SD based on the modified data corresponding to one normal map data ND1 and the other normal map data ND2 Blending of each change data is performed so as to be an intermediate orientation with the direction of the surface data SD according to the change data, and the change data of the blended result is applied to the surface data SD.

なお、図39(a)では、開始時に基準となる隅角部分の位置が、一方の法線マップデータND1と他方の法線マップデータND2とで異なる構成となっているが、同一であってもよい。この場合であっても、一対の法線マップデータND1,ND2間において変更データの配列が異なっているため、面データSDに適用される変更データの内容が両法線マップデータND1,ND2で同一となる事象が全ての面データSDに対して発生してしまうことはない。   In FIG. 39 (a), although the position of the corner portion serving as the reference at the start is different between one normal map data ND1 and the other normal map data ND2, they are the same. It is also good. Even in this case, since the arrangement of the modified data is different between the pair of normal map data ND1 and ND2, the contents of the modified data applied to the surface data SD are the same in both normal map data ND1 and ND2. Event does not occur for all surface data SD.

その後、海面表示におけるフレーム数が進行していくことに伴って、図39(b)に示すように、海面用オブジェクトPC19の基準となる面データSDに対して対応する単位法線データUNDが、両法線マップデータND1,ND2のそれぞれにおいて変更される。但し、この変更に際しては、海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているように変更が行われる。   Thereafter, as the number of frames in the sea surface display progresses, as shown in FIG. 39 (b), unit normal data UND corresponding to the surface data SD as the reference of the sea surface object PC19 is The two normal map data ND1 and ND2 are changed. However, at the time of this change, the change is performed so that all surface data SD of the sea surface object PC 19 correspond to different unit normal data UND.

このように基準となる面データSDに対応する単位法線データUNDを変更させることにより、各面データSDの向きが変更される態様を除々に変化させることが可能となり、海面表示を変化に富んだものとすることが可能となる。また、一対の法線マップデータND1,ND2をブレンドする構成であることにより、パチンコ機10の設計段階において上記変更データのバリエーションをある程度抑えたとしても、面データSDに対して実質的に適用される変更データのバリエーションを増やすことが可能となる。   By changing the unit normal data UND corresponding to the reference plane data SD in this manner, it is possible to gradually change the direction in which the direction of each plane data SD is changed, and the sea surface display is richly changed. It becomes possible to make Further, by blending the pair of normal map data ND1 and ND2, even if the variation of the change data is suppressed to some extent in the design stage of the pachinko machine 10, it is substantially applied to the surface data SD. It is possible to increase the variation of change data.

次に、図40を参照しながら、各面データSDに対する変更データの適用の仕方を説明する。   Next, referring to FIG. 40, a method of applying change data to each surface data SD will be described.

既に説明したように各面データSDに対して単位法線データUNDが個別に対応付けられるが、それら全ての面データSDに対して単位法線データUNDによる変更データが適用されるわけではなく、各面データ群において一部の面データSD1に対してのみ単位法線データUNDによる変更データが適用される。詳細には、同一の頂点データを共有する面データSD同士に対して同時に変更データの適用が行われないように、適用対象となる面データSD1が予め定められている。   As described above, the unit normal data UND is individually associated with each surface data SD, but the modified data by the unit normal data UND is not applied to all the surface data SD, Modified data by unit normal data UND is applied only to part of surface data SD1 in each surface data group. In detail, the surface data SD1 to be applied is determined in advance so that the change data is not simultaneously applied to the surface data SD sharing the same vertex data.

詳細には、各面データ群において変更データが適用される面データSD1は、図40(a)に示すように一部に限られており、それら適用対象の面データSD1間には、他の面データSD2が存在することで、適用対象の面データSD1同士において頂点データを共有していない。また、適用対象の面データSD1は面データ群においてその隅角部分を構成していないため、面データ群間で見た場合であっても、適用対象の面データSD1同士において頂点データを共有していない。このような構成であることにより、法線マップデータND1,ND2を利用してランダムに面データSDの向きを変更する構成であったとしても、適用対象の面データSD1間にはそれら面データSD1の向きの違いを吸収するための緩衝用の面データSD2が存在することとなり、海面用オブジェクトPC19の面としての連続性を担保することが可能となる。   In detail, the surface data SD1 to which change data is applied in each surface data group is limited to a part as shown in FIG. 40 (a). Due to the existence of the surface data SD2, vertex data is not shared among the application target surface data SD1. Further, since the surface data SD1 to be applied does not constitute the corner portion in the surface data group, even when viewed between the surface data groups, the vertex data is shared between the surface data SD1 to be applied. Not. With such a configuration, even if the direction of the surface data SD is changed at random using the normal map data ND1 and ND2, the surface data SD1 between the surface data SD1 of the application target The buffer surface data SD2 for absorbing the difference in the orientation of the object exists, and the continuity as the surface of the sea surface object PC19 can be secured.

適用対象の面データSD1に対して変更データが適用されることにより、各面データSDの向きが第1段階の形態から変更される様子を図40(b−1)及び(b−2)に示す。図40(b−1)に示すように、第1段階の形態では、所定の面データ群に含まれる各面データSD1,SD2は、同一の方向を向いており、同一の面を形成している。   The state in which the direction of each surface data SD is changed from the form of the first stage by applying the change data to the surface data SD1 to be applied is shown in FIGS. 40 (b-1) and (b-2). Show. As shown in FIG. 40 (b-1), in the form of the first stage, each surface data SD1 and SD2 included in a predetermined surface data group are directed in the same direction, and form the same surface. There is.

これら面データSD1,SD2のうち、2番目と4番目が適用対象の面データSD1であり、これら2番目及び4番目の面データSD1に対して、両法線マップデータND1,ND2のブレンド結果である変更データが適用される。この際、図40(b−2)に示すように、2番目及び4番目の面データSD1がそれぞれ対応する変更データに基づく向きに変更される。また、適用対象の面データSD1ではなく緩衝用の面データSD2である1番目、3番目及び5番目の各面データSD2は、第1段階の形態からの変化量が最も少ない態様において海面用オブジェクトPC19の面としての連続性を担保するようにして向きが変更される。   Of the surface data SD1 and SD2, the second and fourth ones are the surface data SD1 to be applied, and the blend result of the normal map data ND1 and ND2 for the second and fourth surface data SD1. Certain change data is applied. At this time, as shown in FIG. 40 (b-2), the second and fourth surface data SD1 are changed to directions based on the corresponding change data. In addition, the first, third and fifth surface data SD2 which is not the surface data SD1 to be applied but the buffer surface data SD2 is the sea surface object in a mode in which the amount of change from the form of the first stage is the smallest. The orientation is changed to secure continuity as the face of the PC 19.

以下に、海面用オブジェクトPC19の各面データSDの向きを設定するための具体的な処理構成を説明する。   The specific processing configuration for setting the direction of each surface data SD of the sea surface object PC 19 will be described below.

図41(a)は、表示CPU131にて実行される海面表示用の演算処理を示すフローチャートである。海面表示用の演算処理は、タスク処理(図14)のステップS903における背景用演算処理にて実行される。また、海面表示用の演算処理は、第1表示モードである状況で実行されるものであり、図24におけるステップS1502〜ステップS1505の処理の一部として実行される。   FIG. 41 (a) is a flowchart showing the operation processing for sea surface display executed by the display CPU 131. The arithmetic processing for sea surface display is executed in the background arithmetic processing in step S 903 of the task processing (FIG. 14). In addition, the arithmetic processing for sea surface display is executed under the condition of the first display mode, and is executed as part of the processing of step S1502 to step S1505 in FIG.

先ずステップS2401では、現状設定されているデータテーブルに基づいて、海面表示の実行中であるか否かを判定する。海面表示の実行中ではない場合にはステップS2402にて、海面表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2403に進む。   First, in step S2401, it is determined based on the currently set data table whether or not sea surface display is in progress. If the sea surface display is not being performed, it is determined in step S2402 whether or not it is a start timing of the sea surface display. If it is not the start timing, the present arithmetic processing is ended as it is, and if it is the start timing, the process proceeds to step S 2403.

ステップS2403では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。ちなみに、ステップS2403の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、海面用オブジェクトPC19に対して制御開始用の処理が完了している。また、制御が開始された海面用オブジェクトPC19の制御用の情報は、海面表示が完了するまではワークRAM132に記憶保持される。   In step S2403, the sea surface object PC 19 is grasped as a control target based on the currently set data table. Incidentally, at the execution timing of the process of step S 2403, in the setting process for control start immediately before (step S 901), the process for control start of the sea surface object PC 19 is completed. Further, information for control of the sea surface object PC 19 whose control has been started is stored in the work RAM 132 until the sea surface display is completed.

続くステップS2404では、第1法線マップデータND1及び第2法線マップデータND2を制御対象としてVDP135に指示するための情報を記憶する。但し、表示CPU131では、これら第1法線マップデータND1及び第2法線マップデータND2を海面用オブジェクトPC19に実際に適用するために必要な演算処理は実行しない。つまり、表示CPU131は、第1法線マップデータND1及び第2法線マップデータND2については、これらデータND1,ND2を使用すべきことをVDP135に対して指示するものの、これらデータND1,ND2を実際に制御するための演算処理を実行しない。これにより、表示CPU131の処理負荷の軽減が図られる。   In the subsequent step S2404, information for instructing the VDP 135 to store the first normal map data ND1 and the second normal map data ND2 as control targets is stored. However, the display CPU 131 does not execute arithmetic processing required to actually apply the first normal map data ND1 and the second normal map data ND2 to the sea surface object PC19. That is, the display CPU 131 instructs the VDP 135 that the data ND1 and ND2 should be used for the first normal map data ND1 and the second normal map data ND2, but the data ND1 and ND2 are actually Do not execute arithmetic processing to control Thus, the processing load on the display CPU 131 can be reduced.

続くステップS2405では、メモリモジュール133から海面用アニメーションデータをワークRAM132に読み出す。図41(b)は海面用アニメーションデータADを説明するための説明図である。海面用アニメーションデータADは、海面用オブジェクトPC19を面データ群の単位で制御するためのデータであり、当該海面用アニメーションデータADによって各面データ群の基準座標及び向きが決定されることで、海面用オブジェクトPC19について第1段階の形態が決定される。   In the subsequent step S2405, the animation data for sea surface is read out from the memory module 133 into the work RAM 132. FIG. 41 (b) is an explanatory view for explaining the sea surface animation data AD. The sea surface animation data AD is data for controlling the sea surface object PC 19 in units of plane data groups, and the sea surface is determined by determining the reference coordinates and direction of each plane data group by the sea surface animation data AD. The form of the first stage is determined for the target object PC19.

より詳細には、海面用アニメーションデータADには、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには、各面データ群について基準座標のデータ及び向きのデータが設定されている。例えば、第1面データ群に対しては、第1のポインタ情報に対応させて、基準座標のデータ(A1−1)及び向きのデータ(B1−1)が設定されており、第2のポインタ情報に対応させて、基準座標のデータ(A1−2)及び向きのデータ(B1−2)が設定されており、第fのポインタ情報(fは3以上の整数であり、例えば「50」)に対応させて、基準座標のデータ(A1−f)及び向きのデータ(B1−f)が設定されている。また、第2面データ群、・・・、第k面データ群に対しても各ポインタ情報に対応させて基準座標のデータ及び向きのデータが設定されている。   More specifically, in the animation data for sea surface, a plurality of pointer information is set so as to be serial numbers, and in each of the pointer information, data and direction of reference coordinates for each surface data group are set. Data is set. For example, for the first surface data group, data (A1-1) of reference coordinates and data (B1-1) of direction are set corresponding to the first pointer information, and the second pointer Reference coordinate data (A1-2) and direction data (B1-2) are set corresponding to the information, and f-th pointer information (f is an integer of 3 or more, for example, "50") Data (A1-f) of the reference coordinates and data (B1-f) of the direction are set in correspondence with. Further, the data of the reference coordinates and the data of the direction are set corresponding to each pointer information also for the second surface data group,..., The k-th surface data group.

ポインタ情報は、海面表示が行われている状況において1フレーム分進行する場合(画像更新タイミングとなる度)に更新され、ポインタ情報の更新に伴って基準座標のデータ及び向きのデータの組合せが次の順番のものに変更されることとなる。この場合に、それら連続する基準座標のデータ及び向きのデータは、各面データ群において第1段階の形態が動きの連続性を有するように設定されている。   The pointer information is updated when advancing by one frame (when the image update timing is reached) in the situation where sea level display is being performed, and the combination of the data of the reference coordinates and the data of the direction is next as the pointer information is updated. Will be changed to the order of. In this case, the data of the continuous reference coordinates and the data of the direction are set such that the form of the first stage has motion continuity in each surface data group.

また、各面データ群間においてポインタ情報の進行に伴う基準座標のデータ及び向きのデータの配列態様は相違しているが、隣接する面データ群間において形態上の連続性が損なわれないようにそれら基準座標のデータ及び向きのデータが設定されている。つまり、複数の辺が他の面データ群と接している面データ群は、それら他の面データ群の基準座標及び向きが決定されれば、それら他の面データ群と接している状態を解除しない限り、基準座標及び向きに制約が生じ、場合によっては一義的に定まることとなる。このような状況において、当該他の面データ群と接している状態を解除しないようにして、各面データ群の基準座標及び向きが予め定められている。具体的には、既に説明したとおり、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、基準座標のデータ及び向きのデータが決定されている。   In addition, although the arrangement mode of the data of the reference coordinates and the data of the direction along with the progress of the pointer information is different between the surface data groups, the form continuity is not lost between the adjacent surface data groups. Data of the reference coordinates and data of the direction are set. That is, a surface data group in which a plurality of sides are in contact with another surface data group cancels a state in which the surface data group is in contact with the other surface data group if the reference coordinates and the direction of the other surface data group are determined. Otherwise, the reference coordinates and the orientation will be restricted, and in some cases, they will be uniquely determined. In such a situation, reference coordinates and directions of each surface data group are determined in advance so as not to release the state in contact with the other surface data group. Specifically, as described above, in the adjacent plane data group, the data of the reference coordinates and the data of the direction are determined such that the coordinates of the vertex data at the boundary portion between the two are the same.

図41(a)の説明に戻り、ステップS2405にて海面用アニメーションデータADを読み出した後は、ステップS2406にて、当該海面用アニメーションデータADから初期設定データを把握する。具体的には、開始用のデータとして、第1のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2407にて海面表示の開始指定情報を記憶した後に、本演算処理を終了する。   Referring back to FIG. 41A, after the sea surface animation data AD is read out in step S2405, in step S2406, initial setting data is grasped from the sea surface animation data AD. Specifically, a combination of the data of the reference coordinates and the data of the direction set corresponding to the first pointer information is read out for the entire surface data group as the data for start. Thereafter, after the sea surface display start designation information is stored in step S2407, the present arithmetic processing ends.

上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。さらにまた、上記ステップS2406にて把握した第1段階の形態についての初期設定データが設定されるとともに、海面表示を開始すべきことを示す海面表示の開始指定情報が、描画リストに設定される。   As described above, when the operation processing for displaying the sea surface is executed, information on the usage instruction of the sea surface object PC 19 is set in the drawing list created in the subsequent drawing list output processing, and the first method Information of usage instructions of the line map data ND1 and the second normal map data ND2 is set. Furthermore, while initial setting data for the form of the first stage grasped in step S2406 is set, start designation information of sea surface display indicating that sea surface display should be started is set in the drawing list.

ステップS2401にて海面表示の実行中であると判定した場合には、ステップS2408に進む。ステップS2408では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。また、ステップS2409では、現状設定されているデータテーブルに基づいて、第1法線マップデータND1及び第2法線マップデータND2を制御対象として把握する。   If it is determined in step S2401 that sea level display is in progress, the process advances to step S2408. In step S2408, the sea surface object PC 19 is grasped as a control target based on the currently set data table. In step S2409, the first normal map data ND1 and the second normal map data ND2 are grasped as control targets based on the currently set data table.

続くステップS2410では、既にワークRAM132に読み出されている海面用アニメーションデータADのポインタ情報を1増加させるように更新し、ステップS2411にて、その更新後のポインタ情報に対応した更新データを把握する。この把握処理について具体的には、更新用のデータとして、更新後のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2412にて、海面表示の更新指定情報を記憶した後に、本演算処理を終了する。   In the following step S2410, the pointer information of the sea surface animation data AD already read out to the work RAM 132 is updated so as to increase by 1, and in step S2411 the updated data corresponding to the updated pointer information is grasped. . More specifically, for this grasping process, a combination of reference coordinate data and direction data set corresponding to updated pointer information is read out for the entire surface data group as update data. Thereafter, in step S 2412, the update designation information of the sea surface display is stored, and the present arithmetic processing ends.

上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。また、上記ステップS2411にて把握した第1段階の形態についての更新データが描画リストに設定される。さらにまた、海面表示を更新すべきことを示す海面表示の更新指定情報が、描画リストに設定される。   As described above, when the operation processing for displaying the sea surface is executed, information on the usage instruction of the sea surface object PC 19 is set in the drawing list created in the subsequent drawing list output processing, and the first method Information of usage instructions of the line map data ND1 and the second normal map data ND2 is set. Further, the update data of the form of the first stage grasped in step S2411 is set in the drawing list. Furthermore, update designation information of the sea surface display indicating that the sea surface display should be updated is set in the drawing list.

なお、海面用アニメーションデータADのポインタ情報は、海面表示が実行される全フレーム数に対応していてもよいが、本パチンコ機10では、海面表示が実行される全フレーム数よりもポインタ情報の数が少なく設定されている。この場合、海面表示の実行中においてポインタ情報が最後の順番のものとなってしまうが、最後の順番となった次のフレームにおいては最初のポインタ情報に復帰される。また、このようにポインタ情報がループすることに鑑みて、ポインタ情報が最後の順番における第1段階の形態と、ポインタ情報が最初の順番における第1段階の形態とが海面用オブジェクトPC19の動きとして連続性を有していることが好ましい。   Although the pointer information of the sea surface animation data AD may correspond to the total number of frames for which sea surface display is performed, in the pachinko machine 10, the pointer information is more than the total number of frames for which sea surface display is performed. The number is set small. In this case, the pointer information becomes the last one during execution of the sea surface display, but in the next frame after the last order, the first pointer information is restored. Also, in view of the looping of the pointer information in this way, the form of the first stage in the last order of the pointer information and the form of the first stage in the first order of the pointer information are the movement of the object for the surface PC 19 It is preferable to have continuity.

次に、VDP135にて実行される海面表示用の設定処理を、図42のフローチャートを参照しながら説明する。海面表示用の設定処理は、第1表示モードである状況で実行されるものであり、図26におけるステップS1703〜ステップS1708の処理の一部として実行される。また、海面表示の設定処理は、今回の描画リストに海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。   Next, the setting processing for sea surface display executed by the VDP 135 will be described with reference to the flowchart of FIG. The setting processing for sea surface display is performed in the state of the first display mode, and is performed as part of the processing in steps S1703 to S1708 in FIG. Further, the setting processing of the sea surface display is started when either of the sea surface display start designation information and the sea surface display update designation information is set in the current drawing list.

先ずステップS2501では、今回の描画リストにおいて海面表示の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2502に進む。   First, in step S2501, it is determined whether start designation information of sea surface display is set in the current drawing list. If it is set, the process proceeds to step S2502.

ステップS2502では、今回の描画リストに基づいて、メモリモジュール133において海面用オブジェクトPC19が記憶されているアドレスを把握して、当該海面用オブジェクトPC19をVRAM134の展開用バッファ141に読み出す。また、ステップS2503では、今回の描画リストに基づいて、メモリモジュール133において第1法線マップデータND1及び第2法線マップデータND2が記憶されているアドレスを把握して、これら第1法線マップデータND1及び第2法線マップデータND2をVRAM134の展開用バッファ141に読み出す。   In step S 2502, the memory module 133 grasps the address at which the sea surface object PC 19 is stored based on the current drawing list, and reads the sea surface object PC 19 into the expansion buffer 141 of the VRAM 134. In step S2503, the memory module 133 recognizes the addresses at which the first normal map data ND1 and the second normal map data ND2 are stored based on the current drawing list, and the first normal maps are obtained. The data ND1 and the second normal map data ND2 are read out to the expansion buffer 141 of the VRAM 134.

続くステップS2504では、今回の描画リストに設定されている初期設定データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2505にて、その把握した初期設定データを適用した状態で海面用オブジェクトPC19をワールド座標系に設定する。これにより、海面用オブジェクトPC19が第1段階の形態となった状態でワールド座標系に設定される。   In the subsequent step S2504, the initial setting data (data extracted from the animation data for sea surface AD) set in the current drawing list is grasped, and in step S2505, the sea surface is applied with the grasped initial setting data. Object PC 19 is set in the world coordinate system. As a result, the sea surface object PC 19 is set to the world coordinate system in the first stage configuration.

続くステップS2506では、第1法線マップデータND1のワールド座標系への初期設定処理を実行するとともに、ステップS2507では、第2法線マップデータND2のワールド座標系への初期設定処理を実行する。これにより、図39(a)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対して第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが対応付けられる。   In the following step S2506, an initial setting process to the world coordinate system of the first normal map data ND1 is executed, and in the step S2507, an initial setting process to the world coordinate system of the second normal map data ND2 is executed. As a result, unit normal data UND of the first normal map data ND1 and the second normal to the surface data SD of the sea surface object PC 19 are set to the state described with reference to FIG. 39 (a). Unit normal data UND of map data ND2 is associated.

その後、ステップS2508にて、法線パラメータの設定処理を実行した後に、本設定処理を終了する。かかる法線パラメータの設定処理について、図43のフローチャートを参照しながら説明する。なお、法線パラメータとは、面データSDの向きを決定付けるパラメータのことであり、具体的には当該面データSDを構成する頂点データの座標を決定付けるものである。   After that, in step S2508, normal line parameter setting processing is performed, and this setting processing ends. The setting process of the normal line parameter will be described with reference to the flowchart of FIG. The normal parameter is a parameter that determines the direction of the surface data SD, and more specifically, determines the coordinates of vertex data that configures the surface data SD.

法線パラメータの設定処理では、先ずステップS2601にて、レジスタ153に設けられた適用カウンタの初期化処理を実行する。本処理において適用カウンタは、第1法線マップデータND1及び第2法線マップデータND2の単位法線データUNDに設定されている変更データを適用する対象の面データSD1をVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては当該適用対象の面データSD1の数に対応した数値情報が適用カウンタに設定される。   In the setting process of the normal line parameter, first, in step S2601, the initialization process of the application counter provided in the register 153 is executed. In this processing, the application counter specifies, using the VDP 135, surface data SD1 to which change data set in the unit normal data UND of the first normal map data ND1 and the second normal map data ND2 is applied. In the state where the application counter is initialized, numerical information corresponding to the number of the plane data SD1 to which the application is applied is set in the application counter.

続くステップS2602では、第1法線マップデータND1において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第1法線マップデータND1において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。   In the subsequent step S2602, the change data is read out from the unit normal data UND corresponding to the current numerical information of the application counter in the first normal map data ND1. Specifically, first, the plane data SD1 corresponding to the current numerical information of the application counter is grasped, and thereafter, the unit normal line data UND correlated with the plane data SD1 in the first normal map data ND1 is grasped Do. Then, the change data set in the unit normal data UND is read out.

続くステップS2603では、第2法線マップデータND2において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第2法線マップデータND2において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。   In the following step S2603, the change data is read out from the unit normal data UND corresponding to the current numerical information of the application counter in the second normal map data ND2. Specifically, first, the surface data SD1 corresponding to the current numerical information of the application counter is grasped, and thereafter, the unit normal data UND correlated with the surface data SD1 in the second normal map data ND2 is grasped Do. Then, the change data set in the unit normal data UND is read out.

続くステップS2604では、上記ステップS2602にて第1法線マップデータND1から読み出した変更データと、上記ステップS2603にて第2法線マップデータND2から読み出した変更データとのブレンド処理を実行する。このブレンド処理に際しては、既に説明したとおり、第1法線マップデータND1に対応した変更データによる面データSD1の向きと、第2法線マップデータND2に対応した変更データによる面データSD1の向きとの中間の向きとなるように、各変更データのブレンドが実行される。   In the following step S2604, blending processing of the change data read out from the first normal map data ND1 in the step S2602 and the change data read out from the second normal map data ND2 in the step S2603 is executed. In the blending process, as described above, the direction of the surface data SD1 based on the modified data corresponding to the first normal map data ND1, and the direction of the surface data SD1 based on the modified data corresponding to the second normal map data ND2. Blending of each change data is performed so as to be in the middle direction of.

なお、当該ブレンドは、各変更データを適用した場合における面データSD1の各向きの中間となるように行われる構成に限定されることはなく、所定の比率で第1法線マップデータND1に係る変更データ寄り又は第2法線マップデータND2に係る変更データ寄りとなる構成としてもよい。   Note that the blending is not limited to the configuration performed so as to be in the middle of each direction of the surface data SD1 when each change data is applied, and relates to the first normal map data ND1 at a predetermined ratio. It may be configured to be closer to the change data or to the change data according to the second normal map data ND2.

続くステップS2605では、上記ステップS2604にてブレンドした結果の変更データを、適用カウンタの現状の数値情報に対応した面データSD1に対して適用する。これにより、当該面データSD1については第1段階の形態における向きから、上記ブレンド後の変更データに対応した向きに変更される。但し、既に説明したとおり、変更データは第1段階の形態を基準としてそこからの相対的な変化量として与えられているため、変更データがそのまま適用されるのではなく、第1段階の形態における向きを基準として、そこからブレンド後の変更データに対応した方向であって対応した変化量分だけ変更される。   In the following step S2605, the change data of the result of blending in step S2604 is applied to the surface data SD1 corresponding to the current numerical information of the application counter. Thereby, the surface data SD1 is changed from the orientation in the form of the first stage to the orientation corresponding to the modified data after the blending. However, as described above, since the change data is given as a relative change amount from the form of the first stage, the change data is not applied as it is, but in the form of the first stage. Based on the direction, the direction is changed from that direction by the amount corresponding to the change amount corresponding to the change data after blending.

続くステップS2606では、適用カウンタの現状の数値情報に対応した面データSD1に対して隣接する面データSD2、すなわち適用対象の面データSD1と頂点データを共有する面データSD2(既に説明した緩衝用の面データSD2に相当)の向きを、当該共有する頂点データの座標の変更に合わせて変更する処理を実行する。この場合、今回の適用対象の面データSD1と共有していない頂点データについては、第1段階の形態から座標を変更させずに、隣接する面データSD2の向きを変更する。   In the subsequent step S2606, the surface data SD2 adjacent to the surface data SD1 corresponding to the current numerical information of the application counter, that is, the surface data SD2 sharing vertex data with the surface data SD1 of the application target A process of changing the direction of the surface data SD2) in accordance with the change of the coordinates of the shared vertex data is executed. In this case, for vertex data not shared with the current plane data SD1 to be applied, the direction of the adjacent plane data SD2 is changed without changing the coordinates from the form of the first stage.

続くステップS2607では、適用カウンタの数値情報を1減算することにより、法線パラメータの設定を行う対象が次の適用対象の面データSD1に移行するように適用カウンタの数値情報を更新する。   In the subsequent step S2607, the numerical information of the application counter is updated by subtracting 1 from the numerical information of the application counter so that the target for which the normal parameter is set shifts to the next application target plane data SD1.

その後、ステップS2608にて、その更新後の適用カウンタの数値情報が、全ての適用対象の面データSD1に対する設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2608にて否定判定をした場合には、ステップS2602に戻り、新たな適用対象の面データSD1に対してステップS2602〜ステップS2607の処理を実行し、ステップS2608にて肯定判定をした場合には、本設定処理を終了する。   Thereafter, in step S2608, it is determined whether the numerical information of the application counter after the update indicates that the setting for all of the application target plane data SD1 is completed, that is, the numerical information of the application counter is " It is determined whether it is "0". If a negative determination is made in step S2608, the process returns to step S2602, and the processes in steps S2602 to S2607 are performed on the new application target surface data SD1. If a positive determination is made in step S2608 , This setting process ends.

海面表示用の設定処理(図42)の説明に戻り、ステップS2501にて否定判定をした場合には、ステップS2509にて、今回の描画リストに設定されている更新データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2510にて、その把握した更新データを、ワールド座標系に既に設定されている海面用オブジェクトPC19に設定する。この場合、上記更新データが、海面用オブジェクトPC19の各面データ群の座標及び向きのデータに対して上書きされる。これにより、海面用オブジェクトPC19が、再度、第1段階の形態となった状態でワールド座標系に設定される。   Returning to the description of the setting processing for sea surface display (FIG. 42), if a negative determination is made in step S2501, update data (from sea surface animation data AD) set in the current drawing list in step S2509. The extracted data) is grasped, and in step S2510, the grasped update data is set in the sea surface object PC 19 already set in the world coordinate system. In this case, the update data is overwritten on the data of the coordinates and direction of each surface data group of the sea surface object PC 19. As a result, the sea surface object PC 19 is set in the world coordinate system again in the form of the first stage.

続くステップS2511では、第1法線マップデータND1の更新処理を実行するとともに、ステップS2512では、第2法線マップデータND2の更新処理を実行する。これにより、図39(b)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対応付けられる第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが変更される。   In the following step S 2511, update processing of the first normal map data ND 1 is executed, and in step S 2512, update processing of the second normal map data ND 2 is executed. As a result, the unit normal data UND of the first normal map data ND1 associated with each surface data SD of the sea surface object PC 19 and the second method are set to the state described with reference to FIG. 39 (b). The unit normal data UND of the line map data ND2 is changed.

その後、ステップS2508の法線パラメータの設定処理を実行した後に、本設定処理を終了する。当該法線パラメータの設定処理は、既に説明したとおりである。   Thereafter, the setting process of the normal line parameter in step S2508 is performed, and then the setting process ends. The setting process of the normal line parameter is as described above.

以上のように海面用オブジェクトPC19を構成する各面データSDのワールド座標系における座標及び向きが決定される。そして、それら面データSDに対しては、描画処理(図16)におけるステップS1009の色情報の設定処理にて色情報の設定が行われる。この場合に、当該面データSDに対する色情報の設定は、テクスチャマッピング処理とは異なる手法にて行われる。かかる手法について説明する。   As described above, the coordinates and orientation in the world coordinate system of each surface data SD constituting the sea surface object PC 19 are determined. Then, setting of color information is performed in the setting process of color information in step S1009 in the drawing process (FIG. 16) for the plane data SD. In this case, setting of color information for the surface data SD is performed by a method different from the texture mapping process. Such a method will be described.

図44(a)〜(c)は、各面データSDに色情報を設定する手法を説明するための説明図である。   FIGS. 44A to 44C are explanatory diagrams for explaining a method of setting color information in each surface data SD.

色情報の設定処理(ステップS1009)は、図16に示すように、各オブジェクトのワールド座標系への設定処理が完了し、さらにステップS1006の視野座標系への設定処理、及びステップS1007のクリッピング処理が実行された後に、実行される。したがって、色情報の設定処理が実行されるタイミングでは既に、海面用オブジェクトPC19の各面データSDの座標及び向きが視野座標系に変換された状態で設定されている。   In the color information setting process (step S1009), as shown in FIG. 16, the setting process of each object to the world coordinate system is completed, and the setting process to the visual field coordinate system of step S1006 and the clipping process of step S1007. Will be executed after Therefore, at the timing when the setting process of color information is executed, the coordinates and the direction of each surface data SD of the sea surface object PC 19 are already set in a state of being converted to the visual field coordinate system.

この状態では、図44(a)に示すように、視野座標系の基準となる視点VDが設定されているとともに、その視点VDよりも上方の位置となるように海面用オブジェクトPC19が設定されている。つまり、本パチンコ機10における海面表示は、海中を背景とする表示であって、その海中から見上げた状態で海面が表示される演出のことである。   In this state, as shown in FIG. 44 (a), the viewpoint VD serving as the reference of the visual field coordinate system is set, and the sea surface object PC19 is set to a position above the viewpoint VD. There is. That is, the sea surface display in the pachinko machine 10 is a display with the sea as the background, and is an effect that the sea surface is displayed in a state of looking up from the sea.

各面データSDに対する色情報の設定に際しては、海面用オブジェクトPC19の上方に仮に光源している場合において、その光源からの透過光を面データSDの座標及び向きとの関係で、視点VDの位置にて視認することが可能となるか否かを想定して、上記光源からの光が透過することに対応した面データSDと、上記光源からの光が海面用オブジェクトPC19の上方側にて全反射して透過しないことに対応した面データSDとに振り分ける。   When setting color information for each surface data SD, if the light source is temporarily above the sea surface object PC 19, the position of the viewpoint VD is determined by the relationship between the transmitted light from the light source and the coordinates and direction of the surface data SD. Surface data SD corresponding to the transmission of the light from the light source and the light from the light source all over the object for the sea surface PC 19 on the assumption that it becomes possible to visually recognize It distributes to surface data SD corresponding to not reflecting and transmitting.

この振分に際しては、上記光源を描画処理(図16)のライティング処理(ステップS1008)にて設定するのではなく、視点VDに対する面データSDの角度が所定の角度未満であるか否かにより、その面データSDを、透過光の多い分類と、透過光の少ない分類とのいずれかに振り分ける。   In this distribution, the light source is not set in the lighting process (step S1008) of the drawing process (FIG. 16), but depending on whether the angle of the surface data SD with respect to the viewpoint VD is less than a predetermined angle. The surface data SD is divided into one of the classification with many transmitted light and the classification with few transmitted light.

より詳細には、図44(b−1)及び(b−2)に示すように、先ず面データSDの座標及び向きのデータを利用して、視点VDから当該面データSDを見た場合の角度である屈折角βを算出する。この算出に際しては、座標及び向きのデータに対して1対1で対応させて屈折角のデータが設定されたテーブルをメモリモジュール133から読み出して用いられるが、算出式のプログラムを予め用意しておき、その算出式で屈折角を算出するようにしてもよい。   More specifically, as shown in FIGS. 44 (b-1) and (b-2), first, the surface data SD is viewed from the viewpoint VD using coordinate and direction data of the surface data SD. The angle of refraction, β, is calculated. In this calculation, a table in which refraction angle data is set corresponding to coordinates and direction data on a one-to-one basis is read out from the memory module 133 and used, but a program of calculation formula is prepared in advance. The refraction angle may be calculated by the calculation formula.

ここで、面データSDに対する色情報の設定は、大気中から海面への光の入射を前提としているため、屈折角βが大きいほど、入射角αは大きくなり、入射角αが大きくなるほど、光量は少なくなる。これを前提として、VDP135では、屈折角βを算出した後は、その屈折角βが所定の基準角度未満であるか否かを判定する。そして、屈折角βが所定の基準角度未満である場合(例えば図44(b−1)の場合)には、その屈折角βを生じさせる面データSDを透過光が多い分類とし、屈折角βが所定の基準角度以上である場合(例えば図44(b−2)の場合)には、その屈折角βを生じさせる面データSDを透過光が少ない分類とする。ちなみに、視点VD側とは逆側を向く方向の成分を有している場合といったように、視点VD側を向く成分を向く方向に有していない面データSDは、全て透過光が少ない分類とされる。   Here, since setting of color information with respect to surface data SD is premised on the incidence of light from the atmosphere to the sea surface, the larger the refraction angle β, the larger the incident angle α, and the larger the incident angle α, the light quantity Will be less. On the premise of this, after calculating the refraction angle β, the VDP 135 determines whether the refraction angle β is less than a predetermined reference angle. Then, when the refraction angle β is less than a predetermined reference angle (for example, in the case of FIG. 44 (b-1)), the surface data SD causing the refraction angle β is classified as having many transmitted light, and the refraction angle β If the angle is equal to or greater than a predetermined reference angle (for example, in the case of FIG. 44 (b-2)), the surface data SD that causes the refraction angle β is classified as having less transmitted light. By the way, as in the case of having a component in the direction facing the opposite side to the viewpoint VD side, all surface data SD not having a direction facing the component facing the viewpoint VD side is classified as having little transmitted light. Be done.

上記のような分類を行った後は、図44(c)に示すようなカラーテーブルCTを用いて各面データSDの色情報を決定する。カラーテーブルCTは、メモリモジュール133に予め記憶されており、複数のカラーNO.のデータと、これらカラーNO.のデータに1対1で対応させて色情報が設定されている。また、カラーテーブルCTには、いずれの色情報を面データSDに対して適用するかを決定する際に参照される相関データが設定されている。   After the classification as described above, color information of each surface data SD is determined using a color table CT as shown in FIG. The color table CT is stored in advance in the memory module 133, and a plurality of color NO. And the color NO. The color information is set in a one-to-one correspondence with the data of. Further, in the color table CT, correlation data to be referred to when deciding which color information to apply to the surface data SD is set.

この場合、カラーNO.「7」は、上記透過光が少ない分類とされた面データSDに対して適用されるものである。一方、カラーNO.「1」〜「6」は、上記透過光が多い分類とされた面データSDに対して適用されるものであり、かかる分類の面データSDに対しては色情報が複数種類設定されている。当該分類の面データSDに対していずれの色情報を設定するかは、当該面データSDの向きによって決定されるのではなく、視点VDからのZ軸方向の距離によって決定される。   In this case, color NO. "7" is applied to the surface data SD classified into the small amount of transmitted light. On the other hand, color NO. “1” to “6” are applied to the surface data SD classified into the above-mentioned large amount of transmitted light, and plural types of color information are set to the surface data SD of the classification. . Which color information is to be set for the surface data SD of the classification is not determined by the direction of the surface data SD, but is determined by the distance in the Z-axis direction from the viewpoint VD.

詳細には、面データSDのうち一の隅角部分(例えば図38(a)の状態で見て左下角部分)の頂点データを基準頂点データとして、その基準頂点データのZ座標のデータが、第1段階の閾値である「Z1」以下である場合(すなわち「Z1」よりもZ座標が視点VDに近い場合)には色情報として「CL1」が選択され、第1段階の閾値である「Z1」よりも大きく且つ第2段階の閾値である「Z2」以下である場合には色情報として「CL2」が選択され、第2段階の閾値である「Z2」よりも大きく且つ第3段階の閾値である「Z3」以下である場合には色情報として「CL3」が選択される。そして、以下同様にして、各閾値の範囲に対応させて「CL4」及び「CL5」が選択され、上記基準頂点データのZ座標のデータが、第5段階の閾値である「Z5」よりも大きい場合には色情報として「CL6」が選択される。   Specifically, with the vertex data of one corner portion (for example, the lower left corner when viewed in the state of FIG. 38A) of the surface data SD as reference vertex data, data of the Z coordinate of the reference vertex data is If it is equal to or less than the first-stage threshold “Z1” (ie, if the Z coordinate is closer to the viewpoint VD than “Z1”), “CL1” is selected as color information, and the first-stage threshold “ If the color information is larger than Z1 and smaller than or equal to the second stage threshold "Z2", "CL2" is selected as color information, and the third stage is larger than the second stage threshold "Z2". When the threshold value is "Z3" or less, "CL3" is selected as color information. Then, similarly, "CL4" and "CL5" are selected correspondingly to the range of each threshold, and the data of the Z coordinate of the reference vertex data is larger than the threshold "Z5" of the fifth stage. In the case, "CL6" is selected as color information.

これら色情報「CL1」〜「CL6」は、後側ほど暗い色となるように設定されており、具体的には、色情報「CL1」は白色として設定され、色情報「CL6」は暗い青色として設定され、色情報「CL2」〜「CL5」はそれらの中間色として設定されている。また、色情報「CL7」は、色情報「CL6」よりも暗い色として設定されており、具体的には黒色に近い青色として設定されている。   The color information “CL1” to “CL6” are set to be darker toward the rear side. Specifically, the color information “CL1” is set as white and the color information “CL6” is dark blue The color information "CL2" to "CL5" are set as their intermediate colors. The color information "CL7" is set as a darker color than the color information "CL6", and more specifically, is set as blue close to black.

以下に、各面データSDに色情報を設定するための具体的な処理構成を説明する。   The specific processing configuration for setting color information to each surface data SD will be described below.

図45(a)は、VDP135にて実行される海面表示用の色情報設定処理を示すフローチャートである。海面表示用の色情報設定処理は、描画処理(図16)におけるステップS1009の色情報の設定処理にて実行される。また、海面表示用の色情報設定処理は、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。   FIG. 45 (a) is a flowchart showing the color information setting process for sea surface display performed by the VDP 135. The color information setting process for sea surface display is executed in the color information setting process of step S1009 in the drawing process (FIG. 16). Further, the color information setting process for sea surface display is started when either of the sea surface display start designation information and the sea surface display update designation information is set in the current drawing list.

先ずステップS2701では、上記適用カウンタの初期化処理を実行する。本処理において適用カウンタは、色情報の設定を行う対象の面データSDをVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては海面用オブジェクトPC19に含まれる面データSDの数に対応した数値情報が適用カウンタに設定される。   First, in step S2701, the application counter is initialized. In this processing, the application counter has a role of specifying, using the VDP 135, surface data SD to which color information is to be set, and is included in the sea surface object PC 19 when the application counter is initialized. Numerical information corresponding to the number of plane data SD is set in the application counter.

続くステップS2702では、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2703にて、その把握した向きのデータから上記屈折角を算出する。そして、ステップS2704にて、その算出した屈折角が基準角度以上であるか否かを判定する。   In the following step S2702, the sea surface object PC 19 recognizes orientation data from surface data SD corresponding to the current numerical information of the application counter, and in step S2703 calculates the refraction angle from the grasped orientation data. Then, in step S2704, it is determined whether the calculated refraction angle is greater than or equal to the reference angle.

基準角度以上である場合には、ステップS2705にて、カラーテーブルCTにおけるカラーNO.7の色情報(「CL7」)を、今回対象となった面データSDに対して設定する。一方、基準角度未満である場合には、ステップS2706にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2707にて、カラーテーブルCTと照合することにより、対応するカラーNO.の色情報(「CL1」〜「CL6」のいずれか)を、今回対象となった面データSDに対して設定する。   If the angle is equal to or greater than the reference angle, color NO. The color information ("CL7") of 7 is set for the plane data SD that is currently targeted. On the other hand, if the angle is less than the reference angle, the data of the Z coordinate of the surface data SD that is currently targeted is read out in step S2706, and collated with color table CT in step S2707. . Color information (any one of “CL1” to “CL6”) is set for the surface data SD that has been targeted this time.

ステップS2705又はステップS2707の処理を実行した後は、ステップS2708にて、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2709にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。   After executing the processing of step S2705 or step S2707, the application counter is set so that the target for setting color information shifts to the next surface data SD by subtracting 1 from the numerical information of the application counter in step S2708. Update the numerical information of. Thereafter, in step S2709, it is determined whether the numerical information of the application counter after the update indicates that setting of color information for all plane data SD is completed, that is, the numerical information of the application counter is " It is determined whether it is "0".

ステップS2709にて否定判定をした場合には、ステップS2702に戻り、新たな面データSDに対してステップS2702〜ステップS2708の処理を実行する。一方、ステップS2709にて肯定判定をした場合には、本色情報設定処理を終了する。   If a negative determination is made in step S2709, the process returns to step S2702, and the processes of step S2702 to step S2708 are performed on new surface data SD. On the other hand, when an affirmative determination is made in step S2709, the present color information setting process is ended.

図45(b)は、VDP135にて実行される海面用の調整処理を示すフローチャートである。当該海面用の調整処理は、描画処理(図16)におけるステップS1010の背景用の描画データ作成処理にて実行される。より詳細には、図27では省略するとともに説明も省略していたが、ステップS1802とステップS1803との間にて実行される。つまり、背景用の3次元画像データが2次元画像データに変換された後に、海面用の調整処理が実行される。   FIG. 45 (b) is a flow chart showing the sea level adjustment process performed by the VDP 135. The adjustment process for the sea surface is executed in the drawing data creation process for background in step S1010 in the drawing process (FIG. 16). More specifically, although omitted in FIG. 27 and the description is omitted, the processing is executed between step S1802 and step S1803. That is, after the three-dimensional image data for background is converted into two-dimensional image data, the adjustment process for sea level is executed.

先ずステップS2711では、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されているか否かを判定する。いずれもが設定されていない場合には、そのまま本調整処理を終了する。いずれかが設定されている場合には、ステップS2712にて、海面のぼかし処理を実行した後に、本調整処理を終了する。   First, in step S 2711, it is determined whether any one of sea surface display start designation information and sea surface display update designation information is set in the current drawing list. If none of them has been set, the present adjustment processing ends. If one of the settings is set, the sea level blurring process is performed in step S2712, and the adjustment process ends.

海面のぼかし処理では、隠面処理(ステップS1802)を利用して作成された背景用の2次元画像データにおいて、ガウスフィルタを利用したぼかし処理を実行する。詳細には、海面表示に対応した領域から1のピクセルを抽出するとともに、そのピクセルを中心としてX軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンド(合成)を行う。また、同様に、同一のピクセルを中心としてY軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンドを行う。そして、海面表示に対応した領域を構成している全ピクセルに対して、上記ガウスフィルタを利用したぼかし処理を実行する。   In the sea surface blurring process, a blurring process using a Gaussian filter is performed on the background two-dimensional image data created using the hidden surface process (step S1802). Specifically, one pixel is extracted from the area corresponding to the sea surface display, and a predetermined number (for example, five) of pixels are extracted on both sides of the pixel in the X axis direction. Thereafter, weighting according to the distance from the central pixel is determined using a Gaussian function, and blending (composition) of color information of each pixel is performed with the determined weighting applied. Similarly, a predetermined number (for example, 5) of pixels are extracted on both sides in the Y-axis direction around the same pixel. Thereafter, a weighting according to the distance from the central pixel is determined using a Gaussian function, and the color information of each pixel is blended while applying the determined weighting. And the blurring process using the said Gaussian filter is performed with respect to all the pixels which comprise the area | region corresponding to sea surface display.

次に、海面表示の内容について、図46を参照しながら説明する。   Next, the contents of the sea surface display will be described with reference to FIG.

図46(a)は海面表示を説明するための説明図であり、図46(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。   FIG. 46 (a) is an explanatory diagram for explaining the sea surface display, and FIG. 46 (b) is an explanatory diagram for simply explaining the setting mode of the color information of the area where the sea surface display is performed. .

図46(a)に示すように、複数の図柄が変動表示されている背景では、海中を示す画像が表示されている。この背景の上部にて海面表示SPがなされている。この場合、海面を表示させるための面データSDの向きが細かく制御されているとともに、その細かく制御された状態に応じた色情報が設定されていることにより、海面の向きが細かく表現されるとともに大気中から海中への光の透過がリアルに表現されている。よって、リアルな海面表示SPを行うことが可能となっている。   As shown in FIG. 46 (a), in the background in which a plurality of symbols are variably displayed, an image showing the sea is displayed. A sea level display SP is made at the top of this background. In this case, the orientation of the surface data SD for displaying the sea surface is finely controlled, and color information according to the finely controlled state is set, whereby the orientation of the sea surface is finely represented. Transmission of light from the atmosphere to the sea is represented realistically. Therefore, it is possible to perform realistic sea surface display SP.

また、海面用オブジェクトPC19の第1段階の形態を設定した後に、各面データSDの向きを調整する構成であるため、海面の大きな動きは規則的なものとしながら、その規則的な大きな動きの中で各面データSDの向きに不規則性を与えることが可能となる。   Further, since the direction of each surface data SD is adjusted after setting the form of the first stage of the sea surface object PC19, the large movement of the sea surface is regular, and the regular large movement is Irregularity can be given to the direction of each surface data SD.

また、各面データSDの動きを個別に制御する際には、法線マップデータND1,ND2を利用したことにより、各面データSDの向きを演算によって個別に変化させる必要が生じない。よって、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。特に、法線マップデータND1,ND2のワールド座標系における位置を変化させることにより、海面表示SPの進行に伴って各面データSDに対応付けられる単位法線データUNDを変更させる構成であるため、海面表示SPの進行に伴って面データSDの向きを複雑に変化させる場合において、同一の法線マップデータND1,ND2を利用し且つ同一の適用処理を利用することが可能となるため、記憶容量の削減及び処理負荷の軽減が図られる。   Further, when controlling the movement of each surface data SD individually, it is not necessary to individually change the direction of each surface data SD by calculation, by using the normal map data ND1 and ND2. Therefore, it is possible to achieve the above-described excellent effects while reducing the processing load. In particular, by changing the position of the normal map data ND1 and ND2 in the world coordinate system, the unit normal data UND associated with each surface data SD is changed as the sea surface display SP progresses, When the direction of the surface data SD is complicatedly changed with the progress of the sea surface display SP, the same normal map data ND1, ND2 can be used and the same application processing can be used, so that the storage capacity And processing load can be reduced.

また、海面用アニメーションデータADを利用した大まかな動きの決定は表示CPU131にて実行し、法線マップデータND1,ND2を利用した細かな面の向きの決定はVDP135にて実行する構成であるため、処理負荷の分散が図られる。   Further, rough determination of movement using the animation data for sea surface is executed by the display CPU 131, and determination of fine surface orientation using the normal map data ND1 and ND2 is executed by the VDP 135. And distribution of processing load.

また、既に説明したとおり、海面のぼかし処理が実行されることにより、図46(b)に示すように、光の透過がほとんどないことに対応した色情報が設定されたピクセルPS(左側のピクセルPS)と、光の透過が最もあることに対応した色情報が設定されたピクセルPS(右側のピクセルPS)との間には、これら両ピクセルPSの色情報をブレンドさせたピクセルPS(中央側のピクセルPS)が存在することとなる。これにより、海面表示SPを行っている領域にて個別に色情報が設定される構成において色情報が相違する部分の境界を目立たなくすることが可能となる。   Also, as described above, by performing the blurring process on the sea surface, as shown in FIG. 46 (b), the pixel PS (the pixel on the left side to which color information corresponding to the light transmission is hardly set) A pixel PS (center side) obtained by blending the color information of both pixels PS between the pixel PS (right side pixel PS) for which the color information corresponding to the most light transmission is set. Pixel PS) will be present. As a result, in the configuration in which color information is individually set in the area where the sea surface display SP is performed, it is possible to make the boundary of the portion where the color information is different inconspicuous.

また、2次元画像とした後に当該ぼかし処理を実行するため、3次元画像の状態でぼかし処理を実行する構成に比べて、処理負荷の軽減が図られる。   Further, since the blurring process is performed after the two-dimensional image is formed, the processing load can be reduced as compared with the configuration in which the blurring process is performed in the state of the three-dimensional image.

<海面表示用の色情報設定処理の別形態>
図47は、VDP135にて実行される海面表示用の色情報設定処理の別形態を説明するためのフローチャートである。
<Another form of color information setting process for sea surface display>
FIG. 47 is a flowchart for explaining another mode of the color information setting process for sea surface display executed by the VDP 135.

先ずステップS2801では、上記ステップS2701と同様に、適用カウンタの初期化処理を実行する。続くステップS2802では、上記ステップS2702と同様に、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2803にて、上記ステップS2703と同様に、その把握した向きのデータから屈折角を算出する。   First, in step S2801, the process of initializing the application counter is executed as in step S2701. In the following step S2802, as in the case of the above-mentioned step S2702, the data for direction is grasped from the surface data SD corresponding to the current numerical information of the application counter in the sea surface object PC19, and in the same manner as the above step S2703 The refraction angle is calculated from the data of the orientation that has been grasped.

続くステップS2804では、上記ステップS2803にて算出した屈折角の情報から色情報を導出する。この場合、色情報の導出に際しては、屈折角の情報と色情報とが対応付けられたカラーテーブルをメモリモジュール133から読み出し、屈折角の情報に対応した色情報を読み出す。つまり、本別形態では、屈折角の情報から直接的に色情報が読み出される。   In the following step S2804, color information is derived from the information on the refraction angle calculated in the above step S2803. In this case, when the color information is derived, a color table in which the information on the refraction angle and the color information are associated is read from the memory module 133, and the color information corresponding to the information on the refraction angle is read. That is, in the present embodiment, color information is read directly from the information of the refraction angle.

その後、ステップS2805にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2806にて、その読み出したZ座標のデータに対応した色情報の調整処理を実行する。この場合、視点VDから遠い距離に存在する面データSDほど、ステップS2804にて設定された色情報を暗い色側にシフトさせる場合のシフト量が大きくなる処理が実行される。   Thereafter, in step S2805, data of the Z coordinate of the surface data SD that is currently targeted is read, and in step S2806, adjustment processing of color information corresponding to the read data of the Z coordinate is executed. In this case, a process is performed in which the shift amount in the case of shifting the color information set in step S2804 to the darker side becomes larger as the surface data SD exists at a distance farther from the viewpoint VD.

続くステップS2807では、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2808にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2808にて否定判定をした場合には、ステップS2802に戻り、新たな面データSDに対してステップS2802〜ステップS2807の処理を実行する。一方、ステップS2808にて肯定判定をした場合には、本色情報設定処理を終了する。   In the subsequent step S2807, the numerical information of the application counter is updated by subtracting 1 from the numerical information of the application counter so that the target for setting the color information shifts to the next plane data SD. Thereafter, in step S2808, it is determined whether the numerical information of the application counter after the update indicates that setting of the color information for all plane data SD is completed, that is, the numerical information of the application counter is " It is determined whether it is "0". If a negative determination is made in step S2808, the process returns to step S2802, and the processes in steps S2802 to S2807 are performed on new surface data SD. On the other hand, when an affirmative determination is made in step S2808, the present color information setting process is ended.

<他の別形態>
・一の法線マップデータND1,ND2に含まれる単位法線データUNDの数が海面用オブジェクトPC19に含まれる面データSDの数以下である構成としてもよい。この場合、同一の法線マップデータND1,ND2を複数並べることにより、面データSDの全てに対して単位法線データUNDを対応付けるようにすればよい。
<Other embodiment>
The number of unit normal data UND included in one normal map data ND1, ND2 may be equal to or less than the number of plane data SD included in the sea surface object PC19. In this case, the unit normal data UND may be made to correspond to all the surface data SD by arranging a plurality of identical normal map data ND1 and ND2.

・法線マップデータND1,ND2は複数種類設定されている必要はなく、単一の法線マップデータが設定されている構成としてもよい。この場合、海面表示に際して、当該単一の法線マップデータのみを海面用オブジェクトPC19に適用する構成としてもよい。当該構成であっても、海面用オブジェクトPC19に適用される法線マップデータの位置を変化させることで、海面表示の進行に伴って各面データSDの向きを変化させることが可能となる。また、当該単一の法線マップデータを複数同時に読み出すとともに、それら複数の法線マップデータにおいて海面用オブジェクトPC19に適用する位置を相互に異ならせることにより、複雑な面の向きの制御を可能とする構成としてもよい。   The plurality of types of normal map data ND1 and ND2 need not be set, and a single set of normal map data may be set. In this case, in the sea surface display, only the single normal map data may be applied to the sea surface object PC 19. Even with this configuration, it is possible to change the direction of each surface data SD along with the progress of sea surface display by changing the position of the normal map data applied to the sea surface object PC 19. In addition, by simultaneously reading out a plurality of the single normal map data and making the positions to be applied to the sea surface object PC 19 different from each other in the plurality of normal map data, complex surface orientation can be controlled. It may be configured to

・法線マップデータND1,ND2の単位法線データUNDを適用する対象は、同一の頂点データを共有する複数の面データSDが同時に適用対象とならないように制限されている構成に限定されることはなく、全面データSDに対して単位法線データUNDを適用する構成としてもよい。但し、本構成においては、一の頂点データに対して異なる座標が同時に設定されることとなるため、その調整を別途行う必要がある。例えば、頂点データの座標設定を行う際の優先度を隣接する面データSD同士において予め定めておき、優先度が高い面データSDについては単位法線データUNDをそのまま適用し、優先度が低い面データSDについては優先度が高い面データSDにより決定される頂点データの座標を維持しながら、第1段階の形態の状態よりも自身に適用される単位法線データUNDにより決定される向きに近付けるように調整する構成としてもよい。   The target to which the unit normal data UND of the normal map data ND1 and ND2 is applied is limited to a configuration in which a plurality of surface data SD sharing the same vertex data are not simultaneously applied. However, the unit normal data UND may be applied to the entire surface data SD. However, in the present configuration, different coordinates are simultaneously set for one vertex data, so it is necessary to separately adjust the coordinates. For example, the priority at the time of coordinate setting of vertex data is determined in advance between adjacent surface data SD, and unit normal data UND is applied as it is to surface data SD having a high priority, and a surface with low priority For the data SD, while maintaining the coordinates of the vertex data determined by the surface data SD having a high priority, approach the direction determined by the unit normal data UND applied to itself rather than the state of the first stage form It is good also as composition adjusted.

・各面データSDに対する色情報の設定は、カラーテーブルCTを利用した設定の仕方や、上記図47に示した設定の仕方に限定されることはなく、例えば、描画処理(図16)のライティング処理にて仮想光源を、海面用オブジェクトPC19を挟んで視点VDの反対側に設定し、その仮想光源からの光の透過量を各面データSDについて個別に算出する構成としてもよい。この場合、光の透過量に応じた色情報を、予め定められたテーブル情報を利用して導出し、その導出結果の色情報を各面データSDに設定する構成が考えられる。また、各面データSDに対して初期の色情報が予め設定されており、その色情報を上記算出した透過量との関係で調整する構成が考えられる。   The setting of color information for each surface data SD is not limited to the setting method using the color table CT or the setting method shown in FIG. 47, and, for example, the lighting of the drawing process (FIG. 16) The virtual light source may be set on the opposite side of the viewpoint VD across the sea surface object PC 19 in the process, and the transmission amount of light from the virtual light source may be individually calculated for each surface data SD. In this case, color information corresponding to the transmission amount of light may be derived using predetermined table information, and color information of the derivation result may be set in each surface data SD. In addition, initial color information may be set in advance for each surface data SD, and the color information may be adjusted in relation to the calculated transmission amount.

・海面用オブジェクトPC19が視点VDの上方に設定されている構成に限定されることはなく、海面用オブジェクトPC19が視点VDの下方に設定されている構成としてもよい。この場合、各面データSDの向きを上記各手法により決定した後に、それら各面データSDの向きが光を反射し易い向きであれば明るい色情報を設定し、それら各面データSDの向きが光を透過し易い向きであれば暗い色情報を設定する。この設定に際しては、予め用意されたテーブル情報を利用してもよく、仮想光源を利用して実際に算出する構成としてもよい。   The configuration is not limited to the configuration in which the sea surface object PC19 is set above the viewpoint VD, and the sea surface object PC19 may be configured below the viewpoint VD. In this case, after the direction of each surface data SD is determined according to each of the above methods, bright color information is set if the direction of each surface data SD is a direction that easily reflects light, and the direction of each surface data SD is Dark color information is set if the light is easily transmitted. At the time of this setting, table information prepared in advance may be used, or it may be configured to actually calculate using a virtual light source.

・導出した屈折角が所定の角度以下である面データSDについては、視点VDからのZ軸方向の距離に関係なく、最も明るい色情報を設定する構成としてもよい。また、これに代えて、導出した屈折角が所定の角度以下である面データSDについては、他の屈折角の場合よりも明るい色情報を設定するとともに、その色情報をベースとして、視点VDからのZ軸方向の距離が遠いほど暗くなるように色情報の調整を行うようにしてもよい。   The brightest color information may be set for the surface data SD whose derived refraction angle is equal to or less than a predetermined angle, regardless of the distance from the viewpoint VD in the Z-axis direction. Also, instead of this, for surface data SD whose derived refraction angle is equal to or less than a predetermined angle, color information brighter than in the case of other refraction angles is set, and from the viewpoint VD The color information may be adjusted so as to be darker as the distance in the Z-axis direction of the image is longer.

・上記のように面の向きを制御して色情報を設定する処理構成は、海面である必要はなく、川や池といった他の水面であってもよい。また、経時的に面の状態を変化させる透過膜や、反射膜を表現する際に、上記のような面の向きを制御して色情報を設定する処理構成を適用してもよい。   The processing configuration for setting the color information by controlling the direction of the surface as described above does not have to be the sea surface, and may be another water surface such as a river or a pond. In addition, when expressing a transparent film or a reflective film that changes the state of the surface with time, a processing configuration may be applied in which the orientation of the surface as described above is controlled to set color information.

・マップデータを利用して制御するパラメータの対象は、向きや座標に限定されることはなく、面の色や面の透明値であってもよい。   The target of the parameter controlled using map data is not limited to the orientation or coordinates, and may be the color of the surface or the transparency value of the surface.

・法線マップデータND1,ND2に含まれる単位法線データUNDの数が、海面用オブジェクトPC19に含まれる面データSDの数よりも少ない構成としてもよい。この場合、一の法線マップデータND1,ND2を海面用オブジェクトPC19における所定数の面データSDに対して適用するとともに、同一の法線マップデータND1,ND2を残りの面データSDに対して再度適用すればよい。   The number of unit normal data UND included in the normal map data ND1, ND2 may be smaller than the number of surface data SD included in the sea surface object PC19. In this case, one normal map data ND1, ND2 is applied to a predetermined number of surface data SD in the sea surface object PC19, and the same normal map data ND1, ND2 is again applied to the remaining surface data SD. Apply it.

・法線パラメータの設定処理(図43)にて、ステップS2606の処理、すなわち隣接する面データの調整処理が実行されない構成としてもよい。この場合、緩衝用の面データSD2については、当該面データSD2が有する複数の頂点データのうち、適用対象の面データSD1と共有している頂点データは法線マップデータND1,ND2の適用に伴い変更されるが、共有していない頂点データは第1段階の形態において設定されている座標が維持される。この場合であっても、緩衝用の面データSD2の向きやサイズは、適用対象の面データSD1の向きやサイズの変更に応じて変更されることとなる。   In the normal parameter setting process (FIG. 43), the process of step S2606, that is, the adjustment process of the adjacent plane data may not be performed. In this case, with regard to the buffer surface data SD2, among the plurality of vertex data possessed by the surface data SD2, the vertex data shared with the surface data SD1 of the application target is in accordance with the application of the normal map data ND1, ND2. The changed but not shared vertex data maintains the coordinates set in the form of the first stage. Even in this case, the direction and the size of the buffer surface data SD2 are changed according to the change of the direction and the size of the application target surface data SD1.

・面データSDの向きを直接制御する法線マップデータND1,ND2に代えて、海面用オブジェクトPC19の各頂点データの座標を直接制御するマップデータを用いる構成としてもよい。この場合、当該マップデータを海面用オブジェクトPC19に適用することで、頂点データの座標が変更され、その変更の結果として面データSDの向きが変更されることとなる。本構成であれば、制御対象が面ではなく頂点となるため、法線マップデータND1,ND2を利用していた場合のような適用対象の面データSD1と緩衝用の面データSD2との切り分けを行う必要がなくなる。なお、マップデータにおいて設定される各頂点データの制御量は、第1段階の形態における座標からの変化量であることが好ましい。   In place of the normal map data ND1 and ND2 for directly controlling the direction of the surface data SD, map data for directly controlling the coordinates of each vertex data of the sea surface object PC 19 may be used. In this case, by applying the map data to the sea surface object PC19, the coordinates of the vertex data are changed, and as a result of the change, the direction of the surface data SD is changed. In the case of this configuration, since the control target is not a surface but a vertex, it is possible to separate the surface data SD1 to be applied and the surface data SD2 for buffer as in the case where normal map data ND1 and ND2 are used. There is no need to do it. The control amount of each vertex data set in the map data is preferably a change amount from the coordinates in the first stage form.

・海面用オブジェクトPC19が複数の面データ群に区別されている構成は必須ではなく、このような区別がなされていない構成としてもよい。この場合、法線マップデータND1,ND2などを利用して海面用オブジェクトPC19の各面データSDのそれぞれ個別に制御されることとなる。   The configuration in which the sea surface object PC 19 is divided into a plurality of surface data groups is not essential, and such a configuration may not be made. In this case, the surface data SD of the sea surface object PC 19 is individually controlled using the normal map data ND1, ND2 and the like.

・同一の更新タイミングにおいて、面データ群単位での制御を行うことに基づく第1段階の形態の設定と、法線マップデータND1,ND2などを利用した面データSDの向きの個別の制御との両方を行う構成に限定されることはなく、例えば一の更新タイミングにおいて上記第1段階の形態の設定を行い、次以降の更新タイミングにおいて面データSDの向きの個別の制御を行い、さらにそれらを繰り返していく構成としてもよい。この場合、一の更新タイミングにおける処理負荷の軽減が図られる。   -Setting of the form of the first stage based on performing control in plane data group units at the same update timing, and individual control of the direction of plane data SD using normal map data ND1, ND2, etc. The configuration of the first stage is not limited to the configuration in which both are performed, for example, at one update timing, and the individual control of the direction of the surface data SD is performed at the next and subsequent update timings. The configuration may be repeated. In this case, the processing load at one update timing can be reduced.

・視点VDからのZ軸方向の距離に応じて色情報を選択する構成に限定されることはなく、X座標、Y座標及びZ座標により定まる視点VDからの距離に応じて色情報を選択する構成としてもよい。また、これに代えて、視点VDからのX軸方向の距離に応じて色情報を選択する構成としてもよく、Y軸方向の距離に応じて色情報を選択する構成としてもよい。また、視点VDからの距離ではなく、対象となるオブジェクトの回転位置やスケールに応じて色情報を選択する構成としてもよい。   The invention is not limited to the configuration in which color information is selected according to the distance in the Z-axis direction from the viewpoint VD, and color information is selected in accordance with the distance from the viewpoint VD determined by the X, Y, and Z coordinates. It is good also as composition. Alternatively, instead of this, color information may be selected according to the distance from the viewpoint VD in the X axis direction, or may be selected according to the distance in the Y axis direction. Further, the color information may be selected according to the rotation position or the scale of the target object instead of the distance from the viewpoint VD.

<ピント表示を行うための構成>
次に、ピント表示を行うための構成について説明する。
<Configuration for Focus Display>
Next, a configuration for performing focus display will be described.

ピント表示とは、表示面Gにおいて複数種類の個別画像が、表示面Gの奥行き方向の位置がそれぞれ異なるかのようにして同時に表示される場合において、奥行き方向の所定の位置又は範囲に存在している個別画像にピントが合い、当該個別画像については模様の境界や曲り部分の境界、さらに外縁部分が鮮明に表示されるのに対して、それよりも手前側及び奥側に存在しているかのようにして表示されている個別画像についてはピントがずれていて、模様の境界や曲り部分の境界、さらには外縁部分が不鮮明となってぼかした状態で表示される表示演出のことである。   Focus display exists at a predetermined position or range in the depth direction when multiple types of individual images on the display surface G are simultaneously displayed as if the positions in the depth direction of the display surface G are different from each other. Whether the image is in focus and the boundary of the pattern or the boundary of the curved portion, and the outer edge of the individual image are clearly displayed, but are present on the front side and the back side In the case of an individual image displayed as in (1), the display effect is displayed out of focus with the boundary of the pattern or the boundary of the curved portion, or the outer edge portion being blurred and blurred.

ピント表示は、遊技回中及び開閉実行モード中のうち相対的に画像表示に要する処理負荷が低い開閉実行モード中に実行される。つまり、遊技回中においては、各図柄列SA1〜SA3において予め定められたアニメーションデータに従って図柄の変動表示を行う必要があるのに起因して、表示CPU131のタスク処理(図14)ではステップS903〜ステップS905の処理が少なくとも実行される。その一方、開閉実行モード中においては、各図柄列SA1〜SA3において図柄の変動表示を行う必要がないため、表示CPU131のタスク処理(図14)ではステップS903及びステップS904は実行されるが、ステップS905は実行されない。この分だけ、開閉実行モード中においては表示CPU131の処理負荷が軽減されているため、その軽減されている分を利用して、ピント表示用の制御が実行される。   Focus display is performed in the open / close execution mode in which the processing load required for image display is relatively low among the game play and the open / close execution mode. That is, during the game, it is necessary to perform the variable display of the symbols in accordance with the animation data predetermined in each of the symbol rows SA1 to SA3 in the task processing of the display CPU 131 (FIG. 14). At least the process of step S 905 is performed. On the other hand, in the open / close execution mode, since it is not necessary to perform the variable display of symbols in each of the symbol rows SA1 to SA3, steps S903 and S904 are executed in the task processing of the display CPU 131 (FIG. 14). S 905 is not executed. Since the processing load of the display CPU 131 is reduced in the opening / closing execution mode by this amount, control for focus display is executed using the reduced amount.

図48は、表示CPU131にて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。開閉実行モード時の演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、開閉実行モード時の演出用演算処理は、開閉実行モードに対応したデータテーブルが設定されている場合に起動される。   FIG. 48 is a flowchart showing effect calculation processing in the opening / closing execution mode executed by the display CPU 131. The effect calculation process in the opening / closing execution mode is executed in the effect calculation process in step S904 of the task process (FIG. 14). The effect calculation process in the open / close execution mode is activated when the data table corresponding to the open / close execution mode is set.

先ずステップS2901では、現状設定されているデータテーブルに基づいて、今回の更新対象となる演出用のオブジェクトを把握する。ちなみに、ステップS2901の処理の実行タイミングでは、上記演出用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2902では、その把握した演出用のオブジェクトの各種パラメータを演算して制御用の情報を更新する。   First, in step S2901, based on the currently set data table, an object for effect to be updated this time is grasped. Incidentally, at the execution timing of the process of step S2901, the setting process (step S901) for control start of the object for effect is completed. In the subsequent step S2902, various parameters of the object for effect that are grasped are calculated to update information for control.

続くステップS2903では、現状設定されているデータテーブルに基づいて、今回の更新対象となる教示用のオブジェクトを把握する。教示用のオブジェクトとは、遊技の状況を遊技者に教示可能とする画像を表示する場合に利用されるオブジェクトのことであり、例えばラウンド中であれば、現状のラウンドが何番目のラウンドであるかといった内容が教示用のオブジェクトを用いて教示される(図52参照)。また、開閉実行モードへの移行の契機となった遊技回において有効ライン上に最終停止表示された図柄の組合せの種類の情報が教示用のオブジェクトを用いて教示される(図52参照)。ちなみに、ステップS2903の処理の実行タイミングでは、上記教示用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2904では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。   In the following step S2903, the teaching object to be updated this time is grasped based on the currently set data table. An object for teaching is an object used when displaying an image capable of teaching the player the situation of the game, and for example, if it is in a round, the current round is what number round The contents such as are taught using the teaching object (see FIG. 52). Further, information on the type of combination of symbols displayed on the effective line at the final stop in the game run which has triggered the transition to the open / close execution mode is taught using an object for teaching (see FIG. 52). Incidentally, at the execution timing of the process of step S2903, the setting process (step S901) for control start on the teaching object is completed. In the following step S2904, various parameters of the grasped object are calculated to update control information.

続くステップS2905では、現状設定されているデータテーブルに基づいて、開閉実行モードにおけるピント演出期間であるか否かを判定する。ピント演出期間は、遊技者による演出用操作装置48の操作に基づきピント表示を行うことが可能な期間のことである。本パチンコ機10では、開閉実行モードの一部の期間としてピント演出期間が設定されており、具体的には第1ラウンド目といった所定のラウンド(すなわち可変入賞装置22への入賞が可能となる期間)にピント演出期間が設定されている。但し、これに限定されることはなく、複数のラウンドに対してピント演出期間が設定されていてもよく、オープニングやエンディングにおいてピント演出期間が設定されていてもよく、ラウンド間にピント演出期間が設定されていてもよく、所定のラウンドとその次のラウンドに亘ってピント演出期間が設定されていてもよく、開閉実行モードの全体がラウンド演出期間として設定されていてもよい。   In the following step S2905, it is determined based on the currently set data table whether or not it is a focus rendering period in the open / close execution mode. The focus effect period is a period in which the focus display can be performed based on the operation of the operation device 48 for effect by the player. In the pachinko machine 10, a focus effect period is set as a partial period of the open / close execution mode, and specifically, a predetermined round such as a first round (that is, a period during which winning of the variable winning device 22 is possible) The focus production period is set to). However, the present invention is not limited to this, and the focus effect period may be set for a plurality of rounds, and the focus effect period may be set in the opening and the ending, and the focus effect period is between rounds It may be set, a focus effect period may be set over a predetermined round and the next round, and the entire open / close execution mode may be set as a round effect period.

ピント演出期間ではない場合(ステップS2905:NO)には、そのまま本演出用演算処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。   When it is not the focus effect period (step S2905: NO), the present effect operation processing is ended as it is. As described above, when the effect calculation process in the opening / closing execution mode is executed, the drawing list created in the subsequent drawing list output process includes instructions for use of the effect object obtained in step S2901. Information is set along with information on usage instructions of textures corresponding to the objects. Further, in the drawing list, the parameter calculated in step S2902 is set, and, further, information on usage instruction of the teaching object grasped in step S2903 is set, and in step S2904, The calculated parameter is set.

ピント演出期間である場合(ステップS2905:YES)には、ステップS2906にて、ピント選択期間であるか否かを判定する。ピント演出期間には、その開始タイミングから300フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って遊技者によってピントを選択可能とするピント選択期間が設定されている。当該ピント選択期間にて遊技者によるピント選択指示が演出用操作装置48の操作に基づきなされた場合に、ピント表示実行期間が行われるように設定されている。このピンと表示実行期間は、実行対象となっているラウンドの終了まで行われる。ピント選択期間にてピント選択の対象となる個別画像は、その後に続くピント表示実行期間においても表示が継続されるため、ピント選択期間におけるピント選択の結果を反映したピント表示を実行することが可能となる。   If it is a focus effect period (step S2905: YES), it is determined in step S2906 whether or not it is a focus selection period. In the focus effect period, a focus selection period is set in which the player can select a focus over a predetermined number of frames such as 300 frames from the start timing (a predetermined plurality of image update timings). The focus display execution period is set to be performed when the player selects a focus selection instruction based on the operation of the effect operation device 48 in the focus selection period. This pin and the display execution period are performed until the end of the round to be executed. Individual images that are subject to focus selection in the focus selection period will continue to be displayed in the focus display execution period that follows, so it is possible to execute focus display reflecting the result of focus selection in the focus selection period. It becomes.

なお、ピント表示実行期間は、少なくとも500フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って実行される。また、所定のラウンドがピント選択期間として設定されており、それ以降のラウンドがピント表示実行期間として設定されている構成としてもよい。   The focus display execution period is performed over a plurality of predetermined frame numbers (predetermined plurality of image update timings) such as at least 500 frames. Further, a predetermined round may be set as the focus selection period, and the subsequent rounds may be set as the focus display execution period.

ピント選択期間である場合(ステップS2906:YES)には、ステップS2907にて、ピント選択用のパラメータ調整処理を実行するとともに、ステップS2908にて、ピント選択の実行指定情報を記憶した後に、本演出用演算処理を終了する。   If it is the focus selection period (step S2906: YES), the parameter adjustment processing for focus selection is executed in step S2907, and the execution specification information for focus selection is stored in step S2908, and then the main effect is produced. The calculation process ends.

上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2901にて把握された演出用のオブジェクトのパラメータとして、ピント選択用のパラメータが設定されるとともに、ピント選択の実行指定情報が設定される。   As described above, when the effect calculation process in the opening / closing execution mode is executed, the drawing list created in the subsequent drawing list output process includes instructions for using the effect object obtained in step S2901. Is set together with the information on the usage instruction of the texture corresponding to those objects. Further, in the drawing list, the parameter calculated in step S2902 is set, and, further, information on usage instruction of the teaching object grasped in step S2903 is set, and in step S2904, The calculated parameter is set. Further, in the drawing list, a parameter for focus selection is set as a parameter of the object for effect grasped in the step S2901, and execution specification information for focus selection is set.

ここで、ピント選択期間においては、表示面Gにてピント選択を可能とする個別画像が除々に切り換えられていると遊技者が認識可能な表示が行われる。例えば、複数の個別画像が表示面Gの奥行き方向にずれて配置されているかのように同時に表示されている状態において、それら複数の個別画像が順次、ピント選択可能状態へと遷移される。このピント選択可能状態とする方法は任意であるが、例えば個別画像の周縁を囲むようにして環状部を表示させるとともに、その環状部を点滅表示させる構成や、個別画像を拡大表示させる構成や、個別画像を拡大させた後に縮小表示させる構成や、個別画像を指し示す別画像を表示させる構成が考えられる。このようなピント選択可能状態の表示は、ピント選択の実行指定情報が設定された描画リストが出力されている状況において、VDP135にて上記ピント選択用のパラメータが参照されることで実行される。   Here, in the focus selection period, a display is provided that allows the player to recognize that the individual images enabling focus selection on the display surface G are gradually switched. For example, in a state where a plurality of individual images are simultaneously displayed as if they are arranged offset in the depth direction of the display surface G, the plurality of individual images are sequentially transitioned to the focus selectable state. Although the method of setting the focus selectable state is optional, for example, the annular portion is displayed so as to surround the periphery of the individual image, and the annular portion is blinked and displayed, the individual image is enlarged and displayed, and the individual image A configuration in which the image is enlarged after being enlarged or a configuration in which another image pointing to the individual image is displayed can be considered. The display of such a focus selectable state is executed by the VDP 135 referring to the focus selection parameter in a situation where the drawing list in which the focus selection execution designation information is set is output.

なお、本パチンコ機10においては、ピント選択が可能となる個別画像は背景の手前にて表示される演出用の個別画像であるが、背景の画像が含まれていてもよい。   In the pachinko machine 10, although the individual image for which focus selection is possible is an individual image for effect displayed in front of the background, an image of the background may be included.

一方、ピント選択期間ではない場合(ステップS2906:NO)には、ステップS2909に進む。ステップS2909では、ピント表示の実行中であるか否かを判定する。ピント表示の実行中ではない場合には、ステップS2910にて、音声発光制御装置60からピント指示コマンドを受信しているか否かを判定する。ピント指示コマンドは、ピント選択期間にて遊技者によるピント選択指示がなされた場合において、当該ピント選択期間の終了タイミングにて音声発光制御装置60から送信されるコマンドであり、当該ピント指示コマンドにはピント選択指示された個別画像の情報が含まれる。   On the other hand, if it is not in the focus selection period (step S2906: NO), the process proceeds to step S2909. In step S2909, it is determined whether or not focus display is being performed. If focus display is not being performed, it is determined in step S2910 whether a focus instruction command has been received from the sound emission control device 60 or not. The focus instruction command is a command transmitted from the sound emission control device 60 at the end timing of the focus selection period when the player issues a focus selection instruction in the focus selection period, and the focus instruction command is The information of the individual image for which focus selection has been instructed is included.

ステップS2910にて否定判定をした場合には、そのまま本処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、上記ステップS2905にて否定判定をして本演出用演算処理を終了した場合と同様の情報が設定される。   If a negative determination is made in step S2910, the present process ends. As described above, when the effect calculation process in the open / close execution mode is executed, the drawing list created in the subsequent drawing list output process makes a negative determination in step S2905 to end the main calculation process. The same information as in the case of

ステップS2910にて肯定判定をした場合には、ステップS2911にてピント範囲の算出処理を実行する。ピント範囲の算出処理では、ピント指示コマンドに含まれているピント選択指示対象の個別画像の情報からピントを合わせる範囲を算出する処理を実行する。この場合、ピント演出期間にて表示される個別画像の種類は、パチンコ機10の設計段階において既に定められているため、ピント選択対象となる個別画像に1対1で対応させてピント範囲のデータがピント範囲テーブルとして予め定められている。したがって、ステップS2911では、先ずメモリモジュール133からピント範囲テーブルを読み出し、上記ピント選択指示対象となった個別画像に対応したピント範囲のデータを読み出す。その後、ステップS2912にて、ピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。   If an affirmative determination is made in step S2910, focus range calculation processing is executed in step S2911. In the focus range calculation process, a process of calculating a range to be focused is performed from the information of the individual image of the focus selection instruction target included in the focus instruction command. In this case, since the type of individual image displayed in the focus rendering period is already determined at the design stage of the pachinko machine 10, the data of the focus range is made to correspond to the individual image to be the focus selection target. Is predetermined as a focus range table. Therefore, in step S2911, the focus range table is first read from the memory module 133, and data of the focus range corresponding to the individual image for which the focus selection instruction has been made is read. After that, in step S2912, after storing execution specification information of focus effect, the present calculation processing ends.

上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2911にて算出したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が記憶される。   As described above, when the effect calculation process in the opening / closing execution mode is executed, the drawing list created in the subsequent drawing list output process includes instructions for using the effect object obtained in step S2901. Is set together with the information on the usage instruction of the texture corresponding to those objects. Further, in the drawing list, the parameter calculated in step S2902 is set, and, further, information on usage instruction of the teaching object grasped in step S2903 is set, and in step S2904, The calculated parameter is set. Further, in the drawing list, data of the focus range calculated in step S2911 is set, and execution specification information of the focus effect is stored.

ステップS2910にて肯定判定をした場合には、ピント表示の実行状態となる。このピント表示の実行状態への設定は、例えばデータテーブルにおいてピント表示の実行状態か否かを区別するためのフラグに「1」をセットすることなどによって行われる。ピント表示の実行状態となった場合には、ステップS2909にて肯定判定をし、ステップS2912にてピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。   When an affirmative determination is made in step S2910, the focus display is performed. The setting to the execution state of the focus display is performed, for example, by setting “1” to a flag for discriminating whether or not the focus display is in the data table. If it is determined that the focus display is to be performed, an affirmative determination is made in step S2909, and after execution information for specifying a focus effect is stored in step S2912, the present operation processing is ended.

このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、今回のピント演出に対応したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が設定される。   As described above, when the effect calculation process in the opening / closing execution mode is executed, the drawing list created in the subsequent drawing list output process includes instructions for use of the effect object obtained in step S2901. Information is set along with information on usage instructions of textures corresponding to the objects. Further, in the drawing list, the parameter calculated in step S2902 is set, and, further, information on usage instruction of the teaching object grasped in step S2903 is set, and in step S2904, The calculated parameter is set. Further, in the drawing list, data of a focus range corresponding to the current focus effect is set, and execution specification information of the focus effect is set.

VDP135では、表示CPU131から送信される描画リストに基づいて、ピント選択期間用の画像表示を行うとともに、ピント表示実行期間用の画像表示を行う。この場合、ピント選択期間用の画像表示については、ピント選択用のパラメータを参照しながら描画処理(図16)を実行することに基づき、既に説明したようなピント選択可能状態となる個別画像が順次切り換わるような画像表示が行われる。一方、ピント表示実行期間用の画像表示は、3次元画像データの状態から2次元画像データの状態に移行させる処理が実行された後に、ピントを調整するための処理が実行されることにより行われる。   The VDP 135 displays an image for a focus selection period and an image for a focus display execution period based on the drawing list transmitted from the display CPU 131. In this case, with regard to image display for the focus selection period, the individual images that are in the focus selectable state as described above are sequentially based on execution of the drawing process (FIG. 16) with reference to the focus selection parameters. An image display that switches is performed. On the other hand, image display for the focus display execution period is performed by executing processing for adjusting the focus after processing for transitioning from the state of three-dimensional image data to the state of two-dimensional image data is performed. .

以下、VDP135においてピントを調整するための具体的な構成について説明する。図49(a)は、VDP135においてピントを調整する上で用いられるVRAM134の各エリアを説明するための説明図である。   Hereinafter, a specific configuration for adjusting the focus in the VDP 135 will be described. FIG. 49A is an explanatory diagram for describing each area of the VRAM 134 used to adjust the focus in the VDP 135. FIG.

図49(a)に示すように、VRAM134には、第1フレーム領域142a及び第2フレーム領域142bを有するフレームバッファ142と、Zバッファ143とが設けられている。これら各バッファ142,143については既に説明したとおりであり、フレームバッファ142の各フレーム領域142a,142bには、図柄表示装置31への描画を実行する際に参照される2次元データである描画データが作成され、Zバッファ143は、隠面処理(図18)を実行する際にZ軸方向の座標データを一時的に記憶するために利用される。   As shown in FIG. 49A, the VRAM 134 is provided with a frame buffer 142 having a first frame area 142a and a second frame area 142b, and a Z buffer 143. Each of these buffers 142 and 143 is as already described, and each frame area 142a and 142b of the frame buffer 142 is drawing data which is two-dimensional data to be referred to when executing drawing on the symbol display device 31. And the Z buffer 143 is used to temporarily store coordinate data in the Z axis direction when performing hidden surface processing (FIG. 18).

VRAM134には、上記各バッファ142,143以外にも、VDP135においてピントを調整するためのエリアとして、ぼかし用バッファ181が設けられている。ぼかし用バッファ181は、フレーム領域142a,142bと同一数の単位エリアを有している。つまり、各フレーム領域142a,142bは相互に同一数の単位エリアを有しており、それと同一の数の単位エリアを、ぼかし用バッファ181は有している。ぼかし用バッファ181は、一のフレーム領域に作成されている描画リストをそのままの状態で一時記憶することが可能となっている。   The VRAM 134 is provided with a blurring buffer 181 as an area for adjusting the focus in the VDP 135 in addition to the buffers 142 and 143 described above. The blurring buffer 181 has the same number of unit areas as the frame areas 142a and 142b. That is, each of the frame areas 142a and 142b has the same number of unit areas, and the blurring buffer 181 has the same number of unit areas. The blurring buffer 181 can temporarily store the drawing list created in one frame area as it is.

なお、描画リストをそのままの状態で一時記憶させることができるのであれば、ぼかし用バッファ181における単位エリアの数は、一のフレーム領域が有する単位エリアの数よりも多くてもよい。   If the drawing list can be temporarily stored as it is, the number of unit areas in the blurring buffer 181 may be larger than the number of unit areas included in one frame area.

VDP135においてピントを調整するための処理は、描画処理(図16)におけるステップS1012の描画データ合成処理にて実行される。図49(b)は、描画データ合成処理を示すフローチャートである。   The process for adjusting the focus in the VDP 135 is executed in the drawing data combining process of step S1012 in the drawing process (FIG. 16). FIG. 49 (b) is a flowchart showing drawing data combining processing.

描画データ合成処理では、先ずステップS3001にて、今回の描画リストにおいてピント演出の実行指定情報が設定されているか否かを判定する。設定されていない場合には、ステップS3002に進む。   In the drawing data combining process, first, in step S3001, it is determined whether or not execution specification information of focus rendering is set in the current drawing list. If it is not set, the process proceeds to step S3002.

ステップS3002では、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。その後、ステップS3003にて、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込んだ後に、本合成処理を終了する。   In step S3002, the drawing data for background, which has already been created in the immediately preceding step S1010 and is stored in the screen buffer 144, is written in the frame areas 142a and 142b to be drawn this time. After that, in step S3003, a frame area 142a in which the drawing data for the background and the rendering data for the effect and the symbol that were already created in the immediately preceding step S1011 and stored in the screen buffer 144 are written. , 142b, this combining process is finished.

この場合においてα値を参照しながら演出及び図柄用の描画データが書き込まれることは、既に説明したとおりである。また、開閉実行モードにおいては、演出及び図柄用の描画データにおいて図柄は存在しておらず、演出用の個別画像に対応したデータのみが存在している。さらにまた、開閉実行モードにおいては、演出及び図柄用の描画データに、教示用のオブジェクトに対して教示用のテクスチャを貼り付けることに基づき作成された教示用の個別画像のデータが含まれており、当該教示用の個別画像のデータに対しては他の個別画像のデータが手前側から重なることがないように演出及び図柄用の描画データが作成されている。   In this case, the rendering data for the effect and the symbol are written with reference to the α value as described above. Further, in the opening / closing execution mode, no symbol exists in the rendering data for effect and symbol, and only data corresponding to the individual image for effect is present. Furthermore, in the open / close execution mode, rendering data for presentation and design includes data of individual images for teaching created based on pasting a texture for teaching to an object for teaching. For the data of the individual image for teaching, rendering data for effect and symbol is created so that data of other individual images does not overlap from the front side.

一方、今回の描画リストにおいてピント演出の実行指定情報が設定されている場合には、ステップS3004に進む。ステップS3004では、上記ステップS3002と同様に、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。続くステップS3005では、上記ステップS3003と同様に、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込む。その後、ステップS3006にて、ピント演出用の調整処理を実行した後に、本合成処理を終了する。   On the other hand, if the focus rendering execution specification information is set in the current drawing list, the process advances to step S3004. In step S3004, similarly to step S3002, the drawing data for the background, which has already been created in the previous step S1010 and is stored in the screen buffer 144, is written in the frame areas 142a and 142b to be drawn this time. In the following step S3005, the drawing data for background is written as described above for the rendering data for the effect and the symbol, which are already created in the immediately preceding step S1011 and stored in the screen buffer 144, as in step S3003. Write in the frame areas 142a and 142b. Thereafter, in step S3006, after the adjustment process for focusing effect is executed, the present combining process is ended.

図50(a)はピント演出用の調整処理を示すフローチャートである。   FIG. 50 (a) is a flowchart showing adjustment processing for focus effect.

ピント演出用の調整処理では、先ずステップS3101〜ステップS3107にて、ピント演出を実行するために参照するぼかしマップデータを作成するためのぼかしマップ作成処理を実行する。ぼかしマップデータは、2次元画像データである描画データにおいて、当該描画データが作成されているフレーム領域142a,142bの各単位エリアに設定された色情報が、3次元画像データの状況にてどのようなZ軸方向の座標を有していたのかをVDP135にて特定するためのマップデータである。つまり、フレーム領域142a,142bの各単位エリアに1対1で対応させてZ軸方向の座標データが設定されたデータである。   In the adjustment process for focus effect, first, in steps S3101 to S3107, a blur map generation process for generating blur map data to be referred to for performing focus effect is executed. The blurring map data is two-dimensional image data, and in the drawing data, the color information set in each unit area of the frame areas 142a and 142b in which the drawing data is created is in the situation of three-dimensional image data It is map data for specifying in VDP 135 whether or not it has coordinates in the Z-axis direction. That is, it is data in which coordinate data in the Z-axis direction is set in a one-to-one correspondence with each unit area of the frame areas 142a and 142b.

ここで、既に説明したとおり、背景用の描画データや演出及び図柄用の描画データは、描画処理(図16)にて、ワールド座標系に対して各オブジェクトを設定し(ステップS1002〜ステップS1004)、カメラ座標系への変換処理(ステップS1005)を経て、視野座標系への変換処理(ステップS1006)を実行し、さらにその状態で、クリッピング処理(ステップS1007)、ライティング処理(ステップS1008)及び色情報の設定処理(ステップS1009)を実行した後に、作成する。この場合において、各描画データは、フレーム領域142a,142bに対して作成されるものであるため、当該描画データの作成に際して、上記のように視野座標系にて色情報の設定処理が行われたデータの状態は維持されており、描画データの作成後においても新たな描画処理が起動されるまでは維持される。そして、この視野座標系にて色情報の設定処理が行われた状態のデータを利用して、ぼかしマップデータが作成される。   Here, as already described, the drawing data for background and the drawing data for effect and symbol set the respective objects in the world coordinate system in the drawing process (FIG. 16) (steps S1002 to S1004). After the conversion process to the camera coordinate system (step S1005), the conversion process to the visual field coordinate system (step S1006) is executed, and in that state, the clipping process (step S1007), the lighting process (step S1008) and the color After the information setting process (step S1009) is performed, it is created. In this case, since each drawing data is created for the frame areas 142a and 142b, the setting process of color information is performed in the visual field coordinate system as described above when the drawing data is created. The state of the data is maintained, and is maintained until a new drawing process is started even after the drawing data is created. Then, blur map data is created using data in a state in which setting processing of color information has been performed in this visual field coordinate system.

ぼかしマップ作成処理では、Zバッファ143を利用して、隠面処理(図18)と同様の処理を実行することに基づき、ぼかしマップデータを作成する。但し、隠面処理(図18)では、背景用の画像データのみを処理対象として背景用の描画データを作成し、演出及び図柄用の描画データのみを処理対象として演出及び図柄用の描画データを作成する構成であったが、ぼかしマップ作成処理では、このような区別を行うことなく、視野座標系においてクリッピングされた全ての画像データをまとめて処理対象として扱う。   In the blur map creation processing, blur map data is created based on the processing similar to the hidden surface processing (FIG. 18) using the Z buffer 143. However, in the hidden surface processing (FIG. 18), drawing data for the background is created with only image data for the background being processed, and drawing data for the representation and the design is processed only for the drawing data for the rendering and the pattern. Although the configuration is to create, in the blur map creation processing, all image data clipped in the visual field coordinate system are collectively treated as a processing target without performing such distinction.

ぼかしマップ作成処理について具体的には、先ずステップS3101にて、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS3102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。   More specifically, first, in step S3101, the blurring map creating process is an individual image included on the Z axis with reference to the current projection target dot in the screen area PC12 (see FIG. 17). Understand the Z value set in the target pixel of the individual image that is the test target. In the following step S3102, the Z-buffer 143 grasps the Z value set in the area of the dot corresponding to the drawing target dot on a one-to-one basis.

続くステップS3103では、ステップS3101にて把握した個別画像のZ値が、ステップS3102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS3104に進み、ステップS3101にて把握したZ値を、Zバッファ143におけるステップS3102にて参照したドットのエリアに上書きする。その後にステップS3105に進む。   In the following step S3103, it is determined whether or not the Z value of the individual image grasped in step S3101 corresponds to the near side in the Z axis direction than the Z value of the Z buffer 143 grasped in step S3102. If it corresponds to the near side, step S3104 follows and the Z value grasped in step S3101 is overwritten on the dot area referred to in step S3102 in the Z buffer 143. Thereafter, the process proceeds to step S3105.

一方、ステップS3103にて、手前側に対応していないと判定した場合には、ステップS3104の処理を実行することなく、ステップS3105に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合にはZバッファ143の更新は行われない。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われる。   On the other hand, if it is determined in step S3103 that the front side is not supported, the process advances to step S3105 without executing the process of step S3104. That is, the Z buffer 143 is not updated when the Z value of the pixel to be tested is the same as the Z value already set for the target dot of the Z buffer 143 or on the far side in the Z axis direction. . On the other hand, when the Z value of the pixel to be tested is on the near side in the Z axis direction with respect to the Z value already set to the target dot of the Z buffer 143, the Z buffer 143 is updated.

ステップS3105では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS3101に戻り、新たな対象ピクセルに対してZテストを行う。   In step S3105, it is determined whether the Z test has been completed for all target pixels included on the Z axis with respect to the projection target dot. If not completed, the process returns to step S3101, and a Z test is performed on a new target pixel.

完了している場合には、ステップS3106にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS3107にて、投影対象ドットを更新した後にステップS3101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には、ぼかしマップデータの作成が完了したことを意味するため、ステップS3108に進む。   If it has been completed, it is determined in step S3106 whether or not the Z test has been completed for all the dots in the screen area PC12. If not completed, the projection target dot is updated in step S3107, and then the process returns to step S3101 to perform the Z test on a new projection target dot. If it is completed, it means that the creation of the blurring map data is completed, so the process proceeds to step S3108.

上記のようにぼかしマップデータが作成されることにより、合成描画データの各単位エリアに対応した色情報がZ軸方向においてどのような座標を有するものであるか否かをVDP135にて特定することが可能となる。よって、各単位エリアに対応した色情報について、奥行き方向の相対的な位置関係をVDP135にて特定することが可能となる。   As described above, by creating the blurring map data, the VDP 135 specifies which coordinate the color information corresponding to each unit area of the composite drawing data has in the Z-axis direction. Is possible. Therefore, the relative positional relationship in the depth direction can be specified by the VDP 135 for color information corresponding to each unit area.

ピント演出用の調整処理では、ステップS3101〜ステップS3107にて、ぼかしマップデータを作成した後に、ステップS3108に進む。   In the adjustment processing for focus effect, after the blurring map data is created in steps S3101 to S3107, the process proceeds to step S3108.

ステップS3108では、描画データ合成処理(図49(b))におけるステップS3004及びステップS3005の処理により、描画対象のフレーム領域142a,142bに作成された合成描画データを、ぼかし用バッファ181に保存する。続くステップS3109では今回の描画リストにおいて設定されているピント範囲のデータを読み出す。   In step S3108, the combined drawing data created in the frame areas 142a and 142b of the drawing target by the processes of step S3004 and step S3005 in the drawing data combining process (FIG. 49B) is stored in the blurring buffer 181. In the subsequent step S3109, the data of the focus range set in the current drawing list is read out.

その後、ステップS3110〜ステップS3117にて、その読み出したピント範囲のデータに基づいて、ぼかし処理を実行する。当該ぼかし処理では、今回の描画対象のフレーム領域142a,142bにおける単位エリアについて、ぼかし処理の実行対象であるか否かの判定処理を実行するとともに、実行対象であると判定した単位エリアに対して、ぼかしを生じさせる処理を実行し、さらにこれらの処理を今回の描画対象のフレーム領域142a,142bに含まれる全ての単位エリアに対して実行する。   Thereafter, in steps S3110 to S3117, the blurring process is executed based on the read data of the focus range. In the blurring process, a process of determining whether or not the blurring process is to be performed is executed for the unit areas in the frame areas 142a and 142b to be drawn this time, and for the unit areas determined to be the execution object. A process of causing blurring is performed, and further, these processes are performed on all unit areas included in the frame areas 142a and 142b to be drawn this time.

ここで、Z軸方向の座標データがピント範囲に対応している単位エリアに対しては、ぼかしを生じさせる処理は実行れないが、当該ピント範囲はZ軸方向の単一の座標データに対応しているのではなく、図50(b)に示すように、Z軸方向に連続する複数の座標データに対応している。つまり、ピント範囲は、ある程度の被写界深度を有するように設定されており、表示面Gに表示される画像をぼかし過ぎないようにされている。ピント範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように設定されていることが好ましい。   Here, the process of causing blurring is not performed for a unit area in which the coordinate data in the Z-axis direction corresponds to the focus range, but the focus range corresponds to a single coordinate data in the Z-axis direction. Instead, as shown in FIG. 50 (b), it corresponds to a plurality of coordinate data continuous in the Z-axis direction. That is, the focus range is set to have a certain depth of field, so that the image displayed on the display surface G is not too blurred. Although the focus range is specifically arbitrary, it is set so as to be a range that can include the entire individual image for one rendering having a predetermined thickness in the Z-axis direction in the state of three-dimensional image data. Is preferred.

Z軸方向の座標データがピント範囲から外れている単位エリアについては、ピント範囲から遠い距離に存在するものほど、ぼかしの度合いが大きくなるように設定されている。具体的には、図50(b)に示すように、ピント範囲から遠ざかるに従って段階的にぼかしの度合いが大きくなるように、第1ぼかし範囲と、第2ぼかし範囲と、第3ぼかし範囲とが設定されている。   For unit areas in which coordinate data in the Z-axis direction is out of the focus range, the degree of blurring is set to increase as the distance from the focus range increases. Specifically, as shown in FIG. 50 (b), the first blur range, the second blur range, and the third blur range are set so that the degree of blur gradually increases with distance from the focus range. It is set.

第1ぼかし範囲はピント範囲から連続するようにして設定されており、Z軸方向においてピント範囲から遠ざかる側に連続する複数の座標データに対応している。第1ぼかし範囲は、ピント範囲の奥側及び手前側の両方に存在する。また、第2ぼかし範囲は第1ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲及び第1ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第2ぼかし範囲は、奥側の第1ぼかし範囲のさらなる奥側及び手前側の第1ぼかし範囲のさらなる手前側の両方に存在する。また、第3ぼかし範囲は第2ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲、第1ぼかし範囲及び第2ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第3ぼかし範囲は、奥側の第2ぼかし範囲のさらなる奥側及び手前側の第2ぼかし範囲のさらなる手前側の両方に存在する。   The first blurring range is set to be continuous from the focusing range, and corresponds to a plurality of coordinate data continuous to the side away from the focusing range in the Z-axis direction. The first blurring range is present on both the far side and the near side of the focus range. The second blurring range is set so as to be continuous from the first blurring range, and corresponds to a plurality of coordinate data continuous on the side away from the focusing range and the first blurring range in the Z-axis direction. The second blurring range is present both on the further back side of the far side first blurring range and on the further front side of the first blurring range on the near side. Further, the third blurring range is set to be continuous from the second blurring range, and corresponds to a plurality of coordinate data continuous to the focusing range, the first blurring range, and the second blurring range in the Z axis direction. doing. The third blurring range is present both on the further back side of the second blurring range on the far side and on the further front side of the second blurring range on the near side.

第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように、それぞれ設定されていることが好ましい。この場合、第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲に含まれるZ軸方向の座標データの数は相互に同一であり且つその座標データの数はピント範囲と同一であるが、ピント範囲とは異なっていてもよく、相互に異なっていてもよい。例えばピント範囲から遠いぼかし範囲ほど含まれるZ軸方向の座標データの数が多くなる構成としてもよい。   Although the first blurring range, the second blurring range, and the third blurring range are specifically arbitrary, the whole of the individual images for effect having a predetermined thickness in the Z-axis direction in the state of three-dimensional image data It is preferable that they are set so as to be in the range in which it can be included. In this case, the numbers of coordinate data in the Z-axis direction included in the first blur range, the second blur range, and the third blur range are the same as each other, and the number of coordinate data is the same as the focus range. It may be different from the focus range, or may be different from each other. For example, the number of coordinate data in the Z-axis direction may be increased as the blurring range is farther from the focus range.

ピント範囲は、既に説明したとおり、遊技者の演出用操作装置48の操作に基づき変更されるものであるため、メモリモジュール133に予め記憶されているピント範囲用のデータは、当該ピント範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、遊技者による演出用操作装置48の操作に基づき、そのピント範囲を設定する上で基準となるZ軸方向の座標が決定され、その座標を基準として、ピント範囲用のデータに含まれるZ軸方向の座標データの数が実際の座標データの範囲として変換されることで、ピント範囲が設定される。この場合、ピント範囲を設定する上で基準となるZ軸方向の座標は、ピント範囲の最も手前側の座標又は最も奥側の座標として設定しておくことが好ましい。最も手前側の座標として設定しておくことで、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に加算するだけで、ピント範囲を設定することが可能となる。また、最も奥側の座標として設定した場合であっても、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に減算するだけで、ピント範囲を設定することが可能となる。   Since the focus range is changed based on the player's operation of the operation device 48 for effect, as described above, the data for the focus range stored in advance in the memory module 133 is included in the focus range. It is set as data of the number of coordinate data continuous in the Z-axis direction to be set. Then, based on the operation of the operation device 48 for effect by the player, the coordinate in the Z-axis direction, which is a reference in setting the focus range, is determined, and Z included in the data for the focus range based on the coordinates. The focus range is set by converting the number of coordinate data in the axial direction as a range of actual coordinate data. In this case, it is preferable to set the coordinate in the Z-axis direction, which is the reference in setting the focus range, as the frontmost coordinate or the farthest coordinate of the focus range. By setting the coordinates as the frontmost side, the focus range can be set by simply adding the number of coordinate data set in the data for focus range to the reference coordinates. It becomes possible. In addition, even when the coordinate is set as the farthest side, the focus range can be obtained by simply subtracting the number of coordinate data set in the data for focus range from the coordinates serving as the reference. It becomes possible to set

同様に、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲についても、メモリモジュール133に予め記憶されている各ぼかし範囲用のデータは、当該ぼかし範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、上記のように決定されたピント範囲に基づき、各ぼかし範囲の基準となる座標が決定され、その基準となる座標に対して各ぼかし範囲用のデータを適用することにより、各ぼかし範囲を設定することが可能となる。   Similarly, with regard to the first blur range, the second blur range, and the third blur range, the data for each blur range stored in advance in the memory module 133 is in the Z-axis direction to be included in the blur range. It is set as data of the number of continuous coordinate data. Then, based on the focus range determined as described above, the reference coordinates of each blur range are determined, and by applying data for each blur range to the reference coordinates, each blur range is determined. It becomes possible to set.

上記のとおりピント範囲の手前側及び奥側のそれぞれに対して、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲を設定可能な構成であるが、既に説明したとおりピント範囲は遊技者の演出用操作装置48の操作に基づき決定される。そうすると、ピント範囲が最も手前側に存在する演出用の個別画像に対応させて設定されることがある。この場合には、各ぼかし範囲は、ピント範囲に対して奥側にのみ設定されることとなる。   As described above, although the first blurring range, the second blurring range, and the third blurring range can be set for each of the front side and the back side of the focusing range, the focusing range is the player's It is determined based on the operation of the operation device 48 for effect. Then, the focus range may be set to correspond to the individual image for effect that is present on the foremost side. In this case, each blurring range is set only on the far side with respect to the focusing range.

図50(a)の説明に戻り、ぼかし処理では、先ずステップS3110にて、今回の単位エリアに対応したZ軸方向の座標データを、ステップS3101〜ステップS3107にて作成したぼかしマップデータから読み出す。続くステップS3111では、ステップS3110にて読み出したZ軸方向の座標データが、ステップS3109にて読み出したピント範囲内に含まれるか否かを判定する。ピント範囲内に含まれている場合には、その単位エリアに対しては、ぼかしを生じさせる処理を実行する必要がないため、ステップS3112〜ステップS3115の処理を実行することなくステップS3116に進む。   Returning to the explanation of FIG. 50A, in the blurring process, first, in step S3110, coordinate data in the Z-axis direction corresponding to the current unit area is read out from the blurring map data created in steps S3101 to S3107. In the following step S3111, it is determined whether the coordinate data in the Z-axis direction read out in step S3110 is included in the focus range read out in step S3109. If it is included in the focus range, it is not necessary to execute the process of causing blurring for the unit area, and the process advances to step S3116 without executing the process of steps S3112 to S3115.

ピント範囲内に含まれていない場合には、ステップS3112にて、今回の単位エリアが教示用の個別画像を表示するための教示用エリアに対応しているか否かを判定する。教示用の個別画像は、既に説明した教示用のオブジェクトを利用して表示される画像のことである。教示用エリアに対応している場合には、ステップS3113〜ステップS3115の処理を実行することなくステップS3116に進む。つまり、教示用の個別画像に対しては、ぼかしを生じさせる処理は実行されない。これにより、ピント演出を行う場合であっても、教示用の個別画像を利用した情報の教示を好適に行うことが可能となる。   If it is not included in the focus range, it is determined in step S3112 whether or not the current unit area corresponds to the teaching area for displaying the individual image for teaching. The teaching individual image is an image displayed using the teaching object described above. If it corresponds to the teaching area, the process proceeds to step S3116 without executing the process of steps S3113 to S3115. That is, the process of causing blurring is not performed on the individual image for teaching. As a result, even when focusing is performed, it is possible to preferably teach information using an individual image for teaching.

ちなみに、教示用の個別画像が表示される位置は、遊技者による演出用操作装置48の操作態様に関係なく不変であるため、教示用エリアに含まれる単位エリアのアドレスは事前に定められており、そのデータはメモリモジュール133に予め記憶されている。   Incidentally, since the position where the individual image for teaching is displayed is unchanged regardless of the operation mode of the operation device for effect 48 by the player, the address of the unit area included in the teaching area is determined in advance. The data is stored in advance in the memory module 133.

ステップS3112にて否定判定をした場合には、ステップS3113に進む。ステップS3113では、ぼかし範囲の決定処理を実行する。具体的には、ステップS3110にて読み出したZ軸方向の座標データが、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲のいずれに含まれているのかを判定し、ぼかしを生じさせる上で対象となるぼかし範囲を決定する。その後、ステップS3114にて、ぼかし発生処理を実行する。   When negative determination is carried out in step S3112, it progresses to step S3113. In step S3113, the process of determining the blurring range is executed. Specifically, it is determined whether the coordinate data in the Z-axis direction read out in step S3110 is included in the first blur range, the second blur range, or the third blur range, and the blur is generated. Decide the target blurring range with. Thereafter, in step S3114, blurring generation processing is executed.

ぼかし発生処理について、図51(a)のフローチャートを参照しながら説明する。   The blurring generation process will be described with reference to the flowchart of FIG. 51 (a).

先ずステップS3201では、上記ステップS3113にて第1ぼかし範囲が決定されたか否かを判定する。第1ぼかし範囲が決定されている場合には、ステップS3202にて、今回の単位エリアを基準として、X軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、今回の描画対象となっているフレーム領域142a,142bからではなく、ぼかし用バッファ181から行う。また、ステップS3202では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。   First, in step S3201, it is determined whether the first blurring range is determined in step S3113. If the first blurring range is determined, the first predetermined number of unit areas are identified in each of the X-axis directions with reference to the current unit area in step S3202, and the color is selected from each of those unit areas Extract information. This extraction is performed not from the frame areas 142a and 142b currently being drawn, but from the blurring buffer 181. In step S3202, the color information set in the unit area of this time is also extracted, but this extraction is also performed from the blurring buffer 181.

続くステップS3203では、X軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのX軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。   In the following step S3203, blur generation processing in the X-axis direction is executed. In the blurring generation processing, blurring is generated using a Gaussian filter. That is, weighting based on the distance in the X-axis direction from the unit area centered on the unit area that is the center is determined using the Gaussian function for each extracted unit area, centering on the unit area that is the current target The color information of the unit area centered on the center and the color information of the extracted unit area are blended while applying the determined weighting. The color information of the blend result is temporarily stored in the register 153.

続くステップS3204では、今回の単位エリアを基準として、Y軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3204では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。   In the following step S3204, a first predetermined number of unit areas are specified in each of the Y axis directions with reference to the current unit area, and color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. In step S3204, the color information set in the current unit area is also extracted, and this extraction is also performed from the blurring buffer 181.

続くステップS3205では、Y軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのY軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。   In the following step S3205, blurring generation processing in the Y-axis direction is executed. In the blurring generation processing, blurring is generated using a Gaussian filter. That is, weighting based on the distance in the Y-axis direction from the unit area centered on the unit area that is the center is determined using the Gaussian function for each of the extracted unit areas, centering on the unit area that is the current target The color information of the unit area centered on the center and the color information of the extracted unit area are blended while applying the determined weighting. The color information of the blend result is temporarily stored in the register 153.

その後、ステップS3206にて、ブレンド処理を実行する。具体的には、上記ステップS3203にて算出したブレンド結果の色情報と、上記ステップS3205にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。   Thereafter, in step S3206, blending processing is performed. Specifically, the color information of the blend result calculated in step S3203 and the color information of the blend result calculated in step S3205 are blended at the same ratio. Thereafter, the main blurring generation process is ended.

上記のようにぼかし発生処理が実行されることにより、図51(b−1)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。   By performing the blurring generation processing as described above, as shown in FIG. 51 (b-1), the first predetermined number is provided on both sides in the X-axis direction with reference to the unit area being the current target. Each color information set in the minute unit area and each color information set in the unit areas for the first predetermined number on both sides in the Y-axis direction are the colors of the unit area that is the target of the current time Blended to information.

ステップS3201にて否定判定をした場合には、ステップS3207にて、上記ステップS3113において第2ぼかし範囲が決定されたか否かを判定する。第2ぼかし範囲が決定されている場合には、ステップS3208にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3208では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。   If a negative determination is made in step S3201, it is determined in step S3207 whether or not the second blurring range has been determined in step S3113. When the second blurring range is determined, in step S3208, a second predetermined number of unit areas larger than the first predetermined number are specified in each of the X-axis directions with reference to the current unit area. The color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. In step S3208, extraction of color information set in the unit area of this time is performed from the blurring buffer 181.

続くステップS3209では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。   In the following step S3209, blur generation processing in the X-axis direction is executed. The specific content of this process is the same as that of step S3203.

続くステップS3210では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3210では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。   In the following step S3210, a second predetermined number of unit areas larger than the first predetermined number are specified in each of the Y-axis directions with reference to the current unit area, and color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. In step S3210, extraction of color information set in the unit area of this time is performed from the blurring buffer 181.

続くステップS3211では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。   In the following step S3211, blurring generation processing in the Y-axis direction is executed. The specific content of this process is the same as that of step S3205.

その後、ステップS3212にて、ブレンド処理を実行する。具体的には、上記ステップS3209にて算出したブレンド結果の色情報と、上記ステップS3211にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。   Thereafter, in step S3212, the blending process is performed. Specifically, the color information of the blend result calculated in step S3209 and the color information of the blend result calculated in step S3211 are blended at the same ratio. Thereafter, the main blurring generation process is ended.

上記のようにぼかし発生処理が実行されることにより、図51(b−2)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。この場合、ブレンド対象となる単位エリアの数が図51(b−1)の場合よりも多くなるため、第1ぼかし範囲の場合よりも第2ぼかし範囲の場合の方が、ぼかしの度合いが大きくなる。   By performing the blurring generation process as described above, as shown in FIG. 51 (b-2), the second predetermined number is provided on both sides in the X-axis direction with respect to the unit area which is the current target. Each color information set in the minute unit area and each color information set in the unit areas for the second predetermined number on both sides in the Y-axis direction are the colors of the unit area that is the target of the current time Blended to information. In this case, the number of unit areas to be blended is greater than in the case of FIG. 51 (b-1), so the degree of blurring is larger in the second blurring range than in the first blurring range. Become.

ステップS3207にて否定判定をした場合には、上記ステップS3113において第3ぼかし範囲が決定されたことを意味する。第3ぼかし範囲が決定されている場合には、ステップS3213にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3213では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。   If a negative determination is made in step S3207, this means that the third blurring range has been determined in step S3113. When the third blurring range is determined, in step S3213, a third predetermined number of unit areas larger than the second predetermined number are specified in each of the X axis directions with reference to the current unit area. The color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. Also, in step S3213, extraction of color information set in the unit area of this time is performed from the blurring buffer 181.

続くステップS3214では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。   In the following step S3214, blurring generation processing in the X-axis direction is executed. The specific content of this process is the same as that of step S3203.

続くステップS3215では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3215では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。   In the following step S3215, a third predetermined number of unit areas larger than the second predetermined number are specified in each of the Y axis directions with reference to the current unit area, and color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. In step S3215, extraction of color information set in the current unit area is performed from the blurring buffer 181.

続くステップS3216では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。   In the following step S3216, blurring generation processing in the Y-axis direction is executed. The specific content of this process is the same as that of step S3205.

その後、ステップS3217にて、ブレンド処理を実行する。具体的には、上記ステップS3214にて算出したブレンド結果の色情報と、上記ステップS3216にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。上記のようにぼかし発生処理が実行されることにより、ぼかしの度合いを、第2ぼかし範囲の場合よりも大きくすることが可能となる。   Thereafter, in step S3217, blending processing is performed. Specifically, the color information of the blending result calculated in step S3214 and the color information of the blending result calculated in step S3216 are blended at the same ratio. Thereafter, the main blurring generation process is ended. By executing the blurring generation process as described above, it is possible to make the degree of blurring larger than in the case of the second blurring range.

ピント演出用の調整処理(図50(a))の説明に戻り、ステップS3114にて、ぼかし発生処理を実行した後は、ステップS3115にて、当該ぼかし発生処理にて算出した結果の色情報を、描画対象となっているフレーム領域142a,142bにおける今回の単位エリアに対して上書きした後に、ステップS3116に進む。これにより、各ぼかし範囲に対応した状態の色情報が単位エリアに設定されることとなる。   Returning to the description of the adjustment process for focus effect (FIG. 50A), after performing the blurring generation process in step S3114, the color information of the result calculated in the blurring generation process in step S3115 is After overwriting the current unit area in the frame areas 142a and 142b to be drawn, the process proceeds to step S3116. As a result, color information in a state corresponding to each blurring range is set in the unit area.

ここで、このようにぼかしを生じさせた結果の色情報が順次、描画対象となっているフレーム領域142a,142bに設定される構成において、ぼかし発生処理では、上記のとおり、フレーム領域142a,142bから色情報を読み出すのではなく、ぼかし用バッファ181から色情報を読み出す。これにより、所定の単位エリアにぼかしを発生させる場合において、既にぼかしを生じさせた結果の色情報が用いられないようにすることが可能となる。よって、ぼかし発生処理を実行する順番に依存しない態様で、ぼかしを生じさせることが可能となる。   Here, in the configuration in which color information as a result of blurring is sequentially set in the frame areas 142a and 142b to be drawn, in the blurring generation process, the frame areas 142a and 142b are as described above. The color information is read out from the blurring buffer 181 instead of the color information read out from the. As a result, when blurring is generated in a predetermined unit area, it is possible to prevent the use of color information as a result of causing blurring. Therefore, it is possible to cause blurring in a manner that does not depend on the order in which the blurring generation processing is performed.

ステップS3116では、今回の描画対象のフレーム領域142a,142bについて全ての単位エリアを、上記ステップS3110〜ステップS3115の処理の実行対象としたか否かを判定する。完了していない場合には、ステップS3117にて、対象単位エリアを更新した後にステップS3110に戻り、新たな対象単位エリアに対して、上記ステップS3110〜ステップS3115の処理を実行する。完了している場合には、本調整処理を終了する。   In step S3116, it is determined whether all unit areas in the frame areas 142a and 142b to be drawn this time are to be subjected to the processes in steps S3110 to S3115. If the process has not been completed, the target unit area is updated in step S3117, and then the process returns to step S3110, and the process of step S3110 to step S3115 is performed on a new target unit area. If it has been completed, the present adjustment processing is ended.

次に、ピント表示の内容について、図52を参照しながら説明する。   Next, the contents of the focus display will be described with reference to FIG.

図52(a)はピント表示が行われていない状態を示し、図52(b)はピント表示が行われている状態を示す。   FIG. 52 (a) shows a state in which focus display is not performed, and FIG. 52 (b) shows a state in which focus display is performed.

ピント表示が行われていない状態では、図52(a)に示すように、各演出用の個別画像CH11,CH12,CH13、背景の画像(海面の画像、砂浜の画像及び空の画像)CH14及び各教示用の個別画像CH15,CH16は、いずれもピントが合った状態となっている。したがって、これら各画像CH11〜CH16は、その模様の境界や曲がり部分の境界、さらに外縁部分が鮮明に表示されている。   In a state where the focus display is not performed, as shown in FIG. 52A, the individual images CH11, CH12, and CH13 for each effect, the image of the background (the image of the sea surface, the image of the sandy beach and the image of the sky) CH14 and The individual images CH15 and CH16 for each teaching are in a state of being in focus. Therefore, in each of the images CH11 to CH16, the border of the pattern, the border of the bent portion, and the outer edge portion are clearly displayed.

一方、ピント表示が行われている状態では、図52(b)に示すように、演出用の個別画像CH11及び当該個別画像CH11が存在している砂浜部分の背景の画像CH14については、ピント範囲に含まれているため、鮮明に表示されているが、他の演出用の個別画像CH12,CH13及び他の部分の背景の画像CH14については、ピント範囲から外れているため、模様の境界や曲り部分の境界、さらには外縁部分がぼかした状態で表示され、不鮮明となっている。特に、ぼかした状態は、ピント範囲に含まれている演出用の個別画像CH11から表示面Gの奥行き方向において手前側及び奥側に遠くなるように表示されているものほど、その度合いが大きくなっている。これにより、遊技者に対して、演出用の個別画像CH11にピントが合っていると認識させることが可能となる。   On the other hand, in a state in which focus display is performed, as shown in FIG. 52 (b), the focus range of the individual image CH11 for effect and the image CH14 of the background of the sandy beach portion where the individual image CH11 exists Of the individual images CH12 and CH13 for the other effects and the image CH14 of the background of the other part, because they are out of the focus range. The border of the part, or the outer edge part is displayed in a blurred state and is unclear. In particular, the degree of blurring is greater as the images are displayed farther from the individual image CH11 for effect included in the focus range to the near side and the far side in the depth direction of the display surface G. ing. This makes it possible for the player to recognize that the individual image CH11 for effect is in focus.

但し、ピント表示が行われている状態であっても、図52(b)に示すように、教示用の個別画像CH15,CH16は、図52(a)と同様に鮮明に表示されている。これにより、ピント表示が行われているとしても、教示用の個別画像CH15,CH16を利用した情報の教示を良好に行うことが可能となる。また、教示用の個別画像CH15,CH16は、他の画像よりも手前側に配置されているかのように表示されているため、ぼかし発生の対象から除外されたとしても、ピント表示の対象から除外されている遊技者に明確に認識させることができ、ピント表示を良好に行うことが可能となる。   However, even when focus display is being performed, as shown in FIG. 52 (b), the individual images CH15 and CH16 for teaching are clearly displayed as in FIG. 52 (a). As a result, even if focus display is performed, it is possible to favorably teach information using the individual images CH15 and CH16 for teaching. In addition, since the individual images CH15 and CH16 for teaching are displayed as if they are arranged in front of other images, they are excluded from the focus display targets even if they are excluded from the blur generation target It is possible to make the player who is performing the game clearly recognize, and to perform the focus display well.

また、上記ピント表示に際しては、ぼかしマップデータがメモリモジュール133に予め記憶されているのではなく、VDP135にてその都度作成される。これにより、データ容量の削減を図ることが可能となる。特に、遊技者による演出用操作装置48の操作に基づきピント範囲を設定するようにしたことにより、遊技者の遊技への積極参加を可能とした構成においては、ぼかしマップデータを事前に予め設定しておこうとすると、データ容量が膨大なものとなる。また、このデータ容量の膨大化を抑えようとすると、演出用操作装置48の操作に基づき選択できるピント範囲のパターンが少なくなってしまう。これに対して、上記のように、ぼかしマップデータをVDP135にてその都度作成するようにしたことにより、データ容量の削減を図りつつ、遊技者の遊技への積極参加を好適に促すことが可能となる。   Further, at the time of the focus display, the blurring map data is not stored in advance in the memory module 133, but is created each time by the VDP 135. This makes it possible to reduce the data capacity. In particular, by setting the focus range on the basis of the operation of the operation device 48 for effect by the player, in the configuration in which the player can actively participate in the game, the blurring map data is set in advance. If you try to keep it, the data capacity will be huge. In addition, in order to suppress the increase in data capacity, patterns of focus ranges selectable based on the operation of the operation device 48 for effect are reduced. On the other hand, as described above, by creating the blur map data each time with the VDP 135, it is possible to suitably promote the player's active participation in the game while reducing the data capacity. It becomes.

その一方、上記のようにぼかしマップデータを作成するようにすると、それだけVDP135の処理負荷が増加する。これに対して、ぼかしを発生させる際には、3次元画像の状態で行うのではなく、2次元画像の状態で行うようにしたことにより、色情報の平均化に際して複雑な処理を実行する必要がなくなり、ぼかしを発生させる上での処理負荷の軽減が図られる。   On the other hand, if the blurring map data is created as described above, the processing load of the VDP 135 is increased accordingly. On the other hand, when blurring is to be generated, it is necessary to execute complicated processing when averaging color information by performing it in the state of a two-dimensional image, not in the state of a three-dimensional image. Is eliminated, and the processing load on generation of blurring is reduced.

<ピント表示の別形態>
・ぼかしマップデータを描画データの作成に際して作成する構成に限定されることはなく、ぼかしマップデータをメモリモジュール133に予め記憶させておく構成としてもよい。この場合に、ピント範囲が演出用操作装置48の操作に基づき選択される構成であれば、その選択に係る全てのバリエーションに対応させて、ぼかしマップデータを予め作成しておく必要がある。また、ピント範囲が演出用操作装置48の操作に基づき選択されずに、一定の態様でぼかし表示が行われるのであれば、その態様に則したぼかしマップデータを予め作成しておけばよい。
<Another form of focus display>
The present invention is not limited to the configuration in which the blurring map data is created at the time of creating the drawing data, and the blurring map data may be stored in the memory module 133 in advance. In this case, if the focus range is selected based on the operation of the operation device for effect 48, it is necessary to create blur map data in advance corresponding to all the variations related to the selection. In addition, when the focus range is not selected based on the operation of the operation device for effect 48 and the blur display is performed in a certain mode, the blur map data according to the mode may be created in advance.

上記のようにぼかしマップデータが予め作成されている構成においては、ぼかしマップデータにおいて各単位エリアに対応させて設定されているデータは、Z軸方向の座標データである必要はなく、ピント範囲、及び各ぼかし範囲のうち、いずれの範囲に該当しているかを示すデータであってもよい。   As described above, in the configuration in which the blur map data is created in advance, the data set corresponding to each unit area in the blur map data does not have to be coordinate data in the Z axis direction, and the focus range, And it may be data which shows which range among each blurring range corresponds.

・ぼかしを生じさせるための色情報の平均化処理は、3次元画像データを2次元画像データに変換した後に行う必要はなく、3次元画像データの状態において行うようにしてもよい。この場合、基準となるピクセルに対して、その周囲のピクセルをブレンドする際には、基準となるピクセルからそれら周囲のピクセルまでの距離を3次元の状態で算出し、その算出結果に応じた重み付けをそれら周囲のピクセルの色情報に適用した状態でブレンド処理を行うようにすればよい。   The averaging process of color information to cause blurring does not have to be performed after converting three-dimensional image data into two-dimensional image data, and may be performed in the state of three-dimensional image data. In this case, when blending surrounding pixels with a reference pixel, the distance from the reference pixel to the surrounding pixels is calculated in a three-dimensional state, and weighting according to the calculation result Is applied to the color information of the surrounding pixels.

・ぼかしを生じさせるための色情報の平均化処理は、ガウス関数を利用して中心からの距離に応じた重み付けを行うのではなく、抽出した色情報を均等にブレンドする構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。   The averaging process of color information to cause blurring may be configured to blend the extracted color information evenly, instead of performing weighting according to the distance from the center using a Gaussian function. In this case, although the realism of the blurred display is reduced, the processing load can be reduced.

・ぼかしを生じさせるための色情報の平均化処理は、X軸方向及びY軸方向のそれぞれについて行う構成に限定されることはなく、いずれか一方についてのみ行う構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。   The averaging process of the color information for causing the blurring is not limited to the configuration performed in each of the X-axis direction and the Y-axis direction, and may be configured to be performed for only one of them. In this case, although the realism of the blurred display is reduced, the processing load can be reduced.

・ぼかしを生じさせるための色情報の平均化処理に際しては、描画対象のフレーム領域142a,142bに設定されている描画データを、ぼかし用バッファ181に別保存した状態で行う構成に限定されることはなく、描画対象のフレーム領域142a,142bをそのまま利用する構成としてもよい。この場合、所定の単位エリアの色情報についてぼかしを生じさせる場合において、既にぼかしを生じさせた単位エリアの色情報が用いられることになり、ぼかしを生じさせる処理の順番がぼかしの度合いに影響を与えることとなるが、ぼかし用バッファ181を別途設ける必要がない点で、記憶容量の削減が図られるとともに、ぼかし用バッファ181への別保存を行う必要がない点で、処理負荷の軽減が図られる。   The averaging process of color information for causing blurring is limited to a configuration in which the drawing data set in the drawing target frame areas 142a and 142b is separately stored in the blurring buffer 181. Instead, the frame areas 142a and 142b to be drawn may be used as they are. In this case, when blurring is caused for the color information of a predetermined unit area, the color information of the unit area that has already been caused to be blurred will be used, and the order of the processing for causing blurring affects the degree of blurring. Although it is not necessary to separately provide the blurring buffer 181, the storage capacity can be reduced, and there is no need to separately store the blurring buffer 181, thereby reducing the processing load. Be

・ぼかしマップデータを作成する際にZバッファ143以外のバッファを用いるようにしてもよい。この場合、VRAM134に、ぼかしマップデータを作成するための専用のバッファを設けるようにしてもよい。   When creating the blur map data, a buffer other than the Z buffer 143 may be used. In this case, the VRAM 134 may be provided with a dedicated buffer for creating the blurring map data.

・背景用の描画データと、演出及び図柄用の描画データとを個別に作成し、それらを合成して1フレーム分の描画データを作成する構成ではなく、ステップS1009にて色情報の設定処理を実行した後は、1フレーム分の描画データをまとめて作成する構成としてもよい。当該構成においては、隠面処理を利用して当該1フレーム分の描画データを作成した場合、Zバッファ143には各単位エリアに対応したZ軸方向の座標データが設定されていることとなる。したがって、この隠面処理にてZバッファ143に作成されたデータを、ぼかしマップデータとしてそのまま利用することが可能となる。   -Instead of creating drawing data for background and drawing data for presentation and design separately and combining them to create drawing data for one frame, color information setting processing is performed in step S1009. After execution, one frame of drawing data may be collectively created. In this configuration, when the drawing data for one frame is generated using hidden surface processing, coordinate data in the Z-axis direction corresponding to each unit area is set in the Z buffer 143. Therefore, it becomes possible to use the data created in the Z buffer 143 in this hidden surface processing as the blurring map data as it is.

・遊技回用の演出としてピント表示を行うようにしてもよい。この場合、上記のように教示用の個別画像を、ぼかし対象から除外したのと同様に、各図柄列SA1〜SA3にて変動表示されている図柄は、ぼかし対象から除外してもよい。また、リーチ中の演出として、ピント表示を行うのであれば、先に停止表示されている図柄列SA1,SA3上において、リーチラインを形成している図柄を、ぼかし対象から除外してもよく、それに加えて又は代えて、最終停止図柄列SA2の図柄を、ぼかし対象から除外してもよい。リーチラインを形成している図柄を除外することで、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となり、最終停止図柄列SA2の図柄を除外することで、最終停止図柄列SA2においてリーチライン付近に存在している図柄の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。   -Focus display may be performed as an effect for game use. In this case, as in the case where the individual image for teaching is excluded from the blurring target as described above, the symbols variably displayed in each of the symbol rows SA1 to SA3 may be excluded from the blurring target. In addition, if the focus display is to be performed as the effect during reach, the symbols forming the reach line may be excluded from the blurring targets on the symbol rows SA1 and SA3 that are stopped and displayed first. Additionally or alternatively, the symbols of the final stop symbol row SA2 may be excluded from blurring. By excluding the symbols forming the reach line, it is possible to use the focus display as the reach effect without reducing the distinguishability of the reach symbol type, and excluding the symbols of the final stop symbol row SA2 This makes it possible to use the focus display as a reach effect without reducing the identifiability of the symbols existing near the reach line in the final stop symbol sequence SA2.

また、リーチラインを形成している図柄又はその種類を教示する画像の表示は行いながら、図柄列SA1〜SA3を非表示として、ピント表示を利用したリーチ演出を行う構成においては、リーチラインを形成している図柄又はその種類を教示する画像は、ぼかし対象から除外するようにしてもよい。これにより、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。   In addition, in the configuration where reach effect is performed using the focus display while the symbol rows SA1 to SA3 are not displayed while displaying the image forming the reach line or the image teaching the type thereof, the reach line is formed. An image teaching a pattern or its type may be excluded from blurring. As a result, it is possible to use the focus display as a reach effect without reducing the identifiability of the reach symbol type.

また、遊技回用の演出としてピント表示を行う場合において、ぼかし対象から除外する対象は、図柄以外であってもよく、例えば表示面Gにて保留情報の数を教示するための画像を表示するのであれば、当該保留情報の数を教示するための画像を、ぼかし対象から除外してもよい。   Further, when performing focus display as effects for game use, the target to be excluded from the blurring target may be other than the symbol, and for example, an image for teaching the number of the hold information on the display surface G is displayed If so, an image for teaching the number of the hold information may be excluded from blurring.

3次元画像データを用いた画像表示を行うのではなく、スプライトデータといった2次元画像データを用いた画像表示を行う構成において、ピント表示を行うようにしてもよい。この場合、フレーム領域142a,142bへのスプライトデータの設定に際して、各スプライトデータに、表示面Gの奥行き方向に対応する座標データを設定しておき、その座標データが、ピント範囲及び各ぼかし範囲のうちいずれに含まれるかによって、ぼかし表示を行う構成が考えられる。   Focus display may be performed in a configuration in which image display using two-dimensional image data such as sprite data is performed instead of image display using three-dimensional image data. In this case, when setting sprite data in the frame areas 142a and 142b, coordinate data corresponding to the depth direction of the display surface G is set in each sprite data, and the coordinate data corresponds to the focus range and each blurring range. Depending on which of them is included, it is possible to consider a configuration in which graying out is performed.

・ワールド座標系に画像データを設定した後に、パラメータ群を含むマップデータを作成する処理を実行する構成を、ピント表示以外の目的で行うようにしてもよい。   The configuration for executing the processing of creating map data including parameter groups after setting image data in the world coordinate system may be performed for purposes other than focus display.

例えば、1フレーム分の画像において所定の領域が点滅しているかの表示を行う上で、オブジェクトの面の向きに応じて点灯及び消灯のいずれかを設定する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、点滅表示を行うようにしてもよい。   For example, when displaying whether a predetermined area is blinking in an image for one frame, in a configuration in which either lighting or extinguishing is set according to the orientation of the surface of the object, the world coordinate system or the visual field coordinate system The orientation of each surface is read as a parameter in the state set to, and map data is created as data obtained by aggregating them. Then, on the drawing data after projection, color information may be processed based on the created map data to perform blinking display.

また、例えば、1フレーム分の画像において海面といった形状が経時的に変化する面の表示を行う上で、オブジェクトの面の向きに応じて各面データに設定する色情報を選択する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、面表示を行うようにしてもよい。   Also, for example, when displaying a plane whose shape changes with time in the image of one frame, the color information to be set in each plane data is selected according to the direction of the plane of the object. The orientation of each surface is read as a parameter in the state set in the coordinate system or the visual field coordinate system, and map data is created as data in which the directions are collected. Then, surface display may be performed by processing color information based on the created map data with respect to the drawing data after projection.

<模様変更表示を行うための構成>
次に、模様変更表示を行うための構成について説明する。
<Configuration for Pattern Change Display>
Next, a configuration for performing pattern change display will be described.

模様変更表示とは、特別キャラクタを複数フレーム(複数の画像更新タイミング)に亘って連続して表示させる場合において、その特別キャラクタの外縁形状は同一としながら、フレームの進行に伴って模様を変化させる表示演出のことである。但し、模様を単純に変化させるのではなく、当該特別キャラクタの一部の模様の変更については、当該特別キャラクタに対応した特別オブジェクトに貼り付ける第1部分テクスチャの種類を切り換えるのに対して、当該特別キャラクタの他の模様の変更については、特別オブジェクトに貼り付ける第2部分テクスチャの種類は同一のものとしながら、その第2部分テクスチャの特別オブジェクトに対する相対的な貼り付け位置を変化させることにより、模様を変化させる。   In the pattern change display, when the special character is displayed continuously over a plurality of frames (a plurality of image update timings), the outer edge shape of the special character is made the same, and the pattern is changed as the frame progresses. It is a display effect. However, the pattern is not simply changed, but for the change of the pattern of a part of the special character, the type of the first partial texture to be attached to the special object corresponding to the special character is switched. For other patterns of special characters, by changing the relative position of the second partial texture to the special object, while keeping the type of the second partial texture pasted to the special object the same, Change the pattern.

これら特別オブジェクト、第1部分テクスチャ及び第2部分テクスチャについて、図53(a)〜(c)を参照しながら詳細に説明する。図53(a)は特別オブジェクトPC20を説明するための説明図であり、図53(b−1)〜(b−3)は第1部分テクスチャPC21〜PC23を説明するための説明図であり、図53(c−1)〜(c−4)は第2部分テクスチャPC24〜PC27を説明するための説明図である。   The special object, the first partial texture, and the second partial texture will be described in detail with reference to FIGS. 53 (a) to 53 (c). FIG. 53 (a) is an explanatory view for explaining the special object PC 20, and FIGS. 53 (b-1) to 53 (b-3) are explanatory views for explaining the first partial textures PC21 to PC23, FIGS. 53 (c-1) to 53 (c-4) are explanatory diagrams for explaining the second partial textures PC24 to PC27.

図53(a)に示すように、特別オブジェクトPC20は、多数のポリゴンを含み、立体的な形状に対応したデータとして作成されており、複数のパーツ部BP,AP1〜AP4を有している。これら複数のパーツ部BP,AP1〜AP4として、本体パーツ部BPと、当該本体パーツ部BPに付属する複数の付属パーツ部AP1〜AP4とを有している。特別キャラクタは、鯨を人型に適用したキャラクタであり、本体パーツ部BPはその顔部分及び胴体部分に相当し、各付属パーツ部AP1〜AP4は胴体部分から連続する手部分及び足部分に相当している。   As shown in FIG. 53A, the special object PC 20 includes a large number of polygons, is created as data corresponding to a three-dimensional shape, and has a plurality of part parts BP and AP1 to AP4. As the plurality of parts parts BP and AP1 to AP4, the main body parts BP and a plurality of attached parts parts AP1 to AP4 attached to the main body parts BP are provided. The special character is a character in which the eyebrow is applied to a human figure, the body part part BP corresponds to the face part and the body part, and each attached part part AP1 to AP4 corresponds to the hand part and foot part continuing from the body part doing.

本体パーツ部BPには、図53(b−1)〜(b−3)に示すように、顔の模様(目や口の模様)及び胴体が光に反射しているかのような表示を行うための模様の両方を含む画像を表示させるための第1部分テクスチャPC21〜PC23が貼り付けられる。これら第1部分テクスチャPC21〜PC23は、本体パーツ部BPの全体を覆うことが可能なように設定されている。また、顔の模様を表示させるためのデータは、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21〜PC23間において同一となっている。その一方、胴体が光に反射しているかのような表示を行うためのデータについては、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21〜PC23間において異なっている。   As shown in FIGS. 53 (b-1) to (b-3), the main body part part BP displays a pattern of a face (pattern of an eye or a mouth) and whether the body is reflected by light. The first partial textures PC21 to PC23 are pasted to display an image including both of the patterns. These first partial textures PC21 to PC23 are set so as to be able to cover the entire main body part portion BP. Further, in the data for displaying the pattern of the face, the position (coordinates) of the main part part BP to which the data is to be attached is the same among the first partial textures PC21 to PC23. On the other hand, with respect to data for performing display as if the body is reflecting to light, the position (coordinates) of the main part part BP to which these data are to be attached is the first partial textures PC21 to PC23. There is a difference between them.

つまり、第1部分テクスチャPC21〜PC23は、本体パーツ部BPにおいて貼り付けられる位置が変化しない不変模様を表示させるためのデータと、本体パーツ部BPにおいて貼り付けられる位置が変化する変化模様を表示させるためのデータとを有しており、第1部分テクスチャPC21〜PC23間において、不変模様を表示させるためのデータ構成は共通であるが、変化模様を表示させるためのデータ構成は相違している。   That is, the first partial textures PC21 to PC23 display data for displaying an invariant pattern in which the position to be attached in the main body part portion BP does not change and a change pattern in which the position to be attached in the main body part portion BP changes. The first partial textures PC21 to PC23 have a common data configuration for displaying an invariant pattern, but differ in data configuration for displaying a variation pattern.

一方、付属パーツ部AP1〜AP4には、図53(c−1)〜(c−4)に示すように、手や足の部分が光に反射しているかのような表示を行うための模様を含む画像を表示させるための第2部分テクスチャPC24〜PC27が貼り付けられる。これら第2部分テクスチャPC24〜PC27は、付属パーツ部AP1〜AP4に1対1で対応させて設けられており、さらに一の付属パーツ部AP1〜AP4に対して一の第2部分テクスチャPC24〜PC27のみが設けられている。各第2部分テクスチャPC24〜PC27は、対応する付属パーツ部AP1〜AP4を覆うことが可能なように設定されている。この場合、各第2部分テクスチャPC24〜PC27のそれぞれにおいて、境界部分を生じさせる模様はそれに対して逆側の境界部分を生じさせる模様と連続性を有するように設定されている。   On the other hand, as shown in FIGS. 53 (c-1) to (c-4), the attached part parts AP1 to AP4 are patterns for displaying as if the hand or foot part is reflected by light. The second partial textures PC24 to PC27 are attached to display an image including. These second partial textures PC24 to PC27 are provided in one-to-one correspondence with the accessory parts AP1 to AP4, and further, one second partial texture PC24 to PC27 for one accessory parts AP1 to AP4. Only is provided. Each second partial texture PC <b> 24 to PC <b> 27 is set to be able to cover the corresponding attached part part AP <b> 1 to AP <b> 4. In this case, in each of the second partial textures PC <b> 24 to PC <b> 27, the pattern for producing the boundary portion is set to have continuity with the pattern for producing the boundary portion on the opposite side.

第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27の特別オブジェクトPC20に対する貼り付けは、予め定められたUV座標値に基づき行われる。UV座標値は、既に説明したとおりであり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されており、テクスチャ用の画像データの各ピクセルをオブジェクト用の画像データの各ピクセルに1対1で対応させることが可能となる。   The pasting of the first partial textures PC21 to PC23 and the second partial textures PC24 to PC27 to the special object PC 20 is performed based on predetermined UV coordinate values. The UV coordinate values are as described above, and are stored in the memory module 133 in a state attached to the combination of the image data for the object and the image data for the texture, and each pixel of the image data for the texture is Can be made to correspond to each pixel of image data for an object on a one-to-one basis.

上記特別キャラクタを表示させる場合には、特別オブジェクトPC20の本体パーツ部BPに対しては、貼り付け対象となる第1部分テクスチャPC21〜PC23が予め定められた順序で変更される。この順序は、上記変化模様が変化していく態様が連続性を有するように設定されている。一方、特別オブジェクトPC20の付属パーツ部AP1〜AP4に対しては、それぞれに対応する一の第2部分テクスチャPC24〜PC27が貼り付けられることとなるが、その貼り付けを行う際に参照するUV座標値が初期の設定状態から予め定められた態様で変更される。このUV座標値の変更は、各第2部分テクスチャPC24〜PC27に対応した各模様のそれぞれが変化していく態様が連続性を有するように設定されている。   When the special character is displayed, the first partial textures PC21 to PC23 to be attached to the body part part BP of the special object PC 20 are changed in a predetermined order. This order is set so that the manner in which the change pattern changes is continuous. On the other hand, one second partial texture PC24 to PC27 corresponding to each of the attached part parts AP1 to AP4 of the special object PC20 is to be attached, but the UV coordinates to be referred to when the attachment is performed The value is changed in a predetermined manner from the initial setting state. The change of the UV coordinate value is set such that the pattern in which each of the patterns corresponding to each of the second partial textures PC24 to PC27 changes has continuity.

以下、特別オブジェクトPC20、第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27を用いて模様変更表示を実行するための具体的な処理構成を説明する。なお、特別オブジェクトPC20、第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27は、メモリモジュール133に予め記憶されている。   Hereinafter, a specific processing configuration for executing pattern change display using the special object PC20, the first partial textures PC21 to PC23, and the second partial textures PC24 to PC27 will be described. The special object PC 20, the first partial textures PC 21 to PC 23, and the second partial textures PC 24 to PC 27 are stored in advance in the memory module 133.

図54は、表示CPU131にて実行される特別キャラクタ用の演算処理を示すフローチャートである。特別キャラクタ用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、特別キャラクタ用の演算処理は、特別キャラクタが表示される遊技回に対応したデータテーブルが設定されている場合に起動される。   FIG. 54 is a flowchart showing the arithmetic processing for a special character executed by the display CPU 131. The calculation processing for the special character is executed in the calculation processing for effect in step S904 of the task processing (FIG. 14). In addition, the arithmetic processing for the special character is activated when the data table corresponding to the game times in which the special character is displayed is set.

先ずステップS3301では、現状設定されているデータテーブルに基づいて、特別キャラクタの表示中であるか否かを判定する。特別キャラクタの表示中ではない場合にはステップS3302に進む。ステップS3302では、特別キャラクタ表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS3303に進む。   First, in step S3301, it is determined based on the currently set data table whether or not the special character is being displayed. If the special character is not being displayed, the process proceeds to step S3302. In step S3302, it is determined whether it is the start timing of the special character display. If it is not the start timing, the present arithmetic processing is ended as it is, and if it is the start timing, the processing proceeds to step S3303.

ステップS3303では、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。ちなみに、ステップS3303の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、特別オブジェクトPC20に対して制御開始用の処理が完了している。また、制御が開始された特別オブジェクトPC20の制御用の情報は、特別キャラクタの表示が完了するまでワークRAM132に記憶保持される。   In step S3303, the special object PC 20 is grasped as a control target based on the currently set data table. Incidentally, at the execution timing of the process of step S3303, in the setting process for control start immediately before (step S901), the process for control start on the special object PC 20 is completed. Also, information for control of the special object PC 20 for which control has been started is stored in the work RAM 132 until display of the special character is completed.

続くステップS3304では、第1部分テクスチャの初期設定処理を実行する。具体的には、複数種類の第1部分テクスチャPC21〜PC23のうち使用の順番が最初に設定されている第1部分テクスチャPC21を特定し、その第1部分テクスチャPC21の使用指示情報を記憶する。なお、複数種類の第1部分テクスチャPC21〜PC23の使用順番のデータは、テーブル情報として、メモリモジュール133に予め記憶されている。   In the following step S3304, an initial setting process of the first partial texture is executed. Specifically, among the plurality of types of first partial textures PC21 to PC23, the first partial texture PC21 to which the order of use is initially set is specified, and use indication information of the first partial texture PC21 is stored. The data of the usage order of the plurality of types of first partial textures PC21 to PC23 is stored in advance in the memory module 133 as table information.

続くステップS3305では、各第2部分テクスチャの初期設定処理を実行する。ここで、表示CPU131では、各第2部分テクスチャPC24〜PC27のUV座標値を変更させる場合、初期座標値からの変化量をそれぞれの第2部分テクスチャPC24〜PC27に1対1で対応させて導出し、その導出した各変化量をVDP135に提供する。VDP135では、その提供された各変化量のデータを、それぞれ対応する各初期座標値に対して適用する。この場合、一の第2部分テクスチャPC24〜PC27で見た場合、当該第2部分テクスチャPC24〜PC27には多数のピクセルが含まれているため、初期座標値はそれら多数のピクセル毎に存在している。したがって、一の第2部分テクスチャPC24〜PC27に対応する変化量のデータは、当該一の第2部分テクスチャPC24〜PC27の各初期座標値に対して一律に適用される。   In the following step S3305, initialization processing of each second partial texture is executed. Here, in the case of changing the UV coordinate value of each of the second partial textures PC24 to PC27, the display CPU 131 derives the amount of change from the initial coordinate value in one-to-one correspondence with the respective second partial textures PC24 to PC27. And provides the VDP 135 with the derived amounts of change. The VDP 135 applies the provided data of each variation to the corresponding initial coordinate values. In this case, when viewed from one second partial texture PC24 to PC27, since the second partial texture PC24 to PC27 includes a large number of pixels, an initial coordinate value exists for each of the large number of pixels. There is. Therefore, the data of the change amount corresponding to the one second partial texture PC24 to PC27 is uniformly applied to each initial coordinate value of the one second partial texture PC24 to PC27.

例えば、一の第2部分テクスチャPC24〜PC27を構成する所定のピクセルの初期座標値が(U1、V1)であり、他のピクセルの初期座標値が(U2、V2)である状況において、変化量のデータが(w1、w2)である場合には、上記所定のピクセルのUV座標値は、(U1+w1、V1+w2)に設定され、他のピクセルのUV座標値は、(U2+w1、V2+w2)に設定される。したがって、付属パーツ部AP1〜AP4に対する第2部分テクスチャPC24〜PC27の相対位置が同一の方向性であって同一の変化量で変更されることとなる。ステップS3305は、初期設定処理であるため、変化量は存在しないことに対応したデータが記憶される。   For example, in the situation where the initial coordinate value of a predetermined pixel constituting one second partial texture PC24 to PC27 is (U1, V1) and the initial coordinate value of the other pixel is (U2, V2), the change amount Of the predetermined pixel is set to (U1 + w1, V1 + w2), and the UV coordinate values of the other pixels are set to (U2 + w1, V2 + w2). Ru. Therefore, the relative positions of the second partial textures PC24 to PC27 with respect to the attached part parts AP1 to AP4 are changed with the same directionality and the same amount of change. Since step S3305 is an initialization process, data corresponding to the absence of a variation is stored.

なお、第2部分テクスチャPC24〜PC27のUV座標値を初期座標値から変更させるための変化量のデータは、テーブル情報として、使用順序の情報と1対1で対応させて設定されており、このテーブル情報は、メモリモジュール133に予め記憶されている。また、当該テーブル情報は、各第2部分テクスチャPC24〜PC27に対して個別に設定されている。   The data of the change amount for changing the UV coordinate values of the second partial textures PC24 to PC27 from the initial coordinate values is set as table information in a one-to-one correspondence with the information of the order of use. The table information is stored in advance in the memory module 133. Moreover, the said table information is separately set with respect to each 2nd partial texture PC24-PC27.

その後、ステップS3306にて、特別キャラクタの開始指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。   Thereafter, in step S3306, the start designation information of the special character is stored, and in step S3307, various parameters are calculated for the special object PC 20, and the control information related to the special object PC 20 is updated. This arithmetic processing ends.

上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3304にて記憶した第1部分テクスチャPC21の使用指示情報と、上記ステップS3305にて導出した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの開始指定情報が設定される。   As described above, when the calculation process for the special character is executed, information on the use instruction of the special object PC 20 is set in the drawing list created in the subsequent drawing list output process, and the process in step S3304 is performed. The usage instruction information of the first partial texture PC 21 stored and stored, and the data of each amount of change derived in step S3305 are set. Furthermore, in the drawing list, the parameter calculated in step S3307 is set, and the start designation information of the special character is set.

ステップS3301にて特別キャラクタの表示中であると判定した場合には、ステップS3308にて、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。   If it is determined in step S3301 that the special character is being displayed, in step S3308, the special object PC 20 is grasped as a control target based on the currently set data table.

続くステップS3309では、現状設定されているデータテーブルに基づいて、第1部分テクスチャPC21〜PC23の更新タイミングであるか否かを判定する。第1部分テクスチャPC21〜PC23の更新タイミングは、所定の複数である第1特定数フレームに1回、すなわち所定の複数である第1特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定の第1部分テクスチャPC21〜PC23から次の第1部分テクスチャPC21〜PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該第1部分テクスチャPC21〜PC23からさらに次の第1部分テクスチャPC21〜PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。   In the following step S3309, it is determined based on the currently set data table whether or not it is the update timing of the first partial textures PC21 to PC23. The update timing of the first partial textures PC21 to PC23 is set once in a predetermined plurality of first specific number frames, that is, once for a predetermined plurality of first specific number of image update timings. Furthermore, the update timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing, and from the predetermined first partial textures PC21 to PC23, the next first part The number of frames until the update timing of textures PC21 to PC23 (the number of image update timings) and the number of frames from the first partial textures PC21 to PC23 to the next update timing of first partial textures PC21 to PC23 The number of image update timings) may be different.

第1部分テクスチャPC21〜PC23の更新タイミングではない場合には、ステップS3310にて、前回の処理回にて記憶した第1部分テクスチャPC21〜PC23の使用指示情報をそのまま記憶する。一方、第1部分テクスチャPC21〜PC23の更新タイミングである場合には、ステップS3311にて、次の順番の第1部分テクスチャPC21〜PC23に対応した使用指示情報を記憶する。   When it is not the update timing of the first partial textures PC21 to PC23, in step S3310, the use instruction information of the first partial textures PC21 to PC23 stored in the previous processing cycle is stored as it is. On the other hand, if it is the update timing of the first partial textures PC21 to PC23, use instruction information corresponding to the next first partial textures PC21 to PC23 is stored in step S3311.

ステップS3310又はステップS3311の処理を実行した後は、ステップS3312にて、各第2部分テクスチャPC24〜PC27に適用するUV座標値の更新タイミングであるか否かを判定する。UV座標値の更新タイミングは、所定の複数である第2特定数フレームに1回、すなわち所定の複数である第2特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定のUV座標値から次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該UV座標値からさらに次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。   After executing the processing of step S3310 or step S3311, it is determined in step S3312 whether or not it is the update timing of the UV coordinate value to be applied to each of the second partial textures PC24 to PC27. The update timing of the UV coordinate value is set once in a predetermined plurality of second specific number frames, that is, once for a predetermined plurality of second specific number of image update timings, and this update is further performed. The timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing, and from the predetermined UV coordinate value to the next UV coordinate value update timing and The number of frames (image update timing number) until the next UV coordinate value may be different from the frame number (image update timing number) until the next UV coordinate value update timing from the UV coordinate value.

また、UV座標値の更新タイミングは、第1部分テクスチャPC21〜PC23の更新タイミングと同期しているが、非同期であってもよい。非同期とする上では、各更新周期を相違させる構成が考えられる。この場合に、UV座標値の更新タイミングを、第1部分テクスチャPC21〜PC23の更新タイミングよりも短い周期としてもよく、長い周期としてもよいが、UV座標値の更新側であれば更新周期を短くしてもデータ容量への影響がほとんどないことに鑑みて、UV座標値の更新タイミングを第1部分テクスチャPC21〜PC23の更新タイミングよりも短い周期とすることが好ましい。   Further, the update timing of the UV coordinate value is synchronized with the update timing of the first partial textures PC21 to PC23, but may be asynchronous. In order to make it asynchronous, a configuration may be considered in which each update period is different. In this case, the update timing of the UV coordinate value may be a cycle shorter or longer than the update timing of the first partial textures PC21 to PC23. However, if the UV coordinate value is updated, the update cycle is shortened. However, in view of almost no influence on the data capacity, it is preferable to set the update timing of the UV coordinate value to a cycle shorter than the update timing of the first partial textures PC21 to PC23.

UV座標値の更新タイミングではない場合には、ステップS3313にて、前回の処理回にて記憶した各変化量のデータをそのまま記憶する。一方、UV座標値の更新タイミングである場合には、ステップS3314にて、次の順番の各変化量のデータを記憶する。   If it is not the update timing of the UV coordinate values, data of each variation stored in the previous processing cycle is stored as it is in step S3313. On the other hand, if it is the update timing of the UV coordinate value, data of each change amount in the next order is stored in step S3314.

ステップS3313又はステップS3314の処理を実行した後は、ステップS3315にて、特別キャラクタの継続指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。   After executing the processing of step S3313 or step S3314, the continuation designation information of the special character is stored in step S3315, and various parameters are calculated for the special object PC 20 in step S3307, and the special object PC20 is processed. After updating the control information related to the above, the present arithmetic processing ends.

上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3310及びステップS3311のいずれかにて記憶した第1部分テクスチャPC21〜PC23の使用指示情報と、上記ステップS3313及び上記ステップS3314のいずれかにて記憶した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの継続指定情報が設定される。   As described above, when the arithmetic processing for the special character is executed, the information on the use instruction of the special object PC 20 is set in the drawing list created in the subsequent drawing list output process, and the above-mentioned step S3310 and The use instruction information of the first partial textures PC21 to PC23 stored in any one of step S3311 and the data of each variation stored in any of step S3313 and step S3314 are set. Furthermore, in the drawing list, the parameter calculated at step S3307 is set, and the continuation designation information of the special character is set.

VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合には、描画処理(図16)における演出用の設定処理(ステップS1003)にて、特別オブジェクトPC20をワールド座標系に設定する処理を実行する。この場合、ワールド座標系に設定する際の座標、スケール及び回転角度なども描画リストにて指定されているため、それらを適用した状態で特別オブジェクトPC20を設定する。また、特別キャラクタは、複数フレームに亘って所定の方向に変位するかのように表示されるため、それに即した描画リストがVDP135に対して適用され、それに即した状態でワールド座標系への特別オブジェクトPC20の設定が行われる。   When VDP 135 receives a drawing list to display special characters, VDP 135 executes processing for setting special object PC 20 in the world coordinate system in setting processing (step S1003) for rendering in drawing processing (FIG. 16). Do. In this case, since the coordinates, scale, rotation angle, and the like at the time of setting in the world coordinate system are also specified in the drawing list, the special object PC 20 is set in a state in which these are applied. Further, since the special character is displayed as if it is displaced in a predetermined direction over a plurality of frames, the drawing list according to it is applied to VDP 135, and according to it, the special to the world coordinate system is made The setting of the object PC 20 is performed.

また、VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合、描画処理(図16)における色情報の設定処理(ステップS1009)にて、特別オブジェクトPC20に対して第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27を貼り付ける。当該テクスチャの貼り付けに係る処理について、以下に説明する。   When the VDP 135 receives a drawing list to display a special character, the first partial texture PC21 to PC23 is sent to the special object PC20 in the color information setting process (step S1009) in the drawing process (FIG. 16). And paste the second partial texture PC24 to PC27. The process which concerns on the said paste of a texture is demonstrated below.

図55は、特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。特別キャラクタ用のテクスチャマッピング処理は、今回の描画リストに特別キャラクタの開始指定情報及び特別キャラクタの継続指定情報のいずれかが設定されている場合に起動される。   FIG. 55 is a flowchart showing texture mapping processing for a special character. The special character texture mapping process is activated when either the start designation information of the special character or the continuation designation information of the special character is set in the current drawing list.

先ずステップS3401では、今回の描画リストにおいて設定されている第1部分テクスチャPC21〜PC23の使用指定情報を把握する。続くステップS3402では、ステップS3401にて把握した使用指定情報に対応した第1部分テクスチャPC21〜PC23をメモリモジュール133から読み出す。その後、ステップS3403にて、上記ステップS3402にて読み出した第1部分テクスチャPC21〜PC23を、特別オブジェクトPC20の本体パーツ部BPに貼り付ける。これにより、本体パーツ部BPへのテクスチャの貼り付けが完了する。   First, in step S3401, use designation information of the first partial textures PC21 to PC23 set in the current drawing list is grasped. In the subsequent step S3402, the first partial textures PC21 to PC23 corresponding to the use designation information grasped in step S3401 are read out from the memory module 133. Thereafter, in step S3403, the first partial textures PC21 to PC23 read out in step S3402 are attached to the main part part BP of the special object PC20. Thus, the attachment of the texture to the main body part BP is completed.

続くステップS3404では、レジスタ153に設けられた付属パーツカウンタに、付属パーツ部AP1〜AP4の数に対応した情報である「4」をセットし、ステップS3405に進む。ステップS3405では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した第2部分テクスチャPC24〜PC27をメモリモジュール133から読み出す。   In the following step S3404, "4", which is information corresponding to the number of attached parts AP1 to AP4, is set in the attached parts counter provided in the register 153, and the process proceeds to step S3405. In step S3405, the second partial textures PC24 to PC27 corresponding to the attached part parts AP1 to AP4 indicated by the numerical value information of the current attached part counter are read from the memory module 133.

続くステップS3406では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した初期座標値のデータを読み出す。また、ステップS3407では、今回の描画リストにおいて設定されている変化量のデータのうち、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した変化量のデータを把握する。そして、ステップS3408において、ステップS3406にて読み出した初期座標値に対して、ステップS3407にて把握した変化量を適用することで、今回のUV座標値を導出する。その後、ステップS3409では、ステップS3408にて導出したUV座標値に従って、ステップS3405にて読み出した第2部分テクスチャPC24〜PC27を、対応する付属パーツ部AP1〜AP4に貼り付ける。   In the following step S3406, data of initial coordinate values corresponding to attached part parts AP1 to AP4 indicated by numerical information of the present attached part counter is read out. In step S3407, among the data of the amount of change set in the current drawing list, the data of the amount of change corresponding to the attached part parts AP1 to AP4 indicated by the numerical information of the present attached part counter is grasped. Then, in step S3408, the variation amount grasped in step S3407 is applied to the initial coordinate value read in step S3406 to derive the current UV coordinate value. Thereafter, in step S3409, the second partial textures PC24 to PC27 read out in step S3405 are attached to the corresponding attached part parts AP1 to AP4 in accordance with the UV coordinate values derived in step S3408.

続くステップS3410では、付属パーツカウンタの数値情報を1減算し、ステップS3411にて、減算後の付属パーツカウンタの数値情報が「0」であるか否かを判定する。「0」ではない場合には、ステップS3405に戻り、次の付属パーツ部AP1〜AP4に対して上記ステップS3405〜ステップS3409による第2部分テクスチャPC24〜PC27の貼り付け処理を実行する。ステップS3411にて、付属パーツカウンタの数値情報が「0」であると判定した場合には、本テクスチャマッピング処理を終了する。   In the following step S3410, the numerical value information of the attached part counter is decremented by 1, and it is determined in step S3411 whether the numerical information of the attached part counter after subtraction is "0". If it is not "0", the process returns to step S3405, and the pasting process of the second partial textures PC24 to PC27 in the above-described steps S3405 to S3409 is executed on the next attached part parts AP1 to AP4. If it is determined in step S3411 that the numerical value information of the attached part counter is "0", this texture mapping process is ended.

次に、模様変更表示の内容について、図56を参照しながら説明する。   Next, the contents of the pattern change display will be described with reference to FIG.

図56(a),(b)は模様変更表示の内容を説明するための説明図である。   56 (a) and 56 (b) are explanatory diagrams for explaining the contents of the pattern change display.

特別キャラクタCH17を利用した模様変更表示は、図56(a),(b)に示すように、遊技回中において、所定の有効ライン上にてリーチラインが形成され、最終停止図柄列SA2にて図柄の変動表示が行われている状況で実行される。本パチンコ機10では、当該遊技回が開閉実行モードの移行契機となる期待度を高いことを遊技者に報知するための演出として模様変更表示が行われる。なお、特別キャラクタCH17を用いた模様変更表示は、開閉実行モードの移行契機となる遊技回においてのみ所定の確率で発生する構成としてもよい。   In the pattern change display using the special character CH17, as shown in FIGS. 56 (a) and 56 (b), a reach line is formed on a predetermined effective line during the game, and the final stop symbol row SA2 It is executed in the situation where the variation display of the symbol is done. In the pachinko machine 10, a pattern change display is performed as an effect for informing the player that the game time has a high expectation for becoming a transition trigger of the open / close execution mode. Note that the pattern change display using the special character CH17 may be generated with a predetermined probability only in the game round serving as the transition trigger of the open / close execution mode.

模様変更表示では、特別キャラクタCH17が所定の方向に変位表示される。この場合に、特別キャラクタCH17の変位に伴って、当該特別キャラクタCH17に付されている模様が変更される。具体的には、特別キャラクタCH17の表面が光に照らされて反射するとともに、その反射して明るくなっている箇所が変位していくように模様が変更される。この模様の変更は、本体パーツ部BP及び各付属パーツ部AP1〜AP4のそれぞれにて発生する。その一方、特別キャラクタCH17に表示されている目や口の位置は一定となっている。   In the pattern change display, the special character CH17 is displaced and displayed in a predetermined direction. In this case, with the displacement of the special character CH17, the pattern attached to the special character CH17 is changed. Specifically, the surface of the special character CH17 is illuminated and reflected by light, and the pattern is changed so that the reflected and brightened part is displaced. The change of the pattern occurs in each of the main body part part BP and each attached part part AP1 to AP4. On the other hand, the positions of the eyes and the mouth displayed on the special character CH17 are constant.

以上のように、特別オブジェクトPC20の一部に対しては、複数種類のテクスチャPC21〜PC23を予め記憶させておき、貼り付け対象とするテクスチャPC21〜PC23を順次変更するのに対して、特別キャラクタCH17の他の部分に関しては単一のテクスチャPC24〜PC27としながら、そのテクスチャPC24〜PC27のUV座標値を順次変更する構成としたことにより、データ容量と処理負荷とのバランスを図りながら模様変更表示を行うことが可能となる。   As described above, for a part of the special object PC 20, a plurality of types of textures PC21 to PC23 are stored in advance, and the textures PC21 to PC23 to be attached are sequentially changed, while the special character While changing the UV coordinate values of textures PC24 to PC27 sequentially while setting the textures PC24 to PC27 for the other parts of CH17, pattern change display is performed while balancing the data capacity and the processing load. It is possible to do

また、目や口といった特別キャラクタにおいてその外縁に対する相対位置が変化しない模様が存在している箇所は、単一のテクスチャのUV座標値の切り換えにより模様の変更を行うのではなく、貼り付け対象とするテクスチャPC21〜PC23を順次変更することによって模様の変更を行うようにしたことにより、当該箇所の模様を変更する際の処理負荷の軽減を図ることが可能となる。   Also, for special characters, such as eyes and mouth, where there is a pattern whose relative position to the outer edge does not change, the pattern is not changed by switching the UV coordinate value of a single texture, By changing the textures by sequentially changing the textures PC21 to PC23, it is possible to reduce the processing load when changing the pattern of the relevant part.

その一方、比較的サイズの小さい付属パーツ部AP1〜AP4については、単一のテクスチャPC24〜PC27のUV座標値の切り換えにより模様の変更を行うようにしたことにより、UV座標値の変更に伴って模様の形状が若干変形してしまったとしても、それが目立たないようにすることが可能となる。   On the other hand, with regard to the accessory parts AP1 to AP4 of relatively small size, the pattern is changed by switching the UV coordinate values of the single textures PC24 to PC27, so that the UV coordinate values are changed. Even if the shape of the pattern is slightly deformed, it can be made inconspicuous.

<模様変更表示の別形態>
・第2部分テクスチャPC24〜PC27が各付属パーツ部AP1〜AP4に1対1で対応させて設定されている構成に代えて、所定の第2部分テクスチャは複数の付属パーツ部AP1〜AP4に対して共通して用いられる構成としてもよく、一の第2部分テクスチャが全ての付属パーツ部AP1〜AP4に対して共通して用いられる構成としてもよい。この場合、各付属パーツ部AP1〜AP4の模様の態様を異ならせる上では、UV座標値の初期設定値をそれぞれ相違させるようにするとよい。
<Another form of pattern change display>
-Instead of the configuration in which the second partial textures PC24 to PC27 are set in one-to-one correspondence with the respective accessory parts AP1 to AP4, the predetermined second partial texture is for the plurality of accessory parts AP1 to AP4. The second partial texture may be commonly used for all the attached part parts AP1 to AP4. In this case, the initial setting values of the UV coordinate values may be different from each other in changing the pattern aspect of each attached part portion AP1 to AP4.

・各付属パーツ部AP1〜AP4において貼り付け対象の第2部分テクスチャPC24〜PC27のUV座標値が変更される速度は、同一である構成に限定されることはなく、一部については相違している構成としてもよく、全部が相違している構成としてもよい。   -The speed at which the UV coordinate values of the second partial textures PC24 to PC27 to be attached in each attached part portion AP1 to AP4 are changed is not limited to the same configuration, and some of them are different The configuration may be different, or all may be different.

・本体パーツ部BPと付属パーツ部AP1〜AP4の少なくとも一つとを跨ぐようにして模様が付されている構成としてもよい。この場合、特別キャラクタの外観を変更する場合において、上記跨いでいる部分における模様の連続性が担保されるように、第1部分テクスチャPC21〜PC23が変更される場合の上記跨いでいる模様の変化態様と、第2部分テクスチャPC24〜PC27が変更される場合の上記跨いでいる模様の変化態様とを対応付けることが好ましい。   The design may be such that a pattern is attached to straddle the main body part BP and at least one of the attached parts AP1 to AP4. In this case, when changing the appearance of the special character, the change of the straddling pattern when the first partial textures PC21 to PC23 are changed such that the continuity of the pattern in the straddling portion is secured. It is preferable to associate the mode with the change mode of the straddling pattern when the second partial textures PC24 to PC27 are changed.

<ラウンド演出に係る構成について>
次に、ラウンド演出に係る構成について説明する。
<About composition concerning round effect>
Next, the structure which concerns on round presentation is demonstrated.

ラウンド演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。開閉実行モードでは複数回のラウンド遊技が行われるように設定されており、ラウンド演出は、開閉実行モードに移行する場合に実行されるラウンド演出抽選にて当該ラウンド演出を行うことに当選した場合に、ラウンド遊技が行われる度に実行される。なお、上記ラウンド演出抽選で当選しなかった場合には、開閉実行モード時の演算処理等が実行されることとなる。   The round effect is an effect that can be executed when a round game in the open / close execution mode is being performed. In the opening and closing execution mode, a plurality of round games are set to be performed, and the round effect is selected when performing the round effect in the round effect drawing executed when shifting to the opening and closing execution mode. Every round game is executed. In addition, when it does not win by the said round effect lottery, the arithmetic processing etc. at the time of opening / closing execution mode will be performed.

なお、ラウンド遊技とは、既に説明した通り、(1)可変入賞装置22の開放時間が所定時間を経過すること、(2)可変入賞装置22への遊技球の総入賞個数が所定個数となること、のいずれか一方の条件が満たされるまで継続する遊技のことである。   In the round game, as described above, (1) the opening time of the variable winning device 22 passes a predetermined time, and (2) the total number of winning game balls to the variable winning device 22 becomes a predetermined number. It is a game that continues until either one of the conditions is satisfied.

ラウンド演出では、動画像データが用いられる。動画像データとは、1フレーム分の静止画像データを基準として複数の差分データを有するようにフレーム間圧縮されて、例えばMPEG2方式で符号化された画像データである。当該動画像データが、VDP135に設けられた動画デコーダ(図示略)によってデコードされた場合には、複数フレーム分の静止画像データに展開される。これら静止画像データを順次描画することにより、一連のムービーが再生される。   In the round effect, moving image data is used. The moving image data is image data which has been compressed between frames so as to have a plurality of difference data with reference to still image data of one frame, and is encoded by, for example, the MPEG2 system. When the moving image data is decoded by a moving image decoder (not shown) provided in the VDP 135, it is expanded into still image data of a plurality of frames. A series of movies are reproduced by sequentially drawing these still image data.

本パチンコ機10に設定されている動画像データについて図57を参照しながら説明する。   Moving image data set in the pachinko machine 10 will be described with reference to FIG.

図57に示すように、ラウンド演出で用いられる動画像データとして、ラウンド動画像データRMD0が設定されている。ラウンド動画像データRMD0は、最初のアドレスにファイルデータが設定され、それに続けて各フレームの圧縮データが設定されている。なお、各フレームの圧縮データにはフレームヘッダが付随している。   As shown in FIG. 57, round moving image data RMD0 is set as moving image data used in the round effect. In round moving image data RMD0, file data is set at the first address, and compressed data of each frame is set subsequently. A frame header is attached to the compressed data of each frame.

圧縮データは、基準データに相当する1フレーム分のIピクチャデータと、第1の差分データに相当する複数フレーム分のPピクチャデータと、第2の差分データに相当する複数フレーム分のBピクチャデータと、を有している。   The compressed data is I frame data for one frame corresponding to the reference data, P picture data for a plurality of frames corresponding to the first difference data, and B picture data for a plurality of frames corresponding to the second difference data And.

Iピクチャデータは、復号に際して、当該データ単独で1フレーム分の静止画像データを作成することができるデータである。Pピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータを参照して前方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。Bピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータと、1フレーム又は複数フレーム後のIピクチャデータ若しくはPピクチャデータとを参照して双方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。   The I picture data is data that can generate still image data of one frame by the data alone at the time of decoding. P picture data is data that can generate still image data of one frame by performing forward prediction with reference to I picture data or P picture data of one or more frames prior to decoding. . B picture data is bi-directionally predicted by referring to I picture data or P picture data of one frame or plural frames before and I picture data or P picture data of one frame or plural frames after decoding. , One frame worth of still image data can be created.

ラウンド動画像データRMD0の圧縮データでは、1フレーム目のデータとしてIピクチャデータが設定されている。また、2フレーム目,…,m―1フレーム目のデータとしてBピクチャデータが設定されている。また、mフレーム目のデータとしてPピクチャデータが設定されている。また、m+1フレーム目,…,n―1フレーム目のデータとしてBピクチャデータが設定されている。また、nフレーム目のデータとしてPピクチャデータが設定されている。なお、ピクチャデータの配列パターンは上記のものに限定されることはなく任意である。   In the compressed data of the round moving image data RMD0, I picture data is set as data of the first frame. Also, B picture data is set as data of the second frame,..., M−1 frame. In addition, P picture data is set as data of the mth frame. Further, B picture data is set as data of the (m + 1) th frame,..., And the (n-1) th frame. In addition, P picture data is set as data of the nth frame. The arrangement pattern of the picture data is not limited to the above, and is arbitrary.

ラウンド動画像データRMD0から作成される静止画像データのサイズは、表示面Gに対応させて設定されており、具体的には表示面G全体に表示させることが可能な大きさに設定されている。   The size of the still image data created from the round moving image data RMD0 is set to correspond to the display surface G, and more specifically, is set to a size that can be displayed on the entire display surface G. .

また、ラウンド演出では、上記ラウンド動画像データRMD0とは別に、静止画像データである挿入画像データIPD0が用いられる。上記ラウンド動画像データRMD0及び挿入画像データIPD0の内容について図58を参照しながら説明する。図58(a)はラウンド動画像データRMD0に設定されている画像の一部の内容を示し、図58(b)は挿入画像データIPD0に設定されている画像を示す。   Further, in the round effect, in addition to the round moving image data RMD0, the insertion image data IPD0 which is still image data is used. The contents of the round moving image data RMD0 and the inserted image data IPD0 will be described with reference to FIG. FIG. 58 (a) shows the contents of a part of the image set in the round moving image data RMD0, and FIG. 58 (b) shows the image set in the insertion image data IPD0.

ラウンド動画像データRMD0には、図58(a−1)に示すように、波立っている様子を示す第1背景画像BP1に対して重なるようにして、サーフィンをしている様子を示す第1移動キャラクタ画像MP1及び蛸の画像である第2移動キャラクタ画像MP2が付加された基準データ(Iピクチャデータ)RMD1が設定されている。   As shown in (a-1) of FIG. 58, the round moving image data RMD0 shows a state in which surfing is performed so as to overlap the first background image BP1 showing a state of being waved. The reference data (I picture data) RMD1 to which the moving character image MP1 and the second moving character image MP2 which is an image of the eyebrows are added is set.

また、図58(a−2),(a−3)に示すように、第1背景画像BP1を有さないが、各移動キャラクタ画像MP1,MP2が移動するのに対応した差分データ(Pピクチャデータ又はBピクチャデータ)RMD2が設定されている。基準データRMD1により1フレーム分の静止画像データが作成されるとともに基準データRMD1に対して差分データRMD2が適用されることにより、基準データRMD1に設定された第1背景画像BP1に対して各差分データRMD2に設定された各移動キャラクタ画像MP1,MP2が付加された1フレーム分の静止画像データが作成される。   Also, as shown in FIGS. 58 (a-2) and 58 (a-3), although the first background image BP1 is not included, difference data (P picture corresponding to movement of each of the moving character images MP1 and MP2 Data or B picture data) RMD2 is set. The still image data for one frame is created by the reference data RMD1 and the difference data RMD2 is applied to the reference data RMD1 so that each difference data for the first background image BP1 set in the reference data RMD1. Still image data of one frame to which the moving character images MP1 and MP2 set in RMD2 are added is created.

ちなみに、ラウンド動画像データRMD0には、各移動キャラクタ画像MP1,MP2が表示面Gからフレームアウトするように設定されている。具体的には各移動キャラクタ画像MP1,MP2がフレームアウトした位置まで移動するように差分データが設定されている。   Incidentally, in the round moving image data RMD0, the moving character images MP1 and MP2 are set to frame out from the display surface G. Specifically, the difference data is set so as to move to the position where each moving character image MP1, MP2 is framed out.

また、ラウンド動画像データRMD0には、図58(a−3)に示すように、雲が示された第2背景画像BP2が描画された基準データRMD3が設定されている。   Further, as shown in FIG. 58A, in the round moving image data RMD0, reference data RMD3 in which a second background image BP2 in which a cloud is shown is drawn is set.

さらに、ラウンド動画像データRMD0には、図58(a−4)に示すように、男の子の第3移動キャラクタ画像MP3が拡大して描画された基準データRMD4が設定されている。また、図示は省略するが、ラウンド動画像データRMD0には、第3移動キャラクタ画像MP3が所定の動作を行うのに対応した差分データが設定されている。   Further, as shown in (a-4) of FIG. 58, reference data RMD4 in which the third moving character image MP3 of a boy is drawn in an enlarged manner is set in the round moving image data RMD0. Although illustration is omitted, in the round moving image data RMD0, difference data corresponding to the third moving character image MP3 performing a predetermined operation is set.

上記各データRMD1〜RMD4により作成される静止画像データを、動画用オブジェクトに順次貼り付けることにより、一連の動画表示が行われる。   A series of moving image display is performed by sequentially pasting the still image data created by the data RMD1 to RMD4 to the moving object.

挿入画像データIPD0は、図58(b)に示すように、表示面Gの一部に表示される画像に対応したものであり、表示面G全体を表示させるのに用いられる画像データよりもそのサイズ及びデータ量(データ容量)が小さく設定されたデータである。   The insertion image data IPD0 corresponds to the image displayed on a part of the display surface G as shown in FIG. 58 (b), and is larger than the image data used to display the entire display surface G. It is data in which the size and the amount of data (data capacity) are set small.

挿入画像データIPD0には、表示態様が異なる複数種類の画像データが設定されている。具体的には、挿入画像データIPD0には、図58(b−1)に示すように、2人の女の子が示された第1挿入キャラクタ画像IP1が描画された第1挿入画像データIPD1と、図58(b−2)に示すように、3人の女の子が示された第2挿入キャラクタ画像IP2が描画された第2挿入画像データIPD2と、が設定されている。   A plurality of types of image data having different display modes are set in the insertion image data IPD0. Specifically, as shown in FIG. 58 (b-1), the first insertion image data IPD1 on which the first insertion character image IP1 showing two girls is drawn is shown in the insertion image data IPD0, As shown in FIG. 58 (b-2), the second insertion image data IPD 2 in which the second insertion character image IP 2 showing three girls is drawn is set.

ラウンド演出では、ラウンド動画像データRMD0に設定された一連のラウンド動画が再生される。そして、当該動画の再生中の所定のタイミングにて、挿入画像データIPD0を用いて挿入キャラクタ画像が挿入表示される。この場合、ラウンドに応じて、用いられる挿入画像データIPD0が異なるように設定されている。   In the round effect, a series of round moving images set in round moving image data RMD0 is reproduced. Then, at a predetermined timing during reproduction of the moving image, an insertion character image is inserted and displayed using the insertion image data IPD0. In this case, the insertion image data IPD0 to be used is set to be different depending on the round.

ラウンド動画像データRMD0及び挿入画像データIPD0を用いてラウンド演出を行うための具体的な処理構成について以下に説明する。   A specific processing configuration for performing a round effect using the round moving image data RMD0 and the insertion image data IPD0 will be described below.

図59は、表示CPU131にて実行されるラウンド演出用の演算処理を示すフローチャートである。ラウンド演出用の演算処理は、開閉実行モードに対応したデータテーブルが設定された場合に、タスク処理(図14)におけるステップS904の演出用演算処理にて起動される。   FIG. 59 is a flowchart showing arithmetic processing for a round effect performed by the display CPU 131. The operation processing for the round effect is activated by the operation processing for effect in step S904 in the task processing (FIG. 14) when the data table corresponding to the open / close execution mode is set.

先ずステップS3501では、開閉実行モードに対応したデータテーブルに基づいてラウンド演出の実行中であるか否かを判定する。開閉実行モードに対応したデータテーブルは、ラウンド演出としてラウンド動画が複数回再生されるよう設定されており、具体的には、ラウンド数と同じ回数だけラウンド動画が再生されるように設定されている。   First, in step S3501, it is determined based on the data table corresponding to the open / close execution mode whether or not round effect execution is in progress. The data table corresponding to the open / close execution mode is set so that the round moving image is reproduced a plurality of times as the round effect, and specifically, the round moving image is set to be reproduced the same number of times as the number of rounds .

ラウンド演出が実行中でない場合には、ステップS3502に進み、開閉実行モードに対応したデータテーブルに基づいてラウンド動画の再生開始タイミングであるか否かを判定する。具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画を複数回再生させることに対応させて、ラウンド動画の再生開始タイミングが複数設定されている。当該再生開始タイミングは、ラウンド遊技の開始タイミングと同期しており、詳細にはラウンド遊技の開始タイミングよりも1処理回分(20msec)だけ前のタイミングとなるよう構成されている。   If the round effect is not being executed, the process proceeds to step S3502, and it is determined based on the data table corresponding to the open / close execution mode whether or not it is the reproduction start timing of the round moving image. Specifically, in the data table corresponding to the open / close execution mode, a plurality of reproduction start timings of the round moving image are set corresponding to the reproduction of the round moving image a plurality of times. The reproduction start timing is synchronized with the start timing of the round game, and more specifically, is configured to be one processing cycle (20 msec) earlier than the start timing of the round game.

なお、ラウンド動画像データRMD0をデコードするのに上記1処理回分の期間よりも長い期間を要する場合には、ラウンド動画の再生開始タイミングを、ラウンド遊技の開始タイミングよりも上記ラウンド動画像データRMD0をデコードするのに要する期間分だけ更に前に設定しておくとよい。これにより、デコードに要する期間によって生じ得るタイムラグに好適に対応することができる。要は、ラウンド動画の再生と、ラウンド遊技の開始とが同一タイミングとなるように、ラウンド動画像データRMD0をデコードするのに要する期間を考慮してラウンド動画の再生開始タイミングが設定されていればよい。   If it takes a longer period to decode the round moving image data RMD0 than the period for one processing cycle, the round moving image data RMD0 is started from the round game start timing than the round game starting timing. It is preferable to set it earlier by the time required to decode. Thereby, it is possible to suitably cope with the time lag that may occur due to the period required for decoding. The point is that the round moving image reproduction start timing is set in consideration of the time required to decode the round moving image data RMD0 so that the round moving image reproduction and the start of the round game become the same timing. Good.

ラウンド動画の再生開始タイミングでない場合には、そのまま本ラウンド演出用の演算処理を終了する一方、ラウンド動画の再生開始タイミングである場合には、ステップS3503に進み、ワークRAM132に設けられたラウンドカウンタエリアに記憶されているラウンドカウンタRCの更新処理を実行する。ラウンドカウンタRCは、表示制御装置130にてラウンド数を把握するためのものである。ラウンドカウンタRCは、開閉実行モードに対応したデータテーブルが設定された場合に初期値として「0」が設定される。   If it is not the reproduction start timing of the round moving image, the arithmetic processing for the main round effect is ended as it is, while if it is the reproduction start timing of the round moving image, the process proceeds to step S3503 and the round counter area provided in the work RAM 132 The update process of the round counter RC stored in is executed. The round counter RC is for the display control device 130 to grasp the number of rounds. The round counter RC is set to “0” as an initial value when the data table corresponding to the open / close execution mode is set.

ステップS3503では、ラウンドカウンタRCを1加算する処理を実行する。これにより、ラウンドカウンタRCを把握することにより、1の開閉実行モードにおいてラウンド動画が再生された回数を把握することができる。すなわち、ラウンドカウンタRCを把握することにより、現状行われているラウンド遊技が何ラウンド目であるかを特定することができる。   In step S3503, a process of adding one to the round counter RC is executed. Thus, by grasping the round counter RC, it is possible to grasp the number of times the round moving image has been reproduced in the open / close execution mode of 1. That is, by grasping the round counter RC, it is possible to specify what round the currently played round game is.

その後、ステップS3504にて、開閉実行モードに対応したデータテーブルに基づいて、各種アドレスを把握する。具体的には、VRAM134の展開用バッファ141においてラウンド動画像データRMD0が格納されているアドレスと、当該ラウンド動画像データRMD0をデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。   Thereafter, in step S3504, various addresses are grasped based on the data table corresponding to the open / close execution mode. Specifically, when the round moving image data RMD0 is decoded in the expansion buffer 141 of the VRAM 134 and the round moving image data RMD0 is decoded to generate still image data for a plurality of frames, these still images are still. Identify the address of the area for storing image data.

続くステップS3505では、VDP135にてラウンド動画像データRMD0をデコードするように指定するデコード指定情報を記憶して、本演算処理を終了する。   In the following step S3505, the VDP 135 stores decode specification information for specifying to decode the round moving image data RMD0, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、ラウンド動画像データRMD0のデコード指定情報が設定された描画リストが作成され、VDP135に送信される。   When the above arithmetic processing is executed, in the subsequent drawing list output process (step S806), a drawing list in which the decode specification information of the round moving image data RMD0 is set is created and transmitted to the VDP 135.

ラウンド演出が実行中である場合には、ステップS3506に進み、動画用オブジェクトを把握する。動画用オブジェクトは、静止画像データをマッピングするためのオブジェクトである。動画用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。   If a round effect is being executed, the process advances to step S3506 to grasp a moving image object. The moving image object is an object for mapping still image data. The moving image object is composed of a rectangular plate-shaped plate polygon. A plate polygon can be said to be an object with a small number of polygons, and is low-resolution data configured in a planar shape without unevenness in the three-dimensional direction.

動画用オブジェクトのサイズは、表示面G全体の画像を表示することが可能なサイズに設定されている。具体的には、動画用オブジェクトの板面のサイズが上記静止画像データと同一サイズに設定されている。   The size of the moving image object is set to a size capable of displaying an image of the entire display surface G. Specifically, the size of the plate surface of the moving image object is set to the same size as the still image data.

動画用オブジェクトを把握した後は、ステップS3507にて、当該動画用オブジェクトに対してマッピングする静止画像データを特定するための処理を実行する。具体的には、ラウンド動画像データRMD0から作成された静止画像データのうち今回のフレーム番号に対応した静止画像データが格納されているアドレスを把握する。このアドレスの把握は、現状設定されている開閉実行モードに対応したデータテーブルに基づいて行われる。   After grasping the moving-image object, in step S3507, processing for specifying still image data to be mapped to the moving-image object is executed. Specifically, among still image data created from round moving image data RMD0, an address at which still image data corresponding to the frame number of this time is stored. The grasp of the address is performed based on a data table corresponding to the currently set open / close execution mode.

続くステップS3508では、動画用オブジェクトに適用されるパラメータを決定する演算処理を実行する。そして、ステップS3509にて、ラウンド動画像データRMD0から作成した静止画像データを使用することを示す動画像指定情報を記憶する。   In the following step S3508, arithmetic processing is performed to determine parameters to be applied to the moving image object. Then, in step S3509, moving image designation information indicating that the still image data created from the round moving image data RMD0 is used is stored.

ステップS3509の処理の実行後は、ステップS3510〜ステップS3518にて、挿入画像データIPD0に係る演算処理を実行する。   After execution of the process of step S3509, in step S3510 to step S3518, arithmetic processing relating to the insertion image data IPD0 is executed.

先ず、ステップS3510にて、現状設定されているデータテーブルに基づいて挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合にはステップS3511に進み、挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。   First, in step S3510, it is determined based on the currently set data table whether or not the inserted character image is being displayed. If the inserted character image is not being displayed, the process advances to step S 3511 to determine whether it is time to start displaying the inserted character image.

具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画中に挿入キャラクタ画像の表示開始タイミング(挿入タイミング)が予め定められている。詳細には、挿入キャラクタ画像の挿入タイミングはラウンド動画の内容に対応させて設定されており、各キャラクタ画像CP1,CP2がフレームアウトしたタイミングと基準データRMD4の表示タイミングとの間、詳細には基準データRMD3の表示タイミングに設定されている。当該データテーブルに基づいて、挿入キャラクタ画像の挿入タイミングであるか否かを判定する。   Specifically, in the data table corresponding to the open / close execution mode, the display start timing (insertion timing) of the inserted character image in the round moving image is predetermined. In detail, the insertion timing of the insertion character image is set corresponding to the contents of the round moving image, and the reference timing is the reference timing between the timing when each character image CP1 and CP2 is framed out and the display timing of the reference data RMD4. The display timing of the data RMD3 is set. It is determined based on the data table whether or not it is the insertion timing of the insertion character image.

挿入キャラクタ画像の挿入タイミングである場合には、ステップS3512〜ステップS3516にて挿入キャラクタ画像の挿入に係る処理を実行する。   If it is the insertion timing of the insertion character image, processing relating to the insertion of the insertion character image is executed in steps S 3512 to S 3516.

具体的には、先ずステップS3512にて、挿入画像データIPD0を描画するための挿入用オブジェクトを把握する。挿入用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンは、既に説明した通り、ポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。   Specifically, first, at step S3512, an insertion object for drawing insertion image data IPD0 is grasped. The insertion object is composed of a rectangular plate-shaped plate polygon. A plate polygon is, as already described, low-resolution data which can be said to be an object having a small number of polygons and which is formed in a planar shape without unevenness in the three-dimensional direction.

挿入用オブジェクトは、挿入画像データIPD0に対応させて設定されている。詳細には、挿入用オブジェクトの板面のサイズと挿入画像データIPD0のサイズとが同一となるように、挿入用オブジェクトのサイズが設定されている。これにより、圧縮等の特別な処理をすることなく、挿入用オブジェクトに対して挿入画像データIPD0をマッピングすることができ、当該マッピングにより挿入キャラクタ画像を表示させることができる。   The insertion object is set to correspond to the insertion image data IPD0. In detail, the size of the insertion object is set such that the size of the plate surface of the insertion object is the same as the size of the insertion image data IPD0. Thus, the insertion image data IPD0 can be mapped to the insertion object without performing special processing such as compression, and the insertion character image can be displayed by the mapping.

ここで、挿入画像データIPD0は、表示面Gにおいて部分的に表示される画像に係る画像データである。このため、当該挿入画像データIPD0に対応させて設定された挿入用オブジェクトは、表示面G全体の画像を表示させるのに用いられる動画用オブジェクトよりも小さく設定されている。   Here, the insertion image data IPD0 is image data related to an image partially displayed on the display surface G. For this reason, the insertion object set corresponding to the insertion image data IPD0 is set smaller than the moving image object used to display the image of the entire display surface G.

挿入用オブジェクトを把握した後は、ステップS3513〜ステップS3515にて、挿入用オブジェクトに対してマッピングする画像データ(テクスチャ)を把握する処理を実行する。この場合、現状のラウンド動画が何回目のラウンドであるかに応じて、マッピングする画像データを異ならせる。   After grasping the insertion object, processing of grasping image data (texture) to be mapped to the insertion object is executed in steps S 3513 to S 3515. In this case, the image data to be mapped is made different depending on the number of rounds of the current round moving image.

具体的には、先ずステップS3513にて、今回のラウンド演出が何回目のラウンドに対応したものであるかを把握する。具体的には、ラウンドカウンタRCを把握する。   Specifically, first, in step S 3513, it is determined what round the current round effect corresponds to. Specifically, the round counter RC is grasped.

そして、ステップS3514にて、各挿入画像データIPD1,IPD2のうち、ステップS3513にて把握されたラウンドカウンタRCに対応した1の画像データを選択する。詳細には、ステップS3513にて把握されたラウンドカウンタRCが奇数である場合には、第1挿入キャラクタ画像IP1に対応する第1挿入画像データIPD1を選択し、ステップS3513にて把握されたラウンドカウンタRCが偶数である場合には、第2挿入キャラクタ画像IP2に対応する第2挿入画像データIPD2を選択する。そして、当該選択された挿入画像データのアドレスを設定する。   Then, in step S 3514, one piece of image data corresponding to the round counter RC grasped in step S 3513 is selected from the respective insertion image data IPD 1 and IPD 2. Specifically, if the round counter RC grasped in step S3513 is an odd number, the first insertion image data IPD1 corresponding to the first insertion character image IP1 is selected, and the round counter ascertained in step S3513 When RC is an even number, the second insertion image data IPD2 corresponding to the second insertion character image IP2 is selected. Then, the address of the selected insertion image data is set.

その後、ステップS3515にて、挿入用オブジェクトの各種パラメータの演算処理を実行する。この場合、挿入用オブジェクトの座標は、ワールド座標系に変換した場合に表示面Gの中央に挿入キャラクタ画像が表示されるように設定されているとともに、動画用オブジェクトよりも前になるよう設定されている。   Thereafter, in step S3515, arithmetic processing of various parameters of the insertion object is executed. In this case, the coordinates of the insertion object are set so that the inserted character image is displayed at the center of the display surface G when converted to the world coordinate system, and is set to precede the moving image object. ing.

その後、ステップS3516にて、挿入キャラクタ画像を表示することを示す画像挿入指定情報を設定し、本演算処理を終了する。   Thereafter, in step S3516, image insertion designating information indicating that the inserted character image is to be displayed is set, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定される。また、当該描画リストには、動画用オブジェクトが設定されるとともに、当該動画用オブジェクトに適用される各種パラメータが設定される。この場合、当該パラメータには、動画用オブジェクトに対してマッピングされる画像データ(テクスチャ)としてラウンド動画像データRMD0から作成された静止画像データのアドレスが含まれている。   When the arithmetic processing is executed, moving image designation information is set in the drawing list created in the subsequent drawing list output process (step S806). Further, in the drawing list, an object for moving image is set, and various parameters applied to the object for moving image are set. In this case, the parameter includes the address of still image data created from the round moving image data RMD0 as image data (texture) to be mapped to the moving image object.

さらに、今回の演算処理が挿入キャラクタ画像の挿入タイミングである場合には、今回のラウンド演出に対応した挿入キャラクタ画像を表示するための情報、具体的には挿入用オブジェクト、及び当該挿入用オブジェクトに適用されるパラメータが設定されるとともに、画像挿入指定情報が設定される。この場合、上記パラメータには、挿入用オブジェクトに対してマッピングされる画像データ(テクスチャ)として、今回のラウンドに対応した挿入画像データのアドレスが含まれている。   Furthermore, when the current arithmetic processing is the insertion timing of the insertion character image, information for displaying the insertion character image corresponding to the current round effect, specifically, an insertion object, and the insertion object Parameters to be applied are set, and image insertion specification information is set. In this case, the above-mentioned parameter includes the address of insertion image data corresponding to the current round as image data (texture) to be mapped to the insertion object.

挿入キャラクタ画像が表示中である場合には、ステップS3510を肯定判定し、ステップS3517及びステップS3518にて、現状表示されている挿入キャラクタ画像の表示を維持する処理を実行する。具体的には、ステップS3517にて、挿入用オブジェクトを把握し、ステップS3518にて、現状設定されている挿入用オブジェクトのパラメータを維持する演算を行う。この場合、挿入用オブジェクトに対してマッピングされる挿入画像データのアドレスも維持する。そして、ステップS3516にて画像挿入指定情報を設定し、本演算処理を終了する。   If the inserted character image is being displayed, step S3510 is affirmed, and processing to maintain the display of the currently displayed inserted character image is executed in steps S3517 and S3518. Specifically, in step S3517, the insertion object is grasped, and in step S3518, calculation is performed to maintain the currently set parameters of the insertion object. In this case, the address of the insertion image data mapped to the insertion object is also maintained. Then, in step S3516, image insertion designation information is set, and this arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定されるとともに、今回のフレーム番号に対応した静止画像データに対応した画像を表示させるための情報が設定される。   When the above arithmetic processing is executed, moving image designation information is set in the drawing list created in the subsequent drawing list output process (step S806), and the still image data corresponding to the current frame number is also set. Information for displaying an image is set.

また、挿入キャラクタ画像が表示中である場合には、描画リストには、今回のラウンドに対応した挿入キャラクタ画像に対応した画像を表示するための情報が設定される。   When the inserted character image is being displayed, information for displaying an image corresponding to the inserted character image corresponding to the current round is set in the drawing list.

なお、ラウンド演出用の演算処理において、現在のラウンド遊技が何ラウンド目であるかを認識させるための個別画像の演算処理を実行する構成としてもよい。この場合、遊技者が今回のラウンド遊技が何ラウンド目であるかを容易に確認することができる。   In addition, in the calculation processing for the round effect, calculation processing of an individual image may be executed to make it possible to recognize what round the current round game is. In this case, the player can easily confirm what round the current round game is.

また、開閉実行モード中は、図柄用演算処理(ステップS905)はスキップするよう構成されている。これにより、開閉実行モード中は、図柄の変動表示が表示されないため、ラウンド動画像データRMD0によるラウンド動画に遊技者の注意を惹きつけることができるとともに、開閉実行モード中における処理負荷の軽減を図ることができる。なお、これに限られず、開閉実行モード中に図柄の変動表示を行わせる構成としてもよい。   Further, in the opening / closing execution mode, the symbol calculation process (step S905) is configured to be skipped. As a result, since the variable display of symbols is not displayed in the open / close execution mode, the player's attention can be drawn to the round moving image by the round moving image data RMD0, and the processing load in the open / close execution mode is reduced. be able to. In addition, it is good also as composition of making it perform variation display of a design not only in this but in opening / closing execution mode.

さらに、ラウンド動画の再生中は、背景用の設定処理(ステップS903)はスキップするよう構成されている。この場合であっても、動画用オブジェクトに対してラウンド動画像データRMD0から作成された静止画像データが貼り付けられることにより、表示面G全体に亘って上記静止画像データに係る画像が表示される。つまり、上記動画表示に係る画像が背景画像として機能する。これにより、背景用の設定処理に係る処理負荷分だけ、処理負荷の軽減を図ることができる。   Furthermore, while the round moving image is being played back, the setting process for the background (step S903) is configured to be skipped. Even in this case, the still image data created from the round moving image data RMD0 is attached to the moving image object, so that the image related to the above still image data is displayed over the entire display surface G. . That is, the image related to the above-mentioned moving image display functions as a background image. As a result, the processing load can be reduced by the processing load associated with the background setting process.

次に、VDP135の動画デコーダにて実行されるデコード処理について、図60のフローチャートを参照しながら説明する。当該デコード処理は、表示CPU131から送信される描画リストにいずれかのデコード指定情報が設定されている場合に起動される。また、当該デコード処理は、VDP135にて実行される描画処理(図16)とは非同期で起動される。   Next, the decoding process executed by the moving picture decoder of the VDP 135 will be described with reference to the flowchart of FIG. The decoding process is activated when any of the decoding specification information is set in the drawing list transmitted from the display CPU 131. Further, the decoding process is started asynchronously with the drawing process (FIG. 16) executed by the VDP 135.

先ずステップS3601では、描画リストにて指定されたアドレスの情報から、ラウンド動画像データRMD0のアドレスを把握する。続くステップS3602では、描画リストにて指定された展開先アドレスの情報から、ラウンド動画像データRMD0の展開先のエリアを把握する。   First, in step S3601, the address of the round moving image data RMD0 is grasped from the information of the address designated in the drawing list. In the subsequent step S3602, the area of the expansion destination of the round moving image data RMD0 is grasped from the information of the expansion destination address designated in the drawing list.

続くステップS3603では、ステップS3601にて把握したアドレスからラウンド動画像データRMD0を読み出すとともに、当該ラウンド動画像データRMD0をデコードする。そして、そのデコード結果の各静止画像データを、ステップS3602にて把握したアドレスの各エリアに書き込む。その後、本デコード処理を終了する。   In the subsequent step S3603, the round moving image data RMD0 is read out from the address grasped in the step S3601, and the round moving image data RMD0 is decoded. Then, each still image data of the decoding result is written in each area of the address grasped in step S3602. Thereafter, the present decoding process is ended.

ちなみに、デコード指定情報が設定された描画リストをVDP135が受信してから、ラウンド動画の1フレーム目の静止画像データを作成するまでに要する期間は、描画リストの受信周期(20msec)よりも小さく設定されている。これにより、デコード指定情報が設定された描画リストを受信してから、1フレーム目の静止画像データに対応したアドレスが設定された描画リストを受信するまでには、1フレーム目の静止画像データが作成されている。よって、アドレスに対応した静止画像データが存在しないという事態が発生しないようになっている。   By the way, the period required for VDP 135 to create still image data of the first frame of the round moving image after the drawing list with decoding specification information set is set smaller than the receiving cycle (20 msec) of the drawing list It is done. Thus, still image data of the first frame is received from the reception of the drawing list in which the decoding specification information is set to the reception of the drawing list in which the address corresponding to the still image data of the first frame is set. It has been created. Therefore, the situation where the still image data corresponding to the address does not exist does not occur.

なお、デコード処理は、描画処理と非同期で起動される構成としたが、これに限られない。例えば、描画処理にて所定のエリアに書き込まれた静止画像データを用いた描画が完了したことに基づいて、新たなフレームに係る静止画像データを展開する構成としてもよい。この場合、デコードされた静止画像データが用いられる毎に静止画像データを順次展開するため、1度に全部を展開して保存する構成と比較して、静止画像データを書き込むためのエリアの領域を少なくすることができる。さらに、デコードしながらラウンド動画を再生する構成であるため、デコードによるタイムラグを小さくすることができる。   Although the decoding process is configured to be activated asynchronously with the drawing process, the present invention is not limited to this. For example, still image data relating to a new frame may be expanded based on completion of drawing using the still image data written in a predetermined area in the drawing process. In this case, since the still image data is sequentially developed each time the decoded still image data is used, the area of the area for writing the still image data is compared with the configuration in which the entire image is expanded and saved at one time. It can be reduced. Furthermore, since it is the structure which reproduces | regenerates a round moving image while decoding, the time lag by decoding can be made small.

次に、VDP135にて実行されるラウンド演出用の設定処理について、図61のフローチャートを参照しながら説明する。   Next, setting processing for round effect performed by the VDP 135 will be described with reference to the flowchart in FIG.

ラウンド演出用の設定処理は、描画処理(図16)のステップS1003にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて動画像指定情報が設定されている場合に、当該ラウンド演出用の設定処理が実行される。   The setting process for the round effect is executed as a part of the setting process for the effect performed in step S1003 of the drawing process (FIG. 16). In addition, when moving image designation information is set in the drawing list, the setting process for the round effect is performed.

先ずステップS3701では、描画リストにて設定されている動画用オブジェクトを把握し、ステップS3702にて、描画リストに基づいて当該動画用オブジェクトに対して適用される各種パラメータを把握する。   First, in step S3701, the moving image object set in the drawing list is grasped, and in step S3702, various parameters applied to the moving object are grasped based on the drawing list.

その後、ステップS3703にて、動画用オブジェクトについてワールド座標系への設定処理を実行し、ステップS3704に進む。   Thereafter, in step S3703, processing for setting the world coordinate system is performed for the moving image object, and the process advances to step S3704.

続くステップS3704では、描画リストにおいて画像挿入指定情報が記憶されているか否かを判定する。画像挿入指定情報が記憶されていない場合には、そのまま本設定処理を終了する一方、画像挿入指定情報が記憶されている場合には、ステップS3705にて今回の描画リストに設定されている挿入用オブジェクトを把握し、ステップS3706にて描画リストに基づいて挿入用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS3707にて、挿入用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。   In the following step S3704, it is determined whether image insertion designation information is stored in the drawing list. If the image insertion designating information is not stored, the main setting process is ended as it is, while if the image insertion designating information is stored, the for-insertion set in the current drawing list in step S3705. The object is grasped, and in step S3706, parameters applied to the insertion object are grasped based on the drawing list. Then, in step S3707, processing for setting the world coordinate system is performed on the insertion object, and this setting processing is ended.

上記のように設定処理が実行されることにより、ワールド座標系において動画用オブジェクトと挿入用オブジェクトとの配置が同時に開始される。この場合、動画用オブジェクトの前側に挿入用オブジェクトが重なるように配置される。   By performing the setting process as described above, the arrangement of the animation object and the insertion object is simultaneously started in the world coordinate system. In this case, the insertion object is disposed to overlap the front side of the animation object.

次に、ラウンド演出用マッピング処理について図62のフローチャートを用いて説明する。当該ラウンド演出用マッピング処理は、描画処理(図16)の色情報の設定処理(ステップS1009)において、ラウンド演出に係る描画リスト(動画指定情報が設定された描画リスト)が作成された場合に起動される。   Next, the round effect mapping process will be described with reference to the flowchart of FIG. The round effect mapping process is activated when the drawing list (drawing list in which the moving image designation information is set) related to the round effect is created in the color information setting process (step S1009) of the drawing process (FIG. 16). Be done.

先ず、ステップS3801では、今回の設定対象の静止画像データが格納されているアドレスの情報を、描画リストから把握する。続くステップS3802では、ステップS3801にて把握したアドレスの情報から今回の描画対象の静止画像データを把握する。続くステップS3803では、動画用オブジェクトに対してステップS3802にて把握した静止画像データをマッピングする。この場合、静止画像データの座標値は、動画用オブジェクトに対して予め設定されているUV座標値であり、動画用オブジェクトに対する静止画像データの貼付位置は一義的に決まっている。   First, in step S3801, information on an address at which still image data to be set this time is stored is grasped from the drawing list. In the following step S3802, still image data to be drawn this time is grasped from the information of the address grasped in step S3801. In the subsequent step S3803, the still image data grasped in step S3802 is mapped to the moving image object. In this case, the coordinate values of the still image data are UV coordinate values set in advance for the moving image object, and the pasting position of the still image data to the moving object is uniquely determined.

その後、ステップS3804では、今回の描画リストに画像挿入指定情報が設定されているか否かを判定する。画像挿入指定情報が設定されていない場合には、そのまま本処理を終了する一方、画像挿入指定情報が設定されている場合には、ステップS3805にて今回の描画リストに設定されている挿入キャラクタ画像データのアドレスの情報を把握する。   Thereafter, in step S3804, it is determined whether image insertion designation information is set in the current drawing list. If the image insertion designation information is not set, the present processing is ended as it is, while if the image insertion designation information is set, the inserted character image set in the current drawing list in step S3805. Understand the data address information.

ステップS3806では、ステップS3805にて把握したアドレスの情報から今回の描画対象の挿入画像データを把握する。その後、ステップS3807にて、挿入用オブジェクトに対してステップS3806にて把握した挿入キャラクタ画像データをマッピングして、本処理を終了する。   In step S3806, the insertion image data to be drawn this time is grasped from the information on the address grasped in step S3805. Thereafter, in step S3807, the inserted character image data grasped in step S3806 is mapped to the insertion object, and the process ends.

以上の処理が実行されることにより、表示面Gにてラウンド動画像データRMD0に係るラウンド動画が再生されることとなる。また、画像挿入指定情報が設定されている場合には、当該ラウンド動画に対して重なるようにして挿入キャラクタ画像が表示される。   By performing the above processing, the round moving image related to the round moving image data RMD0 is reproduced on the display surface G. When the image insertion specification information is set, the inserted character image is displayed so as to overlap with the round moving image.

ここで、ラウンド動画には、第2背景画像BP2のみが描画されており、各挿入キャラクタ画像は設定されていない。そして、ラウンド数に対応した挿入キャラクタ画像が第2背景画像BP2に対して重なるように表示される構成となっているため、挿入画像データIPD0を表示面G全体に表示される画像データとして用意する必要がない。これにより、挿入画像データIPD0のデータ量の削減を図ることができる。   Here, only the second background image BP2 is drawn in the round moving image, and each inserted character image is not set. Then, since the inserted character image corresponding to the number of rounds is displayed so as to overlap the second background image BP2, the inserted image data IPD0 is prepared as image data to be displayed on the entire display surface G. There is no need. Thereby, the data amount of the insertion image data IPD0 can be reduced.

すなわち、表示面Gの一部を変更する場合には、共通した部分(第2背景画像BP2)に係るデータを動画像データに設定し、個別の部分(各挿入キャラクタ画像IP1,IP2)に係るデータを別に用意することにより、全体としてのデータ量の削減を図ることができる。   That is, when changing a part of the display surface G, data relating to the common part (second background image BP2) is set as moving image data, and the data pertaining to the individual parts (each inserted character image IP1, IP2) By preparing data separately, it is possible to reduce the overall data volume.

また、動画像データの特性上、連続するフレーム毎に静止画像データを設定する必要がある。この必須の静止画像データを用いて第2背景画像BP2を描画することにより、必須の静止画像データを好適に利用することができ、ラウンド演出に係るデータ量の削減を図ることができる。   Also, due to the characteristics of moving image data, it is necessary to set still image data for each successive frame. By drawing the second background image BP2 using the required still image data, the required still image data can be suitably used, and the amount of data related to the round effect can be reduced.

さらに、例えば第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描かれた画像に対して、第1挿入キャラクタ画像IP1を上書きしようとすると、真ん中に表示される女の子を消去するべく、当該女の子に対応した領域に対して第2背景画像BP2を描画する必要が生じることに起因して上書き対象となる領域が大きくなったり、消去対象となる領域とその他の領域とで異なるα値が設定されたαデータを別途設けたりする必要が生じ得る。このため、処理負荷の増大化が生じたり、データ量の増大化が生じたりする場合がある。これに対して、第2背景画像BP2に係る静止画像データを動画像データに設定し、変更対象となる挿入キャラクタ画像に係る画像データを動画像データとは別に用意することにより、上記不都合を回避することができる。   Furthermore, for example, when trying to overwrite the first insertion character image IP1 on the image in which the second insertion character image IP2 is drawn over the second background image BP2, the girl displayed in the middle is deleted to overwrite the first insertion character image IP1. The area to be overwritten becomes larger due to the need to draw the second background image BP2 in the area corresponding to the girl, or different α values are set between the area to be erased and the other areas It may be necessary to separately provide the specified α data. For this reason, processing load may increase or data amount may increase. On the other hand, the above-mentioned inconvenience is avoided by setting still image data relating to the second background image BP2 as moving image data and preparing image data relating to the inserted character image to be changed separately from the moving image data. can do.

なお、動画用オブジェクトの板面は平面であるため、静止画像データに係る画像が湾曲することがない。これにより、静止画像データに係る画像がそのまま表示されることとなる。   In addition, since the plate surface of the moving image object is a flat surface, the image according to the still image data is not curved. As a result, the image related to the still image data is displayed as it is.

また、動画用オブジェクト及び挿入用オブジェクトについては平行投影されるように構成されている。これにより、パースペクティブの関係上、表示面Gの縁側の画像が湾曲したりするのを抑えることができる。   Further, the moving image object and the insertion object are configured to be parallel projected. Thereby, it is possible to suppress the bending of the image on the edge side of the display surface G due to the perspective.

次にラウンド演出の様子について、図63を用いて説明する。図63は、ラウンド演出の様子を示すタイムチャートである。   Next, the appearance of the round effect will be described with reference to FIG. FIG. 63 is a time chart showing the appearance of a round effect.

ラウンド演出の開始タイミングであるt1のタイミングでは、図63(a)に示すように、第1背景画像BP1及び各移動キャラクタ画像MP1,MP2が表示される。   At the timing of t1 which is the start timing of the round effect, as shown in FIG. 63A, the first background image BP1 and the moving character images MP1 and MP2 are displayed.

そして、時間の経過(フレーム番号の更新)に伴って、各移動キャラクタ画像MP1,MP2が所定方向に移動する。例えば、t2のタイミングでは、図63(b)に示すように、各移動キャラクタ画像MP1,MP2が波に乗って移動する様子が表示される。そして、各移動キャラクタ画像MP1,MP2がフレームアウトする。   Then, with the elapse of time (update of the frame number), the moving character images MP1 and MP2 move in the predetermined direction. For example, at the timing of t2, as shown in FIG. 63 (b), it is displayed that the moving character images MP1 and MP2 move on a wave. Then, each moving character image MP1, MP2 is framed out.

その後、画像挿入タイミングであるt3のタイミングにて、第2背景画像BP2を背景として挿入キャラクタ画像が表示される。この場合、今回のラウンド演出が奇数ラウンド目である場合には、図63(c−1)に示すように、第1挿入キャラクタ画像IP1が表示される。一方、今回のラウンド演出が偶数ラウンド目である場合には、図63(c−2)に示すように、第2挿入キャラクタ画像IP2が表示される。   Thereafter, at the timing of t3 which is the image insertion timing, the inserted character image is displayed with the second background image BP2 as a background. In this case, when the round effect of this time is the odd-numbered round, as shown in FIG. 63 (c-1), the first inserted character image IP1 is displayed. On the other hand, when the round effect of this time is the even-numbered round, as shown in FIG. 63 (c-2), the second inserted character image IP2 is displayed.

その後、t4のタイミングでは、図63(d)に示すように、第3移動キャラクタ画像MP3が表示される。そして、当該第3移動キャラクタ画像MP3が所定の動作を行った後、ラウンド演出が終了する。   Thereafter, at the timing of t4, as shown in FIG. 63 (d), the third moving character image MP3 is displayed. Then, after the third moving character image MP3 performs a predetermined operation, the round effect ends.

以上の通り、ラウンド遊技が開始される度にラウンド動画を再生する構成とし、更にラウンド動画の再生中に、当該ラウンド動画に係る画像に対して重なるように今回のラウンドに対応した挿入キャラクタ画像を表示させるラウンド演出を実行する構成とした。これにより、1のラウンド動画像データRMD0を用いて複数の表示態様の動画を視認させることができるため、ラウンド毎にラウンド動画像データRMD0を用意する構成と比較して、メモリモジュール133に記憶させておくデータ量を削減することができる。   As described above, each time a round game is started, a round moving image is reproduced, and while the round moving image is being reproduced, an inserted character image corresponding to the current round is superimposed on the image related to the round moving image. It was configured to execute a round effect to be displayed. Thereby, moving images in a plurality of display modes can be visually recognized using one round moving image data RMD0, so that the moving image data RMD0 is stored in the memory module 133 as compared with the configuration in which the round moving image data RMD0 is prepared for each round. The amount of data to be stored can be reduced.

特に、開閉実行モードにおいては、同一の遊技、すなわち、ラウンド遊技が繰り返し行われる。この場合、ラウンド遊技が繰り返し行われることに対応させて、同一のラウンド演出を繰り返し実行する構成とすると、ラウンド演出への注目度が低下するおそれがある。かといって、ラウンド遊技毎に異なる動画表示を行う構成とすると、当該動画表示に係る動画像データのデータ量の増大化が懸念される。   In particular, in the open / close execution mode, the same game, that is, the round game is repeatedly performed. In this case, when the same round effect is repeatedly executed in response to repeated round games, the degree of attention to the round effect may be reduced. However, if different moving image display is performed for each round game, an increase in the data amount of moving image data related to the moving image display is concerned.

これに対して、本パチンコ機10によれば、ラウンド動画の再生中に、今回のラウンドに対応した挿入キャラクタ画像を表示させる構成とすることにより、同一のラウンド動画を用いて、ラウンド演出のバリエーションの多様化を図ることができる。   On the other hand, according to the present pachinko machine 10, the variation of the round effect using the same round moving image by displaying the insertion character image corresponding to the current round while playing the round moving image. Can be diversified.

なお、挿入画像データIPD0として第1挿入画像データIPD1及び第2挿入画像データIPD2の2種類を用意したが、これに限られず、例えばラウンド数分だけ挿入画像データを用意する構成としてもよい。この場合、各ラウンドに対して各挿入画像データを対応付けて設定するとよい。これにより、ラウンド演出の多様化を図るとともに、挿入画像データに基づいて表示される画像に基づいて今回のラウンド遊技が何ラウンド目であるかを把握することが可能となる。   In addition, although two types of 1st insertion image data IPD1 and 2nd insertion image data IPD2 were prepared as insertion image data IPD0, it is not restricted to this, For example, it is good also as composition which prepares insertion image data for the number of rounds. In this case, each insertion image data may be set in association with each round. Thereby, it is possible to diversify round effects and to grasp what round the current round game is based on an image displayed based on the insertion image data.

さらに、挿入画像データをラウンド数よりも多く用意し、各ラウンドにおける挿入キャラクタ画像の挿入タイミングにて、複数の挿入画像データのうち1の挿入画像データを選択する構成としてもよい。これにより、挿入される挿入キャラクタ画像のランダム性を高め、挿入キャラクタ画像への注目度を高めることができる。   Further, the insertion image data may be prepared more than the number of rounds, and one insertion image data may be selected among the plurality of insertion image data at the insertion timing of the insertion character image in each round. Thus, the randomness of the inserted character image to be inserted can be enhanced, and the degree of attention to the inserted character image can be increased.

また、挿入キャラクタ画像が表示されている状況において、挿入画像データIPD0に適用されるパラメータは変更しない構成としたが、これに限られず、適用されるパラメータを順次更新する構成としてもよい。この場合、一律α値を更新する構成とすれば、挿入キャラクタ画像をフェードイン又はフェードアウトさせることが可能となり、倍率情報を更新する構成とすれば、挿入キャラクタ画像の拡大又は縮小表示を行うことが可能となる。   Although the parameter applied to the insertion image data IPD0 is not changed in a situation where the insertion character image is displayed, the present invention is not limited to this, and the applied parameter may be sequentially updated. In this case, if the α value is uniformly updated, the inserted character image can be faded in or out, and if the magnification information is updated, the inserted character image can be enlarged or reduced. It becomes possible.

挿入キャラクタ画像をフェードイン又はフェードアウトさせる場合には、挿入キャラクタ画像と、当該挿入キャラクタ画像の背面側に描画されている動画に係る画像とのブレンディング処理を実行する構成としてもよい。これにより、挿入キャラクタ画像と動画に係る画像との親和性を高めることができ、挿入キャラクタ画像と動画に係る画像とを同時に表示させることによって生じ得る違和感を軽減することができる。   When the inserted character image is to be faded in or out, blending processing may be performed between the inserted character image and an image related to a moving image drawn on the back side of the inserted character image. Thereby, the affinity between the inserted character image and the image related to the moving image can be enhanced, and the uncomfortable feeling that may be caused by simultaneously displaying the inserted character image and the image related to the moving image can be reduced.

また、ラウンド動画に限られず、例えばスーパーリーチ表示を行う場合や、ノーマルリーチ表示を行う場合に本発明を適用してもよい。この場合、スーパーリーチ表示中に再生されるリーチ動画に係るリーチ動画像データを用意するとともに、当該リーチ動画の再生中に挿入される挿入画像の挿入画像データを複数種類用意する。そして、表示CPU131は、スーパーリーチ表示を行う場合に、複数種類の挿入画像データのうち1の画像データを抽選する処理を実行し、抽選された挿入画像データのアドレスをデータテーブルに設定する。そして、挿入画像の挿入タイミングである場合に、データテーブルに設定された挿入画像データのアドレスに基づいて、今回の挿入画像データを把握し、当該挿入画像データに基づいて描画を行わせる。これにより、1のリーチ動画像データを用いて、複数種類のスーパーリーチ表示を行うことが可能となる。   Further, the present invention is not limited to round moving images, and may be applied to, for example, super reach display or normal reach display. In this case, reach moving image data related to the reach moving image to be reproduced during super reach display is prepared, and plural types of insertion image data of an insertion image to be inserted during reproduction of the reach moving image are prepared. Then, when performing the super reach display, the display CPU 131 executes a process of drawing one image data out of a plurality of types of insertion image data, and sets the address of the drawn insertion image data in the data table. Then, at the insertion timing of the insertion image, the current insertion image data is grasped based on the address of the insertion image data set in the data table, and drawing is performed based on the insertion image data. This makes it possible to perform multiple types of super reach display using one reach moving image data.

また、上記構成では、ラウンド毎にラウンド動画を再生する構成としたが、これに限られず、例えば複数のラウンドに跨って再生される一連のムービーであってもよい。この場合、開閉実行モードが終了するまで繰り返し上記一連のムービーを再生させる構成とするとよい。この場合であっても、一連のムービーの途中に異なる挿入キャラクタ画像を挿入することにより異なるムービーのように認識させることができる。   In the above-described configuration, the round moving image is played back for each round, but the present invention is not limited to this. For example, a series of movies may be played across a plurality of rounds. In this case, the above-described series of movies may be repeatedly played back until the open / close execution mode ends. Even in this case, by inserting different insertion character images in the middle of a series of movies, it can be recognized as different movies.

上記複数のラウンドに跨って一連のムービーを再生する場合、各ラウンド間のインターバル期間中に挿入キャラクタ画像を表示させる構成としてもよい。これにより、複数のラウンドに跨って再生されるムービーにおいてインターバル期間中であることを遊技者に好適に認識させることができる。   In the case of reproducing a series of movies across the plurality of rounds, the inserted character image may be displayed during an interval period between each round. As a result, the player can be suitably recognized as being in an interval period in a movie played across a plurality of rounds.

また、基準データRMD3には、第2背景画像BP2のみが描画されていたが、これに限られず、例えば第1挿入キャラクタ画像IP1及び第2背景画像BP2双方が描画されたものとしてもよい。この場合、第1挿入キャラクタ画像IP1に対して第2挿入キャラクタ画像IP2が重なるように、第2挿入画像データIPD2の座標を設定するとよい。これにより、画像を挿入する場合と挿入しない場合とで異なるラウンド演出を表示させることができる。但し、動画像データを有効に活用できる点、奥側に表示される画像を上書きするために画像データのサイズを大きめに確保する必要がある点等を鑑みれば、基準データRMD3には、第2背景画像BP2のみが描画されている構成の方がよい。   Although only the second background image BP2 is drawn in the reference data RMD3, the present invention is not limited to this. For example, both the first inserted character image IP1 and the second background image BP2 may be drawn. In this case, the coordinates of the second insertion image data IPD2 may be set so that the second insertion character image IP2 overlaps the first insertion character image IP1. Thereby, different round effects can be displayed in the case of inserting an image and the case of not inserting an image. However, in view of the fact that moving image data can be effectively used, and that it is necessary to secure a larger size of the image data in order to overwrite the image displayed on the back side, the reference data RMD3 The configuration in which only the background image BP2 is drawn is better.

また、挿入キャラクタ画像を表示させる構成としたが、これに限られず、例えばt3のタイミング〜t4のタイミングに亘って別の挿入用動画を再生する構成としてもよい。この場合、t3のタイミングにて挿入用動画を再生することができるように、当該t3のタイミングよりも前のタイミングにて挿入用動画のデコードを行うとよい。また、挿入用動画は、表示面Gにおける所定の領域に対応した動画としてもよいし、表示面G全体の動画としてもよい。   Although the insertion character image is displayed, the present invention is not limited to this. For example, another insertion moving image may be reproduced from timing t3 to timing t4. In this case, the insertion moving image may be decoded at a timing before the timing t3 so that the insertion moving image can be played back at the timing t3. Further, the insertion moving image may be a moving image corresponding to a predetermined area on the display surface G, or may be a moving image of the entire display surface G.

上記構成では、一連のラウンド動画の再生中に、当該ラウンド動画に関連した挿入キャラクタ画像を表示させる構成としたが、これに限られず、ラウンド動画の態様とは関連しない特定画像をラウンド動画とは別に表示させる構成としてもよい。この場合、特定画像はラウンド動画が再生される期間のうち一部の期間において表示される構成としてもよいし、ラウンド動画が再生される期間全体に亘って表示させる構成としてもよい。   In the above configuration, the inserted character image related to the round moving image is displayed during playback of a series of round moving images. However, the present invention is not limited to this. A specific image not related to the aspect of the round moving image It may be configured to be displayed separately. In this case, the specific image may be displayed in part of the period during which the round moving image is reproduced, or may be displayed throughout the period in which the round moving image is reproduced.

特定画像としては、例えば現状のラウンドが何番目のラウンドであるかを遊技者に教示可能な教示画像や、又はラウンド動画の再生回数を教示可能な教示画像や、大当たり当選となった場合に表示面Gにて表示された大当たり図柄の組み合わせを構成した図柄画像又は当該図柄画像に対応した画像等としてもよい。   As the specific image, for example, a taught image capable of teaching the player what round the current round is, or a taught image capable of teaching the number of times of playing a round moving image, or a display when the jackpot is won It is good also as an image etc. which corresponded to the symbol image which constituted the combination of the big hit symbol displayed on the surface G, or the said symbol image.

この場合、例えば教示画像の表示に係る処理としては、ラウンド動画とは別に各種教示用の画像データ(教示用のオブジェクト及び教示用のテクスチャ)を用意して、ラウンド動画に係る画像に対して上記教示用のオブジェクト及び教示用のテクスチャを用いて作成される教示画像を挿入して表示させる構成や、所定の教示画像が含まれたラウンド動画を用意する構成が考えられる。   In this case, for example, as processing related to display of a teaching image, image data for teaching (various objects for teaching and texture for teaching) are prepared separately from the round moving image, and A configuration may be considered in which a teaching image created using a teaching object and a teaching texture is inserted and displayed, or a configuration in which a round moving image including a predetermined teaching image is prepared.

上記所定の教示画像が含まれたラウンド動画を用意する構成において、教示画像の内容を変更する場合には、当該ラウンド動画に含まれている上記所定の教示画像に対して重なるように変更先の教示画像を描画する。具体的には、上記所定の教示画像が表示される領域に重なるように変更先の教示用のオブジェクトを配置する。これにより、ラウンド動画に含まれている上記所定の教示画像に対して変更先の教示画像が上書きされ、当該変更先の教示画像が表示されることとなる。   In the configuration in which a round moving image including the predetermined teaching image is prepared, when the content of the teaching image is changed, the change destination is set to overlap with the predetermined teaching image included in the round moving image. Draw a teach image. Specifically, an object for teaching of the change destination is arranged so as to overlap the area where the predetermined teaching image is displayed. As a result, the teaching image of the change destination is overwritten on the predetermined teaching image included in the round moving image, and the teaching image of the change destination is displayed.

かかる構成において、挿入キャラクタ画像を挿入表示する場合、当該挿入キャラクタ画像によって上記教示画像が上書きされないように、挿入用オブジェクトと教示用のオブジェクトとの位置関係を設定する。具体的には、ワールド座標系において、視点に対して挿入用オブジェクトよりも近い側に教示用のオブジェクトが配置されるように両者の座標を設定する。これにより、教示画像が挿入キャラクタ画像によって見えなくなるという不都合を回避することができる。   In such a configuration, when the inserted character image is inserted and displayed, the positional relationship between the insertion object and the teaching object is set so that the teaching image is not overwritten by the inserted character image. Specifically, in the world coordinate system, the coordinates of both are set so that the teaching object is placed closer to the viewpoint than the insertion object. This makes it possible to avoid the inconvenience that the teaching image is not visible by the inserted character image.

また、2次元表示を行う構成に対して上記画像挿入の発明を適用してもよい。具体的には、例えば挿入する画像に対応した画像データをスプライトデータとしてメモリモジュール133に対して予め記憶させておくとともに、当該スプライトデータに適用される各種パラメータ情報を記憶させておく。そして、動画像データをデコードすることにより作成される静止画像データをフレームバッファ142に書き込み、当該フレームバッファ142に対して挿入する画像に係るスプライトデータを書き込む処理を実行すればよい。   Further, the invention of the above-mentioned image insertion may be applied to a configuration for performing two-dimensional display. Specifically, for example, image data corresponding to an image to be inserted is stored in advance in the memory module 133 as sprite data, and various parameter information applied to the sprite data is stored. Then, still image data created by decoding moving image data may be written in the frame buffer 142, and sprite data relating to the image to be inserted into the frame buffer 142 may be written.

<ラウンド演出を行う場合の別形態>
ラウンド演出を行う場合の別形態について図64〜図68を用いて説明する。
<Another form when performing round effect>
Another mode in the case of performing the round effect will be described with reference to FIGS.

本別形態では、ラウンド動画像データRMD0の構成が異なっている。その異なる点について図64を用いて説明する。図64は、本別形態におけるラウンド動画像データRMD0の構成を説明するための説明図である。   In this embodiment, the configuration of the round moving image data RMD0 is different. The different points will be described with reference to FIG. FIG. 64 is an explanatory diagram for describing a configuration of round moving image data RMD0 in the present embodiment.

本別形態では、ラウンド動画像データRMD0は、挿入キャラクタ画像が表示されるタイミングにて分割されており、詳細には、ラウンド動画の開始タイミングから、当該各移動キャラクタ画像MP1,MP2がフェードアウトするまでの第1ラウンド動画に対応した第1ラウンド動画像データRMD0aと、第3移動キャラクタ画像MP3が表示されてからラウンド動画の終了タイミングまでの第2ラウンド動画に対応した第2ラウンド動画像データRMD0bと、に分割されている。   In this embodiment, the round moving image data RMD0 is divided at the timing when the insertion character image is displayed, and more specifically, from the start timing of the round moving image until the respective moving character images MP1 and MP2 fade out. First round moving image data RMD0a corresponding to the first round moving image, and second round moving image data RMD0b corresponding to the second round moving image from the time when the third moving character image MP3 is displayed to the end timing of the round moving image , Has been divided.

第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bの圧縮態様について図65を用いて説明する。図65は各ラウンド動画像データRMD0a,RMD0bの圧縮態様を説明するための説明図であって、図65(a)は第1ラウンド動画像データRMD0aの圧縮態様を説明するための説明図、図65(b)は第2ラウンド動画像データRMD0bの圧縮態様を説明するための説明図、図65(c)は各ラウンド動画像データRMD0a,RMD0bのビットレートを説明するためのグラフである。   A compression mode of the first round moving image data RMD0a and the second round moving image data RMD0b will be described with reference to FIG. FIG. 65 is an explanatory diagram for explaining the compression mode of each round moving image data RMD0a, RMD0b, and FIG. 65 (a) is an explanatory diagram for explaining the compression mode of the first round moving image data RMD0a 65 (b) is an explanatory diagram for explaining a compression mode of the second round moving image data RMD0b, and FIG. 65 (c) is a graph for explaining a bit rate of each round moving image data RMD0a, RMD0b.

既に説明した通り、第1ラウンド動画像データRMD0aと、第2ラウンド動画像データRMD0bとは、符号化された圧縮データであり、基準データと、差分データとを有している。この場合、各ラウンド動画の再生時間が同一であり且つ各ラウンド動画像データRMD0a,RMD0bに含まれる基準データが同一であっても、ラウンド動画の内容に応じて、第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bのデータ量が異なる場合が生じる。   As described above, the first round moving image data RMD0a and the second round moving image data RMD0b are encoded compressed data, and include reference data and difference data. In this case, even if the reproduction time of each round moving image is the same and the reference data included in each round moving image data RMD0a and RMD0b are the same, the first round moving image data RMD0a and The data amount of the second round moving image data RMD0b may differ.

具体的には、第1ラウンド動画と第2ラウンド動画とを比較すると、第1ラウンド動画の方が第2ラウンド動画よりも移動対象キャラクタの数が多い分だけ、第1ラウンド動画の方が、第2ラウンド動画よりも動きが激しいとともに、複雑なもの(高精細なもの)となっている。このため、図65(a−1)及び図65(b−1)に示すように、第1ラウンド動画像データRMD0aの差分データは、第2ラウンド動画像データRMD0bの差分データよりも大きくなる。   Specifically, when comparing the first round video and the second round video, the first round video is more equivalent to the first round video because the number of movement target characters is larger than that of the second round video. The movement is more intense than the second round movie, and it is complex (high definition). Therefore, as shown in FIGS. 65 (a-1) and 65 (b-1), the differential data of the first round moving image data RMD0a is larger than the differential data of the second round moving image data RMD0b.

ここで、ラウンド動画像データRMD0全体で割り当てることが可能なデータ量は予め定められており、当該データ量に合うように各ラウンド動画像データRMD0a,RMD0bを調整する必要がある。この場合、各ラウンド動画像データRMD0a,RMD0bのビットレートを調整することにより、ラウンド動画全体の画質を維持しつつ、所望のデータ量に設定することができる。   Here, the amount of data that can be allocated for the entire round moving image data RMD0 is predetermined, and it is necessary to adjust each round moving image data RMD0a and RMD0b so as to fit the amount of data. In this case, by adjusting the bit rates of the respective round moving image data RMD0a and RMD0b, it is possible to set the desired data amount while maintaining the image quality of the whole round moving image.

具体的には、動きが少ないもの又は比較的複雑でないもの(低精細なもの)に対してはビットレートを下げても画質は低下しにくい。一方、動きが大きいものや比較的複雑なものに対してビットレートを下げると、ブロックノイズやモスキートノイズが大量に発生し、画質が大きく低下する。このため、図65(a−2)に示すように、第1ラウンド動画像データRMD0aに対しては比較的大きなビットレートを割り当てることで、比較的大きなデータ量(FS1)を確保し、第1ラウンド動画の画質の低下を抑制する。一方、図65(b−2)に示すように、第2ラウンド動画像データRMD0bに対しては比較的小さなビットレートを割り当てることで、比較的小さなデータ量(FS2)を確保し、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。これにより、ラウンド演出で用いられる一連のラウンド動画の画質の低下を抑制することができる。   Specifically, the picture quality is unlikely to be degraded even if the bit rate is lowered for the one with less motion or the one with relatively low complexity (low resolution). On the other hand, when the bit rate is lowered for a large motion or relatively complex motion, a large amount of block noise and mosquito noise occurs, and the image quality is greatly degraded. Therefore, as shown in FIG. 65 (a-2), by allocating a relatively large bit rate to the first round moving image data RMD0a, a relatively large data amount (FS1) is secured. Suppress the degradation of round movie quality. On the other hand, as shown in FIG. 65 (b-2), a relatively small amount of data (FS2) is secured by allocating a relatively small bit rate to the second round moving image data RMD0b, and the second round The data amount of the moving image data RMD0b can be reduced. Thereby, the fall of the image quality of a series of round animations used by round production can be controlled.

すなわち、図65(c)に示すように、第1ラウンド動画像データRMD0aのビットレートを上げ、第2ラウンド動画像データRMD0bのビットレートを下げて設定することにより、各ラウンド動画像データRMD0a,RMD0bが同一のビットレートで設定される場合(図65(c)の点線参照)と比較して、トータルのデータ量が同一にも関わらず、ラウンド動画の画質の低下が抑制されている。これにより、ラウンド動画像データRMD0を所望のデータ量に設定しつつ、ラウンド動画の画質の低下を抑制することができる。   That is, as shown in FIG. 65 (c), the bit rate of the first round moving image data RMD0a is increased, and the bit rate of the second round moving image data RMD0b is decreased to set each round moving image data RMD0a, Compared to the case where RMD 0 b is set at the same bit rate (see the dotted line in FIG. 65 (c)), the degradation of the image quality of the round moving image is suppressed despite the total data amount being the same. Thereby, it is possible to suppress the deterioration of the image quality of the round moving image while setting the round moving image data RMD0 to a desired data amount.

ちなみに、各ラウンド動画像データRMD0a,RMD0bを作成する段階における圧縮処理について詳細に説明すると、各ラウンド動画像データRMD0a,RMD0bは、複数回(具体的には2回)に亘る圧縮処理を行うことにより作成されている。具体的には、先ず1回目の圧縮処理では、予め設定されたラウンド動画像データRMD0全体のデータ量を把握し、そのデータ量となるように各ラウンド動画像データRMD0a,RMD0bに対して割り当てる各データ量FS1,FS2を把握し、それらの各データ量FS1、FS2に対応したビットレートを把握する。そして、2回目の圧縮処理にて、1回目の圧縮処理にて把握されたビットレートを用いて実際の圧縮処理を実行する。これにより、ラウンド動画像データRMD0が予め設定されたデータ量となるようになっている。   Incidentally, the compression process at the stage of creating each round moving image data RMD0a, RMD0b will be described in detail. Each round moving image data RMD0a, RMD0b performs compression processing over a plurality of times (specifically, twice). It is created by. Specifically, first, in the first compression processing, the data amount of the entire round moving image data RMD0 set in advance is grasped, and each of the round moving image data RMD0a and RMD0b is allocated so as to become the data amount. The data amounts FS1 and FS2 are grasped, and the bit rates corresponding to the respective data amounts FS1 and FS2 are grasped. Then, in the second compression processing, actual compression processing is executed using the bit rate grasped in the first compression processing. As a result, the round moving image data RMD0 has a data amount set in advance.

ここで、各ラウンド動画像データRMD0a,RMD0bの圧縮においては、それぞれ個別に設定されたビットレートに基づくデータ量となるように、差分データを簡略化することにより差分データを圧縮し、基準データは簡略化されないようになっている。基準データは各差分データ(Pピクチャデータ及びBピクチャデータ)の基準となるデータであるため、基準データの画質が低下すると、フレーム間圧縮による誤差に起因するラウンド動画全体の画質が著しく低下するからである。   Here, in the compression of each round moving image data RMD0a, RMD0b, the difference data is compressed by simplifying the difference data so as to obtain the data amount based on the individually set bit rate, and the reference data is It is designed not to be simplified. Since the reference data is data serving as a reference of each difference data (P picture data and B picture data), if the image quality of the reference data is degraded, the image quality of the entire round moving image due to an error due to interframe compression is significantly degraded. It is.

また、本別形態では、挿入画像データIPD0が異なっている。具体的には、本別形態における挿入画像データIPD0のサイズは、当該挿入画像データIPD0に係る画像が表示面G全体に表示可能となるように設定されている。そして、挿入画像データIPD0には、第2背景画像BP2に重ねて第1挿入キャラクタ画像IP1が描画された挿入画像データと、第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描画された挿入画像データと、が設けられている。すなわち、本別形態の挿入画像データIPD0は、表示面G全体に表示される一枚の画像そのものを示すものである。なお、以降の説明において挿入画像データIPD0を用いて表示される画像、すなわち第2背景画像BP2に重ねて各挿入キャラクタ画像IP1,IP2のいずれが描画された画像を単に挿入画像とも言う。   Further, in the present embodiment, the insertion image data IPD0 is different. Specifically, the size of the insertion image data IPD0 in the present embodiment is set such that the image relating to the insertion image data IPD0 can be displayed on the entire display surface G. Then, in the insertion image data IPD0, the insertion image data in which the first insertion character image IP1 is drawn overlapping with the second background image BP2 and the second insertion character image IP2 is overlapping with the second background image BP2 And insert image data. That is, the insertion image data IPD0 according to the present embodiment is an image itself displayed on the entire display surface G. In the following description, an image displayed using the insertion image data IPD0, that is, an image in which any one of the insertion character images IP1 and IP2 is drawn over the second background image BP2 is also referred to simply as an insertion image.

本別形態では、これら分割された各ラウンド動画像データRMD0a,RMDbを所定の間隔を介して順次デコードし、第1ラウンド動画及び第2ラウンド動画を所定の間隔を介して順次再生するとともに、当該間隔中に上記挿入画像データIPD0を用いて、第2背景画像BP2と、各挿入キャラクタ画像IP1,IP2のいずれか一方とが一体となった挿入画像を表示させることにより、一連のラウンド動画を再生させる。   In this embodiment, the divided round moving image data RMD0a and RMDb are sequentially decoded through a predetermined interval, and the first round moving image and the second round moving image are sequentially reproduced through the predetermined interval, and During the interval, the insertion image data IPD0 is used to reproduce a series of round moving images by displaying an insertion image in which the second background image BP2 and any one of the insertion character images IP1 and IP2 are integrated. Let

次に、本別形態におけるラウンド演出用の演算処理について図66のフローチャートを用いて説明する。   Next, arithmetic processing for round effect in this embodiment is described using the flowchart in FIG.

先ず、ステップS3901では、現状設定されているデータテーブル、詳細には開閉実行モードに対応したデータテーブルに基づいて、挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合には、ステップS3902に進み、現状設定されているデータテーブルに基づいて挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。挿入キャラクタ画像の表示開始タイミングは、開閉実行モードに対応したデータテーブルに予め定められており、詳細には第1ラウンド動画の終了タイミングと同一に設定されている。   First, in step S3901, it is determined based on the currently set data table, specifically, the data table corresponding to the open / close execution mode, whether or not the inserted character image is being displayed. If the inserted character image is not being displayed, the process proceeds to step S3902, and it is determined based on the currently set data table whether or not it is the display start timing of the inserted character image. The display start timing of the inserted character image is predetermined in the data table corresponding to the open / close execution mode, and is set to be identical to the end timing of the first round moving image in detail.

挿入キャラクタ画像の表示開始タイミングでない場合には、ステップS3903に進み、現状設定されているデータテーブルに基づいてラウンド動画に係る演出が実行中であるか否かを判定する。この場合、第1ラウンド動画又は第2ラウンド動画に係る演出が実行中であるか否かを判定する、
ラウンド動画に係る演出が実行中でない場合には、ステップS3904にて第1ラウンド動画の再生開始タイミングであるか否かを判定する。第1ラウンド動画の再生開始タイミングでない場合には、そのまま本演算処理を終了する一方、第1ラウンド動画の再生開始タイミングである場合には、ステップS3905にてラウンドカウンタRCを1加算する処理を実行し、ステップS3906及びステップS3907にて、第1ラウンド動画像データRMD0aのデコードに係る処理を実行する。
If it is not the display start timing of the inserted character image, the process proceeds to step S3903, and it is determined based on the currently set data table whether or not the effect relating to the round moving image is being executed. In this case, it is determined whether an effect relating to the first round moving image or the second round moving image is being executed.
If the effect relating to the round moving image is not being executed, it is determined in step S3904 whether it is the reproduction start timing of the first round moving image. When it is not the reproduction start timing of the first round moving image, this operation processing is ended as it is, while when it is the reproduction start timing of the first round moving image, the processing of adding one round counter RC in step S3905 is executed. Then, in step S3906 and step S3907, processing relating to the decoding of the first round moving image data RMD0a is executed.

詳細には、ステップS3906にて、VRAM134の展開用バッファ141において第1ラウンド動画像データRMD0aが格納されているアドレスと、当該第1ラウンド動画像データRMD0aをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。   Specifically, at step S3906, the address at which the first round moving image data RMD0a is stored in the expansion buffer 141 of the VRAM 134 and the first round moving image data RMD0a are decoded to obtain still image data for a plurality of frames. When creating the image data, the address of the area where the still image data is stored is grasped.

そして、ステップS3907では、第1ラウンド動画像データRMD0aのデコード指定情報を設定し、本演算処理を終了する。   Then, in step S3907, the decoding specification information of the first round moving image data RMD0a is set, and this arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第1ラウンド動画像データRMD0aのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第1ラウンド動画像データRMD0aのデコード処理を実行する。当該デコード処理は、既に説明した通りであるため、説明を省略する。   When the above arithmetic processing is executed, in the subsequent drawing list output process (step S806), a drawing list in which the decode specification information of the first round moving image data RMD0a is set is created and transmitted to the VDP 135. The moving picture recorder of the VDP 135 executes the decoding process of the first round moving picture data RMD0a based on the reception of the drawing list in which the above-mentioned decoding designation information is set. Since the decoding process is as described above, the description is omitted.

ラウンド動画に係る演出が実行中である場合には、ステップS3908〜ステップS3910にてラウンド動画に対応した静止画像データを描画対象として設定する処理を実行する。この場合、デコードされているラウンド動画像データRMD0が第1ラウンド動画像データRMD0aである場合には、第1ラウンド動画に係る静止画像データが描画対象として設定される一方、デコードされているラウンド動画像データRMD0が第2ラウンド動画像データRMD0bである場合には、第2ラウンド動画に係る静止画像データが描画対象として設定される。なお、当該処理の具体的な構成については、既に説明した通りであるため、説明を省略する。   If the effect relating to the round moving image is being executed, processing to set still image data corresponding to the round moving image as a drawing target in steps S3908 to S3910. In this case, when the round moving image data RMD0 being decoded is the first round moving image data RMD0a, the still image data relating to the first round moving image is set as a drawing target while the round moving image being decoded is When the image data RMD0 is the second round moving image data RMD0b, still image data related to the second round moving image is set as a drawing target. The specific configuration of the process is as described above, and thus the description is omitted.

その後、ステップS3911にて、ラウンド演出を実行することをVDP135にて特定させるためのラウンド演出指定情報を設定し、本演算処理を終了する。   Thereafter, in step S3911, round effect specification information for causing the VDP 135 to specify that round effect is to be executed is set, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、動画用オブジェクトが描画対象として設定されるとともに、当該動画用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、動画用オブジェクトに対してマッピングされる画像データとして静止画像データのアドレスが含まれている。   When the calculation process is performed, in the subsequent drawing list output process (step S806), the moving image object is set as a drawing target, and various parameters to be applied to the moving object are set. The various parameters include the address of still image data as image data to be mapped to the moving image object.

一方、挿入キャラクタ画像の表示開始タイミングである場合には(ステップS3902:YES)、ステップS3912〜ステップS3915にて、挿入キャラクタ画像を描画対象として設定する処理を実行する。   On the other hand, if it is the display start timing of the inserted character image (step S3902: YES), in steps S3912 to S3915, processing is performed to set the inserted character image as a drawing target.

ここで、本別形態の挿入用オブジェクトのサイズは、挿入画像データIPD0のサイズに対応させて設定されている。具体的には、挿入画像データIPD0のサイズと同一になるように挿入用オブジェクトのサイズが設定されている。つまり、本別形態においては、挿入用オブジェクトと動画用オブジェクトとは同一である。   Here, the size of the insertion object according to the present embodiment is set to correspond to the size of the insertion image data IPD0. Specifically, the size of the insertion object is set to be the same as the size of the insertion image data IPD0. That is, in the present embodiment, the insertion object and the animation object are the same.

なお、ステップS3912〜ステップS3915の具体的な処理構成は既に説明した通りであるため、説明を省略する。   In addition, since the specific process structure of step S3912-step S3915 is as having already demonstrated, description is abbreviate | omitted.

ステップS3912〜ステップS3915の処理の実行後は、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。   After execution of the processing of step S3912 to step S3915, the round effect designation information is set in step S3911, and the present arithmetic processing ends.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、挿入用オブジェクトが描画対象として設定されるとともに、当該挿入用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、挿入用オブジェクトに対してマッピングされる画像データとして今回のラウンド遊技に対応した挿入画像データのアドレスが含まれる。   When the arithmetic processing is executed, in the subsequent drawing list output processing (step S806), an insertion object is set as a drawing target, and various parameters to be applied to the insertion object are set. The various parameters include the address of insertion image data corresponding to the current round game as image data mapped to the insertion object.

ここで、挿入用オブジェクトのサイズは表示面G全体に対応したものとなっており、且つ当該挿入用オブジェクトにマッピングされる挿入画像データIPD0のサイズは表示面G全体に対応したものに設定されている。そして、本別形態における挿入画像データIPD0には、第2背景画像BP2が予め描画されている。これにより、本別形態においては、挿入画像は背景画像として機能する。すなわち、本別形態において挿入画像は、背景画像とキャラクタ画像とを合わせた1の画像であると言える。これにより、ラウンド動画が再生されない状況であっても表示面G全体に所定の画像が表示される。   Here, the size of the insertion object corresponds to the entire display surface G, and the size of the insertion image data IPD0 mapped to the insertion object is set to one corresponding to the entire display surface G There is. Then, a second background image BP2 is drawn in advance in the insertion image data IPD0 in the present embodiment. Thereby, in the present embodiment, the insertion image functions as a background image. That is, in the present embodiment, it can be said that the insertion image is one image obtained by combining the background image and the character image. As a result, even if the round moving image is not reproduced, a predetermined image is displayed on the entire display surface G.

挿入キャラクタ画像が表示中である場合(ステップS3901:YES)、ステップS3916に進み、現状設定されているデータテーブルに基づいて第2ラウンド動画の再生開始タイミングであるか否かを判定する。第2ラウンド動画の再生開始タイミングは、挿入画像の表示開始タイミング(第1ラウンド動画の終了タイミング)から所定期間が経過したタイミングに設定されている。   If the inserted character image is being displayed (step S3901: YES), the process proceeds to step S3916, where it is determined based on the currently set data table whether it is the reproduction start timing of the second round moving image. The reproduction start timing of the second round moving image is set to a timing at which a predetermined period has elapsed from the display start timing of the insertion image (the end timing of the first round moving image).

第2ラウンド動画の再生開始タイミングでない場合には、ステップS3917及びステップS3918にて、挿入画像の表示を維持するための処理を実行し、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。これらの処理は、既に説明した通りであるため、説明を省略する。   If it is not the reproduction start timing of the second round moving image, processing for maintaining the display of the inserted image is executed in step S3917 and step S3918, and round effect specification information is set in step S3911, and this arithmetic processing is performed. Finish. Since these processes are as having already demonstrated, description is abbreviate | omitted.

一方、第2ラウンド動画の再生開始タイミングである場合には、ステップS3919及びステップS3920にて、第2ラウンド動画を再生させるための処理を実行する。具体的には、ステップS3919にて、VRAM134の展開用バッファ141において第2ラウンド動画像データRMD0bが格納されているアドレスと、当該第2ラウンド動画像データRMD0bをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。   On the other hand, if it is time to start reproduction of the second round moving image, processing for reproducing the second round moving image is executed in steps S3919 and S3920. Specifically, in step S3919, the address at which the second round moving image data RMD0b is stored in the expansion buffer 141 of the VRAM 134 and the second round moving image data RMD0b are decoded to obtain still images of a plurality of frames. When the data is created, the address of the area for storing the still image data is grasped.

そして、ステップS3920では、第2ラウンド動画像データRMD0bのデコード指定情報を設定し、本演算処理を終了する。   Then, in step S3920, the decoding specification information of the second round moving image data RMD0b is set, and the present arithmetic processing is ended.

上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第2ラウンド動画像データRMD0bのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第2ラウンド動画像データRMD0bのデコード処理を実行する。   When the above arithmetic processing is executed, in the subsequent drawing list output process (step S806), a drawing list in which the decode specification information of the second round moving image data RMD0b is set is created and transmitted to the VDP 135. The moving picture recorder of the VDP 135 executes the decoding process of the second round moving picture data RMD0b based on the reception of the drawing list in which the above-mentioned decoding designation information is set.

かかる処理によれば、第1ラウンド動画又は第2ラウンド動画の再生中である場合には、動画用オブジェクトが描画対象として設定された描画リストが作成される一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中は、挿入用オブジェクトが描画対象として設定された描画リストが作成される。この場合、1の描画リストに、動画用オブジェクトと挿入用オブジェクトとの双方が設定されないようになっている。   According to this process, when the first round moving image or the second round moving image is being reproduced, the drawing list in which the moving object is set as the drawing target is created, while the end timing of the first round moving image During the period between the start timing of the second round moving image, a drawing list in which the insertion object is set as the drawing target is created. In this case, both of the moving image object and the insertion object are not set in one drawing list.

ちなみに、ステップS3919及びステップS3920の処理を実行した処理回に対して次の処理回以降は、ステップS3908〜ステップS3911の処理が実行される。これにより、第2ラウンド動画に係る静止画像データが動画用オブジェクトに対してマッピングされる画像データとして設定されることとなる。   Incidentally, the processing of step S3908 to step S3911 is executed after the next processing cycle with respect to the processing cycle of executing the processing of step S3919 and step S3920. As a result, still image data relating to the second round moving image is set as image data to be mapped to the moving object.

以上説明した通り、ラウンド演出用の演算処理では、1処理回毎に今回の描画対象が設定される。これにより、1処理回毎に描画リストが設定され、VDP135では1処理回毎に画像が更新されるように描画処理が実行される。つまり、1フレーム毎に画像の更新が行われ、ラウンド動画が再生される期間に亘って、フレームレートは同一に設定されている。   As described above, in the calculation processing for round effect, the current drawing target is set for each processing. Thus, the drawing list is set for each process, and the VDP 135 executes the drawing process so that the image is updated for each process. That is, the image is updated for each frame, and the frame rate is set to be the same throughout the period in which the round moving image is reproduced.

次に、本別形態におけるラウンド演出用の設定処理について図67(a)のフローチャートを用いて説明する。本別形態におけるラウンド演出用の設定処理は、受信した描画リストにラウンド演出指定情報が設定されている場合には、起動するよう構成されている。   Next, setting processing for round effect in the present embodiment will be described with reference to the flowchart of FIG. The setting process for the round effect in the present embodiment is configured to be activated when the round effect designating information is set in the received drawing list.

先ず、ステップS4001では、描画対象となるオブジェクトを把握する。具体的には、第1ラウンド動画又は第2ラウンド動画が再生中である場合には、動画用オブジェクトが把握される。一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中である場合には、挿入用オブジェクトが把握される。   First, in step S4001, an object to be rendered is grasped. Specifically, when the first round moving image or the second round moving image is being reproduced, the moving image object is grasped. On the other hand, when it is in the period between the end timing of the first round moving image and the start timing of the second round moving image, the insertion object is grasped.

その後、ステップS4002にて、描画リストに基づいて、描画対象のオブジェクトに適用されるパラメータを把握する。その後、ステップS4003にて、上記ステップS4001にて把握された動画用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。   After that, in step S4002, based on the drawing list, the parameters applied to the object to be drawn are grasped. Thereafter, in step S4003, processing for setting the world coordinate system is performed on the moving image object grasped in step S4001, and this setting processing is ended.

次に、本別形態のラウンド演出用マッピング処理を図67(b)のフローチャートを用いて説明する。   Next, the round effect mapping process according to the present embodiment will be described with reference to the flowchart of FIG.

先ず、ステップS4101では、描画対象となるオブジェクトに対して適用されるパラメータのうち、マッピングする画像データ(テクスチャ)のアドレスを把握する。この場合、描画リストに動画用オブジェクトが設定されている場合には、フレーム番号に対応した静止画像データのアドレスを把握する一方、描画リストに挿入用オブジェクトが設定されている場合には、今回のラウンド遊技に対応した挿入画像データIPD0のアドレスを把握する。   First, in step S4101, among the parameters applied to the object to be rendered, the address of the image data (texture) to be mapped is grasped. In this case, when the moving object is set in the drawing list, the address of the still image data corresponding to the frame number is grasped, while when the insertion object is set in the drawing list, The address of the inserted image data IPD0 corresponding to the round game is grasped.

続くステップS4102では、上記ステップS4101にて把握されたアドレスに基づいて、マッピングする画像データ(テクスチャ)を把握する。そして、ステップS4103では、描画対象となるオブジェクトに対して上記ステップS4102にて把握された画像データをマッピングして、本マッピング処理を終了する。   In the subsequent step S4102, the image data (texture) to be mapped is grasped based on the address grasped in the step S4101. Then, in step S4103, the image data grasped in step S4102 is mapped to the object to be drawn, and the mapping processing is ended.

次に、本別形態におけるラウンド演出の実行態様を図68のタイムチャートを用いて説明する。図68(a)は第1ラウンド動画の再生期間を示すタイムチャート、図68(b)は挿入画像の表示期間を示すタイムチャート、図68(c)は第2ラウンド動画の再生期間を示すタイムチャートである。   Next, the execution mode of the round effect in the present embodiment will be described using the time chart of FIG. FIG. 68 (a) is a time chart showing the playback period of the first round moving image, FIG. 68 (b) is a time chart showing the display period of the inserted image, and FIG. 68 (c) is the time showing the playback period of the second round moving image It is a chart.

先ず、図68(a)に示すように、ラウンド遊技の開始タイミングであるt11のタイミングにて、表示面Gにて第1ラウンド動画の再生が開始される。そして、t12のタイミングにて第1ラウンド動画が終了すると、図68(a)及び図68(b)に示すように、表示面Gには、第1ラウンド動画に代えて挿入画像データIPD0に係る挿入画像が表示される。詳細には、第2背景画像BP2に重なるようにして、第1挿入キャラクタ画像IP1又は第2挿入キャラクタ画像IP2が表示される。   First, as shown in FIG. 68A, the reproduction of the first round moving image on the display surface G is started at the timing of t11 which is the start timing of the round game. Then, when the first round moving image ends at the timing of t12, as shown in FIGS. 68 (a) and 68 (b), the display surface G relates to the insertion image data IPD0 instead of the first round moving image. The insert image is displayed. Specifically, the first inserted character image IP1 or the second inserted character image IP2 is displayed so as to overlap the second background image BP2.

その後、図68(b)及び図68(c)に示すように、t13のタイミングにて挿入画像に代えて第2ラウンド動画が開始され、t14のタイミングにて当該第2ラウンド動画が終了する。これにより、表示面Gにて、第1ラウンド動画→挿入画像→第2ラウンド動画の順に画像が表示される1連のラウンド演出が行われることとなる。   Thereafter, as shown in FIGS. 68B and 68C, a second round moving image is started instead of the insertion image at the timing of t13, and the second round moving image ends at the timing of t14. As a result, on the display surface G, a series of round effects in which images are displayed in the order of first round moving image → inserted image → second round moving image are performed.

そして、次のラウンド遊技の開始タイミングであるt15のタイミングにて、再度第1ラウンド動画から順次再生される。   Then, at the timing of t15 which is the start timing of the next round game, the first round moving image is sequentially reproduced again.

以上詳述した本実施の形態によれば、1連のラウンド動画に係るラウンド動画像データRMD0を、ラウンド動画中の動きの激しさに応じて複数の単位データ(第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0b)に分割した。そして、各ラウンド動画像データRMD0a,RMD0b毎にビットレートを調整することにより、ラウンド動画像データRMD0を予め定められたデータ量に設定しつつ、効率的な画質調整を行うことができる。   According to this embodiment described in detail above, round moving image data RMD0 relating to a series of round moving images is divided into a plurality of unit data (first round moving image data RMD0a and RMD0a according to the intensity of movement in the round moving image). It divided into 2nd round moving image data RMD0 b). Then, by adjusting the bit rate for each round moving image data RMD0a, RMD0b, it is possible to perform efficient image quality adjustment while setting the round moving image data RMD0 to a predetermined data amount.

詳細には、第1ラウンド動画中の動きが比較的激しいことに起因して差分データが比較的大きくなり易いことが想定される第1ラウンド動画像データRMD0aに対しては、比較的高いビットレートでエンコード処理を行うことにより、第1ラウンド動画の画質を維持することができる。一方、第2ラウンド動画中の動きが比較的穏やかであることに起因して差分データが比較的小さくなり易いことが想定される第2ラウンド動画像データRMD0bに対しては、比較的低いビットレートでエンコード処理を行うことにより、画質を維持しつつ、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。   More specifically, the bit rate is relatively high for the first round moving image data RMD0a where it is assumed that the difference data is likely to be relatively large due to relatively strong movement in the first round moving image. The image quality of the first round moving image can be maintained by performing the encoding process at step S. On the other hand, with respect to the second round moving image data RMD 0 b where it is assumed that the difference data is likely to be relatively small due to the relatively gentle movement in the second round moving image, the bit rate is relatively low. By performing the encoding process, it is possible to reduce the data amount of the second round moving image data RMD0b while maintaining the image quality.

特に、ラウンド動画像データRMD0のデータ量を抑える点に着目すれば、ラウンド動画のフレームレート、具体的には画像の更新タイミングを抑制することも考えられる。しかしながら、フレームレートを変更する構成とすると、現状のフレームレートを把握するための処理等のフレームレートを変更するための処理が別途必要なり、処理負荷の増大化及び上記処理に係るプログラム容量の増大化が懸念される。   In particular, in view of suppressing the data amount of the round moving image data RMD0, it may be considered to suppress the frame rate of the round moving image, specifically, the update timing of the image. However, if the configuration is such that the frame rate is changed, processing for changing the frame rate, such as processing for grasping the current frame rate, is additionally required, which increases the processing load and increases the program capacity related to the above processing. Is a concern.

これに対して、本別形態によれば、上記フレームレートの変更に係る処理を実行することなく、ラウンド動画像データRMD0のデータ量を抑制することができる。すなわち、データ量の削減を、処理により補償する構成ではなく圧縮態様で実現している。これにより、パチンコ機10に係る処理負荷の増大化を抑制しつつ、ラウンド動画像データRMD0のデータ量の削減を図ることができる。   On the other hand, according to the present embodiment, it is possible to suppress the data amount of the round moving image data RMD0 without executing the process related to the change of the frame rate. That is, the reduction of the data amount is realized not in a configuration to compensate by processing but in a compression mode. As a result, it is possible to reduce the data amount of the round moving image data RMD0 while suppressing an increase in the processing load related to the pachinko machine 10.

また、エンコード処理が行われた動画像データのデータ量は、差分データのデータ量に関わらずビットレートに依存する。つまり、エンコーダは、差分データのデータ量に関わらず動画像データのデータとしてビットレートに対応したデータ量を確保することとなる。この場合、差分データが小さくなり易いことが想定される動画に対して比較的高いビットレートでエンコード処理を行った場合、実際には何もデータが格納されていない無駄なデータ量を確保することとなり、データ量の無駄が発生する。これに対して、本別形態によれば、上記無駄なデータの発生を抑制することができるため、データ量の削減を図ることができる。   Further, the data amount of the moving image data subjected to the encoding process depends on the bit rate regardless of the data amount of the difference data. That is, the encoder secures a data amount corresponding to the bit rate as data of moving image data regardless of the data amount of differential data. In this case, when encoding processing is performed at a relatively high bit rate on a moving image for which difference data is likely to be small, it is necessary to secure an unnecessary amount of data in which no data is actually stored. And waste of data volume occurs. On the other hand, according to the present alternative embodiment, since the generation of the useless data can be suppressed, the amount of data can be reduced.

また、第1ラウンド動画と第2ラウンド動画との間に挿入画像を表示させ、当該挿入画像を、現在のラウンド演出に係るラウンドに応じて異ならせる構成とした。これにより、1のラウンド動画像データRMD0を用いて、複数態様のラウンド演出を行うことができる。よって、複数態様のラウンド演出を好適に行いつつ、データ量の削減を図ることができる。   Further, the insertion image is displayed between the first round moving image and the second round moving image, and the insertion image is configured to be different according to the round related to the current round effect. Thereby, a plurality of round effects can be performed using one round moving image data RMD0. Therefore, reduction of data volume can be aimed at, performing suitably a round effect of a plurality of modes.

さらに、第1ラウンド動画像データRMD0aをデコードするタイミングと、第2ラウンド動画像データRMD0bをデコードするタイミングとが異なるため、ラウンド動画を再生するためのデコードに係る処理負荷が分散されている。これにより、局所的な処理負荷の増大に起因する処理落ちの発生を抑制することができる。   Furthermore, since the timing for decoding the first round moving image data RMD0a is different from the timing for decoding the second round moving image data RMD0b, the processing load for decoding for reproducing the round moving image is distributed. As a result, it is possible to suppress the occurrence of processing drops due to an increase in local processing load.

なお、本別形態では、ラウンド動画中において場面が切り換わることにより、動きの激しさや複雑さが異なる構成としたが、これに限られず、場面の切り換わりと、動きの激しさ等とが、同期しない構成としてもよい。この場合、場面の切り換わり毎に動画像データを分割する構成としてもよい。これにより、各場面毎に複数の単位動画像データを用意し、これら単位動画像データを組み合わせることにより、一連のラウンド動画の多様化を図ることができる。また、組み合わせ毎に一連の動画像データを用意する構成と比較して、動画像データに係るデータ量の削減を図ることができる。但し、ビットレートの割り当てを好適に行うことができる観点に着目すれば、動きの激しさ等を基準にラウンド動画像データRMD0を分割する構成の方が好ましい。   In this embodiment, the intensity and complexity of the motion are different by switching the scene during the round moving image, but the present invention is not limited to this, and the switching of the scene, the intensity of the motion, etc. The configuration may not be synchronized. In this case, moving image data may be divided every time a scene is switched. As a result, by preparing a plurality of unit moving image data for each scene and combining these unit moving image data, it is possible to diversify a series of round moving images. Further, as compared with the configuration in which a series of moving image data is prepared for each combination, it is possible to reduce the data amount related to moving image data. However, from the viewpoint of being able to suitably allocate the bit rate, it is preferable to divide the round moving image data RMD0 on the basis of the intensity of the movement or the like.

また、1のラウンド動画を2つの動画像データに分割したが、これに限られず、3つ以上の動画像データに分割する構成としてもよい。但し、動画像データの特性上、1の動画像データ中に、差分データの基準となる規準データが設けられている必要がある。当該基準データは、圧縮対象とはならない又は圧縮するとしても圧縮率が差分データと比較して小さい。このため、ラウンド動画像データRMD0全体のデータ量が却って増大化するおそれがある。よって、1のラウンド動画像データRMD0を複数の動画像データに分割することに起因する基準データの増加と、ビットレートとの調整によるラウンド動画像データRMD0全体のデータ量の削減と、の関係を考慮して、動画像データの分割態様を決定するとよい。具体的には、分割によって生じ得る基準データの増加に起因するデータ量の増加量が、分割した動画像データのビットレート調整により確保可能なデータ量の削減量よりも小さい場合には、動画像データを分割し、上記増加量が上記削減量よりも大きい場合には、分割することなく1の動画像データとして扱うとよい。   Further, although one round moving image is divided into two moving image data, the present invention is not limited to this, and may be divided into three or more moving image data. However, due to the characteristics of moving image data, it is necessary to provide reference data as a reference of differential data in one moving image data. The reference data is not to be compressed or compressed, but the compression ratio is small compared to the differential data. For this reason, there is a possibility that the data amount of the whole round moving image data RMD0 may be increased. Therefore, the relationship between the increase of reference data due to dividing one round moving image data RMD0 into a plurality of moving image data and the reduction of the data amount of the entire round moving image data RMD0 by adjustment with the bit rate It is preferable to determine the division mode of moving image data in consideration of this. Specifically, if the increase in the amount of data due to the increase in reference data that may occur due to division is smaller than the amount of reduction in the amount of data that can be secured by adjusting the bit rate of the divided moving image data, the moving image The data may be divided, and when the increase amount is larger than the reduction amount, it may be treated as one moving image data without division.

また、各ラウンド動画像データRMD0a,RMD0bは基準データのデータ量が同一であると仮定したが、これに限られず、異なる構成であってもよい。また、各ラウンド動画像データRMD0a,RMD0bにより再生される各ラウンド動画の再生時間は同一と仮定したが、これに限られず、異なる構成であってもよい。これらの場合であっても、各ラウンド動画像データRMD0a,RMD0bに係るビットレートを調整することにより、ラウンド動画像データRMD0全体のデータ量を好適に調整することができる。   In addition, although it is assumed that the round moving image data RMD0a and RMD0b have the same data amount of the reference data, the present invention is not limited to this, and different configurations may be employed. In addition, although it is assumed that the reproduction time of each round moving image reproduced by each round moving image data RMD0a and RMD0b is the same, the present invention is not limited to this, and different configurations may be adopted. Even in these cases, the data amount of the entire round moving image data RMD0 can be suitably adjusted by adjusting the bit rate related to each round moving image data RMD0a, RMD0b.

また、第1ラウンド動画と第2ラウンド動画との間に所定の期間を設ける構成としたが、これに限られず、例えば第1ラウンド動画と第2ラウンド動画とを連続して表示させる構成としてもよい。この場合、挿入画像を表示しない構成としてもよく、第1ラウンド動画中、第2ラウンド動画中、又は各ラウンド動画に跨って挿入画像を表示する構成としてもよい。   In addition, although the predetermined period is provided between the first round moving image and the second round moving image, the present invention is not limited to this. For example, the first round moving image and the second round moving image may be displayed continuously. Good. In this case, the insertion image may not be displayed, or may be displayed during the first round moving image, during the second round moving image, or across each round moving image.

<砂浜背景画像を表示するための構成及び砂浜疾走演出を行うための構成>
次に、砂浜背景を表示するための構成及び砂浜疾走演出を行うための構成について説明する。
<Composition for displaying a sandy beach background image and composition for performing a beach sprinting effect>
Next, a configuration for displaying a sandy beach background and a configuration for performing a sandy beach running effect will be described.

砂浜背景画像は、砂浜から海を見た場合の画像であり、所定の周期で波が砂浜に打ち寄せられている様子を示す画像である。砂浜背景画像は、図柄の変動表示が行われる場合の背景画像として用いられる。   The sandy beach background image is an image when the sea is viewed from the sandy beach, and is an image showing a state in which a wave is hit on the sandy beach at a predetermined cycle. The sandy beach background image is used as a background image when the variable display of symbols is performed.

砂浜疾走演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。詳細には、砂浜疾走演出は、開閉実行モードに移行する場合に実行される演出抽選処理にて当該砂浜疾走演出を行うことに当選した場合に実行される演出である。   The sandy beach sprint effect is an effect that can be executed when a round game in the open / close execution mode is being performed. In detail, the sandy beach sprint effect is an effect executed when the sandy beach sprint effect is won in the effect lottery process executed when shifting to the opening / closing execution mode.

砂浜疾走演出は、複数の図柄画像が砂浜を疾走する演出である。当該演出では、砂浜背景画像に描かれた風景を別の角度、詳細には当該風景をローアングルから見た場合の画像が背景画像として用いられる。   The beach sprinting effect is an effect in which a plurality of pattern images sprinting on a beach. In the said production | presentation, the image at the time of seeing the scenery drawn on the sandy beach background image from another angle, and in detail, seeing the said scenery from a low angle is used as a background image.

ここで、本パチンコ機10には、投影パターンとして透視投影と平行投影とが設定されており、表示する画像の内容に応じてこれらの投影パターンを使い分けている。透視投影とは、ワールド座標系に配置された各オブジェクトを所定の視点から見た状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点が所定の視点に向けて直線的に移動するように投影することをいう。これにより、視点からの距離に応じて各オブジェクトに係る画像は変化するように表示される。   Here, in the pachinko machine 10, perspective projection and parallel projection are set as projection patterns, and these projection patterns are used properly according to the contents of the image to be displayed. Perspective projection means that each object placed in the world coordinate system is projected from a predetermined viewpoint, and more specifically, the vertex of each polygon of each object is linearly directed to a predetermined viewpoint. It says to project to move. As a result, the image related to each object is displayed so as to change according to the distance from the viewpoint.

これに対して、平行投影は、各オブジェクトをスクリーン領域PC12から見たそのままの状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に移動するように投影することをいう。これにより、所定の視点からの距離に関わらず、各オブジェクトの各画像は常に一定の大きさで表示される。これらの投影パターンの使い分けについては後述する。   On the other hand, parallel projection means that each object is projected as it is viewed from the screen area PC12. Specifically, the vertex of each polygon of each object moves perpendicularly to the screen area PC12. It says to project as. Thus, each image of each object is always displayed with a fixed size regardless of the distance from a predetermined viewpoint. The use of these projection patterns will be described later.

砂浜背景画像の表示に際しては、複数のオブジェクトと、当該各オブジェクトそれぞれに対応させて設定された複数のテクスチャが用いられる。   When displaying the sandy beach background image, a plurality of objects and a plurality of textures set corresponding to the respective objects are used.

砂浜背景画像の表示に用いられる複数のオブジェクトについて図69を用いて説明する。図69は各オブジェクトOB1〜OB4を説明するための説明図である。   A plurality of objects used for displaying a sandy beach background image will be described with reference to FIG. FIG. 69 is an explanatory diagram for describing the objects OB1 to OB4.

なお、以降の説明において、特に断りがない限り、ワールド座標系を基準として説明し、視点は+Z方向を向いているとする。   In the following description, unless otherwise noted, the description is based on the world coordinate system, and it is assumed that the viewpoint points in the + Z direction.

図69(a)に示すように、砂浜背景画像の表示に係るオブジェクトとして、砂浜を表示にするのに用いられる砂浜オブジェクトOB1、波を表示するのに用いられる波オブジェクトOB2、海を表示するのに用いられる海オブジェクトOB3及び空を表示するのに用いられる空オブジェクトOB4が設定されている。各オブジェクトOB1〜OB4は矩形の板ポリゴンで構成されており、その長手方向のサイズはスクリーン領域PC12の長手方向のサイズよりも大きく設定されている。   As shown in FIG. 69A, a beach object OB1 used to display a beach, a wave object OB2 used to display a wave, and a sea are displayed as objects related to the display of a beach background image. The sea object OB3 used for and the sky object OB4 used for displaying the sky are set. Each of the objects OB1 to OB4 is formed of a rectangular plate polygon, and the size in the longitudinal direction is set larger than the size in the longitudinal direction of the screen area PC12.

各オブジェクトOB1〜OB4は、特定視点PV1から透視投影された場合に、砂浜から見た海の映像となるように配置される。具体的には、ワールド座標系における特定視点PV1から見て奥行き方向(+Z方向)に向かって、砂浜オブジェクトOB1、波オブジェクトOB2、海オブジェクトOB3、空オブジェクトOB4の順番に配置されるように各オブジェクトOB1〜OB4の座標が設定されている。   Each of the objects OB1 to OB4 is arranged so as to be an image of the sea viewed from a sandy beach when perspectively projected from the specific viewpoint PV1. Specifically, each object is arranged so that the sandy beach object OB1, the wave object OB2, the sea object OB3 and the sky object OB4 are sequentially arranged in the depth direction (+ Z direction) viewed from the specific viewpoint PV1 in the world coordinate system Coordinates of OB1 to OB4 are set.

また、図69(b)に示すように、砂浜オブジェクトOB1、波オブジェクトOB2及び海オブジェクトOB3はスクリーン領域PC12(投影平面)に対して傾斜して配置されている。これにより、特定視点PV1から透視投影した場合に、各オブジェクトOB1〜OB3により表示される個別画像毎に遠近感(奥行き感)を付与することができる。   Further, as shown in FIG. 69 (b), the sandy beach object OB1, the wave object OB2, and the sea object OB3 are arranged to be inclined with respect to the screen area PC12 (projection plane). As a result, when perspective projection is performed from the specific viewpoint PV1, it is possible to give a sense of perspective (a sense of depth) to each of the individual images displayed by the objects OB1 to OB3.

また、隣接するオブジェクトの一部がオーバーラップして重なり合うように配置されており、各オブジェクトOB1〜OB3が連続している。具体的には、波オブジェクトOB2の手前側の端部が砂浜オブジェクトOB1の奥側の端部の上に重なっており、海オブジェクトOB3の手前側の端部が波オブジェクトOB2の奥側の端部の上に重なっている。この場合、波オブジェクトOB2は、砂浜オブジェクトOB1及び海オブジェクトOB3に対してオーバーラップしているため、波オブジェクトOB2が傾斜方向に移動しても各オブジェクトOB1〜OB3間の連続性は確保されている。   In addition, parts of adjacent objects are arranged so as to overlap and overlap, and the objects OB1 to OB3 are continuous. Specifically, the front end of the wave object OB2 overlaps the back end of the sandy object OB1, and the front end of the sea object OB3 is the back end of the wave object OB2. Overlapping on the In this case, since the wave object OB2 overlaps the beach object OB1 and the sea object OB3, the continuity between the objects OB1 to OB3 is ensured even if the wave object OB2 moves in the inclination direction. .

なお、空オブジェクトOB4は、海オブジェクトOB3の奥側の端部から連続するように配置されている。当該空オブジェクトOB4は+Y方向に起立して配置されている。   The sky object OB4 is arranged to be continuous from the end on the back side of the sea object OB3. The empty object OB4 is arranged upright in the + Y direction.

各オブジェクトOB1〜OB4に対応させて、複数のテクスチャTD1〜TD4が設けられている。これら各テクスチャTD1〜TD4について図70を用いて説明する。図70は、各テクスチャTD1〜TD4を説明するための説明図である。なお、図面の関係上、各テクスチャTD1〜TD4のうち一部を示す。また、2点鎖線は投影領域を示す。   A plurality of textures TD1 to TD4 are provided corresponding to the objects OB1 to OB4. Each of the textures TD1 to TD4 will be described with reference to FIG. FIG. 70 is an explanatory diagram for describing the textures TD1 to TD4. Note that some of the textures TD1 to TD4 are shown for the sake of illustration. Moreover, a dashed-two dotted line shows a projection area | region.

図70に示すように、各テクスチャTD1〜TD4は、各オブジェクトOB1〜OB4に対応させて矩形の画像データとして設定されている。各テクスチャTD1〜TD4には、それぞれ貼り付けられるオブジェクトに対応した画像が描かれており、具体的には、砂浜オブジェクトOB1に対応するテクスチャとして砂浜が描かれた砂浜テクスチャTD1が設けられており、波オブジェクトOB2に対応するテクスチャとして波が描かれた波テクスチャTD2が設けられており、海オブジェクトOB3に対応するテクスチャとして海が描かれた海テクスチャTD3が設けられており、空オブジェクトOB4に対応するテクスチャとして空が描かれた空テクスチャTD4が設けられている。   As shown in FIG. 70, the textures TD1 to TD4 are set as rectangular image data in association with the objects OB1 to OB4. In each of the textures TD1 to TD4, an image corresponding to an object to be attached is drawn, and specifically, a sandy beach texture TD1 on which a sandy beach is drawn as a texture corresponding to the sandy object OB1 is provided, A wave texture TD2 in which a wave is drawn as a texture corresponding to the wave object OB2 is provided, and a sea texture TD3 in which a sea is drawn as a texture corresponding to the sea object OB3 is provided, and corresponds to an empty object OB4 An empty texture TD4 in which the sky is drawn is provided as the texture.

ここで、各テクスチャTD1〜TD4は、特定視点PV1から各オブジェクトOB1〜OB3を見た場合に奥行き感のある砂浜背景画像となるように設定されている。具体的には、特定視点PV1から実際に見た場合の映像に対応したものであって、全体として所定のパースペクティブが掛かった(遠近感が生じる)画像データが各テクスチャTD1〜TD4として設定されている。この場合、各テクスチャTD1〜TD4は、各オブジェクトOB1〜OB4により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、特定視点PV1と各オブジェクトOB1〜OB4との距離に対応させて設定されている。これにより、各オブジェクトOB1〜OB4が連続して配置されている状況において特定視点PV1から各オブジェクトOB1〜OB4を透視投影した場合に、パースペクティブの整合性が取れた奥行き感のある砂浜背景画像が生成されることとなる。   Here, the textures TD1 to TD4 are set to be sandy beach background images with a sense of depth when the objects OB1 to OB3 are viewed from the specific viewpoint PV1. Specifically, image data corresponding to an image actually viewed from the specific viewpoint PV1 and having a predetermined perspective as a whole (a perspective is generated) is set as the textures TD1 to TD4. There is. In this case, the textures TD1 to TD4 correspond to the distance between the specific viewpoint PV1 and the objects OB1 to OB4 so that the perspectives (perspectives) between the individual images displayed by the objects OB1 to OB4 match. Is set. Thereby, when perspective-projecting each object OB1-OB4 from the specific viewpoint PV1 in a situation where each object OB1-OB4 is arranged continuously, a sandy beach background image with a sense of depth with a consistent perspective is generated It will be done.

以上の通り、各オブジェクトOB1〜OB4を連続させながらスクリーン領域PC12(YZ平面)に対して傾けて配置するとともに、当該各オブジェクトOB1〜OB4に対して貼り付ける各テクスチャTD1〜TD4として、特定視点PV1から見た映像に対応したものであって、全体として所定のパースペクティブが掛かるように各個別画像間のパースペクティブの整合性を取った画像データを用いることにより、板ポリゴンを用いて奥行き感のある砂浜背景画像を作成することができる。これにより、比較的少ない処理負荷及びデータ量で、現実感のある画像を遊技者に対して視認させることができる。   As described above, the specific viewpoints PV1 are arranged as textures TD1 to TD4 to be attached to the objects OB1 to OB4 while being inclined to the screen area PC12 (YZ plane) while continuously arranging the objects OB1 to OB4. The image corresponds to the image viewed from the perspective, and by using the image data in which the perspective consistency between each individual image is taken such that a predetermined perspective is taken as a whole, a sandy beach with a sense of depth using a plate polygon Background images can be created. As a result, it is possible to make a player visually recognize a realistic image with relatively small processing load and data amount.

ちなみに、各個別画像に係るパースペクティブは、各テクスチャTD1〜TD4の画像データよりも、特定視点PV1及び各オブジェクトOB1〜OB4間の距離の方が支配的になっている。つまり、各個別画像に係るパースペクティブは、上記距離の変化に対して大きく変化する。   Incidentally, in the perspective relating to each individual image, the distance between the specific viewpoint PV1 and each object OB1 to OB4 is dominant over the image data of each texture TD1 to TD4. That is, the perspective of each individual image changes significantly with respect to the change of the distance.

次に、砂浜疾走演出について説明する。   Next, the sandy beach running effect will be described.

砂浜疾走演出とは、連続する複数フレームに亘って、複数の図柄画像が所定の方向に向けて砂浜を走っているように表示される演出である。この演出では、砂浜背景画像を表示するのに用いた各オブジェクトOB1〜OB4及び各テクスチャTD1〜TD4が用いられる。   A sandy beach sprint effect is an effect in which a plurality of symbol images are displayed as running on a sandy beach in a predetermined direction over a plurality of continuous frames. In this effect, objects OB1 to OB4 and textures TD1 to TD4 used to display the sandy beach background image are used.

ここで、砂浜疾走演出で用いられる背景画像(以降、砂浜背景画像と区別するために演出用背景画像という)は、砂浜背景画像とは視点が異なっている。このため、特定視点PV1に基づいて決定された各テクスチャTD1〜TD4を用いると、パースペクティブの整合性が取れなくなり、違和感のある画像となってしまう。   Here, the background image used in the sandy beach running effect (hereinafter, referred to as an effect background image to distinguish it from the sandy beach background image) has a different viewpoint from the sandy beach background image. For this reason, if the textures TD1 to TD4 determined based on the specific viewpoint PV1 are used, the consistency of the perspectives can not be obtained, and an image having a sense of incongruity will be obtained.

当該現象について図71を用いて説明する。図71は、パースペクティブの変化を説明するための説明図である。なお、説明の便宜上、波オブジェクトOB2及び空オブジェクトOB4を省略し、砂浜オブジェクトOB1及び海オブジェクトOB3を連続させたもので説明する。   The said phenomenon is demonstrated using FIG. FIG. 71 is an explanatory diagram for explaining a change in perspective. In addition, for convenience of explanation, the wave object OB2 and the sky object OB4 are omitted, and the beach object OB1 and the sea object OB3 are described as being continuous.

既に説明した通り、砂浜オブジェクトOB1及び海オブジェクトOB3はスクリーン領域PC12に対して傾斜しているため、特定視点PV1及び各オブジェクトOB1,OB3間の距離は、各オブジェクトOB1,OB3の部位に応じて異なっている。具体的には、特定視点PV1から砂浜オブジェクトOB1の手前側の端部までの距離R1、特定視点PV1から海オブジェクトOB3の手前側の端部までの距離R2、特定視点PV1から海オブジェクトOB3の奥側の端部までの距離R3、の順に大きくなっている(R1<R2<R3)。かかる状況において、特定視点PV1を視点として透視投影を行うことにより、各距離R1〜R3に応じたパースペクティブが掛かった画像が得られる。   As described above, since the sandy beach object OB1 and the sea object OB3 are inclined with respect to the screen area PC12, the distance between the specific viewpoint PV1 and the objects OB1 and OB3 differs depending on the part of each object OB1 and OB3. ing. Specifically, the distance R1 from the specific viewpoint PV1 to the front end of the beach object OB1, the distance R2 from the specific viewpoint PV1 to the front end of the sea object OB3, the depth from the specific viewpoint PV1 to the sea object OB3 The distance R3 to the side end increases in the order (R1 <R2 <R3). In such a situation, by performing perspective projection with the specific viewpoint PV1 as a viewpoint, an image with perspectives corresponding to the respective distances R1 to R3 can be obtained.

この場合、パースペクティブの掛かり具合は各距離R1〜R3の比率に依存している。具体的には、距離R1に対する距離R2の比率が高いほど砂浜オブジェクトOB1のパースペクティブはより掛かる。そして、距離R2に対する距離R3の比率が高いほど海オブジェクトOB3のパースペクティブはより掛かる。   In this case, the depth of the perspective depends on the ratio of each of the distances R1 to R3. Specifically, the perspective of the sandy beach object OB1 takes longer as the ratio of the distance R2 to the distance R1 is higher. And, as the ratio of the distance R3 to the distance R2 is higher, the perspective of the sea object OB3 takes longer.

また、砂浜オブジェクトOB1及び海オブジェクトOB3に対して貼り付けられる各テクスチャTD1、TD3は、各オブジェクトOB1,OB3(実際には波オブジェクトOB2も含む)により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、上記比率を考慮して設定されている。これにより、パースペクティブの整合性が取れた画像を表示させることが可能となっている。   The textures TD1 and TD3 attached to the beach object OB1 and the sea object OB3 are perspectives (perspectives) between the individual images displayed by the objects OB1 and OB3 (actually including the wave object OB2). Is set in consideration of the above ratio so as to match. This makes it possible to display an image in which the perspective is consistent.

ここで、視点を特定視点PV1から−Y方向に移動させて別視点PV2に設定した場合、各距離R1〜R3がそれぞれ距離R1’〜R3’に変化し、上記比率が変化する。これにより、透視投影した場合のパースペクティブの掛かり具合が異なることとなる。すると、距離R1〜R3に合わせて設定された各テクスチャTD1,TD3を用いると、各オブジェクトOB1,OB3間におけるパースペクティブの整合性が取れなくなる。これにより、全体として違和感のある画像となる。   Here, when the viewpoint is moved in the −Y direction from the specific viewpoint PV1 and set as another viewpoint PV2, the distances R1 to R3 change to distances R1 ′ to R3 ′, respectively, and the ratio changes. As a result, the depth of perspective when perspective projection is different. Then, if the textures TD1 and TD3 set according to the distances R1 to R3 are used, the perspective consistency between the objects OB1 and OB3 can not be obtained. As a result, an image that is uncomfortable as a whole is obtained.

特に、各オブジェクトOB1,OB3を所定の方向に移動させて画像の更新を行う場合には、各オブジェクトOB1,OB3に係る画像のパースペクティブが異なることに起因する違和感が目立ち易い。具体的には、奥側に表示されている海が、手前側に表示されている砂浜よりも速く移動したりする。   In particular, when the images are updated by moving the objects OB1 and OB3 in a predetermined direction, the sense of incongruity caused by the different perspectives of the images related to the objects OB1 and OB3 tends to be noticeable. Specifically, the sea displayed on the back side moves faster than the sand beach displayed on the front side.

また、視点から画角を変更すると、パースペクティブの掛かり具合が異なることとなるため、上記パースペクティブのずれが目立ち易くなる。   In addition, when the angle of view is changed from the viewpoint, the perspective of the perspective is different, so the deviation of the perspective becomes noticeable.

これに対して、本実施の形態では、演出用背景画像を作成する場合には、透視投影に代えて平行投影を行う構成とし、さらに奥行き方向の距離に応じて各オブジェクトOB1,OB3のサイズを調整する構成とした。これらの構成について図72を用いて説明する。図72は、演出用背景画像を作成する場合の各オブジェクトOB1,OB3の設定態様を説明するための説明図である。   On the other hand, in the present embodiment, when creating a background image for effect, parallel projection is performed instead of perspective projection, and the sizes of the objects OB1 and OB3 are set according to the distance in the depth direction. It was set as the composition to adjust. These configurations will be described with reference to FIG. FIG. 72 is an explanatory diagram for describing a setting mode of the objects OB1 and OB3 in the case of creating a background image for effect.

平行投影とは、既に説明した通り、各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に直線的に移動するように投影する手法である。当該平行投影を行う場合、視点からの距離に依存しない画像、すなわち遠近感がない画像が表示される。   Parallel projection is a method of projecting so that the vertex of each polygon of each object moves linearly and perpendicularly to the screen area PC 12 as described above. When the parallel projection is performed, an image independent of the distance from the viewpoint, that is, an image without a sense of perspective is displayed.

具体的には、砂浜オブジェクトOB1及び海オブジェクトOB3を平行投影すると、スクリーン領域PC12には、海オブジェクトOB3が砂浜オブジェクトOB1よりも奥側にあるのにも関わらず、両者が視点からの距離に対応したサイズ調整がなされることなく表示される。これにより、両者の間に生じ得るパースペクティブのずれが軽減されることとなる。   Specifically, when the beach object OB1 and the sea object OB3 are parallel-projected, both correspond to the distance from the viewpoint in the screen area PC12 although the sea object OB3 is behind the beach object OB1. It is displayed without the size adjustment being made. This reduces perspective deviation that may occur between the two.

特に、各個別画像に係るパースペクティブは、各テクスチャTD1,TD3に係るパースペクティブよりも、視点及び各オブジェクトOB1,OB3間の距離に基づくパースペクティブの方が支配的となっているため、上記距離の変化に基づくパースペクティブのずれは目立ち易い。   In particular, since the perspective of each individual image is dominated by the perspective based on the viewpoint and the distance between the objects OB1 and OB3 rather than the perspective of the textures TD1 and TD3, Deviations based on perspective are noticeable.

これに対して、平行投影を行うことにより、上記距離に基づくパースペクティブ自体が付加されないため、パースペクティブのずれを軽減することが可能となる。   On the other hand, by performing parallel projection, the perspective based on the above distance is not added, so it is possible to reduce perspective deviation.

なお、この場合、各テクスチャTD1,TD3に基づくパースペクティブは反映されるが、当該パースペクティブのずれは、上記距離に基づくパースペクティブのずれよりも目立ちにくい。このため、遊技者としては違和感を抱きにくい。   In this case, although the perspective based on each of the textures TD1 and TD3 is reflected, the deviation of the perspective is less noticeable than the deviation of the perspective based on the distance. Therefore, it is difficult for the player to feel discomfort.

なお、各テクスチャTD1,TD3のパースペクティブをなくす処理を実行してもよい。これにより、よりパースペクティブの矛盾のない画像を遊技者に対して視認させることができる。   Note that processing may be performed to eliminate the perspective of each of the textures TD1 and TD3. This enables the player to visually recognize an image having more consistent perspective.

具体的には、例えば各テクスチャTD1,TD3において手前側にマッピングされる領域ほど横方向(X方向)に縮小させ、奥側にマッピングされる領域ほど横方向に拡大させる補正処理を実行するとよい。また、例えば各オブジェクトOB1,OB3を、手前側が長辺で奥側が短辺とする台形オブジェクトとし、当該台形オブジェクトに対してテクスチャをマッピングする構成としてもよい。   Specifically, for example, a correction process may be performed to reduce the area mapped on the front side in the textures TD1 and TD3 in the lateral direction (X direction) and enlarge the area mapped on the back side in the horizontal direction. Further, for example, each object OB1 and OB3 may be a trapezoidal object whose front side is a long side and its back side is a short side, and texture may be mapped to the trapezoidal object.

平行投影を行う場合、本来砂浜よりも遠くに存在するために、砂浜よりも小さく見えるはずの海がサイズ調整されることなく表示されるため、奥行き感のない画像となる。換言すれば、砂浜及び海間の大きさの比率が視点からの距離に対応していないため、奥行き感のない画像となる。   In the case of parallel projection, since the sea which should be smaller than the sandy beach is displayed without being resized because it exists far from the sandy beach, the image has no sense of depth. In other words, since the size ratio between the beach and the sea does not correspond to the distance from the viewpoint, the image has no sense of depth.

これに対して、上記比率が上記視点からの距離に対応するように各オブジェクトOB1,OB3の倍率が設定されている。具体的には、視点からの距離が大きくなるほど、各オブジェクトOB1,OB3の大きさが徐々に小さくなるように各オブジェクトOB1,OB3の大きさが設定されている。   On the other hand, the magnifications of the objects OB1 and OB3 are set such that the ratio corresponds to the distance from the viewpoint. Specifically, the sizes of the objects OB1 and OB3 are set such that the sizes of the objects OB1 and OB3 gradually decrease as the distance from the viewpoint increases.

より詳細に説明すると、変更された視点から砂浜オブジェクトOB1及び海オブジェクトOB3を透視投影すると、図72に示す領域Aにて砂浜オブジェクトOB1に係る画像である砂浜画像が表示される。そして、図72に示す領域Bにて海オブジェクトOB3に係る画像である海画像が表示される。上記各領域A,Bの大きさの比率は、視点からの距離に依存したものである。   More specifically, when perspective-projecting the sandy beach object OB1 and the sea object OB3 from the changed viewpoint, a sandy beach image which is an image related to the sandy beach object OB1 is displayed in the area A shown in FIG. And the sea image which is an image concerning sea object OB3 is displayed in field B shown in FIG. The ratio of the size of each of the regions A and B depends on the distance from the viewpoint.

各オブジェクトOB1,OB3のサイズ及び座標(詳細にはY座標)は、平行投影された場合に当該各オブジェクトOB1,OB3に係る画像が表示される領域が上記各領域A,Bと同一となるように設定されている。これにより、擬似的に遠近感のある演出用背景画像が表示されることとなる。   The sizes and coordinates (specifically, Y coordinates) of the objects OB1 and OB3 are the same as the areas A and B in which the images related to the objects OB1 and OB3 are displayed in parallel projection. It is set to. As a result, an effect background image having a sense of perspective in a pseudo manner is displayed.

なお、説明の便宜上、波オブジェクトOB2を省略した態様で説明したが、波オブジェクトOB2が設定されている状況についても同様である。   In addition, although the wave object OB2 was abbreviate | omitted and demonstrated for convenience of explanation, the same may be said of the condition where wave object OB2 is set.

上記各画像表示に係る具体的な処理構成について以下に説明する。   The specific processing configuration relating to the display of each image will be described below.

先ず、砂浜背景用演算処理について図73のフローチャートを用いて説明する。当該砂浜背景用演算処理は、現状設定されているデータテーブルが砂浜背景画像の表示に対応したものである場合に、表示CPU131のタスク処理(図14)における背景用演算処理(ステップS903)にて実行される。   First, the sandy beach background calculation process will be described with reference to the flowchart of FIG. The sandy beach background computing process is the background computing process (step S 903) in the task process (FIG. 14) of the display CPU 131 when the currently set data table corresponds to the sandy beach background image display. To be executed.

ステップS4201では、砂浜背景画像を表示するのに必要な各オブジェクトOB1〜OB4を把握する。   In step S4201, the objects OB1 to OB4 necessary for displaying the sandy beach background image are grasped.

その後、ステップS4202にて、各オブジェクトOB1〜OB4の座標及び角度を更新する。具体的には、ワールド座標系に配置された場合に、各オブジェクトOB1〜OB4が奥行き方向(特定視点PV1から遠ざかる方向)に連続して並ぶように且つ空オブジェクトOB4を除く各オブジェクトOB1〜OB4がスクリーン領域PC12に対して所定の角度傾くように各座標を設定する。   Thereafter, in step S4202, the coordinates and angles of the objects OB1 to OB4 are updated. Specifically, when arranged in the world coordinate system, the objects OB1 to OB4 except the sky object OB4 are arranged such that the objects OB1 to OB4 are continuously arranged in the depth direction (direction away from the specific viewpoint PV1). Each coordinate is set to be inclined at a predetermined angle with respect to the screen area PC12.

続くステップS4203では、各テクスチャのアドレス設定処理を実行する。具体的には、各オブジェクトOB1〜OB4に対して貼り付けられる各テクスチャTD1〜TD4のアドレスを設定する。その後、ステップS4204にてその他のパラメータを更新する演算処理を行う。   In the subsequent step S4203, address setting processing of each texture is executed. Specifically, the addresses of the textures TD1 to TD4 to be attached to the objects OB1 to OB4 are set. Thereafter, at step S4204, arithmetic processing is performed to update other parameters.

続くステップS4205では、各オブジェクトOB1〜OB4を透視投影することを特定するための情報である透視投影指定情報を設定する。そして、ステップS4206にてその他の背景用オブジェクトを把握し、ステップS4207にて当該その他の背景用オブジェクトのパラメータの更新に係る演算処理を行い、本砂浜背景用演算処理を終了する。   In the subsequent step S4205, perspective projection designation information which is information for specifying perspective projection of each of the objects OB1 to OB4 is set. Then, in step S4206, the other background object is grasped, and in step S4207, calculation processing relating to the update of the parameters of the other background object is performed, and the processing processing for sand beach background ends.

かかる処理が行われた場合、その後に行われる描画リスト出力処理(ステップS806)では、描画対象として各オブジェクトOB1〜OB4が設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用される各種パラメータが設定された描画リストが作成される。また、描画リストには、透視投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1〜OB4を既に説明した通りの位置関係となるように各オブジェクトOB1〜OB4を配置し、透視投影を行う。これにより、遠近感のある画像が作成される。   When such a process is performed, in the drawing list output process (step S806) performed thereafter, the objects OB1 to OB4 are set as drawing objects, and various parameters applied to the objects OB1 to OB4. A drawing list with is set is created. Further, perspective projection designation information is set in the drawing list. When the VDP 135 receives the drawing list, the VDP 135 arranges the objects OB1 to OB4 so that the objects OB1 to OB4 have the positional relationship as described above, and performs perspective projection. This creates an image with a sense of perspective.

次に、砂浜疾走演出の背景用演算処理について図74(a)のフローチャートを用いて説明する。砂浜疾走演出の背景用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、表示CPU131のタスク処理(図14)におけるステップS903の背景用演算処理にて実行される。   Next, the background calculation processing of the sandy beach running effect will be described using the flowchart of FIG. 74 (a). The background computing process for the sandy beach running effect is executed in the background computing process of step S 903 in the task process (FIG. 14) of the display CPU 131 when the currently set data table corresponds to the sandy beach running effect. Be done.

先ずステップS4301では、現状設定されているデータテーブルに基づいて、砂浜疾走演出中であるか否かを判定する。   First, in step S4301, it is determined based on the currently set data table whether or not a sandy beach running effect is in progress.

砂浜疾走演出中でない場合には、ステップS4302に進み、砂浜疾走演出の開始タイミングであるか否かを判定する。   If the sandy beach running effect is not being performed, the process advances to step S4302 to determine whether it is the start timing of the sandy beach running effect.

砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4303〜ステップS4308にて、演出用背景画像を描画するための初期設定処理を実行する。   When it is not the start timing of the sandy beach running effect, the present arithmetic processing is ended as it is, while when it is the starting timing of the sandy beach running effect, initial setting for drawing a background image for effect in steps S4303 to S4308. Execute the process

具体的には、先ずステップS4303にて、各オブジェクトOB1〜OB4を把握する処理を実行する。   Specifically, first, in step S4303, processing for grasping the objects OB1 to OB4 is executed.

そして、ステップS4304にて、各オブジェクトOB1〜OB4の座標を調整する処理を実行し、更にステップS4305にて、各オブジェクトOB1〜OB4に対して適用される倍率を調整する処理を実行する。具体的には、各オブジェクトOB1〜OB4に対して、演出用背景画像に対応した座標及び倍率を設定する。詳細には、各オブジェクトOB1〜OB4が平行投影された場合に、当該平行投影された領域が砂浜背景画像を表示させる場合の各オブジェクトOB1〜OB4の座標系において別視点PV2から透視投影を行った場合の投影領域と重なるように、各オブジェクトOB1〜OB4の座標及び倍率を設定する。   Then, in step S4304, the process of adjusting the coordinates of each of the objects OB1 to OB4 is executed, and in step S4305, the process of adjusting the magnification applied to each of the objects OB1 to OB4 is executed. Specifically, coordinates and magnifications corresponding to the effect background image are set for each of the objects OB1 to OB4. Specifically, when the objects OB1 to OB4 are parallel-projected, perspective projection is performed from another viewpoint PV2 in the coordinate system of each object OB1 to OB4 in the case where the area projected in parallel displays the sandy beach background image The coordinates and magnifications of the objects OB1 to OB4 are set so as to overlap with the projection area of the case.

その後、ステップS4306にて視点として別視点PV2を設定し、ステップS4307にて、その他のパラメータの初期設定に係る演算処理を実行する。そして、ステップS4308にて、平行投影指定情報を設定する。当該平行投影指定情報は、VDP135において各オブジェクトOB1〜OB4を平行投影するように指示するための情報である。   Thereafter, in step S4306, another viewpoint PV2 is set as the viewpoint, and in step S4307, arithmetic processing relating to the initial setting of other parameters is executed. Then, in step S4308, parallel projection designation information is set. The parallel projection designation information is information for instructing the VDP 135 to project the objects OB1 to OB4 in parallel.

その後、ステップS4309にてその他の背景用オブジェクトを把握し、ステップS4310にて当該その他の背景用オブジェクトに対して適用される各種パラメータを更新に係る演算処理を実行して、本演算処理を終了する。   After that, in step S4309, the other background object is grasped, and in step S4310, calculation processing relating to updating of various parameters applied to the other background object is executed, and this calculation processing is ended. .

かかる処理が行われた場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、描画対象として各オブジェクトOB1〜OB4が設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用される各種パラメータが設定される。当該各種パラメータは、各オブジェクトOB1〜OB4が平行投影される場合に対応したものである。   When such a process is performed, the objects OB1 to OB4 are set as drawing objects in the drawing list created in the subsequent drawing list output process (step S806), and the objects OB1 to OB4 are set. Parameters to be applied are set. The various parameters correspond to the case where the objects OB1 to OB4 are projected in parallel.

また、上記描画リストには平行投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1〜OB4を把握し、各オブジェクトOB1〜OB4に対して平行投影に対応したパラメータを適用した状態で、別視点PV2を基準とする平行投影を行う。これにより、砂浜背景画像の視点(特定視点PV1)とは異なる視点(別視点PV2)から見た演出用背景画像が作成される。   Further, parallel projection specification information is set in the drawing list. When the VDP 135 receives the drawing list, the VDP 135 grasps each of the objects OB1 to OB4 and applies a parameter corresponding to parallel projection to each of the objects OB1 to OB4 so that the parallel is based on the different viewpoint PV2 Make a projection. Thereby, a background image for effect seen from a viewpoint (another viewpoint PV2) different from the viewpoint (specific viewpoint PV1) of the sandy beach background image is created.

砂浜疾走演出中である場合には、ステップS4311〜ステップS4314にて、演出用背景画像をスクロールするための処理を実行する。具体的には、先ずステップS4311にて、各オブジェクトOB1〜OB4を把握する。   When a beach sprint running effect is being performed, processing for scrolling the effect background image is executed in steps S4311 to S4314. Specifically, first, in step S4311, the objects OB1 to OB4 are grasped.

続くステップS4312では、視点の位置を更新する処理を実行する。具体的には、現状設定されている視点から第1変位量だけ−X方向に変位させる処理を実行する。   In the following step S4312, processing for updating the position of the viewpoint is executed. Specifically, processing for displacing the first displacement amount in the −X direction from the currently set viewpoint is executed.

その後、ステップS4313にて、各オブジェクトOB1〜OB4に適用されるパラメータを更新する演算処理を実行する。具体的には、各オブジェクトOB1〜OB4を現状の座標から所定の変位量だけ−X方向に移動させる。当該所定の変位量は、−X方向への視点の変位量よりも小さい範囲内で、各オブジェクトOB1〜OB4と視点との距離に応じて設定されている。   Thereafter, in step S4313, arithmetic processing for updating parameters applied to the objects OB1 to OB4 is executed. Specifically, the objects OB1 to OB4 are moved in the −X direction by a predetermined displacement amount from the current coordinates. The predetermined displacement amount is set according to the distance between each of the objects OB1 to OB4 and the viewpoint within a range smaller than the displacement amount of the viewpoint in the -X direction.

具体的には、図74(b)の説明図に示すように、視点と各オブジェクトOB1〜OB4とのZ方向の距離が大きくなるほど、視点に対する各オブジェクトOB1〜OB4の相対速度が小さくなるように、各オブジェクトOB1〜OB4の変位量が設定されている。詳細には、視点と各オブジェクトOB1〜OB4のZ方向の距離との距離が大きくなるほど、各オブジェクトOB1〜OB4の変位量と第1変位量との差分が小さくなるように各オブジェクトOB1〜OB4の変位量が設定されている。これにより、視点に対して手前側に配置されているオブジェクトほど+X方向に速く移動するように見え、視点に対して奥側に配置されているオブジェクトほど+X方向に遅く移動するように見える。よって、擬似的な遠近感を表現することができる。   Specifically, as shown in the explanatory diagram of FIG. 74 (b), the relative velocity of each object OB1 to OB4 with respect to the viewpoint decreases as the distance in the Z direction between the viewpoint and each object OB1 to OB4 increases. The displacement amounts of the objects OB1 to OB4 are set. In detail, as the distance between the viewpoint and the distance in the Z direction between the objects OB1 to OB4 increases, the difference between the displacement amount of each of the objects OB1 to OB4 and the first displacement amount decreases so that the difference between the objects OB1 to OB4 The displacement amount is set. As a result, the object arranged closer to the front with respect to the viewpoint appears to move faster in the + X direction, and the object arranged behind the viewpoint appears to move slower in the + X direction. Thus, pseudo perspective can be expressed.

また、波オブジェクトOB2については、−X方向への変位だけでなく、Y座標及びZ座標についても座標を更新する処理を実行する。具体的には、図69(b)に示すように、波オブジェクトOB2を、傾斜角度を維持した状態で手前側に進むようにY座標及びZ座標を設定する。これにより、波が手前側に打ち寄せてくる様子を表現することができる。   Further, with regard to the wave object OB2, processing is performed to update coordinates not only for the displacement in the -X direction but also for the Y coordinate and the Z coordinate. Specifically, as shown in FIG. 69 (b), the Y-coordinate and the Z-coordinate are set so that the wave object OB2 advances toward the near side while maintaining the inclination angle. In this way, it is possible to express how waves are coming to the front.

すなわち、砂浜オブジェクトOB1に対して波オブジェクトOB2を、視点から見て重なり合うように(詳細にはZ方向にずらして)配置し、当該波オブジェクトOB2を砂浜オブジェクトOB1に対して相対的に変位させることにより、砂浜に対して重なるように波が表示されることとなる。   That is, the wave object OB2 is disposed on the beach object OB1 so as to overlap with each other as viewed from the viewpoint (in detail, shifted in the Z direction), and the wave object OB2 is relatively displaced with respect to the beach object OB1. The waves will be displayed so as to overlap the beach.

そして、波オブジェクトOB2の初期位置からの変位量が予め特定量となった場合には、座標を維持するとともに、波オブジェクトOB2が徐々に消えていくように一律α値を更新する処理を実行する。そして、一律α値が所定の値(例えば完全透過のα値)となったことに基づいて、再度波オブジェクトOB2を初期位置に配置して一連の処理を実行する。これにより、波が打ち寄せて消えていく様子を繰り返し見せることができ、リアルな波を実現することができる。   Then, when the displacement amount from the initial position of the wave object OB2 becomes a specific amount in advance, the coordinate is maintained, and the process of uniformly updating the α value so that the wave object OB2 gradually disappears is executed. . Then, based on the fact that the α value uniformly becomes a predetermined value (for example, the α value of complete transmission), the wave object OB2 is arranged at the initial position again to execute a series of processing. In this way, it is possible to repeatedly show how waves are hitting and disappearing, and real waves can be realized.

その後、ステップS4314にて平行投影指定情報を設定し、ステップS4309及びステップS4310の処理を実行して、本演算処理を終了する。   Thereafter, in step S4314, parallel projection designation information is set, the processing in steps S4309 and S4310 is executed, and this arithmetic processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、背景用画像を表示するのに必要な各オブジェクトOB1〜OB4が描画対象として設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用されるパラメータ情報が設定される。当該各種パラメータには、視点が−X方向に移動するよう設定されているとともに、視点と各オブジェクトOB1〜OB4との距離が大きくなるに従って当該視点に対する相対速度が小さくなるように各オブジェクトOB1〜OB4の座標の変位量が設定されている。これにより、演出用背景画像が+X方向にスクロールするように表示されることとなる。   When such processing is executed, the objects OB1 to OB4 necessary for displaying the background image are set as drawing objects in the drawing list created in the subsequent drawing list output process, and Parameter information to be applied to the objects OB1 to OB4 is set. The various parameters are set so that the viewpoint moves in the -X direction, and the relative velocity with respect to the viewpoint decreases as the distance between the viewpoint and the objects OB1 to OB4 increases. The amount of displacement of the coordinates of is set. As a result, the effect background image is displayed so as to scroll in the + X direction.

なお、視点が移動することにより、投影対象となる領域が各オブジェクトOB1〜OB4の端側の領域にとなった場合には、現状投影対象となっている各オブジェクトOB1〜OB4に対して視点の進行方向の先側に同一の各オブジェクトOB1〜OB4を連続して設定するように構成されている。これにより、視点が各オブジェクトOB1〜OB4よりも速い速度で移動することに起因して演出用背景画像が途切れてしまう不都合を回避することができる。   When the area to be projected becomes an area on the end side of each of the objects OB1 to OB4 due to the movement of the viewpoint, the objects OB1 to OB4 that are currently to be projected are The same objects OB1 to OB4 are continuously set on the front side in the traveling direction. As a result, it is possible to avoid the inconvenience that the effect background image is interrupted due to the viewpoint moving at a speed faster than each of the objects OB1 to OB4.

また、各テクスチャTD1〜TD4における視点の移動方向に対応した両端部、具体的にはX方向の両端部は、描かれた模様が連続するように設定されているとよい。これにより、オブジェクトの切れ目が把握されにくいため、遊技者に対して違和感を与えにくい。   Further, it is preferable that both ends in the textures TD1 to TD4 corresponding to the movement direction of the viewpoint, specifically, both ends in the X direction be set so that the drawn patterns are continuous. As a result, it is difficult for the player to feel a sense of incongruity because it is difficult to grasp the cut of the object.

次に、砂浜疾走演出の演出用演算処理について図75のフローチャートを用いて説明する。砂浜疾走演出の演出用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、タスク処理(図14)における演出用演算処理(ステップS904)にて実行される処理である。   Next, the effect calculation processing for the sandy beach running effect will be described with reference to the flowchart of FIG. Arithmetic processing for effect on a sandy beach sprint effect is executed in effect arithmetic processing (step S904) in task processing (FIG. 14) when the currently-set data table corresponds to a sandy beach sprint effect. It is a process.

先ず、ステップS4401では、現状設定されているデータテーブルに基づいて砂浜疾走演出中であるか否かを判定する。   First, in step S4401, it is determined based on the currently set data table whether or not a beach running effect is underway.

砂浜疾走演出中でない場合には、ステップS4402に進み、現状設定されているデータテーブルに基づいて砂浜疾走演出の開始タイミングであるか否かを判定する。   If the sandy beach running effect is not in progress, the process proceeds to step S4402, and it is determined based on the currently set data table whether it is the start timing of the sandy beach running effect.

砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4403に進み、疾走対象の図柄オブジェクトを把握する。そして、ステップS4404にて当該図柄オブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、図柄オブジェクトが平行投影された場合に、当該図柄オブジェクトに係る画像が砂浜画像に重なるように図柄オブジェクトの座標を設定する。詳細には、砂浜オブジェクトOB1とスクリーン領域PC12との間に図柄オブジェクトを配置する。   When it is not the start timing of the sandy beach running effect, the present arithmetic processing is ended as it is, while when it is the starting timing of the sandy beach running effect, the process proceeds to step S4403, and the symbol object of the running object is grasped. Then, at step S4404, arithmetic processing relating to initial setting of various parameter information applied to the symbol object is executed. In this case, when the graphic object is parallel-projected, the coordinates of the graphic object are set such that the image relating to the graphic object overlaps the sandy beach image. In detail, a graphic object is arranged between the sandy beach object OB1 and the screen area PC12.

その後、ステップS4405にて、今回の描画対象となる教示用のオブジェクトを把握する。教示用のオブジェクトは、既に説明した通り、遊技状況を遊技者に教示可能となる画像を表示する場合に利用されるオブジェクトであり、詳細には現状のラウンドが何番目のラウンドであるかを教示するためのオブジェクトと、開閉実行モードが連続して行われた回数を示すためのオブジェクトと、が設定されている。ステップS4405では、これらの教示用のオブジェクトを把握する。   Thereafter, in step S4405, an object for teaching to be a current drawing object is grasped. As described above, the teaching object is an object used when displaying an image that enables the player to be taught the gaming situation, and in particular, teaches what round the current round is. An object for setting and an object for indicating the number of times the open / close execution mode has been performed consecutively are set. In step S4405, these teaching objects are grasped.

そして、ステップS4406にて上記教示用のオブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、教示用のオブジェクトが演出用背景画像の生成に用いられる各オブジェクトOB1〜OB4よりも視点側に配置されるように当該教示用のオブジェクトの座標を設定する。そして、本演算処理を終了する。   Then, at step S4406, arithmetic processing relating to initial setting of various parameter information applied to the teaching object is executed. In this case, the coordinates of the teaching object are set such that the teaching object is disposed closer to the viewpoint than the objects OB1 to OB4 used for generating the effect background image. Then, the arithmetic processing ends.

かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、図柄オブジェクト及び教示用のオブジェクトが描画対象として設定されるとともに、これらのオブジェクトに対して適用されるパラメータが設定される。これらのオブジェクトは演出用背景画像の生成に用いられる各オブジェクトOB1〜OB4よりも視点側に配置されるようになっている。これにより、上記各オブジェクトに対して平行投影が行われることにより、演出用背景画像に対して重なるようにして図柄画像及び教示用画像が表示されることとなる。   When such processing is executed, a design object and an object for teaching are set as a drawing target in the drawing list created in the subsequent drawing list output process (step S806), and for these objects, The parameters to be applied are set. These objects are arranged closer to the viewpoint than the objects OB1 to OB4 used to generate the effect background image. Thus, by performing parallel projection on each of the objects, the symbol image and the teaching image are displayed so as to overlap the effect background image.

砂浜疾走演出中である場合には、ステップS4407にて疾走対象の図柄オブジェクトを把握する処理を実行する。そして、ステップS4408にて図柄オブジェクトに適用されるパラメータを更新する演算処理を実行する。具体的には、−X方向の視点の移動に伴って図柄オブジェクトが移動するように図柄オブジェクトの座標を更新する。この場合、視点の変位量と図柄オブジェクトの変位量とを同一に設定する。これにより、視点の移動と図柄オブジェクトの移動とを同期させることができ、図柄画像の移動に伴って視点が追従していくように見せることができる。   If a beach sprint running effect is being performed, processing to grasp a pattern object to be sprinted is executed in step S4407. Then, at step S4408, arithmetic processing for updating parameters applied to the symbol object is executed. Specifically, the coordinates of the symbol object are updated so that the symbol object moves with the movement of the viewpoint in the -X direction. In this case, the amount of displacement of the viewpoint and the amount of displacement of the symbol object are set equal. Thereby, the movement of the viewpoint and the movement of the symbol object can be synchronized, and the viewpoint can be made to follow as the symbol image moves.

続くステップS4409及びステップS4410では、視点の移動に伴う教示用のオブジェクトの更新処理を実行する。具体的には、先ずステップS4409にて教示用のオブジェクトを把握する。そして、ステップS4410にて、教示用のオブジェクトに適用されるパラメータを更新する演算処理実行する。詳細には、−X方向の視点の移動に伴って教示用のオブジェクトが移動するように当該教示用のオブジェクトの座標を更新する。この場合、視点の変位量と教示用のオブジェクトの変位量とを同一に設定する。これにより、視点の移動と教示用のオブジェクトの移動とを同期させることができ、教示用画像を常に表示させることが可能となる。   In the subsequent steps S4409 and S4410, the process of updating an object for teaching accompanying movement of the viewpoint is executed. Specifically, first, in step S4409, an object for teaching is grasped. Then, in step S4410, calculation processing is executed to update the parameters applied to the teaching object. Specifically, the coordinates of the teaching object are updated so that the teaching object moves as the viewpoint moves in the -X direction. In this case, the displacement of the viewpoint and the displacement of the teaching object are set to be the same. As a result, the movement of the viewpoint and the movement of the teaching object can be synchronized, and the teaching image can be always displayed.

なお、上記処理では、便宜上、ステップS4403〜ステップS4406の処理と、ステップS4407〜ステップS4410の処理と、を分けて表示したが、これに限られず、これらの処理を共通化してもよい。この場合、データテーブル上に各更新タイミングにおいて設定すべき画像データを予め設定しておき、更新タイミングとなる度に、当該更新タイミングに対応した上記各種画像データを適宜読み出し、描画に係る設定処理を行う構成とすればよい。   In the above process, for convenience, the processes of steps S4403 to S4406 and the processes of steps S4407 to S4410 are separately displayed, but the present invention is not limited to this, and these processes may be shared. In this case, image data to be set at each update timing is set in advance in the data table, and each time the update timing comes, the various image data corresponding to the update timing are read as appropriate, and setting processing related to drawing is performed. It may be configured to be performed.

次に、砂浜背景画像及び砂浜疾走演出の様子について図76を用いて説明する。図76(a)は砂浜背景画像が表示された表示面Gを示す説明図、図76(b)は砂浜疾走演出の様子を説明するための説明図である。   Next, the state of the sandy beach background image and the sandy beach running effect will be described with reference to FIG. FIG. 76 (a) is an explanatory view showing a display surface G on which a sandy beach background image is displayed, and FIG. 76 (b) is an explanatory view for describing a state of a sandy beach running effect.

図76(a)に示すように、砂浜背景画像BP10には、手前側から順に、第1砂画像BP11、第1波画像BP12、第1海画像BP13、第1空画像BP14が表示されている。砂浜背景画像BP10は、遠近感のある画像であり、具体的には例えば第1海画像BP13においては奥側(水平線)に近づくに従って波の間隔及び波の幅が小さくなるようになっている。   As shown in FIG. 76A, in the sandy beach background image BP10, a first sand image BP11, a first wave image BP12, a first sea image BP13, and a first sky image BP14 are displayed in order from the front side. . The sandy beach background image BP10 is an image with a sense of perspective, and more specifically, for example, in the first sea image BP13, the distance between the waves and the width of the waves become smaller as they approach the back side (horizontal line).

砂浜疾走演出では、図76(b)に示すように、手前側から順に、第2砂画像BP21、第2波画像BP22、第2海画像BP23、第2空画像BP24が表示された画像であって砂浜背景画像BP10とは視点が異なる演出用背景画像BP20が表示される。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に小さく表示されるため、遠近感のある画像となっている。   In the sandy beach sprint effect, as shown in FIG. 76 (b), the second sand image BP21, the second wave image BP22, the second sea image BP23, and the second sky image BP24 are displayed in order from the front side. A rendering background image BP20 having a viewpoint different from that of the sandy beach background image BP10 is displayed. In this case, the second sand image BP21 → the second wave image BP22 → the second sea image BP23 → the second sky image BP24 is displayed in a small size in this order, so that the image has a sense of perspective.

そして、演出用背景画像BP20に対して重なるように図柄画像CP1〜CP3及び教示用画像CP4,CP5が表示される。そして、演出用背景画像BP20が+X方向に対応する方向である右方向に移動することにより、当該図柄画像CP1〜CP3が−X方向に対応する方向である左方向に向けて移動するように見える。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に、移動速度は遅くなっている。これにより、奥側(視点から遠く)にあるものほどゆっくり移動するように見え、遠近感が生じている。   Then, the symbol images CP1 to CP3 and the teaching images CP4 and CP5 are displayed so as to overlap the effect background image BP20. Then, by moving the effect background image BP20 in the right direction corresponding to the + X direction, the symbol images CP1 to CP3 appear to move in the left direction corresponding to the -X direction. . In this case, the moving speed is slower in the order of the second sand image BP21 → the second wave image BP22 → the second sea image BP23 → the second sky image BP24. As a result, it looks as if the object on the far side (far from the viewpoint) moves more slowly, and a sense of perspective is generated.

以上の通り、各オブジェクトOB1〜OB4を奥行き方向に並べて配置するとともに、各オブジェクトOB1〜OB4に対して貼り付けるテクスチャとして、特定視点PV1から見た場合の画像に対応したものを用意し、これらを透視投影することにより砂浜背景画像BP10を表示させる構成において、特定視点PV1とは異なる別視点PV2に基づく演出用背景画像BP20を表示させる場合には各オブジェクトOB1〜OB4を平行投影する構成とした。これにより、用いるテクスチャの共通化を図りつつ、視点の変更に伴うパースペクティブの整合性のずれを抑制することができる。よって、テクスチャの共通化を図ることができる点でデータ量の削減を図ることができる。   As described above, the objects OB1 to OB4 are arranged side by side in the depth direction, and as textures to be attached to the objects OB1 to OB4, those corresponding to the image when viewed from the specific viewpoint PV1 are prepared. In the configuration in which the sandy beach background image BP10 is displayed by perspective projection, when displaying the effect background image BP20 based on another viewpoint PV2 different from the specific viewpoint PV1, the objects OB1 to OB4 are projected in parallel. Thereby, it is possible to suppress deviation in the consistency of perspectives caused by the change of the viewpoint while achieving common use of the texture to be used. Therefore, it is possible to reduce the amount of data in that common use of textures can be achieved.

特に、比較的簡素なオブジェクトである板ポリゴンで構成された各オブジェクトOB1〜OB4を投影平面に対して傾斜して配置し、これら各オブジェクトOB1〜OB4を透視投影することにより、比較的少ない処理負荷でパースペクティブが掛かった砂浜背景画像BP10を生成することができる。一方、視点が異なると、透視投影に基づくパースペクティブの掛かり具合のずれが目立ち易くなる。   In particular, by arranging the objects OB1 to OB4 composed of plate polygons, which are relatively simple objects, at an angle to the projection plane, and perspectively projecting the objects OB1 to OB4, relatively small processing load It is possible to generate a sandy beach background image BP10 in which the perspective is taken with On the other hand, if the viewpoints are different, the difference in the degree of engagement of perspectives based on perspective projection is more noticeable.

これに対して、視点が異なる演出用背景画像BP20を生成する場合には、パースペクティブを生じさせない平行投影を行うことにより、上記ずれの発生を抑制することができる。   On the other hand, in the case of generating the effect background image BP20 having different viewpoints, the occurrence of the shift can be suppressed by performing parallel projection without causing a perspective.

この場合、視点と各オブジェクトOB1〜OB4との距離が大きくなるほど、各オブジェクトOB1〜OB4の倍率を小さくするとともに、視点に対する各オブジェクトOB1〜OB4の相対移動速度を小さくする構成とした。これにより、平行投影により得られる画像を遠近感のある画像に見せることができる。   In this case, as the distance between the viewpoint and each object OB1 to OB4 increases, the magnification of each object OB1 to OB4 is reduced, and the relative moving speed of each object OB1 to OB4 with respect to the viewpoint is reduced. This makes it possible to make the image obtained by parallel projection look like a perspective image.

なお、上記構成では、各オブジェクトOB1〜OB4は板状ポリゴンであったが、これに限られず、例えば各オブジェクトOB1〜OB4のいずれかを、表示対象となる画像に対応させて設定された3次元の特定オブジェクトとして構成してもよい。この場合、当該特定オブジェクトに対応させてテクスチャを設け、当該テクスチャを上記特定オブジェクトに貼り付ける構成とする。これにより、上記特定オブジェクトに係る画像については視点の変化に対応することができる一方、他のオブジェクトについては視点の変化に対応することができず、パースペクティブの整合性が取れなくなる事態が生じ得る。これに対して、視点が変化した場合には平行投影を行うことにより、両者のずれを軽減することができる。   In the above configuration, each of the objects OB1 to OB4 is a plate-like polygon, but the present invention is not limited to this. For example, three-dimensional objects set corresponding to an image to be displayed are any of the objects OB1 to OB4. It may be configured as a specific object of In this case, a texture is provided in correspondence with the specific object, and the texture is attached to the specific object. As a result, while an image relating to the specific object can correspond to a change in viewpoint, another object can not correspond to a change in viewpoint, and a situation may occur where perspective consistency can not be obtained. On the other hand, when the viewpoint changes, the shift between the two can be reduced by performing parallel projection.

また、上記構成では、別視点PV2は特定視点PV1を−Y方向に移動した位置としたが、これに限られず、例えばZ方向にずらした位置にしてもよく、任意である。   Further, in the above configuration, the other viewpoint PV2 is at the position where the specific viewpoint PV1 is moved in the -Y direction, but is not limited thereto. For example, it may be a position shifted in the Z direction.

また、各オブジェクトOB1〜OB4に係る画像間のパースペクティブの整合性について説明したが、これに限られず、例えば最背面画像等の2次元画像データに係る画像と、1のオブジェクトに係る画像との整合性についても同様である。つまり、1のオブジェクトと2次元画像データとを組み合わせて1の画像を表示させる場合にも視点の変化に伴う透視投影と平行投影との切換を適用することができる。   Moreover, although the consistency of the perspective between the images which concern each object OB1-OB4 was demonstrated, it is not restricted to this, for example, matching with the image which concerns on two-dimensional image data, such as a backmost image, and the image which concerns on one object. The same is true for sex. That is, even when one object and two-dimensional image data are combined to display one image, switching between perspective projection and parallel projection can be applied according to a change in viewpoint.

上記構成では、砂浜背景画像BP10を表示するのに用いられるテクスチャを、演出用背景画像BP20を表示するのに用いる構成としたが、これに限られず、所定の画像を表示するのに用いられるテクスチャを、上記所定の画像とは視点が異なる画像を表示するのに用いる構成であればよく、具体的な表示内容については任意である。   In the above configuration, the texture used to display the sandy beach background image BP10 is used to display the effect background image BP20. However, the present invention is not limited to this, and the texture used to display a predetermined image As long as the configuration is used to display an image having a viewpoint different from that of the predetermined image, the specific display content is arbitrary.

また、上記構成では、視点を−X方向に移動させる構成としたが、これに限られず、移動させない構成としてもよい。この場合、各オブジェクトOB1〜OB4を+X方向に移動させる構成とし、その移動量を視点からの距離に応じて異ならせる構成とするとよい。また、視点の移動方向は−X方向としたが、これに限られず、任意である。   Moreover, although it was set as the structure which moves a viewpoint to-X direction in the said structure, it is not restricted to this, It is good also as a structure which is not moved. In this case, each of the objects OB1 to OB4 may be moved in the + X direction, and the amount of movement may be varied according to the distance from the viewpoint. In addition, although the movement direction of the viewpoint is the −X direction, it is not limited to this and is arbitrary.

上記構成では、各オブジェクトOB1〜OB4を平行投影した場合の領域が、各オブジェクトOB1〜OB4を透視投影した場合の領域と重なるように、各オブジェクトOB1〜OB4の座標及び倍率を設定したが、これに限られない。要は、別視点PV2に対応した画像であって遠近感が生じるように各オブジェクトOB1〜OB4の座標及び倍率を調整する構成であればよい。   In the above configuration, the coordinates and magnifications of the objects OB1 to OB4 are set such that the area in the case of parallel projection of the objects OB1 to OB4 overlaps the area in the case of perspective projection of the objects OB1 to OB4. It is not limited to. The point is that the coordinates and the magnification of each of the objects OB1 to OB4 may be adjusted so that the image corresponds to the different viewpoint PV2 and a sense of perspective is generated.

さらに、演出用背景画像BP20を表示させる場合に、各オブジェクトOB1〜OB3の傾斜角度を、砂浜背景画像BP10を表示させる場合の傾斜角度から変更する構成としてもよく、各オブジェクトOB1〜OB3の傾斜角度を個別に変更してもよい。   Furthermore, when displaying the effect background image BP20, the inclination angles of the objects OB1 to OB3 may be changed from the inclination angles when displaying the sandy beach background image BP10, and the inclination angles of the objects OB1 to OB3 May be changed individually.

また、砂浜疾走演出にて描画対象となる教示用のオブジェクト及び図柄オブジェクトに対する投影パターンとしては、平行投影及び透視投影どちらでもよい。平行投影を行う場合には図柄画像CP1〜CP3及び教示用画像CP4,CP5を見易く表示させることができる一方、透視投影を行う場合には上記各画像CP1〜CP5を立体的に表示させることができる。   Further, as a projection pattern for the teaching object and the pattern object to be drawn in the beach sprint effect, either parallel projection or perspective projection may be used. When performing parallel projection, it is possible to display symbol images CP1 to CP3 and teaching images CP4 and CP5 in an easy-to-see manner, and when performing perspective projection, it is possible to display the respective images CP1 to CP5 in three dimensions. .

また、教示用のオブジェクトの投影パターンを平行投影に設定し、図柄オブジェクトの投影パターンを透視投影にする構成としてもよい。この場合、教示用画像CP4,CP5を見易く表示させつつ、砂浜疾走演出に係る図柄画像CP1〜CP3を立体的に表示させることができる。   The projection pattern of the teaching object may be set to parallel projection, and the projection pattern of the design object may be perspective projection. In this case, it is possible to three-dimensionally display the symbol images CP1 to CP3 relating to the beach sprinting effect while displaying the teaching images CP4 and CP5 in an easy-to-see manner.

<第2の実施形態>
本実施の形態では、表示演出として歪み演出及び瞬き演出を行うための構成を備えている。そして、歪み演出に合わせて描画処理が第1の実施形態と異なっている。以下に、各演出を行うための構成について説明する。なお、第1の実施形態と同様の構成については説明を省略する。
Second Embodiment
In the present embodiment, a configuration for performing distortion production and blink production as display production is provided. The drawing process is different from that of the first embodiment in accordance with the distortion effect. Below, the structure for performing each presentation is demonstrated. The description of the same configuration as that of the first embodiment will be omitted.

<歪み演出を行うための構成について>
歪み演出を行うための構成について説明する。
<About the composition for performing distortion production>
The structure for performing distortion production is demonstrated.

歪み演出は、図柄の変動表示が行われる場合に背景画像の一部が歪む演出である。具体的には、背景画像として水中の様子が描かれた画像が表示されている状況において特定方向にスクロールする図柄の変動表示が開始される場合に、背景画像の一部の領域、詳細には図柄に対して当該図柄の進行方向とは逆側の領域が歪むように表示される。これにより、遊技者としては、当該歪みを、図柄がスクロールを開始することにより形成された流れに起因する光の屈折として認識することが想定される。よって、水中での図柄のスクロールをリアルに認識させることができる。   The distortion effect is an effect in which part of the background image is distorted when variable display of symbols is performed. Specifically, when variation display of a symbol that scrolls in a specific direction is started in a situation where an image in which an underwater state is drawn as a background image is displayed, a part of the background image, specifically, An area on the opposite side to the traveling direction of the symbol is displayed as distorted with respect to the symbol. As a result, it is assumed that the player recognizes the distortion as light refraction caused by the flow formed by the symbol starting to scroll. Therefore, it is possible to realistically recognize the scroll of the symbol in water.

当該歪み演出で用いられる構成について図77を用いて説明する。図77(a)は屈折用オブジェクトOB10を示す説明図、図77(b)及び図77(c)は屈折用オブジェクトOB10を変形させた様子を説明するための説明図、図77(d)は屈折用オブジェクトOB10に対して適用される屈折用αデータSKD1を説明するための説明図である。   The configuration used for the distortion effect will be described with reference to FIG. FIG. 77 (a) is an explanatory view showing the refracting object OB10, FIG. 77 (b) and FIG. 77 (c) are explanatory views for describing a state in which the refracting object OB10 is deformed, FIG. It is an explanatory view for explaining alpha data SKD1 for refraction applied to the object for refraction OB10.

図77(a)に示すように、屈折用オブジェクトOB10は矩形状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向(詳細にはローカル座標系でのZ方向)への凹凸のない平面状に構成された低精彩の画像データである。   As shown in FIG. 77 (a), the refraction object OB10 is formed of a rectangular plate polygon. A plate polygon can be said to be an object with a small number of polygons, and is low-resolution image data configured in a planar shape without unevenness in the three-dimensional direction (specifically, the Z direction in the local coordinate system).

屈折用オブジェクトOB10の形状(サイズ)は、歪みを発生させたい歪み領域PE1に対応させて設定されており、具体的には、視野座標系への変換処理を行った場合に歪み領域PE1を覆うことができるように設定されている。詳細には、屈折用オブジェクトOB10の形状は、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように設定されている。このため、屈折用オブジェクトOB10を歪み領域PE1に対して重なるように配置された状態で平行投影が行われた場合には、歪み領域PE1に対して屈折用オブジェクトOB10に係る画像が表示されることとなる。   The shape (size) of the refracting object OB10 is set to correspond to the strained area PE1 where distortion is desired to be generated, and specifically, covers the strained area PE1 when conversion processing to the view coordinate system is performed. It is set to be able to. In detail, the shape of the refraction object OB10 is set such that the display area when the refraction object OB10 is parallel-projected is larger than the distortion area PE1. Therefore, when parallel projection is performed in a state in which the refraction object OB10 is arranged to overlap the distortion region PE1, an image relating to the refraction object OB10 is displayed on the distortion region PE1. It becomes.

屈折用オブジェクトOB10には、格子状に頂点座標が設定されている。当該頂点座標には、ローカル3次元座標が設定されており、各頂点座標のZ座標(奥行き方向の座標)は同一に設定されている。   In the refracting object OB10, vertex coordinates are set in a lattice shape. Local three-dimensional coordinates are set as the vertex coordinates, and Z coordinates (coordinates in the depth direction) of the vertex coordinates are set identically.

屈折用オブジェクトOB10の頂点座標は歪み領域PE1に対応させて設定されており、具体的には屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標によって形成される領域が歪み領域PE1と略同一となるように設定されている。   The vertex coordinates of the refraction object OB10 are set to correspond to the distortion region PE1, and more specifically, a region formed by vertex coordinates other than the vertex coordinates constituting the outer edge portion of the refraction object OB10 is the distortion region PE1 and It is set to be substantially the same.

上記屈折用オブジェクトOB10は変形可能に構成されている。具体的には、屈折用オブジェクトOB10の各頂点座標のZ座標はそれぞれ個別に変位可能となっており、当該Z座標が変位することにより屈折用オブジェクトOB10は歪むようになっている。   The refracting object OB10 is configured to be deformable. Specifically, Z coordinates of each vertex coordinate of the refraction object OB10 are individually displaceable, and the refraction object OB10 is distorted by displacement of the Z coordinate.

屈折用オブジェクトOB10の変形形態について詳細に説明する。本実施の形態では、屈折用オブジェクトOB10の変形形態は複数種類設定されている。当該複数種類の変形形態のうちの第1変形形態の屈折用オブジェクトOB10と、第2変形形態の屈折用オブジェクトOB10とについて図77(b)及び図77(c)を用いて説明する。図77(b)は第1変形形態の屈折用オブジェクトOB10を説明するための説明図、図77(c)は第2変形形態の屈折用オブジェクトOB10を説明するための説明図である。なお、説明の便宜上、以降の説明において、第1変形形態の屈折用オブジェクトOB10を単に第1変形形態OB10aと、第2変形形態の屈折用オブジェクトOB10を単に第2変形形態OB10bという。   A modification of the refracting object OB10 will be described in detail. In the present embodiment, a plurality of deformation modes of the refraction object OB10 are set. Among the plurality of types of modification, the refraction object OB10 of the first modification and the refraction object OB10 of the second modification will be described using FIGS. 77 (b) and 77 (c). FIG. 77 (b) is an explanatory view for explaining the refraction object OB10 of the first modified embodiment, and FIG. 77 (c) is an explanatory view for explaining the refraction object OB10 of the second modified embodiment. For convenience of description, in the following description, the refraction object OB10 of the first variation is simply referred to as a first variation OB10a, and the refraction object OB10 of the second variation is simply referred to as a second variation OB10b.

図77(b)及び図77(c)に示すように、各変形形態OB10a,OB10bは、テクスチャが貼り付けられる板面に凹凸が形成されるように変形している。具体的には、各変形形態OB10a,OB10bは、屈折用オブジェクトOB10の外縁部を構成する頂点座標のZ座標を基準として、歪み領域PE1に対応する各頂点座標のZ座標がそれぞれ所定量だけ変位することにより変形している。詳細には、X方向における両端の頂点座標を固定端とするZ成分を持つ1周期の正弦波が形成され且つY方向における両端の頂点座標を始点及び終点とする円弧が形成されるように歪み領域PE1に含まれる各頂点座標のZ座標が変位している。そして、各変形形態OB10a,OB10bは、上記正弦波の位相がπだけずれている。   As shown in FIG. 77 (b) and FIG. 77 (c), each of the modified forms OB10a and OB10b is deformed such that asperities are formed on the plate surface to which the texture is attached. Specifically, in each of the modified forms OB10a and OB10b, the Z coordinate of each vertex coordinate corresponding to the distortion area PE1 is displaced by a predetermined amount with respect to the Z coordinate of the vertex coordinate constituting the outer edge portion of the refraction object OB10. It is deformed by doing. Specifically, distortion is performed such that a single cycle sine wave having a Z component with a fixed end having apex coordinates at both ends in the X direction is formed and an arc having apex coordinates at both ends in the Y direction as a start point and an end point The Z coordinate of each vertex coordinate included in the area PE1 is displaced. In each of the modified forms OB10a and OB10b, the phase of the sine wave is shifted by π.

これら各変形形態OB10a,OB10bに対して、背景画像のうち各変形形態OB10a,OB10bが配置される領域に対応した部分のテクスチャがマッピングされることにより、歪み画像が表現される。この場合、所定の更新タイミングとなる度に、屈折用オブジェクトOB10を、X方向への位相が異なる第1変形形態OB10aと第2変形形態OB10bとに交互に変形させることにより、X方向に進行する水の流れに対応した歪み画像を表現することができる。これにより、図柄のX方向のスクロールに伴って、X方向の水の流れが形成されたように視認させることができ、図柄のスクロールと歪み画像との関連付けを好適に行うことができる。   A distortion image is expressed by mapping the texture of the part corresponding to the area | region where each modification form OB10a, OB10b is arrange | positioned among these modification form OB10a, OB10b among these background images. In this case, it advances in the X direction by alternately deforming the object for refraction OB10 into the first modified form OB10a and the second modified form OB10b having different phases in the X direction each time a predetermined update timing is reached. A distorted image corresponding to the flow of water can be represented. Thereby, it can be made to visually recognize that the flow of water of the X direction was formed with scrolling of the X direction of a design, and correlation with a scroll of a design and a distorted picture can be performed suitably.

また、歪み演出では、屈折用オブジェクトOB10が配置される領域に表示される歪み画像と、その領域の周縁の画像とを馴染ませるために、屈折用αデータSKD1が用いられる。αデータは、既に説明した通り、画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。   Further, in distortion rendering, the refraction α data SKD1 is used in order to blend the distortion image displayed in the area where the refraction object OB10 is arranged with the image of the periphery of the area. The α data is, as already described, transmission information to be applied in units of pixels of image data, and is stored in advance in the memory module 133 as image data.

屈折用αデータSKD1は、図77(d)に示すように、その外形が適用対象となる屈折用オブジェクトOB10と一致するようにそのサイズが設定されている。屈折用αデータSKD1は、異なるα値が設定された複数の領域に区分けされている。   As shown in FIG. 77 (d), the size of the refracting α data SKD1 is set such that the outer shape thereof matches the refracting object OB10 to be applied. The refraction α data SKD1 is divided into a plurality of regions in which different α values are set.

屈折用αデータSKD1を区分けする領域は、中央側の透明度よりも縁側の透明度の方が高くなるように形成されている。詳細には、屈折用αデータSKD1は、屈折用αデータSKD1の中央領域に設けられ、不透過情報である「1」が設定された不透過領域SKA0と、当該不透過領域SKA0を囲むように設けられ、部分透過情報(0<α1<1)が設定された第1部分透過領域SKA1と、当該第1部分透過領域SKA1を囲むように設けられ、第1部分透過領域SKA1よりも透過率が高い部分透過情報(0<α2<α1)が設定された第2部分透過領域SKA2と、に区分けされている。   The area for dividing the refraction α data SKD1 is formed such that the transparency on the edge side is higher than the transparency on the center side. Specifically, the refraction α data SKD1 is provided in the central region of the refraction α data SKD1, and surrounds the opaque area SKA0 in which the opaque information “1” is set and the opaque area SKA0. Provided so as to surround the first partial transmission area SKA1 and the first partial transmission area SKA1 in which partial transmission information (0 <α1 <1) is set, and the transmittance is higher than that of the first partial transmission area SKA1 It is divided into a second partial transmission area SKA2 in which high partial transmission information (0 <α2 <α1) is set.

屈折用オブジェクトOB10(第1変形形態OB10a及び第2変形形態OB10bを含む)に対して屈折用αデータSKD1が適用されることにより、屈折用オブジェクトOB10に含まれる各ピクセルに対して屈折用αデータSKD1に含まれるα値が適用される。   The refraction α data SKD1 is applied to the refraction object OB10 (including the first modified form OB10a and the second deformed form OB10b), whereby the refraction α data is generated for each pixel included in the refraction object OB10. The alpha value contained in SKD1 is applied.

また、歪み画像を表示面Gの奥側にて重なる画像と重ね合わせる場合には、その重ね合わせに係る各ドットでは、屈折用αデータSKD1にて定められているα値と屈折用オブジェクトOB10に設定されている一律α値とを基準とした数値情報の融合(すなわち、ブレンディング)が行われる。具体的には、屈折用αデータSKD1に設定されているα値を個別α値とすると、
R:「奥側画像のR値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のR値」×「個別α値」×「一律α値」
G:「奥側画像のG値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のG値」×「個別α値」×「一律α値」
B:「奥側画像のB値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のB値」×「個別α値」×「一律α値」
の演算が行われる。
Further, in the case of superposing the distortion image on the image overlapped on the back side of the display surface G, the respective dots related to the superposition are the α value defined in the α data for refraction SKD1 and the object for refraction OB10. Fusion (ie, blending) of numerical information is performed based on the set uniform α value. Specifically, assuming that the α value set in the refraction α data SKD1 is an individual α value,
R: “R value of back side image” × (“1” − “individual α value” × “uniform α value”) + “R value of distorted image” × “individual α value” × “uniform α value”
G: "G value of back side image" × ("1"-"individual α value" × "uniform α value") + "G value of distorted image" × "individual α value" × "uniform α value"
B: "B value of back side image" × ("1"-"individual α value" × "uniform α value") + "B value of distorted image" × "individual α value" × "uniform α value"
The operation of is performed.

屈折用αデータSKD1が適用されることにより、歪み画像は、中央領域から縁側に向かうに従って徐々に透明となる。これにより、歪み画像の縁が背景画像に馴染み、当該歪み画像の縁が目立ちにくくなっている。   By applying the refraction α data SKD1, the distorted image becomes gradually transparent as it goes from the central region toward the edge. Thereby, the edge of the distorted image is familiar with the background image, and the edge of the distorted image is less noticeable.

また、歪み画像は、一律α値を反映した状態で表示される。具体的には、一律α値が小さい場合、歪み画像よりも奥側画像が反映される。一方、一律α値が大きい場合には歪み画像が奥側画像よりも反映される。   Further, the distortion image is displayed in a state in which the α value is uniformly reflected. Specifically, when the α value is uniformly small, the back side image is reflected rather than the distortion image. On the other hand, when the uniform α value is large, the distorted image is reflected more than the back side image.

歪み演出の具体的な処理構成について説明する。   A specific processing configuration of distortion production will be described.

図78は、表示CPU131にて実行される歪み演出演算処理を示すフローチャートである。歪み演出演算処理は、タスク処理(図14)におけるステップS904の演出用演算処理において、現状設定されているデータテーブルが歪み演出に対応したデータテーブルである場合に実行される。   FIG. 78 is a flowchart showing the distortion effect calculation process executed by the display CPU 131. The distortion effect calculation process is executed when the currently-set data table is a data table corresponding to distortion effect in the effect calculation process of step S904 in the task processing (FIG. 14).

先ず、ステップS4501では、現状設定されているデータテーブルに基づいて、歪み演出の実行中であるか否かを判定する。   First, in step S4501, it is determined based on the currently set data table whether or not distortion rendering is in progress.

歪み演出の実行中でない場合には、ステップS4502に進み、現状設定されているデータテーブルに基づいて、歪み演出の開始タイミングであるか否かを判定する。具体的には、現状設定されているデータテーブルに、歪み演出の開始タイミングであることを特定する情報が設定されているか否かを判定する。当該歪み演出の開始タイミングは図柄の変動開始タイミングと同一に設定されている。これにより、歪み演出は図柄の変動開始が行われる場合に実行されることとなる。   If the distortion effect is not being executed, the process proceeds to step S4502, and it is determined based on the currently set data table whether or not it is the start timing of the distortion effect. Specifically, it is determined whether or not the information specifying the start timing of the distortion effect is set in the currently set data table. The start timing of the distortion effect is set to be the same as the fluctuation start timing of the symbol. Thereby, distortion production will be performed, when the change start of a symbol is performed.

開始タイミングでない場合にはそのまま本演算処理を終了する一方、開始タイミングである場合には、ステップS4503〜ステップS4507にて屈折用オブジェクトOB10の初期設定に係る処理を実行する。具体的には、先ずステップS4503にて、屈折用オブジェクトOB10を把握する。そして、ステップS4504にて、当該屈折用オブジェクトOB10の座標の初期設定を行う。   If it is not the start timing, the present arithmetic processing is ended as it is, while if it is the start timing, the processing concerning the initial setting of the refraction object OB10 is executed in step S4503 to step S4507. Specifically, first, in step S4503, the refraction object OB10 is grasped. Then, in step S4504, the coordinates of the object for refraction OB10 are initialized.

当該座標は、データテーブル上に予め設定されている。詳細には、図柄画像に対して当該図柄画像のスクロール方向とは逆側の領域が歪み領域PE1として設定されており、当該歪み領域PE1に対して重なるように屈折用オブジェクトOB10の座標が設定されている。より詳細には、屈折用オブジェクトOB10が投影された場合に屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標が歪み領域PE1に含まれるように屈折用オブジェクトOB10の座標が設定されている。   The coordinates are preset on the data table. Specifically, an area opposite to the scroll direction of the symbol image is set as a distortion region PE1 with respect to the symbol image, and the coordinates of the object for refraction OB10 are set so as to overlap the distortion region PE1. ing. More specifically, the coordinates of the refracting object OB10 are set such that vertex coordinates other than the vertex coordinates constituting the outer edge of the refracting object OB10 are included in the distortion region PE1 when the refracting object OB10 is projected. There is.

その後、ステップS4505にて、一律α値として不透過情報である「1」を設定する。続くステップS4506では、屈折用オブジェクトOB10に適用されるその他のパラメータの演算処理を行う。   Thereafter, in step S4505, “1” which is opaque information is set as the uniform α value. In the following step S4506, calculation processing of other parameters applied to the diversion object OB10 is performed.

そして、ステップS4507にて、座標マッピングデータの初期設定を行う。当該座標マッピングデータについて図79を用いて説明する。図79は座標マッピングデータを説明するための説明図である。詳細には、図79(a)は第1座標マッピングデータMD1を説明するための説明図、図79(b)は第2座標マッピングデータMD2を説明するための説明図である。   Then, in step S4507, initial setting of coordinate mapping data is performed. The said coordinate mapping data are demonstrated using FIG. FIG. 79 is an explanatory view for explaining coordinate mapping data. Specifically, FIG. 79 (a) is an explanatory view for explaining the first coordinate mapping data MD1, and FIG. 79 (b) is an explanatory view for explaining the second coordinate mapping data MD2.

各座標マッピングデータMD1,MD2は、屈折用オブジェクトOB10を構成する各頂点座標のZ方向の変位量を決定するために用いられるデータである。各座標マッピングデータMD1,MD2には、屈折用オブジェクトOB10の各頂点に対して1対1に対応させてZ方向の変位量が設定されている。詳細には、屈折用オブジェクトOB10の頂点がX方向に10個、Y方向に7個だけマトリックス状に設定されていることに対応させて、屈折用オブジェクトOB10を構成する頂点のうち左上端の頂点に対して適用されるZ方向の変位量をZ(1,1)としてマトリックス状にZ(a,b)(a:1〜10、b:1〜7)が設定されている。なお、説明の便宜上、第1座標マッピングデータMD1に設定されているZ(a,b)をZ1(a,b)と、第2座標マッピングデータMD2に設定されているZ2(a,b)といい、Z(a,b)はZ1(a,b)及びZ2(a,b)の双方を示すものだとする。   The coordinate mapping data MD1 and MD2 are data used to determine the displacement amount in the Z direction of each vertex coordinate constituting the refraction object OB10. In each of the coordinate mapping data MD1 and MD2, a displacement amount in the Z direction is set in one-to-one correspondence with each vertex of the refraction object OB10. Specifically, in correspondence with the fact that the vertices of the refracting object OB10 are set in a matrix form of 10 in the X direction and 7 in the Y direction, the vertex of the upper left end among the vertices constituting the refracting object OB10 Z (a, b) (a: 1 to 10, b: 1 to 7) are set in a matrix shape with the amount of displacement in the Z direction applied to Z being Z (1, 1). For convenience of explanation, Z (a, b) set in the first coordinate mapping data MD1 is Z1 (a, b), and Z2 (a, b) set in the second coordinate mapping data MD2 No, Z (a, b) indicates both Z1 (a, b) and Z2 (a, b).

Z(a,b)は、屈折用オブジェクトOB10の外縁を形成する各頂点のZ座標を基準とするZ方向の変位量が設定されたものである。詳細には、屈折用オブジェクトOB10の外縁を形成する各頂点に対応したZ(1,b)、Z(10,b),Z(a,1),Z(a,7)には「0」が設定されており、その他のZ(x,y)(x:2〜9、y:2〜6)には、各変形形態OB10a,OB10bに対応した変位量が設定されている。   Z (a, b) is set with a displacement amount in the Z direction based on the Z coordinate of each vertex forming the outer edge of the refraction object OB 10. Specifically, “0” is given to Z (1, b), Z (10, b), Z (a, 1), Z (a, 7) corresponding to each vertex forming the outer edge of the refracting object OB 10 In the other Z (x, y) (x: 2 to 9, y: 2 to 6), displacement amounts corresponding to the respective modified forms OB10a and OB10b are set.

具体的には、Z1(x,y)は、屈折用オブジェクトOB10が第1変形形態OB10aに変形するよう設定されている。一方、Z2(x,y)は、屈折用オブジェクトOB10が第2変形形態OB10bに変形するよう設定されている。   Specifically, Z1 (x, y) is set such that the refraction object OB10 is deformed into the first modified form OB10a. On the other hand, Z2 (x, y) is set such that the refraction object OB10 is deformed into the second modified form OB10b.

ステップS4507では、初期設定として第1座標マッピングデータMD1のアドレス情報を描画リストに設定する処理を実行する。これにより、第1座標マッピングデータMD1のアドレス情報が設定された描画リストが作成される。そして、VDP135では、当該アドレス情報に基づいて第1座標マッピングデータMD1を取得し、屈折用オブジェクトOB10の各頂点に対して、当該各頂点に対応するZ座標の変位量の分だけ変位させることで、屈折用オブジェクトOB10を第1変形形態OB10aに変形させる処理を実行する。   In step S4507, processing is performed to set address information of the first coordinate mapping data MD1 in the drawing list as initial setting. Thus, the drawing list in which the address information of the first coordinate mapping data MD1 is set is created. Then, the VDP 135 obtains the first coordinate mapping data MD1 based on the address information, and displaces each vertex of the object for refraction OB10 by the amount of displacement of the Z coordinate corresponding to each vertex. A process of deforming the refraction object OB10 into the first modified form OB10a is executed.

なお、ステップS4507では、現状どちらの座標マッピングデータが設定されているかを表示CPU131にて特定するための処理を実行する。具体的には、ワークRAM132には、現状設定されている座標マッピングデータを特定するための情報を格納する特定記憶領域が設けられている。ステップS4507では、当該特定記憶領域に対して、第1座標マッピングデータMD1に対応した情報を設定する。   Note that, in step S4507, a process for specifying which coordinate mapping data is currently set is executed by the display CPU 131. Specifically, the work RAM 132 is provided with a specific storage area for storing information for specifying coordinate mapping data currently set. In step S4507, information corresponding to the first coordinate mapping data MD1 is set in the specific storage area.

ステップS4507の処理の実行後は、ステップS4508〜ステップS4510にて、屈折用αデータSKD1の設定を行う。具体的には、ステップS4508にて屈折用αデータSKD1を把握し、ステップS4509にて、屈折用αデータSKD1の座標を屈折用オブジェクトOB10と同一座標に設定する。そして、ステップS4510にて屈折用αデータSKD1に適用されるその他のパラメータの演算処理を行う。   After execution of the processing of step S4507, the refraction α data SKD1 is set in steps S4508 to S4510. Specifically, in step S4508, the refraction α data SKD1 is grasped, and in step S4509, the coordinates of the refraction α data SKD1 are set to the same coordinates as the refraction object OB10. Then, at step S4510, calculation processing of other parameters to be applied to the refraction α data SKD1 is performed.

その後、ステップS4511にてその他の演出用オブジェクトを把握し、ステップS4512にて当該演出用オブジェクトに適用されるパラメータの演算処理を行う。   Thereafter, in step S4511, other rendering objects are grasped, and in step S4512, calculation processing of parameters applied to the rendering objects is performed.

続くステップS4513では、VDP135にて歪み演出が行われることを特定するための歪み演出指定情報を設定し、本演算処理を終了する。   In the subsequent step S 4513, distortion effect designation information for specifying that distortion effect is performed in the VDP 135 is set, and the present arithmetic processing is ended.

かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成された描画リストには、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1は同一座標に設定されている。   When such processing is executed, at least the refraction object OB10 and the refraction α data SKD1 are set in the drawing list created in the subsequent drawing list output process (step S806). In this case, the refraction object OB10 and the refraction α data SKD1 are set at the same coordinates.

また、当該描画リストには、第1座標マッピングデータMD1のアドレス情報及び歪み演出指定情報が設定されている。   Further, in the drawing list, the address information of the first coordinate mapping data MD1 and the distortion rendering designation information are set.

一方、歪み演出実行中である場合(ステップS4501:YES)、ステップS4514にて、現状設定されているデータテーブルに基づいて、透明化期間中であるか否かを判定する。具体的には、歪み演出に対応したデータテーブルには、透明化期間であることを特定するための情報が設定されている。当該透明化期間は、歪み演出の終了タイミングに対して複数フレーム(例えば10フレーム)前のタイミングから歪み演出の終了タイミングまでの期間に設定されている。ステップS4514では、現状設定されているデータテーブルに当該情報が設定されているか否かを判定する。   On the other hand, if the distortion effect is being executed (step S4501: YES), it is determined in step S4514 based on the currently set data table whether or not the transparency period is in progress. Specifically, information for specifying that it is a transparency period is set in the data table corresponding to the distortion effect. The transparentization period is set to a period from a plurality of frames (for example, 10 frames) before the end timing of the distortion effect to the end timing of the distortion effect. In step S 4514, it is determined whether the information is set in the currently set data table.

透明化期間中でない場合には、ステップS4515にて屈折用オブジェクトOB10を把握し、ステップS4516にてパラメータの演算処理を実行する。この場合、初期設定された各種パラメータを維持する。   If it is not in the transparentization period, the refraction object OB10 is grasped in step S4515, and parameter calculation processing is executed in step S4516. In this case, various parameters initially set are maintained.

その後、ステップS4517にて、屈折用オブジェクトOB10の変形を更新する処理、すなわち座標マッピングデータを更新する処理を実行する。具体的には、特定記憶領域に記憶されている情報に基づいて、前の処理回にて設定された座標マッピングデータを把握する。そして、前の処理回にて把握された座標マッピングデータとは異なる座標マッピングデータのアドレスを設定するとともに、特定記憶領域に今回設定した座標マッピングデータに対応した情報を格納する。例えば、前の処理回にて第1座標マッピングデータMD1が設定された場合には第2座標マッピングデータMD2を設定し、前の処理回にて第2座標マッピングデータMD2が設定された場合には第1座標マッピングデータMD1を設定する。   Thereafter, in step S4517, processing of updating the deformation of the refraction object OB10, that is, processing of updating coordinate mapping data is executed. Specifically, based on the information stored in the specific storage area, the coordinate mapping data set in the previous processing cycle is grasped. Then, the address of coordinate mapping data different from the coordinate mapping data grasped in the previous processing is set, and information corresponding to the coordinate mapping data set this time is stored in the specific storage area. For example, if the first coordinate mapping data MD1 is set in the previous process, the second coordinate mapping data MD2 is set, and if the second coordinate mapping data MD2 is set in the previous process, the second coordinate mapping data MD2 is set. First coordinate mapping data MD1 is set.

そして、ステップS4508〜ステップS4513の処理を実行し、本演算処理を終了する。   Then, the processing of step S4508 to step S4513 is executed, and this arithmetic processing ends.

以上の処理が実行された場合、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定された描画リストが作成される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1に対して適用されるパラメータは維持されている。   When the above processing is executed, a drawing list in which at least the refraction object OB10 and the refraction α data SKD1 are set is created. In this case, the parameters applied to the refraction object OB10 and the refraction α data SKD1 are maintained.

また、今回作成された描画リストには、前回作成された描画リストに設定された座標マッピングデータとは異なる座標マッピングデータのアドレスが設定されているとともに、歪み演出指定情報が設定されている。   Further, in the drawing list created this time, an address of coordinate mapping data different from the coordinate mapping data set in the drawing list created last time is set, and also, distortion representation specification information is set.

透明化期間中である場合(ステップS4514:YES)、ステップS4518にて屈折用オブジェクトOB10を把握する。そして、ステップS4519にて一律α値を更新する。具体的には、一律α値を所定値(例えば0.1)だけ減算する処理を実行する。   If it is during the transparency period (step S4514: YES), the refraction object OB10 is grasped at step S4518. Then, in step S4519, the α value is uniformly updated. Specifically, a process of uniformly subtracting the α value by a predetermined value (for example, 0.1) is performed.

その後、ステップS4520にてその他のパラメータの演算処理を実行し、ステップS4521にて座標マッピングデータの更新処理を実行する。そして、ステップS4508〜ステップS4513の処理を実行して、本演算処理を終了する。これらの処理については既に説明した通りであるため、説明を省略する。   Thereafter, calculation processing of other parameters is executed in step S 4520, and updating processing of coordinate mapping data is executed in step S 4521. Then, the processing of step S4508 to step S4513 is executed, and the present arithmetic processing ends. Since these processes are as already explained, the explanation is omitted.

以上の処理が実行された場合、屈折用オブジェクトOB10に適用される一律α値が異なる描画リストが作成される。当該一律α値は、フレーム毎に徐々に小さくなる。   When the above processing is executed, a drawing list is created which is different in the uniform α value applied to the refraction object OB10. The uniform α value gradually decreases for each frame.

ここで、透明化期間と一律α値の減算値とは対応させて設定されている。具体的には、歪み演出の終了タイミングにおいて一律α値が「0」となるように、減算値と透明化期間とが設定されている。詳細には、透明化期間に係るフレーム数=1/減算値となるように両者が設定されている。これにより、屈折用オブジェクトOB10に貼り付けられた画像が徐々に消えていき、歪み演出の終了タイミングでは完全に消えるようになっている。   Here, the transparency period and the subtraction value of the uniform α value are set to correspond to each other. Specifically, the subtraction value and the transparency period are set so that the α value becomes “0” uniformly at the end timing of the distortion effect. Specifically, both are set so that the number of frames relating to the transparentization period = 1 / subtracted value. As a result, the image attached to the refraction object OB 10 gradually disappears, and completely disappears at the end timing of the distortion production.

なお、タスク処理(図14)の図柄用演算処理(ステップS905)では、歪み演出の開始と同期して、図柄の変動表示の開始に係る処理が実行される。具体的には、各図柄画像が所定の方向(左方向)に向けてスクロールするための処理が実行される。   In the symbol calculation process (step S905) of the task process (FIG. 14), a process relating to the start of the variation display of the symbol is executed in synchronization with the start of the distortion effect. Specifically, processing for scrolling each symbol image in a predetermined direction (left direction) is performed.

次に、本実施の形態におけるVDP135にて行われる描画処理について図80のフローチャートを用いて説明する。当該描画処理は、予め定められた周期にて定期的に行われるループ処理であり、詳細には描画リストが作成される周期(20msec)よりも短い周期で行われる。この場合、描画処理の実行に係る時間は、描画リストの受信間隔よりも短く設定されている。これにより、描画処理が行われている最中に新たな描画リストが受信されてないようになっている。   Next, drawing processing performed by the VDP 135 in the present embodiment will be described using the flowchart in FIG. The drawing process is a loop process periodically performed in a predetermined cycle, and more specifically, is performed in a cycle shorter than a cycle (20 msec) in which a drawing list is created. In this case, the time relating to the execution of the drawing process is set to be shorter than the reception interval of the drawing list. Thereby, a new drawing list is not received while drawing processing is being performed.

さらに、描画処理の実行に係る時間と、描画リストが作成され当該描画リストを受信するまでの時間とを合わせた時間が、画像の更新間隔よりも短くなるように設定されている。これにより、画像の更新間隔よりも描画に係る時間が長くなる事態が生じないようになっている。   Furthermore, the time that is the sum of the time for executing the drawing process and the time for creating the drawing list and receiving the drawing list is set to be shorter than the image update interval. As a result, the time for drawing will not be longer than the update interval of the image.

先ず、ステップS4601にて、新たな描画リストを受信したか否かを判定する。新たな描画リストを受信していない場合にはそのまま本処理を終了する一方、新たな描画リストを受信している場合には、ステップS4602〜ステップS4608にて先に背景用の描画データ(背景画像)を作成する。   First, in step S4601, it is determined whether a new drawing list has been received. If a new drawing list has not been received, this processing ends, while if a new drawing list has been received, background drawing data (background image) is first received in steps S4602 to S4608. Create).

具体的には、先ずステップS4602にて背景用の設定処理を実行する。そして、当該ステップS4602にて把握された最背面画像及び背景用のオブジェクトに対して、ステップS4603〜ステップS4608の処理を実行する。これにより、背景用の描画データが先に作成され、背景用のバッファに書き込まれる。   Specifically, first, in step S4602, a setting process for background is executed. Then, the processing of step S4603 to step S4608 is executed on the backmost image and the object for background that are grasped in step S4602. As a result, drawing data for the background is first created and written to the buffer for the background.

その後、ステップS4609〜ステップS4616の処理を実行することにより、演出及び図柄用の描画データを作成する。そして、ステップS4617にて描画データ合成処理を実行し、本描画処理を終了する。   Thereafter, the processing of step S4609 to step S4616 is executed to create rendering data for effect and symbol. Then, in step S4617, the drawing data combining process is executed, and the present drawing process is ended.

かかる構成によれば、演出用及び図柄用の描画データの作成に係る処理を実行する前段階で、背景画像の作成が完了している。これにより、演出用及び図柄用の描画データの作成に係る処理を実行する場合に、背景画像を用いることが可能となっている。   According to this configuration, the creation of the background image is completed prior to the execution of the process relating to the creation of the rendering data for the effect and the symbol. Thereby, it is possible to use a background image when executing processing relating to creation of drawing data for effect and for symbol.

次に、歪み演出用の設定処理について図81のフローチャートを用いて説明する。歪み演出用の設定処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4609の演出用の設定処理にて実行される。   Next, setting processing for distortion effect will be described using the flowchart in FIG. The distortion effect setting process is executed in the effect setting process of step S4609 in the drawing process (FIG. 80) when distortion effect designation information is set in the drawing list.

先ず、ステップS4701では、描画リストに設定されている屈折用オブジェクトOB10を把握する。   First, in step S4701, the refraction object OB10 set in the drawing list is grasped.

その後ステップS4702にて、描画リストに設定されている座標マッピングデータのアドレス情報に基づいて、今回適用される座標マッピングデータを把握する。続くステップS4703では、ステップS4702にて把握された座標マッピングデータを用いて屈折用オブジェクトOB10を変形させる。   Thereafter, in step S4702, the coordinate mapping data applied this time is grasped based on the address information of the coordinate mapping data set in the drawing list. In the following step S4703, the refraction object OB10 is deformed using the coordinate mapping data grasped in step S4702.

具体的には、座標マッピングデータを参照することにより、屈折用オブジェクトOB10を構成する各頂点に対応するZ方向の変位量を把握する。そして、ローカル座標系における各頂点のZ座標を、把握されたZ方向の変位量だけ変位させる。これにより、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形する。   Specifically, by referring to the coordinate mapping data, the displacement amount in the Z direction corresponding to each vertex constituting the refraction object OB 10 is grasped. Then, the Z coordinate of each vertex in the local coordinate system is displaced by the grasped displacement amount in the Z direction. Thereby, the refracting object OB10 is deformed into the first modified form OB10a or the second modified form OB10b.

その後、ステップS4704にて第2変形形態OB10bに対して適用される各種パラメータを把握する。そして、ステップS4705にて、第1変形形態OB10a又は第2変形形態OB10bについてワールド座標系への設定処理を実行し、ステップS4706に進む。   Thereafter, in step S4704, various parameters to be applied to the second modified form OB 10b are grasped. Then, in step S4705, processing for setting the world coordinate system is executed for the first modified OB 10a or the second modified OB 10b, and the flow proceeds to step S4706.

ステップS4706では、その他の演出用オブジェクトを把握し、ステップS4707では当該演出用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS4708にて、その他の演出用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。   In step S4706, other rendering objects are grasped, and in step S4707, parameters applied to the rendering objects are grasped. Then, in step S4708, setting processing to the world coordinate system is executed for the other rendering objects, and this setting processing is ended.

上記のように設定処理が実行されることにより、屈折用オブジェクトOB10を変形することで形成された第1変形形態OB10a又は第2変形形態OB10bがワールド座標系に配置される。   By performing the setting process as described above, the first modified form OB10a or the second modified form OB10b formed by deforming the refraction object OB10 is arranged in the world coordinate system.

次に、歪み演出用テクスチャマッピング処理について図82のフローチャートを用いて説明する。歪み演出用テクスチャマッピング処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4615における色情報の設定処理にて実行される。   Next, the distortion effect texture mapping process will be described using the flowchart of FIG. The distortion effect texture mapping process is executed in the color information setting process in step S4615 of the drawing process (FIG. 80) when the distortion effect specifying information is set in the drawing list.

歪み演出用テクスチャマッピング処理では、屈折用オブジェクトOB10(詳細には各変形形態OB10a,OB10bのいずれか)に対して貼り付けられるテクスチャとして背景画像の一部を用いる処理を実行する。   In the distortion rendering texture mapping process, a process of using a part of the background image as a texture to be attached to the refraction object OB10 (specifically, any one of the modified forms OB10a and OB10b) is executed.

ステップS4801では、今回の描画対象として設定されている背景画像を把握する。具体的には、描画処理(図80)のステップS4608にて背景用のバッファに書き込まれた背景用の描画データを把握する。   In step S4801, the background image set as the current drawing target is grasped. Specifically, the background drawing data written in the background buffer in step S4608 of the drawing process (FIG. 80) is grasped.

続くステップS4802では、ステップS4801にて把握された背景画像を用いて、屈折用オブジェクトOB10に貼り付けるテクスチャを作成する処理を実行する。具体的には、把握された背景画像をトリミングすることにより、当該背景画像のうち屈折用オブジェクトOB10に係る領域、具体的には屈折用オブジェクトOB10が投影される領域に対応した部分の画像データを抜き出す。この場合、当該画像データのサイズが屈折用オブジェクトOB10のサイズと同一になるように抜き出す。   In the following step S4802, using the background image grasped in step S4801, a process of creating a texture to be attached to the refraction object OB10 is executed. Specifically, by trimming the grasped background image, image data of a portion of the background image corresponding to a region related to the refraction object OB10, specifically, a region on which the refraction object OB10 is projected Pull out. In this case, the size of the image data is extracted so as to be the same as the size of the refraction object OB10.

なお、トリミングの際には、背景用のバッファに書き込まれている背景用の描画データ自体は変更せず、別途バッファを用いて行う。   At the time of trimming, the drawing data for background written in the buffer for background is not changed, and is separately performed using a buffer.

その後、ステップS4803にて、屈折用オブジェクトOB10(第1変形形態OB10a又は第2変形形態OB10b)に対して、ステップS4802にて抜き出した部分の画像データをテクスチャとして貼り付ける。この場合、ラップマッピング手法又はUVラッピング手法で行う。   Thereafter, in step S4803, the image data of the portion extracted in step S4802 is attached as a texture to the refraction object OB10 (the first modified form OB10a or the second modified form OB10b). In this case, a wrap mapping method or a UV wrapping method is used.

その後、ステップS4804にて、描画リストに基づいてその他のオブジェクトに対して貼り付けられるテクスチャを把握し、ステップS4805にて各オブジェクトに対してテクスチャを貼り付けて本処理を終了する。   Thereafter, in step S4804, the textures to be attached to the other objects are grasped based on the drawing list, and in step S4805, the textures are attached to the respective objects, and the process is ended.

かかる構成によれば、屈折用オブジェクトOB10に対して、当該屈折用オブジェクトOB10の投影領域に対応した背景画像が貼り付けられる。この場合、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形した状態で投影されることにより、屈折用オブジェクトOB10の投影領域に対応する歪み領域PE1の背景画像が歪む。これにより、歪みに対応したテクスチャを別途設けることなく、背景画像の一部が歪む様子を表現することができる。   According to this configuration, a background image corresponding to the projection area of the refraction object OB10 is pasted to the refraction object OB10. In this case, by projecting the refraction object OB10 in a deformed state into the first modified form OB10a or the second modified form OB10b, the background image of the distortion area PE1 corresponding to the projection area of the refraction object OB10 is distorted. This makes it possible to express how a part of the background image is distorted without separately providing a texture corresponding to the distortion.

ここで、既に説明した通り、屈折用オブジェクトOB10に貼り付けられるテクスチャのサイズと屈折用オブジェクトOB10のサイズとは同一に設定されている。これにより、他の領域に表示される画像の画質と比較して、屈折用オブジェクトOB10が変形することによって生じ得る歪み画像の画質の低下が目立ちにくい。   Here, as described above, the size of the texture attached to the refraction object OB10 and the size of the refraction object OB10 are set to be the same. As a result, in comparison with the image quality of the image displayed in the other area, the degradation of the image quality of the distorted image which may be caused by the deformation of the refraction object OB 10 is less noticeable.

なお、歪み演出を実行する場合における描画処理(図80)のステップS4616の演出及び図柄用の描画データ作成処理では、平行投影で投影することで描画データを作成する。これにより、視点からの距離を考慮して屈折用オブジェクトOB10のサイズを設定する必要がないため、屈折用オブジェクトOB10のサイズの設定を簡単に行うことができる。   In addition, in rendering in step S4616 of the rendering processing (FIG. 80) and rendering data creation processing for symbols in the case of executing distortion rendering, rendering data is created by projecting in parallel projection. As a result, since there is no need to set the size of the refraction object OB10 in consideration of the distance from the viewpoint, the size of the refraction object OB10 can be easily set.

但し、平行投影に限られず透視投影を行う構成としてもよい。この場合、屈折用オブジェクトOB10が投影された場合に当該屈折用オブジェクトOB10の投影領域が歪み領域PE1に対応するように、視点からの距離を考慮して屈折用オブジェクトOB10のサイズ及び屈折用オブジェクトOB10の座標が設定されているとよい。   However, the configuration is not limited to parallel projection, and may be configured to perform perspective projection. In this case, when the refracting object OB10 is projected, the size of the refracting object OB10 and the refracting object OB10 in consideration of the distance from the viewpoint so that the projection area of the refracting object OB10 corresponds to the distortion area PE1. It is preferable that the coordinates of are set.

次に、歪み演出用融合処理について図83のフローチャートを用いて説明する。歪み演出用融合処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)の描画データ合成処理(ステップS4617)において実行される。なお、説明の便宜上、フレームバッファ142のうち、変形した屈折用オブジェクトOB10が投影された領域に含まれるドットに対応する単位エリアを対象として説明し、その他の領域に含まれるドットに対応する単位エリアについては説明を省略する。さらに、最初に対象となるドットは予め定められているとする。   Next, the fusion processing for distortion effect will be described using the flowchart in FIG. The distortion effect fusion process is executed in the drawing data combining process (step S4617) of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list. Note that, for convenience of explanation, the unit area corresponding to the dots included in the area onto which the deformed refraction object OB10 is projected in the frame buffer 142 will be described, and the unit area corresponding to the dots included in the other areas. The explanation is omitted. Furthermore, it is assumed that the first target dot is predetermined.

先ずステップS4901では、演出用の描画データに基づいて、屈折用オブジェクトOB10が投影された領域に含まれるドットのうち今回の対象ドットに対応した対象ピクセルの数値情報を把握する。当該数値情報が歪み画像の数値情報(「m」とする)に対応する。   First, in step S4901, numerical information of a target pixel corresponding to the current target dot among the dots included in the area where the refraction object OB10 is projected is grasped based on the rendering data for presentation. The numerical information corresponds to the numerical information ("m") of the distortion image.

そして、ステップS4902にて、屈折用αデータSKD1に基づいて、今回の対象ドットに対応する個別α値を把握し、ステップS4903にて、描画リストに基づいて屈折用オブジェクトOB10に対して適用される一律α値を把握する。   Then, in step S4902, the individual α value corresponding to the current target dot is grasped based on the refraction α data SKD1, and applied to the refraction object OB10 based on the drawing list in step S4903. Determine the uniform alpha value.

続くステップS4904では、背景用の描画データに基づいて、背景画像における今回の対象ドットに対応する対象ピクセルの数値情報を把握する。当該数値情報が奥側画像の数値情報(「n」とする)に対応する。   In the following step S4904, numerical information of the target pixel corresponding to the current target dot in the background image is grasped based on the background drawing data. The numerical value information corresponds to the numerical value information (“n”) of the back side image.

そして、ステップS4905にて、上記ステップS4901〜ステップS4904の処理により把握された把握結果に基づいて融合処理(ブレンディング処理)を実行し、その融合結果を、フレームバッファ142における各単位エリアのうち今回の対象ドットに対応した単位エリアに書き込む。   Then, in step S4905, a fusion process (blending process) is executed based on the grasped result grasped by the process of steps S4901 to S4904, and the fusion result is calculated from among the unit areas in the frame buffer 142 at this time. Write in the unit area corresponding to the target dot.

上記融合処理では、先に説明した演算式が用いられる。すなわち、n×(1−「個別α値」×「一律α値」)+m×「個別α値」×「一律α値」の演算を行う。   In the fusion process, the arithmetic expression described above is used. That is, the calculation of n × (1− “individual α value” × “uniform α value”) + m × “individual α value” × “uniform α value” is performed.

続くステップS4906では、屈折用オブジェクトOB10の投影領域に含まれる全ドットについて融合処理が完了しているか否かを判定する。完了していない場合には、ステップS4907にて対象ドットを更新する処理を実行し、ステップS4901に戻る。これにより、新たな対象ドットに対して融合処理を実行することとなる。完了している場合には、本融合処理を終了する。   In the following step S4906, it is determined whether the fusion process has been completed for all the dots included in the projection area of the refraction object OB10. If not completed, the process of updating the target dot is executed in step S4907, and the process returns to step S4901. By this, the fusion process is performed on the new target dot. If it has been completed, this fusion processing is ended.

以上の処理が実行されることにより、歪み画像と背景画像との融合が行われることとなる。つまり、一律α値が「1」である場合には、外縁部に向かうに従って透明となる歪み画像が表示される。一方、一律α値が「0」である場合には、背景画像がそのまま表示される。   By performing the above processing, fusion of the distortion image and the background image is performed. That is, when the α value is uniformly “1”, a distorted image that becomes transparent as it goes to the outer edge portion is displayed. On the other hand, when the uniform α value is “0”, the background image is displayed as it is.

次に、歪み演出の様子について図84を用いて説明する。図84は、歪み演出を説明するための説明図であり、図84(a)は歪み演出が開始される前の画像を説明するための説明図、図84(b)は第1変形形態OB10aに基づく歪み画像を説明するための説明図、図84(c)は第2変形形態OB10bに基づく歪み画像を説明するための説明図である。なお、図面の関係上、表示面Gの一部を示すとともに、歪み演出の対象となる図柄画像CP11及び海中の様子を示す背景画像の一部として2つの珊瑚画像CP12のみを表示するが、実際には複数の個別画像及び最背面画像が表示される。   Next, the state of distortion production will be described using FIG. FIG. 84 is an explanatory view for explaining distortion effects, and FIG. 84 (a) is an explanatory view for explaining an image before the distortion effect is started, and FIG. 84 (b) is a first modified form OB10a 84 (c) is an explanatory view for explaining a distortion image based on the second modified form OB 10b. FIG. Note that although only part of the display surface G is shown, and only two overhead images CP12 are displayed as part of the background image showing the appearance in the sea, while showing part of the display surface G, in relation to the drawings. A plurality of individual images and a backmost image are displayed on the screen.

図84(a)に示すように、歪み演出が開始される前には、図柄画像CP11が停止表示されている。この場合、表示面Gにおける歪み領域PE1、具体的には図柄画像CP11に対して当該図柄画像CP11のスクロール方向(左方向)とは逆側の領域(右側領域)には、珊瑚が描かれた2つの珊瑚画像CP12が並んで表示されている。   As shown in FIG. 84 (a), before the distortion effect is started, the symbol image CP11 is stopped and displayed. In this case, a wrinkle is drawn on the distortion area PE1 on the display surface G, specifically, an area (right area) opposite to the scroll direction (left direction) of the symbol image CP11 with respect to the symbol image CP11. Two overhead images CP12 are displayed side by side.

歪み演出が開始されると、図柄画像CP11が左方向にスクロール移動する。この場合、図84(b)に示すように、歪み領域PE1には、膨張した膨張珊瑚画像CP13と収縮した収縮珊瑚画像CP14が描かれた第1歪み画像CP15が表示される。この場合、膨張珊瑚画像CP13が図柄画像CP11側に表示され、収縮珊瑚画像CP14がそれとは反対側に表示される。   When the distortion effect is started, the symbol image CP11 scrolls in the left direction. In this case, as shown in FIG. 84 (b), the strained area PE1 displays a first distortion image CP15 on which the expanded expansion eyelid image CP13 and the contracted contraction eyelid image CP14 are drawn. In this case, the expansion eyelid image CP13 is displayed on the symbol image CP11 side, and the contraction eyelid image CP14 is displayed on the opposite side.

歪み演出の開始タイミングに対して次のフレームでは、図8(c)に示すように、歪み領域PE1には、膨張珊瑚画像CP13及び収縮珊瑚画像CP14の位置関係が逆になった第2歪み画像CP16が表示される。   The second distortion image in which the positional relationship between the expansion eyelid image CP13 and the contraction eyelid image CP14 is reversed in the distortion area PE1 as shown in FIG. CP16 is displayed.

その後、フレーム毎に各歪み画像CP15,CP16が交互に表示される。これにより、図柄画像CP11に対して当該図柄画像CP11の進行方向とは逆側の領域にて水中の流れが形成されたことに起因して揺らいでいるように見える。   Thereafter, the distortion images CP15 and CP16 are alternately displayed for each frame. As a result, the pattern image CP11 appears to shake due to the formation of the flow in water in the area opposite to the traveling direction of the pattern image CP11.

そして、図柄画像CP11のスクロール(歪み演出)が開始されてから、所定数のフレームが更新されたことに基づいて、歪み領域PE1には、徐々に膨張珊瑚画像CP13及び収縮珊瑚画像CP14に代えて、珊瑚画像CP12が表示される。   Then, based on the fact that a predetermined number of frames have been updated since the scrolling (distortion effect) of the symbol image CP11 was started, the distortion region PE1 is gradually replaced with the expansion eyelid image CP13 and the contraction eyelid image CP14. , The overhead image CP12 is displayed.

以上の通り、図柄画像CP11の変動表示が行われる場合に、歪み領域PE1に各歪み画像CP15,CP16を交互に表示することにより、図柄画像CP11のスクロールにより水中に流れが形成されて奥側の背景が揺らいだように見せることができる。これにより、水中における図柄のスクロールを、よりリアルに表現することが可能となる。   As described above, when the variation display of the symbol image CP11 is performed, the strain images CP15 and CP16 are alternately displayed in the strain area PE1, so that the flow is formed in the water by the scroll of the symbol image CP11 and You can make the background appear to shake. This makes it possible to more realistically represent the scroll of symbols in water.

この場合、屈折用オブジェクトOB10を第1変形形態OB10a又は第2変形形態OB10bに変形させ、これらに対して背景画像の一部をテクスチャとして貼り付けることにより各歪み画像CP15,CP16を作成した。これにより、歪みを表現するためのテクスチャを別途用意する必要がないため、画像を歪ませるのに要するデータ量の削減を図ることができる。   In this case, distortion images CP15 and CP16 are created by deforming the refraction object OB10 into the first modified form OB10a or the second modified form OB10b and pasting a part of the background image as a texture thereto. As a result, it is not necessary to separately prepare a texture for expressing distortion, so it is possible to reduce the amount of data required to distort an image.

また、屈折用オブジェクトOB10の描画に係る処理を実行する前に背景画像の描画データを作成し、当該描画データを用いて屈折用オブジェクトOB10への貼付対象となるテクスチャを作成する構成とした。これにより、屈折用オブジェクトOB10に対して貼り付けるテクスチャを予め用意しておく必要がないため、テクスチャのデータ量の更なる削減を図ることができる。   In addition, before executing processing relating to the drawing of the refraction object OB10, drawing data of a background image is created, and a texture to be attached to the refraction object OB10 is created using the drawing data. As a result, since it is not necessary to prepare in advance a texture to be attached to the refraction object OB 10, it is possible to further reduce the data amount of the texture.

具体的には、背景用の各種オブジェクトをワールド座標系に配置し、これらを投影することにより歪み対象となる描画データ、すなわち背景用の2次元画像データを取得する。その後、屈折用オブジェクトOB10を配置し且つ変形させた状態で当該屈折用オブジェクトOB10に対して歪み対象となる描画データをテクスチャとして貼り付け且つ投影する構成とした。これにより、テクスチャの作成に係る処理を描画処理の一部として用いることができるため、処理負荷の軽減を図ることができる。換言すれば、描画処理の途中段階で作成される画像をテクスチャとして用いることができる。   Specifically, various objects for background are arranged in the world coordinate system, and by projecting these, drawing data to be distorted, that is, two-dimensional image data for background is acquired. Thereafter, in a state in which the refraction object OB10 is arranged and deformed, drawing data to be distorted is pasted and projected as a texture to the refraction object OB10. As a result, since processing relating to creation of texture can be used as part of drawing processing, processing load can be reduced. In other words, an image created in the middle of the drawing process can be used as a texture.

ここで、テクスチャの各単位領域(ピクセル)には、色情報として3色分の数値情報が格納されている。このため、Z方向の変位量のみが設定されている座標マッピングデータと比較して、情報量が大きくなり易い。この点、上記構成によれば、情報量が比較的少ない座標マッピングデータのみを用いて各歪み画像CP15,CP16を表示することができるため、各歪み画像CP15,CP16に係るテクスチャを別途設ける構成と比較して、歪み演出に係るデータ量を小さくすることができる。   Here, in each unit area (pixel) of the texture, numerical information for three colors is stored as color information. Therefore, the amount of information tends to be large compared to coordinate mapping data in which only the displacement amount in the Z direction is set. In this respect, according to the above configuration, since each distortion image CP15, CP16 can be displayed using only coordinate mapping data with a relatively small amount of information, a configuration in which a texture relating to each distortion image CP15, CP16 is separately provided In comparison, it is possible to reduce the amount of data relating to the distortion effect.

また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定し屈折用オブジェクトOB10を変形させる場合に当該屈折用オブジェクトOB10の外縁部のZ座標は変更しない構成とした。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界が目立つことを回避することができる。   Further, the outer edge of the object for refraction OB10 is set when the shape of the object for refraction OB10 is set so that the display area when the object for refraction OB10 is projected in parallel becomes larger than the distortion region PE1. The Z coordinate of the part is not changed. As a result, it is possible to avoid that the boundary between the image relating to the refraction object OB 10 and the other images is noticeable.

さらに、各歪み画像CP15,CP16の外縁部に向かうに従って当該各歪み画像CP15,CP16が透明となるように屈折用αデータSKD1を設けた。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界をより好適に目立ちにくくすることができる。   Further, the α-data for refraction SKD1 is provided so that the distorted images CP15 and CP16 become transparent as they approach the outer edge portion of the distorted images CP15 and CP16. As a result, the boundary between the image relating to the refraction object OB 10 and the other images can be made more conspicuous and less noticeable.

そして、歪み演出が終了する場合には、各歪み画像CP15,CP16を徐々に透明にする構成とした。これにより、各歪み画像CP15,CP16から珊瑚画像CP12に移り変わる場合に当該移り変わりを目立ちにくくすることができる。   And when distortion production ends, it was set as composition which makes each distortion picture CP15 and CP16 transparent gradually. Thereby, when changing from each distortion image CP15 and CP16 to the bird's-eye view image CP12, the said change can be made inconspicuous.

なお、上記構成では、歪みを表現する場面として、図柄画像CP11が変動表示を開始する場面を設定したが、これに限られず、任意である。例えば、物体が高速移動することによって生じる衝撃波を表現するのに用いてもよく、場面の切換、図柄画像CP11を別の図柄画像に切り換える場合に用いてもよい。この場合、歪ませたい領域(歪み領域PE1)に合わせて屈折用オブジェクトOB10の形状を設定する。   In the above configuration, a scene in which the symbol image CP11 starts variable display is set as a scene representing distortion, but the present invention is not limited to this and is arbitrary. For example, it may be used to express a shock wave generated by moving an object at high speed, or may be used to switch a scene or to switch a symbol image CP11 to another symbol image. In this case, the shape of the object for refraction OB10 is set in accordance with the area to be distorted (distortion area PE1).

また、歪みを表現する演出に限られず、画像の一部又は全部を変化させる表示演出に対して本発明を適用することができる。例えば屈折用オブジェクトOB10に対して適用されるパラメータを変更することにより画像の一部を拡大又は縮小させる構成としてもよく、回転させる構成としてもよい。さらに、表示面Gに表示されている画像の一部を他の領域と比較して透明にしてもよい。   Further, the present invention can be applied not only to effects that express distortion but also to display effects that change part or all of an image. For example, a part of the image may be enlarged or reduced by changing a parameter applied to the refracting object OB10, or may be rotated. Furthermore, a part of the image displayed on the display surface G may be made transparent as compared with other areas.

さらに、例えば、投影された場合に表示面G全体を表示可能な特定オブジェクトを設け、当該特定オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける。そして、予め定められた更新タイミングとなる度に、上記特定オブジェクトを複数の部品オブジェクトに分割し、当該部品オブジェクトをそれぞれ独立して移動させることにより、表示面Gに表示されていた背景画像が割れたように視認させる演出を行うことができる。これにより、場面の切換等を好適に行うことができる。   Furthermore, for example, a specific object capable of displaying the entire display surface G when projected is provided, and the drawing data of the background image stored in the buffer for background is pasted to the specific object as it is. Then, the background image displayed on the display surface G is broken by dividing the specific object into a plurality of component objects and moving the component objects independently each time a predetermined update timing is reached. It is possible to perform an effect that makes it appear visually. Thereby, switching of a scene can be suitably performed.

また、上記構成によれば、屈折用オブジェクトOB10に対して貼り付けられるテクスチャが屈折用オブジェクトOB10と同一のサイズとなるように背景画像をトリミングする構成としたが、これに限られず、例えば異なるサイズとなるようにトリミングする構成としてもよい。この場合、屈折用オブジェクトOB10のサイズに合わせて拡大又は縮小処理を実行するとよい。これにより、上記拡大又は縮小処理により屈折用オブジェクトOB10尾に貼り付けられる画像が歪むため、歪み画像をより歪ませることができる。但し、上記構成の場合、歪み画像と他の画像との境界が目立ち易くなるため、当該境界の目立ち易さを考慮すれば上記構成の方がよい。   Further, according to the above configuration, the background image is trimmed so that the texture to be attached to the refraction object OB10 has the same size as the refraction object OB10. However, the present invention is not limited to this. It is good also as composition of trimming so that it may become. In this case, the enlargement or reduction process may be performed in accordance with the size of the refraction object OB10. As a result, the image attached to the tail of the object for refraction OB 10 is distorted by the above-mentioned enlargement or reduction processing, so that the distorted image can be further distorted. However, in the case of the above configuration, the boundary between the distorted image and the other image is more noticeable, so the above configuration is better in consideration of the ease of the boundary.

また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定したが、これに限られず、例えば上記表示領域が歪み領域PE1と一致するように屈折用オブジェクトOB10の形状を設定してもよい。この場合、屈折用オブジェクトOB10を変形させる場合には屈折用オブジェクトOB10の外縁部を構成する頂点座標についても変位させる構成とするとよい。   In addition, although the shape of the refraction object OB10 is set so that the display region when the refraction object OB10 is parallel-projected is larger than the distortion region PE1, the present invention is not limited thereto. The shape of the refraction object OB10 may be set to match. In this case, when the refracting object OB10 is deformed, it is preferable to displace also the vertex coordinates constituting the outer edge portion of the refracting object OB10.

また、上記構成では、第1座標マッピングデータMD1及び第2座標マッピングデータMD2を交互に用いることにより、背景画像が揺らいだように見せる構成としたが、これに限られず、例えば徐々に歪みが大きくなる又は小さくなる演出及びこれらの演出を組み合わせた演出を実行する構成としてもよい。   Further, in the above configuration, the background image is made to appear to shake by alternately using the first coordinate mapping data MD1 and the second coordinate mapping data MD2. However, the present invention is not limited to this. It is good also as composition which performs the production which combined the effect which becomes or becomes small, and these effects.

上記構成では、歪みの対象は背景画像の一部であったが、これに限られず、例えば背景画像の全部を歪ませる構成としてもよい。この場合、表示面G全体を覆うことが可能な屈折用オブジェクトを設け、当該屈折用オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける構成とする。   In the above configuration, the target of distortion is a part of the background image. However, the present invention is not limited to this. For example, the whole of the background image may be distorted. In this case, an object for refraction which can cover the entire display surface G is provided, and the drawing data of the background image stored in the buffer for background is attached to the object for refraction as it is.

また、背景画像に限られず、図柄画像、所定のキャラクタ画像又は表示面Gに表示されている画像そのものの全部又は一部を歪ませる構成としてもよい。この場合、屈折用オブジェクトの描画に係る処理を実行する前に、歪ませたい対象を含む画像に係る描画データを予め作成しておき、屈折用オブジェクトの描画に係る処理において、上記描画データに基づいて屈折用オブジェクトに対して貼り付けるテクスチャを作成して、貼り付ける構成とするよい。   Further, the present invention is not limited to the background image, and all or part of the symbol image, the predetermined character image or the image itself displayed on the display surface G may be distorted. In this case, before executing the process relating to the drawing of the object for refraction, the drawing data relating to the image including the object to be distorted is created in advance, and the process relating to the drawing of the object for refraction is based on the drawing data It is preferable that a texture to be attached to the refraction object is created and attached.

また、上記構成では、屈折用オブジェクトOB10の変形を各座標マッピングデータMD1,MD2を用いることで実現したが、これに限られず、例えば4次元関数(x、y、z、t)を定義し、当該4次元関数に基づいて各頂点のZ方向の変位量を導出することにより屈折用オブジェクトOB10を変形させる構成としてもよい。この場合、歪み演出に係るデータ量の更なる削減を図ることができる。但し、VDP135の処理負荷の増大化、高精細な歪みに起因する関数の複雑化等に鑑みれば、各座標マッピングデータMD1,MD2を用いる構成の方が好ましい。   In the above configuration, the deformation of the refraction object OB10 is realized by using the coordinate mapping data MD1 and MD2. However, the present invention is not limited thereto. For example, a four-dimensional function (x, y, z, t) is defined, The refractive object OB10 may be deformed by deriving the displacement amount of each vertex in the Z direction based on the four-dimensional function. In this case, it is possible to further reduce the amount of data concerning distortion production. However, in view of the increase in the processing load of the VDP 135 and the complication of the function caused by the high definition distortion, the configuration using the coordinate mapping data MD1 and MD2 is preferable.

なお、上記構成では、屈折用オブジェクトOB10を、当該屈折用オブジェクトOB10の板面に凹凸が形成されるように各頂点座標のZ座標を変位させて変形させたが、これに限られず、例えばX座標及びY座標の少なくとも一方を変位させる構成としてもよい。この場合、格子状に配置された各頂点により渦が形成されるように各頂点のXY座標を設定するとよい。これにより、各頂点に対応させてテクスチャを貼り付けることにより歪んだ画像を表現することが可能となる。但し、処理負荷の観点に着目すれば、Z方向の変位のみの方がよい。   In the above configuration, the z-coordinate of each vertex coordinate is displaced and deformed so that the surface of the object for refraction OB10 has irregularities on the surface of the object for refraction OB10, but the present invention is not limited to this. At least one of the coordinate and the Y coordinate may be displaced. In this case, it is preferable to set the XY coordinates of each vertex so that a vortex is formed by each vertex arranged in a lattice. This makes it possible to express a distorted image by pasting textures in correspondence with each vertex. However, focusing on the viewpoint of processing load, only displacement in the Z direction is better.

また、上記構成では、先に背景用の描画データ(2次元画像データ)を作成した後に、演出用及び図柄用の描画データを作成する構成としたが、これに限られず、例えば第1の実施の形態のように、背景用、演出用及び図柄用の各オブジェクトをワールド座標系に配置し、当該各オブジェクトに対して投影することで各描画データを作成する構成としてもよい。この場合、2回描画処理を実行する構成とするとよい。具体的には、1回目では屈折用オブジェクトOB10を除く各オブジェクトを配置し投影することにより各描画データを作成し、2回目では屈折用オブジェクトOB10を含む各オブジェクトを配置し投影して各描画データを作成する。この場合、2回目の描画処理にて、1回目の描画処理にて作成された背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを作成する構成とする。これにより、背景画像の一部をテクスチャとして用いることができる。但し、上記構成の場合、同一処理を重複して行う必要があるため、無駄な処理が増え、処理負荷の増大化が懸念される。この点に着目すれば、先に背景用の描画データを作成した後に、演出用及び図柄用の描画データを作成する構成の方が優れている。   Further, in the above configuration, after drawing data for background (two-dimensional image data) is created first, drawing data for effect and for drawing is created, but the present invention is not limited thereto. For example, the first embodiment As in the above, each drawing data may be created by arranging each object for background, effect and symbol in the world coordinate system and projecting the object to the object. In this case, the drawing process may be executed twice. Specifically, each drawing data is created by arranging and projecting each object except the refraction object OB10 in the first time, and each object including the refraction object OB10 is arranged and projected in the second time Create In this case, in the second drawing process, the texture to be attached to the refraction object OB10 is generated using the background drawing data generated in the first drawing process. Thereby, a part of background image can be used as a texture. However, in the case of the above configuration, since the same processing needs to be performed in duplicate, unnecessary processing is increased, which may cause an increase in processing load. If attention is paid to this point, it is better for the configuration to create drawing data for effect and for drawing after creating drawing data for background first.

また、変形対象となる画像が更新される構成であってもよい。例えば、図柄画像CP11のスクロールに伴って歪み領域PE1を順次スクロールさせる構成としてもよい。この場合、所定の更新タイミング(例えば各フレーム)毎に屈折用オブジェクトOB10の座標を更新するとともに、歪み演出用マッピング処理(図82)におけるトリミング処理(ステップS4802)においてトリミングする領域を、屈折用オブジェクトOB10の座標に合わせて変更するようにするとよい。これにより、データ量の増大化を招くことなく、歪み領域PE1の変位に好適に対応することができる。   In addition, the image to be deformed may be updated. For example, the distortion area PE1 may be sequentially scrolled as the symbol image CP11 is scrolled. In this case, the coordinates of the object for refraction OB10 are updated at each predetermined update timing (for example, each frame), and the area to be trimmed in the trimming process (step S4802) in the distortion effect mapping process (FIG. 82) is the object for refraction It is preferable to change in accordance with the coordinates of OB10. Thereby, the displacement of the strained area PE1 can be suitably coped with without causing an increase in the amount of data.

また、歪み領域PE1を固定しつつ背景画像を変位させる構成としてもよい。この場合であっても、フレーム毎に背景画像に係る背景用の描画データを生成し、さらにフレーム毎に当該背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを生成する構成であるため、変位した背景画像を歪ませることができる。   Further, the background image may be displaced while fixing the distortion area PE1. Even in this case, the configuration is such that the drawing data for background related to the background image is generated for each frame, and the texture to be attached to the refraction object OB10 is generated for each frame using the drawing data for background Therefore, the displaced background image can be distorted.

なお、背景画像の変位としては、所定の方向への背景画像のスクロールが考えられる。当該スクロールは、背景画像を構成するオブジェクトの移動又は視点の移動により実現することができる。   As displacement of the background image, scrolling of the background image in a predetermined direction can be considered. The scroll can be realized by the movement of an object constituting the background image or the movement of the viewpoint.

また、画像の一部を加工して表示演出を行う構成は、2次元表示に係る構成に適用してもよい。具体的には、メモリモジュール133に複数種類のスプライトデータを記憶させておき、当該スプライトデータを用いて所定の画像に係る描画データを生成する。そして、当該描画データをフレームバッファ142に設けられた仮バッファに記憶させておき、当該描画データの一部を抜き出し、当該抜き出したデータをスプライトデータとして扱う構成とするとよい。これにより、描画データに係る画像の一部を拡大又は縮小したり、所定の方向に移動させたりする表示演出を行うことができる。   In addition, the configuration for processing a part of the image to perform display effects may be applied to the configuration related to two-dimensional display. Specifically, a plurality of types of sprite data are stored in the memory module 133, and drawing data relating to a predetermined image is generated using the sprite data. Then, the drawing data may be stored in a temporary buffer provided in the frame buffer 142, a part of the drawing data may be extracted, and the extracted data may be treated as sprite data. Thus, it is possible to perform display effect of enlarging or reducing a part of the image related to the drawing data, or moving the part in a predetermined direction.

さらに抜き出したデータを別のスプライトデータに対して重ねることにより、抜き出したデータに係る画像に上書きすることもできる。   Furthermore, by superimposing the extracted data on another sprite data, it is possible to overwrite the image related to the extracted data.

また、屈折用オブジェクトOB10に対して貼り付けるテクスチャは、投影することにより作成されたものであったが、これに限られず、例えば予めメモリモジュール133に記憶させておく構成としてもよい。但し、テクスチャのデータ量の増大化に着目すれば、投影することで作成する構成の方がよい。   Further, the texture to be attached to the refraction object OB10 is created by projection. However, the present invention is not limited to this. For example, the texture may be stored in the memory module 133 in advance. However, focusing on the increase in the amount of texture data, it is better to create a configuration by projection.

また、屈折用オブジェクトOB10は板状ポリゴンであったが、これに限られず、任意の形状のポリゴンを用いてもよい。但し、処理負荷の観点に着目すれば、板状ポリゴンである構成の方がよい。   In addition, although the refraction object OB10 is a plate-like polygon, the invention is not limited to this, and a polygon of any shape may be used. However, from the viewpoint of processing load, a plate-like polygon is better.

上記構成では、屈折用オブジェクトOB10の変形形態を、第1変形形態OB10aと第2変形形態OB10bとに交互に切り換えることで、歪みを表現したが、これに限られず、例えば2つの屈折用オブジェクトOB10を設け、各屈折用オブジェクトOB10をそれぞれ第1変形形態OB10aと、第2変形形態OB10bとに変形させて、両者を短辺部にて連結させる構成としてもよい。この場合、連結したものを所定の方向にスクロールさせる構成とするとよい。この場合であっても、揺らいだ画像を好適に表示させることができる。   In the above configuration, distortion is expressed by alternately switching the deformation form of the refraction object OB10 to the first deformation form OB10a and the second deformation form OB10b, but the present invention is not limited thereto. For example, two refraction objects OB10 And each of the refracting objects OB10 may be deformed into the first modified form OB10a and the second modified form OB10b, respectively, and the both may be connected at the short side. In this case, the connected ones may be scrolled in a predetermined direction. Even in this case, a shaken image can be suitably displayed.

<瞬き演出を行うための構成について>
次に、瞬き演出を行うための構成について説明する。
<About the composition for performing blink effect>
Next, a configuration for performing blink effects will be described.

瞬き演出とは、所定のキャラクタ画像が瞬きをする演出である。   The blink effect is an effect in which a predetermined character image blinks.

当該瞬き演出では、所定のキャラクタ画像を表示するのに用いられるベースオブジェクトOB21及びベーステクスチャTD11と、目の部分を変更するのに用いられる部分オブジェクトOB22及び部分テクスチャTD12とが用いられる。これらの各構成について図85を用いて説明する。図85(a)はベースオブジェクトOB21及び部分オブジェクトOB22を説明するための説明図、図85(b)はベーステクスチャTD11を説明するための説明図、図85(c)は部分テクスチャTD12を説明するための説明図である。なお、ベースオブジェクトOB21と部分オブジェクトOB22との関係を説明するために、図85(a)においてベースオブジェクトOB21と部分オブジェクトOB22とを重ねて示すとともに、部分オブジェクトOB22を点線で示す。さらに、ベーステクスチャTD11と部分テクスチャTD12との関係を説明するために、図85(b)において部分テクスチャTD12の外形を点線で示す。   In the blink effect, a base object OB21 and a base texture TD11 used to display a predetermined character image, and a partial object OB22 and a partial texture TD12 used to change an eye part are used. Each of these configurations will be described with reference to FIG. FIG. 85 (a) is an explanatory diagram for explaining the base object OB21 and the partial object OB22, FIG. 85 (b) is an explanatory diagram for explaining the base texture TD11, and FIG. 85 (c) is a partial texture TD12. FIG. Note that in order to explain the relationship between the base object OB21 and the partial object OB22, the base object OB21 and the partial object OB22 are shown overlapping each other in FIG. 85A, and the partial object OB22 is shown by a dotted line. Further, in order to explain the relationship between the base texture TD11 and the partial texture TD12, the outline of the partial texture TD12 is shown by a dotted line in FIG. 85 (b).

ベースオブジェクトOB21は、図85(a)に示すように、複数の部品オブジェクトからなる1単位のオブジェクトであり、各部品オブジェクトに適用されるパラメータを更新することで3D画像のキャラクタに動きや変化を与えることができる。   As shown in FIG. 85 (a), the base object OB21 is a 1-unit object composed of a plurality of component objects, and by updating the parameters applied to each component object, the movement or change of the character of the 3D image Can be given.

また、ベースオブジェクトOB21において、キャラクタの頭部に対応した頭部オブジェクトOB31に貼り付けるテクスチャとしてベーステクスチャTD11が設定されている。ベーステクスチャTD11は、図85(b)に示すように、顔が描かれた画像データである。ベーステクスチャTD11は頭部オブジェクトOB31に対応させた矩形状の画像データとして設定されている。具体的には、ベーステクスチャTD11は、3次元の頭部オブジェクトOB31を2次元に展開した場合の画像データに対応させて設定されており、展開した画像データと同一の形状となるように縦横ピクセル数が設定されている。当該ベーステクスチャTD11が頭部オブジェクトOB31に対して貼り付けられることにより、顔が表現されることとなる。   Further, in the base object OB21, a base texture TD11 is set as a texture to be attached to the head object OB31 corresponding to the head of the character. The base texture TD11 is image data in which a face is drawn as shown in FIG. The base texture TD11 is set as rectangular image data corresponding to the head object OB31. Specifically, the base texture TD11 is set to correspond to the image data in the case where the three-dimensional head object OB31 is expanded in two dimensions, and the vertical and horizontal pixels so as to have the same shape as the expanded image data. The number is set. By pasting the base texture TD11 to the head object OB31, a face is represented.

なお、髪型については、頭部オブジェクトOB31とは別に髪型オブジェクトOB32が設けられているとともに、当該髪型オブジェクトOB32に対して貼り付ける髪型テクスチャが設けられている。これらを用いて髪型を表現し、髪型オブジェクトOB32と頭部オブジェクトOB31とを重ねあわせることにより、キャラクタの頭部を表現する。   As for the hairstyle, a hairstyle object OB32 is provided separately from the head object OB31, and a hairstyle texture to be attached to the hairstyle object OB32 is provided. The hair style is expressed using these, and the hair type object OB32 and the head object OB31 are superimposed to express the head of the character.

また、ベーステクスチャTD11は矩形状の画像データとして設定されている構成としたが、これに限られず、頭部オブジェクトOB31の形状に合わせて異なる形状の画像データとして設定してもよい。   Although the base texture TD11 is set as rectangular image data, the present invention is not limited to this, and may be set as image data of a different shape in accordance with the shape of the head object OB31.

部分オブジェクトOB22は、当該部分オブジェクトOB22が投影された場合にベースオブジェクトOB21における目の表示領域を覆うことが可能となるようにその形状及びサイズが設定されている。具体的には、部分オブジェクトOB22は、図85(a)に示すように、ベースオブジェクトOB21において目が表示される領域と同一の形状となる矩形板状ポリゴンで構成されている。これにより、ワールド座標系においてベースオブジェクトOB21が配置され、視点とベースオブジェクトOB21との間であって且つベースオブジェクトOB21において目が表示される領域に対して重なるように部分オブジェクトOB22が配置された状態で平行投影が行われた場合には、ベーステクスチャTD11の目に代えて、部分オブジェクトOB22の画像が表示されることとなる。この場合、部分オブジェクトOB22に対して、ベーステクスチャTD11の目とは態様が異なるテクスチャが貼り付けられることにより、目の態様が異なるキャラクタ画像が表示される。   The shape and the size of the partial object OB22 are set so as to be able to cover the eye display area in the base object OB21 when the partial object OB22 is projected. Specifically, as shown in FIG. 85A, the partial object OB22 is formed of a rectangular plate-like polygon having the same shape as the area where the eyes are displayed in the base object OB21. As a result, the base object OB21 is arranged in the world coordinate system, and the partial object OB22 is arranged between the viewpoint and the base object OB21 so as to overlap the area where the eye is displayed in the base object OB21. When parallel projection is performed in step S10, the image of the partial object OB22 is displayed in place of the eyes of the base texture TD11. In this case, by attaching a texture having a mode different from that of the eyes of the base texture TD11 to the partial object OB22, a character image having a different mode of the eyes is displayed.

当該部分オブジェクトOB22に対して貼り付けるテクスチャとして複数種類(具体的には3種類)の部分テクスチャTD12が設けられている。   A plurality of types (specifically, three types) of partial textures TD12 are provided as textures to be attached to the partial object OB22.

部分テクスチャTD12について説明すると、部分テクスチャTD12のサイズは部分オブジェクトOB22と同一に設定されており、具体的には、部分オブジェクトOB22の形状と同一となるように、部分テクスチャTD12の各縦横ピクセル数が設定されている。このため、部分オブジェクトOB22に対して部分テクスチャTD12は変形することなく貼り付けられることとなる。   When describing the partial texture TD12, the size of the partial texture TD12 is set to be the same as that of the partial object OB22. Specifically, the number of vertical and horizontal pixels of the partial texture TD12 is the same as the shape of the partial object OB22. It is set. Therefore, the partial texture TD12 is attached to the partial object OB22 without deformation.

この場合、ベーステクスチャTD11のピクセル数は頭部オブジェクトOB31全体の大きさに対応させて設定されており、部分テクスチャTD12のピクセル数は頭部オブジェクトOB31のうち目の部分に対応させて設定されているため、図85(b)に示すように、部分テクスチャTD12の方がベーステクスチャTD11よりもサイズが小さく、データ量が少ない画像データとなっている。   In this case, the number of pixels of the base texture TD11 is set to correspond to the entire size of the head object OB31, and the number of pixels of the partial texture TD12 is set to correspond to the eye portion of the head object OB31 Therefore, as shown in FIG. 85 (b), the partial texture TD12 is image data smaller in size and smaller in data amount than the base texture TD11.

部分テクスチャTD12には目が開いた状態の画像データである第1部分テクスチャTD21(図85(c−1)参照)と、目が開いた状態と目が閉じた状態との中間状態の画像データである第2部分テクスチャTD22(図85(c−2)参照)と、目が閉じた状態の第3部分テクスチャTD23(図85(c−3)参照)と、が設定されている。第1部分テクスチャTD21は、ベーステクスチャTD11の目の部分と同一の画像が描かれたテクスチャである。   The partial texture TD12 is an image data in an intermediate state between the first partial texture TD21 (see FIG. 85 (c-1)), which is image data with an open eye, and the state with an open and closed eye. A second partial texture TD22 (see FIG. 85 (c-2)) and a third partial texture TD23 (see FIG. 85 (c-3)) in a closed eye state are set. The first partial texture TD21 is a texture in which an image identical to the eye portion of the base texture TD11 is drawn.

部分オブジェクトOB22に対して貼り付けるテクスチャを第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャTD23→第2部分テクスチャTD22→第1部分テクスチャTD21を1周期として順次切り換えることにより、瞬きを表現することができる。   Blink is set by sequentially switching the texture to be attached to the partial object OB22 with one cycle of the first partial texture TD21 → second partial texture TD22 → third partial texture TD23 → second partial texture TD22 → first partial texture TD21. Can be expressed.

瞬き演出の具体的な処理構成について説明する。   The specific processing configuration of the blink effect will be described.

図86は、表示CPU131にて実行される瞬き演出用演算処理を示すフローチャートである。瞬き演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理において、現状設定されているデータテーブルが瞬き演出に対応したものである場合に起動される。   FIG. 86 is a flowchart showing the blink effect calculation process executed by the display CPU 131. Blink effect calculation processing is activated when the currently-set data table corresponds to a blink effect in the effect calculation processing in step S904 of the task processing (FIG. 14).

先ずステップS5001にて、現状設定されているデータテーブルに基づいて、瞬き演出中であるか否かを判定する。   First, in step S5001, it is determined based on the currently set data table whether or not blinking is in effect.

瞬き演出の実行中でない場合には、ステップS5002に進み、現状設定されているデータテーブルに基づいて、瞬き演出の開始タイミングであるか否かを判定する。   If the blink effect is not being executed, the process proceeds to step S5002, and it is determined based on the currently set data table whether or not it is the start timing of the blink effect.

瞬き演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、瞬き演出の開始タイミングである場合には、ステップS5003に進み、ベースオブジェクトOB21を把握する。そして、ステップS5004に進み、ベーステクスチャTD11を含むベースオブジェクトOB21に対して貼り付けられる各種テクスチャのアドレス情報を設定する。   If it is not the start timing of the blink effect, the present arithmetic processing is ended as it is, while if it is the start timing of the blink effect, the process proceeds to step S5003 and the base object OB21 is grasped. Then, in step S5004, address information of various textures to be attached to the base object OB21 including the base texture TD11 is set.

その後、ステップS5005にて、ベースオブジェクトOB21に対して適用されるその他のパラメータの初期設定に係る演算処理を行う。   Thereafter, at step S5005, calculation processing relating to the initial setting of other parameters applied to the base object OB21 is performed.

続くステップS5006では、部分オブジェクトOB22を把握する。そして、ステップS5007にて当該部分オブジェクトOB22の初期座標を設定する。初期座標はデータテーブルに予め設定されており、具体的には、ワールド座標系に変換した場合にベースオブジェクトOB21よりも前側(視点側)であって投影(平行投影)した場合にベースオブジェクトOB21において目が表示される領域と重なるように配置されるよう設定されている。   In the subsequent step S5006, the partial object OB22 is grasped. Then, in step S5007, initial coordinates of the partial object OB22 are set. The initial coordinates are set in advance in the data table, and more specifically, in the case where the base object OB21 is projected (parallel projection) on the front side (viewpoint side) of the base object OB21 when converted to the world coordinate system. It is set to be arranged so as to overlap the area where the eyes are displayed.

その後、ステップS5008では、部分テクスチャTD12のアドレス情報の初期設定を行う。具体的には、第1部分テクスチャTD21のアドレス情報を設定する。そして、ステップS5009にてその他のパラメータの初期設定に係る演算処理を実行する。   Thereafter, in step S5008, the address information of the partial texture TD12 is initialized. Specifically, the address information of the first partial texture TD21 is set. Then, at step S5009, arithmetic processing relating to the initial setting of other parameters is executed.

その後、ステップS5010にて瞬き演出指定情報を描画リストに設定して本演算処理を終了する。当該瞬き演出指定情報は、VDP135において瞬き演出に係る描画処理を実行することを特定するのに用いられる情報である。   Thereafter, at step S5010, blink effect designation information is set in the drawing list, and the present arithmetic processing ends. The blink effect designation information is information used to specify that the VDP 135 executes the drawing process related to the blink effect.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、ベースオブジェクトOB21及び部分オブジェクトOB22が描画対象として設定されるとともに、各オブジェクトOB21,OB22に対応したパラメータが設定される。この場合、投影した場合にベースオブジェクトOB21の頭部オブジェクトOB31及びベーステクスチャTD11による目の画像に重なるように部分オブジェクトOB22及び第1部分テクスチャTD21による目の画像が表示されるように各オブジェクトOB21,OB22の座標が設定されている。また、上記描画リストには、瞬き演出指定情報が設定されている。   When such processing is executed, the base object OB21 and the partial object OB22 are set as a drawing target, and parameters corresponding to the objects OB21 and OB22 are set in the drawing list created in the subsequent drawing list output process. It is set. In this case, each object OB21 is displayed so that the partial object OB22 and the first partial texture TD21 display the eye image so as to overlap the head object OB31 of the base object OB21 and the eye image of the base texture TD11 when projected. The coordinates of OB22 are set. In addition, blink effect specification information is set in the drawing list.

一方、瞬き演出中である場合には、ステップS5011〜ステップS5013にて、ベースオブジェクトOB21の設定に係る処理を実行する。具体的には、ステップS5011にて、ベースオブジェクトOB21を把握し、ステップS5012にて各種テクスチャのアドレスを設定する。そして、ステップS5013にてその他のパラメータの演算処理を行う。この場合、初期設定された各種パラメータを維持する処理を実行する。   On the other hand, when the blink effect is being performed, processing relating to the setting of the base object OB21 is executed in steps S5011 to S5013. Specifically, in step S5011, the base object OB21 is grasped, and in step S5012, addresses of various textures are set. Then, calculation processing of other parameters is performed in step S5013. In this case, processing for maintaining various parameters that have been initialized is executed.

その後、ステップS5014〜ステップS5018にて部分オブジェクトOB22の設定に係る処理を実行する。具体的には、先ずステップS5014にて部分オブジェクトOB22を把握する。そして、ステップS5015にて、現状設定されているデータテーブルに基づいて、部分テクスチャTD12の更新タイミングであるか否かを判定する。具体的には、瞬き演出に対応したデータテーブルには、所定数のフレーム毎に部分テクスチャTD12の更新タイミングを特定するための情報が設定されている。ステップS5015では、上記情報が設定されているか否かを判定する。   Thereafter, in steps S5014 to S5018, processing relating to setting of the partial object OB22 is executed. Specifically, first, in step S5014, the partial object OB22 is grasped. Then, in step S5015, it is determined based on the currently set data table whether or not it is the update timing of the partial texture TD12. Specifically, information for specifying the update timing of the partial texture TD12 is set for each of a predetermined number of frames in the data table corresponding to the blink effect. In step S5015, it is determined whether the above information is set.

部分テクスチャTD12の更新タイミングでない場合には、ステップS5016に進み、前回の部分テクスチャTD12のアドレス情報を設定する。そして、ステップS5017にてその他のパラメータの演算処理を実行し、ステップS5010にて瞬き演出指定情報を設定し、本演算処理を終了する。   If it is not the update timing of the partial texture TD12, the process proceeds to step S5016, and the address information of the previous partial texture TD12 is set. Then, calculation processing of other parameters is executed in step S5017, blink effect designation information is set in step S5010, and this calculation processing is ended.

かかる処理が実行された場合、その後の描画リスト出力処理では、前回作成された描画リストと同一の描画リストが作成される。   When such a process is executed, in the subsequent drawing list output process, the same drawing list as the previously generated drawing list is created.

一方、部分テクスチャTD12の更新タイミングである場合には、ステップS5018に進み、前回の部分テクスチャに対して次の部分テクスチャのアドレス情報を設定する処理を実行する。具体的には、瞬き演出に対応したデータテーブルには、部分オブジェクトOB22に対する貼付対象となる各部分テクスチャTD21〜TD23の順序が予め設定されている。詳細には、第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャ→第2部分テクスチャTD22を1周期として設定されている。ステップS5018では、上記周期に基づいて、前回の描画リストにおいて設定された部分テクスチャに対して次の部分テクスチャを把握し、当該次の部分テクスチャに対応したアドレスを設定する処理を実行する。   On the other hand, if it is time to update the partial texture TD12, the process advances to step S5018 to execute processing for setting the address information of the next partial texture to the previous partial texture. Specifically, the order of the partial textures TD21 to TD23 to be attached to the partial object OB22 is set in advance in the data table corresponding to the blink effect. Specifically, the first partial texture TD21 → the second partial texture TD22 → the third partial texture → the second partial texture TD22 is set as one cycle. In step S5018, the next partial texture is grasped with respect to the partial texture set in the previous drawing list based on the cycle, and an address corresponding to the next partial texture is set.

そして、ステップS5017及びステップS5010の処理を実行して本演算処理を終了する。   Then, the processing of step S5017 and step S5010 is executed to end the present arithmetic processing.

かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、前回作成された描画リストと比較して、部分オブジェクトOB22に対して貼り付けられる部分テクスチャTD12が異なっている。   When such processing is executed, the drawing list created in the subsequent drawing list output process is different from the previously created drawing list in that the partial texture TD12 to be attached to the partial object OB22 is different. .

VDP135は、瞬き演出指定情報が設定された描画リストを受信した場合、各オブジェクトOB21,OB22に設定されている座標に基づいてワールド座標系への設定を行う。そして、ベースオブジェクトOB21に対してベーステクスチャTD11を含む各種テクスチャをマッピングするとともに、部分オブジェクトOB22に対して今回描画リストに設定されている部分テクスチャTD12をマッピングし、演出及び図柄用の描画データ作成処理にて、各オブジェクトOB21,OB22を平行投影し、描画データを作成する。これにより、目の部分が部分テクスチャTD12の画像に置き換わったキャラクタ画像が作成される。   When the VDP 135 receives the drawing list in which the blink effect designation information is set, the VDP 135 sets the world coordinate system based on the coordinates set in the objects OB21 and OB22. Then, while mapping various textures including the base texture TD11 to the base object OB21, the partial texture TD12 currently set in the drawing list is mapped to the partial object OB22, and drawing data creation processing for effect and design Then, the objects OB21 and OB22 are parallel-projected to create drawing data. As a result, a character image in which the part of the eye is replaced with the image of the partial texture TD12 is created.

この場合、部分テクスチャTD12の更新タイミングに係る描画リストには、前回の描画リストとは異なる部分テクスチャTD12が設定されているため、表示面Gには、前回の処理により表示されたキャラクタ画像と比較して、目の態様が異なるキャラクタ画像が表示されることとなる。   In this case, since the partial texture TD12 different from the previous drawing list is set in the drawing list related to the update timing of the partial texture TD12, the display surface G is compared with the character image displayed in the previous process. Thus, character images having different eye aspects are displayed.

次に、瞬き演出の様子について図87を用いて説明する。図87は、瞬き演出を説明するための説明図であり、具体的には図87(a)は瞬き演出の開始タイミングにおいて表示面Gに表示される画像を説明するための説明図、図87(b)及び図87(c)はキャラクタ画像CP22の表示態様の移り変わりを時系列で示した説明図である。なお、説明の便宜上、キャラクタ画像CP22以外の画像を省略して示すが、実際には背景画像及び図柄画像等が表示される。   Next, the blink effect will be described with reference to FIG. FIG. 87 is an explanatory view for explaining blink effects. More specifically, FIG. 87 (a) is an explanatory view for explaining an image displayed on the display surface G at the start timing of the blink effect, FIG. (B) and FIG. 87 (c) are explanatory diagrams showing the transition of the display mode of the character image CP22 in time series. In addition, although images other than character image CP22 are abbreviate | omitted and shown for convenience of explanation, a background image, a symbol image, etc. are displayed in fact.

瞬き演出が開始される場合、図87(a)に示すように、ベースオブジェクトOB21及びベーステクスチャTD11を含む各種テクスチャを用いて作成されたベース画像CP21を有するキャラクタ画像CP22が表示される。この場合、ベース画像CP21における重ね合わせ領域PE2(詳細には目の領域)には、部分オブジェクトOB22及び第1部分テクスチャTD21を用いて作成された第1部分画像CP23が表示される。   When blink effect is started, as shown in FIG. 87A, a character image CP22 having a base image CP21 created using various textures including the base object OB21 and the base texture TD11 is displayed. In this case, the first partial image CP23 created using the partial object OB22 and the first partial texture TD21 is displayed in the overlapping area PE2 (specifically, the eye area) in the base image CP21.

なお、既に説明した通り、第1部分テクスチャTD21に描かれている目の画像は、ベース画像CP21における目の画像と同一であるため、実際にはベース画像CP21と同一の画像が表示されることとなる。   Note that, as described above, since the eye image drawn in the first partial texture TD21 is the same as the eye image in the base image CP21, the same image as the base image CP21 is actually displayed. It becomes.

その後、部分テクスチャTD12の更新タイミングとなることに基づいて、図87(b)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第2部分テクスチャTD22を用いて作成された第2部分画像CP24が表示される。   Thereafter, based on the timing of updating the partial texture TD12, as shown in FIG. 87 (b), in the overlapping region PE2, a second portion created using the partial object OB22 and the second partial texture TD22 The image CP24 is displayed.

そして、次の更新タイミングとなることに基づいて、図87(c)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第3部分テクスチャTD23を用いて作成された第3部分画像CP25が表示される。   Then, based on the next update timing, as shown in FIG. 87 (c), the third partial image CP25 created using the partial object OB22 and the third partial texture TD23 in the overlapping region PE2. Is displayed.

以上のように、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25の順に更新されることにより、目が徐々に閉じていく様子が表現される。   As described above, as the first partial image CP23 → the second partial image CP24 → the third partial image CP25 is updated in this order, the situation in which the eyes are gradually closed is represented.

その後、更新タイミングとなる度に、重ね合わせ領域PE2には、第2部分画像CP24→第1部分画像CP23が表示される。   Thereafter, every time the update timing comes, the second partial image CP24 → the first partial image CP23 is displayed in the overlapping area PE2.

すなわち、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25→第2部分画像CP24→第1部分画像CP23→…、という順序で繰り返し画像が更新されることにより、キャラクタ画像CP22が瞬きをしているように見える。   That is, the character image CP22 is updated by repeatedly updating the images in the order of the first partial image CP23 → the second partial image CP24 → the third partial image CP25 → the second partial image CP24 → the first partial image CP23 →... Looks like it is blinking.

以上の通り、キャラクタ画像CP22の目の部分に対して局所的に部分オブジェクトOB22を配置し、所定の更新タイミングとなる度に当該部分オブジェクトOB22に対して貼り付ける部分テクスチャTD12を更新することにより、キャラクタ画像CP22の瞬きを表現することができる。この場合、部分テクスチャTD12はベーステクスチャTD11の一部の領域のテクスチャであるため、ベーステクスチャTD11と比較してデータ量が小さい。これにより、ベーステクスチャTD11を複数用意する構成と比較して、瞬き演出を行うのに必要なデータ量の削減を図ることができる。   As described above, the partial object OB22 is locally arranged at the eye portion of the character image CP22, and the partial texture TD12 to be attached to the partial object OB22 is updated each time a predetermined update timing is reached. The blink of the character image CP22 can be expressed. In this case, since the partial texture TD12 is a texture of a part of the base texture TD11, the data amount is smaller than that of the base texture TD11. As a result, it is possible to reduce the amount of data required to perform blink effects as compared to the configuration in which a plurality of base textures TD11 are prepared.

すなわち、ベース画像CP21を、変化対象となる部位と変化対象とならない部位とに区分けし、変化対象となる部位のみに対応したテクスチャを設け、当該テクスチャとベース画像CP21とを用いてキャラクタ画像の動作を表現する構成とした。これにより、ベース画像CP21全体に係るテクスチャ、すなわちベーステクスチャTD11を複数用意する必要がない。よって、データ量の削減を図りつつ、特定キャラクタ画像の一部を変化させることが可能となる。   That is, the base image CP21 is divided into a portion to be changed and a portion not to be changed, a texture corresponding to only the portion to be changed is provided, and the motion of the character image is performed using the texture and the base image CP21. To represent the Thus, it is not necessary to prepare a plurality of textures relating to the entire base image CP21, that is, a plurality of base textures TD11. Therefore, it is possible to change a part of the specific character image while reducing the amount of data.

この場合、例えば頭部オブジェクトOB31を、目の部分に対応した目オブジェクトと、目よりも下の部分に対応した第1オブジェクトと、目よりも上の部分に対応した第2オブジェクトとに分割し、当該目オブジェクトに対して貼り付けるテクスチャを変更することにより、瞬きを表現する構成も考えられる。しかしながら、かかる構成の場合、頭部オブジェクトOB31を分割することに起因して描画対象となるオブジェクト数が増加し、把握対象となる頂点数が増加する。このため、処理負荷の増大化が懸念される。   In this case, for example, the head object OB31 is divided into an eye object corresponding to the eye part, a first object corresponding to the part below the eye, and a second object corresponding to the part above the eye A configuration is also conceivable in which blinks are expressed by changing the texture to be attached to the eye object. However, in the case of such a configuration, the number of objects to be drawn increases due to the division of the head object OB31, and the number of vertices to be grasped increases. For this reason, there is a concern that the processing load may increase.

これに対して、本形態によれば、1の頭部オブジェクトOB31と、描画に係る処理負荷が比較的少ない板状ポリゴンである1の部分オブジェクトOB22とで瞬きを実現することができる。これにより、瞬き演出を行うのに要する処理負荷の増大化を抑制することができる。   On the other hand, according to the present embodiment, it is possible to realize blinking with one head object OB31 and one partial object OB22 which is a plate-like polygon with a relatively small processing load for drawing. As a result, it is possible to suppress an increase in processing load required to perform blink effects.

なお、瞬きについて説明したが、これに限られず、1単位の個別画像の一部を変化させる場合に本発明を適用することができる。具体的には、変化対象となる領域に対して重なるように部分オブジェクトを配置し、当該部分オブジェクトに対して当該領域に表示される変化後の部分画像に対応した部分テクスチャを貼り付ければよい。例えば、口を変える場合、服の模様を一部変更する場合にも本発明を適用することができる。   In addition, although blink was demonstrated, it is not restricted to this, This invention can be applied, when changing a part of 1 unit individual image. Specifically, the partial object may be arranged so as to overlap the area to be changed, and a partial texture corresponding to the partial image after change displayed in the area may be attached to the partial object. For example, when changing the mouth, the present invention can also be applied when changing the pattern of clothes.

また、瞬き演出を行う場合に、ベース画像CP21の目の画像と同一の第1部分テクスチャTD21を用意して、当該第1部分テクスチャTD21を用いて第1部分画像CP23を表示させる構成としたが、これに限られず、第1部分テクスチャTD21を用意しない構成としてもよい。これにより、瞬き演出に要するデータ量の削減を好適に図ることができる。この場合、瞬き演出に対応したデータテーブルに、ベース画像CP21をそのまま表示する期間であることを特定するための情報を設定し、ステップS5013の処理の実行後に、当該期間中であるか否かを判定する処理を実行する。当該判定処理にて、ベース画像CP21をそのまま表示する期間であると判定した場合には、部分オブジェクトOB22の設定に係る処理(ステップS5014〜ステップS5017)を実行することなく、本演算処理を終了する。一方、ベース画像CP21をそのまま表示する期間でないと判定した場合には、部分オブジェクトOB22の設定に係る処理を実行する構成とするとよい。これにより、ベース画像CP21の一部を流用して瞬き演出を行うことが可能となる。但し、上記判定処理に係る処理負荷分だけ瞬き演出用演算処理の処理負荷が大きくなることに着目すれば、第1部分テクスチャTD21を予め用意しておく構成の方がよい。   In addition, when blink effect is performed, the first partial texture TD21 identical to the eye image of the base image CP21 is prepared, and the first partial image CP23 is displayed using the first partial texture TD21. Not limited to this, the first partial texture TD21 may not be prepared. As a result, it is possible to suitably reduce the amount of data required for the blink effect. In this case, information for specifying that the base image CP21 is displayed as it is is set in the data table corresponding to the blink effect, and after execution of the processing of step S5013, whether or not it is in the corresponding period Execute the process to judge. When it is determined in the determination process that it is a period in which the base image CP21 is displayed as it is, the present arithmetic process is ended without executing the process (steps S5014 to S5017) related to the setting of the partial object OB22. . On the other hand, when it is determined that it is not a period in which the base image CP21 is displayed as it is, a process related to setting of the partial object OB22 may be executed. As a result, it is possible to divert a part of the base image CP21 to perform blink effects. However, if attention is paid to the fact that the processing load of the calculation processing for blink effects is increased by the processing load related to the determination processing, it is better to prepare the first partial texture TD21 in advance.

特に、一般的に定期処理では、最大負荷が付与された場合であっても処理落ちしないように設計する必要がある。このため、上記構成の場合、上記判定処理及び部分オブジェクトOB22の設定に係る処理が実行された場合であっても処理落ちしないように設計する必要がある。これに対して、第1部分テクスチャTD21を用意する構成の場合、上記判定処理が必要なく、その分だけ余裕を持たせることができる。これにより、瞬き演出に要するテクスチャのデータ量の削減と、瞬き演出に起因する処理負荷の増大化の抑制とのバランスを取ることができる。   In particular, in general, it is necessary to design periodic processing so as not to lose processing even when the maximum load is applied. For this reason, in the case of the above configuration, it is necessary to design so as to prevent the process from being missed even when the process related to the determination process and the setting of the partial object OB 22 is performed. On the other hand, in the case of the configuration in which the first partial texture TD21 is prepared, the above determination process is not necessary, and a margin can be provided for that. As a result, it is possible to balance the reduction of the data amount of texture required for the blink effect and the suppression of the increase in processing load caused by the blink effect.

なお、瞬きの途中態様の様子を示す第2部分テクスチャTD22を設ける構成としたが、これに限られず、例えば第1部分テクスチャTD21及び第3部分テクスチャTD23に基づいて中間態様の部分テクスチャを作成する構成としてもよい。この場合、中間態様の部分テクスチャに係る画像データを用意する必要がないため、データ量の削減を図ることができる。但し、中間態様の部分テクスチャの作成に係る処理負荷を考慮すれば、中間態様の部分テクスチャを予め用意しておく構成の方が好ましい。   In addition, although it was set as the structure which provides 2nd partial texture TD22 which shows the mode in the middle of a blink, it is not restricted to this, For example, the partial texture of an intermediate aspect is created based on 1st partial texture TD21 and 3rd partial texture TD23. It is good also as composition. In this case, since it is not necessary to prepare the image data concerning the partial texture of the intermediate aspect, it is possible to reduce the data amount. However, in consideration of the processing load involved in creating the partial texture of the intermediate aspect, it is preferable to prepare the partial texture of the intermediate aspect in advance.

上記構成においては、部分オブジェクトOB22を設け、ベースオブジェクトOB21に対して部分オブジェクトOB22が重なるように両者の位置関係を設定することで瞬き演出を実現させる構成としたが、これに限られず、部分オブジェクトOB22を設けない構成としてもよい。この場合、部分テクスチャTD12を頭部オブジェクトOB31における目の領域に対して直接上書きする構成としてもよい。具体的には、ベーステクスチャTD11が貼り付けられた頭部オブジェクトOB31の目の領域に対応する頂点に対応付けて部分テクスチャTD12のUV座標を設定し、当該部分テクスチャTD12を上記目の領域に貼り付ける処理を実行する。但し、部分オブジェクトOB22は板ポリゴンであるため、当該部分オブジェクトOB22を構成する頂点の数は頭部オブジェクトOB31における目の領域を形成する頂点の数よりも少なくなり易い。このため、部分オブジェクトOB22を用いて瞬き演出を行う構成の方が、マッピングに係る処理負荷が軽くなり易い。   In the above configuration, the partial object OB22 is provided, and the blink effect is realized by setting the positional relationship between the partial object OB22 and the base object OB21 so as to overlap with each other. However, the present invention is not limited thereto. The configuration may be such that the OB 22 is not provided. In this case, the partial texture TD12 may be directly overwritten on the eye area of the head object OB31. Specifically, the UV coordinates of the partial texture TD12 are set in association with the vertexes corresponding to the eye area of the head object OB31 to which the base texture TD11 is attached, and the partial texture TD12 is attached to the eye area Execute the process of However, since the partial object OB22 is a plate polygon, the number of vertices forming the partial object OB22 is likely to be smaller than the number of vertices forming the eye area in the head object OB31. For this reason, the processing load concerning mapping tends to be lighter in the configuration in which blink effect is performed using the partial object OB22.

さらに、髪型オブジェクトOB32に対して貼り付けるテクスチャを複数種類設け、当該髪型オブジェクトOB32に貼り付けるテクスチャを場面に応じて切り換える構成としてもよい。   Furthermore, a plurality of textures to be attached to the hairstyle object OB32 may be provided, and the texture to be attached to the hairstyle object OB32 may be switched according to the scene.

<その他の実施形態>
なお、上述した各実施形態の記載内容に限定されず、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能である。例えば以下のように変更してもよい。ちなみに、以下の別形態の構成を、上記実施の形態の構成に対して、個別に適用してもよく、組み合わせて適用してもよい。
<Other Embodiments>
In addition, it is not limited to the description content of each embodiment mentioned above, A various deformation | transformation improvement is possible within the range which does not deviate from the meaning of this invention. For example, it may be changed as follows. Incidentally, the configuration of the other embodiment described below may be applied individually to the configuration of the above embodiment, or may be applied in combination.

(1)描画データを作成する上で必要となる画像データを、その必要となったタイミングでメモリモジュール133から読み出すのではなく、その必要となるタイミングよりも前に事前にVRAM134に読み出しておく構成としてもよい。このような事前読み出しを行うことにより、描画データの作成を好適に行うことが可能となる。特に、メモリモジュール133としてNAND型フラッシュメモリを用いる場合には、読み出しに要する時間がNOR型フラッシュメモリよりも長時間化してしまう傾向にあるため、このような構成に、上記事前読み出しの構成を適用すると効果的である。なお、VDP135において使用される画像データに加えて又は代えて、表示CPU131において使用されるプログラムやデータが事前に読み出される構成としてもよい。   (1) A configuration in which image data required to create drawing data is not read out from the memory module 133 at the required timing but read out to the VRAM 134 in advance of the required timing. It may be By performing such pre-reading, it is possible to preferably create drawing data. In particular, in the case where a NAND flash memory is used as the memory module 133, the time required for reading tends to be longer than that of the NOR flash memory. Therefore, the above-described pre-read configuration is applied to such a configuration. Then it is effective. In addition to or instead of image data used in the VDP 135, a program or data used in the display CPU 131 may be read out in advance.

(2)演出用の描画データが書き込まれる演出用のバッファと、図柄用の描画データが書き込まれる図柄用のバッファとが個別に設けられており、最終的な生成データの生成に際しては、背景用のバッファに書き込まれた描画データと、演出用のバッファに書き込まれた描画データと、図柄用の描画データに書き込まれた描画データと、が合成される構成としてもよい。また、これに代えて、第1演出用の描画データが作成されるバッファと、第2演出用の描画データが作成されるバッファとが存在していて、第1演出用の描画データは背景用の描画データと図柄用の描画データとの間に存在し、第2演出用の描画データは最前面に存在するように、描画データの合成が行われる構成としてもよい。   (2) A buffer for effect in which drawing data for effect is written and a buffer for symbol in which drawing data for symbol is written are separately provided, and the final generation data is generated for background The drawing data written in the buffer, the drawing data written in the effect buffer, and the drawing data written in the drawing data may be combined. Also, instead of this, there is a buffer in which drawing data for the first effect is created and a buffer in which drawing data for the second effect is created, and the drawing data for the first effect is for the background The composition of the drawing data may be performed such that the drawing data for the second pattern and the drawing data for the symbol are present and the second drawing data for the second effect is on the foreground.

(3)カメラ(視点)がワールド座標系に配置される画像データ毎に個別に設定される構成としたが、これに代えて、ワールド座標系に配置される全画像データに対して単一のカメラが共通して設定される構成としてもよい。   (3) Although the camera (viewpoint) is configured to be set individually for each image data arranged in the world coordinate system, instead of this, a single image is set for all image data arranged in the world coordinate system. The camera may be commonly set.

(4)ワールド座標系に配置された画像データは、背景画像、演出画像及び図柄画像の単位で投影される構成としたが、背景画像及び演出画像の単位でまとめて投影される構成としてもよく、演出画像及び図柄画像の単位でまとめて投影される構成としてもよく、全てがまとめて投影される構成としてもよい。   (4) The image data arranged in the world coordinate system is configured to be projected in units of the background image, the effect image and the symbol image, but may be projected as a unit in the unit of the background image and the effect image The image may be projected together in units of effect images and symbol images, or may be projected all together.

(5)上作動口23への入賞に係る保留情報と下作動口24への入賞に係る保留情報とが区別して記憶されるとともに、下作動口24への入賞に係る保留情報が優先して消化される構成を適用してもよく、これとは逆に上作動口23への入賞に係る保留情報が優先して消化される構成を適用してもよい。   (5) The hold information relating to the winning to the upper operation opening 23 and the hold information relating to the winning to the lower operation opening 24 are distinguished and stored, and the hold information relating to the winning to the lower operation opening 24 has priority A configuration to be digested may be applied, and conversely, a configuration may be applied to which priority-retaining information relating to winning of the upper operating port 23 is preferentially digested.

また、上記構成において、複数の作動口が上下に並設されているのではなく、上作動口23に対応した第1作動口と、下作動口24に対応した第2作動口とが左右に並設された構成としてもよく、これら両作動口が斜めに並設された構成としてもよい。さらにまた、発射ハンドル41の操作態様に応じて、第1作動口への入賞のみ又は第2作動口への入賞のみを狙えるように、両作動口を離間して配置する構成としてもよい。   Further, in the above configuration, the plurality of operating ports are not vertically arranged side by side, but the first operating port corresponding to the upper operating port 23 and the second operating port corresponding to the lower operating port 24 are on the left and right It is good also as a structure arranged in parallel, and it is good also as a structure which these both operation ports were arranged in parallel diagonally. Furthermore, depending on the operation mode of the firing handle 41, both operation ports may be arranged apart from each other so as to aim for winning only to the first operation port or only to winning to the second operation port.

また、上記構成において、メイン表示部33に、上作動口23への入賞に基づき取得された保留情報の当否判定の結果を表示する第1表示領域と、下作動口24への入賞に基づき取得された保留情報の当否判定の結果を表示する第2表示領域とを設けてもよい。この場合、上作動口23への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第1表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。また、下作動口24への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第2表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。   Further, in the above configuration, the main display section 33 is obtained based on the first display area displaying the result of the acceptance / rejection determination of the hold information acquired based on the winning of the upper operation opening 23, and the winning of the lower operation opening 24. A second display area may be provided to display the result of the pass / fail judgment of the held information. In this case, the variation display of the pattern in the first display area is performed prior to or on the basis of the fact that the suspension information acquired based on the winning of the upper operation port 23 is the object of the acceptance or rejection determination. At the same time as the game start is started, the stop result corresponding to the determination of the success or failure is displayed, and the variable display of one game time is ended. In addition, the variation display of the pattern in the second display area is performed prior to or on the basis of the fact that the suspension information acquired based on the winning of the lower operation port 24 is the object of the acceptance determination. At the same time as it is started, the stop result corresponding to the judgment of success or failure is displayed, and the variable display of one game time is ended.

(6)上作動口23への入賞に係る保留情報が当否判定の対象となった場合と、下作動口24への入賞に係る保留情報が当否判定の対象となった場合とで、遊技者が得られる利益が異なる構成としてもよい。また、上記各実施形態のように作動口を複数設ける構成においては、作動口の数は2個に限定されることはなく、3個以上であってもよい。また、作動口が1個のみ設けられた構成としてもよい。   (6) The player is in the case where the hold information pertaining to the winning to the upper operation opening 23 is the target of the determination of yes or no, and the hold information pertaining to the winning to the lower operation opening 24 is the target of the determination of yes or no The benefits from which they are obtained may be different. Moreover, in the structure which provides multiple operating ports like each said embodiment, the number of operating ports is not limited to two, Three or more may be sufficient. In addition, only one operation opening may be provided.

(7)主制御装置50から出力されるコマンドに基づいて、音声発光制御装置60により表示制御装置70,130が制御される構成に代えて、主制御装置50から出力されるコマンドに基づいて、表示制御装置70,130が音声発光制御装置60を制御する構成としてもよい。また、音声発光制御装置60と表示制御装置70,130とが別々に設けられた構成に代えて、両制御装置が一の制御装置として設けられた構成としてもよく、それら両制御装置のうち一方の機能が主制御装置50に集約されていてもよく、それら両制御装置の両機能が主制御装置50に集約されていてもよい。また、主制御装置50から音声発光制御装置60に出力されるコマンドの構成も任意である。   (7) Instead of the configuration in which the display control devices 70 and 130 are controlled by the sound emission control device 60 based on the command output from the main control device 50, based on the command output from the main control device 50, The display control devices 70 and 130 may control the sound emission control device 60. Further, instead of the configuration in which the sound emission control device 60 and the display control devices 70 and 130 are separately provided, both control devices may be provided as one control device, and one of the two control devices may be provided. The functions of the above may be integrated into the main control device 50, and both functions of both control devices may be integrated into the main control device 50. Further, the configuration of the command output from the main control device 50 to the sound emission control device 60 is also arbitrary.

(8)上記各実施形態とは異なる他のタイプのパチンコ機等、例えば特別装置の特定領域に遊技球が入ると電動役物が所定回数開放するパチンコ機や、特別装置の特定領域に遊技球が入ると権利が発生して大当たりとなるパチンコ機、他の役物を備えたパチンコ機、アレンジボール機、雀球等の遊技機にも、本発明を適用できる。   (8) Other types of pachinko machines and the like different from the above embodiments, for example, pachinko machines in which a motorized role opens a predetermined number of times when gaming balls enter a specific area of a special device The present invention can be applied to a pachinko machine that becomes a jackpot when a right enters and becomes a jackpot, a pachinko machine equipped with other features, an arrange ball machine, a game machine such as a ball ball, and the like.

また、弾球式でない遊技機、例えば、複数種の図柄が周方向に付された複数の周回体として複数のリールを備え、メダルの投入及びスタートレバーの操作によりリールの回転を開始し、ストップスイッチが操作されることでリールが停止した後に、表示窓から視認できる有効ライン上に特定図柄又は特定図柄の組み合わせが成立していた場合にはメダルの払い出し等といった特典を遊技者に付与するスロットマシンにも、本発明を適用できる。この場合、スロットマシンの各種制御に対して本発明を適用できるとともに、リールとは別に液晶表示装置といった表示装置を備えた構成においては当該表示制御装置における画像の表示に係る制御に対して本発明を適用できる。   In addition, non-ball-ball type game machines, for example, a plurality of reels as a plurality of orbiting bodies in which a plurality of kinds of symbols are attached in the circumferential direction, start the rotation of the reels by inserting medals and operating the start lever A slot for giving a player a benefit such as payout of medals when a specific symbol or a combination of specific symbols is established on an effective line visible from the display window after the reel is stopped by operating the switch. The invention is also applicable to machines. In this case, the present invention can be applied to various controls of the slot machine, and in a configuration provided with a display device such as a liquid crystal display device separately from the reel, the present invention can be applied to the control related to displaying an image in the display control device. Is applicable.

また、取込装置を備え、貯留部に貯留されている所定数の遊技球が取込装置により取り込まれた後にスタートレバーが操作されることによりリールの回転を開始する、パチンコ機とスロットマシンとが融合された遊技機にも、本発明を適用できる。   A pachinko machine and slot machine including a loading device and starting rotation of the reel by operating the start lever after a predetermined number of gaming balls stored in the storage unit are loaded by the loading device. The present invention can also be applied to a gaming machine in which is integrated.

<上記実施形態から抽出される発明群について>
以下、上述した実施形態から抽出される発明群の特徴について、必要に応じて効果等を示しつつ説明する。なお以下においては、理解の容易のため、上記実施形態において対応する構成を括弧書き等で適宜示すが、この括弧書き等で示した具体的構成に限定されるものではない。
<About the invention group extracted from the above embodiment>
Hereinafter, the features of the invention group extracted from the above-described embodiment will be described while showing effects and the like as necessary. In the following, for ease of understanding, the corresponding configuration in the above embodiment is appropriately shown in parentheses or the like, but the present invention is not limited to the specific configuration illustrated in the parentheses or the like.

<特徴A群>
特徴A1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記データ生成手段は、
複数の個別画像を含む画像群を前記表示部に表示させる場合に適用する前記パラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)と、
当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature A group>
Features A1. Display means (symbol display device 31) having a display unit (display surface G);
When an image is displayed on the display unit using generation data (drawing data) generated by the data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152), and a predetermined update timing is reached. Display control means (display circuit 155 of VDP 135) for updating the contents of the image;
Equipped with
In the gaming machine, the data generation means generates the generation data based on applying image data and applying parameter data for determining a display mode of the image by the image data.
The data generation means
Deriving means for deriving the parameter data to be applied when an image group including a plurality of individual images is displayed on the display unit (function to execute the processing of step S2204, step S2208 and step S2212 in VDP 135, or step S2305 in VDP 135 , Step S2310, step S2317),
In the state where the parameter data derived by the deriving means is applied to specific image data (particle dispersion object PC 17), based on using the specific image data, the generated image is displayed on the display unit. Image group means capable of generating (function to execute the processing of step S2206, step S2210 and step S2214 in VDP 135, or function to execute the processing of step S2307, step S2313 and step S2319 in VDP 135),
Equipped with
The derivation unit is configured to use first parameter data (for example, first key data KD1) to be applied when displaying the image group at the first update timing and a second update timing later than the first update timing. Using the second parameter data (for example, the second key data KD2) applied when displaying the image group, the image group is updated at the update timing between the first update timing and the second update timing. A game machine characterized by having specific derivation means (function to execute the processing of step S2208 in VDP 135 or function to execute the processing of step S2310 in VDP 135) for deriving specific parameter data to be applied when displaying .

特徴A1によれば、複数の個別画像を含む画像群が表示されることにより、表示内容の複雑化が可能となり、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。   According to the feature A1, by displaying an image group including a plurality of individual images, display contents can be complicated, and it is possible to increase the player's interest in the image displayed on the display unit. Become.

この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。   In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived using the first parameter data and the second parameter data, the specific parameter data The data capacity can be reduced in that there is no need to store in advance, and it is possible to secure continuity for each of the first parameter data and the second parameter data.

さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。   Furthermore, the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is the first parameter data and the second parameter as the specific parameter data. It is derived collectively using data. Thus, among the plurality of individual images included in the image group, the parameter data to be referred to for deriving the parameter data corresponds to the same update timing. Therefore, the processing load in deriving the specific parameter data can be reduced.

特徴A2.前記画像群には、第1個別画像(例えば粒子単体画像PT1)と第2個別画像(例えば粒子単体画像PT2)とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータとを含む前記特定パラメータデータを導出するものであることを特徴とする特徴A1に記載の遊技機。
Feature A2. The image group includes a first individual image (for example, a particle single image PT1) and a second individual image (for example, a particle single image PT2),
The first parameter data includes parameter data applied when displaying the first individual image, and parameter data applied when displaying the second individual image,
The second parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The specific derivation means is applied when displaying the second individual image and parameter data applied when displaying the first individual image using the first parameter data and the second parameter data. The gaming machine according to the feature A1, characterized in that the specific parameter data including the parameter data to be transmitted is derived.

特徴A2によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。   According to the feature A2, in each of the first parameter data, the second parameter data, and the specific parameter data, parameter data corresponding to each of the first individual image and the second individual image included in the image group is present. Become. Thereby, in the configuration in which parameter data for displaying a plurality of individual images included in the image group at update timing between the first update timing and the second update timing is derived collectively as specific parameter data, When the display modes of the first individual image and the second individual image are changed with the lapse of time, it is possible to make the changing aspect correspond to each individual image.

特徴A3.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであることを特徴とする特徴A1又はA2に記載の遊技機。   Feature A3. The game according to the feature A1 or A2, wherein the specific deriving means derives the specific parameter data by blending the first parameter data and the second parameter data at a predetermined ratio. Machine.

特徴A3によれば、第1パラメータデータと第2パラメータデータとをそのまま利用しながら特定パラメータデータを導出することが可能となる。   According to the feature A3, it is possible to derive specific parameter data while using the first parameter data and the second parameter data as they are.

特徴A4.前記画像群には、第1個別画像と第2個別画像とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、
前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用される第1特定パラメータデータと、前記第2個別画像を表示させる場合に適用される第2特定パラメータデータとを含む前記特定パラメータデータを導出するものでり、
且つ、特定の更新タイミングにて前記特定パラメータデータを導出する場合において、前記第1特定パラメータデータを導出する場合における前記所定の比率と、前記第2特定パラメータデータを導出する場合における前記所定の比率とが同一であることを特徴とする特徴A3に記載の遊技機。
Feature A4. The image group includes a first individual image and a second individual image,
The first parameter data includes parameter data applied when displaying the first individual image, and parameter data applied when displaying the second individual image,
The second parameter data includes parameter data applied when displaying the first individual image and parameter data applied when displaying the second individual image,
The specific derivation means is
A first specific parameter data applied when displaying the first individual image using the first parameter data and the second parameter data, and a second applied when displaying the second individual image To derive the specific parameter data including two specific parameter data;
Also, in the case of deriving the specific parameter data at a specific update timing, the predetermined ratio in the case of deriving the first specific parameter data and the predetermined ratio in the case of deriving the second specific parameter data The gaming machine according to feature A3, characterized in that and are identical.

特徴A4によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。   According to the feature A4, in each of the first parameter data, the second parameter data, and the specific parameter data, parameter data corresponding to each of the first individual image and the second individual image included in the image group is present. Become. Thereby, in the configuration in which parameter data for displaying a plurality of individual images included in the image group at update timing between the first update timing and the second update timing is derived collectively as specific parameter data, When the display modes of the first individual image and the second individual image are changed with the lapse of time, it is possible to make the changing aspect correspond to each individual image.

また、このように各個別画像に対応した各パラメータデータを含むようにして特定パラメータデータを導出する構成において、第1個別画像に対応した第1特定パラメータデータを導出する場合に用いられる所定の比率と、第2個別画像に対応した第2特定パラメータデータを導出する場合に用いられる所定の比率とが同一となっている。これにより、所定の比率の情報を共通して使用することが可能となり、所定の比率がそれぞれ異なる構成に比べて処理負荷の軽減が図られる。   Further, in the configuration for deriving the specific parameter data so as to include each parameter data corresponding to each individual image as described above, a predetermined ratio used when deriving the first specific parameter data corresponding to the first individual image, The predetermined ratio used when deriving the second specific parameter data corresponding to the second individual image is the same. As a result, it is possible to commonly use information of a predetermined ratio, and it is possible to reduce processing load as compared with a configuration in which the predetermined ratios are different.

特徴A5.前記第1更新タイミングと前記第2更新タイミングとの間には、前記画像群の表示態様が変更される更新タイミングが複数存在しており、
前記特定導出手段は、前記第1更新タイミングと前記第2更新タイミングとの間にて前記画像群の表示態様が変更される複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとを用いて前記特定パラメータデータを導出するものであることを特徴とする特徴A1乃至A4のいずれか1に記載の遊技機。
Feature A5. Between the first update timing and the second update timing, there exist a plurality of update timings in which the display mode of the image group is changed,
The specific derivation unit is configured to perform the first parameter data and the second parameter at each of a plurality of update timings at which the display mode of the image group is changed between the first update timing and the second update timing. The gaming machine according to any one of the features A1 to A4, wherein the specific parameter data is derived using data.

特徴A5によれば、第1更新タイミングと第2更新タイミングとの間に含まれる複数の更新タイミングのそれぞれにおいて同一の特定パラメータデータを用いるのではなく、それぞれの更新タイミングにて個別に特定パラメータデータが導出される構成であるため、第1パラメータデータから第2パラメータデータへと除々に近付くようにパラメータデータを導出することが可能となる。これにより、画像群の表示態様を一連のものとして遊技者に視認させることが可能となる。   According to the feature A5, instead of using the same specific parameter data in each of the plurality of update timings included between the first update timing and the second update timing, the specific parameter data is individually set in each of the update timings. Is derived, it is possible to derive parameter data so as to gradually approach from the first parameter data to the second parameter data. This makes it possible for the player to visually recognize the display mode of the image group as a series.

また、複数の更新タイミングのそれぞれにおいて用いられるパラメータデータが第1パラメータデータと第2パラメータデータとを用いて導出される構成であるため、それらパラメータデータを予め記憶させておく構成に比べ、データ容量の削減が図られる。さらにまた、それら複数のパラメータデータは、いずれも第1パラメータデータと第2パラメータデータとを用いて導出されるため、それら複数のパラメータデータを導出する上で参照すべきパラメータデータの種類を変更する必要が生じない。よって、処理負荷の軽減が図られる。   Further, since the parameter data used at each of the plurality of update timings is derived using the first parameter data and the second parameter data, the data capacity is larger than in the configuration in which the parameter data is stored in advance. Can be reduced. Furthermore, since the plurality of parameter data are both derived using the first parameter data and the second parameter data, the type of parameter data to be referred to in deriving the plurality of parameter data is changed There is no need. Thus, the processing load can be reduced.

特徴A6.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであり、
前記データ生成手段は、前記複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとをブレンドする場合における前記所定の比率を決定する比率決定手段(表示CPU131におけるステップS2109の処理を実行する機能、又はVDP135におけるステップS2309の処理を実行する機能)を備え、
当該比率決定手段は、前記複数の更新タイミングにおいて一の更新タイミングから次の更新タイミングとなった場合の前記所定の比率の変化量と、当該次の更新タイミングからさらに次の更新タイミングとなった場合の前記所定の比率の変化量とが同一となるように前記決定を行うものであることを特徴とする特徴A5に記載の遊技機。
Feature A6. The specific derivation means derives the specific parameter data by blending the first parameter data and the second parameter data at a predetermined ratio,
The data generation means is a ratio determination means for determining the predetermined ratio when blending the first parameter data and the second parameter data at each of the plurality of update timings (processing of step S2109 in display CPU 131) Function of executing the process of step S2309 in the VDP 135) or
When the ratio determining means determines that the amount of change of the predetermined ratio when one update timing comes to the next update timing at the plurality of update timings and the next update timing from the next update timing The gaming machine according to feature A5, wherein the determination is performed such that the amount of change of the predetermined ratio is the same.

特徴A6によれば、第1更新タイミングと第2更新タイミングとの間の複数の更新タイミングのそれぞれでは、一定の変化量で所定の比率を変更していくだけでよいため、所定の比率を変化させる上での構成の簡素化が図られる。   According to the feature A6, at each of the plurality of update timings between the first update timing and the second update timing, it is only necessary to change the predetermined ratio with a fixed amount of change, so the predetermined ratio is changed. The above configuration can be simplified.

特徴A7.一の更新タイミングにおける画像を表示させるのに必要は画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を出力する描画指示手段(表示CPU131)を備え、
前記表示制御手段は、前記描画指示手段にて指示されている情報に従って画像の表示を行わせるものであり、
当該表示制御手段が、前記特定導出手段を有していることを特徴とする特徴A1乃至A6のいずれか1に記載の遊技機。
Feature A7. In order to display an image at one update timing, a drawing instruction means (display CPU 131) for outputting drawing instruction information (drawing list) including at least information for specifying image data and parameter data to be applied to the image data is provided. ,
The display control means displays an image in accordance with the information instructed by the drawing instruction means.
The gaming machine according to any one of the features A1 to A6, wherein the display control means includes the specific deriving means.

特徴A7によれば、描画指示手段側において特定パラメータデータを導出する必要がないため、当該描画指示手段の処理負荷の軽減が図られる。   According to the feature A7, since it is not necessary to derive the specific parameter data on the drawing instruction means side, the processing load of the drawing instruction means can be reduced.

特徴A8.前記第1パラメータデータ、前記第2パラメータデータ及び前記特定パラメータデータは、前記画像群が表示される位置を決定するための座標情報を含んでいることを特徴とする特徴A1乃至A7のいずれか1に記載の遊技機。   Feature A8. One of the features A1 to A7, wherein the first parameter data, the second parameter data, and the specific parameter data include coordinate information for determining a position at which the image group is displayed. The gaming machine described in.

特徴A8によれば、既に説明したような優れた効果を奏しながら、画像群に含まれる各個別画像の位置が変化していく画像を表示することが可能となる。   According to the feature A8, it is possible to display an image in which the position of each individual image included in the image group changes while achieving the excellent effect as described above.

特徴A9.前記特定パラメータデータに対応した座標情報は、前記画像群に含まれる各個別画像の位置が、前記第1パラメータデータにより定まる位置と、前記第2パラメータデータにより定まる位置とを結ぶ仮想直線上となるようにする座標情報であることを特徴とする特徴A8に記載の遊技機。   Feature A9. The coordinate information corresponding to the specific parameter data is on a virtual straight line connecting the position determined by the first parameter data and the position determined by the second parameter data, the position of each individual image included in the image group The gaming machine according to feature A8, characterized in that it is coordinate information to be made.

特徴A9によれば、第1パラメータデータにより定まる位置から、第2パラメータデータにより定まる位置へと移動しているように画像群を表示させる場合において、それらの両位置を結ぶ直線上を移動するように特定パラメータデータを導出するだけでよいため、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出する上で、当該導出に際しての処理負荷の軽減が図られる。   According to the feature A9, when displaying the image group as moving from the position determined by the first parameter data to the position determined by the second parameter data, the image group moves on a straight line connecting both the positions Since it is only necessary to derive the specific parameter data, it is possible to reduce the processing load at the time of deriving the specific parameter data using the first parameter data and the second parameter data.

特徴A10.前記導出手段は、前記第1パラメータデータ及び前記第2パラメータデータを記憶手段(メモリモジュール133)から読み出すことで導出するものであることを特徴とする特徴A1乃至A9のいずれか1に記載の遊技機。   Feature A10. The game according to any one of the features A1 to A9, wherein the deriving means derives the first parameter data and the second parameter data by reading from the storage means (memory module 133). Machine.

特徴A10によれば、第1更新タイミングにおいては第1パラメータデータを読み出して用い、第2更新タイミングにおいては第2パラメータデータを読み出して用いるだけでよいため、それら更新タイミングにおける処理負荷の軽減が図られる。その一方、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいては、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出すればよいため、それだけパラメータデータを記憶しておくためのデータ容量が削減できる。つまり、本構成によれば、データ容量及び処理負荷の両方のバランスを図りながら、画像群を用いた表示を行うことが可能となる。   According to the feature A10, since it is only necessary to read and use the first parameter data at the first update timing and read and use the second parameter data at the second update timing, the processing load at these update timings can be reduced as shown in FIG. Be On the other hand, at the update timing between the first update timing and the second update timing, since the specific parameter data may be derived using the first parameter data and the second parameter data, only parameter data is stored. Data capacity to save can be reduced. That is, according to the present configuration, it is possible to perform display using an image group while balancing both data capacity and processing load.

特徴A11.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備え、
前記特定画像データは、オブジェクトの画像データに対応しており、前記画像群に含まれる前記複数の個別画像はそれぞれ、前記オブジェクトの画像データの各頂点データに対応していることを特徴とする特徴A1乃至A10のいずれか1に記載の遊技機。
Characteristics A11. The data generation means arranges image data of an object which is three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP 135) Viewpoint setting means (function to execute the process of step S1006 in VDP 135), and projecting image data of the object on a projection plane set based on the viewpoint, and based on data projected on the Setting means for generating the generated data (a function for executing the processing of steps S1010 to S1012 in the VDP 135);
The specific image data corresponds to image data of an object, and the plurality of individual images included in the image group correspond to vertex data of image data of the object. The gaming machine according to any one of A1 to A10.

特徴A11によれば、3次元情報を利用したリアルな画像表示を可能とした構成において、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。   According to the feature A11, in a configuration that enables realistic image display using three-dimensional information, it is only necessary to arrange one object in a virtual three-dimensional space when displaying an image group, thus reducing processing load. While it is possible to display an image group.

特徴A12.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定画像データの使用指示情報が含まれている場合、前記特定画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A11に記載の遊技機。
Feature A12. The arrangement means is a drawing instruction means (display CPU 131) that includes drawing instruction information (drawing list) including at least information specifying image data necessary for displaying an image at one update timing and parameter data to be applied to the image data. By arranging the image data in the virtual three-dimensional space according to the information instructed by the drawing instruction information based on the output by the), generation data corresponding to the drawing instruction information can be generated. To be
When the image group is displayed, the drawing instruction means includes use instruction information of the specific image data in the drawing instruction information.
The arrangement means is configured to display the image group by arranging the specific image data in the virtual three-dimensional space, when the drawing instruction information includes use instruction information of the specific image data. The gaming machine according to feature A11, wherein the gaming machine is adapted to be capable of generation.

特徴A12によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。   According to the feature A12, in the case of displaying the image group, the drawing instruction means need only include the use instruction information on one object in the drawing instruction information, so that the processing load required for setting the drawing instruction information can be reduced. As a result, the data volume of the drawing instruction information can be reduced.

特徴A13.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、複数の個別画像を含む画像群を前記表示部に表示させる場合に適用するパラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)を備え、
前記配置手段は、当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
Feature A13. Arrangement means for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (The function to execute the processing of step S1006 in VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (rendering data (rendering data) based on the data projected on the projection plane And generation setting means (a function for executing the processing of steps S1010 to S1012 in VDP 135) for generating the generated data generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) Memory means to store And Mubaffa 142),
Display control means (display circuit 155 of VDP 135) for outputting and displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31);
In the gaming machine provided with
The data generation unit is a derivation unit that derives parameter data to be applied when displaying an image group including a plurality of individual images on the display unit (a function of executing the processing of step S2204, step S2208 and step S2212 in VDP 135; Or step S2305, step S2310, step S2317) in the VDP 135,
The arrangement unit uses the specific image data in a state where the parameter data derived by the derivation unit is applied to the specific image data (object for particle dispersion (object PC 17)), the display unit displays the image group. Means for generating image data to be displayed (image function for executing steps S2206, S2210 and S2214 in VDP 135, or function for executing steps S2307, S2313 and S2319 in VDP 135) When,
Equipped with
The derivation unit is configured to use first parameter data (for example, first key data KD1) to be applied when displaying the image group at the first update timing and a second update timing later than the first update timing. Using the second parameter data (for example, the second key data KD2) applied when displaying the image group, the image group is updated at the update timing between the first update timing and the second update timing. A game machine characterized by having specific derivation means (function to execute the processing of step S2208 in VDP 135 or function to execute the processing of step S2310 in VDP 135) for deriving specific parameter data to be applied when displaying .

特徴A13によれば、3次元情報を利用したリアルな画像表示が可能となり、さらには複数の個別画像を含む画像群が表示されることにより表示内容の複雑化が可能となる。よって、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。   According to the feature A13, it is possible to display a realistic image using three-dimensional information, and further, to display an image group including a plurality of individual images, so that the display content can be complicated. Therefore, it is possible to increase the player's interest in the image displayed on the display unit.

この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。   In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived using the first parameter data and the second parameter data, the specific parameter data The data capacity can be reduced in that there is no need to store in advance, and it is possible to secure continuity for each of the first parameter data and the second parameter data.

さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。   Furthermore, the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is the first parameter data and the second parameter as the specific parameter data. It is derived collectively using data. Thus, among the plurality of individual images included in the image group, the parameter data to be referred to for deriving the parameter data corresponds to the same update timing. Therefore, the processing load in deriving the specific parameter data can be reduced.

特徴A14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示制御手段は、特定の生成データを用いることにより、複数の個別画像を含む画像群を同時に表示させる構成であり、
前記画像群を表示させるために前記配置手段により前記仮想3次元空間に配置される画像データは、当該画像群に含まれる前記複数の個別画像のそれぞれが、各頂点データに対応付けられている特定オブジェクトの画像データ(粒子分散用オブジェクトPC17)であることを特徴とする遊技機。
Feature A14. Arrangement means for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (The function of performing the process of step S1006 in VDP 135), and projecting the image data of the object on the projection plane set based on the viewpoint, and generating the generation data based on the data projected on the projection plane Generation data (drawing data) generated by a data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152) having a drawing setting unit (a function of executing the processing of step S1010 to step S1012 in VDP 135) Memory means to store And Mubaffa 142),
Display control means (display circuit 155 of VDP 135) for outputting and displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31);
In the gaming machine provided with
The display control means is configured to simultaneously display an image group including a plurality of individual images by using specific generation data.
The image data arranged in the virtual three-dimensional space by the arrangement means for displaying the group of images is a specification in which each of the plurality of individual images included in the group of images is associated with each vertex data A game machine characterized in that it is image data of an object (particle dispersion object PC 17).

特徴A14によれば、3次元情報を利用したリアルな画像表示が可能となる。この場合に、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。   According to the feature A14, realistic image display using three-dimensional information becomes possible. In this case, since it is sufficient to arrange one object in the virtual three-dimensional space when displaying the image group, it is possible to display the image group while reducing the processing load.

特徴A15.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定オブジェクトの画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定オブジェクトの画像データの使用指示情報が含まれている場合、当該特定オブジェクトの画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A14に記載の遊技機。
Feature A15. The arrangement means is a drawing instruction means (display CPU 131) that includes drawing instruction information (drawing list) including at least information specifying image data necessary for displaying an image at one update timing and parameter data to be applied to the image data. By arranging the image data in the virtual three-dimensional space according to the information instructed by the drawing instruction information based on the output by the), generation data corresponding to the drawing instruction information can be generated. To be
When the image group is displayed, the drawing instruction means includes use instruction information of image data of the specific object in the drawing instruction information.
The arrangement means displays the image group by arranging the image data of the specific object in the virtual three-dimensional space when the drawing instruction information includes use instruction information of the image data of the specific object. The gaming machine according to feature A14, wherein generation of generation data to be generated is enabled.

特徴A15によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。   According to the feature A15, in the case of displaying the image group, the drawing instruction means need only include the use instruction information on one object in the drawing instruction information, so that the processing load required for setting the drawing instruction information can be reduced. As a result, the data volume of the drawing instruction information can be reduced.

上記特徴A群の発明は、以下の課題に対して効果的である。   The invention of the feature group A is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。   To explain in more detail the case of displaying an image using two-dimensional image data, the memory for image data stores image data for displaying a background and image data for displaying a character or the like. It is done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated with respect to a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, the display unit displays an image in which a character or the like is arranged in front of the background.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, a polygon, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, by outputting a signal to the display device based on the generated data, a stereoscopic image is displayed.

ここで、個別画像の表示方向を複雑なものとしたり、複数の個別画像を同時に表示させることにより、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となると考えられる。しかしながら、このような画像の表示を行う場合に、処理負荷が極端に増加してしまうことや、データ容量が極端に増加してしまうことは好ましくない。   Here, it is considered possible to increase the player's interest in the image displayed on the display unit by making the display direction of the individual image complicated or displaying a plurality of individual images simultaneously. However, when such an image is displayed, it is not preferable that the processing load extremely increases and the data capacity extremely increases.

本発明は、上記例示した事情等に鑑みてなされたものであり、処理負荷を抑えながら、表示演出を良好に行うことが可能な遊技機を提供することを目的とするものである。   The present invention has been made in view of the above-described circumstances and the like, and it is an object of the present invention to provide a gaming machine capable of favorably performing display effects while suppressing the processing load.

<特徴B群>
特徴B1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記配置手段による前記仮想3次元空間への配置対象となるオブジェクトの画像データには、複数の面を定めることが可能なデータを有し且つそれら複数の面データ(面データSD)によって3次元形状を定めることが可能な多面オブジェクトの画像データ(海面用オブジェクトPC19)が含まれており、
前記データ生成手段は、
複数の更新タイミングに亘って前記多面オブジェクトの画像データに対応した多面画像を表示させるべく前記仮想3次元空間に前記多面オブジェクトの画像データを配置する場合に、前記多面画像の表示態様が変更されるように前記複数の面データのうち少なくとも一部についての前記仮想3次元空間への配置態様を変更させる配置態様変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135における海面表示用の設定処理を実行する機能)と、
当該配置態様変更手段により前記配置態様が変更された前記面データに対して適用する色情報を、当該面データの配置態様に応じて当該面データ単位で変更させることにより、前記多面画像の少なくとも一部の領域の表示色が複数の更新タイミング間において異なることとなる画像表示を可能とする表示色変更手段(VDP135における海面表示用の色情報設定処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature B group>
Feature B1. Arrangement means for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (The function to execute the processing of step S1006 in VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (rendering data (rendering data) based on the data projected on the projection plane And generation setting means (a function for executing the processing of steps S1010 to S1012 in VDP 135) for generating the generated data generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) Memory means to store And Mubaffa 142),
Display control means (VDP 135) for displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31) and updating the contents of the image when a predetermined update timing is reached. Display circuit 155),
In the gaming machine provided with
The image data of the object to be placed in the virtual three-dimensional space by the placement means has data capable of defining a plurality of faces, and a plurality of face data (face data SD) has a three-dimensional shape. Image data of a multi-faced object (sea surface object PC 19) that can determine
The data generation means
When the image data of the polyhedral object is arranged in the virtual three-dimensional space so as to display the polyhedral image corresponding to the image data of the polyhedral object over a plurality of update timings, the display mode of the polyhedral image is changed Arrangement mode changing means for changing the arrangement mode of at least a part of the plurality of plane data in the virtual three-dimensional space (function to execute arithmetic processing for sea surface display in display CPU 131, for sea surface display in VDP 135 Function to execute the setting process of
The color information to be applied to the surface data whose layout mode has been changed by the layout mode changing means is changed in units of the plane data according to the layout mode of the plane data, thereby at least one of the multiple plane images Display color changing means (function of executing color information setting processing for sea surface display in VDP 135) capable of displaying an image in which the display color of the area of the unit is different among a plurality of update timings;
A game machine characterized by comprising:

特徴B1によれば、複数の面データのうち少なくとも一部についての配置態様が変更されるとともに、当該配置態様が変更された面データに適用される色情報がその配置態様の変更に伴って変更される。これにより、表示演出を複雑化させることが可能となり、表示演出への遊技者の興味を高めることが可能となる。   According to the feature B1, the layout mode of at least a part of the plurality of plane data is changed, and the color information applied to the plane data of which the layout mode is changed is changed along with the change of the layout mode. Be done. This makes it possible to complicate the display effect, and to increase the player's interest in the display effect.

また、上記色情報の変更は、面データの配置態様に応じて当該面データ単位で行われる。これにより、色情報が変更されるパターンに対応させて多数のテクスチャを事前に記憶させておかなくても、面データの配置態様に応じた色情報の設定を行うことが可能となる。よって、データ容量の増大化を抑制しながら、表示演出への遊技者の興味を高めることが可能となる。   Further, the change of the color information is performed in the plane data unit according to the arrangement mode of the plane data. As a result, even if a large number of textures are not stored in advance in accordance with the pattern in which the color information is changed, it is possible to set the color information according to the layout mode of the surface data. Therefore, it is possible to increase the player's interest in display effects while suppressing an increase in data capacity.

なお、「前記配置態様変更手段は、前記配置態様を変更させる場合、前記複数の面データのうち少なくとも一部について、向き、形状及びサイズのうち少なくとも一つを変更させる」という構成が上記構成に含まれる。   Note that “the arrangement mode changing means changes at least one of the direction, the shape, and the size of at least a part of the plurality of plane data when the arrangement mode is changed” in the above configuration. included.

特徴B2.前記配置態様変更手段は、前記複数の面データのうち一部の面データの配置態様を変更させ、且つ他の面データの配置態様を当該一部の面データに対する配置態様の変更に対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1に記載の遊技機。   Feature B2. The arrangement mode changing means changes the arrangement mode of the surface data of a part of the plurality of surface data, and makes the arrangement mode of the other surface data correspond to the change of the arrangement mode to the surface data of the part The gaming machine according to the feature B1, further comprising (a function of executing setting processing of a normal parameter in the VDP 135).

特徴B2によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。   According to the feature B2, it is possible to individually control the arrangement mode of the plane data while preventing the continuity between the plane data to be lost.

特徴B3.前記配置態様変更手段は、前記多面画像において対応する領域が相互に連続しない非連続の面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つ前記多面画像において対応する領域が前記非連続の面データに対応する領域と連続する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記非連続の面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1又はB2に記載の遊技機。   Feature B3. The arrangement mode changing means changes a predetermined parameter which is at least one of an orientation, a shape, and a size of discontinuous surface data (surface data SD1 to be applied) in which corresponding regions in the multi-sided image are not continuous with each other. And means for correlating the predetermined parameter of surface data (surface data SD2 for buffer) continuous with a region corresponding to the non-continuous surface data in the multi-face image to the non-continuous surface data A game machine according to feature B1 or B2, characterized by comprising (a function of executing setting processing of a normal parameter in the VDP 135).

特徴B3によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。特に、配置態様を積極的に変更させる対象を非連続の面データとし、当該非連続の面データに連続する面データについては、上記非連続の面データに対応させることにより、このような切り分けを行わずに配置態様の変更を行う構成に比べて、各面データ間の連続性を担保するための調整に要する処理負荷の軽減が図られる。   According to the feature B3, it is possible to individually control the arrangement mode of the plane data while preventing the continuity between the plane data to be lost. In particular, an object whose layout mode is to be positively changed is non-continuous surface data, and such surface data continuous to the non-continuous surface data is made to correspond to the non-continuous surface data to make such division. As compared with the configuration in which the arrangement mode is changed without performing the process, the processing load required for the adjustment for securing the continuity between the surface data can be reduced.

なお、上記特徴B3のより具体的な構成としては、
「前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記頂点データを相互に共有していない面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つそれら変更対象となった面データと頂点データを共有する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記変更対象となった面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えている」
という構成が考えられる。
In addition, as a more specific structure of the said feature B3,
"Each surface data is determined by a plurality of vertex data, and further, a plurality of predetermined surface data share some vertex data with each other,
The arrangement mode changing means changes a predetermined parameter which is at least one of an orientation, a shape, and a size of surface data (surface data SD1 to be applied) which does not share the vertex data with each other, and changes them A unit for correlating the predetermined parameter of the surface data (face data SD2 for buffering) sharing the target surface data and the vertex data with the surface data as the change target (a setting process of a normal parameter in the VDP 135 Have a function to execute)
It is possible to consider the configuration.

特徴B4.前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記各頂点データの座標を個別に変更させることにより、前記各面データの向き、形状及びサイズのうち少なくとも一つを変更させるものであることを特徴とする特徴B1又はB2に記載の遊技機。
Feature B4. Each surface data is determined by a plurality of vertex data, and further, a plurality of predetermined surface data share some vertex data with each other,
The arrangement mode changing means is configured to change at least one of the direction, the shape, and the size of each of the surface data by individually changing the coordinates of each of the vertex data. The gaming machine described in B2.

特徴B4によれば、一の頂点データの座標を変更することで、複数の面データの向き、形状及びサイズのうち少なくとも一つを変更することが可能となる。このように面データ単位でパラメータを制御するのではなく、頂点データ単位でパラメータを制御することで、面データ間の連続性を担保させるための処理構成をあえて設定しなくても、面データの配置態様を個別に制御することが可能となる。   According to the feature B4, it is possible to change at least one of the orientation, the shape, and the size of the plurality of surface data by changing the coordinates of one vertex data. As described above, by controlling parameters in units of vertex data instead of controlling parameters in units of plane data, even if a processing configuration for securing continuity between surface data is not set, it is possible to use plane data It becomes possible to control arrangement mode individually.

特徴B5.前記配置態様変更手段は、
前記複数の面データの各配置態様を個別に変更させることを可能とする個別制御データ(第1法線マップデータND1、第2法線マップデータND2)を記憶手段(メモリモジュール133)から読み出すデータ読出手段(VDP135におけるステップS2503を実行する機能)と、
前記個別制御データを前記多面オブジェクトの画像データに適用する場合の態様を前記複数の更新タイミング間において異ならせる適用変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B4のいずれか1に記載の遊技機。
Feature B5. The arrangement mode changing means is
Data for reading out from the storage means (memory module 133) individual control data (first normal map data ND1, second normal map data ND2) which makes it possible to individually change the arrangement mode of the plurality of plane data Reading means (function of executing step S2503 in VDP 135);
Application changing means for changing the mode in the case of applying the individual control data to the image data of the multi-faced object among the plurality of update timings (function to execute the processing of step S2506, step S2507, step S2511 and step S2512 in VDP 135 )When,
The gaming machine according to any one of the features B1 to B4, comprising:

特徴B5によれば、予め記憶された個別制御データを利用して面データの配置態様を変更させる構成において、その個別制御データを利用しながら、複数の更新タイミング間において多面画像の表示態様を変更させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。   According to the feature B5, in the configuration in which the layout mode of the plane data is changed using the individual control data stored in advance, the display mode of the multi-plane image is changed between the plurality of update timings while using the individual control data It is possible to Therefore, it is possible to achieve the excellent effects as described above while balancing the data capacity and the processing load.

特徴B6.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5に記載の遊技機。
Feature B6. The individual control data includes a plurality of unit control data (unit normal data UND), and the unit control data is applied to the surface data or data defining the surface data.
The application changing means changes the correspondence between the data to which the unit control data is to be applied and the unit control data in the image data of the multi-faced object in accordance with the switching of the update timing (VDP 135 The gaming machine according to the feature B5, characterized in that it comprises a function of executing the processing of step S2506, step S2507, step S2511 and step S2512.

特徴B6によれば、単位制御データを適用する対象のデータと当該単位制御データとの対応関係を切り換えることによって複数の更新タイミング間において多面画像の表示態様を変更させる構成であるため、個別制御データを利用しながら多面画像の表示態様を変更させる構成において処理負荷を軽減することが可能となる。   According to the feature B6, since the display mode of the multi-face image is changed between the plurality of update timings by switching the correspondence between the data to which the unit control data is applied and the unit control data, the individual control data The processing load can be reduced in the configuration in which the display mode of the multi-face image is changed while using the

特徴B7.前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して複数の前記単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5又はB6に記載の遊技機。   Feature B7. The application changing unit reflects a plurality of unit control data contents on one data to which the unit control data is applied in the image data of the multi-faced object (steps S2506 and S2507 in VDP 135) , And a function of executing the processing of step S2511 and step S2512). The gaming machine according to feature B5 or B6.

特徴B7によれば、単位制御データを参照しながら配置態様を変更させる構成において、その変更させる配置態様の多様化が図られる。   According to the feature B7, in the configuration in which the arrangement mode is changed with reference to the unit control data, diversification of the arrangement mode to be changed is achieved.

特徴B8.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記データ読出手段は、複数の前記個別制御データを前記記憶手段から読み出すものであり、
前記適用変更手段は、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して、前記複数の個別制御データのそれぞれの単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の個別制御データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴B5又はB6に記載の遊技機。
Feature B8. The individual control data includes a plurality of unit control data (unit normal data UND), and the unit control data is applied to the surface data or data defining the surface data.
The data reading means reads a plurality of the individual control data from the storage means.
The application changing means is
A plurality of application means for reflecting the contents of each unit control data of the plurality of individual control data with respect to one data to which the unit control data is applied in the image data of the multi-faced object (step S2507 and step in VDP 135 Function to execute the process of S2512),
In the image data of the multi-faced object, the correspondence between the data to which the unit control data is to be applied and the unit control data is changed along with the switching of the update timing, and the change of the correspondence is made to the plurality of individual control data Correspondence change means (function of executing the processing of step S2506 and step S2511 in the VDP 135)
The gaming machine according to feature B5 or B6, comprising:

特徴B8によれば、遊技機設計段階における個別制御データの設計の容易化を図りながら、配置態様を複雑に変化させることが可能となる。   According to the feature B8, the arrangement mode can be changed in a complicated manner while facilitating the design of the individual control data in the gaming machine design stage.

特徴B9.前記配置態様変更手段は、
複数の前記面データを含む一群のデータについてまとめて配置態様を変更させる第1変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135におけるステップS2504及びステップS2509を実行する機能)と、
当該第1変更手段により配置態様が変更された前記一群のデータに含まれる各面データの配置態様を個別に変更させる第2変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B8のいずれか1に記載の遊技機。
Feature B9. The arrangement mode changing means is
First changing means (a function for executing arithmetic processing for displaying a sea surface in display CPU 131, a function for executing steps S2504 and S2509 in VDP 135) for collectively changing the arrangement mode of a group of data including a plurality of surface data ,
Second changing means for individually changing the arrangement mode of each surface data included in the group of data whose arrangement mode has been changed by the first changing means (processing of step S2506, step S2507, step S2511 and step S2512 in VDP 135) And the ability to perform
A game machine according to any one of the features B1 to B8, comprising:

特徴B9によれば、大きな流れに沿って配置態様を変更するようにしながら、面データ単位での配置態様を複雑に変化させることが可能となる。   According to the feature B9, it is possible to change the arrangement mode in plane data units in a complicated manner while changing the arrangement mode along the large flow.

なお、このような作用効果を生じさせるより具体的な構成としては、「前記第1変更手段により変更される配置態様の種類は、位置、向き及びサイズの少なくとも一つであり、前記第2変更手段により変更される配置態様の種類には、前記第1変更手段により変更される配置対象の種類の少なくとも一部が含まれている」構成が考えられる。   Note that, as a more specific configuration that causes such an operation and effect, “the type of the layout mode changed by the first changing unit is at least one of a position, an orientation, and a size, and the second change is The kind of arrangement mode changed by the means may include at least a part of the kind of arrangement object to be changed by the first changing means.

また、「前記多面オブジェクトの画像データには、前記一群のデータが複数含まれており、前記第1変更手段は、それら複数の一群のデータの配置態様を個別に変更させるものである」構成が考えられる。   In addition, “the image data of the multi-faced object includes a plurality of data of the group, and the first changing unit is configured to individually change the arrangement mode of the plurality of groups of data”. Conceivable.

特徴B10.前記表示色変更手段は、
前記配置態様変更手段による変更対象となった配置態様に応じて、前記面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702〜ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記配置態様とは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B9のいずれか1に記載の遊技機。
Feature B10. The display color changing means is
Classification specifying means for specifying whether color information to be applied to the surface data is included in a predetermined classification according to the arrangement mode to be changed by the arrangement mode changing means (step S2702 to step in VDP 135 Function to execute S2705),
Color information for selecting color information to be applied to the surface data specified as being included in the predetermined classification by the classification specifying means from among color information of a plurality of stages based on parameters of a type different from the arrangement mode Selection means (function of executing step S2706 and step S2707 in VDP 135);
The gaming machine according to any one of the features B1 to B9, comprising:

特徴B10によれば、配置態様に応じて色情報を変化させながら、さらに配置態様とは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、リアルな画像表示を実現することが可能となる。   According to the feature B10, the color information is determined based on the parameter different from the arrangement manner while changing the color information according to the arrangement manner, so that the color information can be set complicatedly. This makes it possible to realize realistic image display.

特徴B11.前記配置態様変更手段は、前記面データの向きを少なくとも変更させるものであり、
前記表示色変更手段は、前記視点に対する前記面データの角度に基づき、当該面データに適用する色情報を変更させるものであることを特徴とする特徴B1乃至B10のいずれか1に記載の遊技機。
Feature B11. The arrangement mode changing means changes at least the direction of the surface data,
The gaming machine according to any one of the features B1 to B10, wherein the display color changing means changes color information to be applied to the surface data based on an angle of the surface data with respect to the viewpoint. .

特徴B11によれば、面の向きに応じた色情報の設定を行うことが可能となり、多面画像の表示をリアルに行うことが可能となる。   According to the feature B11, it becomes possible to set color information in accordance with the orientation of the surface, and it becomes possible to realistically display a multi-sided image.

特徴B12.前記表示色変更手段は、
前記配置態様変更手段により変更された前記面データの向きに応じて、当該面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702〜ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記向きとは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B11に記載の遊技機。
Feature B12. The display color changing means is
A section specifying means (step S2702 in VDP 135 for specifying whether color information to be applied to the surface data is included in a predetermined classification according to the direction of the surface data changed by the layout mode changing device) A function of executing step S2705),
Color information selection for selecting color information to be applied to the surface data identified as being included in the predetermined segment by the segment identification means from among color information of a plurality of stages based on different types of parameters from the orientation Means (function of executing step S2706 and step S2707 in VDP 135),
The gaming machine according to feature B11, comprising:

特徴B12によれば、面の向きに応じて色情報を変化させながら、さらに面の向きとは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、多面画像の表示をリアルに行うことが可能となる。   According to the feature B12, while color information is changed according to the orientation of the surface, color information is determined based on a parameter different from the orientation of the surface, so that color information can be set complicatedly. This makes it possible to display multi-faced images realistically.

特徴B13.前記色情報選択手段は、前記区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記視点からの所定方向の距離に基づき、複数段階の色情報の中から選択するものであることを特徴とする特徴B12に記載の遊技機。   Feature B13. The color information selecting means is configured to apply color information to be applied to the surface data identified as being included in the predetermined category by the category specifying means, based on the distance in a predetermined direction from the viewpoint. The gaming machine according to feature B12, wherein the gaming machine is selected from among the above.

特徴B13によれば、面の向きだけでなく面の位置に応じて色情報が変化するため、多面画像の表示をリアルに行うことが可能となる。   According to the feature B13, the color information changes according to not only the orientation of the surface but also the position of the surface, so that it is possible to realistically display a multi-surface image.

上記特徴B群の発明は、以下の課題に対して効果的である。   The invention of the feature B group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, an object which is three-dimensional image data is set in the virtual three-dimensional space, and a texture which is two-dimensional image data such as characters and patterns is pasted to the object. Generated data is generated by projecting an object to which a texture is attached onto a plane from a desired viewpoint. Then, by outputting a signal to the display device based on the generated data, a stereoscopic image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。   Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity is extremely increased.

<特徴C群>
特徴C1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature C group>
Feature C1. Display means (symbol display device 31) having a display unit (display surface G);
When an image is displayed on the display unit using generation data (drawing data) generated by the data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152), and a predetermined update timing is reached. Display control means (display circuit 155 of VDP 135) for updating the contents of the image;
In the gaming machine provided with
The display mode of the image on the display unit includes a mode in which a plurality of individual images are displayed so as to be recognized by the player as being displayed in a positional relationship shifted in the depth direction of the display unit. ,
The data generation means is an individual image displayed so as to be recognized by the player as being present on the near side in the depth direction with respect to the predetermined reference position in the depth direction, and the far side in the depth direction The target individual image, which is at least one of the individual images displayed so as to be recognized by the player as being present in the image, is contoured in comparison with the image recognized by the player as being present at the reference position. A gaming machine characterized by further comprising blurring setting means (function to execute adjustment processing for focusing effect in VDP 135) to be displayed in a blurred state when lines become unclear.

特徴C1によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。   According to the feature C1, it is possible to perform display effect as if the reference position is in focus, and to perform display effect with a sense of depth.

特徴C2.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記生成データは、色情報が設定された単位データを多数有しており、
前記ぼかし設定手段は、
前記設定用記憶手段に設定された前記画像データに対応したデータであって前記各単位データを生じさせる各データのそれぞれについて前記奥行きパラメータを導出するパラメータ導出手段(VDP135におけるステップS3101〜ステップS3107を実行する機能)と、
前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していないデータに対してぼかし発生処理を実行することにより、当該データに対応した画像部分がぼかした状態で表示されるようにするぼかし実行手段(VDP135におけるステップS3110〜ステップS3115を実行する機能)と、
を備えていることを特徴とする特徴C1に記載の遊技機。
Feature C2. The data generation means generates the generated data based on setting image data, and further sets the image data in a state where a depth parameter corresponding to a display position in the depth direction is applied. On the basis of this, the display mode is such that the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction,
The generated data has many unit data in which color information is set,
The blur setting means is
Parameter deriving means for deriving the depth parameter for each of the data corresponding to the image data set in the setting storage means and causing the unit data (Performing steps S3101 to S3107 in VDP 135 Function),
By performing blurring generation processing on data in which the depth parameter does not correspond to the reference parameter, blurring execution is performed such that the image portion corresponding to the data is displayed in a blurred state A unit (function of executing steps S3110 to S3115 in the VDP 135);
The gaming machine according to feature C1, comprising:

特徴C2によれば、ぼかした状態とするための画像データを予め記憶させておく必要がないため、データ容量の削減を図りながら、ぼかした状態での表示を行うことが可能となる。また、各単位データを生じさせる各データのそれぞれについて奥行きパラメータが導出される構成であるため、ぼかした状態の表示を細かく制御することが可能となる。   According to the feature C2, since it is not necessary to store in advance the image data to be in the blurred state, it is possible to perform the display in the blurred state while reducing the data capacity. In addition, since the depth parameter is derived for each of the data giving rise to each unit data, it is possible to finely control the display in the blurred state.

特徴C3.前記表示手段における表示演出として、前記ぼかした状態での表示が複数の更新タイミングに亘って行われるぼかし表示演出が含まれており、
前記パラメータ導出手段は、前記奥行きパラメータの導出を、1回の前記ぼかし表示演出の一の更新タイミングと他の更新タイミングとのそれぞれにおいて行うものであることを特徴とする特徴C2に記載の遊技機。
Feature C3. The display effect in the display means includes a blur display effect in which the display in the blurred state is performed over a plurality of update timings,
The game machine according to the feature C2, wherein the parameter deriving means performs the derivation of the depth parameter at each of one update timing of the one blur display effect and another update timing. .

特徴C3によれば、表示演出の進行に応じて、ぼかした状態の表示を変化させることが可能となる。   According to the feature C3, it is possible to change the display of the blurred state according to the progress of the display effect.

特徴C4.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記パラメータ導出手段は、前記投影後の2次元情報のデータに含まれる各単位データのそれぞれについて前記奥行きパラメータを導出するものであり、
前記ぼかし実行手段は、前記投影後の2次元情報のデータに対して、前記奥行きパラメータを利用して前記ぼかし発生処理を実行するものであることを特徴とする特徴C2又はC3に記載の遊技機。
Feature C4. The data generation means arranges image data of an object which is three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP 135), and a viewpoint in the virtual three-dimensional space Viewpoint setting means (function to execute the process of step S1006 in VDP 135), and projecting image data of the object on a projection plane set based on the viewpoint, and two-dimensional information projected on the projection plane And setting means for drawing (function to execute the processing of steps S1010 to S1012 in the VDP 135) for generating generation data which is two-dimensional information based on the data of
The parameter deriving means derives the depth parameter for each unit data included in the data of the two-dimensional information after the projection;
The gaming machine according to the feature C 2 or C 3, wherein the blurring execution means executes the blurring generation processing on the data of the two-dimensional information after the projection using the depth parameter. .

特徴C4によれば、奥行きパラメータの導出やぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、これら処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。   According to the feature C4, the processing load is reduced because the depth parameter is derived and the blurring generation process is performed not on the data of the three-dimensional information but on the data of the two-dimensional information. However, it is possible to achieve the above-mentioned excellent effects.

特徴C5.前記ぼかし実行手段は、前記ぼかし発生処理として、前記投影後の2次元情報のデータに含まれる単位データの色情報をその周囲の単位データの色情報とブレンディングさせる処理(VDP135におけるステップS3206、ステップS3212及びステップS3217を実行する機能)を実行するものであることを特徴とする特徴C4に記載の遊技機。   Feature C5. The blur execution unit blends the color information of unit data included in the data of the two-dimensional information after the projection with the color information of unit data around it as the blur generation processing (steps S3206 and S3212 in VDP 135) And the function to execute step S3217), the gaming machine according to the feature C4.

特徴C5によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。この場合に、そのブレンディングさせる処理は、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、ぼかした状態の表示を好適に行うことが可能となる。   According to the feature C5, since the process of blending at the occurrence of blurring is executed, it is possible to perform the display of the blurred state according to the type of the image displayed at the time of the display effect in the blurred state. The display of the blurred state can be suitably performed. In this case, the process of blending is not performed on the data of three-dimensional information, but is performed on the data of two-dimensional information. Can be suitably performed.

特徴C6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記ぼかし設定手段は、前記投影後の2次元情報のデータに対してぼかし発生処理を実行することにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C5のいずれか1に記載の遊技機。
Feature C6. The data generation means arranges image data of an object which is three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP 135), and a viewpoint in the virtual three-dimensional space Viewpoint setting means (function to execute the process of step S1006 in VDP 135), and projecting image data of the object on a projection plane set based on the viewpoint, and two-dimensional information projected on the projection plane And setting means for drawing (function to execute the processing of steps S1010 to S1012 in the VDP 135) for generating generation data which is two-dimensional information based on the data of
The blurring setting means is characterized in that the object individual image is displayed in a blurred state by performing blurring generation processing on the data of the two-dimensional information after the projection. The gaming machine according to any one of features C1 to C5.

特徴C6によれば、ぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。   According to the feature C6, since the blurring generation processing is performed not on the data of the three-dimensional information but on the data of the two-dimensional information, the processing load is reduced while the above-described processing is performed. It is possible to achieve excellent effects.

特徴C7.前記ぼかし設定手段は、前記ぼかした状態での表示を行う場合、特別画像(教示用の個別画像CH15,CH16)については、前記基準位置に対して前記奥行き方向にずれた位置に存在していると遊技者に認識されるように表示されるとしても、前記ぼかした状態での表示対象から除外するものであることを特徴とする特徴C1乃至C6のいずれか1に記載の遊技機。   Feature C7. When the blur setting means performs display in the blurred state, the special image (individual images CH15 and CH16) exists at a position shifted in the depth direction with respect to the reference position. The gaming machine according to any one of the features C1 to C6, which is excluded from the display targets in the blurred state even if it is displayed so as to be recognized by the player.

特徴C7によれば、ぼかした状態での表示を行う場合、基準位置に対してずれた位置に存在しているように表示されている個別画像に対して一律にぼかした状態での表示を適用しようとすると、遊技者に認識させるべき情報を認識させづらくしてしまう可能性が生じる。これに対して、特別画像については、基準位置に存在しているように表示されているか否かに関係なく、ぼかした状態での表示対象から除外する構成としたことにより、上記のような不都合の発生を抑制しながら、ぼかした状態での表示を実現することが可能となる。   According to the feature C7, when performing display in a blurred state, display in a uniformly blurred state is applied to the individual image displayed as being present at a position shifted from the reference position If it tries, the possibility of making it hard to recognize the information which should be made to be recognized to a player arises. On the other hand, with regard to the special image, regardless of whether or not the special image is displayed as being present at the reference position, the above-described inconvenience is caused by the configuration in which the special image is excluded from the display target in the blurred state. It is possible to realize display in a blurred state while suppressing the occurrence of

なお、前記特別画像には、遊技者に遊技状況を教示するために用いられる教示用画像が含まれる。   The special image includes a teaching image used to teach the player the game situation.

特徴C8.前記特別画像は、前記基準位置に対して前記奥行き方向の手前側に存在していると遊技者に認識されるように表示される画像であることを特徴とする特徴C7に記載の遊技機。   Feature C8. The gaming machine according to Feature C7, wherein the special image is an image displayed so as to be recognized by the player as being present on the near side in the depth direction with respect to the reference position.

特徴C8によれば、特別画像がぼかした状態の表示対象から除外される構成において、それが意図的に除外されていると遊技者に認識させ易くなる。よって、ぼかした状態の表示演出に違和感を与えることなく、特別画像をぼかした状態の表示対象から除外することが可能となる。   According to the feature C8, in the configuration in which the special image is excluded from the display target in the blurred state, it is easy for the player to recognize that the special image is intentionally excluded. Therefore, the special image can be excluded from the display objects in the blurred state without giving a sense of discomfort to the display effect in the blurred state.

特徴C9.遊技者による操作を受け付ける操作受付手段(演出用操作装置48)を備え、
前記ぼかし設定手段は、前記操作受付手段に対する遊技者の操作に基づき、前記基準位置を変更させるものであることを特徴とする特徴C1乃至C8のいずれか1に記載の遊技機。
Feature C9. It has operation accepting means (operation device for effect 48) for accepting an operation by a player,
The gaming machine according to any one of the features C1 to C8, wherein the blurring setting means changes the reference position based on an operation of the player on the operation receiving means.

特徴C9によれば、ぼかした状態の表示演出の画一化が抑えられ、当該表示演出への注目度を高めることが可能となる。   According to the feature C9, the unification of the display effect in the blurred state is suppressed, and it is possible to increase the degree of attention to the display effect.

特徴C10.前記ぼかし設定手段は、予め定められた第1表示期間(遊技回)では前記ぼかした状態の表示を行わず、前記ぼかした状態の表示に要する処理を除いた処理の処理負荷が前記第1表示期間よりも低い第2表示期間(ラウンド遊技)にて前記ぼかした状態の表示を行うものであることを特徴とする特徴C1乃至C9のいずれか1に記載の遊技機。   Feature C10. The blur setting means does not display the blurred state in a predetermined first display period (game time), and the processing load of processing excluding the process required for the blurred state display is the first display The gaming machine according to any one of the features C1 to C9, wherein the blurred state is displayed in a second display period (round game) lower than the period.

特徴C10によれば、ぼかした状態の表示を行う場合における更新タイミングの処理負荷が極端に増加してしまうことが抑制される。   According to the feature C10, it is possible to suppress an increase in processing load on update timing when displaying a blurred state.

特徴C11.前記データ生成手段は、画像データを設定することに基づき前記生成データを生成するものであり、
前記ぼかし設定手段は、前記画像データによって決定付けられる少なくとも一部の色情報をその周囲の色情報とブレンディングさせることにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C10のいずれか1に記載の遊技機。
Feature C11. The data generation means generates the generated data based on setting of image data.
The blur setting means is configured to display the target individual image in a blurred state by blending at least a part of color information determined by the image data with color information of the periphery thereof. A game machine according to any one of features C1 to C10, characterized in that

特徴C11によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。   According to the feature C11, since the process of blending at the occurrence of blurring is executed, it is possible to display the blurred state according to the type of the image displayed at the time of the display effect in the blurred state. The display of the blurred state can be suitably performed.

特徴C12.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記ぼかし設定手段は、前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していない画像データに対してぼかし発生処理を実行することにより、当該画像データに対応した前記対象個別画像がぼかした状態で表示されるようにするものであり、
前記基準パラメータは、前記基準位置が前記奥行き方向の所定範囲に対応するように所定のパラメータ範囲を有していることを特徴とする特徴C1乃至C11のいずれか1に記載の遊技機。
Feature C12. The data generation means generates the generated data based on setting image data, and further sets the image data in a state where a depth parameter corresponding to a display position in the depth direction is applied. On the basis of this, the display mode is such that the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction,
The blurring setting unit blurs the target individual image corresponding to the image data by performing blurring generation processing on the image data in which the depth parameter does not correspond to the reference parameter. To be displayed in the state,
The gaming machine according to any one of the features C1 to C11, wherein the reference parameter has a predetermined parameter range such that the reference position corresponds to a predetermined range in the depth direction.

特徴C12によれば、被写界深度をある程度広げた状態で、ぼかした状態の表示を行うことが可能となる。よって、ぼかした状態の表示を好適に行うことが可能となる。   According to the feature C12, it is possible to display a blurred state in a state where the depth of field is expanded to some extent. Therefore, it is possible to preferably perform display in a blurred state.

特徴C13.前記ぼかし設定手段は、前記基準位置から前記奥行き方向に所定距離だけ離れた位置に存在していると遊技者に認識される画像よりも、当該所定距離よりも前記奥行き方向に遠い位置に存在していると遊技者に認識される画像の方が前記ぼかした状態で表示される度合いが大きくなるようにするものであることを特徴とする特徴C1乃至C12のいずれか1に記載の遊技機。   Feature C13. The blur setting means is at a position farther in the depth direction than the predetermined distance than an image recognized by the player as being present at a position separated by a predetermined distance in the depth direction from the reference position. The game machine according to any one of the features C1 to C12, wherein the degree of the image recognized by the player to be displayed in the blurred state is increased when the image is recognized.

特徴C13によれば、ぼかした状態の表示をよりリアルに行うことが可能となる。   According to the feature C13, it is possible to more realistically display the blurred state.

特徴C14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
Feature C14. Arrangement means for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (The function to execute the processing of step S1006 in VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (rendering data (rendering data) based on the data projected on the projection plane And generation setting means (a function for executing the processing of steps S1010 to S1012 in VDP 135) for generating the generated data generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) Memory means to store And Mubaffa 142),
Display control means (display circuit 155 of VDP 135) for outputting and displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31);
In the gaming machine provided with
The display mode of the image on the display unit includes a mode in which a plurality of individual images are displayed so as to be recognized by the player as being displayed in a positional relationship shifted in the depth direction of the display unit. ,
The data generation means is an individual image displayed so as to be recognized by the player as being present on the near side in the depth direction with respect to the predetermined reference position in the depth direction, and the far side in the depth direction The target individual image, which is at least one of the individual images displayed so as to be recognized by the player as being present in the image, is contoured in comparison with the image recognized by the player as being present at the reference position. A gaming machine characterized by further comprising blurring setting means (function to execute adjustment processing for focusing effect in VDP 135) to be displayed in a blurred state when lines become unclear.

特徴C14によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。   According to the feature C14, it is possible to perform display effect as if the reference position is in focus, and it is possible to perform display effect with a sense of depth.

上記特徴C群の発明は、以下の課題に対して効果的である。   The invention of the feature C group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。   To explain in more detail the case of displaying an image using two-dimensional image data, the memory for image data stores image data for displaying a background and image data for displaying a character or the like. It is done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated with respect to a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, the display unit displays an image in which a character or the like is arranged in front of the background.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, an object which is three-dimensional image data is set in the virtual three-dimensional space, and a texture which is two-dimensional image data such as characters and patterns is pasted to the object. Drawing data is created by projecting an object to which a texture is pasted onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the drawing data, whereby a stereoscopic image is displayed.

ここで、表示演出への遊技者の注目度を高めるためには、よりリアルな画像表示を行うことが好ましく、この点について未だ改良の余地がある。   Here, in order to increase the player's attention to the display effect, it is preferable to perform more realistic image display, and there is still room for improvement in this regard.

<特徴D群>
特徴D1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101〜ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
<Feature D group>
Feature D1. Display means (symbol display device 31) having a display unit (display surface G);
When an image is displayed on the display unit using generation data (drawing data) generated by the data generation unit (display CPU 131, geometry calculation unit 151, and rendering unit 152), and a predetermined update timing is reached. Display control means (display circuit 155 of VDP 135) for updating the contents of the image;
Equipped with
In the gaming machine, the data generation means generates the generation data based on applying image data and applying parameter data for determining a display mode of the image by the image data.
The generated data has many unit data in which color information is set,
The data generation means is a set data derivation means (steps in VDP 135) for deriving set data (normal map data ND1, ND2, blurring map data) to be used for each generation unit data for generating the respective unit data The function of executing S2503 and the function of executing steps S3101 to S3107 in the VDP 135 is applied, and each unit parameter data included in the set data derived by the set data deriving means is applied to each of the generation unit data Generates the generated data, and generates the generated data in which individual images of the same type are displayed in different manners by changing at least one of the application method of the aggregate data and the content of the aggregate data to be applied A gaming machine characterized by being

特徴D1によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。   According to the feature D1, since each unit parameter data group is treated as aggregate data, the process can be simplified regarding data handling. In addition, by changing at least one of the method of applying the group data and the contents of the group data to be applied, generated data is generated that will cause the individual images of the same type to be displayed in different modes. It is possible to achieve diversification of display effects while suppressing the data amount of image data to be stored in advance.

特徴D2.前記集合データ導出手段は、記憶手段(メモリモジュール133)から前記集合データ(第1法線マップデータND1、第2法線マップデータND2)を読み出すことで当該集合データを導出するものであることを特徴とする特徴D1に記載の遊技機。   Feature D2. The aggregate data deriving means derives the aggregate data by reading out the aggregate data (first normal map data ND1, second normal map data ND2) from the storage means (memory module 133). The gaming machine according to feature D1, which is characterized by the feature.

特徴D2によれば、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。   According to the feature D2, it is possible to achieve the above-described excellent effects while reducing the processing load.

特徴D3.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出される前記集合データ(第1法線マップデータND1、第2法線マップデータND2)は、前記仮想3次元空間に配置されている前記オブジェクトの画像データに対して適用されることを特徴とする特徴D1又はD2に記載の遊技機。
Feature D3. The data generation means arranges image data of an object which is three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP 135), and a viewpoint in the virtual three-dimensional space Viewpoint setting means (function to execute the process of step S1006 in VDP 135), and projecting image data of the object on a projection plane set based on the viewpoint, and two-dimensional information projected on the projection plane And setting means for drawing (function to execute the processing of steps S1010 to S1012 in the VDP 135) for generating generation data which is two-dimensional information based on the data of
The set data (first normal map data ND1, second normal map data ND2) derived by the set data deriving means is applied to image data of the object arranged in the virtual three-dimensional space The gaming machine according to feature D1 or D2, characterized in that

特徴D3によれば、集合データを利用して3次元情報の画像データの配置態様を変更することが可能となるため、リアルな画像表示を実現しながら、さらに複雑な画像表示を行うことが可能となる。この場合に、その複雑な画像表示を行う場合において、上記のとおり集合データを利用する構成であるため、データ容量及び処理負荷の両方のバランスを図ることが可能となる。   According to the feature D3, the arrangement mode of the image data of the three-dimensional information can be changed by using the collective data, so that it is possible to perform more complicated image display while realizing realistic image display. It becomes. In this case, when the complex image display is performed, since the set data is used as described above, it is possible to balance both the data capacity and the processing load.

特徴D4.前記集合データ導出手段は、前記画像データが設定された状態において、当該設定された状態に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであり、
前記データ生成手段は、その導出された前記集合データを、前記画像データから作成されたデータに対して適用することに基づき、前記生成データを生成するものであることを特徴とする特徴D1乃至D3のいずれか1に記載の遊技機。
Feature D4. The set data deriving means derives the set data (the blurring map data) by specifying each of the unit parameter data (Z value) according to the set state in a state in which the image data is set. And
The data generation means generates the generated data based on applying the derived set data to data generated from the image data. Features D1 to D3 The gaming machine according to any one of the above.

特徴D4によれば、集合データを予め記憶させておく必要がないため、データ容量の削減を図りながら、上記のような優れた効果を奏することが可能となる。   According to the feature D4, since it is not necessary to store aggregate data in advance, it is possible to achieve the above-described excellent effects while reducing the data capacity.

特徴D5.前記集合データ導出手段は、前記集合データを用いて前記生成データが生成される状況において、各生成データのそれぞれに対応した前記集合データを導出するものであることを特徴とする特徴D4に記載の遊技機。   Feature D5. The set data deriving means is configured to derive the set data corresponding to each of the generated data in a situation where the generated data is generated using the set data. Gaming machine.

特徴D5によれば、各更新タイミングにおいて異なる集合データを用いることが可能となり、表示演出の多様化を図ることが可能となる。また、この場合であっても、集合データは予め記憶されているのではなく、その都度作成されるため、データ容量の削減を図りながら、表示演出の多様化を図ることが可能となる。   According to the feature D5, different set data can be used at each update timing, and diversification of display effects can be achieved. Even in this case, the collective data is not stored in advance, but is created each time, so it is possible to diversify the display effects while reducing the data capacity.

特徴D6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段は、前記配置手段による前記オブジェクトの画像データの配置態様に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであることを特徴とする特徴D4又はD5に記載の遊技機。
Feature D6. The data generation means arranges image data of an object which is three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP 135), and a viewpoint in the virtual three-dimensional space Viewpoint setting means (function to execute the process of step S1006 in VDP 135), and projecting image data of the object on a projection plane set based on the viewpoint, and two-dimensional information projected on the projection plane And setting means for drawing (function to execute the processing of steps S1010 to S1012 in the VDP 135) for generating generation data which is two-dimensional information based on the data of
The aggregate data deriving means derives the aggregate data (the blurring map data) by specifying the unit parameter data (Z value) according to the arrangement mode of the image data of the object by the arranging means. The gaming machine according to feature D4 or D5, characterized in that

特徴D6によれば、3次元情報の画像データを利用することでリアルな画像表示を実現した構成において、そのリアルな画像表示を可能とするデータ設定態様に則して集合データが作成されるため、集合データの利用がリアルな画像表示に悪影響を及してしまわないようにすることが可能となる。   According to the feature D6, in a configuration that realizes realistic image display by using image data of three-dimensional information, collective data is created according to a data setting mode that enables the realistic image display. It is possible to prevent the use of aggregate data from adversely affecting realistic image display.

特徴D7.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出された前記集合データ(ぼかしマップデータ)は、前記投影後の2次元情報のデータに対して適用されることを特徴とする特徴D1乃至D6のいずれか1に記載の遊技機。
Feature D7. The data generation means arranges image data of an object which is three-dimensional information in a virtual three-dimensional space (a function for executing the processing of steps S1002 to S1004 in VDP 135), and a viewpoint in the virtual three-dimensional space Viewpoint setting means (function to execute the process of step S1006 in VDP 135), and projecting image data of the object on a projection plane set based on the viewpoint, and two-dimensional information projected on the projection plane And setting means for drawing (function to execute the processing of steps S1010 to S1012 in the VDP 135) for generating generation data which is two-dimensional information based on the data of
The set data (blur map data) derived by the set data deriving unit is applied to data of two-dimensional information after the projection described in any one of the features D1 to D6. Gaming machine.

特徴D7によれば、集合データは、3次元情報のデータに対して適用されるのではなく、2次元情報のデータに対して適用される構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。   According to the feature D7, the set data is not applied to the data of the three-dimensional information, but is applied to the data of the two-dimensional information, so that the processing load is reduced. It is possible to achieve such excellent effects as

特徴D8.前記データ生成手段は、前記集合データの前記各単位パラメータデータを前記各生成用単位データに適用する場合の態様を複数の更新タイミング間において異ならせることに基づき、同一種類の個別画像の表示態様が変化していくことに対応した前記生成データを生成する生成実行手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能、ステップS1010〜ステップS1012を実行する機能)を備えていることを特徴とする特徴D1乃至D7のいずれか1に記載の遊技機。   Feature D8. The display mode of the individual image of the same type is based on the data generation means making the mode in the case of applying the unit parameter data of the aggregate data to the unit data for generation different among a plurality of update timings. It is equipped with generation execution means (the function to execute the processing of step S2506, step S2507, step S2511 and step S2512 in VDP 135, function to execute step S1010 to step S1012) corresponding to changing. A game machine according to any one of features D1 to D7 characterized in that:

特徴D8によれば、単一の集合データを利用しながら、複数の更新タイミング間において同一種類の個別画像の表示態様を変化させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。   According to the feature D8, it is possible to change the display mode of individual images of the same type between a plurality of update timings while using single collective data. Therefore, it is possible to achieve the excellent effects as described above while balancing the data capacity and the processing load.

特徴D9.前記生成実行手段は、前記各単位パラメータデータと前記各生成用単位データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8に記載の遊技機。   Feature D9. Correspondence change means (step S2506, step S2507, step S2511 and step S25 in VDP 135) for changing the correspondence between the unit parameter data and the unit data for generation according to the switching of the update timing. The gaming machine according to the feature D8, comprising a function of executing the process of S2512).

特徴D9によれば、単位パラメータデータと生成用単位データとの対応関係を切り換えることで、複数の更新タイミング間において画像の表示態様を変更させる構成であるため、集合データを利用しながら画像の表示態様を変更させる構成において、処理負荷を軽減することが可能となる。   According to the feature D9, since the display mode of the image is changed between the plurality of update timings by switching the correspondence between the unit parameter data and the generation unit data, the display of the image is performed while using the collective data. In the configuration in which the aspect is changed, it is possible to reduce the processing load.

特徴D10.前記生成実行手段は、前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、複数の単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8又はD9に記載の遊技機。   Feature D10. A plurality of application means for causing the contents of a plurality of unit parameter data to be reflected on one data to which the unit parameter data is applied in each of the generation unit data (steps S2506 and S2507 in VDP 135) , A function to execute the processing of step S2511 and step S2512), The gaming machine according to the feature D8 or D9.

特徴D10によれば、単位パラメータデータを参照しながら表示態様を変更させる構成において、その変更させる表示態様の多様化が図られる。   According to the feature D10, in the configuration in which the display mode is changed while referring to the unit parameter data, diversification of the display mode to be changed is achieved.

特徴D11.前記集合データ導出手段は、前記集合データを複数導出するものであり、
前記生成実行手段は、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、前記複数の集合データのそれぞれの単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象のデータと当該単位パラメータデータとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の集合データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴D8に記載の遊技機。
Feature D11. The aggregate data deriving means is for deriving a plurality of aggregate data,
The generation execution means is
A plurality of application means for reflecting the contents of each unit parameter data of the plurality of aggregate data with respect to one data to which the unit parameter data is applied in each of the generation unit data (steps S2507 and S2512 in VDP 135 Function to execute the processing of
In each of the generation unit data, the correspondence between the data to which the unit parameter data is applied and the unit parameter data is changed along with the switching of the update timing, and the change of the correspondence is made of the plurality of aggregate data. Correspondence relationship changing means (functions of executing the processing of step S2506 and step S2511 in the VDP 135) to be performed for each;
The gaming machine according to feature D8, comprising:

特徴D11によれば、遊技機設計段階における集合データの設計の容易化を図りながら、表示態様を複雑に変化させることが可能となる。   According to the feature D11, it is possible to change the display mode in a complicated manner while facilitating the design of the collective data in the gaming machine design stage.

特徴D12.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101〜ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
Feature D12. Arrangement means for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (The function to execute the processing of step S1006 in VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (rendering data (rendering data) based on the data projected on the projection plane And generation setting means (a function for executing the processing of steps S1010 to S1012 in VDP 135) for generating the generated data generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) Memory means to store And Mubaffa 142),
Display control means (display circuit 155 of VDP 135) for outputting and displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31);
In the gaming machine provided with
The generated data has many unit data in which color information is set,
The data generation means is a set data derivation means (steps in VDP 135) for deriving set data (normal map data ND1, ND2, blurring map data) to be used for each generation unit data for generating the respective unit data The function of executing S2503 and the function of executing steps S3101 to S3107 in the VDP 135 is applied, and each unit parameter data included in the set data derived by the set data deriving means is applied to each of the generation unit data Generates the generated data, and generates the generated data in which individual images of the same type are displayed in different manners by changing at least one of the application method of the aggregate data and the content of the aggregate data to be applied A gaming machine characterized by being

特徴D12によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。   According to the feature D12, since each unit parameter data group is treated as aggregate data, the process can be simplified regarding data handling. In addition, by changing at least one of the method of applying the group data and the contents of the group data to be applied, generated data is generated that will cause the individual images of the same type to be displayed in different modes. It is possible to achieve diversification of display effects while suppressing the data amount of image data to be stored in advance.

上記特徴D群の発明は、以下の課題に対して効果的である。   The invention of the feature D group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。   To explain in more detail the case of displaying an image using two-dimensional image data, the memory for image data stores image data for displaying a background and image data for displaying a character or the like. It is done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated with respect to a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, the display unit displays an image in which a character or the like is arranged in front of the background.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, an object which is three-dimensional image data is set in the virtual three-dimensional space, and a texture which is two-dimensional image data such as characters and patterns is pasted to the object. Drawing data is created by projecting an object to which a texture is pasted onto a plane from a desired viewpoint. Then, a signal is output to the display device based on the drawing data, whereby a stereoscopic image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。   Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity is extremely increased.

<特徴E群>
特徴E1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、前記オブジェクトの画像データに対してテクスチャの画像データを設定するテクスチャ設定手段(VDPにおける特別キャラクタ用のテクスチャマッピング処理を実行する機能)を備え、
前記オブジェクトの画像データとして所定個別画像(特別キャラクタ)を表示させる場合に用いられる所定オブジェクトデータ(特別オブジェクトPC20)が含まれており、さらに前記テクスチャの画像データとして前記所定オブジェクトデータに対して設定される所定テクスチャデータ(第1部分テクスチャPC21〜PC23、第2部分テクスチャPC24〜PC27)が含まれており、
前記所定テクスチャデータは、
前記所定オブジェクトデータの第1パーツデータ(本体パーツ部BP)に対して設定される第1テクスチャデータ(第1部分テクスチャPC21〜PC23)と、
前記所定オブジェクトデータの第2パーツデータ(付属パーツ部AP1〜AP4)に対して設定される第2テクスチャデータ(第2部分テクスチャPC24〜PC27)と、
が含まれており、
前記テクスチャ設定手段は、
前記第1パーツデータに対して設定する前記第1テクスチャデータの種類を変更する第1設定手段(VDP135におけるステップS3401〜ステップS3403を実行する機能)と、
前記第2パーツデータに対して前記第2テクスチャデータを設定する場合において、当該第2パーツデータに対する当該第2テクスチャデータの設定位置関係を変更する第2設定手段(VDP135におけるステップS3405〜ステップS3409を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature E group>
Feature E1. Arrangement means for arranging image data of an object which is three-dimensional information in a virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (The function to execute the processing of step S1006 in VDP 135) and the image data of the object are projected on the projection plane set based on the viewpoint, and the generated data (rendering data (rendering data) based on the data projected on the projection plane And generation setting means (a function for executing the processing of steps S1010 to S1012 in VDP 135) for generating the generated data generated by the data generation means (display CPU 131, geometry calculation unit 151, and rendering unit 152) Memory means to store And Mubaffa 142),
Display control means (VDP 135) for displaying an image corresponding to the generated data stored in the storage means on the display means (symbol display device 31) and updating the contents of the image when a predetermined update timing is reached. Display circuit 155),
In the gaming machine provided with
The data generation means includes texture setting means (a function for executing texture mapping processing for a special character in VDP) for setting image data of texture to image data of the object.
The predetermined object data (special object PC 20) used when displaying a predetermined individual image (special character) as the image data of the object is included, and is further set to the predetermined object data as the image data of the texture Include predetermined texture data (first partial textures PC21 to PC23, second partial textures PC24 to PC27),
The predetermined texture data is
First texture data (first partial textures PC21 to PC23) set for first part data (main body part unit BP) of the predetermined object data;
Second texture data (second partial textures PC24 to PC27) set for the second part data (attached part parts AP1 to AP4) of the predetermined object data;
Is included,
The texture setting unit
First setting means (function of executing steps S3401 to S3403 in the VDP 135) for changing the type of the first texture data to be set for the first part data;
When setting the second texture data with respect to the second part data, the second setting unit changes the setting positional relationship of the second texture data with respect to the second part data (step S3405 to step S3409 in the VDP 135). Function to execute)
A game machine characterized by comprising:

特徴E1によれば、所定個別画像の外観を変化させる場合において、設定するテクスチャデータの種類をまとめて変更するのではなく、テクスチャデータの一部である第1テクスチャデータについては種類を変更する一方、テクスチャデータの他の一部である第2テクスチャデータについては第2パーツデータに対する設定位置関係を変更させる構成である。これにより、所定個別画像の一部については外観を複雑に変化させるようにしながら、他の一部については外観の変化の複雑さを低減する代わりにデータ容量の削減が図られる。よって、データ容量と処理負荷とのバランスを図りながら、上記のように所定個別画像の外観を変化させることが可能となる。   According to the feature E1, when changing the appearance of the predetermined individual image, the type of texture data to be set is not changed collectively, but the type is changed for the first texture data which is a part of the texture data For the second texture data that is another part of the texture data, the setting positional relationship with respect to the second part data is changed. As a result, while the appearance of the predetermined individual image is changed in a complicated manner, the data capacity of the other part is reduced instead of reducing the complexity of the change of the appearance. Therefore, it is possible to change the appearance of the predetermined individual image as described above while balancing the data capacity and the processing load.

特徴E2.前記所定個別画像において前記第2パーツデータが占める割合は、前記第1パーツデータが占める割合よりも小さいことを特徴とする特徴E1に記載の遊技機。   Feature E2. The gaming machine according to Feature E1, wherein a proportion of the second part data in the predetermined individual image is smaller than a proportion of the first part data.

特徴E2によれば、テクスチャデータの種類ではなく設定位置関係が変更される領域は、テクスチャデータの設定位置関係ではなく種類が変更される領域に比べて、外観を変化させる場合においてその変化が乏しいものとなるが、前者の領域の方が小さいため、所定個別画像全体としては外観が大きく変化していると遊技者に認識させることが可能となる。   According to the feature E2, the area in which the setting positional relationship is changed instead of the type of texture data is scarcely changed in the case where the appearance is changed as compared with the area in which the type is not changing Although the former area is smaller, it is possible for the player to recognize that the appearance of the predetermined individual image as a whole is largely changed.

特徴E3.前記所定オブジェクトデータに対応した所定個別画像において前記第1パーツデータが占める領域には、当該所定個別画像において特定の外縁部分に対する相対位置が変化しない画像部分(目や口の模様部分)が存在していることを特徴とする特徴E1又はE2に記載の遊技機。   Feature E3. In the area occupied by the first part data in the predetermined individual image corresponding to the predetermined object data, there is an image portion (pattern portion of eyes or mouth) whose relative position with respect to a specific outer edge portion does not change in the predetermined individual image A game machine according to feature E1 or E2, characterized in that

特徴E3によれば、相対位置が変化すると好ましくない画像部分については、第1テクスチャデータとして設定されているため、当該画像部分を含めた領域の外観の変化を好適に行うことが可能となる。   According to the feature E3, since the image portion which is not preferable when the relative position changes is set as the first texture data, it is possible to preferably change the appearance of the region including the image portion.

特徴E4.前記第2テクスチャデータは、一方の境界部分に設定されている色情報がその逆側の境界部分に設定されている色情報に対して連続性を有していることを特徴とする特徴E1乃至E3のいずれか1に記載の遊技機。   Feature E4. The second texture data is characterized in that the color information set in one boundary portion has continuity with the color information set in the opposite boundary portion. The gaming machine according to any one of E3.

特徴E4によれば、第2テクスチャデータの設定位置関係を変化していった場合において、所定個別画像に模様の境界が生じてしまうことが抑制される。   According to the feature E4, in the case where the setting positional relationship of the second texture data is changed, the occurrence of the boundary of the pattern in the predetermined individual image is suppressed.

特徴E5.前記第2パーツデータ及び前記第2テクスチャデータの組合せは、複数存在しており、
前記第2設定手段は、一の前記第2テクスチャデータの設定位置関係を変更する場合には他の前記第2テクスチャデータの設定位置関係を変更するものであることを特徴とする特徴E1乃至E4のいずれか1に記載の遊技機。
Feature E5. There are a plurality of combinations of the second part data and the second texture data,
The features E1 to E4 are characterized in that the second setting means changes the setting positional relationship of the other second texture data when changing the setting positional relationship of one of the second texture data. The gaming machine according to any one of the above.

特徴E5によれば、第2テクスチャデータが複数存在している構成において、それら第2テクスチャデータの設定に要する処理負荷の軽減が図られる。   According to the feature E5, in a configuration in which a plurality of second texture data exist, the processing load required for setting the second texture data can be reduced.

上記特徴E群の発明は、以下の課題に対して効果的である。   The invention of the feature E group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, an object which is three-dimensional image data is set in the virtual three-dimensional space, and a texture which is two-dimensional image data such as characters and patterns is pasted to the object. Generated data is generated by projecting an object to which a texture is attached onto a plane from a desired viewpoint. Then, by outputting a signal to the display device based on the generated data, a stereoscopic image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。   Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, in order to further improve the display effect, it is not preferable that the data capacity is extremely increased.

<特徴F群>
特徴F1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した1の動画を前記複数の更新タイミング分の期間に亘って表示させる表示演出を実行する表示演出実行手段(表示CPU131においてラウンド演出用の演算処理を実行する機能、VDP135におけるラウンド演出用の設定処理及びラウンド演出用マッピング処理を実行する機能)と、
を備え、
前記表示演出実行手段は、前記表示演出の演出期間のうち一部の特定期間において所定の画像を挿入することにより、前記1の動画を用いて複数種類の表示パターンの表示演出を実行可能に構成されていることを特徴とする遊技機。
<Feature F group>
Feature F1. Display means (symbol display device 31) having a display unit (display surface G);
Display storage means (memory module 133) storing image data in advance;
Display control means (display CPU 131, VDP 135) for displaying an image on the display unit using the image data stored in the display storage means;
In the gaming machine provided with
The display storage means stores compressed moving image data used to reproduce a moving image,
The display control means
Development means (moving picture decoder) for expanding any moving picture data into a development area and creating still picture data for a plurality of update timings for an image corresponding to the moving picture data;
By using still image data for a plurality of update timings expanded by the expansion means in the order defined in the moving image data, one moving image corresponding to the moving image data for the plurality of update timings Display effect execution means for executing display effects to be displayed over the period (function to execute calculation processing for round effects in display CPU 131, function to execute setting processing for round effects and mapping processing for round effects in VDP 135) When,
Equipped with
The display effect execution means is configured to be able to execute display effects of a plurality of types of display patterns using the one moving image by inserting a predetermined image in a part of specific period in the effect period of the display effect. A game machine characterized by having been.

特徴F1によれば、1の動画を用いて複数種類の表示パターンの表示演出を実行することにより、表示演出毎に動画像データを用意する構成と比較して、表示演出に要するデータ量の削減を図ることができる。よって、表示演出の多様化を図りつつ、データ量の増大化を抑制することができる。   According to the feature F1, by performing display effect of a plurality of display patterns using one moving image, the amount of data required for the display effect can be reduced compared to a configuration in which moving image data is prepared for each display effect Can be Therefore, it is possible to suppress an increase in the amount of data while diversifying display effects.

特徴F2.前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記表示演出実行手段は、前記特定期間において前記所定画像データを用いて前記所定の画像を表示させ得るものであることを特徴とする特徴F1に記載の遊技機。
Feature F2. The display storage means stores predetermined image data (inserted image data IPD0) which is image data used to display the predetermined image and has a smaller data amount than the moving image data.
The gaming machine according to the feature F1, wherein the display effect execution unit can display the predetermined image using the predetermined image data in the specific period.

特徴F2によれば、所定画像データを用いて所定の画像が表示される。当該所定画像データは動画像データよりも少ないデータ量に設定されている。これにより、表示演出毎に動画像データを用意する構成と比較して、少ないデータ量で表示演出の多様化を図ることができる。   According to the feature F2, a predetermined image is displayed using the predetermined image data. The predetermined image data is set to a smaller amount of data than moving image data. Thereby, as compared with the configuration in which moving image data is prepared for each display effect, diversification of display effects can be achieved with a smaller amount of data.

また、所定画像データを用いて所定の画像を表示させる構成の方が、所定の画像を作成して表示させる構成と比較して、所定の画像の作成に係る処理を実行する必要がない分だけ所定の画像の表示に係る処理負荷が軽くなり易い。これにより、表示演出に係るデータ量の削減を図りつつ、所定の画像を表示させるのに要する処理負荷を軽減させることができ、データ量の削減と処理負荷とのバランスを図ることができる。   Further, as compared with a configuration in which a predetermined image is displayed using predetermined image data, as compared with a configuration in which a predetermined image is generated and displayed, it is not necessary to execute the process relating to the generation of the predetermined image. The processing load relating to the display of a predetermined image tends to be light. As a result, the processing load required to display a predetermined image can be reduced while reducing the amount of data relating to display effects, and the balance between the reduction of data amount and the processing load can be achieved.

特徴F3.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に代えて前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。   Feature F3. The gaming machine according to the feature F1 or the feature F2, wherein the display effect execution unit is configured to display the predetermined image instead of the image relating to the moving image in the specific period.

特徴F3によれば、特定期間において動画に係る画像が表示される場合と所定の画像が表示される場合とがある。これにより、表示演出の表示パターンの1つとして1の動画に係る画像の表示を用いることができる。よって、少ないデータ量で表示演出の多様化を図ることができる。   According to the feature F3, there are a case where an image relating to a moving image is displayed in a specific period and a case where a predetermined image is displayed. Thereby, display of an image concerning one moving image can be used as one of display patterns of display effects. Therefore, diversification of display effects can be achieved with a small amount of data.

なお、本特徴の具体的な構成としては、「前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に対して前記所定の画像を上書きするものである」ことが考えられる。かかる構成によれば、動画表示に係る処理にて特別な処理を行うことなく、1の動画に係る画像に代えて所定の画像を表示させることができる。   Note that, as a specific configuration of the present feature, it can be considered that "the display effect execution means overwrites the predetermined image on the image according to the moving image 1 in the specific period". According to this configuration, it is possible to display a predetermined image instead of the image relating to one moving image without performing special processing in the processing relating to moving image display.

特徴F4.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像と、前記所定の画像とを重ね合わせることで合成画像を作成し、当該合成画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。   Feature F4. The display effect execution unit is characterized in that a composite image is created by superimposing the image relating to the moving image 1 and the predetermined image in the specific period, and the composite image is displayed. The gaming machine according to feature F1 or feature F2.

特徴F4によれば、1の動画に係る画像と所定の画像との合成画像が表示されるため、1の動画に係る画像を用いて、当該1の動画に係る画像とは異なる画像を表示させることができる。   According to the feature F4, a composite image of an image of one moving image and a predetermined image is displayed. Therefore, using an image of one moving image, an image different from the image of the one moving image is displayed. be able to.

特に、動画像データの特性上、当該動画像データは、更新タイミング毎の連続するデータを保持する必要がある。この点、本特徴によれば、当該連続するデータを用いて合成画像を作成する構成としたことにより、当該連続するデータを好適に利用することができ、表示演出全体に係るデータ量の削減を好適に行うことができる。   In particular, due to the characteristics of moving image data, the moving image data needs to hold continuous data for each update timing. In this respect, according to the present feature, by forming the composite image using the continuous data, the continuous data can be suitably used, and the reduction of the data amount related to the entire display effect can be achieved. It can be suitably performed.

また、特徴F2との関係によれば、所定の画像のみで画像表示を行う構成と比較して、所定の画像の表示領域を小さくすることができるため、所定画像データのデータ量の削減を図ることができる。これにより、所定の画像を表示するのに要するデータ量を少なくすることができる。   Further, according to the relationship with the feature F2, the display area of the predetermined image can be made smaller as compared with the configuration in which the image display is performed only with the predetermined image, so the data amount of the predetermined image data is reduced. be able to. Thereby, the amount of data required to display a predetermined image can be reduced.

特徴F5.仮想3次元空間内にオブジェクトの画像データを配置する配置手段(VDP135におけるラウンド演出用の設定処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記画像データを投影させることで作成された投影データを用いて生成データを生成するとともに、前記視点が向く方向に複数の前記画像データが並んでいる場合、その並んでいる各部分において前記視点が向く方向における当該視点からの距離が小さい側の部分を優先して前記生成データに反映させる描画用設定手段(VDP135における演出用の描画データ作成処理を実行する機能)と、によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)を備え、
前記表示制御手段は、前記記憶手段に記憶された生成データに対応した画像を前記表示部に表示させるものであり、
前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記オブジェクトには、
前記動画像データから生成される静止画像データがテクスチャとして貼り付けられる第1オブジェクト(動画用オブジェクト)と、
前記所定画像データがテクスチャとして貼り付けられる第2オブジェクト(挿入用オブジェクト)と、
が含まれており、
前記配置手段は、前記特定期間において、前記視点が向く方向における当該視点からの距離が、前記第1オブジェクトよりも前記第2オブジェクトの方が小さくなるように、前記各オブジェクトを配置するものであることを特徴とする特徴F3又は特徴F4に記載の遊技機。
Feature F5. Arrangement means for arranging image data of an object in a virtual three-dimensional space (function for executing setting processing for round effect in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (camera coordinate system in VDP 135 To generate a generation data using projection data created by projecting the image data on a projection plane set based on the viewpoint) and a direction in which the When a plurality of the image data are arranged side by side, drawing setting means for preferentially reflecting the portion on the side where the distance from the viewpoint is small in the direction in which the viewpoint is directed in each portion arranged in the generation data ( Generation data (drawing data) generated by the VDP 135 and the function of executing drawing data creation processing for presentation) Comprising a storage unit (frame buffer 142) for storing the data),
The display control means causes the display unit to display an image corresponding to the generated data stored in the storage means.
The display storage means stores predetermined image data (inserted image data IPD0) which is image data used to display the predetermined image and has a smaller data amount than the moving image data.
The object is
A first object (moving object) to which still image data generated from the moving image data is pasted as a texture;
A second object (insertion object) to which the predetermined image data is pasted as a texture;
Is included,
The arrangement unit arranges the objects such that the distance from the viewpoint in the direction in which the viewpoint is directed is smaller in the second object than in the first object in the specific period. A game machine according to feature F3 or feature F4, characterized in that

特徴F5によれば、第1オブジェクトに対して、動画像データから生成される静止画像データがテクスチャとして貼り付けられ、当該静止画像データが更新タイミングとなる度に更新されることにより、1の動画が表示される。また、第2オブジェクトに対して、所定画像データがテクスチャとして貼り付けられることにより、所定の画像が表示される。この場合、所定の画像に係る第2オブジェクトが1の動画に係る第1オブジェクトよりも前面側に配置されるため、陰面消去の構成により1の動画に係る画像に対して重なるように所定の画像が表示される。これにより、3次元画像を表示するための陰面消去の構成を利用して、1の動画に係る画像に代えて所定の画像を表示させたり、1の動画に係る画像と所定の画像とを合成させたりすることができる。   According to the feature F5, the still image data generated from the moving image data is pasted as a texture to the first object, and the still image data is updated every time the update timing is reached. Is displayed. Further, by pasting predetermined image data as a texture to the second object, a predetermined image is displayed. In this case, since the second object relating to the predetermined image is disposed on the front side of the first object relating to the one moving image, the predetermined image is superimposed on the image relating to the one moving image by the configuration of hidden surface elimination. Is displayed. Thus, using the configuration of hidden surface elimination for displaying a three-dimensional image, a predetermined image is displayed instead of the image relating to one moving image, or the image relating to one moving image and the predetermined image are composited It can be done.

特徴F6.前記各オブジェクトは、少なくとも一方の面に前記各テクスチャが貼り付けられる板状オブジェクトであることを特徴とする特徴F5に記載の遊技機。   Feature F6. The gaming machine according to Feature F5, wherein each of the objects is a plate-like object to which each of the textures is attached on at least one surface.

特徴F6によれば、各画像データの貼付対象として、比較的処理負荷が少ない板状オブジェクトを用いることにより、処理負荷の軽減を図ることができる。   According to the feature F6, the processing load can be reduced by using a plate-like object with a relatively small processing load as the pasting target of each image data.

特徴F7.前記動画像データには、所定の単位で分割された第1単位動画像データ(第1ラウンド動画像データRMD0a)と第2単位動画像データ(第2ラウンド動画像データRMD0b)とが含まれており、
前記表示演出実行手段は、前記第1単位動画像データによる動画を表示させた後、前記特定期間が経過したことに基づいて前記第2単位動画像データによる動画を表示させることにより、前記1の動画を表示させるものであり、
前記表示演出実行手段は、前記特定期間に亘って前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。
Feature F7. The moving image data includes first unit moving image data (first round moving image data RMD0a) and second unit moving image data (second round moving image data RMD0b) divided in a predetermined unit. Yes,
The display effect execution unit displays the moving image by the second unit moving image data based on the passage of the specific period after the moving image by the first unit moving image data is displayed, thereby displaying the moving image by the second unit moving image data. It displays the video,
The gaming machine according to the feature F1 or the feature F2, wherein the display effect execution unit is configured to display the predetermined image over the specific period.

特徴F7によれば、単一の動画像データを用いるのではなく、少なくとも第1単位動画像データ及び第2単位動画像データを用いて1の動画が表示される。これにより、例えば、上記1の動画表示の開始時に第1単位動画像データに対して展開用の処理を実行し、その後第2単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両動画像データ分の展開がまとめて行われる構成に比べ、上記1の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。   According to the feature F7, one moving image is displayed using at least the first unit moving image data and the second unit moving image data, instead of using single moving image data. Thus, for example, processing for expansion can be performed on the first unit moving image data at the start of the first moving image display, and then processing for expansion can be performed on the second unit moving image data. It becomes. In this case, it is possible to suppress the local increase in the processing load at the time of starting the above-described moving image display, as compared with a configuration in which expansion for both moving image data is collectively performed.

かかる構成において、所定の画像は、第1単位動画像データによる動画表示と、第2単位動画像データによる動画表示との間に設けられた所定の期間に亘って表示される。これにより、所定の画像を介して、分割した各動画像データに係る動画表示が連続して表示されることとなり、遊技者に1の動画として認識させることができる。   In this configuration, the predetermined image is displayed over a predetermined period provided between the moving image display by the first unit moving image data and the moving image display by the second unit moving image data. As a result, moving image display relating to each of the divided moving image data is continuously displayed via the predetermined image, and the player can be recognized as one moving image.

また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。   Moreover, according to such a configuration, it is not necessary to simultaneously perform the process related to the moving image display and the process related to the predetermined image display. This can reduce the processing load associated with image display.

特徴F8.前記表示演出実行手段は、前記特定期間において表示対象となる前記所定の画像を変更可能であることを特徴とする特徴F1乃至F7のいずれか1に記載の遊技機。   Feature F8. The game machine according to any one of the features F1 to F7, wherein the display effect execution unit is capable of changing the predetermined image to be displayed in the specific period.

特徴F8によれば、表示演出が実行される度に特定期間において表示させる所定の画像を異ならせることにより、異なる表示演出であるように認識させることができる。これにより、表示演出の表示パターンの更なる多様化を図ることができる。   According to the feature F8, different display effects can be recognized by differentiating the predetermined images displayed in the specific period each time the display effects are performed. Thereby, further diversification of the display pattern of the display effect can be achieved.

なお、本特徴の具体的な構成としては、例えば「前記表示用記憶手段には、表示内容が相違する複数種類の所定画像データが記憶されており、前記表示演出実行手段は、前記複数種類の所定画像データのうちいずれかを選択する選択手段を備え、前記選択手段により選択された所定画像データを用いて前記特定期間において前記選択手段により選択された所定画像データに対応した画像を表示させるものである」構成が考えられる。   In addition, as a specific configuration of the present feature, for example, “a plurality of types of predetermined image data having different display contents are stored in the display storage unit, and the display effect execution unit includes the plurality of types. A selection unit for selecting any one of predetermined image data, and displaying an image corresponding to the predetermined image data selected by the selection unit in the specific period using the predetermined image data selected by the selection unit Configuration is conceivable.

特徴F9.前記表示演出実行手段は、予め定められた特定条件が成立した場合には、前記動画が複数回繰り返し表示されるようにするものであり、前記複数回の動画表示のうち所定回数目の動画表示における前記特定期間では前記所定の画像として第1所定画像を表示させ、前記所定回数目の動画表示とは異なる回数目の動画表示における前記特定期間では前記第1所定画像とは異なる第2所定画像を表示させるものであることを特徴とする特徴F8に記載の遊技機。   Feature F9. The display effect execution means is configured to repeatedly display the moving image a plurality of times when a predetermined specific condition is satisfied, and displays the moving image for a predetermined number of times among the plurality of moving image displays. The first predetermined image is displayed as the predetermined image in the specific period in the second period, and the second predetermined image is different from the first predetermined image in the specific period in the second moving image display different from the first predetermined moving image display. The gaming machine according to feature F8, characterized in that:

特徴F9によれば、動画表示が繰り返し実行される場合がある。この場合、所定回数目の動画表示と当該所定回数目とは異なる回数目の動画表示とで、表示される所定の画像が異なるため、全体としてはバリエーションが異なる表示演出が実行されることとなる。これにより、当該表示演出が繰り返し行われることに起因する当該表示演出への注目度の低下を抑制することができる。   According to the feature F9, moving image display may be repeatedly performed. In this case, since the predetermined image to be displayed is different between the moving image display of the predetermined number of times and the moving image display of the second number of times different from the predetermined number of times, display effects with different variations are executed as a whole. . Thereby, it is possible to suppress a decrease in the degree of attention to the display effect caused by the display effect being repeatedly performed.

特徴F10.予め定められた抽選契機に基づいて、遊技状態を遊技者に有利な特定遊技状態に移行させるか否かを判定する判定手段(主制御装置50における当否判定処理を実行する機能)と、
前記判定手段の判定結果が、前記遊技状態を前記特定遊技状態に移行させることに対応した移行対応結果である場合に、前記特定遊技状態に移行させる移行手段(主制御装置50における遊技状態移行処理を実行する機能)と、
を備え、
特定遊技状態では、当該特定遊技状態の所定のタイミングにて開始され、予め定められた終了条件が成立するまで継続される特定単位遊技が複数回繰り返し行われ、
前記表示演出実行手段は、前記特定単位遊技が行われる度に実行されるものであり、1の特定遊技状態中における前記特定単位遊技の実行回数に応じて、異なる前記所定の画像を表示させることが可能であることを特徴とする特徴F8又は特徴F9に記載の遊技機。
Feature F10. Determining means for determining whether or not to shift the gaming state to a specific gaming state advantageous to the player based on a predetermined lottery opportunity (a function for executing a process of determining whether or not the main control device 50 performs the qualification process);
Transition means for shifting to the specific gaming state when the determination result of the determination means is a transition response result corresponding to transitioning the gaming state to the specific gaming state (playing state transition process in the main control device 50 And the ability to perform
Equipped with
In the specific gaming state, a specific unit game which is started at a predetermined timing of the specific gaming state and is continued until a predetermined ending condition is satisfied is repeatedly performed a plurality of times,
The display effect execution means is executed each time the specific unit game is performed, and displays different predetermined images according to the number of times of execution of the specific unit game during one specific game state. The gaming machine according to the feature F8 or the feature F9 characterized in that

特徴F10によれば、特定遊技状態中は、特定単位遊技が複数回繰り返し行われる。この場合、特定単位遊技が行われる度に1の動画を用いた表示演出が実行される。これにより、当該表示演出が繰り返し実行されることにより、特定単位遊技が繰り返し行われていることを遊技者が把握することができる。   According to the feature F10, during the specific gaming state, the specific unit game is repeatedly performed a plurality of times. In this case, a display effect using one moving image is executed each time a specific unit game is performed. Thereby, the player can grasp that the specific unit game is repeatedly performed by repeatedly executing the display effect.

この場合、同一の表示演出が実行されると、遊技者の表示演出への注目度が低下する。かといって、全く異なる表示演出を実行する構成とすると、データ量の増大化という不都合が生じ得る。   In this case, when the same display effect is executed, the player's attention to the display effect decreases. However, the configuration of executing completely different display effects may have the disadvantage of increasing the amount of data.

これに対して、本特徴によれば、特定単位遊技の実行回数に応じて所定の画像を異ならせることにより、特定単位遊技が繰り返し行われる特定遊技状態において1の動画像データを用いてバリエーションの異なる表示演出を実行することが可能となり、上記不都合を回避することができる。   On the other hand, according to the present feature, by changing the predetermined image according to the number of times of execution of the specific unit game, variation data of 1 is used in the specific gaming state in which the specific unit game is repeatedly performed. Different display effects can be performed, and the above-mentioned inconvenience can be avoided.

上記特徴F群は以下の課題に対して効果的である。   The feature F group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。   Pachinko gaming machines and slot machines are known as a type of gaming machine. These gaming machines are equipped with a control board on which a CPU is mounted and an element such as a memory in which a control program related to gaming is stored is mounted, and a series of games are controlled by the control board. A configuration is also known in which the CPU and the memory are not individually mounted on the control substrate, but are mounted on the control substrate in a state in which they are integrated.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。   Among the above-mentioned gaming machines, for example, a liquid crystal display device is known in which a display device having a display unit is mounted. In such a gaming machine, a memory for image data in which image data is stored in advance is mounted, and a predetermined image is displayed on the display unit using the image data read from the memory.

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。   Also, a configuration is known in which moving image data is provided as image data. Since the data amount of moving image data is larger than that of still image data, it is stored in a compressed state in a memory for image data. When reproducing a moving image related to the compressed moving image data, the moving image data is expanded in a predetermined memory area using a decoder to form a plurality of still image data, and the plurality of still image data is updated as an image It is necessary to use in a predetermined order each time the timing comes.

ここで、表示演出の多様化を図るべく、複数種類の動画を再生したい場合がある。この場合、動画像データを複数種類設け、当該複数種類の動画像データのうちいずれかをデコードして当該動画像データに係る動画を再生する構成が考えられる。しかしながら、かかる構成では、動画像データのデータ量の増大化が懸念される。   Here, in order to diversify display effects, there are cases where it is desired to reproduce a plurality of types of moving images. In this case, a configuration is conceivable in which a plurality of types of moving image data are provided, any one of the plurality of types of moving image data is decoded, and a moving image related to the moving image data is reproduced. However, in such a configuration, there is a concern about an increase in the data amount of moving image data.

<特徴G群>
特徴G1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した画像の動画を前記複数の更新タイミング分の表示期間に亘って表示させる動画像表示実行手段(VDP135における動画像用の設定処理を実行する機能)と、
を備え、
前記動画像データは、当該動画像データにより表示される動画の態様に応じて、複数の単位動画像データに分割されており、
前記動画像表示実行手段は、前記各単位動画像データによる動画を、予め定められた順序で順次表示することにより、一連の動画を表示させるものであり、
前記各単位動画像データは、当該各単位動画像データにより表示される各動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なるようにして圧縮されていることを特徴とする遊技機。
<Feature G group>
Feature G1. Display means (symbol display device 31) having a display unit (display surface G);
Display storage means (memory module 133) storing image data in advance;
Display control means (display CPU 131, VDP 135) for displaying an image on the display unit using the image data stored in the display storage means;
In the gaming machine provided with
The display storage means stores compressed moving image data used to reproduce a moving image,
The display control means
Development means (moving picture decoder) for expanding any moving picture data into a development area and creating still picture data for a plurality of update timings for an image corresponding to the moving picture data;
By using still image data for a plurality of update timings expanded by the expansion means in the order defined in the moving image data, a moving image of an image corresponding to the moving image data for the plurality of update timings Moving image display execution means (function to execute setting processing for moving images in VDP 135) to be displayed over the display period of
Equipped with
The moving image data is divided into a plurality of unit moving image data according to an aspect of a moving image displayed by the moving image data,
The moving image display execution means is configured to display a series of moving images by sequentially displaying moving images according to the unit moving image data in a predetermined order.
The unit moving image data is compressed such that the amount of data allocated to the unit moving image data differs according to the aspect of each moving image displayed by the unit moving image data. Gaming machine.

特徴G1によれば、単一の動画像データを用いるのではなく、各単位動画像データを順次用いることにより一連の動画表示が行われる。これにより、例えば、上記一連の動画表示の開始時に1の単位動画像データに対して展開用の処理を実行し、その後、他の単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両単位動画像データ分の展開がまとめて行われる構成に比べ、上記一連の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。   According to the feature G1, instead of using single moving image data, a series of moving image display is performed by sequentially using each unit moving image data. Thus, for example, processing for expansion is performed on one unit of moving image data at the start of the series of moving image display, and then processing for expansion is performed on another unit of moving image data. It becomes possible. In this case, compared to a configuration in which expansion for both unit moving image data is collectively performed, it is possible to suppress a local increase in processing load when starting the above-described series of moving image display.

かかる構成において、各単位動画像データにより表示される動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なる。これにより、動画の態様に応じて画質を調整することができるため、効率的な画質の調整を行うことができる。   In such a configuration, the amount of data allocated to each unit moving image data differs according to the aspect of the moving image displayed by each unit moving image data. Thus, the image quality can be adjusted in accordance with the aspect of the moving image, so efficient image quality adjustment can be performed.

特徴G2.前記表示期間には、前記動画の態様が異なる第1区間及び第2区間が含まれており、
前記単位動画像データには、
前記第1区間に対応した第1単位動画像データ(第1ラウンド動画像データRMD0a)と、
前記第2区間に対応した第2単位動画像データ(第2ラウンド動画像データRMD0b)と、
が設けられており、
前記第1単位動画像データと前記第2単位動画像データとで、単位期間当たりにおける画像表示を行うためのデータ量が異なるよう設定されていることを特徴とする特徴G1に記載の遊技機。
Feature G2. The display period includes a first section and a second section having different modes of the moving image,
In the unit moving image data,
First unit moving image data (first round moving image data RMD0a) corresponding to the first section;
Second unit moving image data (second round moving image data RMD0b) corresponding to the second section;
Is provided,
The gaming machine according to feature G1, wherein an amount of data for performing image display per unit period is set to be different between the first unit moving image data and the second unit moving image data.

特徴G2によれば、各単位動画像データの単位期間当たりにおける画像表示を行うためのデータ量を異ならせることにより、各単位動画像データにより表示される動画の画質の低下を抑制しつつ、動画像データ全体のデータ量の削減を図ることができる。   According to the feature G2, by varying the data amount for performing image display per unit period of each unit moving image data, the moving image while suppressing the deterioration of the image quality of the moving image displayed by each unit moving image data The amount of data of the entire image data can be reduced.

特徴G3.前記第1区間及び前記第2区間は、各更新タイミング間における画像の変化量が相対的に大小となる大変化区間及び小変化区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2に記載の遊技機。
Feature G3. The first section and the second section are a large change section and a small change section in which the amount of change in the image between each update timing is relatively large and small,
The gaming machine according to feature G2, wherein the first unit moving image data has a larger data amount for performing image display per unit period than the second unit moving image data.

特徴G3によれば、画像の変化量が比較的大きい大変化区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。   According to the feature G3, a relatively large amount of data is allocated to the first unit moving image data corresponding to the large change section in which the change amount of the image is relatively large, so block noise, mosquito noise, etc. occur. It is difficult to do.

一方、画像の変化量が比較的小さい小変化区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。   On the other hand, since a relatively small amount of data is allocated to the second unit moving image data corresponding to the small change section in which the amount of change in the image is relatively small, the data amount of the second unit moving image data is reduced. Can be

特徴G4.前記第1区間及び前記第2区間は、静止画像データに係る画像の精細さが相対的に高低となる高精細区間及び低精細区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2又は特徴G3に記載の遊技機。
Feature G4. The first section and the second section are a high definition section and a low definition section in which the definition of the image according to the still image data is relatively high and low,
In the first unit moving image data, a data amount for performing image display per unit period is set larger than that of the second unit moving image data, as described in the feature G2 or the feature G3 Gaming machine.

特徴G4によれば、画像の精細さが比較的高い高精細区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。   According to the feature G4, a relatively large amount of data is allocated to the first unit moving image data corresponding to the high definition section where the definition of the image is relatively high, so block noise, mosquito noise, etc. occur. It is difficult to do.

一方、画像の細かさが比較的低い低精細区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。   On the other hand, since a relatively small amount of data is allocated to the second unit moving image data corresponding to a low definition section in which the image detail is relatively low, the data amount of the second unit moving image data is reduced. Can be

特徴G5.前記更新タイミングの間隔は、各区間に関わらず同一に設定されていることを特徴とする特徴G2乃至G4のいずれか1に記載の遊技機。   Feature G5. The gaming machine according to any one of the features G2 to G4, wherein an interval of the update timing is set to be the same regardless of each section.

特徴G5によれば、更新タイミングの間隔は各区間に関わらず同一に設定されているため、各区間に応じて更新タイミングの間隔の変更を行う構成と比較して、当該変更に係る処理分だけ、動画の表示に係る処理負荷の軽減を図ることができるとともに、その変更に係る処理を実行するプログラム分だけプログラム容量の削減を図ることができる。   According to the feature G5, since the interval of the update timing is set to the same regardless of each section, compared with the configuration in which the interval of the update timing is changed according to each section, only the process related to the change The processing load relating to the display of the moving image can be reduced, and the program capacity can be reduced by the program for executing the processing relating to the change.

また、この場合であっても、単位期間当たりにおける画像表示を行うためのデータ量を調整することにより、画質の低下を抑制しつつ、動画像データ全体のデータ量を所定量に圧縮することができる。   Even in this case, by adjusting the amount of data for performing image display per unit period, it is possible to compress the data amount of the whole moving image data into a predetermined amount while suppressing the deterioration of the image quality. it can.

特徴G6.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記表示制御手段は、
前記所定画像データを用いて前記表示部に前記所定の画像を表示させる所定画像表示実行手段(表示CPU131のステップS3510〜ステップS3516の処理を実行する機能、VDP135のステップS3704〜ステップS3707、ステップS3804〜ステップS3807の処理を実行する機能)を備え、前記動画像表示実行手段及び前記所定画像表示実行手段の双方を同時に実行することにより、前記動画と前記所定の画像とを同時に表示させることが可能であることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Feature G6. The display storage unit stores predetermined image data (inserted image data IPD0) corresponding to a predetermined image,
The display control means
The predetermined image display execution unit (the function of executing the processing of steps S3510 to S3516 of the display CPU 131, the step S3704 to S3707 of the VDP 135, the step S3804 to S3804) which causes the display unit to display the predetermined image using the predetermined image data Function to execute the processing of step S3807), and by simultaneously executing both the moving image display execution means and the predetermined image display execution means, it is possible to simultaneously display the moving image and the predetermined image The gaming machine according to any one of features G1 to G5, which is characterized in that

特徴G6によれば、動画と所定の画像とを組み合わせることにより、画像の表示態様の多様化を図ることができる。   According to the feature G6, it is possible to diversify the display mode of the image by combining the moving image and the predetermined image.

この場合、動画像及び所定の画像を同時に表示させるために、動画像表示及び所定の画像表示双方の表示制御に係る処理を実行する必要がある。このため、処理負荷の増大化が懸念される。   In this case, in order to simultaneously display the moving image and the predetermined image, it is necessary to execute processing relating to display control of both the moving image display and the predetermined image display. For this reason, there is a concern that the processing load may increase.

これに対して、特徴G5との関係によれば、更新タイミングの間隔の変更に係る処理負荷の分だけ、動画の表示中の処理負荷を軽減することができる。これにより、動画像及び所定の画像双方を同時に表示させる場合に処理落ちすることを抑制することができる。   On the other hand, according to the relationship with the feature G5, the processing load during display of the moving image can be reduced by the processing load associated with the change of the update timing interval. In this way, it is possible to suppress processing loss when simultaneously displaying both a moving image and a predetermined image.

特徴G7.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記動画像表示実行手段は、前記複数の単位動画像データのうち所定の単位動画像データによる動画を表示させた場合には、当該所定の単位動画像データによる動画表示から所定の期間が経過したことに基づいてその後の単位動画像データによる動画を表示させるものであり、
前記表示制御手段は、
前記所定の期間に亘って前記所定画像データを用いて前記表示部に前記所定の画像を表示させる手段(表示CPU131におけるステップS3912〜ステップS3915の処理を実行する機能)を備えていることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Feature G7. The display storage unit stores predetermined image data (inserted image data IPD0) corresponding to a predetermined image,
When the moving image display execution means displays a moving image by predetermined unit moving image data among the plurality of unit moving image data, a predetermined period has elapsed from the moving image display by the predetermined unit moving image data. To display a moving image based on the subsequent unit moving image data,
The display control means
It has a means (a function to execute the processing of step S3912 to step S3915 in the display CPU 131) for displaying the predetermined image on the display unit using the predetermined image data over the predetermined period The gaming machine according to any one of features G1 to G5.

特徴G7によれば、所定の単位動画像データによる動画表示とその後の単位動画像データによる動画表示との間に設けられた所定の期間に亘って所定の画像が表示される。これにより、所定の画像を介して、分割した両単位動画像データに係る動画表示が連続して表示されることとなり、遊技者に一連の動画として認識させることができる。   According to the feature G7, the predetermined image is displayed over a predetermined period provided between the moving image display by the predetermined unit moving image data and the moving image display by the unit moving image data thereafter. As a result, the moving image display related to both divided unit moving image data is continuously displayed via the predetermined image, and the player can be recognized as a series of moving images.

また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。   Moreover, according to such a configuration, it is not necessary to simultaneously perform the process related to the moving image display and the process related to the predetermined image display. This can reduce the processing load associated with image display.

上記特徴G群は以下の課題に対して効果的である。   The feature G group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。   Pachinko gaming machines and slot machines are known as a type of gaming machine. These gaming machines are equipped with a control board on which a CPU is mounted and an element such as a memory in which a control program related to gaming is stored is mounted, and a series of games are controlled by the control board. A configuration is also known in which the CPU and the memory are not individually mounted on the control substrate, but are mounted on the control substrate in a state in which they are integrated.

上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。   Among the above-mentioned gaming machines, for example, a liquid crystal display device is known in which a display device having a display unit is mounted. In such a gaming machine, a memory for image data in which image data is stored in advance is mounted, and a predetermined image is displayed on the display unit using the image data read from the memory.

また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。   Also, a configuration is known in which moving image data is provided as image data. Since the data amount of moving image data is larger than that of still image data, it is stored in a compressed state in a memory for image data. When reproducing a moving image related to the compressed moving image data, the moving image data is expanded in a predetermined memory area using a decoder to form a plurality of still image data, and the plurality of still image data is updated as an image It is necessary to use in a predetermined order each time the timing comes.

ここで、画像データ用のメモリの記憶容量と他の画像データとの関係から、動画像データのデータ量を、予め定められた設定量となるように圧縮する必要が生じる場合がある。この場合、動画像データの圧縮態様によっては、動画像データを用いた動画の画質が低下し、当該動画への注目度が低下するという不都合が生じ得る。   Here, due to the relationship between the storage capacity of the memory for image data and other image data, it may be necessary to compress the data amount of moving image data so as to be a predetermined set amount. In this case, depending on the compression mode of the moving image data, the image quality of the moving image using the moving image data may be degraded, and the degree of attention to the moving image may be reduced.

<特徴H群>
特徴H1.オブジェクトの画像データ及び当該オブジェクトに貼り付けられるテクスチャの画像データを含む各種画像データが記憶された画像データ記憶手段(メモリモジュール133)と、仮想3次元空間内に前記オブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、前記オブジェクトに対して前記テクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記テクスチャが貼り付けられたオブジェクトを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)と、を有するデータ生成手段(表示CPU131及びVDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記オブジェクトには、変形対象として設定された変形対象オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記データ生成手段は、当該変形対象オブジェクトを変形させることにより、前記画像の少なくとも一部を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature H group>
Feature H1. Image data storage means (memory module 133) storing various image data including image data of an object and image data of texture to be attached to the object, and arrangement means (VDP 135) for arranging the object in a virtual three-dimensional space Step S 4602, step S 4609, function to execute step S 4610), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (conversion processing to camera coordinate system in VDP 135 and conversion processing to visual coordinate system) The texture is attached to a projection plane set based on the viewpoint, a sticking means for sticking the texture to the object (a function for executing setting processing of color information in the VDP 135), and a projection plane set based on the viewpoint Project the Data generation means having drawing setting means (generation function of creating drawing list in display CPU 131 and function of executing drawing processing in VDP 135) for generating generation data (drawing data) based on data projected onto projection plane Storage means (frame buffer 142) for storing generated data generated by (display CPU 131 and VDP 135);
Display control means (display CPU 131 and display CPU 131 for displaying the image corresponding to the generated data stored in the storage means on the display unit (display surface G) and updating the contents of the image when a predetermined update timing is reached VDP 135),
In the gaming machine provided with
The object includes a deformation target object (refractive object OB10) set as a deformation target,
The data generation means distorts at least a part of the image by deforming the object to be deformed (a function of executing distortion rendering operation processing in the display CPU 131, and various processing for distortion rendition in the VDP 135 A game machine characterized by having a function of performing

特徴H1によれば、変形対象オブジェクトを変形させることにより、表示部に表示される画像の少なくとも一部を歪ませることができる。これにより、画像を歪ませるために専用のテクスチャを用意する必要がない。よって、データ量の増大化を抑制しつつ、画像の歪みを比較的容易に表現することができる。   According to the feature H1, at least a part of the image displayed on the display unit can be distorted by deforming the object to be deformed. This eliminates the need to prepare a dedicated texture to distort the image. Therefore, distortion of an image can be relatively easily expressed while suppressing an increase in data amount.

特徴H2.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴H1に記載の遊技機。   Feature H2. The distortion forming means is configured to deform the deformation target object by individually updating at least a part of the coordinates of each vertex of the deformation target object. Gaming machine.

特徴H2によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像が歪んだように視認させることができる。   According to the feature H2, by updating the coordinates of at least a part of the vertices of each vertex constituting the deformation target object, the individual image based on the deformation target object can be visually recognized as distorted.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記歪み形成手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。   Note that “the coordinate mapping data for specifying the coordinates of each vertex constituting the object to be deformed is provided, and a plurality of types of coordinate mapping data are set with different designated coordinates, The distortion forming unit updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referred to each time a predetermined update timing is reached, thereby the deformation target object. Should be made to sway. According to this configuration, the fluctuation of the image can be expressed, and the coordinates of each vertex of the object to be deformed are individually set in comparison with the configuration calculated from the equation given calculation equations of each coordinate. Can reduce the processing load required for

特徴H3.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴H2に記載の遊技機。   Feature H3. In the feature H2, the distortion forming unit does not change coordinates of vertices related to an outer edge of an individual image based on the object to be deformed among the vertices constituting the object to be deformed. Gaming machine.

特徴H3によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、画像の一部を歪ませることができる。   According to the feature H3, the coordinates of the vertices of the outer edge of the individual image based on the deformation target object are not changed, so that the boundary between the individual image based on the deformation object and the image around it is less noticeable. This makes it possible to distort a part of the image while matching the two.

特徴H4.前記変形対象オブジェクトは、歪みの対象となる画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴H1乃至H3のいずれか1に記載の遊技機。   Feature H4. The gaming machine according to any one of the features H1 to H3, wherein the object to be deformed is a plate-like object having a plane set corresponding to an image to be distorted.

特徴H4によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、歪ませるための処理負荷の軽減を図ることができる。   According to the feature H4, the deformation target object can be easily deformed by using a relatively simple plate-like object as the deformation target object. Thereby, the processing load for distortion can be reduced.

特徴H5.前記歪み形成手段は、所定の画像を表示させるための所定のオブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記所定の画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴H1乃至H4のいずれか1に記載の遊技機。   Feature H5. The distortion forming unit arranges the deformation target object closer to the viewpoint side than a predetermined object for displaying a predetermined image, and image data corresponding to the predetermined image with respect to the deformation target object is the texture The gaming machine according to any one of the features H1 to H4 characterized in that it is pasted as

特徴H5によれば、変形対象オブジェクトを変形させることにより所定の画像が歪むこととなる。これにより、歪ませる場合と歪ませない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。   According to the feature H5, the predetermined image is distorted by deforming the deformation target object. As a result, it is possible to achieve commonality of processing in that it is not necessary to differentiate processing for a predetermined object between the case of distortion and the case of no distortion.

また、歪ませる場合と歪ませない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、歪ませる場合と歪ませない場合との切換を比較的容易に行うことができる。   In addition, since the case of distortion and the case of no distortion can be handled depending on whether or not the object to be deformed is placed, switching between the case of distortion and the case of no distortion can be performed relatively easily. .

特徴H6.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記所定のオブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記所定のオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記所定の画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記所定の画像に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記歪み形成手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像を歪ませるものであることを特徴とする特徴H5に記載の遊技機。
Feature H6. The arrangement means includes means for arranging the predetermined object among a plurality of objects set as display targets (a function of executing the process of step S4602 in the VDP 135).
Means for setting the drawing means for projecting the predetermined object and generating predetermined generation data corresponding to an image including the predetermined image based on the data projected on the projection plane (processing of step S4608 in VDP 135 Have the ability to perform
The data generation unit generates texture to be attached to the object to be deformed by extracting image data corresponding to the predetermined image included in the predetermined generation data (steps S4801 and S4802 in VDP 135) Function to execute the processing of
The distortion forming unit arranges at least the object to be deformed in the virtual three-dimensional space, pastes the texture generated by the texture generation unit to the object to be deformed, and projects the object to be deformed. The gaming machine according to the feature H5, characterized in that the predetermined image is distorted.

特徴H6によれば、所定のオブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、所定の画像を歪ませることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。   According to the feature H6, the predetermined generation data is generated by performing the first projection on the predetermined object, and the texture to be attached to the deformation target object is generated using the predetermined generation data. Then, by performing the second projection on the deformation target object to which the texture is attached, it is possible to distort a predetermined image. As a result, it is possible to reduce the amount of data in that there is no need to store in advance the texture to be attached to the transformation target object.

また、変形対象オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。   Further, since the texture to be attached to the transformation target object is generated by projecting a predetermined object, the image relating to the texture is actually displayed using the predetermined object. It can be similar to a given image. This makes it possible to blend the image based on the object to be deformed with the image around it.

特徴H7.前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴H6に記載の遊技機。
Feature H7. The predetermined image is configured to be able to be updated each time the update timing is reached,
The predetermined generation data is generated each time the update timing comes,
The texture generation unit is characterized in that the texture generation unit generates a texture to be attached to the object to be deformed using the predetermined generation data generated at the update timing each time the update timing is reached. The gaming machine described in H6.

特徴H7によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、所定の画像が更新された場合であっても、当該更新された所定の画像を歪ませることができる。   According to the feature H7, the predetermined generation data is generated each time the update timing comes, and the texture to be attached to the deformation target object is generated. Thus, even when the predetermined image is updated, the updated predetermined image can be distorted.

なお、「前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記所定のオブジェクトが配置される座標を更新することにより、前記所定の画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。   In addition, as a specific configuration of “the predetermined image is configured to be updateable each time the update timing is reached”, for example, “the arrangement unit may set the predetermined object every time the update timing is reached. Is configured to scroll the predetermined image in a predetermined direction by updating the coordinates at which the image is arranged, or configured to move the viewpoint in a predetermined direction each time the update timing is reached. Conceivable.

特徴H8.前記歪み形成手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像が歪んだ歪み画像に対応した歪み生成データ(演出及び図柄用の描画データ)を作成するものであり、
前記データ生成手段は、前記所定生成データと前記歪み生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴H6又は特徴H7に記載の遊技機。
Feature H8. The distortion forming unit arranges the deformation target object in the virtual three-dimensional space, pastes a corresponding texture to the deformation target object, and projects the deformation target object to obtain the predetermined image. Is to create distortion generation data (rendering data for rendering and symbols) corresponding to the distorted distortion image,
The data generation means is provided with a combination means (function to execute the process of step S4617 in VDP 135) for generating one generation data by combining the predetermined generation data and the distortion generation data The gaming machine according to the feature H6 or the feature H7.

特徴H8によれば、所定の画像に係る所定生成データを生成する処理と、歪み生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。   According to the feature H8, the process of generating predetermined generation data relating to a predetermined image and the process of generating distortion generation data are separated, and by combining the two, one generation data is generated. A process of generating a texture to be attached to a transformation target object can be used as a process of generating one generation data. Thereby, the processing load can be reduced.

また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。   Further, according to the above-mentioned feature, it is possible to reduce the number of objects which are redundantly arranged in two projections. Thereby, the processing load resulting from the overlapping arrangement and the overlapping projection can be reduced.

特徴H9.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴H1乃至H8のいずれか1に記載の遊技機。
Feature H9. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the object to the object,
In the various parameter information, individual reflection value information (individual α) which determines the degree in the case of reflecting the color information of the texture attached to the object on the display unit for each predetermined unit area (pixel) Value) is included,
The distortion forming unit adjusts the individual reflection value information applied to the object to be deformed, so that the color information relating to the individual image based on the object to be deformed is less likely to be reflected toward the outer edge of the individual image The gaming machine according to any one of features H1 to H8, which is characterized in that:

特徴H9によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、歪んだ画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。   According to the feature H9, color information relating to the individual image is less likely to be reflected toward the outer edge of the individual image based on the deformation target object. As a result, an image that is more familiar with other areas is displayed closer to the outer edge of the individual image based on the transformation target object. Therefore, the boundary between the area where the distorted image is displayed and the other area can be made inconspicuous.

特徴H10.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴H1乃至H9のいずれか1に記載の遊技機。
Feature H10. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the object to the object,
The various parameter information includes reflection value information (uniform α value) for determining the degree of reflecting the color information of the texture attached to the object on the display unit.
The distortion forming unit is configured to prevent the color information relating to the individual image based on the transformation target object from being gradually reflected by adjusting the reflection value information applied to the transformation target object in stages. The gaming machine according to any one of the features H1 to H9, characterized in that the display CPU 131 has a function of executing the processing of step S4519.

特徴H10によれば、歪みを表現していた画像は徐々に消えていくため、歪みが消えていく過程が目立ちにくい。これにより、歪みが消えていく場合に遊技者に与える違和感を軽減することができる。   According to the feature H10, since the image representing the distortion gradually disappears, the process in which the distortion disappears is less noticeable. This makes it possible to reduce the discomfort given to the player when the distortion disappears.

特徴H11.前記歪ませる対象となる画像は、前記表示部全体に表示される背景画像の一部であることを特徴とする特徴H1乃至H10のいずれか1に記載の遊技機。   Feature H11. The gaming machine according to any one of features H1 to H10, wherein the image to be distorted is a part of a background image displayed on the entire display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を歪ませるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。   Since the background image is displayed on the entire display unit, the data amount of the image data tends to be large compared to the individual image displayed on a part of the display unit. For this reason, if a plurality of types of background image data are prepared in order to distort part of the background image, the amount of data tends to be large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を歪ませることができるため、データ量を好適に削減することができる。   On the other hand, according to this feature, a part of the background image can be distorted without preparing a plurality of types of background image data, so the amount of data can be suitably reduced.

上記特徴H群は以下の課題に対して効果的である。   The above feature H group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, a polygon, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, by outputting a signal to the display device based on the generated data, a stereoscopic image is displayed.

ここで、遊技への注目度を高めるために、表示部に表示される画像をよりリアルに表現する演出が行われる場合がある。当該演出としては、例えば光の屈折に基づく空間の歪みを表現する演出がある。この場合、例えば光の屈折の反映度を演算により導出させる構成とすると、処理負荷の増大化が懸念される。一方、光の屈折を反映した画像データを予め記憶しておく構成とすると、データ量の増大化が懸念される。   Here, in order to increase the degree of attention to the game, an effect may be performed that more realistically represents the image displayed on the display unit. As the effect, for example, there is an effect that expresses distortion of space based on refraction of light. In this case, for example, if the reflection degree of light is derived by calculation, the processing load may be increased. On the other hand, if image data reflecting light refraction is stored in advance, there is a concern that the amount of data may be increased.

<特徴I群>
特徴I1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、複数種類の画像データを用いて所定の第1生成データ(背景用の描画データ)を生成し、少なくとも前記第1生成データを利用して前記第1生成データとは異なる第2生成データ(演出及び図柄用の描画データ、又は1の描画データ)を生成するものであり、
前記表示制御手段は、少なくとも前記第2生成データを用いて前記表示部に画像を表示させることを特徴とする遊技機。
<Feature I group>
Feature I1. Display means (symbol display device 31) having a display unit (display surface G);
An image is displayed on the display unit using generation data (drawing data) generated by data generation means (a function of creating a drawing list in the display CPU 131 and a function of executing drawing processing in the VDP 135), and predetermined Display control means (display CPU 131 and VDP 135) for updating the contents of the image when the update timing has come;
In the gaming machine provided with
The data generation unit generates predetermined first generation data (drawing data for background) using a plurality of types of image data, and at least the first generation data is different from the first generation data using the first generation data. 2 generation data (drawing data for effects and symbols, or 1 drawing data) is generated,
A game machine characterized in that the display control means causes the display unit to display an image using at least the second generation data.

特徴I1によれば、第1生成データが生成され、当該生成された第1生成データを用いて第2生成データが生成される。これにより、第2生成データを用いた画像表示を行うことにより、第1生成データに係る画像を用いた画像を表示させることができる。よって、表示演出の多様化を図ることができるとともに、第1生成データを予め記憶させておく必要がない点でデータ量の削減を図ることができる。   According to the feature I1, the first generation data is generated, and the second generation data is generated using the generated first generation data. Thus, by performing the image display using the second generated data, it is possible to display an image using the image related to the first generated data. Therefore, while being able to achieve diversification of a display production, reduction of data amount can be aimed at at the point which does not need to memorize | store 1st production | generation data beforehand.

特徴I2.前記データ生成手段は、前記第1生成データの少なくとも一部を加工し、当該加工されたデータを用いて前記第2生成データを生成するものであることを特徴とする特徴I1に記載の遊技機。   Feature I2. The gaming machine according to the feature I1, characterized in that the data generation means processes at least a part of the first generation data and generates the second generation data using the processed data. .

特徴I2によれば、第1生成データの少なくとも一部が加工されて第2生成データが生成される。これにより、第1生成データをそのまま用いる構成と比較して、表示される画像のバリエーションの多様化を図ることができる。   According to the feature I2, at least a part of the first generation data is processed to generate the second generation data. Thereby, as compared with the configuration in which the first generation data is used as it is, diversification of variations of the displayed image can be achieved.

特徴I3.前記データ生成手段は、予め定められた対象画像が複数の更新タイミングに亘って移り変わる表示演出が行われるように、前記対象画像に係る前記第1生成データを生成し、当該第1生成データの少なくとも一部を加工して前記対象画像の移り変わりに対応した前記第2生成データを生成可能であることを特徴とする特徴I2に記載の遊技機。   Feature I3. The data generation unit generates the first generation data relating to the target image such that a display effect is performed in which a predetermined target image changes over a plurality of update timings, and at least at least the first generation data. A game machine according to feature I2, characterized in that it is possible to process a part of the image to generate the second generation data corresponding to the transition of the target image.

特徴I3によれば、第1生成データ及び第2生成データを用いることにより複数の更新タイミングに亘って対象画像が移り変わる表示演出を実行することができる。これにより、表示演出の多様化を図ることができるとともに、上記移り変わりに対応した画像データを更新タイミング毎に用意しなくてよい点でデータ量の削減を図ることができる。   According to the feature I3, by using the first generation data and the second generation data, it is possible to execute display effects in which the target image changes over a plurality of update timings. As a result, it is possible to diversify display effects, and to reduce the amount of data because it is not necessary to prepare image data corresponding to the change at each update timing.

特徴I4.前記データ生成手段は、前記第1生成データと前記第2生成データとを合成することにより、1の更新タイミングに対応する前記生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴I1又は特徴I2に記載の遊技機。   Feature I4. The data generation means combines the first generation data and the second generation data to generate the generation data corresponding to the update timing of 1 (function to execute the process of step S4617 in VDP 135 A game machine according to feature I1 or feature I2 comprising

特徴I4によれば、第1生成データと第2生成データとを合成することにより1の更新タイミングに対応する生成データが生成されるため、第2生成データで用いられる第1生成データを生成するための処理を、上記生成データを生成するための処理に流用することができる。これにより、1の更新タイミングにて、第1生成データを生成しつつ上記生成データを生成する場合の処理負荷の軽減を図ることができる。   According to the feature I4, since the generated data corresponding to the update timing of 1 is generated by combining the first generated data and the second generated data, the first generated data used in the second generated data is generated. The processing for can be diverted to the processing for generating the above-mentioned generation data. As a result, it is possible to reduce the processing load in the case of generating the generated data while generating the first generated data at one update timing.

特徴I5.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135における各種描画データ生成処理を実行する機能)と、
を備え、
前記オブジェクトには、前記第2生成データを生成する場合に用いられる特定オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記第2生成データは、少なくとも前記特定オブジェクトが配置され、当該特定オブジェクトが投影されることにより生成されるものであり、
前記貼付手段は、前記第2生成データを生成する場合には、前記特定オブジェクト(屈折用オブジェクトOB10)に貼り付けられるテクスチャとして、前記第1生成データの少なくとも一部を用いることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I5. The data generation means
Arrangement means for arranging an object in a virtual three-dimensional space (a function of executing the processing of step S4602, step S4609, step S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of executing conversion processing to the camera coordinate system and conversion processing to the visual coordinate system in the VDP 135);
Sticking means for sticking a texture to the object (function to execute setting processing of color information in VDP 135);
Drawing setting means for projecting the object on a projection plane set based on the viewpoint and generating the generated data based on the data projected on the projection plane (function to execute various drawing data generation processes in VDP 135 )When,
Equipped with
The object includes a specific object (refractive object OB10) used when generating the second generation data,
The second generation data is generated by arranging at least the specific object and projecting the specific object.
The sticking unit uses at least a part of the first generation data as a texture to be attached to the specific object (object for refraction OB10) when generating the second generation data. The gaming machine according to any one of I1 to I4.

特徴I5によれば、特定オブジェクトに対して貼り付けられるテクスチャとして、第1生成データの少なくとも一部が用いられる。これにより、特定オブジェクトに貼り付けるテクスチャを予め記憶しておく必要がない点でデータ量の削減を図ることができる。   According to the feature I5, at least a part of the first generation data is used as the texture to be attached to the specific object. As a result, it is possible to reduce the amount of data in that it is not necessary to store in advance the texture to be attached to the specific object.

特徴I6.前記データ生成手段は、
仮想3次元空間内において表示対象となっている複数のオブジェクトのうち所定のオブジェクトを配置する第1配置手段(VDP135におけるステップS4602の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
少なくとも前記所定のオブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第1配置手段により配置された前記所定のオブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記第1生成データを生成する第1描画用設定手段(VDP135におけるステップS4608の処理を実行する機能)と、
前記第1生成データを用いて、予め定められた特定オブジェクト(屈折用オブジェクトOB10)に対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)と、
前記仮想3次元空間内において少なくとも前記特定オブジェクトを配置する第2配置手段(VDP135におけるステップS4609及びステップS4610の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第2配置手段により配置されたオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記第2生成データを生成する第2描画用設定手段(VDP135におけるステップS4616の処理を実行する機能)と、
を備え、
前記貼付手段は、前記特定オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付けるものであることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I6. The data generation means
First arranging means (a function of executing the process of step S4602 in the VDP 135) for arranging a predetermined object among a plurality of objects to be displayed in the virtual three-dimensional space;
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of executing conversion processing to the camera coordinate system and conversion processing to the visual coordinate system in the VDP 135);
Sticking means for sticking a texture to at least the predetermined object (function of executing setting process of color information in VDP 135);
Projecting the predetermined object placed by the first placement means onto a projection plane set based on the viewpoint, and generating the first generated data based on the data projected onto the projection plane 1 setting means for drawing (function of executing the process of step S4608 in the VDP 135),
Texture generation means (function of executing the processing of step S4801 and step S4802 in VDP 135) of generating a texture to be attached to a predetermined specific object (object for refraction OB10) using the first generation data;
Second arrangement means for arranging at least the specific object in the virtual three-dimensional space (function of executing the processing of step S4609 and step S4610 in the VDP 135);
The second drawing data is generated by projecting an object arranged by the second arranging means onto a projection plane set based on the viewpoint, and generating the second generated data based on the data projected onto the projection plane. Setting means (function of executing the process of step S4616 in VDP 135);
Equipped with
The gaming machine according to any one of the features I1 to I4, wherein the sticking means sticks the texture generated by the texture generation means to the specific object.

特徴I6によれば、所定のオブジェクトに対して1回目の投影を行うことにより第1生成データが生成され、当該第1生成データを用いて特定オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた特定オブジェクトに対して2回目の投影を行うことにより、第2生成データを生成することができる。これにより、特定オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。   According to the feature I6, the first generation data is generated by performing the first projection on the predetermined object, and the texture to be attached to the specific object is generated using the first generation data. Then, second generation data can be generated by performing a second projection on the specific object to which the texture is attached. As a result, it is possible to reduce the amount of data in that it is not necessary to store in advance the texture to be attached to a specific object.

また、特定オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、所定オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。   Further, since the texture to be attached to the specific object is generated by projecting a predetermined object, the image relating to the texture is actually displayed using the predetermined object. It can be similar to the image of Thereby, it is possible to make the image based on the predetermined object and the image around it match.

さらに、第2生成データを生成するための処理と同様の処理で、特定オブジェクトに対して貼り付けるテクスチャを生成することができるため、処理の流用を図ることができる。   Furthermore, since the texture to be attached to the specific object can be generated by the same processing as the processing for generating the second generation data, it is possible to divert the processing.

特徴I7.前記特定オブジェクトは、変形対象として設定された変形対象オブジェクトであり、
前記配置手段は、変化対象として設定された変化対象画像を表示させるためのオブジェクトに対して前記視点側から重なるように前記変形対象オブジェクトを配置する手段(VDP135における屈折用オブジェクトOB10を配置する機能)を備え、
前記データ生成手段は、前記変形対象オブジェクトを変形させることにより前記変化対象画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させるための機能)を備えていることを特徴とする特徴I5又は特徴I6に記載の遊技機。
Feature I7. The specific object is a transformation target object set as a transformation target,
The arrangement unit arranges the deformation target object so as to overlap from the viewpoint side with respect to the object for displaying the change target image set as the change target (a function of arranging the refraction object OB10 in the VDP 135) Equipped with
The data generation means is provided with a change means (function for displaying each distortion image CP15, CP16 in display CPU131 and VDP135) which changes the change object image by deforming the deformation object. The gaming machine according to the feature I5 or the feature I6.

特徴I7によれば、変形対象オブジェクトに対して貼り付けるテクスチャを記憶させておくことなく変化対象画像を変化させることができる。   According to the feature I7, the change target image can be changed without storing the texture to be attached to the deformation target object.

特徴I8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴I7に記載の遊技機。   Feature I8. The game according to the feature I7, wherein the changing means is configured to deform the object to be deformed by individually updating at least a part of the coordinates of the vertices constituting the object to be deformed. Machine.

特徴I8によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。   According to the feature I8, it is possible to change the individual image based on the object to be deformed by updating the coordinates of at least a part of the vertices of the vertices constituting the object to be deformed.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。   Note that “the coordinate mapping data for specifying the coordinates of each vertex constituting the object to be deformed is provided, and a plurality of types of coordinate mapping data are set with different designated coordinates, The changing unit updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referred to each time a predetermined update timing comes, so that the object to be deformed is changed. It is good to say that it is to be deformed so as to shake. According to this configuration, the fluctuation of the image can be expressed, and the coordinates of each vertex of the object to be deformed are individually set in comparison with the configuration calculated from the equation given calculation equations of each coordinate. Can reduce the processing load required for

特徴I9.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴I8に記載の遊技機。   Feature I9. The game according to the feature I8, wherein the changing means does not change the coordinates of the vertexes related to the outer edge of the individual image based on the object to be deformed among the vertices constituting the object to be deformed Machine.

特徴I9によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象画像を変化させることができる。   According to the feature I9, the coordinates of the vertex of the outer edge of the individual image based on the object to be deformed are not changed, so that the boundary between the individual image based on the deformed object and the surrounding image is less noticeable. As a result, it is possible to change the change target image while matching the two.

特徴I10.前記変形対象オブジェクトは、前記変化対象画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴I7乃至I9のいずれか1に記載の遊技機。   Feature I10. The gaming machine according to any one of the features I7 to I9, wherein the object to be deformed is a plate-like object having a plane set corresponding to the image to be changed.

特徴I10によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象画像を変化させるための処理負荷の軽減を図ることができる。   According to the feature I10, the deformation target object can be easily deformed by using a relatively simple plate-like object as the deformation target object. Thereby, the processing load for changing the change target image can be reduced.

特徴I11.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴I7乃至I10のいずれか1に記載の遊技機。   Feature I11. The changing unit deforms the deformation target object to generate distortion generation means for distorting the change target image (a function for executing distortion rendering operation processing in the display CPU 131, and various processing for distortion effect generation in the VDP 135 The gaming machine according to any one of the features I7 to I10, which is a function.

特徴I11によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。   According to the feature I11, distortion of the image can be expressed by deforming the object to be deformed.

特徴I12.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴I7乃至I11のいずれか1に記載の遊技機。
Feature I12. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the object to the object,
In the various parameter information, individual reflection value information (individual α) which determines the degree in the case of reflecting the color information of the texture attached to the object on the display unit for each predetermined unit area (pixel) Value) is included,
The changing unit adjusts the individual reflection value information applied to the transformation target object, so that the color information relating to the individual image based on the transformation target object is less likely to be reflected toward the outer edge of the individual image. A game machine according to any one of features I7 to I11, which is characterized in that:

特徴I12によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化した画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。   According to the feature I12, color information relating to the individual image is less likely to be reflected as it goes to the outer edge of the individual image based on the deformation target object. As a result, an image that is more familiar with other areas is displayed closer to the outer edge of the individual image based on the transformation target object. Therefore, the boundary between the area in which the changed image is displayed and the other area can be made inconspicuous.

特徴I13.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴I7乃至I12のいずれか1に記載の遊技機。
Feature I13. The data generation means generates the generated data based on applying various parameter information that determines the display mode of the image by the object to the object,
The various parameter information includes reflection value information (uniform α value) for determining the degree of reflecting the color information of the texture attached to the object on the display unit.
The changing means gradually adjusts the reflection value information applied to the object to be deformed, thereby making it possible not to reflect the color information relating to the individual image based on the object to be deformed gradually (display A game machine according to any one of features I7 to I12, characterized in that the CPU 131 has a function of executing the processing of step S4519.

特徴I13によれば、変形対象オブジェクトに基づく画像は徐々に消えていくため、当該画像が消えていく過程が目立ちにくい。これにより、変形対象オブジェクトに基づく画像が消えていく場合に遊技者に与える違和感を軽減することができる。   According to the feature I13, since the image based on the transformation target object gradually disappears, the process in which the image disappears is less noticeable. This makes it possible to reduce the discomfort given to the player when the image based on the transformation target object disappears.

特徴I14.前記第1生成データは、前記表示部全体に表示される背景画像に係る画像データであることを特徴とする特徴I1乃至I13のいずれか1に記載の遊技機。   Feature I14. The gaming machine according to any one of the features I1 to I13, wherein the first generation data is image data related to a background image displayed on the entire display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を加工するために複数種類の背景画像データを用意すると、データ量が大きくなり易い。   Since the background image is displayed on the entire display unit, the data amount of the image data tends to be large compared to the individual image displayed on a part of the display unit. For this reason, if a plurality of types of background image data are prepared to process a part of the background image, the amount of data tends to be large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を用いた演出を行うことができるため、データ量を好適に削減することができる。   On the other hand, according to the present feature, effects can be performed using a part of the background image without preparing a plurality of types of background image data, so the amount of data can be suitably reduced.

上記特徴I群は以下の課題に対して効果的である。   The above feature group I is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。   To explain in more detail the case of displaying an image using two-dimensional image data, the memory for image data stores image data for displaying a background and image data for displaying a character or the like. It is done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated with respect to a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, the display unit displays an image in which a character or the like is arranged in front of the background.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, a polygon, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, by outputting a signal to the display device based on the generated data, a stereoscopic image is displayed.

ここで、表示演出への注目度を高めるには、表示演出の多様化を図ることが考えられる。しかしながら、当該表示演出の多様化を図るために画像データを複数設ける構成とすると、データ量の増大化が懸念される。   Here, in order to increase the degree of attention to the display effect, it is conceivable to diversify the display effect. However, if a plurality of image data are provided to diversify the display effects, an increase in the amount of data is concerned.

<特徴J群>
特徴J1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、前記表示部に表示される特定個別画像(背景画像、キャラクタ画像CP22)の一部である変化対象部位(歪み領域PE1、重ね合わせ領域PE2)を、特定画像データを用いて変化させることにより前記特定個別画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させる機能、及び各部分画像CP23〜CP25を表示させる機能)を備えていることを特徴とする遊技機。
<Feature J group>
Feature J1. Display means (symbol display device 31) having a display unit (display surface G);
An image is displayed on the display unit using generation data (drawing data) generated by data generation means (a function of creating a drawing list in the display CPU 131 and a function of executing drawing processing in the VDP 135), and predetermined Display control means (display CPU 131 and VDP 135) for updating the contents of the image when the update timing has come;
In the gaming machine provided with
The data generation unit uses a specific image data to change target portions (distortion area PE1, superposition area PE2) which are a part of the specific individual image (background image, character image CP22) displayed on the display unit. It is characterized by having changing means (a function to display each distortion image CP15 and CP16 in the display CPU 131 and VDP 135, and a function to display each partial image CP23 to CP25) which changes the specific individual image by changing it. Gaming machine.

特徴J1によれば、特定画像データを用いることにより変化対象画像を変化させることで特定個別画像を変化させることができる。これにより、表示演出の多様化を図ることができる。この場合、特定画像データは変化対象部位を変化させるためのものであるため、特定個別画像全体に対応する画像データと比較して、特定画像データに係るデータ量を小さくすることができる。よって、表示演出の多様化を図りつつ、当該多様化に伴うデータ量の増大化を抑制することができる。   According to the feature J1, the specific individual image can be changed by changing the change target image by using the specific image data. Thereby, diversification of display effects can be achieved. In this case, since the specific image data is for changing the change target portion, the data amount related to the specific image data can be reduced as compared with the image data corresponding to the entire specific individual image. Therefore, it is possible to suppress an increase in the amount of data accompanying the diversification while aiming to diversify display effects.

特徴J2.前記データ生成手段は、前記特定個別画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記変化手段は、前記変化対象部位において前記所定生成データに係る画像に代えて前記特定画像データに基づく画像が表示されるようにするものであることを特徴とする特徴J1に記載の遊技機。
Feature J2. The data generation means includes means for generating predetermined generation data corresponding to the specific individual image (function to execute the process of step S4608 in the VDP 135),
The gaming machine according to Feature J1, wherein the changing means is configured to display an image based on the specific image data instead of the image relating to the predetermined generation data at the change target portion.

特徴J2によれば、変化対象部位において所定生成データに係る画像に代えて特定画像データに基づく画像が表示されることにより、特定個別画像が変化する。これにより、所定生成データに係る画像と特定画像データに係る画像とを組み合わせる構成と比較して、変化対象部位の変化を容易に行うことができる。   According to the feature J2, the image based on the specific image data is displayed in place of the image related to the predetermined generation data in the change target region, so that the specific individual image changes. Thereby, the change target portion can be easily changed as compared with the configuration in which the image according to the predetermined generation data and the image according to the specific image data are combined.

特徴J3.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616及びステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、前記変化対象部位に対応させて設定された特定テクスチャであり、
前記変化手段は、前記特定テクスチャを用いて前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Feature J3. The data generation means
Arrangement means for arranging an object in a virtual three-dimensional space (a function of executing the processing of step S4602, step S4609, step S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of executing conversion processing to the camera coordinate system and conversion processing to the visual coordinate system in the VDP 135);
Sticking means for sticking a texture to the object (function of executing the processing of step S4607 and step S4615 in the VDP 135);
Setting means for drawing which projects the object on a projection plane set based on the viewpoint and generates the generated data based on the data projected on the projection plane (steps S4608 in step VDP135, steps S4616 and S4617 Function to execute processing),
Equipped with
The object includes a specific object which is used to display the specific individual image and in which the change target portion is set.
The specific image data is a specific texture set corresponding to the change target site,
The gaming machine according to the feature J1 or J2, wherein the changing unit changes an image displayed on the change target portion using the specific texture.

特徴J3によれば、特定テクスチャを用いて変化対象部位に表示される画像を変化させることができる。この場合、特定テクスチャは変化対象部位に対応させて設定されているため、特定オブジェクト全体に係るテクスチャを用意する構成と比較して、特定テクスチャのデータ量が小さくなり易い。これにより、データ量の削減を図ることができる。   According to the feature J3, it is possible to change the image displayed on the change target portion using the specific texture. In this case, since the specific texture is set to correspond to the change target portion, the data amount of the specific texture tends to be small as compared with the configuration in which the texture related to the entire specific object is prepared. Thereby, the amount of data can be reduced.

特徴J4.前記オブジェクトには、前記変化対象部位に対応させて形成された板状オブジェクトが含まれており、
前記変化手段は、前記変化対象部位に対して前記板状オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記板状オブジェクトを配置し、前記板状オブジェクトに対して前記特定テクスチャを貼り付けることにより、前記変化対象部位の画像を前記特定テクスチャに対応した画像に変化させるものであることを特徴とする特徴J3に記載の遊技機。
Feature J4. The object includes a plate-like object formed in correspondence with the change target portion,
The changing unit arranges the specific object and the plate-like object so that the plate-like object overlaps the view target with respect to the change target portion, and pastes the specific texture to the plate-like object. A game machine according to feature J3, characterized in that the image of the change target portion is changed to an image corresponding to the specific texture.

特徴J4によれば、板状オブジェクトは比較的頂点が少ないポリゴンであるため、板状オブジェクトの頂点数が特定オブジェクトにおける変化対象部位に対応する頂点数よりも少なくない易い。これにより、特定オブジェクトの変化対象部位に対して特定テクスチャを貼り付ける構成と比較して、特定テクスチャを貼り付ける処理負荷を軽減することができる。   According to the feature J4, since the plate-like object is a polygon having a relatively small number of vertices, the number of vertexes of the plate-like object is easily smaller than the number of vertices corresponding to the change target portion in the specific object. As a result, compared with the configuration in which the specific texture is attached to the change target portion of the specific object, the processing load for attaching the specific texture can be reduced.

また、変化させる場合と変化させない場合とを、板状オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。   Further, since the case of changing and the case of not changing can be dealt with depending on whether or not the plate-like object is arranged, it is possible to relatively easily switch between the case of changing and the case of not changing.

特徴J5.前記特定テクスチャは複数種類用意されており、
前記変化手段は、予め定められた更新タイミングとなる度に、前記複数種類の特定テクスチャを予め定められた順序で用いることにより、前記変化対象部位において一連の動作が行われるようにするものであることを特徴とする特徴J4に記載の遊技機。
Feature J5. A plurality of types of specific textures are prepared,
The changing unit is configured to perform a series of operations on the change target portion by using the plurality of types of specific textures in a predetermined order each time a predetermined update timing is reached. The gaming machine according to feature J4, characterized in that

特徴J5によれば、用いる特定テクスチャが予め定められた順序で用いられることにより、変化対象部位にて一連の動作が行われる。この場合、1の特定テクスチャのデータ量は特定オブジェクト全体のテクスチャのデータ量よりも小さくなっているため、一連の動作に係るデータ量を大幅に小さくすることができる。これにより、少ないデータ量で上記一連の動作に係る画像の表示を行うことができる。   According to the feature J5, a series of operations are performed at the change target portion by using the specific textures to be used in a predetermined order. In this case, since the data amount of one specific texture is smaller than the data amount of the texture of the entire specific object, the data amount related to the series of operations can be significantly reduced. As a result, it is possible to display an image according to the series of operations with a small amount of data.

特徴J6.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616、ステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、変形対象として設定された変形対象オブジェクトであり、
前記変化手段は、前記変化対象部位に対して前記変形対象オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Feature J6. The data generation means
Arrangement means for arranging an object in a virtual three-dimensional space (a function of executing the processing of step S4602, step S4609, step S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of executing conversion processing to the camera coordinate system and conversion processing to the visual coordinate system in the VDP 135);
Sticking means for sticking a texture to the object (function of executing the processing of step S4607 and step S4615 in the VDP 135);
Setting means for drawing which projects the object on a projection plane set based on the viewpoint and generates the generated data based on the data projected on the projection plane (steps S4608 in step VDP135, step S4616, step S4617 Function to execute processing),
Equipped with
The object includes a specific object which is used to display the specific individual image and in which the change target portion is set.
The specific image data is a transformation target object set as a transformation target,
The changing unit arranges the specific object and the deformation target object such that the deformation target object overlaps the change target portion from the viewpoint side, and deforms the deformation target object. A game machine according to feature J1 or feature J2, characterized in that the image displayed on is changed.

特徴J6によれば、変化対象部位と重なるように変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、変形対象オブジェクトに基づく個別画像が変化し、変化対象部位に表示される画像が変化することとなる。これにより、画像を変化させるための画像データとしてテクスチャを複数用意する必要がない点でデータ量の削減を図ることができる。   According to the feature J6, the deformation target object is disposed so as to overlap the change target portion, and the individual image based on the deformation target object is changed by deforming the deformation target object, and the image displayed in the change target portion is It will change. As a result, it is possible to reduce the amount of data because it is not necessary to prepare a plurality of textures as image data for changing an image.

特徴J7.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴J6に記載の遊技機。   Feature J7. The game according to the feature J6, wherein the change means is configured to deform the object to be deformed by individually updating at least a part of the coordinates of the vertices constituting the object to be deformed. Machine.

特徴J7によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。   According to the feature J7, it is possible to change the individual image based on the object to be deformed by updating the coordinates of at least a part of the vertices of the vertices constituting the object to be deformed.

なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。   Note that “the coordinate mapping data for specifying the coordinates of each vertex constituting the object to be deformed is provided, and a plurality of types of coordinate mapping data are set with different designated coordinates, The changing unit updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referred to each time a predetermined update timing comes, so that the object to be deformed is changed. It is good to say that it is to be deformed so as to shake. According to this configuration, the fluctuation of the image can be expressed, and the coordinates of each vertex of the object to be deformed are individually set in comparison with the configuration calculated from the equation given calculation equations of each coordinate. Can reduce the processing load required for

特徴J8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴J7に記載の遊技機。   Feature J8. The game according to the feature J7, wherein the changing means does not change coordinates of vertices related to the outer edge of the individual image based on the object to be deformed among the vertices constituting the object to be deformed Machine.

特徴J8によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変化対象部位に係る画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象部位の画像を変化させることができる。   According to the feature J8, the coordinates of the vertex of the outer edge of the individual image based on the deformation target object are not changed, so that the boundary between the image of the change target portion and the surrounding image is less noticeable. This makes it possible to change the image of the change target portion while making both fit.

特徴J9.前記変形対象オブジェクトは、前記変化対象部位に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴J6乃至J8のいずれか1に記載の遊技機。   Feature J9. The gaming machine according to any one of the features J6 to J8, wherein the object to be deformed is a plate-like object having a plane set to correspond to the change target portion.

特徴J9によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象部位を変化させるための処理負荷の軽減を図ることができる。   According to the feature J9, the deformation target object can be easily deformed by using a relatively simple plate-like object as the deformation target object. Thereby, the processing load for changing the change target portion can be reduced.

特徴J10.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象部位に係る画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴J6乃至J9のいずれか1に記載の遊技機。   Feature J10. The changing means is a distortion forming means for distorting an image relating to the change target portion by deforming the deformation target object (a function of executing distortion rendering operation processing in the display CPU 131, and various processing for distortion effect in the VDP 135 A game machine according to any one of features J6 to J9, which is a function of performing

特徴J10によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。   According to the feature J10, distortion of an image can be expressed by deformation of the deformation target object.

特徴J11.前記変化手段は、前記特定オブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記変化対象部位に表示される画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴J6乃至J10のいずれか1に記載の遊技機。   Feature J11. The changing unit arranges the deformation target object closer to the viewpoint than the specific object, and pastes, as the texture, image data corresponding to an image displayed in the change target portion on the deformation target object. A game machine according to any one of features J6 to J10, which is characterized in that

特徴J11によれば、変形対象オブジェクトを変形させることにより変化対象部位の画像が変化することとなる。これにより、変化させる場合と変化させない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。   According to the feature J11, the image of the change target portion is changed by changing the deformation target object. As a result, it is possible to achieve commonality of processing in that it is not necessary to differentiate processing for a predetermined object between the case of changing and the case of not changing.

また、変化させる場合と変化させない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。   Moreover, since the case of changing and the case of not changing can be dealt with depending on whether or not the transformation target object is arranged, it is possible to switch between the case of changing and the case of not changing relatively easily.

特徴J12.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記特定オブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記特定オブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記特定個別画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記特定個別画像の前記変化対象部位に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記変化手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像を変化させるものであることを特徴とする特徴J11に記載の遊技機。
Feature J12. The arrangement means includes means for arranging the specific object among a plurality of objects set as display targets (a function of executing the process of step S4602 in the VDP 135),
A unit for projecting the specific object and generating predetermined generation data corresponding to an image including the specific individual image based on the data projected onto the projection plane (the processing in step S4608 in the VDP 135 Function to execute)
The data generation unit generates texture to be attached to the object to be deformed by extracting image data corresponding to the change target portion of the specific individual image included in the predetermined generation data (a texture generation unit in VDP 135 Function to execute the processing of step S4801 and step S4802).
The changing unit arranges at least the object to be deformed in the virtual three-dimensional space, pastes the texture generated by the texture generation unit onto the object to be deformed, and projects the object to be deformed. The game machine according to Feature J11, wherein the image of the change target portion is changed.

特徴J12によれば、特定オブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、変化対象部位に係る画像を変化させることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。   According to the feature J12, the predetermined generation data is generated by performing the first projection on the specific object, and the texture to be attached to the deformation target object is generated using the predetermined generation data. Then, by performing the second projection on the deformation target object to which the texture is attached, it is possible to change the image related to the change target portion. As a result, it is possible to reduce the amount of data in that there is no need to store in advance the texture to be attached to the transformation target object.

また、変形対象オブジェクトに対して貼り付けられるテクスチャは、特定オブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に特定オブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。   In addition, since the texture to be attached to the transformation target object is generated by projecting the specific object, the image relating to the texture is displayed by using the specific object. Can be similar to the image. This makes it possible to blend the image based on the object to be deformed with the image around it.

さらに、特定オブジェクトに対して貼り付けるテクスチャを生成する処理と、変化対象部位の画像を変化させる処理とが投影するという点で共通しているため、両者の処理構成の共通化を図ることができる。   Furthermore, since the process of generating the texture to be attached to the specific object and the process of changing the image of the change target portion are common in that they project, it is possible to share the processing configuration of both. .

特徴J13.前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴J12に記載の遊技機。
Feature J13. The specific individual image is configured to be able to be updated each time the update timing is reached,
The predetermined generation data is generated each time the update timing comes,
The texture generation unit is characterized in that the texture generation unit generates a texture to be attached to the object to be deformed using the predetermined generation data generated at the update timing each time the update timing is reached. The gaming machine described in J12.

特徴J13によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、特定個別画像が更新された場合であっても、当該更新された特定個別画像を変化させることができる。   According to the feature J13, predetermined generation data is generated each time the update timing comes, and the texture to be attached to the deformation target object is generated. Thereby, even when the specific individual image is updated, the updated specific individual image can be changed.

なお、「前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記特定オブジェクトが配置される座標を更新することにより、前記特定個別画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。   In addition, as a specific configuration of “the specific individual image is configured to be updateable each time the update timing is reached”, for example, “the placement unit is configured to set the specific object every time the update timing occurs. It is considered that “the specific individual image is scrolled in a predetermined direction by updating the coordinates to be arranged” and “a configuration in which the viewpoint is moved in a predetermined direction every time the update timing is reached”. Be

特徴J14.前記変化手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像が変化した変化生成データを作成するものであり、
前記データ生成手段は、前記所定生成データと前記変化生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴J12又は特徴J13に記載の遊技機。
Feature J14. The changing unit arranges the object to be deformed in the virtual three-dimensional space, pastes a corresponding texture to the object to be deformed, and projects the object to be deformed. It creates change generation data in which the image has changed,
The data generation means is provided with a combination means (function of executing the process of step S4617 in VDP 135) for generating one generation data by combining the predetermined generation data and the change generation data. The gaming machine according to the feature J12 or the feature J13.

特徴J14によれば、特定個別画像を含む画像に対応した所定生成データを生成する処理と、変化生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。   According to the feature J14, the process of generating the predetermined generation data corresponding to the image including the specific individual image and the process of generating the change generation data are separated, and one generation data is generated by combining the two. By setting it, it is possible to use the process of generating the texture to be attached to the transformation target object as the process of generating one generation data. Thereby, the processing load can be reduced.

また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。   Further, according to the above-mentioned feature, it is possible to reduce the number of objects which are redundantly arranged in two projections. Thereby, the processing load resulting from the overlapping arrangement and the overlapping projection can be reduced.

特徴J15.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記個別反映値情報を調整することにより、前記特定画像データに基づく画像に係る前記色情報が当該画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴J1乃至J14のいずれか1に記載の遊技機。
Feature J15. The data generation means generates the generated data based on application of various parameter information that determines the display mode of the image according to the image data to the image data.
The various parameter information includes individual reflection value information (individual α value) which determines the degree in the case where the color information of the image data is reflected on the display unit for each predetermined unit area (pixel),
The changing unit may adjust the individual reflection value information applied to the specific image data so that the color information related to the image based on the specific image data is less likely to be reflected toward the outer edge of the image. A game machine according to any one of features J1 to J14, which is characterized in that:

特徴J15によれば、特定画像データに基づく画像の外縁に向かうに従って当該画像に係る色情報が反映されにくくなっている。これにより、特定画像データに基づく画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化対象部位の画像と他の領域の画像との境界を目立ちにくくすることができる。   According to the feature J15, color information concerning the image is less likely to be reflected as it goes to the outer edge of the image based on the specific image data. As a result, an image which is familiar with other areas is displayed on the outer edge side of the image based on the specific image data. Therefore, the boundary between the image of the change target portion and the image of the other area can be made inconspicuous.

特徴J16.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記反映値情報を段階的に調整することにより、徐々に前記特定画像データの色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴J1乃至J15のいずれか1に記載の遊技機。
Feature J16. The data generation means generates the generated data based on application of various parameter information that determines the display mode of the image according to the image data to the image data.
The various parameter information includes reflection value information (uniform α value) for determining the degree of the color information of the image data to be reflected on the display unit,
The change unit is configured to make the color information of the specific image data not to be reflected gradually by adjusting the reflection value information applied to the specific image data in a stepwise manner (in step S4519 in the display CPU 131). A game machine according to any one of features J1 to J15, characterized in that the game machine has a function of executing a process.

特徴J16によれば、変化対象部位に表示される特定画像データに基づく画像は徐々に消えていくため、変化画像が消えていく過程が目立ちにくい。これにより、変化画像が消えていく場合に遊技者に与える違和感を軽減することができる。   According to the feature J16, since the image based on the specific image data displayed at the change target portion gradually disappears, the process of the change image disappearing is less noticeable. This makes it possible to reduce the discomfort given to the player when the change image disappears.

特徴J17.前記特定個別画像は、前記表示部に表示される背景画像の一部であることを特徴とする特徴J1乃至J16のいずれか1に記載の遊技機。   Feature J17. The gaming machine according to any one of the features J1 to J16, wherein the specific individual image is a part of a background image displayed on the display unit.

背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を変化させるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。   Since the background image is displayed on the entire display unit, the data amount of the image data tends to be large compared to the individual image displayed on a part of the display unit. For this reason, if a plurality of types of background image data are prepared to change part of the background image, the amount of data tends to be large.

これに対して、本特徴によれば、背景画像データを複数種類用意することなく、当該背景画像の一部を変化させることができるため、データ量を好適に削減することができる。   On the other hand, according to the present feature, since a part of the background image can be changed without preparing a plurality of types of background image data, the data amount can be suitably reduced.

上記特徴J群は以下の課題に対して効果的である。   The above-mentioned feature J group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。   To explain in more detail the case of displaying an image using two-dimensional image data, the memory for image data stores image data for displaying a background and image data for displaying a character or the like. It is done. Further, by reading out the image data, generated data for displaying a character or the like in front of the background is generated with respect to a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, the display unit displays an image in which a character or the like is arranged in front of the background.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, a polygon, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, by outputting a signal to the display device based on the generated data, a stereoscopic image is displayed.

ここで、表示部に表示されている画像の一部を変化させる表示演出を行うことで、表示演出の多様化を図ることが可能となると考えられる。しかしながら、当該表示演出を行うために例えば表示部全体の画像データを設ける構成とすると、データ量の増大化が懸念される。   Here, it is considered possible to diversify display effects by performing display effects for changing a part of the image displayed on the display unit. However, if, for example, image data of the entire display unit is provided to perform the display effect, an increase in the amount of data is concerned.

<特徴K群>
特徴K1.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる所定オブジェクト(各オブジェクトOB1〜OB4)が含まれており、さらに前記テクスチャには、前記所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記所定オブジェクトを見た場合の画像に対応した所定テクスチャ(各テクスチャTD1〜TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature K group>
Feature K1. Arrangement means for arranging objects that are three-dimensional information in a virtual three-dimensional space (function to execute the processing of steps S1002 to S1004 in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (VDP 135 A function of executing the processing of step S1005 and step S1006), a sticking unit for sticking a texture to the object (a function of executing setting processing of color information in the VDP 135), and a projection plane set based on the viewpoint Projection means for projecting the object (functions of executing the processing of steps S1010 and S1011 in the VDP 135), and drawing setting means for generating generation data (drawing data) based on the data projected on the projection plane. In VDP 135 And function executing the processing in step S1010~ step S1012), the data generating means having a (storage means for storing the generated data generated by the display CPU 131, VDP135) (frame buffer 142),
A display control unit (VDP 135) for displaying an image corresponding to the generated data stored in the storage unit on the display unit (display surface G) and updating the content of the image when a predetermined update timing is reached ,
In the gaming machine provided with
The objects include predetermined objects (objects OB1 to OB4) used when displaying a predetermined first predetermined image (sand beach background image BP10) on the display unit, and the texture further includes the objects. It is a texture to be attached to a predetermined object, and includes predetermined textures (each texture TD1 to TD4) corresponding to an image when the predetermined object is viewed from a predetermined specific viewpoint,
The projection means comprises perspective projection and parallel projection as a projection pattern for projecting the object onto the projection plane,
The data generation means
First generation means for generating generation data corresponding to the first predetermined image using the predetermined object and the predetermined texture by setting the viewpoint to the specific viewpoint and setting the projection pattern to the perspective projection (A function to execute a calculation process for a sandy beach background in the display CPU 131, and a function to execute a drawing process in the VDP 135),
A second predetermined image different from the first predetermined image using the predetermined object and the predetermined texture by changing the viewpoint from the specific viewpoint to a predetermined changed viewpoint and setting the projection pattern to the parallel projection Second generation means for generating generation data corresponding to (function to execute background computing processing of a beach sprint running effect in display CPU 131, and function to execute drawing processing in VDP 135);
A game machine characterized by comprising:

特徴K1によれば、視点を特定視点に設定し且つ投影パターンとして透視投影を設定し、さらに所定テクスチャを所定オブジェクトに対して貼り付けることにより、所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。   According to the feature K1, the first predetermined image is set without complicating the predetermined object by setting the viewpoint as the specific viewpoint, setting the perspective projection as the projection pattern, and pasting the predetermined texture to the predetermined object. Can be a perspective image.

かかる構成において、所定テクスチャは、特定視点から所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間で遠近感が整合しない。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。   In such a configuration, the predetermined texture corresponds to the image when the predetermined object is viewed from the specific viewpoint, so when the viewpoint is changed from the specific viewpoint to the change viewpoint, the image displayed by the predetermined object and the predetermined texture, and the like The perspective does not match with the image of. For this reason, the second predetermined image becomes an image having a sense of discomfort, which may cause the player to feel discomfort.

これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。   On the other hand, according to the present feature, since the second predetermined image is generated by performing perspective projection without considering the depth, between the predetermined object and the image displayed by the predetermined texture, and the other image It is possible to adjust the sense of perspective in This makes it possible to display two different predetermined images while using the same texture. Therefore, diversification of display effects can be achieved while suppressing an increase in the amount of data.

特徴K2.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる複数の所定オブジェクト(各オブジェクトOB1〜OB4)が含まれており、さらに前記テクスチャには、前記各所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記各所定オブジェクトを見た場合の画像に対応した複数の所定テクスチャ(各テクスチャTD1〜TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像(演出用背景画像BP20)に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
Feature K2. Arrangement means for arranging objects that are three-dimensional information in a virtual three-dimensional space (function to execute the processing of steps S1002 to S1004 in VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (VDP 135 A function of executing the processing of step S1005 and step S1006), a sticking unit for sticking a texture to the object (a function of executing setting processing of color information in the VDP 135), and a projection plane set based on the viewpoint Projection means for projecting the object (functions of executing the processing of steps S1010 and S1011 in the VDP 135), and drawing setting means for generating generation data (drawing data) based on the data projected on the projection plane. In VDP 135 And function executing the processing in step S1010~ step S1012), the data generating means having a (storage means for storing the generated data generated by the display CPU 131, VDP135) (frame buffer 142),
A display control unit (VDP 135) for displaying an image corresponding to the generated data stored in the storage unit on the display unit (display surface G) and updating the content of the image when a predetermined update timing is reached ,
In the gaming machine provided with
The object includes a plurality of predetermined objects (objects OB1 to OB4) used when displaying a predetermined first predetermined image (sand beach background image BP10) on the display unit, and the texture is further included in the texture And a plurality of predetermined textures (each texture TD1 to TD4) corresponding to an image when the predetermined objects are viewed from a predetermined specific viewpoint, which is a texture to be attached to the predetermined objects. Yes,
The projection means comprises perspective projection and parallel projection as a projection pattern for projecting the object onto the projection plane,
The data generation means
By setting the viewpoint to the specific viewpoint and setting the projection pattern to the perspective projection, generation data corresponding to the first predetermined image is generated using the predetermined objects and the predetermined textures. Generation means (a function for executing a calculation process for a sandy beach background in the display CPU 131, and a function for performing a drawing process in the VDP 135);
By changing the viewpoint from the specific viewpoint to a predetermined change viewpoint and setting the projection pattern to the parallel projection, a second different from the first predetermined image using the predetermined objects and the predetermined textures Second generation means (a function for executing background calculation processing of a beach sprint running effect in the display CPU 131, a function for executing drawing processing in the VDP 135) for generating generation data corresponding to a predetermined image (background image BP20 for presentation);
A game machine characterized by comprising:

特徴K2によれば、投影パターンとして透視投影を設定するとともに、各所定オブジェクトを奥行き方向に異なる位置に配置し、さらに各所定テクスチャを各所定オブジェクトに対して貼り付けることにより、各所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。   According to the feature K2, the perspective projection is set as the projection pattern, each predetermined object is arranged at a different position in the depth direction, and each predetermined texture is attached to each predetermined object, thereby complicating each predetermined object. The first predetermined image can be an image with a sense of perspective without being

かかる構成において、各所定テクスチャは、特定視点から各所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると、ある所定オブジェクト及びそれに対応した所定テクスチャにより表示される画像と、他の所定オブジェクト及びそれに対応した所定テクスチャとにより表示される画像との間で遠近感が整合しなくなる。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。   In such a configuration, since each predetermined texture corresponds to an image when each predetermined object is viewed from a specific viewpoint, when the viewpoint is changed from the specific viewpoint to a change viewpoint, a certain predetermined object and a corresponding predetermined texture are used. The perspective does not match between the displayed image and the image displayed by the other predetermined object and the corresponding predetermined texture. For this reason, the second predetermined image becomes an image having a sense of discomfort, which may cause the player to feel discomfort.

これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、両者の間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。   On the other hand, according to the present feature, since the second predetermined image is generated by performing perspective projection in which the depth is not taken into consideration, it is possible to achieve alignment of perspective between the two. This makes it possible to display two different predetermined images while using the same texture. Therefore, diversification of display effects can be achieved while suppressing an increase in the amount of data.

特徴K3.前記第2生成手段は、前記各所定オブジェクトを用いて表示される各画像をそれぞれ同一方向に移動させることにより前記第2所定画像が移動するように前記生成データを生成するものであることを特徴とする特徴K2に記載の遊技機。   Feature K3. The second generation means generates the generation data such that the second predetermined image moves by moving the respective images displayed using the respective predetermined objects in the same direction. The gaming machine according to the feature K2.

特徴K3によれば、各所定オブジェクトを用いて表示される各画像を同一方向に移動させることにより、第2所定画像を移動させることができ、表示演出の多様化を図ることができる。一方、各画像を同一方向に移動させると、各画像間の遠近感の不整合が目立ち易くなり、第2所定画像が移動する表示演出が違和感のあるものとなり易い。   According to the feature K3, by moving the respective images displayed using the respective predetermined objects in the same direction, the second predetermined image can be moved, and diversification of display effects can be achieved. On the other hand, when the respective images are moved in the same direction, the misalignment of the perspectives between the respective images is likely to be noticeable, and the display effect in which the second predetermined image moves tends to be uncomfortable.

これに対して、特徴K2によれば、平行投影を行うことにより第2所定画像に対応した生成データを生成する構成としたことにより、上記不整合を目立ちにくくすることができるため、上記表示演出を好適に行うことができる。   On the other hand, according to the feature K2, the generation of the generation data corresponding to the second predetermined image is performed by performing parallel projection, so that the mismatch can be made inconspicuous. Can be suitably performed.

特徴K4.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記第2生成手段は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるほど、当該各所定オブジェクトに対して適用される前記倍率情報を小さく設定するものであることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Feature K4. The data generation means generates the generated data based on applying, to the object, parameter information that determines a display mode of the image by the object.
The parameter information includes magnification information of the object,
The second generation means is characterized in that the magnification information to be applied to each of the predetermined objects is set to be smaller as the distance between the change viewpoint and the predetermined objects becomes larger. The gaming machine according to feature K3.

特徴K4によれば、変更視点を基準として遠い位置に配置されている所定オブジェクトに係る画像ほど小さく表示される。これにより、擬似的に遠近感が生じるため、平行投影において遠近感のある画像を表現することができる。   According to the feature K4, the image of the predetermined object arranged at a position farther from the change viewpoint is displayed smaller. As a result, since a sense of perspective is generated in a pseudo manner, it is possible to represent an image having a sense of perspective in parallel projection.

特徴K5.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記各所定オブジェクトを平行投影した場合の当該各所定オブジェクトが投影される領域が前記各所定オブジェクトを透視投影した場合の領域と同一となるように、前記各所定オブジェクトの倍率情報及び座標が設定されていることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Feature K5. The data generation means generates the generated data based on applying, to the object, parameter information that determines a display mode of the image by the object.
The parameter information includes magnification information of the object,
The magnification information and coordinates of each predetermined object are set such that the area onto which each predetermined object is projected in parallel projection of each predetermined object is the same as the area in perspective projection of each predetermined object. A game machine according to feature K2 or feature K3 characterized in that

特徴K5によれば、各所定オブジェクトを平行投影することにより得られる画像を、各所定オブジェクトを透視投影することにより得られる画像に似せることができる。これにより、平行投影により得られた画像を、あたかも透視投影により得られる遠近感のある画像のように見せることができる。   According to the feature K5, an image obtained by parallel projection of each predetermined object can be made to resemble an image obtained by perspective projection of each predetermined object. This makes it possible to make the image obtained by parallel projection look as if it is a perspective image obtained by perspective projection.

特徴K6.前記第2生成手段は、少なくとも前記各所定オブジェクトを所定の速度で移動させる移動手段(表示CPU131におけるステップS4313の処理を実行する機能)を備え、
前記各所定オブジェクトの移動速度は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるに従って前記変更視点に対する前記各所定オブジェクトの相対速度が小さくなるように設定されていることを特徴とする特徴K2乃至K5のいずれか1に記載の遊技機。
Feature K6. The second generation means includes moving means (function of executing the process of step S4313 in the display CPU 131) for moving at least each of the predetermined objects at a predetermined speed,
The moving speed of each of the predetermined objects is set so that the relative speed of each of the predetermined objects with respect to the changed viewpoint becomes smaller as the distance between the changed viewpoint and the predetermined objects becomes larger. The gaming machine according to any one of K2 to K5.

特徴K6によれば、変更視点からの距離が大きい所定オブジェクトほどゆっくり移動するように見え、変更視点からの距離が小さい所定オブジェクトほど速く移動するように見える。これにより、平行投影を行う構成において擬似的に遠近感を発生させることができる。   According to the feature K6, the predetermined object having a larger distance from the change viewpoint appears to move more slowly, and the predetermined object having a smaller distance from the change viewpoint appears to move faster. Thereby, it is possible to generate a sense of perspective in a pseudo manner in the configuration in which parallel projection is performed.

特徴K7.前記各所定オブジェクトはそれぞれ板状オブジェクトであり、
前記各板状オブジェクトは、前記投影平面に対して傾斜した状態で前記特定視点の奥行き方向に並べて配置されており、
前記各所定オブジェクトに対して貼り付けられるテクスチャは、前記特定視点から見た場合の画像に対応するように前記傾斜に対応させて設定されていることを特徴とする特徴K2乃至K6のいずれか1に記載の遊技機。
Feature K7. Each of the predetermined objects is a plate-like object,
The plate-like objects are arranged in the depth direction of the specific viewpoint in a state of being inclined with respect to the projection plane,
The texture to be attached to each of the predetermined objects is set to correspond to the inclination so as to correspond to the image when viewed from the specific viewpoint, any one of the features K2 to K6. The gaming machine described in.

特徴K7によれば、透視投影を行うことにより比較的簡素な板状オブジェクトを用いて遠近感のある画像を生成することができるため、当該画像の表示に係る処理負荷を軽減することができる。一方、視点が変更することに起因する各個別画像間における遠近感のずれが目立ち易い。   According to the feature K7, since perspective projection can be used to generate an image having a perspective using a relatively simple plate-like object, the processing load relating to the display of the image can be reduced. On the other hand, a gap in perspective between individual images caused by a change in viewpoint is easily noticeable.

これに対して、上記特徴K2によれば、平行投影することにより、視点の変更に伴う遠近感のずれを抑制することができる。   On the other hand, according to the feature K2, by performing parallel projection, it is possible to suppress the shift in perspective caused by the change of the viewpoint.

上記特徴K群は以下の課題に対して効果的である。   The feature K group is effective for the following problems.

遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。   Pachinko gaming machines and slot machines are known as a type of gaming machine. As these gaming machines, one having a display device such as a liquid crystal display device is known. In the gaming machine, a memory in which data for an image is stored in advance is mounted, and a predetermined image is displayed on the display unit of the display device using the data for the image read from the memory. It becomes.

また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。   Also, in recent years, attempts have been made to display a more stereoscopic image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When the display is performed, a polygon, which is three-dimensional image data, is set in the virtual three-dimensional space, and a texture, which is two-dimensional image data such as characters and patterns, is attached to the polygon. Generated data is generated by projecting a polygon to which a texture is attached onto a plane from a desired viewpoint. Then, by outputting a signal to the display device based on the generated data, a stereoscopic image is displayed.

ここで、表示演出への遊技者の興味を高めるためには、表示演出の多様化を図ることが好ましい。その一方、表示演出の多様化を図る上で、データ量の極端な増大化は好ましくない。   Here, in order to increase the player's interest in display effects, it is preferable to diversify the display effects. On the other hand, in order to diversify display effects, it is not preferable to extremely increase the amount of data.

以下に、以上の各特徴を適用し得る各種遊技機の基本構成を示す。   Hereinafter, basic configurations of various game machines to which the above-described features can be applied will be described.

パチンコ遊技機:遊技者が操作する操作手段と、その操作手段の操作に基づいて遊技球を発射する遊技球発射手段と、その発射された遊技球を所定の遊技領域に導く球通路と、遊技領域内に配置された各遊技部品とを備え、それら各遊技部品のうち所定の通過部を遊技球が通過した場合に遊技者に特典を付与する遊技機。   Pachinko gaming machine: operation means operated by a player, game ball firing means for firing game balls based on the operation of the operation means, a ball passage for guiding the fired game balls to a predetermined game area, and a game A gaming machine comprising: each gaming component arranged in an area, and providing a bonus to a player when a gaming ball passes through a predetermined passing portion of the gaming components.

スロットマシン等の回胴式遊技機:複数の絵柄を可変表示させる絵柄表示装置を備え、始動操作手段の操作に起因して前記複数の絵柄の可変表示が開始され、停止操作手段の操作に起因して前記複数の絵柄の可変表示が停止され、その停止後の絵柄に応じて遊技者に特典を付与する遊技機。   Throttle type gaming machines such as slot machines: A pattern display device for variably displaying a plurality of patterns, variable display of the plurality of patterns is started due to the operation of the start operation means, and the cause is due to the operation of the stop operation means A game machine, wherein variable display of the plurality of symbols is stopped, and a privilege is given to the player according to the symbols after the stop.

10…パチンコ機、31…図柄表示装置、48…演出用操作装置、131…表示CPU、133…メモリモジュール、135…VDP、142…フレームバッファ、151…ジオメトリ演算部、152…レンダリング部、155…表示回路、AP1〜AP4…付属パーツ部、BP…本体パーツ部、CH15…教示用の個別画像、CH16…教示用の個別画像、KD1…第1キーデータ、KD2…第2キーデータ、ND1…第1法線マップデータ、ND2…第2法線マップデータ、PC17…粒子分散用オブジェクト、PC19…海面用オブジェクト、PC20…特別オブジェクト、PC21〜PC23…第1部分テクスチャ、PC24〜PC27…第2部分テクスチャ、PT1…粒子単体画像、PT2…粒子単体画像、SD…面データ、SD1…適用対象の面データ、SD2…緩衝用の面データ、RMD0…ラウンド動画像データ、IPD0…挿入画像データ、IP1…第1挿入キャラクタ画像、IP2…第2挿入キャラクタ画像、RMD0a…第1ラウンド動画像データ、RMD0b…第2ラウンド動画像データ、OB1…砂浜オブジェクト、OB2…波オブジェクト、OB3…海オブジェクト、OB4…空オブジェクト、TD1…砂浜テクスチャ、TD2…波テクスチャ、TD3…海テクスチャ、TD4…空テクスチャ、PV1…特定視点、PV2…別視点、BP10…砂浜背景画像、BP20…演出用背景画像、OB10…屈折用オブジェクト、SKD1…屈折用αデータ、MD1…第1座標マッピングデータ、MD2…第2座標マッピングデータ、CP13…膨張珊瑚画像、CP14…収縮珊瑚画像、CP15…第1歪み画像、CP16…第2歪み画像、PE1…歪み領域、OB21…ベースオブジェクト、OB22…部分オブジェクト、OB31…頭部オブジェクト、TD11…ベーステクスチャ、TD12…部分テクスチャ、TD21〜TD23…第1〜第3部分テクスチャ、CP21…ベース画像、CP23〜CP25…第1〜第3部分画像、PE2…重ね合わせ領域。   DESCRIPTION OF SYMBOLS 10 ... Pachinko machine, 31 ... Symbol display apparatus, 48 ... Operation device for effects, 131 ... Display CPU, 133 ... Memory module, 135 ... VDP, 142 ... Frame buffer, 151 ... Geometry operation part, 152 ... Rendering part, 155 ... Display circuit, AP1 to AP4 ... attached parts, BP ... body parts, CH15 ... individual image for teaching, CH16 ... individual image for teaching, KD1 ... first key data, KD2 ... second key data, ND1 ... second 1 Normal Map Data, ND 2 ... Second Normal Map Data, PC 17 ... Object for Particle Dispersion, PC 19 ... Object for Sea Surface, PC 20 ... Special Object, PC 21 to PC 23 ... First Partial Texture, PC 24 to PC 27 ... Second Partial Texture , PT1 ... particle single image, PT 2 ... particle single image, SD ... surface data, SD ... Face data to be applied, SD2 ... Face data for buffering, RMD 0 ... Round moving image data, IPD 0 ... Insertion image data, IP 1 ... First insertion character image, IP 2 ... Second insertion character image, RMD 0 a ... First round moving image Image data, RMD0b ... second round moving image data, OB1 ... sandy object, OB2 ... wave object, OB3 ... sea object, OB4 ... sky object, TD1 ... sandy texture, TD2 ... wave texture, TD3 ... sea texture, TD4 ... sky Texture, PV1 ... specific viewpoint, PV2 ... another viewpoint, BP10 ... sandy beach background image, BP20 ... background image for presentation, OB10 ... object for refraction, SKD1 ... alpha data for refraction, MD1 ... first coordinate mapping data, MD2 ... second Coordinate mapping data, CP13 ... expanded eyebrow image, CP14: contraction eyelid image, CP15: first distortion image, CP16: second distortion image, PE1: distortion region, OB21: base object, OB22: partial object, OB31: head object, TD11: base texture, TD12: partial texture TD21 to TD23: first to third partial textures CP21: base image CP23 to CP25: first to third partial images PE2: overlapping region.

Claims (1)

表示部を有する表示手段と、
画像データを予め記憶した表示用記憶手段と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段と、
遊技球を受け入れ可能となるように開放可能な入賞手段と、
遊技者に有利な遊技状態となった場合に前記入賞手段を開放状態とした後に閉鎖状態に切り換える開閉制御を実行可能であり、当該開閉制御であるラウンド遊技を複数回実行可能な開閉制御手段と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した画像の動画を前記複数の更新タイミング分の表示期間に亘って表示させる表示演出を実行する表示演出実行手段と、
を備え、
前記動画像データは、当該動画像データにより表示される動画の態様に応じて、複数の単位動画像データに分割されており、
前記表示演出実行手段は、各前記単位動画像データによる動画を予め定められた順序で順次表示し、かつ所定の前記単位動画像データの表示と他の前記単位動画像データの表示との間に所定の画像を挿入することにより、前記入賞手段の開放状態における一連の表示演出を実行するものであり、
前記所定の画像は、前記ラウンド遊技とそれに続く前記ラウンド遊技との間において挿入されるものであり、
各前記単位動画像データは、前記所定の画像が挿入される前の前記所定の単位動画像データに割り当てられるデータ量が、前記所定の画像が挿入された後の前記他の単位動画像データに割り当てられるデータ量よりも多くなるようにして圧縮されていることを特徴とする遊技機。
Display means having a display unit;
Display storage means for storing image data in advance;
A display control unit that causes the display unit to display an image using the image data stored in the display storage unit;
Winning means that can be opened to accept the game ball;
An open / close control means capable of executing an open / close control to switch the closed means to a closed state after making the winning means open when a game state advantageous to the player can be executed, ,
In the gaming machine provided with
The display storage means stores compressed moving image data used to reproduce a moving image,
The display control means
An expanding means for expanding any moving image data into an expansion area and creating still image data for a plurality of update timings with respect to an image corresponding to the moving image data;
By using still image data for a plurality of update timings expanded by the expansion means in the order defined in the moving image data, a moving image of an image corresponding to the moving image data for the plurality of update timings Display effect execution means for executing a display effect to be displayed over the display period of
Equipped with
The moving image data is divided into a plurality of unit moving image data according to an aspect of a moving image displayed by the moving image data,
The display effect execution means sequentially displays moving images according to the unit moving image data in a predetermined order, and between display of a predetermined unit moving image data and display of another unit moving image data By inserting a predetermined image, a series of display effects in the open state of the winning means are executed.
The predetermined image is to be inserted between the round game and the subsequent round game,
Each unit moving image data has a data amount allocated to the predetermined unit moving image data before the predetermined image is inserted into the other unit moving image data after the predetermined image is inserted. A game machine characterized by being compressed to be larger than the amount of data to be allocated.
JP2018234536A 2018-12-14 2018-12-14 Game machine Pending JP2019042554A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018234536A JP2019042554A (en) 2018-12-14 2018-12-14 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018234536A JP2019042554A (en) 2018-12-14 2018-12-14 Game machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017076159A Division JP2017119203A (en) 2017-04-06 2017-04-06 Game machine

Publications (1)

Publication Number Publication Date
JP2019042554A true JP2019042554A (en) 2019-03-22

Family

ID=65816023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018234536A Pending JP2019042554A (en) 2018-12-14 2018-12-14 Game machine

Country Status (1)

Country Link
JP (1) JP2019042554A (en)

Similar Documents

Publication Publication Date Title
JP5703736B2 (en) Game machine
JP6131972B2 (en) Game machine
JP5703735B2 (en) Game machine
JP5565292B2 (en) Game machine
JP5482642B2 (en) Game machine
JP6015791B2 (en) Game machine
JP5910672B2 (en) Game machine
JP5783285B2 (en) Game machine
JP6702403B2 (en) Amusement machine
JP6311762B2 (en) Game machine
JP6011659B2 (en) Game machine
JP6015792B2 (en) Game machine
JP7120408B2 (en) game machine
JP7120409B2 (en) game machine
JP7283599B2 (en) game machine
JP5703733B2 (en) Game machine
JP5703734B2 (en) Game machine
JP2017121589A (en) Game machine
JP6604394B2 (en) Game machine
JP6614261B2 (en) Game machine
JP6614262B2 (en) Game machine
JP6311763B2 (en) Game machine
JP6315047B2 (en) Game machine
JP2019042554A (en) Game machine
JP2018015579A (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20191008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407