JP6011659B2 - Game machine - Google Patents
Game machine Download PDFInfo
- Publication number
- JP6011659B2 JP6011659B2 JP2015036599A JP2015036599A JP6011659B2 JP 6011659 B2 JP6011659 B2 JP 6011659B2 JP 2015036599 A JP2015036599 A JP 2015036599A JP 2015036599 A JP2015036599 A JP 2015036599A JP 6011659 B2 JP6011659 B2 JP 6011659B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- data
- image
- mode
- executed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 1047
- 230000008569 process Effects 0.000 claims description 1008
- 230000000694 effects Effects 0.000 claims description 678
- 238000003860 storage Methods 0.000 claims description 108
- 238000013500 data storage Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 632
- 230000008859 change Effects 0.000 description 256
- 238000004364 calculation method Methods 0.000 description 227
- 230000036961 partial effect Effects 0.000 description 220
- 239000002245 particle Substances 0.000 description 194
- 230000006870 function Effects 0.000 description 185
- 239000000872 buffer Substances 0.000 description 168
- 239000006185 dispersion Substances 0.000 description 150
- 238000003780 insertion Methods 0.000 description 130
- 230000037431 insertion Effects 0.000 description 130
- 230000002829 reductive effect Effects 0.000 description 100
- 238000013507 mapping Methods 0.000 description 82
- 238000004519 manufacturing process Methods 0.000 description 80
- 239000004576 sand Substances 0.000 description 76
- 239000000203 mixture Substances 0.000 description 71
- 238000009877 rendering Methods 0.000 description 65
- 238000002156 mixing Methods 0.000 description 58
- 238000010586 diagram Methods 0.000 description 51
- 238000013461 design Methods 0.000 description 49
- 238000006073 displacement reaction Methods 0.000 description 37
- 230000033001 locomotion Effects 0.000 description 33
- 102100035590 Cohesin subunit SA-1 Human genes 0.000 description 30
- 101000803685 Homo sapiens Vacuolar protein sorting-associated protein 4A Proteins 0.000 description 23
- 101000803689 Homo sapiens Vacuolar protein sorting-associated protein 4B Proteins 0.000 description 23
- 102100035085 Vacuolar protein sorting-associated protein 4A Human genes 0.000 description 23
- 230000005540 biological transmission Effects 0.000 description 23
- 239000004973 liquid crystal related substance Substances 0.000 description 22
- 238000006243 chemical reaction Methods 0.000 description 20
- 238000011161 development Methods 0.000 description 20
- 238000007906 compression Methods 0.000 description 19
- 210000003128 head Anatomy 0.000 description 19
- 230000000007 visual effect Effects 0.000 description 19
- 230000009471 action Effects 0.000 description 16
- 230000007704 transition Effects 0.000 description 16
- 230000006835 compression Effects 0.000 description 15
- 102100031476 Cytochrome P450 1A1 Human genes 0.000 description 14
- 101000941690 Homo sapiens Cytochrome P450 1A1 Proteins 0.000 description 14
- 101000741271 Sorghum bicolor Phosphoenolpyruvate carboxylase 1 Proteins 0.000 description 13
- 238000012360 testing method Methods 0.000 description 13
- 238000009826 distribution Methods 0.000 description 12
- 238000009795 derivation Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 102100035595 Cohesin subunit SA-2 Human genes 0.000 description 10
- 101100272680 Paracentrotus lividus BP10 gene Proteins 0.000 description 10
- 238000000605 extraction Methods 0.000 description 10
- 230000009467 reduction Effects 0.000 description 10
- 230000004397 blinking Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000037303 wrinkles Effects 0.000 description 9
- 230000007423 decrease Effects 0.000 description 8
- 238000007499 fusion processing Methods 0.000 description 8
- 101100495835 Oryza sativa subsp. japonica Cht1 gene Proteins 0.000 description 7
- 101710201952 Photosystem II 22 kDa protein, chloroplastic Proteins 0.000 description 7
- 102100021941 Sorcin Human genes 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 239000002131 composite material Substances 0.000 description 6
- 230000000873 masking effect Effects 0.000 description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 102100027518 1,25-dihydroxyvitamin D(3) 24-hydroxylase, mitochondrial Human genes 0.000 description 5
- 101000849787 Brucella melitensis biotype 1 (strain 16M / ATCC 23456 / NCTC 10094) Ribosome-recycling factor Proteins 0.000 description 5
- 101000861278 Homo sapiens 1,25-dihydroxyvitamin D(3) 24-hydroxylase, mitochondrial Proteins 0.000 description 5
- 101000692872 Homo sapiens Regulator of microtubule dynamics protein 1 Proteins 0.000 description 5
- 101000667643 Homo sapiens Required for meiotic nuclear division protein 1 homolog Proteins 0.000 description 5
- 102100026432 Regulator of microtubule dynamics protein 1 Human genes 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000010304 firing Methods 0.000 description 5
- 201000002636 rippling muscle disease 1 Diseases 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 5
- 230000009192 sprinting Effects 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 101100274419 Arabidopsis thaliana CID5 gene Proteins 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 4
- 102100026533 Cytochrome P450 1A2 Human genes 0.000 description 4
- 101000855342 Homo sapiens Cytochrome P450 1A2 Proteins 0.000 description 4
- 101000692892 Homo sapiens Regulator of microtubule dynamics protein 3 Proteins 0.000 description 4
- 101000825632 Homo sapiens Spindle and kinetochore-associated protein 1 Proteins 0.000 description 4
- 102100026409 Regulator of microtubule dynamics protein 3 Human genes 0.000 description 4
- 102100022915 Spindle and kinetochore-associated protein 1 Human genes 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000001151 other effect Effects 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 241000255925 Diptera Species 0.000 description 3
- 101000692894 Homo sapiens Regulator of microtubule dynamics protein 2 Proteins 0.000 description 3
- 102100026410 Regulator of microtubule dynamics protein 2 Human genes 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000003631 expected effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 201000002992 rippling muscle disease 2 Diseases 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 241000239290 Araneae Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 239000012298 atmosphere Substances 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000283153 Cetacea Species 0.000 description 1
- 101000825598 Homo sapiens Spindle and kinetochore-associated protein 2 Proteins 0.000 description 1
- 241000238413 Octopus Species 0.000 description 1
- 241000287127 Passeridae Species 0.000 description 1
- 102100022924 Spindle and kinetochore-associated protein 2 Human genes 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 239000012790 adhesive layer Substances 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000007853 buffer solution Substances 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000002788 crimping Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Display Devices Of Pinball Game Machines (AREA)
Description
本発明は遊技機に関するものである。 The present invention relates to a gaming machine.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる(例えば特許文献1参照)。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the polygon. Generated data is generated by projecting a texture-attached polygon onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the generated data (see, for example, Patent Document 1).
ここで、遊技への注目度を高めるために、表示部に表示される画像をよりリアルに表現する演出が行われる場合がある。当該演出としては、例えば光の屈折に基づく空間の歪みを表現する演出がある。この場合、例えば光の屈折の反映度を演算により導出させる構成とすると、処理負荷の増大化が懸念される。一方、光の屈折を反映した画像データを予め記憶しておく構成とすると、データ量の増大化が懸念される。 Here, in order to increase the degree of attention to the game, there is a case where an effect of more realistically expressing the image displayed on the display unit is performed. As the said effect, there exists an effect which expresses distortion of the space based on refraction of light, for example. In this case, for example, if the reflection degree of light refraction is derived by calculation, there is a concern about an increase in processing load. On the other hand, if image data reflecting light refraction is stored in advance, there is a concern that the amount of data increases.
本発明は、上記例示した事情等に鑑みてなされたものであり、歪んだ画像を好適に表示させることが可能な遊技機を提供することを目的とするものである。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a gaming machine capable of suitably displaying a distorted image.
本発明は、
オブジェクトの画像データ及び当該オブジェクトに貼り付けられるテクスチャの画像データを含む各種画像データが記憶された画像データ記憶手段と、仮想3次元空間内に前記オブジェクトを配置する配置手段と、前記仮想3次元空間に視点を設定する視点設定手段と、前記オブジェクトに対して前記テクスチャを貼り付ける貼付手段と、前記視点に基づいて設定される投影平面に前記テクスチャが貼り付けられたオブジェクトを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段と、を有するデータ生成手段によって生成された生成データを記憶する記憶手段と、
当該記憶手段に記憶された生成データに対応した画像を表示部に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段と、
を備えている遊技機において、
前記オブジェクトには、背景画像が歪む演出を実行する場合に用いられ、かつ変形対象として設定された変形対象オブジェクトが含まれており、
前記データ生成手段は、当該変形対象オブジェクトを変形させることにより、前記画像の少なくとも一部を歪ませて、互いに歪み形状の異なる第1変形形態及び第2変形形態を形成する歪み形成手段を備え、
前記貼付手段は、前記第1変形形態とされた前記変形対象オブジェクトと、前記第2変形形態とされた前記変形対象オブジェクトに、共通の前記テクスチャを貼り付けるものであり、
前記表示制御手段は、前記第1変形形態とされた前記変形対象オブジェクトを利用した前記生成データに対応する第1変形画像と、前記第2変形形態とされた前記変形対象オブジェクトを利用した前記生成データに対応する第2変形画像とを、交互に前記表示部に表示させる手段を有し、
前記データ生成手段は、前記歪む演出中の所定のタイミングから、前記変形対象オブジェクトの透明度を、前記更新タイミング毎に所定値ずつ増加させる処理を実行することが可能な手段を有することを特徴とする。
The present invention
Image data storage means for storing various image data including image data of an object and texture image data to be pasted on the object, arrangement means for arranging the object in a virtual three-dimensional space, and the virtual three-dimensional space A viewpoint setting means for setting a viewpoint to the object, a pasting means for pasting the texture to the object, an object having the texture pasted on a projection plane set based on the viewpoint, and the projection plane Drawing setting means for generating generated data based on the data projected onto the storage means, storage means for storing the generated data generated by the data generating means,
Display control means for displaying an image corresponding to the generated data stored in the storage means on the display unit, and updating the content of the image when a predetermined update timing is reached;
In gaming machines equipped with
The object includes a deformation target object that is used when performing an effect in which the background image is distorted and is set as a deformation target.
The data generation unit includes a distortion forming unit that deforms at least a part of the image by deforming the deformation target object to form a first deformation form and a second deformation form having different distortion shapes,
The sticking means, and wherein the deformable object which is a first variant, the second variant as has been said modified target object, which pasting the texture of common,
The display control means uses the first deformation image corresponding to the generation data using the deformation target object in the first deformation mode and the generation using the deformation target object in the second deformation mode. and a second modified image corresponding to the data, have a means for displaying on the display unit alternately,
The data generation means includes means capable of executing a process of increasing the transparency of the deformation target object by a predetermined value at each update timing from a predetermined timing during the distorted effect. .
本発明によれば、歪んだ画像を好適に表示させることができる。 According to the present invention, a distorted image can be suitably displayed.
<第1の実施形態>
以下、遊技機の一種であるパチンコ遊技機(以下、「パチンコ機」という)の一実施形態を、図面に基づいて説明する。図1はパチンコ機10の正面図である。
<First Embodiment>
Hereinafter, an embodiment of a pachinko gaming machine (hereinafter referred to as “pachinko machine”), which is a type of gaming machine, will be described with reference to the drawings. FIG. 1 is a front view of the
パチンコ機10は、図1に示すように、当該パチンコ機10の外殻を形成する外枠11と、この外枠11に対して前方に回動可能に取り付けられた遊技機本体12とを有する。遊技機本体12は、内枠(図示略)と、その内枠の前方に配置される前扉枠14と、内枠の後方に配置される裏パックユニット(図示略)とを備えている。
As shown in FIG. 1, the
遊技機本体12のうち内枠が、左右両側部のうち一方を支持側として外枠11に回動可能に支持されている。また、内枠には、前扉枠14が回動可能に支持されており、左右両側部のうち一方を支持側として前方へ回動可能とされている。また、内枠には、裏パックユニットが回動可能に支持されており、左右両側部のうち一方を支持側として後方へ回動可能とされている。
The inner frame of the gaming machine
なお、遊技機本体12には、その回動先端部に施錠装置(図示略)が設けられており、遊技機本体12を外枠11に対して開放不能に施錠状態とする機能を有しているとともに、前扉枠14を内枠に対して開放不能に施錠状態とする機能を有している。これらの各施錠状態は、パチンコ機10前面にて露出させて設けられたシリンダ錠17に対して解錠キーを用いて解錠操作を行うことにより、それぞれ解除される。
Note that the
内枠には遊技盤20が搭載されている。遊技盤20には前後方向に貫通する大小複数の開口部が形成されている。各開口部には一般入賞口21,可変入賞装置22,上作動口23,下作動口24,スルーゲート25、可変表示ユニット26、メイン表示部33及び役物用表示部34等がそれぞれ設けられている。
A
一般入賞口21、可変入賞装置22、上作動口23及び下作動口24への入球が発生すると、それが遊技盤20の背面側に配設された検知センサ(図示略)により検知され、その検知結果に基づいて所定数の賞球の払い出しが実行される。その他に、遊技盤20の最下部にはアウト口27が設けられており、各種入賞口等に入らなかった遊技球はアウト口27を通って遊技領域から排出される。また、遊技盤20には、遊技球の落下方向を適宜分散、調整等するために多数の釘28が植設されていると共に、風車等の各種部材が配設されている。
When a ball enters the general winning
ここで、入球とは、所定の開口部を遊技球が通過することを意味し、開口部を通過した後に遊技領域から排出される態様だけでなく、開口部を通過した後に遊技領域から排出されない態様も含まれる。但し、以下の説明では、アウト口27への遊技球の入球と明確に区別するために、可変入賞装置22、上作動口23、下作動口24又はスルーゲート25への遊技球の入球を、入賞とも表現する。
Here, the entry ball means that the game ball passes through a predetermined opening, and is not only a mode of being discharged from the game area after passing through the opening, but is discharged from the game area after passing through the opening. Embodiments that are not included are also included. However, in the following description, in order to clearly distinguish the game ball from entering the out port 27, the game ball enters the variable winning
上作動口23及び下作動口24は、作動口装置としてユニット化されて遊技盤20に設置されている。上作動口23及び下作動口24は共に上向きに開放されている。また、上作動口23が上方となるようにして両作動口23,24は鉛直方向に並んでいる。下作動口24には、左右一対の可動片よりなるガイド片(サポート片)としての電動役物24aが設けられている。電動役物24aの閉鎖状態(非サポート状態又は非ガイド状態)では遊技球が下作動口24に入賞できず、電動役物24aが開放状態(サポート状態又はガイド状態)となることで下作動口24への入賞が可能となる。
The upper operating port 23 and the
可変入賞装置22は、遊技盤20の背面側へと通じる大入賞口22aを備えているとともに、当該大入賞口22aを開閉する開閉扉22bを備えている。開閉扉22bは、通常は遊技球が入賞できない又は入賞し難い閉鎖状態になっており、内部抽選において開閉実行モードへの移行に当選した場合に遊技球が入賞しやすい所定の開放状態に切り換えられるようになっている。ここで、開閉実行モードとは、大当たり当選となった場合に移行することとなるモードである。当該開閉実行モードについては、後に詳細に説明する。可変入賞装置22の開放態様としては、所定時間(例えば30sec)の経過又は所定個数(例えば10個)の入賞を1ラウンドとして、複数ラウンド(例えば15ラウンド)を上限として可変入賞装置22が繰り返し開放される態様がある。
The
メイン表示部33及び役物用表示部34は、遊技領域の下部側に設けられている。メイン表示部33では、上作動口23又は下作動口24への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が表示によって明示される。つまり、本パチンコ機10では、上作動口23への入賞と下作動口24への入賞とが内部抽選において区別されておらず、上作動口23又は下作動口24への入賞に基づいて行われた内部抽選の結果が共通の表示領域であるメイン表示部33にて明示される。そして、上作動口23又は下作動口24への入賞に基づく内部抽選の結果が開閉実行モードへの移行に対応した当選結果であった場合には、メイン表示部33にて所定の停止結果が表示されて変動表示が停止された後に、開閉実行モードへ移行する。
The
なお、メイン表示部33は、複数のセグメント発光部が所定の態様で配列されてなるセグメント表示器により構成されているが、これに限定されることはなく、液晶表示装置、有機EL表示装置、CRT、ドットマトリックス等その他のタイプの表示装置によって構成されていてもよい。また、メイン表示部33にて変動表示される絵柄としては、複数種の文字が変動表示される構成、複数種の記号が変動表示される構成、複数種のキャラクタが変動表示される構成又は複数種の色が切り換え表示される構成などが考えられる。
The
役物用表示部34では、スルーゲート25への入賞をトリガとして絵柄の変動表示が行われ、その変動表示の停止結果として、スルーゲート25への入賞に基づいて行われた内部抽選の結果が表示によって明示される。スルーゲート25への入賞に基づく内部抽選の結果が電役開放状態への移行に対応した当選結果であった場合には、役物用表示部34にて所定の停止結果が表示されて変動表示が停止された後に、電役開放状態へ移行する。電役開放状態では、下作動口24に設けられた電動役物24aが所定の態様で開放状態となる。
The
可変表示ユニット26には、絵柄の一種である図柄を変動表示する図柄表示装置31が設けられている。また、可変表示ユニット26には、図柄表示装置31を囲むようにしてセンターフレーム32が配設されている。このセンターフレーム32は、その上部がパチンコ機10前方に延出している。これにより、図柄表示装置31の表示面の前方を遊技球が落下していくのが防止されており、遊技球の落下により表示面の視認性が低下するといった不都合が生じない構成となっている。
The
図柄表示装置31は、液晶ディスプレイを備えた液晶表示装置として構成されており、後述する表示制御装置により表示内容が制御される。なお、図柄表示装置31は、液晶表示装置であることに限定されることはなく、プラズマディスプレイ装置、有機EL表示装置又はCRTといった他の表示装置であってもよい。
The
図柄表示装置31では、上作動口23又は下作動口24への入賞に基づいて図柄の変動表示が開始される。すなわち、メイン表示部33において変動表示が行われる場合には、それに合わせて図柄表示装置31において変動表示が行われる。そして、例えば、遊技結果が大当たり結果となる遊技回では、図柄表示装置31では予め設定されている有効ライン上に所定の組み合わせの図柄が停止表示される。
In the
図柄表示装置31の表示内容について、図2及び図3を参照して詳細に説明する。図2は図柄表示装置31にて変動表示される図柄を個々に示す図であり、図3は図柄表示装置31の表示面Gを示す図である。
The display content of the
図2(a)〜(j)に示すように、絵柄の一種である図柄は、「1」〜「9」の数字が各々付された9種類の主図柄と、貝形状の絵図柄からなる副図柄とにより構成されている。より詳しくは、タコ等の9種類のキャラクタ図柄に「1」〜「9」の数字がそれぞれ付されて主図柄が構成されている。 As shown in FIGS. 2 (a) to 2 (j), a design which is a kind of design is composed of nine main designs with numbers "1" to "9", respectively, and a shell-shaped design. It consists of sub-designs. More specifically, the main symbols are configured by attaching numbers “1” to “9” to nine types of character symbols such as octopus.
図3(a)に示すように、図柄表示装置31の表示面Gには、複数の表示領域として、上段・中段・下段の3つの図柄列SA1,SA2,SA3が設定されている。各図柄列SA1〜SA3は、主図柄と副図柄が所定の順序で配列されて構成されている。詳細には、上図柄列SA1には、「1」〜「9」の9種類の主図柄が数字の降順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。下図柄列SA3には、「1」〜「9」の9種類の主図柄が数字の昇順に配列されると共に、各主図柄の間に副図柄が1つずつ配されている。
As shown in FIG. 3A, on the display surface G of the
つまり、上図柄列SA1と下図柄列SA3は18個の図柄により構成されている。これに対し、中図柄列SA2には、数字の昇順に「1」〜「9」の9種類の主図柄が配列された上で「9」の主図柄と「1」の主図柄との間に「4」の主図柄が付加的に配列され、これら各主図柄の間に副図柄が1つずつ配されている。つまり、中図柄列SA2に限っては、10個の主図柄が配されて20個の図柄により構成されている。そして、表示面Gでは、これら各図柄列SA1〜SA3の図柄が周期性をもって所定の向きにスクロールするように変動表示される。 That is, the upper symbol row SA1 and the lower symbol row SA3 are composed of 18 symbols. On the other hand, in the middle symbol row SA2, nine types of main symbols “1” to “9” are arranged in ascending order of numbers, and then between the main symbol “9” and the main symbol “1”. In addition, a main symbol “4” is additionally arranged, and one sub symbol is arranged between each main symbol. In other words, only the middle symbol row SA2 is composed of 20 symbols by arranging 10 main symbols. On the display surface G, the symbols of these symbol rows SA1 to SA3 are displayed in a variable manner so as to scroll in a predetermined direction with periodicity.
図3(b)に示すように、表示面Gは、図柄列毎に3個の図柄が停止表示されるようになっており、結果として3×3の計9個の図柄が停止表示されるようになっている。また、表示面Gには、5つの有効ライン、すなわち左ラインL1、中ラインL2、右ラインL3、右下がりラインL4、右上がりラインL5が設定されている。そして、上図柄列SA1→下図柄列SA3→中図柄列SA2の順に変動表示が停止し、いずれかの有効ラインに同一の数字が付された図柄の組み合わせが形成された状態で全図柄列SA1〜SA3の変動表示が終了すれば、後述する通常大当たり結果又は15R確変大当たり結果の発生として大当たり動画が表示されるようになっている。 As shown in FIG. 3B, on the display surface G, 3 symbols are stopped and displayed for each symbol row, and as a result, a total of 9 symbols of 3 × 3 are stopped and displayed. It is like that. On the display surface G, five effective lines, that is, a left line L1, a middle line L2, a right line L3, a right lowering line L4, and a right uppering line L5 are set. Then, the variable display is stopped in the order of the upper symbol row SA1 → the lower symbol row SA3 → the middle symbol row SA2, and all the symbol rows SA1 are formed in a state in which a combination of symbols having the same number attached to any one of the effective lines is formed. When the fluctuation display of .about.SA3 is finished, the jackpot moving image is displayed as a normal jackpot result or a 15R probability variable jackpot result described later.
本パチンコ機10では、奇数番号(1,3,5,7,9)が付された主図柄は「特定図柄」に相当し、15R確変大当たり結果が発生する場合には、同一の特定図柄の組み合わせが停止表示される。また、偶数番号(2,4,6,8)が付された主図柄は「非特定図柄」に相当し、通常大当たり結果が発生する場合には、同一の非特定図柄の組み合わせが停止表示される。
In this
また、後述する明示2R確変大当たり結果となる場合には、同一の図柄の組み合わせとは異なる所定の図柄の組み合わせが形成された状態で全図柄列SA1〜SA3の変動表示が終了し、その後に、明示用動画が表示されるようになっている。 In addition, in the case of an explicit 2R probability variation jackpot result to be described later, the variation display of all the symbol columns SA1 to SA3 is finished in a state where a predetermined symbol combination different from the same symbol combination is formed, and then, An explicit video is displayed.
なお、図柄表示装置31における図柄の変動表示の態様は上記のものに限定されることはなく任意であり、図柄列の数、図柄列における図柄の変動表示の方向、各図柄列の図柄数などは適宜変更可能である。また、図柄表示装置31にて変動表示される絵柄は上記のような図柄に限定されることはなく、例えば絵柄として数字のみが変動表示される構成としてもよい。
In addition, the mode of the variable display of the symbol in the
また、いずれかの作動口23,24への入賞に基づいて、メイン表示部33及び図柄表示装置31にて変動表示が開始され、所定の停止結果を表示し上記変動表示が停止されるまでが遊技回の1回に相当する。
In addition, based on the winning of any one of the operating
センターフレーム32の前面側における左上部分には、メイン表示部33及び図柄表示装置31に対応した第1保留発光部35が設けられている。遊技球が上作動口23又は下作動口24に入賞した個数は最大4個まで保留され、第1保留発光部35の点灯によってその保留個数が表示されるようになっている。
A first holding
センターフレーム32の右上部分には、役物用表示部34に対応した第2保留発光部36が設けられている。遊技球がスルーゲート25を通過した回数は最大4回まで保留され、第2保留発光部36の点灯によってその保留個数が表示されるようになっている。なお、各保留発光部35,36の機能が図柄表示装置31の一部の領域における表示により果たされる構成としてもよい。
In the upper right portion of the
遊技盤20には、レール部37が取り付けられており、当該レール部37により誘導レールが構成され、内枠において遊技盤20の下方に搭載された遊技球発射機構(図示略)から発射された遊技球が遊技領域の上部に案内されるようになっている。遊技球発射機構は、前扉枠14に設けられた発射ハンドル41が操作されることにより遊技球の発射動作が行われる。
A
内枠の前面側全体を覆うようにして前扉枠14が設けられている。前扉枠14には、図1に示すように、遊技領域のほぼ全域を前方から視認することができるようにした窓部42が形成されている。窓部42は、略楕円形状をなし、図示しない窓パネルが嵌め込まれている。窓パネルは、ガラスによって無色透明に形成されているが、これに限定されることはなく合成樹脂によって無色透明に形成してもよい。
A
窓部42の周囲には、発光手段が設けられている。当該発光手段の一部として表示発光部44が窓部42の上方に設けられている。また、表示発光部44の左右両側には、遊技状態に応じた効果音などが出力されるスピーカ部45が設けられている。
A light emitting means is provided around the
前扉枠14における窓部42の下方には、手前側へ膨出した上側膨出部46と下側膨出部47とが上下に並設されている。上側膨出部46内側には上方に開口した上皿46aが設けられており、下側膨出部47内側には同じく上方に開口した下皿47aが設けられている。上皿46aは、後述する払出装置より払い出された遊技球を一旦貯留し、一列に整列させながら遊技球発射機構側へ導くための機能を有する。また、下皿47aは、上皿46a内にて余剰となった遊技球を貯留する機能を有する。上皿46a及び下皿47aには、裏パックユニットに搭載された払出装置から払い出された遊技球が排出される。
Below the
上側膨出部46においてパチンコ機10前方を向く領域には、遊技者により手動操作される操作部を具備する演出用操作装置48が設けられている。演出用操作装置48の操作部は、図柄表示装置31の表示面Gなどにおける演出内容を所定の演出内容とするために遊技者により手動操作される。
In the region of the upper bulging
内枠の背面側には、主制御装置と、音声発光制御装置と、表示制御装置とが搭載されている。また、内枠の背面に対しては既に説明したとおり裏パックユニットが設けられており、当該裏パックユニットには、払出装置を含む払出機構部と、払出制御装置と、電源及び発射制御装置とが搭載されている。以下、パチンコ機10の電気的な構成について説明する。
A main control device, a sound emission control device, and a display control device are mounted on the back side of the inner frame. Further, as described above, a back pack unit is provided on the back surface of the inner frame. The back pack unit includes a payout mechanism including a payout device, a payout control device, a power source and a firing control device. Is installed. Hereinafter, the electrical configuration of the
<パチンコ機10の電気的構成>
図4は、パチンコ機10の基本的な電気的構成を示すブロック図である。
<Electric configuration of
FIG. 4 is a block diagram showing a basic electrical configuration of the
<主制御装置50>
主制御装置50は、遊技の主たる制御を司る主制御基板51を具備している。なお、主制御装置50において主制御基板51などを収容する基板ボックスに対して、その開放の痕跡を残すための痕跡手段を付与する又はその開放の痕跡を残すための痕跡構造を設けておくようにしてもよい。当該痕跡手段としては、基板ボックスを構成する複数のケース体を分離不能に結合するとともにその分離に際して所定部位の破壊を要する結合部(カシメ部)の構成や、引き剥がしにして粘着層が接着対象に残ることで剥がされたことの痕跡を残す封印シールを複数のケース体間の境界を跨ぐようにして貼り付ける構成が考えられる。また、痕跡構造としては、基板ボックスを構成する複数のケース体間の境界に対して接着剤を塗布する構成が考えられる。
<
The
主制御基板51には、MPU52が搭載されている。MPU52には、当該MPU52により実行される各種の制御プログラムや固定値データを記憶したROM53と、そのROM53内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM54と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。
An
なお、ROM53として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM53と、RAM54とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。
The
MPU52には、入力ポート及び出力ポートがそれぞれ設けられている。MPU52の入力側には、電源及び発射制御装置57が接続されている。電源及び発射制御装置57は、例えば、遊技場等における商用電源(外部電源)に接続されている。そして、その商用電源から供給される外部電力に基づいて主制御基板51に対して各々に必要な動作電力を生成するとともに、その生成した動作電力を供給する。ちなみに、当該動作電力は主制御基板51だけでなく、払出制御装置55や後述する表示制御装置130といった他の機器にも供給される。
The
なお、MPU52と電源及び発射制御装置57との電力経路上に停電監視基板を設けてもよい。この場合、当該停電監視基板により停電の発生が監視され、停電の発生が確認された場合にはMPU52に対して停電信号が送信されるようにすることで、MPU52において停電時用の処理を実行することが可能となる。
A power failure monitoring board may be provided on the power path between the
また、MPU52の入力側には、図示しない各種センサが接続されている。当該各種センサの一部として、一般入賞口21、可変入賞装置22、上作動口23、下作動口24及びスルーゲート25といった入賞対応入球部に対して1対1で設けられた検知センサが含まれており、MPU52において各入球部への入賞判定(入球判定)が行われる。また、MPU52では上作動口23及び下作動口24への入賞に基づいて大当たり発生抽選及び大当たり結果種別抽選を実行するとともに、各遊技回のリーチ発生抽選や表示継続期間の決定抽選を実行する。
Various sensors (not shown) are connected to the input side of the
ここで、MPU52にて各種抽選を行うための構成について説明する。
Here, a configuration for performing various lotteries in the
MPU52は遊技に際し各種カウンタ情報を用いて、大当たり発生抽選、メイン表示部33の表示の設定、図柄表示装置31の図柄表示の設定、役物用表示部34の表示の設定などを行うこととしており、具体的には、図5に示すように、大当たり発生抽選に使用する大当たり乱数カウンタC1と、確変大当たり結果や通常大当たり結果等の大当たり種別を判定する際に使用する大当たり種別カウンタC2と、図柄表示装置31が外れ変動する際のリーチ発生抽選に使用するリーチ乱数カウンタC3と、大当たり乱数カウンタC1の初期値設定に使用する乱数初期値カウンタCINIと、メイン表示部33及び図柄表示装置31における変動表示時間を決定する変動種別カウンタCSとを用いることとしている。さらに、下作動口24の電動役物24aを電役開放状態とするか否かの抽選に使用する電動役物開放カウンタC4を用いることとしている。
The
各カウンタC1〜C3,CINI,CS,C4は、その更新の都度前回値に1が加算され、最大値に達した後0に戻るループカウンタとなっている。各カウンタは短時間間隔で更新され、その更新値がRAM54の所定領域に設定された抽選カウンタ用バッファ54aに適宜格納される。このうち抽選カウンタ用バッファ54aにおいて、大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3に対応した情報は、上作動口23又は下作動口24への入賞が発生した場合に、取得情報記憶手段としての保留球格納エリア54bに格納される。
Each of the counters C1 to C3, CINI, CS, and C4 is a loop counter that adds 1 to the previous value every time it is updated and returns to 0 after reaching the maximum value. Each counter is updated at short time intervals, and the updated value is appropriately stored in a
保留球格納エリア54bは、保留用エリアREと、実行エリアAEとを備えている。保留用エリアREは、第1保留エリアRE1、第2保留エリアRE2、第3保留エリアRE3及び第4保留エリアRE4を備えており、上作動口23又は下作動口24への入賞履歴に合わせて、抽選カウンタ用バッファ54aに格納されている大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報が保留情報として、いずれかの保留エリアRE1〜RE4に格納される。
The holding
この場合、第1保留エリアRE1〜第4保留エリアRE4には、上作動口23又は下作動口24への入賞が複数回連続して発生した場合に、第1保留エリアRE1→第2保留エリアRE2→第3保留エリアRE3→第4保留エリアRE4の順に各数値情報が時系列的に格納されていく。このように4つの保留エリアRE1〜RE4が設けられていることにより、上作動口23又は下作動口24への遊技球の入賞履歴が最大4個まで保留記憶されるようになっている。また、保留用エリアREは、保留数記憶エリアNAを備えており、当該保留数記憶エリアNAには上作動口23又は下作動口24への入賞履歴を保留記憶している数を特定するための情報が格納される。
In this case, in the first reservation area RE1 to the fourth reservation area RE4, when the winning to the upper operation port 23 or the
なお、保留記憶可能な数は、4個に限定されることはなく任意であり、2個、3個又は5個以上といったように他の複数であってもよく、単数であってもよい。 Note that the number that can be reserved and stored is not limited to four, but may be any other number such as two, three, or five or more.
実行エリアAEは、メイン表示部33の変動表示を開始する際に、保留用エリアREの第1保留エリアRE1に格納された各値を移動させるためのエリアであり、1遊技回の開始に際しては実行エリアAEに記憶されている各種数値情報に基づいて、当否判定などが行われる。
The execution area AE is an area for moving each value stored in the first holding area RE1 of the holding area RE when starting the variable display on the
上記各カウンタについて詳細に説明する。 Each of the counters will be described in detail.
各カウンタについて詳しくは、大当たり乱数カウンタC1は、例えば0〜599の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。特に大当たり乱数カウンタC1が1周した場合、その時点の乱数初期値カウンタCINIの値が当該大当たり乱数カウンタC1の初期値として読み込まれる。なお、乱数初期値カウンタCINIは、大当たり乱数カウンタC1と同様のループカウンタである(値=0〜599)。大当たり乱数カウンタC1は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。
For details of each counter, the jackpot random number counter C1 is configured such that, for example, 1 is sequentially added within a range of 0 to 599, and after reaching the maximum value, it returns to 0. In particular, when the jackpot random number counter C1 makes one round, the value of the random number initial value counter CINI at that time is read as the initial value of the jackpot random number counter C1. The random number initial value counter CINI is a loop counter similar to the jackpot random number counter C1 (value = 0 to 599). The big hit random number counter C1 is periodically updated and stored in the holding
大当たり当選となる乱数の値は、ROM53における当否情報群記憶手段としての当否テーブル記憶エリアに当否テーブルとして記憶されている。当否テーブルとしては、低確率モード用の当否テーブルと、高確率モード用の当否テーブルとが設定されている。つまり、本パチンコ機10は、当否抽選手段における抽選モードとして、低確率モードと高確率モードとが設定されている。
The value of the random number for winning the jackpot is stored as a success / failure table in a success / failure table storage area in the
上記抽選に際して低確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は2個である。一方、上記抽選に際して高確率モード用の当否テーブルが参照されることとなる遊技状態下では、大当たり当選となる乱数の数は20個である。なお、低確率モードよりも高確率モードの方の当選確率が高くなるのであれば、上記当選となる乱数の数は任意である。 In the gaming state in which the winning / failing table for the low probability mode is referred to at the time of the lottery, the number of random numbers that win the jackpot is two. On the other hand, in the gaming state in which the winning / failing table for the high probability mode is referred to at the time of the lottery, the number of random numbers that will win the jackpot is 20. If the winning probability in the high probability mode is higher than that in the low probability mode, the number of random numbers to be won is arbitrary.
大当たり種別カウンタC2は、0〜29の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。大当たり種別カウンタC2は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。
The jackpot type counter C2 is configured so that 1 is added in order within a range of 0 to 29, and after reaching the maximum value, it returns to 0. The big hit type counter C2 is periodically updated and stored in the holding
本パチンコ機10では、複数の大当たり結果が設定されている。これら複数の大当たり結果は、(1)開閉実行モードにおける可変入賞装置22の開閉制御の態様、(2)開閉実行モード終了後の当否抽選手段における抽選モード、(3)開閉実行モード終了後の下作動口24の電動役物24aにおけるサポートモード、という3つの条件に差異を設けることにより、複数の大当たり結果が設定されている。
In the
開閉実行モードにおける可変入賞装置22の開閉制御の態様としては、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が相対的に高低となるように高頻度入賞モードと低頻度入賞モードとが設定されている。具体的には、高頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が15回(高頻度用回数)行われるとともに、1回の開放は30sec(高頻度時間)が経過するまで又は大入賞口22aへの入賞個数が10個(高頻度個数)となるまで継続される。一方、低頻度入賞モードでは、開閉実行モードの開始から終了までに、大入賞口22aの開閉が2回(低頻度用回数)行われるとともに、1回の開放は0.2sec(低頻度時間)が経過するまで又は大入賞口22aへの入賞個数が6個(低頻度個数)となるまで継続される。
As an aspect of the opening / closing control of the variable winning
本パチンコ機10では、発射ハンドル41が遊技者により操作されている状況では、0.6secに1個の遊技球が遊技領域に向けて発射されるように遊技球発射機構58が駆動制御される。これに対して、低頻度入賞モードでは、上記のとおり1回の大入賞口22aの開放時間は0.2secとなっている。つまり、低頻度入賞モードでは、遊技球の発射周期よりも1回の大入賞口22aの開放時間が短くなっている。したがって、低頻度入賞モードにかかる開閉実行モードでは実質的に遊技球の入賞が発生しない。
In this
なお、高頻度入賞モード及び低頻度入賞モードにおける大入賞口22aの開閉回数、1回の開放に対する開放制限時間及び1回の開放に対する開放制限個数は、高頻度入賞モードの方が低頻度入賞モードよりも、開閉実行モードが開始されてから終了するまでの間における可変入賞装置22への入賞の発生頻度が高くなるのであれば、上記の値に限定されることはなく任意である。具体的には、高頻度入賞モードの方が低頻度入賞モードよりも、開閉回数が多い、1回の開放に対する開放制限時間が長い又は1回の開放に対する開放制限個数が多く設定されていればよい。
The number of times of opening / closing the large winning opening 22a in the high-frequency winning mode and the low-frequency winning mode, the opening time limit for opening once, and the opening limit number for opening once are the low-frequency winning mode in the high-frequency winning mode. As long as the frequency of occurrence of winning in the variable winning
但し、高頻度入賞モードと低頻度入賞モードとの間での特典の差異を明確にする上では、低頻度入賞モードにかかる開閉実行モードでは、実質的に可変入賞装置22への入賞が発生しない構成とするとよい。例えば、高頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも短く設定する一方、低頻度入賞モードでは、1回の開放について、遊技球の発射周期と開放制限個数との積を、開放制限時間よりも長く設定する構成としてもよい。また、遊技球の発射間隔及び1回の大入賞口22aの開放時間が上記のものでなかったとしても、低頻度入賞モードでは、前者よりも後者の方が短くなるように設定することで、実質的に可変入賞装置22への入賞が発生しない構成を容易に実現することができる。
However, in order to clarify the difference in privilege between the high-frequency winning mode and the low-frequency winning mode, in the opening / closing execution mode according to the low-frequency winning mode, the winning to the variable winning
下作動口24の電動役物24aにおけるサポートモードとしては、遊技領域に対して同様の態様で遊技球の発射が継続されている状況で比較した場合に、下作動口24の電動役物24aが単位時間当たりに開放状態となる頻度が相対的に高低となるように、低頻度サポートモード(低頻度サポート状態又は低頻度ガイド状態)と高頻度サポートモード(高頻度サポート状態又は高頻度ガイド状態)とが設定されている。
As a support mode for the
具体的には、低頻度サポートモードと高頻度サポートモードとでは、電動役物開放カウンタC4を用いた電動役物開放抽選における電役開放状態当選となる確率は同一(例えば、共に4/5)となっているが、高頻度サポートモードでは低頻度サポートモードよりも、電役開放状態当選となった際に電動役物24aが開放状態となる回数が多く設定されており、さらに1回の開放時間が長く設定されている。この場合、高頻度サポートモードにおいて電役開放状態当選となり電動役物24aの開放状態が複数回発生する場合において、1回の開放状態が終了してから次の開放状態が開始されるまでの閉鎖時間は、1回の開放時間よりも短く設定されている。さらにまた、高頻度サポートモードでは低頻度サポートモードよりも、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で最低限確保される確保時間として短い時間が選択されるように設定されている。
Specifically, in the low-frequency support mode and the high-frequency support mode, the probability of winning the power combination open state in the electric combination release lottery using the electric combination release counter C4 is the same (for example, both 4/5) However, in the high frequency support mode, the number of times that the
上記のように高頻度サポートモードでは、低頻度サポートモードよりも下作動口24への入賞が発生する確率が高くなる。換言すれば、低頻度サポートモードでは、下作動口24よりも上作動口23への入賞が発生する確率が高くなるが、高頻度サポートモードでは、上作動口23よりも下作動口24への入賞が発生する確率が高くなる。そして、下作動口24への入賞が発生した場合には、所定個数の遊技球の払出が実行されるため、高頻度サポートモードでは、遊技者は持ち球をあまり減らさないようにしながら遊技を行うことができる。
As described above, in the high frequency support mode, there is a higher probability of winning a prize to the lower working
なお、高頻度サポートモードを低頻度サポートモードよりも単位時間当たりに電役開放状態となる頻度を高くする上での構成は、上記のものに限定されることはなく、例えば電動役物開放抽選における電役開放状態当選となる確率を高くする構成としてもよい。また、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間(例えば、スルーゲート25への入賞に基づき役物用表示部34にて実行される変動表示の時間)が複数種類用意されている構成においては、高頻度サポートモードでは低頻度サポートモードよりも、短い確保時間が選択され易い又は平均の確保時間が短くなるように設定されていてもよい。さらには、開放回数を多くする、開放時間を長くする、1回の電動役物開放抽選が行われてから次の電動役物開放抽選が行われる上で確保される確保時間を短くする(すなわち、役物用表示部34における1回の変動表示時間を短くする)、係る確保時間の平均時間を短くする及び当選確率を高くするのうち、いずれか1条件又は任意の組み合わせの条件を適用することで、低頻度サポートモードに対する高頻度サポートモードの有利性を高めてもよい。
The configuration for increasing the frequency at which the high frequency support mode is set to the power release state per unit time as compared with the low frequency support mode is not limited to the above-described configuration, for example, the electric component release lottery It is good also as a structure which makes high the probability that it will be elected in the electric character open state in. In addition, a secured time (for example, on the
大当たり種別カウンタC2に対する遊技結果の振分先は、ROM53における振分情報群記憶手段としての振分テーブル記憶エリアに振分テーブルとして記憶されている。そして、かかる振分先として、通常大当たり結果と、明示2R確変大当たり結果と、15R確変大当たり結果とが設定されている。
The game result distribution destination for the big hit type counter C2 is stored in the distribution table storage area in the
通常大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが低確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。但し、この高頻度サポートモードは、移行後において遊技回数が終了基準回数(具体的には、100回)に達した場合に低頻度サポートモードに移行する。換言すれば、通常大当たり結果は、通常大当たり状態(低確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。 The normal jackpot result is a jackpot result in which the opening / closing execution mode becomes the high-frequency winning mode, and after the opening / closing execution mode ends, the winning / not-lotting mode becomes the low probability mode and the support mode becomes the high-frequency support mode. However, the high-frequency support mode shifts to the low-frequency support mode when the number of games reaches the end reference number (specifically, 100 times) after the shift. In other words, the normal jackpot result is a jackpot result for shifting the gaming state to the normal jackpot state (special gaming state corresponding to low probability).
明示2R確変大当たり結果は、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、明示2R確変大当たり結果は、明示2R確変大当たり状態(明示高確率対応遊技状態)へ遊技状態を移行させる大当たり結果である。 The explicit 2R probability variation jackpot result is a jackpot result in which the open / close execution mode becomes the low-frequency winning mode, and after the open / close execution mode ends, the success / failure lottery mode becomes the high probability mode and the support mode becomes the high-frequency support mode. . These high-probability mode and high-frequency support mode are continued until the lottery result in the success / failure lottery becomes a big hit state win and shifts to the big win state by that. In other words, the explicit 2R probability variation jackpot result is a jackpot result for shifting the gaming state to the explicit 2R probability variation jackpot state (explicit high probability corresponding gaming state).
15R確変大当たり結果は、開閉実行モードが高頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードが高頻度サポートモードとなる大当たり結果である。これら高確率モード及び高頻度サポートモードは、当否抽選における抽選結果が大当たり状態当選となり、それによる大当たり状態に移行するまで継続する。換言すれば、15R確変大当たり結果は、15R確変大当たり状態(高確率対応特別遊技状態)へ遊技状態を移行させる大当たり結果である。 The 15R probability variation jackpot result is a jackpot result in which the opening / closing execution mode becomes the high-frequency winning mode, and after the opening / closing execution mode ends, the success / failure lottery mode becomes the high probability mode and the support mode becomes the high-frequency support mode. These high-probability mode and high-frequency support mode are continued until the lottery result in the success / failure lottery becomes a big hit state win and shifts to the big win state by that. In other words, the 15R probability variation jackpot result is a jackpot result in which the gaming state is shifted to the 15R probability variation jackpot state (a special gaming state corresponding to high probability).
なお、上記各遊技状態との関係で通常遊技状態とは、当否抽選モードが低確率モードであり、サポートモードが低頻度サポートモードである状態をいう。 Note that the normal gaming state in relation to the above gaming states refers to a state in which the winning / losing lottery mode is the low probability mode and the support mode is the low frequency support mode.
振分テーブルでは、「0〜29」の大当たり種別カウンタC2の値のうち、「0〜9」が通常大当たり結果に対応しており、「10〜14」が明示2R確変大当たり結果に対応しており、「15〜29」が15R確変大当たり結果に対応している。 In the distribution table, among the values of the jackpot type counter C2 of “0 to 29”, “0 to 9” corresponds to the normal jackpot result, and “10 to 14” corresponds to the explicit 2R probability variable jackpot result. “15 to 29” corresponds to the 15R probability variation jackpot result.
上記のように、確変大当たり結果として、明示2R確変大当たり結果が設定されていることにより、確変大当たり結果の態様が多様化する。すなわち、2種類の確変大当たり結果を比較した場合、遊技者にとっての有利度合いは、開閉実行モードにおいて高頻度入賞モードとなり且つサポートモードでは高頻度サポートモードとなる15R確変大当たり結果が最も高く、開閉実行モードにおいて低頻度入賞モードとなるもののサポートモードでは高頻度サポートモードとなる明示2R確変大当たり結果が最も低くなる。これにより、遊技の単調化が抑えられ、遊技への注目度を高めることが可能となる。 As described above, since the explicit 2R probability variation jackpot result is set as the probability variation jackpot result, the modes of the probability variation jackpot result are diversified. That is, when two types of probability variation jackpot results are compared, the advantage for the player is that the 15R probability variation jackpot result, which is the high-frequency winning mode in the opening / closing execution mode and the high-frequency support mode in the support mode, is the highest. Although the mode is the low-frequency winning mode, the support mode has the lowest explicit 2R probability variation jackpot result that is the high-frequency support mode. Thereby, monotonization of a game is suppressed and it becomes possible to raise the attention degree to a game.
なお、確変大当たり結果の一種として、開閉実行モードが低頻度入賞モードとなり、さらに開閉実行モードの終了後には、当否抽選モードが高確率モードとなるとともに、サポートモードがそれまでのモードに維持されることとなる非明示2R確変大当たり結果(非明示高確率対応遊技結果又は潜伏確変状態となる結果)が含まれていてもよい。この場合、確変大当たり結果のさらなる多様化が図られる。 As a kind of probability variation jackpot result, the open / close execution mode becomes the low-frequency winning mode, and after the open / close execution mode ends, the winning / failing lottery mode becomes the high probability mode, and the support mode is maintained in the previous mode. An explicit 2R probability change jackpot result (an explicit high probability corresponding game result or a result of a latent probability change state) may be included. In this case, further diversification of the probabilistic jackpot results is achieved.
さらにまた、当否抽選における外れ結果の一種として、低頻度入賞モードの開閉実行モードに移行するとともに、その終了後において当否抽選モード及びサポートモードの移行が発生しない特別外れ結果が含まれていてもよい。上記のような非明示2R確変大当たり結果と当該特別外れ結果との両方が設定されている構成においては、開閉実行モードが低頻度入賞モードに移行すること、及びサポートモードがそれまでのモードに維持されることで共通しているのに対して、当否抽選モードの移行態様が異なっていることにより、例えば通常遊技状態において非明示2R確変大当たり結果又は特別外れ結果の一方が発生した場合に、それが実際にいずれの結果に対応しているのかを遊技者に予測させることが可能となる。 Furthermore, as a kind of losing result in the winning / losing lottery, there may be included a special losing result that shifts to the opening / closing execution mode of the low-frequency winning mode and that does not shift to the winning / losing lottery mode and the support mode after the completion. . In the configuration in which both the above-described non-explicit 2R probability variation jackpot result and the special outlier result are set, the switching execution mode shifts to the low-frequency winning mode, and the support mode is maintained in the previous mode. However, if one of the results of non-explicit 2R probability change jackpot or special outage occurs in the normal gaming state, for example, it will be It is possible to cause the player to predict which result actually corresponds to.
リーチ乱数カウンタC3は、例えば0〜238の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。リーチ乱数カウンタC3は定期的に更新され、遊技球が上作動口23又は下作動口24に入賞したタイミングで保留球格納エリア54bに格納される。
For example, the reach random number counter C3 is incremented one by one within a range of 0 to 238, for example, and reaches a maximum value and then returns to 0. The reach random number counter C3 is periodically updated and stored in the reserved
ここで、本パチンコ機10には、図柄表示装置31における表示演出の一種として期待演出が設定されている。期待演出とは、図柄の変動表示を行うことが可能な図柄表示装置31を備え、開閉実行モードが高頻度入賞モードとなる遊技回では変動表示後の停止表示結果が特別表示結果となる遊技機において、図柄表示装置31における図柄の変動表示が開始されてから停止表示結果が導出表示される前段階で、前記特別表示結果となり易い変動表示状態であると遊技者に思わせるための表示状態をいう。
Here, in this
期待演出には、上記リーチ表示と、当該リーチ表示が発生する前段階などにおいてリーチ表示の発生や特別表示結果の発生を期待させるための予告表示との2種類が設定されている。 In the expected effect, two types are set: the reach display and a notice display for expecting the occurrence of reach display or the generation of a special display result at a stage before the reach display occurs.
リーチ表示には、図柄表示装置31の表示面Gに表示される複数の図柄列のうち一部の図柄列について図柄を停止表示させることで、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性があるリーチ図柄の組み合わせを表示し、その状態で残りの図柄列において図柄の変動表示を行う表示状態が含まれる。また、上記のようにリーチ図柄の組み合わせを表示した状態で、残りの図柄列において図柄の変動表示を行うとともに、その背景画像において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものや、リーチ図柄の組み合わせを縮小表示させる又は非表示とした上で、表示面の略全体において所定のキャラクタなどを動画として表示することによりリーチ演出を行うものが含まれる。
In the reach display, a combination of jackpot symbols corresponding to the occurrence of the high-frequency winning mode is achieved by stopping the symbols for some of the symbol rows displayed on the display surface G of the
図柄の変動表示に係るリーチ表示について具体的には、図柄の変動表示を終了させる前段階として、図柄表示装置31の表示面内の予め設定された有効ライン上に、高頻度入賞モードの発生に対応した大当たり図柄の組み合わせが成立する可能性のあるリーチ図柄の組み合わせを停止表示させることによりリーチラインを形成させ、当該リーチラインが形成されている状況下において最終停止図柄列により図柄の変動表示を行うことである。
More specifically, the reach display related to the symbol variation display is performed as a step before the symbol variation display is terminated, in order to generate the high-frequency winning mode on the preset effective line in the display surface of the
図3の表示内容について具体的に説明すると、最初に上段の図柄列SA1において図柄の変動表示が終了され、さらに下段の図柄列SA3において図柄の変動表示が終了された状態において、いずれかの有効ラインL1〜L5に同一の数字が付された主図柄が停止表示されることでリーチラインが形成され、当該リーチラインが形成されている状況化において中段の図柄列SA2において図柄の変動表示が行われることでリーチ表示となる。そして、高頻度入賞モードが発生する場合には、リーチラインを形成している主図柄と同一の数字が付された主図柄がリーチライン上に停止表示されるようにして中段の図柄列SA2における図柄の変動表示が終了される。 The display contents of FIG. 3 will be described in detail. In the state where the symbol variation display is first ended in the upper symbol row SA1, and the symbol variation display is further terminated in the lower symbol row SA3, any one of the valid display items is displayed. A reach line is formed by stopping and displaying the main symbols with the same numbers on the lines L1 to L5, and in the situation where the reach line is formed, the symbol variation display is performed in the middle symbol row SA2. Reach display. When the high-frequency winning mode occurs, the main symbol having the same number as the main symbol forming the reach line is stopped and displayed on the reach line in the middle symbol row SA2. The symbol variation display is terminated.
予告表示には、図柄表示装置31の表示面において図柄の変動表示が開始されてから、全ての図柄列SA1〜SA3にて図柄が変動表示されている状況において、又は一部の図柄列であって複数の図柄列にて図柄が変動表示されている状況において、図柄列SA1〜SA3上の図柄とは別にキャラクタを表示させる態様が含まれる。また、背景画像をそれまでの態様とは異なる所定の態様とするものや、図柄列SA1〜SA3上の図柄をそれまでの態様とは異なる所定の態様とするものも含まれる。かかる予告表示は、リーチ表示が行われる場合及びリーチ表示が行われない場合のいずれの遊技回においても発生し得るが、リーチ表示の行われる場合の方がリーチ表示の行われない場合よりも高確率で発生するように設定されている。
In the notice display, the symbol display on the display surface of the
リーチ表示は、高頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行され、低頻度入賞モードとなる開閉実行モードに移行する遊技回では、リーチ乱数カウンタC3の値に関係なく実行されない。また、開閉実行モードに移行しない遊技回では、ROM53のリーチ用テーブル記憶エリアに記憶されたリーチ用テーブルを参照して、所定のタイミングで取得したリーチ乱数カウンタC3がリーチ表示の発生に対応している場合に実行される。一方、予告表示を行うか否かの決定は、主制御装置50において行うのではなく、音声発光制御装置60において行われる。
The reach display is executed regardless of the value of the reach random number counter C3 in the game times that shift to the opening / closing execution mode that becomes the high-frequency winning mode, and the reach random numbers in game times that shift to the opening / closing execution mode that becomes the low-frequency winning mode. It is not executed regardless of the value of the counter C3. In the game times that do not shift to the opening / closing execution mode, the reach random number counter C3 obtained at a predetermined timing is referred to the reach table stored in the reach table storage area of the
変動種別カウンタCSは、例えば0〜198の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。変動種別カウンタCSは、メイン表示部33における変動表示時間と、図柄表示装置31における図柄の変動表示時間とをMPU52において決定する上で用いられる。変動種別カウンタCSは、後述する通常処理が1回実行される毎に1回更新され、当該通常処理内の残余時間内でも繰り返し更新される。そして、メイン表示部33における変動表示の開始時及び図柄表示装置31による図柄の変動開始時における変動パターン決定に際して変動種別カウンタCSのバッファ値が取得される。なお、変動表示時間の決定に際しては、ROM53の変動表示時間テーブル記憶エリアに予め記憶されている変動表示時間テーブルが参照される。
The variation type counter CS is, for example, incremented by 1 within a range of 0 to 198, and returns to 0 after reaching the maximum value. The variation type counter CS is used when the
電動役物開放カウンタC4は、例えば、0〜250の範囲内で順に1ずつ加算され、最大値に達した後0に戻る構成となっている。電動役物開放カウンタC4は定期的に更新され、スルーゲート25に遊技球が入賞したタイミングで電役保留エリア54cに格納される。そして、所定のタイミングにおいて、その格納された電動役物開放カウンタC4の値によって電動役物24aを開放状態に制御するか否かの抽選が行われる。
The electric accessory release counter C4 is, for example, configured to increment one by one within a range of 0 to 250 and return to 0 after reaching the maximum value. The electric accessory release counter C4 is periodically updated and stored in the electric
MPU52の出力側には、払出制御装置55が接続されているとともに、電源及び発射制御装置57が接続されている。払出制御装置55には、例えば、上記入賞対応入球部への入賞判定結果に基づいて賞球コマンドが送信される。払出制御装置55は、主制御装置50から受信した賞球コマンドに基づいて、払出装置56により賞球や貸し球の払出制御を行う。電源及び発射制御装置57には、発射ハンドル41が操作されていることに基づいて発射許可コマンドが送信される。電源及び発射制御装置57は、主制御装置50から受信した発射許可コマンドに基づいて、遊技球発射機構58を駆動させ遊技球を遊技領域に向けて発射させる。
A
また、MPU52の出力側には、メイン表示部33及び役物用表示部34が接続されており、これらメイン表示部33及び役物用表示部34の表示制御がMPU52により直接行われる。つまり、各遊技回に際しては、MPU52においてメイン表示部33の表示制御が実行される。また、電動役物24aを開放状態とするか否かの抽選結果を明示する場合に、MPU52において役物用表示部34の表示制御が実行される。
Further, the
また、MPU52の出力側には、可変入賞装置22の開閉扉22bを開閉動作させる可変入賞駆動部、及び下作動口24の電動役物24aを開閉動作させる電動役物駆動部が接続されている。つまり、開閉実行モードにおいては大入賞口22aが開閉されるように、MPU52において可変入賞駆動部の駆動制御が実行される。また、電動役物24aの開放状態当選となった場合には、電動役物24aが開閉されるように、MPU52において電動役物駆動部の駆動制御が実行される。
The
また、MPU52の出力側には、音声発光制御装置60が接続されており、当該音声発光制御装置60に対して演出用の各種コマンドを送信する。
Further, the sound
<主制御装置50のMPU52にて実行される処理>
次に、MPU52にて実行される処理について説明する。
<Processing executed by
Next, processing executed by the
MPU52は、電源の立ち上げ後において所定の遊技進行用処理を繰り返し実行する。本パチンコ機10では、当該遊技進行用処理として、第1の周期で繰り返し実行される通常処理と、第1の周期よりも短い第2の周期で起動され、通常処理に対して割り込んで実行されるタイマ割込み処理と、が設定されている。
The
図6は、タイマ割込み処理を示すフローチャートである。なお、本処理はMPU52により定期的に(例えば2msec周期で)起動される。 FIG. 6 is a flowchart showing timer interrupt processing. Note that this process is periodically started by the MPU 52 (for example, at a cycle of 2 msec).
先ずステップS101では、読み込み処理を実行する。当該読み込み処理では、各種入賞検知センサの状態を読み込み、これら各種入賞検知センサの状態を判定して入賞検知情報を保存する処理を実行する。また、賞球の発生に対応した入賞検知センサにおいて遊技球の入賞が検知されている場合には、払出制御装置55に対して賞球の払い出し指示を行うための賞球コマンドを設定する。
First, in step S101, a reading process is executed. In the reading process, the states of the various winning detection sensors are read, the states of the various winning detection sensors are determined, and the winning detection information is stored. In addition, when the winning detection sensor corresponding to the generation of the winning ball detects the winning of the game ball, a winning ball command for instructing the
続くステップS102では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。 In the subsequent step S102, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is incremented by 1 and cleared to 0 when the counter value reaches the maximum value.
続くステップS103では、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4の更新を実行する。具体的には、大当たり乱数カウンタC1、大当たり種別カウンタC2、リーチ乱数カウンタC3及び電動役物開放カウンタC4をそれぞれ1加算すると共に、それらのカウンタ値が最大値に達した際それぞれ0にクリアする。 In subsequent step S103, the big hit random number counter C1, the big hit type counter C2, the reach random number counter C3, and the electric accessory release counter C4 are updated. Specifically, the jackpot random number counter C1, the jackpot type counter C2, the reach random number counter C3 and the electric accessory release counter C4 are each incremented by 1 and cleared to 0 when the counter values reach the maximum value.
続くステップS104では、スルーゲート25への入賞に伴うスルー用の入賞処理を実行する。スルー用の入賞処理では、電役保留エリア54cに記憶されている役物保留記憶数が4未満であることを条件として、前記ステップS103にて更新した電動役物開放カウンタC4の値を電役保留エリア54cに格納する。
In a succeeding step S104, a through winning process associated with winning through the through
その後、ステップS105にて、作動口23,24への入賞に伴う作動口用の入賞処理を実行する。作動口用の入賞処理では、上作動口23又は下作動口24への入賞が発生していた場合には、保留球格納エリア54bに記憶されている始動保留記憶数が上限数(例えば、「4」)未満であることを条件として、前記ステップS103にて更新した大当たり乱数カウンタC1、大当たり種別カウンタC2及びリーチ乱数カウンタC3の各数値情報を保留球格納エリア54bの保留用エリアREに格納する。この場合、保留用エリアREの空き保留エリアRE1〜RE4のうち最初の保留エリア、すなわち現状の始動保留記憶数と対応する保留エリアに格納する。ステップS105の処理を実行した後に、本タイマ割込み処理を終了する。
Thereafter, in step S105, a winning process for the working opening accompanying winning of the working
図7は、通常処理を示すフローチャートである。通常処理は電源投入に伴い起動されるメイン処理が実行された後に開始される処理である。その概要として、ステップS201〜ステップS209の処理が4msec周期の処理として実行され、その残余時間でステップS210及びステップS211のカウンタ更新処理が実行される構成となっている。 FIG. 7 is a flowchart showing normal processing. The normal process is a process that is started after the main process that is started when the power is turned on. As its outline, the processing from step S201 to step S209 is executed as a 4 msec cycle processing, and the counter update processing of step S210 and step S211 is executed in the remaining time.
ステップS201では、タイマ割込み処理又は前回の通常処理で設定したコマンド等の出力データをサブ側の各制御装置に送信する。具体的には、賞球コマンドの有無を判定し、賞球コマンドが設定されていればそれを払出制御装置55に対して送信する。また、所定の演出用コマンドが設定されている場合にはそれを音声発光制御装置60に対して送信する。
In step S201, output data such as a command set in the timer interruption process or the previous normal process is transmitted to each control device on the sub side. Specifically, the presence or absence of a prize ball command is determined, and if a prize ball command is set, it is transmitted to the
続くステップS202では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、カウンタ値が最大値に達した際にはカウンタ値を0にクリアする。 In the subsequent step S202, the variation type counter CS is updated. Specifically, the variation type counter CS is incremented by 1, and the counter value is cleared to 0 when the counter value reaches the maximum value.
続くステップS203では、各遊技回における遊技を制御するための遊技回制御処理を実行する。この遊技回制御処理では、大当たり判定、図柄表示装置31による図柄の変動表示の設定、及びメイン表示部33の表示制御などを行う。
In subsequent step S203, a game number control process for controlling a game in each game time is executed. In this game times control process, jackpot determination, symbol variable display setting by the
その後、ステップS204では、遊技状態を移行させるための遊技状態移行処理を実行する。遊技状態移行処理では、大当たり当選に対応した遊技回が終了している場合に開閉実行モードへの移行処理を実行し、可変入賞装置22の開閉処理を開始する。なお、開閉実行モードを開始する場合、開閉実行モード中、及び開閉実行モードを終了する場合などに、開閉実行モード用の各種コマンドを音声発光制御装置60に送信する。また、開閉実行モードが終了した場合には、当該モードの開始契機となった遊技回に係る大当たり種別に対応させて、当否抽選モードの移行やサポートモードの移行を実行する。
Thereafter, in step S204, a game state transition process for shifting the game state is executed. In the gaming state transition process, when the game round corresponding to the big win is completed, the transition process to the opening / closing execution mode is executed, and the opening / closing process of the variable winning
続くステップS205では、デモ表示用処理を実行する。デモ表示用処理では、開閉実行モード中ではない状況で遊技回の終了後において新たな遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、0.1sec)が経過したか否かの判定処理を実行する。また、MPU52への電力供給が開始されてから又はパチンコ機10がリセットされてから、新たに遊技回が開始されることなく予め定められたデモ開始用の開始待ち期間(例えば、3sec)が経過したか否かの判定処理を実行する。そして、経過していると判定した場合には、デモ表示用のコマンドを音声発光制御装置60に送信する。
In the subsequent step S205, a demonstration display process is executed. In the demonstration display process, a predetermined demonstration start waiting period (for example, 0.1 sec) has elapsed without starting a new game time after the game time has ended in a state where the opening / closing execution mode is not in progress. A process for determining whether or not the process has been performed is executed. In addition, since a power supply to the
なお、デモ表示とは、予め定められた開始待ち期間が経過している場合に、図柄表示装置31の表示面Gにて表示される開始待ち演出のことをいう。デモ画像では、図柄列SA1〜SA3上に停止表示されている図柄が所定の動作を行っている画像が表示されるが、これに限定されることはなく、例えば、図柄が所定の動作を行っている画像の表示の後に又はそれに代えてメーカ名、機種名若しくは所定のキャラクタによる動画が表示される構成としてもよい。また、図柄列SA1〜SA3上において変動表示される図柄のアニメーションによりデモ表示を行う構成においては、当該図柄として、直前の遊技回で最終停止表示された図柄を用いる構成としてもよい。この場合、デモ表示の多様化が図られる。
The demonstration display refers to a start waiting effect displayed on the display surface G of the
続くステップS206では、下作動口24に設けられた電動役物24aを駆動制御するための電役サポート用処理を実行する。この電役サポート用処理では、RAM54の電役保留エリア54cに格納されている情報を用いて電動役物24aを開放状態とするか否かの判定、電動役物24aの開閉処理及び役物用表示部34の表示制御などを行う。
In a succeeding step S206, an electric combination support process for driving and controlling the
その後、ステップS207では、遊技球発射制御処理を実行する。遊技球発射制御処理では、電源及び発射制御装置57から発射許可信号を入力していることを条件として、所定期間(例えば、0.6sec)に1回、遊技球発射機構58のソレノイドを励磁する。これにより、遊技球が遊技領域に向けて打ち出される。
Thereafter, in step S207, a game ball launch control process is executed. In the game ball launch control process, the solenoid of the game
続くステップS208では、RAM54に電断フラグが格納されているか否かを判定する。電断フラグは、電断の発生が確認された場合に格納され、次回のメイン処理にて消去されるフラグである。 In a succeeding step S208, it is determined whether or not the power interruption flag is stored in the RAM. The power interruption flag is a flag that is stored when the occurrence of power interruption is confirmed, and is deleted in the next main processing.
電断フラグが格納されていない場合は、繰り返し実行される複数の処理の最後の処理が終了したこととなるので、ステップS209にて次の通常処理の実行タイミングに至ったか否か、すなわち前回の通常処理の開始から所定時間(本実施の形態では4msec)が経過したか否かを判定する。そして、次の通常処理の実行タイミングに至るまでの残余時間内において、乱数初期値カウンタCINI及び変動種別カウンタCSの更新を繰り返し実行する。 If the power interruption flag is not stored, the last process of the plurality of processes that are repeatedly executed is completed. Therefore, whether or not the execution timing of the next normal process is reached in step S209, that is, the previous process It is determined whether or not a predetermined time (4 msec in the present embodiment) has elapsed since the start of normal processing. Then, the random number initial value counter CINI and the variation type counter CS are repeatedly updated within the remaining time until the next normal processing execution timing.
つまり、ステップS210では、乱数初期値カウンタCINIの更新を実行する。具体的には、乱数初期値カウンタCINIを1加算すると共に、そのカウンタ値が最大値に達した際0にクリアする。また、ステップS211では、変動種別カウンタCSの更新を実行する。具体的には、変動種別カウンタCSを1加算すると共に、それらのカウンタ値が最大値に達した際0にクリアする。 That is, in step S210, the random number initial value counter CINI is updated. Specifically, the random number initial value counter CINI is incremented by 1 and cleared to 0 when the counter value reaches the maximum value. In step S211, the variation type counter CS is updated. Specifically, the variation type counter CS is incremented by 1 and cleared to 0 when the counter values reach the maximum value.
ここで、ステップS201〜S207の各処理の実行時間は遊技の状態に応じて変化するため、次の通常処理の実行タイミングに至るまでの残余時間は一定でなく変動する。故に、かかる残余時間を使用して乱数初期値カウンタCINIの更新を繰り返し実行することにより、乱数初期値カウンタCINI(すなわち、大当たり乱数カウンタC1の初期値)をランダムに更新することができ、同様に変動種別カウンタCSについてもランダムに更新することができる。 Here, since the execution time of each process of steps S201 to S207 changes according to the state of the game, the remaining time until the execution timing of the next normal process is not constant and varies. Therefore, by repeatedly updating the random number initial value counter CINI using the remaining time, the random number initial value counter CINI (that is, the initial value of the big hit random number counter C1) can be updated at random. Similarly, The variation type counter CS can also be updated at random.
一方、ステップS208にて、電断フラグが格納されていると判定した場合は、電源遮断が発生したことになるので、ステップS212以降の電断時処理を実行する。つまり、ステップS212では、タイマ割込み処理の発生を禁止し、その後、ステップS213にてRAM判定値を算出、保存し、ステップS214にてRAM54のアクセスを禁止した後に、電源が完全に遮断して処理が実行できなくなるまで無限ループを継続する。
On the other hand, if it is determined in step S208 that the power interruption flag is stored, the power interruption has occurred, so the power interruption processing from step S212 is executed. That is, in step S212, the generation of the timer interrupt process is prohibited, and then the RAM determination value is calculated and stored in step S213. After the access of the
次に、ステップS203の遊技回制御処理を図8等のフローチャートを参照して説明する。 Next, the game times control process of step S203 will be described with reference to a flowchart of FIG.
遊技回制御処理では、先ずステップS301にて、開閉実行モード中か否かを判定する。開閉実行モード中である場合には、ステップS302以降の処理を実行することなく、本遊技回制御処理を終了する。つまり、開閉実行モード中である場合には、作動口23,24への入賞が発生しているか否かに関係なく、遊技回が開始されることはない。
In the game times control process, first, in step S301, it is determined whether or not the opening / closing execution mode is in effect. If it is in the opening / closing execution mode, the game turn control process is terminated without executing the processes after step S302. In other words, in the open / close execution mode, the game times are not started regardless of whether or not a winning for the
開閉実行モード中でない場合には、ステップS302にて、メイン表示部33が変動表示中であるか否かを判定する。メイン表示部33が変動表示中でない場合には、ステップS303〜ステップS305の遊技回開始用処理に進む。
If it is not in the opening / closing execution mode, it is determined in step S302 whether or not the
遊技回開始用処理では、先ずステップS303にて、始動保留球数Nが「0」であるか否かを判定する。始動保留球数Nが「0」である場合とは、保留球格納エリア54bに保留情報が記憶されていないことを意味する。したがって、そのまま本遊技回制御処理を終了する。
In the game turn starting process, first, in step S303, it is determined whether or not the number N of starting reserved balls is “0”. The case where the starting reserved ball number N is “0” means that the hold information is not stored in the hold
始動保留球数Nが「0」でない場合には、ステップS304にて保留球格納エリア54bの保留用エリアREに記憶されているデータを変動表示用に設定するためのデータ設定処理を実行する。具体的には、保留用エリアREの第1保留エリアRE1に格納されているデータを実行エリアAEにシフトする。その後、第1保留エリアRE1〜第4保留エリアRE4に格納されているデータを下位エリア側に順にシフトさせる。その後、ステップS305にて変動開始処理を実行した後に、本遊技回制御処理を終了する。
If the number N of starting reserved balls is not “0”, a data setting process for setting the data stored in the holding area RE of the holding
ステップS305の変動開始処理について、図9のフローチャートを参照しながら説明する。 The variation start process in step S305 will be described with reference to the flowchart of FIG.
ステップS401にて、今回の変動開始処理に対応した保留情報が大当たり当選に対応しているか否かを判定するための当否判定処理を実行する。具体的には実行エリアAEにシフトされた保留情報のうち大当たり乱数カウンタC1に係る数値情報と、現状の当否抽選モードに対応した当否テーブルとを参照して、大当たり当選となるか否かを判定する。 In step S401, a success / failure determination process for determining whether or not the hold information corresponding to the current variation start process corresponds to the jackpot winning is executed. Specifically, with reference to numerical information related to the jackpot random number counter C1 among the hold information shifted to the execution area AE and a hit / fail table corresponding to the current hit / fail lottery mode, it is determined whether or not the jackpot win is set. To do.
続くステップS402では大当たり当選であるか否かを判定する。大当たり当選である場合には、ステップS403にて種別判定処理を実行する。種別判定処理では、実行エリアAEにシフトされた保留情報のうち大当たり種別カウンタC2に係る数値情報と、振分テーブルとを参照して、大当たり種別を特定する。 In a succeeding step S402, it is determined whether or not the jackpot is won. If it is a big win, a type determination process is executed in step S403. In the type determination process, the jackpot type is specified with reference to the numerical information related to the jackpot type counter C2 and the distribution table among the hold information shifted to the execution area AE.
続くステップS404では、大当たり結果に対応した停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている大当たり結果用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この大当たり結果用の停止結果テーブルには、メイン表示部33に停止表示される絵柄の態様の種類が、大当たり結果の種類毎に相違させて設定されており、ステップS404では、ステップS403にて特定した大当たり結果の種類に応じた絵柄の態様の情報をRAM54に記憶する。
In subsequent step S404, stop result setting processing corresponding to the jackpot result is executed. Specifically, the information on the pattern mode that is finally stopped and displayed on the
一方、ステップS402にて、大当たり当選ではないと判定した場合には、ステップS405にて、外れ時用の停止結果設定処理を実行する。具体的には、今回の変動開始に係る遊技回においてメイン表示部33に最終的に停止表示させる絵柄の態様の情報を、ROM53に予め記憶されている外れ時用の停止結果テーブルから特定し、その特定した情報をRAM54に記憶する。この場合に選択される絵柄の態様の情報は、大当たり結果の場合に選択される絵柄の態様の情報とは異なっている。
On the other hand, if it is determined in step S402 that it is not a big win, a stop result setting process for losing is executed in step S405. Specifically, information on the pattern mode to be finally stopped and displayed on the
ステップS404又はステップS405の処理を実行した後は、ステップS406にて、変動表示時間の設定処理を実行する。 After executing the process of step S404 or step S405, the process for setting the variable display time is executed in step S406.
かかる処理では、RAM54の抽選カウンタ用バッファ54aにおける変動種別カウンタ用バッファに格納されている変動種別カウンタCSの値を取得する。また、今回の遊技回において図柄表示装置31にてリーチ表示が発生するか否かを判定する。具体的には、今回の変動開始に係る遊技回が大当たり結果である場合には、リーチ表示が発生すると判定する。また、大当たり結果ではない場合であっても、実行エリアAEに格納されているリーチ乱数カウンタC3に係る数値情報がリーチ発生に対応した数値情報である場合には、リーチ表示が発生すると判定する。
In this process, the value of the variation type counter CS stored in the variation type counter buffer in the
リーチ表示が発生すると判定した場合には、ROM53に記憶されているリーチ発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報をRAM54に設けられた変動表示時間カウンタにセットする。一方、リーチ表示が発生しないと判定した場合には、ROM53に記憶されているリーチ非発生用変動表示時間テーブルを参照して、今回の変動種別カウンタCSの値に対応した変動表示時間情報を取得し、その変動表示時間情報を上記変動表示時間カウンタにセットする。ちなみに、リーチ非発生用変動表示時間テーブルを参照して取得され得る変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得され得る変動表示時間と異なっている。
When it is determined that the reach display occurs, the fluctuation display time information corresponding to the value of the current fluctuation type counter CS is obtained by referring to the reach generation fluctuation display time table stored in the
なお、リーチ非発生時における変動表示時間情報は、始動保留球数の数が多いほど、変動表示時間が短くなるように設定されている。また、サポートモードが高頻度サポートモードである状況においては低頻度サポートモードである状況よりも、保留情報の数が同一である場合で比較して、短い変動表示時間が選択されるようにリーチ非発生用変動表示時間テーブルが設定されている。但し、これに限定されることはなく、始動保留球数やサポートモードに応じて変動表示時間が変動しない構成としてもよく、上記の関係とは逆であってもよい。さらには、リーチ発生時における変動表示時間に対して、上記構成を適用してもよい。また、各種大当たり結果の場合、外れリーチ時の場合及びリーチ非発生の場合のそれぞれに対して個別に変動表示時間テーブルが設定されていてもよい。 Note that the variable display time information when no reach occurs is set so that the variable display time is shortened as the number of starting reserved balls increases. Also, in the situation where the support mode is the high frequency support mode, the non-reach time is selected so that the shorter variable display time is selected compared to the situation where the number of pending information is the same as in the situation where the low frequency support mode. The generation variation display time table is set. However, the present invention is not limited to this, and the configuration may be such that the variable display time does not vary according to the number of starting reserved balls and the support mode, and the above relationship may be reversed. Furthermore, the above configuration may be applied to the variable display time when reach occurs. In addition, in the case of various jackpot results, a variable display time table may be individually set for each of the case of out-of-bound reach and the case of no reach.
ステップS406にて、変動表示時間の設定処理を実行した後は、ステップS407にて、変動用コマンド及び種別コマンドを設定する。変動用コマンドには、変動表示時間の情報が含まれる。ここで、上記のとおりリーチ非発生用変動表示時間テーブルを参照して取得される変動表示時間は、リーチ発生用変動表示時間テーブルを参照して取得される変動表示時間と異なっているため、変動用コマンドにリーチ発生の有無の情報が含まれていなかったとしても、サブ側の制御装置である音声発光制御装置60では変動表示時間の情報からリーチ発生の有無を特定することは可能である。この点、変動用コマンドには、リーチ発生の有無を示す情報が含まれているとも言える。なお、変動用コマンドにリーチ発生の有無を直接示す情報が含まれていてもよい。
After executing the variable display time setting process in step S406, a variable command and a type command are set in step S407. The change command includes information on the change display time. Here, as described above, the fluctuation display time obtained by referring to the non-reach occurrence fluctuation display time table is different from the fluctuation display time obtained by referring to the reach occurrence fluctuation display time table. Even if the information on the presence or absence of the reach is not included in the command for use, the sound
また、種別コマンドには、遊技結果の情報が含まれる。つまり、種別コマンドには、遊技結果の情報として、通常大当たり結果の情報、明示2R確変大当たり結果の情報、15R確変大当たり結果の情報、及び外れ結果の情報のいずれかが含まれる。 The type command includes game result information. That is, the type command includes, as game result information, any one of normal jackpot result information, explicit 2R probability variation jackpot result information, 15R probability variation jackpot result information, and outage result information.
ステップS407にて設定された変動用コマンド及び種別コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。ステップS407の処理を実行した後は、ステップS408にてメイン表示部33において絵柄の変動表示を開始させる。その後、本変動開始処理を終了する。
The change command and type command set in step S407 are transmitted to the sound
遊技回制御処理(図8)の説明に戻り、メイン表示部33が変動表示中である場合には、ステップS306〜ステップS309の処理を実行する。当該処理では、先ずステップS306にて、今回の遊技回の変動表示時間が経過したか否かを判定する。
Returning to the description of the game times control process (FIG. 8), when the
変動表示時間が経過していない場合には、ステップS307にて変動表示用処理を実行する。変動表示用処理では、メイン表示部33における表示態様を変更する。その後、本遊技回制御処理を終了する。
If the variable display time has not elapsed, the variable display process is executed in step S307. In the variable display process, the display mode on the
変動表示時間が経過している場合には、ステップS308にて変動終了処理を実行する。変動終了処理では、上記ステップS404又はステップS405の処理にてRAM54に記憶した情報を特定し、その情報に対応した絵柄の態様がメイン表示部33にて表示されるように当該メイン表示部33を表示制御する。
If the change display time has elapsed, change end processing is executed in step S308. In the change end process, the information stored in the
続くステップS309では、変動終了コマンドを設定する。ここで設定された変動終了コマンドは、通常処理(図7)におけるステップS201にて、音声発光制御装置60に送信される。音声発光制御装置60では、受信した変動終了コマンドに基づいて、その遊技回における演出を終了させる。また、それに対応したコマンドが、音声発光制御装置60から表示制御装置70に送信され、表示制御装置70ではその遊技回における最終停止図柄の組み合わせを確定表示(最終停止表示)させる。その後、本遊技回制御処理を終了する。
In the subsequent step S309, a change end command is set. The change end command set here is transmitted to the sound
<主制御装置50のMPU52における処理構成の別形態>
MPU52にて実行される処理構成は、上記のものに限定されることはなく、以下の処理構成であってもよい。図10及び図11は、MPU52における処理の別形態を説明するためのフローチャートであり、図10は動作電力の供給が開始された場合に実行されるメイン処理を示し、図11は当該メイン処理に対して定期的に割り込んで起動されるタイマ割込み処理を示す。
<Another Form of Processing Configuration in
The processing configuration executed by the
図10に示すように、メイン処理では先ずステップS501にて、電源投入に伴う立ち上げ処理を実行する。続くステップS502では、RAM54のアクセスを許可する。その後、ステップS503では、電源及び発射制御装置57に設けられたRAM消去スイッチがオンされているか否かを判定し、続くステップS504ではRAM54に電断フラグが格納されているか否かを判定する。また、ステップS505ではRAM判定値を算出し、続くステップS506では、そのRAM判定値が電源遮断時に保存したRAM判定値と一致するか否か、すなわち記憶保持されたデータの有効性を判定する。
As shown in FIG. 10, in the main process, first, in step S501, a start-up process associated with power-on is executed. In the subsequent step S502, access to the
RAM消去スイッチがオンされておらず、さらに電断フラグが格納されているとともにRAM判定値が正常である場合には、ステップS507にてRAM54から電断フラグを消去するとともに、ステップS508にてRAM判定値を消去する。その後、ステップS509にて割込み許可を設定し、ステップS510にて乱数初期値カウンタCINIの更新を実行し、ステップS511にて変動種別カウンタCSの更新を実行する。そして、ステップS509〜ステップS511の処理を実行した後は、ステップS509に戻り、ステップS509〜ステップS511の処理を繰り返す。
If the RAM erase switch is not turned on, the power interruption flag is stored, and the RAM determination value is normal, the power interruption flag is erased from the
なお、ステップS509にて割込み許可の設定を行った直後に割込み禁止の設定を行う構成としてもよい。この場合、後述するタイマ割込み処理は、割込み禁止の設定が行われている状況において起動タイミングとなった場合には、次回の割込み許可の設定が行われるまでその実行が待機される構成としてもよい。 In addition, it is good also as a structure which performs the setting of an interruption prohibition immediately after setting an interruption permission in step S509. In this case, the timer interrupt processing to be described later may be configured to wait for execution until the next interrupt permission setting is performed when the start timing is reached in a situation where the interrupt prohibition setting is performed. .
一方、RAM消去スイッチが押されていれば、ステップS512〜ステップS513の処理に移行する。また、電源遮断の発生情報が設定されていない場合や、RAM判定値により記憶保持されたデータの異常が確認された場合も同様にステップS512〜ステップS513の処理に移行する。 On the other hand, if the RAM erase switch is pressed, the process proceeds to steps S512 to S513. Similarly, when the information on occurrence of power shutdown is not set, or when abnormality of data stored and held by the RAM determination value is confirmed, the process proceeds to steps S512 to S513.
ステップS512では、RAM54の使用領域を「0」にクリアし、ステップS513では、RAM54の初期設定を実行する。その後、ステップS509〜ステップS511の処理に移行する。
In step S512, the used area of the
図11は、当該別形態におけるタイマ割込み処理を示すフローチャートである。 FIG. 11 is a flowchart showing the timer interrupt process in the different form.
タイマ割込み処理では、ステップS601〜ステップS605にて、上記ステップS101〜ステップS105と同様の処理を実行する。 In the timer interrupt process, the same processes as in steps S101 to S105 are executed in steps S601 to S605.
その後、ステップS606にて、変動種別カウンタCSの更新処理を実行し、ステップS607にて遊技回制御処理を実行し、ステップS608にて遊技状態移行処理を実行し、ステップS609にてデモ表示用処理を実行し、ステップS610にて電役サポート用処理を実行し、ステップS611にて遊技球発射制御処理を実行し、ステップS612にて外部出力処理を実行する。その後、本タイマ割込み処理を終了する。これら各処理の詳細な内容は、上記図7〜図9を参照して説明した内容と同様である。 Thereafter, in step S606, update processing of the variation type counter CS is executed, game time control processing is executed in step S607, game state transition processing is executed in step S608, and demo display processing is executed in step S609. Is executed, a power support process is executed in step S610, a game ball launch control process is executed in step S611, and an external output process is executed in step S612. Thereafter, the timer interrupt process is terminated. The detailed contents of these processes are the same as the contents described with reference to FIGS.
<音声発光制御装置60>
次に、音声発光制御装置60について説明する。
<Audio
Next, the sound
音声発光制御装置60は、図4に示すように、MPU62が搭載された音声発光制御基板61を具備している。MPU62には、当該MPU62により実行される各種の制御プログラムや固定値データを記憶したROM63と、そのROM63内に記憶される制御プログラムの実行に際して各種のデータ等を一時的に記憶するためのメモリであるRAM64と、割込回路、タイマ回路、データ入出力回路、乱数発生器としての各種カウンタ回路などが内蔵されている。
As shown in FIG. 4, the sound
なお、ROM63として、制御プログラムや固定値データの読み出しに際してランダムアクセスが可能であって、記憶保持に外部からの電力供給が不要な記憶手段(すなわち、不揮発性記憶手段)が用いられている。また、制御及び演算部分と、ROM63と、RAM64とが1チップ化されている構成は必須ではなく、各機能がそれぞれ別チップとして搭載されている構成としてもよく、一部の機能が別チップとして搭載されている構成としてもよい。
The ROM 63 is a storage means (that is, a non-volatile storage means) that can be randomly accessed when reading a control program or fixed value data and does not require external power supply for storage retention. In addition, a configuration in which the control and calculation portion, the ROM 63, and the
MPU62には、入力ポート及び出力ポートがそれぞれ設けられている。MPU62の入力側には演出用操作装置48及び主制御装置50が接続されているとともに、MPU62の出力側には各種発光部35,36,44、スピーカ部45及び表示制御装置130が接続されている。
The
MPU62では、主制御装置50から送信された変動用コマンドを受信することで、遊技回用の演出を開始させる必要があることを認識し、遊技回用演出開始処理を実行する。また、主制御装置50から送信された終了コマンドを受信することで、遊技回用の演出を終了させる必要があることを認識し、遊技回用演出終了処理を実行する。また、主制御装置50から送信された大当たり演出用の各種コマンドを受信することで、大当たり演出を開始させる必要があること又は進行させる必要があることを認識し、大当たり演出用処理を実行する。また、主制御装置50から送信されたデモ表示用のコマンドを受信することで、デモ表示を開始させる必要があることを認識し、デモ表示用処理を実行する。
The
なお、MPU62において主制御装置50からコマンドを受信するとは、主制御装置50からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。
Note that the
遊技回用演出開始処理では、変動用コマンド及び種別コマンドの両コマンドに基づいて、該当遊技回の変動表示時間を把握する変動表示時間の把握処理と、リーチ表示の有無を把握するリーチ表示把握処理と、大当たり結果の有無を把握する大当たり結果発生の把握処理と、大当たり結果が発生する場合における大当たり種別を把握する大当たり種別の把握処理と、を実行する。また、リーチ表示把握処理、大当たり結果発生の把握処理及び大当たり種別の把握処理における把握結果に基づいて、本遊技回において図柄表示装置31の表示面Gに最終停止表示させる図柄の種類を決定する図柄種別把握処理を実行する。そして、上記各把握処理の結果に基づいて、変動表示時間の情報及び表示演出の種類の情報を含む変動パターンコマンドと、最終停止表示させる図柄の種類の情報を含む図柄指定コマンドを、表示制御装置130に送信する。
In the game turn production start process, based on both the change command and the type command, the change display time grasp process for grasping the change display time of the corresponding game turn and the reach display grasp process for grasping the presence or absence of reach display. And a jackpot result occurrence grasping process for grasping the presence / absence of the jackpot result and a jackpot type grasping process for grasping the jackpot type when the jackpot result occurs. In addition, on the basis of the grasp results in the reach display grasping process, the jackpot result occurrence grasping process, and the jackpot type grasping process, the symbol for determining the kind of the symbol to be finally stopped and displayed on the display surface G of the
また、遊技回用演出開始処理では、上記各把握処理の他に、予告表示を行うか否かの予告表示抽選処理を実行する。この場合、当該抽選処理では、予告表示の種別抽選についても実行される。そして、予告表示の発生当選である場合には、予告表示の種別の情報を含む予告コマンドを、表示制御装置130に送信する。
In addition, in the game turn production start process, in addition to the above-described grasping processes, a notice display lottery process for determining whether or not to perform a notice display is executed. In this case, in the lottery process, the type lottery for the notice display is also executed. If it is determined that the notice display has been generated, a notice command including information on the type of notice display is transmitted to the
また、遊技回用演出開始処理では、上記各処理の処理結果に基づいて、遊技回用の表示発光テーブルと遊技回用の音声テーブルとをROM63から読み出す。遊技回用の表示発光テーブルにより、該当する遊技回の進行過程における表示発光部44の発光態様が規定される。また、遊技回用の音声テーブルにより、該当する遊技回の進行過程におけるスピーカ部45からの出力態様が規定される。
Further, in the game start effect starting process, the game light display light emission table and the game turn sound table are read from the ROM 63 based on the processing results of the above processes. The display light emission table for game times defines the light emission mode of the display
遊技回用演出終了処理では、現状の遊技回における表示発光部44の発光制御及びスピーカ部45の音声出力制御を終了する。また、当該遊技回用演出終了処理では、遊技回用演出を終了させるべき情報を含む終了コマンドを、表示制御装置130に送信する。
In the game round effect end process, the light emission control of the display
大当たり演出用処理では、受信している大当たり演出用の各種コマンドに基づいて、オープニング時、各ラウンド時、各ラウンド間及びエンディング時などの演出態様を把握し、その把握結果に対応した大当たり演出用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、大当たり演出用の表示発光テーブルと大当たり演出用の音声テーブルとをROM63から読み出し、大当たり演出中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。
In the jackpot presentation process, based on the various commands for the jackpot presentation received, the presentation mode at the opening, at each round, between each round, and at the ending is grasped, and the jackpot presentation corresponding to the grasped result Is sent to the
デモ表示用処理では、受信しているデモ表示用のコマンドに基づいて、デモ表示の演出態様を把握し、その把握結果に対応したデモ表示用のコマンドを表示制御装置130に送信する。また、当該把握結果に基づいて、デモ表示用の表示発光テーブルとデモ表示用の音声テーブルとをROM63から読み出し、デモ表示中における表示発光部44の発光態様やスピーカ部45からの音声の出力態様を規定する。
In the demonstration display processing, the demonstration display presentation mode is grasped based on the received demonstration display command, and the demonstration display command corresponding to the grasped result is transmitted to the
なお、主制御装置50から送信されたコマンドに基づいてMPU62にて実行される処理は、上記処理以外にも、第1保留発光部35や第2保留発光部36を発光制御するための処理が含まれる。
The processing executed by the
また、MPU62では、演出用操作装置48の操作部が操作されたことに基づき当該演出用操作装置48から送信される操作信号を受信することで、演出用操作装置48が操作されたことを認識し、操作対応処理を実行する。また、操作されている状態が解除された場合にも操作信号の立下りによってそれを認識し、操作対応処理を実行する。
Further, the
ここで、演出用操作装置48の操作に対応した演出の一部として、演出用操作装置48が操作されたことに基づき、表示モードが変更される演出が実行される。表示モードとは、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。かかる表示モードの詳細な内容、及び演出用操作装置48の操作に基づく表示モードの切り換えに係る処理構成については後に詳細に説明する。
Here, as part of the effect corresponding to the operation of the
<表示制御装置130>
表示制御装置130のハード構成について説明する。
<
A hardware configuration of the
表示制御装置130は、図4に示すように、表示CPU131と、ワークRAM132と、メモリモジュール133と、VRAM134と、ビデオディスプレイプロセッサ(VDP)135と、が搭載された表示制御基板136を備えている。
As shown in FIG. 4, the
表示CPU131は、表示制御装置130においてメイン制御部としての機能を有しており、制御プログラム等の読み出し、解釈及び実行を行う。詳細には、表示CPU131は表示制御基板136に搭載された入力ポート137に対してバスを介して接続されており、音声発光制御装置60から送信された各種コマンドは入力ポート137を通じて表示CPU131に入力される。なお、表示CPU131において音声発光制御装置60からコマンドを受信するとは、音声発光制御装置60からコマンドを直接受信する構成に限定されることはなく、中継基板に中継されたコマンドを受信する構成も含まれる。
The
表示CPU131は、バスを介してワークRAM132、メモリモジュール133及びVRAM134と接続されており、音声発光制御装置60から受信したコマンドに基づいて、メモリモジュール133に記憶された各種データをワークRAM132やVRAM134に転送させる転送指示を行う。また、表示CPU131は、バスを介してVDP135と接続されており、音声発光制御装置60から受信したコマンドに基づいて、図柄表示装置31に3次元画像(3D画像)を表示させるための描画指示を行う。以下、メモリモジュール133、ワークRAM132、VRAM134及びVDP135について説明する。
The
メモリモジュール133は、制御プログラム及び固定値データを含む制御用データを予め記憶しているとともに、3次元画像を表示するための各種画像データを予め記憶している記憶手段である。当該メモリモジュール133は、記憶保持に外部からの電力供給が不要な不揮発性の半導体メモリを有してなる。ちなみに、記憶容量は4Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該メモリモジュール133は、パチンコ機10の使用に際して、非書き込み用であって読み出し専用のメモリ(ROM)として用いられる。
The
メモリモジュール133に記憶されている各種画像データには、図柄表示装置31に表示される図柄やキャラクタなどのオブジェクト用の画像データと、当該オブジェクトに貼り付けられるテクスチャ用の画像データと、1フレーム分の画像において最背面の画像を構成する背面用の画像データとが含まれている。
Various image data stored in the
ここで、オブジェクトとは、仮想3次元空間に相当する3次元の座標系であるワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。また、ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。オブジェクト用の画像データには、例えばサーフェスモデルを適用するため、オブジェクト毎に予め設定された基準座標を原点として、各ポリゴンの頂点座標情報が設定されている。つまり、各オブジェクト用の画像データでは、自己完結のローカル座標系において各ポリゴンの相対位置(すなわち、向きやサイズ)が3次元的に定義されている。 Here, the object is a three-dimensional virtual object arranged in a world coordinate system, which is a three-dimensional coordinate system corresponding to a virtual three-dimensional space, and is three-dimensional information composed of a plurality of polygons. A polygon is a polygonal plane defined by vertices of a plurality of three-dimensional coordinates. In order to apply, for example, a surface model to the object image data, vertex coordinate information of each polygon is set with reference coordinates preset for each object as the origin. That is, in the image data for each object, the relative position (that is, direction and size) of each polygon is three-dimensionally defined in a self-contained local coordinate system.
テクスチャとは、オブジェクトの各ポリゴンに貼り付ける画像であり、テクスチャがオブジェクトに貼り付けられることにより、オブジェクトに対応する画像、例えば図柄やキャラクタなどを含む表示画像が生成される。テクスチャ用の画像データの持ち方は、任意であるが、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。 A texture is an image to be pasted on each polygon of an object, and a texture image is pasted on an object, thereby generating a display image including an image corresponding to the object, for example, a design or a character. The manner of holding the image data for texture is arbitrary, but includes at least a combination of, for example, bitmap format data and a color palette table referred to when determining the display color at each pixel of the bitmap image. Yes.
最背面の画像は、2次元画像(2D画像)を構成している。背面用の画像データの持ち方は、任意であるが、例えば2次元の静止画像データが圧縮された状態のJPEG形式データとして記憶保持されている。ちなみに、当該背面用の画像データがワールド座標系に配置される場合には板ポリゴンが利用される。 The rearmost image constitutes a two-dimensional image (2D image). The manner of holding the image data for the back is arbitrary, but for example, it is stored and held as JPEG format data in a state in which two-dimensional still image data is compressed. Incidentally, a plate polygon is used when the image data for the back side is arranged in the world coordinate system.
ワークRAM132は、メモリモジュール133から読み出されて転送された制御用データを一時的に記憶しておくとともに、フラグ等を一時的に記憶しておくための記憶手段である。ワークRAM132は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてDRAMが用いられている。但し、DRAMに限定されることはなくSRAMといった他のRAMを用いてもよい。なお、記憶容量は1Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、ワークRAM132は、パチンコ機10の使用に際して、読み書き両用として用いられる。
The
ワークRAM132には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から制御用データが転送される。そして、表示CPU131は、ワークRAM132に転送された制御用データを必要に応じて内部のメモリ領域(レジスタ群)に読み込み、各種処理を実行する。
Based on a data transfer instruction from the
VRAM134は、図柄表示装置31に対して画像出力を行うために必要な各種データを一時的に記憶しておくための記憶手段である。当該VRAM134は、記憶保持に外部からの電力供給が必要な揮発性の半導体メモリを有してなり、詳細には当該半導体メモリとしてSDRAMが用いられている。但し、SDRAMに限定されることはなく、DRAM、SRAM又はデュアルポートRAMといった他のRAMを用いてもよい。なお、記憶容量は2Gビットであるが、かかる記憶容量は表示制御装置130における制御が良好に実行されるのであれば任意である。また、当該VRAM134は、パチンコ機10の使用に際して、読み書き両用として用いられる。
The
VRAM134は展開用バッファ141を備えており、展開用バッファ141には、表示CPU131からメモリモジュール133へのデータ転送指示に基づき、当該メモリモジュール133から画像データが転送される。この場合、当該画像データは、その画像データを用いたVDP135における処理の実行タイミングとなるまでに事前に転送される。また、VRAM134には、VDP135により描画データ(生成データ)が作成されるフレームバッファ142が設けられている。また、VRAM134には、Zバッファ143、スクリーン用バッファ144及びモード用バッファ145が設けられているが、これらの詳細については後に説明する。
The
VDP135は、表示CPU131からの描画指示に基づき、展開用バッファ141に記憶保持されているデータを用いて、具体的には加工することにより、図柄表示装置31に対して描画を行う画像生成デバイスであり、図柄表示装置31において液晶表示部31aを駆動制御するように組み込まれた画像処理デバイス31bを操作する一種の描画回路である。VDP135はICチップ化されているため「描画チップ」とも呼ばれ、その実体は、描画専用のファームウェアを内蔵したマイコンチップとでも言うべきものである。
The
詳細には、VDP135は、ジオメトリ演算部151と、レンダリング部152と、レジスタ153と、表示モード制御部154と、表示回路155と、を備えている。また、これら各回路はバスを介して相互に接続されているとともに、表示CPU131用のI/F156及びVRAM134用のI/F157と接続されている。
Specifically, the
表示CPU131用のI/F156は、表示CPU131から送信された描画指示情報としての描画リストをレジスタ153に記憶させる。ジオメトリ演算部151は、レジスタ153に格納された描画リストに基づいて、配置対象として指定されているオブジェクトをワールド座標系内に配置する。また、ジオメトリ演算部151は、オブジェクトをワールド座標系内に配置する場合及び配置した後に、各種の座標変換処理を実行する。そして、最終的に表示面Gのスクリーン座標に対応する3次元空間に対応させて、オブジェクトをクリッピングする。
The I /
レンダリング部152は、レジスタ153に格納された描画リストに基づいて、クリッピングされた各オブジェクトに対して光源調整や、テクスチャの貼付を行い、オブジェクトの外観を決定する。また、レンダリング部152は、各オブジェクトを所定の2次元平面上に投影させて2次元データを作成するとともに、深度情報に基づく各種調整を行い2次元データである1フレーム分の描画データをフレームバッファ142に作成する。1フレーム分の描画データとは、予め定められた更新タイミングで図柄表示装置31の表示面Gにおける画像が更新される構成において、一の更新タイミングにおける画像を表示させるのに必要なデータのことをいう。
Based on the drawing list stored in the register 153, the
なお、ジオメトリ演算部151及びレンダリング部152が動作するための制御プログラムの全てが描画リストにより提供される構成としてもよく、制御プログラムを予め記憶したメモリをVDP135に内蔵させ、当該制御プログラムと描画リストの内容によってジオメトリ演算部151及びレンダリング部152が処理を実行する構成としてもよい。また、メモリモジュール133から制御プログラムを事前に読み出す構成としてもよい。また、ジオメトリ演算部151及びレンダリング部152がプログラムを利用することなく、描画リストに対応したハード回路の動作のみで処理を実行する構成としてもよい。
Note that all of the control programs for operating the
ここで、フレームバッファ142には、複数のフレーム領域142a,142bが設けられている。具体的には、第1フレーム領域142aと、第2フレーム領域142bとが設けられている。これら各フレーム領域142a,142bは、それぞれ1フレーム分の描画データを記憶可能な容量に設定されている。具体的には、各フレーム領域142a,142bにはそれぞれ、液晶表示部31a(すなわち表示面G)のドット(画素)に所定の倍率で対応させた多数の単位エリアが含まれている。各単位エリアは、いずれの色を表示するかを特定するためのデータを格納可能な記憶容量を有している。より詳細には、フルカラー方式が採用されており、各ドットにおいてR(赤),G(緑),B(青)のそれぞれに256色の設定が可能となっている。これに対応させて、各単位エリアにおいては、RGB各色に1バイト(8ビット)が割り当てられている。つまり、各単位エリアは、少なくとも3バイトの記憶容量を有している。
Here, the
なお、フルカラー方式に限定されることはなく、例えば各ドットにおいて256色のみ表示可能な構成においては、各単位エリアにおいて色情報を格納するために必要な記憶容量は1バイトでよい。 Note that the present invention is not limited to the full-color method, and for example, in a configuration that can display only 256 colors in each dot, the storage capacity required to store color information in each unit area may be 1 byte.
フレームバッファ142に第1フレーム領域142a及び第2フレーム領域142bが設けられていることにより、一方のフレーム領域に作成された描画データを用いて図柄表示装置31への描画が実行されている状況において、他のフレーム領域に対して今後用いられる描画データの作成が実行される。つまり、フレームバッファ142として、ダブルバッファ方式が採用されている。
Since the first frame area 142a and the second frame area 142b are provided in the
表示回路155では、第1フレーム領域142a又は第2フレーム領域142bに作成された描画データに基づいて液晶表示部31aの各ドットに対応した画像信号が生成され、その画像信号が、表示回路155に接続された出力ポート138を介して図柄表示装置31に出力される。詳細には、出力対象のフレーム領域142a,142bから表示回路155へ描画データが転送される。その転送された描画データは図柄表示装置31の解像度に対応したものとなるように、図示しないスケーラにより解像度調整が行われて階調データに変換される。そして、当該階調データに基づいて図柄表示装置31の各ドットに対応した画像信号が生成されて出力される。なお、表示回路155からは水平同期信号又は垂直同期信号などの同期信号も出力される。
In the
また、表示モード制御部154では、表示モードに対応した画像の表示を行う場合に、レジスタ153に格納された描画リストに基づいて、所定の処理を実行する。当該所定の処理については後に説明する。
Further, the display
<表示CPU131における基本的な処理>
次に、表示CPU131における基本的な処理について説明する。
<Basic Processing in
Next, basic processing in the
<メイン処理>
先ず、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合に起動されるメイン処理について説明する。図12はメイン処理を示すフローチャートである。
<Main processing>
First, a description will be given of a main process that is started when the supply of operating power to the
メイン処理では、先ずステップS701にて、初期設定処理を実行する。 In the main process, an initial setting process is first executed in step S701.
初期設定処理では、表示回路155のスケーラの初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bに作成される描画データに基づいて画像信号が出力される場合に、その画像信号が液晶表示部31aのドット数に対応させて出力されるように、VDP135に対して解像度初期調整用コマンドを送信する。この初期調整値は、パチンコ機10の設計段階において調整されており、その調整結果が解像度初期調整用コマンドとして設定されている。
In the initial setting process, a scaler initial adjustment process of the
VDP135に解像度初期調整用コマンドが送信されることで、VDP135のレジスタ153におけるスケーラの解像度調整用のエリアに初期調整値に対応した数値情報が格納される。これにより、VDP135から図柄表示装置31に画像信号が出力される場合、描画データに対応した画像信号が液晶表示部31aのドット数に調整された状態で出力される。
By transmitting a resolution initial adjustment command to the
また、初期設定処理では、地色の初期調整処理を実行する。当該初期調整処理では、VRAM134の各フレーム領域142a,142bの単位エリアに初期値として設定される数値情報が初期数値情報となるように、VDP135に対して地色初期調整用コマンドを送信する。この初期数値情報は、パチンコ機10の設計段階において調整されており、その調整結果が地色初期調整用コマンドとして設定されている。
In the initial setting process, an initial adjustment process for the ground color is executed. In the initial adjustment process, a ground color initial adjustment command is transmitted to the
VDP135は地色初期調整用コマンドが送信されることで、VDP135のレジスタ153における地色調整用のエリアに初期数値情報が格納される。これにより、描画データが作成される場合に初期数値情報からの更新が行われなかった単位エリアに対応したドットでは、地色が表示されることとなる。なお、初期の地色として本パチンコ機10では黒色が設定されているが、これに限定されることはなく任意である。
When the
ステップS701にて初期設定処理を実行した後は、ステップS702にて、各種割込みを許可する。これにより、表示CPU131においてコマンド割込み処理及びV割込み処理を実行することが許容される。その後、メイン処理では、ステップS702の処理を繰り返す。
After executing the initial setting process in step S701, various interrupts are permitted in step S702. This allows the
<コマンド割込み処理>
次に、コマンド割込み処理について説明する。
<Command interrupt processing>
Next, command interrupt processing will be described.
コマンド割込み処理は、音声発光制御装置60からストローブ信号を受信した場合に、その時点で実行されている処理が何であったとしても最優先で起動される処理である。コマンド割込み処理では、入力ポート137にて受信しているコマンドを、ワークRAM132に設けられたコマンドバッファに転送し、さらにコマンドを新たに受信したことを示すフラグを対応するエリアにセットする。その後、コマンド割込み処理を終了し、当該コマンド割込み処理の起動前の処理に復帰する。
The command interrupt process is a process that is started with the highest priority when a strobe signal is received from the sound
<V割込み処理>
次に、V割込み処理について、図13のフローチャートを参照しながら説明する。V割込み処理は、予め定められた周期、具体的には20msec周期で繰り返し起動される。
<V interrupt processing>
Next, the V interrupt process will be described with reference to the flowchart of FIG. The V interrupt process is repeatedly activated at a predetermined cycle, specifically, 20 msec.
なお、VDP135は図柄表示装置31に1フレーム分の画像信号を出力する場合、表示面Gの左上の隅角部分にあるドットから画像信号の出力を始めて、当該ドットを一端に含む横ライン上に並ぶドットに対して順次画像信号を出力するとともに、各横ラインに対して上から順に左から右のドットへと画像信号を出力する。そして、表示面Gの右下の隅角部分にあるドットに対して最後に画像信号を出力する。この場合に、VDP135は当該最後のドットに対して画像信号を出力したタイミングで、表示CPU131へV割込み信号を出力して1フレームの画像の更新が完了したことを表示CPU131に認識させる。このV割込み信号の出力周期は20msecとなっている。この点、V割込み処理は、V割込み信号の受信に同期して起動されると見なすこともできる。但し、V割込み信号を受信していなくても、前回のV割込み処理が起動されてから20msecが経過している場合には、新たにV割込み処理が起動される。
When the image signal for one frame is output to the
V割込み処理では、先ずステップS801にて、コマンド解析処理を実行する。具体的には、ワークRAM132のコマンドバッファに格納されているコマンドの内容を解析する。続くステップS802では、ステップS801の解析結果に基づいて、新規コマンドを受信しているか否かを判定する。新規コマンドを受信している場合には、ステップS803にて、コマンド対応処理を実行する。
In the V interrupt processing, first, in step S801, command analysis processing is executed. Specifically, the contents of the command stored in the command buffer of the
コマンド対応処理では、受信しているコマンドに対応したプログラムを実行するためのデータテーブルをメモリモジュール133から読み出す。データテーブルとは、受信したコマンドに対応した動画を図柄表示装置31の表示面Gに表示させる場合において、画像の各更新タイミングにおける1フレーム分の画像を表示させるのに必要な処理が定められた情報群である。
In the command handling process, a data table for executing a program corresponding to the received command is read from the
ここで、表示CPU131が音声発光制御装置60から受信するコマンドとしては、既に説明したとおり、変動パターンコマンド、図柄指定コマンド及び予告コマンドがある。これらのコマンドを受信した場合、それら各コマンドに対応した遊技回用演出を図柄表示装置31にて実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては終了コマンドがあり、当該コマンドを受信した場合には現状実行されている遊技回用演出を最終停止させるために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、大当たり演出用の各種コマンドがあり、当該コマンドを受信した場合には大当たり演出を実行するために必要なデータテーブルを読み出す。また、上記受信するコマンドとしては、デモ表示用のコマンドがあり、当該コマンドを受信した場合にはデモ表示を実行するために必要なデータテーブルを読み出す。さらに読み出したデータテーブルに基づき、処理を実行する場合に必要な他のプログラムデータも読み出す。
Here, as described above, the commands received by the
ステップS803にてコマンド対応処理を実行した後は、ステップS804にて、ポインタ更新処理を実行する。当該ポインタ更新処理では、データテーブルに設定されているポインタの情報を、1フレーム分進めるように更新する。これにより、今回の更新タイミングに対応した1フレーム分の画像を表示させるために必要な処理を、表示CPU131において把握することが可能となる。
After executing the command response process in step S803, the pointer update process is executed in step S804. In the pointer update process, the pointer information set in the data table is updated to advance by one frame. As a result, it is possible for the
続くステップS805では、タスク処理を実行する。タスク処理では、今回の更新タイミングに対応した1フレーム分の画像を表示させるために、VDP135に描画指示を行う上で必要なパラメータの演算を行う。当該タスク処理の詳細については後に説明する。
In a succeeding step S805, task processing is executed. In the task processing, in order to display an image for one frame corresponding to the current update timing, a parameter necessary for performing a drawing instruction to the
続くステップS806では、描画リスト出力処理を実行する。描画リスト出力処理では、今回の処理回に係る更新タイミングに対応した1フレーム分の画像を表示させるための描画リストを作成し、その作成した描画リストをVDP135に送信する。この場合、当該描画リストでは、直前のタスク処理にて把握された画像が描画対象となり、さらに当該タスク処理にて更新したパラメータの情報が合わせて設定される。VDP135では、この描画リストに従ってVRAM134のフレーム領域142a,142bに描画データを作成する。このVDP135における処理については後に詳細に説明する。その後、本V割込み処理を終了する。
In a succeeding step S806, a drawing list output process is executed. In the drawing list output process, a drawing list for displaying an image of one frame corresponding to the update timing related to the current processing time is created, and the created drawing list is transmitted to the
<表示CPU131におけるタスク処理>
ここで、タスク処理について、図14のフローチャートを参照しながら説明する。
<Task processing in
Here, the task processing will be described with reference to the flowchart of FIG.
タスク処理では先ずステップS901にて、制御開始用の設定処理を実行する。制御開始用の設定処理では、今回の処理回で表示CPU131において新たに制御(演算)を開始する個別画像を設定するための処理を実行する。なお、個別画像とは、背面用の画像データなどの静止画像データにより規定される一の2次元画像や、オブジェクト用の画像データとテクスチャ用の画像データとの組み合わせにより規定される一の3次元画像のことである。
In the task processing, first, in step S901, setting processing for starting control is executed. In the setting process for starting control, a process for setting an individual image for newly starting control (calculation) in the
制御開始用の設定処理について具体的には、先ず現状設定されているデータテーブルに基づいて、今回の処理回で制御開始対象となる個別画像が存在しているか否かを判定する。存在している場合には、ワークRAM132において、個別画像の制御を行う上で各種演算を行うための空きバッファ領域を検索して、制御開始対象として把握されている個別画像に1対1で対応するように空きバッファ領域を確保する。さらに、確保した全ての空きバッファ領域に対して初期化処理を実行するとともに、初期化した空きバッファ領域に対して、個別画像に応じた制御開始用のパラメータを設定する。
Specifically, regarding the setting process for starting control, first, based on the currently set data table, it is determined whether or not there is an individual image to be controlled in the current processing round. If present, the
続くステップS902では、制御更新対象を把握する。この制御更新対象は、制御開始処理が完了している個別画像であって今回の処理回以降に1フレーム分の画像に含まれる可能性がある個別画像が対象となる。 In subsequent step S902, the control update target is grasped. This control update target is an individual image for which the control start process has been completed, and an individual image that may be included in an image for one frame after the current processing time.
続くステップS903では、背景用演算処理を実行する。背景用演算処理では、背景の画像を構成することとなる最背面用の画像や、背景用キャラクタについて、ワールド座標系内における座標、回転角度、スケール、明暗を付けるためのライトの情報、投影を行うためのカメラの情報、及びZテスト指定などといった描画リストを作成する上で必要な各種パラメータを演算して導き出す処理を実行する。 In the subsequent step S903, a background calculation process is executed. In the background calculation processing, coordinates, rotation angles, scales, light information for adding light and darkness, and projections are applied to the background image and background characters that make up the background image. Processing for calculating and deriving various parameters necessary for creating a drawing list such as camera information to be performed and Z test designation is executed.
続くステップS904では、演出用演算処理を実行する。演出用演算処理では、リーチ表示、予告表示及び大当たり演出といった各種演出において表示対象となる個別画像について、上記各種パラメータを演算して導き出す処理を実行する。 In a succeeding step S904, an effect calculation process is executed. In the effect calculation process, a process for calculating and deriving the above-described various parameters is executed for individual images to be displayed in various effects such as reach display, notice display, and jackpot effect.
続くステップS905では、図柄用演算処理を実行する。図柄用演算処理では、各遊技回において変動表示の対象となる図柄の画像について、上記各種パラメータを演算して導き出す処理を実行する。 In a succeeding step S905, a symbol calculation process is executed. In the symbol calculation process, a process for calculating and deriving the above-described various parameters is performed on a symbol image to be subjected to variable display in each game round.
ちなみに、ステップS903〜ステップS905の各処理では、ステップS901にて設定された制御開始用のパラメータを更新する処理を実行する。また、ステップS903〜ステップS905の各処理では、個別画像の各種パラメータを画像更新タイミングとなる度に特定のパターンに従って変化させるように設定されたアニメーション用データが用いられる。このアニメーション用データは、メモリモジュール133に予め記憶されており、個別画像の種類に応じて定められている。
Incidentally, in each process of step S903 to step S905, a process of updating the control start parameter set in step S901 is executed. Further, in each process of step S903 to step S905, animation data set so as to change various parameters of the individual image according to a specific pattern every time the image update timing is reached is used. This animation data is stored in advance in the
その後、ステップS906にてワールド座標系への配置対象の把握処理を実行した後に、本タスク処理を終了する。ワールド座標系への配置対象の把握処理では、上記ステップS903〜ステップS905の各処理により制御更新対象となった各個別画像のうち、今回の描画リストにおいて描画対象として設定する個別画像を把握する処理を実行する。当該把握は、現状設定されているデータテーブルに基づいて行われる。ここで把握された個別画像が、描画リストにおいて描画対象として設定される。 Thereafter, in step S906, after performing the process of grasping the placement target in the world coordinate system, this task process is terminated. In the process of grasping the placement target in the world coordinate system, the process of grasping the individual image to be set as the drawing target in the current drawing list among the individual images that have been controlled and updated by the processes in steps S903 to S905. Execute. The grasp is performed based on the currently set data table. The individual image grasped here is set as a drawing target in the drawing list.
つまり、表示CPU131にて制御対象となる個別画像の方が、VDP135にて制御対象となる個別画像よりも多く設定されているため、ステップS906においてその調整を行っている。但し、これに限定されることはなく、表示CPU131において制御対象となる個別画像と、VDP135において制御対象となる個別画像とが同一である構成としてもよく、この場合、ステップS906の処理を実行する必要がなくなる。
That is, since the individual images to be controlled by the
なお、ステップS901の制御開始用の設定処理において、表示CPU131の処理負荷を分散させるべく、各個別画像の制御開始タイミングが分散させて設定されている構成としてもよい。
In the setting process for starting control in step S901, the control start timing of each individual image may be set in a distributed manner in order to distribute the processing load of the
<VDP135における基本的な処理>
次に、VDP135にて実行される基本的な処理について説明する。
<Basic processing in the
Next, basic processing executed by the
VDP135では、表示CPU131から送信されたコマンドに基づいてレジスタ153の値を設定する処理、表示CPU131から送信された描画リストに基づいてフレームバッファ142のフレーム領域142a,142bに描画データを作成する処理、フレーム領域142a,142bに作成された描画データに基づいて図柄表示装置31に画像信号を出力する処理が少なくとも実行される。
In the
上記各処理のうち、レジスタ153の値を設定する処理は、表示CPU131用のI/F156に付随する図示しない回路によって、コマンドを受信した場合にその都度実行される。また、描画データを作成する処理は、ジオメトリ演算部151及びレンダリング部152の協同により、予め定められた周期(例えば、20msec)で繰り返し実行される。また、画像信号を出力する処理は、表示回路155によって、予め定められた画像信号の出力開始タイミングとなることで実行される。
Of the above processes, the process of setting the value of the register 153 is executed each time a command is received by a circuit (not shown) attached to the I /
以下、上記描画データを作成する処理について詳細に説明する。当該処理の説明に先立ち、表示CPU131からVDP135に送信される描画リストの内容について説明する。図15(a)〜(c)は描画リストの内容を説明するための説明図である。
Hereinafter, the process of creating the drawing data will be described in detail. Prior to the description of the processing, the contents of the drawing list transmitted from the
描画リストには、ヘッダ情報が設定されている。ヘッダ情報には、当該描画リストに係る1フレーム分の画像を、第1フレーム領域142a及び第2フレーム領域142bのうちいずれを作成対象とするかを示す情報であるターゲットバッファの情報が設定されている。また、ヘッダ情報には、各種指定情報が設定されている。各種指定情報の内容については後に説明する。なお、VDP135にて取り扱う画像データとして動画像データが含まれている場合には、ヘッダ情報において、デコード指定の有無及びデコード対象となる動画像データがメモリモジュール133において記憶されているアドレスの情報が設定されていてもよい。
Header information is set in the drawing list. In the header information, information of a target buffer, which is information indicating which one of the first frame area 142a and the second frame area 142b is to be created, is set for an image of one frame related to the drawing list. Yes. In addition, various designation information is set in the header information. The contents of the various designation information will be described later. When moving image data is included as image data handled by the
描画リストには、上記ヘッダ情報以外にも、今回の描画データの作成に際してワールド座標系への配置対象となる複数種類の画像データが設定されており、さらに各画像データの描画順序の情報と、各画像データのパラメータ情報とが設定されている。詳細には、描画順序の情報が連番の数値情報となるようにして設定されているとともに、各数値情報に1対1で対応させてパラメータの情報が設定されている。 In the drawing list, in addition to the header information, a plurality of types of image data to be arranged in the world coordinate system are set when creating the drawing data this time, and information on the drawing order of each image data, Parameter information of each image data is set. More specifically, the drawing order information is set so as to be sequential numerical value information, and the parameter information is set in a one-to-one correspondence with each numerical information.
図15(a)の描画リストでは、背面用の画像データが最初の描画対象として設定されているとともに、背景用オブジェクトAが2番目、背景用オブジェクトBが3番目、・・・として設定されている。また、これら背景用の画像データよりも後の順番として、演出用の画像データが設定されており、例えば演出用オブジェクトAがm番目、演出用オブジェクトBがm+1番目、・・・として設定されている。また、これら演出用の画像データよりも後の順番として、図柄用の画像データが設定されており、例えば図柄用オブジェクトAがn番目、図柄用オブジェクトBがn+1番目、・・・として設定されている。 In the drawing list of FIG. 15A, the back side image data is set as the first drawing target, the background object A is set as the second, the background object B is set as the third, and so on. Yes. Also, as the order after the background image data, the effect image data is set, for example, the effect object A is set as mth, the effect object B is set as m + 1, and so on. Yes. Further, as the order after the effect image data, symbol image data is set, for example, symbol object A is set as nth, symbol object B is set as n + 1th,... Yes.
なお、描画リストにおいて各画像データが設定されている順番は上記のものに限定されることはなく、設定されている順番が上記のものとは逆の順番であってもよく、図柄用の画像データの後に演出用の画像データ又は背景用の画像データが設定されていてもよく、所定の演出用の画像データと他の演出用の画像データとの間の順番に図柄用の画像データが設定されていてもよい。 It should be noted that the order in which the image data is set in the drawing list is not limited to the above, and the set order may be the reverse of the above, and the design image The image data for presentation or the image data for background may be set after the data, and the image data for the design is set in the order between the predetermined presentation image data and the other presentation image data. May be.
パラメータの情報P(1),P(2),P(3),・・・,P(m),P(m+1),・・・,P(n),P(n+1),・・・には、複数種類のパラメータが設定されている。背面用の画像データのパラメータP(1)について具体的には、図15(b)に示すように、メモリモジュール133において背面用の画像データが記憶されているエリアのアドレスの情報と、背面用の画像データを設定する場合におけるワールド座標系内の位置を示す座標の情報(X値の情報,Y値の情報,Z値の情報)と、背面用の画像データを設定する場合におけるワールド座標系内の回転角度を示す回転角度の情報と、背面用の画像データの初期状態として設定されているスケールに対して、ワールド座標系に設定する際の倍率を示すスケールの情報と、背面用の画像データを設定する場合における全体の透過情報(又は透明情報)を示す一律α値の情報と、が設定されている。
Parameter information P (1), P (2), P (3), ..., P (m), P (m + 1), ..., P (n), P (n + 1), ... A plurality of types of parameters are set. Specifically, the parameter P (1) of the image data for the back surface, as shown in FIG. 15B, the address information of the area where the image data for the back surface is stored in the
ここで、座標の情報は、オブジェクト用の画像データの全頂点について個別に設定される。また、この座標の情報はオブジェクト用の画像データに対して設定されているが、テクスチャ用の画像データには設定されていない。テクスチャ用の画像データは、各ピクセルの座標値が、オブジェクト用の画像データの各頂点に関連付けて予め定められている。この座標値は、ワールド座標系における座標値とは異なるUV座標値であり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されている。このUV座標値はテクスチャマッピングする際にVDP135により参照される。
Here, the coordinate information is individually set for all the vertices of the image data for the object. The coordinate information is set for the object image data, but is not set for the texture image data. In the texture image data, the coordinate value of each pixel is determined in advance in association with each vertex of the image data for the object. This coordinate value is a UV coordinate value different from the coordinate value in the world coordinate system, and is stored in the
パラメータ(P1)には、背面用の画像データを描画用の仮想2次元平面上に投影する場合における仮想カメラの座標及び向きの情報を含むカメラの情報と、背面用の画像データをレンダリングする場合における陰影を決定する仮想光源の位置及び向きの情報を含むライトの情報と、が設定されている。 In the parameter (P1), when rendering image data for the back side and camera information including information on the coordinates and orientation of the virtual camera when the back side image data is projected on the virtual two-dimensional plane for drawing And light information including information on the position and orientation of the virtual light source that determines the shadow at.
パラメータ(P1)には、隠面消去を行う手法の一種であるZバッファ法の適用有無を示すZテスト指定の情報が設定されている。Zバッファ法とは、ワールド座標系内において多数のオブジェクトや2次元画像が奥行き方向(Z軸方向)に重なった場合に、Z軸上に並ぶ各ピクセル(又は各ボクセル、各画素、各ポリゴン)について視点からの距離を順次参照し、最も視点に近いピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに設定する深度調整用の処理方法である。当該Zバッファ法を適用する場合に、VRAM134に設けられたZバッファ143が利用される。Zバッファ143を利用した隠面処理の具体的な処理構成については後に説明する。
In the parameter (P1), Z test designation information indicating whether or not to apply the Z buffer method, which is a type of hidden surface removal method, is set. The Z buffer method means that each pixel (or each voxel, each pixel, each polygon) arranged on the Z axis when a large number of objects or two-dimensional images overlap in the depth direction (Z axis direction) in the world coordinate system. This is a depth adjustment processing method in which the distance from the viewpoint is sequentially referred to, and numerical information set in the pixel closest to the viewpoint is set in the corresponding unit area in the frame regions 142a and 142b. When applying the Z buffer method, a
なお、上記隠面消去を行う手法としてZバッファ法以外にも、Zソート法が設定されている。Zソート法とは、Z軸上に並ぶ各ピクセルについて、各ピクセルに設定されている数値情報をフレーム領域142a,142bにおける対応する単位エリアに順次設定する深度調整用の処理方法である。当該Zソート法を適用する場合には、各ピクセルに設定されているα値が参照されて、Z軸上に並ぶ各ピクセルの色情報に対応した数値情報に対して対応するα値が適用された状態で、それら数値情報の加算処理や融合用の演算処理が実行されることとなる。Zソートによる隠面処理の具体的な処理構成の説明は省略するが、エフェクト画像を表示させる場合に起動される。 In addition to the Z buffer method, the Z sort method is set as a method for performing the hidden surface removal. The Z sort method is a processing method for depth adjustment in which numerical information set for each pixel is sequentially set in corresponding unit areas in the frame regions 142a and 142b for each pixel arranged on the Z axis. When the Z sort method is applied, the α value set for each pixel is referred to, and the corresponding α value is applied to the numerical information corresponding to the color information of each pixel arranged on the Z axis. In this state, the addition process of the numerical information and the calculation process for fusion are executed. The description of the specific processing configuration of the hidden surface processing by Z sort is omitted, but it is activated when an effect image is displayed.
パラメータ(P1)には、αデータの適用有無及び適用対象を示すαデータ指定の情報と、フォグの適用有無及び適用対象を示すフォグ指定の情報と、背景画像を表示するために作成された背景画像用の描画データについて別保存の有無を示す別保存指定の情報と、が設定されている。 The parameter (P1) includes α data designation information indicating whether or not α data is applied and application target, fog specification information indicating whether or not fog is applied, and a background created to display a background image. Information for specifying another save indicating whether or not the image drawing data is saved is set.
ここで、α値とは対応するピクセルの透過情報のことである。このα値の描画リスト上における設定の仕方として、上記一律α値を指定する方法と、αデータ指定を行う方法とがある。一律α値とは、一の画像データの全ピクセルに対して適用される透過情報のことであり、表示CPU131における演算結果として導出される数値情報である。当該一律α値は、画像データの全ピクセルに一律で適用される。一方、αデータとは、2次元の静止画像データやテクスチャ用の画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。当該αデータは、同一の静止画像データ又は同一のテクスチャ用の画像データの範囲内において各ピクセル単位で透過情報を相違させることができる。このαデータは、一律α値を設定するためのプログラムデータに比べデータ容量が大きい。
Here, the α value is the transmission information of the corresponding pixel. As a method of setting the α value on the drawing list, there are a method of specifying the uniform α value and a method of specifying α data. The uniform α value is transmission information applied to all pixels of one image data, and is numerical information derived as a calculation result in the
上記のように一律α値とαデータとが設定されていることにより、2次元の静止画像データやテクスチャ用の画像データの透過度をピクセル単位で細かく制御するのではなく全ピクセルに対して一律で制御すればよい状況では一律α値で対応することができることで必要なデータ容量の削減が図られるとともに、αデータを適用することによって透過度をピクセル単位で細かく制御することも可能となる。 Since the α value and α data are set uniformly as described above, the transparency of the two-dimensional still image data and the texture image data is not controlled finely in units of pixels, but is uniform for all pixels. In such a situation, it is possible to deal with a uniform α value, so that the required data capacity can be reduced, and by applying α data, the transparency can be finely controlled in units of pixels.
フォグとは、ワールド座標系において所定方向、具体的にはZ軸方向の位置に対する明るさの度合いを調整するための情報である。フォグは、霧を表現したり、洞窟内を表現したりする場合に使用される。ここで、1フレーム分の画像の全体に対して単一のフォグを適用してもよい。この場合、1フレーム分の画像に一定の態様でフォグがかかることとなる。また、これに代えて、1フレーム分の画像の全体に対して複数のフォグを適用してもよい。この場合、Z軸方向の奥側に配置されているオブジェクトに対してその他のオブジェクトと同様のフォグを適用すると暗すぎることで質感がでないような状況において、当該オブジェクトには別のフォグを設定する構成とするとよい。これにより、上記質感を損なわせないようにしつつ、フォグを設定することによる効果を得ることができる。 The fog is information for adjusting the degree of brightness with respect to a position in a predetermined direction, specifically, the Z-axis direction in the world coordinate system. Fog is used to express fog or inside a cave. Here, a single fog may be applied to the entire image for one frame. In this case, fog is applied to the image for one frame in a certain manner. Alternatively, a plurality of fogs may be applied to the entire image for one frame. In this case, when a fog similar to that of other objects is applied to an object arranged on the far side in the Z-axis direction, another fog is set for the object in a situation where the material is not too dark due to being too dark. It may be configured. Thereby, the effect by setting fog can be acquired, without impairing the said texture.
別保存とは、一旦作成した背景画像用の描画データをその後のフレームにおいてそのまま使用するために、フレーム領域142a,142bとは別に設けられたモード用バッファ145に書き込み保存しておくことをいう。モード用バッファ145には、図4に示すように、各表示モードに1対1で対応するように、第1モード用領域145aと、第2モード用領域145bとが設けられている。この別保存の具体的な内容については、後に詳細に説明する。
The separate storage means that the drawn data for the background image once created is written and stored in the
パラメータP(2)といった他のパラメータでは、図15(c)に示すように、上記図15(b)の各種情報のうち、背面用の画像データの情報に代えて、オブジェクトの情報とテクスチャの情報とが設定されている。これらの情報としては、メモリモジュール133においてオブジェクトやテクスチャが記憶されているエリアのアドレスの情報が設定されている。
With other parameters such as parameter P (2), as shown in FIG. 15 (c), out of the various types of information shown in FIG. Information is set. As these pieces of information, information on addresses of areas where objects and textures are stored in the
VDP135における描画処理について、図16のフローチャートを参照しながら説明する。なお、以下の説明では、描画処理の実行に伴い描画データが作成される様子を、図17を参照しながら説明する。
Drawing processing in the
先ずステップS1001では、表示CPU131から新たな描画リストを受信しているか否かを判定する。新たな描画リストを受信している場合には、ステップS1002にて、背景用の設定処理を実行する。
First, in step S1001, it is determined whether a new drawing list is received from the
背景用の設定処理では、今回の描画リストにて指定されている画像データのうち、背景画像を表示するための背面用の画像データ及びキャラクタ用のオブジェクトを把握する。そして、それら画像データやキャラクタ用のオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。 In the background setting process, the image data for the back and the character object for displaying the background image are grasped from the image data specified in the current drawing list. Then, it is determined whether or not the image data and the character object are already arranged in the world coordinate system.
配置されていない場合には、ワールド座標系への配置を行うために参照する空きバッファ領域を画像データ毎に検索し、空きバッファ領域を確保した場合にはその領域の初期化処理を実行する。その後、メモリモジュール133においてその画像データが記憶されているアドレスを把握して読み出すとともに、描画リストに指定された座標、回転角度及びスケールとなるように、その画像データについてのローカル座標系の座標値をワールド座標系の座標値に変換させるワールド変換処理を実行して、上記確保したバッファ領域に設定する。
If it is not arranged, a free buffer area to be referred to for placement in the world coordinate system is searched for each image data, and if a free buffer area is secured, initialization processing of that area is executed. Thereafter, the
配置されている場合には、既に確保されたバッファ領域に設定されている各種パラメータの更新処理を実行する。また、背景用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない背景用の画像データを消去する制御終了処理を実行する。 If it is arranged, update processing of various parameters set in the already secured buffer area is executed. In the background setting process, a control end process for erasing the background image data not specified in the current drawing list among the image data already arranged in the world coordinate system is executed.
続くステップS1003では、演出用の設定処理を実行する。演出用の設定処理では、今回の描画リストにて指定されている画像データのうち、演出画像を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、演出用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない演出用の画像データを消去する制御終了処理を実行する。 In continuing step S1003, the setting process for production is executed. In the effect setting process, an object for displaying the effect image is grasped from the image data specified in the current drawing list. Then, it is determined whether or not the grasped object is already arranged in the world coordinate system. If not, the process for starting the arrangement is executed in the same manner as described in the background setting process. If it is arranged, update processing of various parameters is executed. In the effect setting process, a control end process for erasing effect image data not specified in the current drawing list among image data already arranged in the world coordinate system is executed.
続くステップS1004では、図柄用の設定処理を実行する。図柄用の設定処理では、今回の描画リストにて指定されている画像データのうち、図柄を表示するためのオブジェクトを把握する。そして、その把握したオブジェクトが、ワールド座標系に既に配置されているか否かを判定する。配置されていない場合には、上記背景用の設定処理において説明した場合と同様に、配置を開始するための処理を実行する。配置されている場合には、各種パラメータの更新処理を実行する。また、図柄用の設定処理では、既にワールド座標系に配置されている画像データのうち、今回の描画リストに指定されていない図柄用の画像データを消去する制御終了処理を実行する。 In the subsequent step S1004, a symbol setting process is executed. In the symbol setting process, an object for displaying a symbol is grasped from the image data specified in the current drawing list. Then, it is determined whether or not the grasped object is already arranged in the world coordinate system. If not, the process for starting the arrangement is executed in the same manner as described in the background setting process. If it is arranged, update processing of various parameters is executed. Further, in the symbol setting process, a control end process is executed to erase the symbol image data not specified in the current drawing list among the image data already arranged in the world coordinate system.
上記ステップS1002〜ステップS1004の処理が実行されることにより、図17に示すように、X軸,Y軸,Z軸で規定されたワールド座標系内に、描画リストにより配置対象として指定されている最背面画像PC1と、各種オブジェクトPC2〜PC10とが、同じく描画リストにより指定されている座標、回転角度及びスケールで配置されたシーンの設定が完了する。 By executing the processing of steps S1002 to S1004, as shown in FIG. 17, it is designated as an arrangement target by the drawing list in the world coordinate system defined by the X axis, the Y axis, and the Z axis. The setting of the scene in which the rearmost image PC1 and the various objects PC2 to PC10 are arranged with the coordinates, the rotation angle, and the scale specified by the drawing list is completed.
なお、図17においては、最背面画像PC1や各種オブジェクトPC2〜PC10が配置されている様子を簡易的に示している。また、最背面画像PC1は、各種オブジェクトPC2〜PC10の全てに対してZ軸方向の座標が奥側に設定されている必要はなく、例えば、最背面画像PC1が曲げられた状態又は傾斜した状態で配置されていることにより、一部のオブジェクトよりもZ軸方向の座標が手前側となる構成としてもよい。但し、この一部のオブジェクトとX軸方向の座標及びY軸方向の座標が同一である最背面画像PC1の領域は、そのオブジェクトよりもZ軸方向の座標が奥側であることにより、全てのオブジェクトが最背面画像PC1により覆われない状態となる。 Note that FIG. 17 simply shows a state in which the rearmost image PC1 and the various objects PC2 to PC10 are arranged. Further, in the rearmost image PC1, it is not necessary that the coordinates in the Z-axis direction are set on the back side with respect to all of the various objects PC2 to PC10. For example, the rearmost image PC1 is bent or inclined. It is good also as a structure by which the coordinate of a Z-axis direction becomes a near side rather than a part of object. However, the region of the rearmost image PC1 in which the coordinates in the X-axis direction and the coordinates in the Y-axis direction are the same as this part of the object has all the coordinates in the Z-axis direction behind that object, The object is not covered by the rearmost image PC1.
続くステップS1005では、カメラ座標系(カメラ空間)への変換処理を実行する。カメラ座標系への変換処理では、描画リストにより指定されたカメラの情報により、視点の座標及び向きを決定するとともに、その視点の座標及び向きに基づいて、ワールド座標系を、視点を原点としたカメラ座標系(カメラ空間)に変換する。これにより、図17に示すように、カメラ形状で示す視点PC11が設定され、それに対応した座標系が設定された状態となる。 In a succeeding step S1005, conversion processing to a camera coordinate system (camera space) is executed. In the conversion process to the camera coordinate system, the coordinates and orientation of the viewpoint are determined based on the camera information specified by the drawing list, and the world coordinate system is used as the origin based on the coordinates and orientation of the viewpoint. Convert to camera coordinate system (camera space). As a result, as shown in FIG. 17, the viewpoint PC11 indicated by the camera shape is set, and the coordinate system corresponding to the viewpoint PC11 is set.
ここで、カメラの情報は、個別画像(最背面画像PC1及び各種オブジェクトPC2〜PC10)毎に設定されており、実際には個別画像毎にカメラ座標系が存在することとなる。このように個別画像毎にカメラ座標系が設定されることにより、視点切換を個別に行うことが可能となり、描画データの作成の自由度が高められる。但し、説明の便宜上、図17には全ての個別画像が単一の視点に設定されている状態を示す。 Here, the camera information is set for each individual image (the backmost image PC1 and the various objects PC2 to PC10), and a camera coordinate system actually exists for each individual image. Thus, by setting the camera coordinate system for each individual image, the viewpoint can be switched individually, and the degree of freedom in creating drawing data is increased. However, for convenience of explanation, FIG. 17 shows a state in which all the individual images are set to a single viewpoint.
続くステップS1006では、視野座標系(視野空間)への変換処理を実行する。視野座標系への変換処理では、上記各カメラ座標系を、視点からの視野(視野角)に対応する視野座標系に変換する。これにより、各個別画像について、対応する視点の視野内に含まれている場合にはそれが抽出されるとともに、視点から近い個別画像が拡大されるとともに、視点から遠い個別画像が縮小される。 In subsequent step S1006, conversion processing to a visual field coordinate system (visual field space) is executed. In the conversion process to the visual field coordinate system, each camera coordinate system is converted into a visual field coordinate system corresponding to the visual field (viewing angle) from the viewpoint. Thereby, when each individual image is included in the field of view of the corresponding viewpoint, it is extracted, the individual image close to the viewpoint is enlarged, and the individual image far from the viewpoint is reduced.
続くステップS1007では、クリッピング処理を実行する。クリッピング処理では、ステップS1006にて抽出された各個別画像が、それぞれ対応する視点を共通の原点として把握される。そして、その状態で描画対象のフレーム領域142a,142b(すなわち、図柄表示装置31の表示面G)に応じたスクリーン領域PC12(図17を参照)に対応する空間を基準として、ステップS1006にて抽出された各個別画像をクリッピングする。 In a succeeding step S1007, a clipping process is executed. In the clipping process, each individual image extracted in step S1006 is grasped with a corresponding viewpoint as a common origin. In this state, extraction is performed in step S1006 on the basis of the space corresponding to the screen area PC12 (see FIG. 17) corresponding to the frame areas 142a and 142b to be drawn (that is, the display surface G of the symbol display device 31). Clip each individual image.
続くステップS1008では、ライティング処理を実行する。ライティング処理では、描画リストにより指定されたライトの情報により、仮想光源の種類、座標及び向きを決定するとともに、上記クリッピング処理により抽出された各オブジェクトについて上記仮想光源に基づき陰影や反射等を演算する。 In a succeeding step S1008, a lighting process is executed. In the lighting process, the type, coordinates, and orientation of the virtual light source are determined based on the light information specified by the drawing list, and shadows and reflections are calculated based on the virtual light source for each object extracted by the clipping process. .
続くステップS1009では、色情報の設定処理を実行する。色情報の設定処理では、上記クリッピング処理により抽出された各オブジェクトに対して、ピクセル単位(すなわちポリゴン単位)又は頂点単位で、色情報を設定することで、各オブジェクトの外観を決定する。かかる色情報の設定処理では、基本的に、上記クリッピング処理により抽出された各オブジェクトに対して、それぞれに対応するテクスチャを貼り付けるテクスチャマッピング処理が実行される。また、状況によっては、バンプマッピングや透明度マッピングなどの処理が実行される。 In the subsequent step S1009, color information setting processing is executed. In the color information setting process, the appearance of each object is determined by setting color information for each object extracted by the clipping process in units of pixels (that is, in units of polygons) or in units of vertices. In the color information setting process, basically, a texture mapping process for pasting a texture corresponding to each object extracted by the clipping process is executed. Further, depending on the situation, processes such as bump mapping and transparency mapping are executed.
その後、ステップS1010及びステップS1011にて、ステップS1007にて抽出され、さらにライティング処理や色情報の設定処理が完了した各個別画像を、仮想2次元平面であるスクリーン領域PC12に投影(例えば、透視投影や平行投影)することで描画データを作成する。 Thereafter, in step S1010 and step S1011, each individual image extracted in step S1007 and further subjected to lighting processing and color information setting processing is projected onto the screen area PC12 which is a virtual two-dimensional plane (for example, perspective projection). Drawing data is created by performing parallel projection.
具体的には、先ずステップS1010にて、背景用の描画データ作成処理を実行する。背景用の描画データ作成処理では、背景画像として設定されている最背面画像及びオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、背景用の描画データを作成する。 Specifically, first, background drawing data creation processing is executed in step S1010. In the drawing data creation process for the background, the drawing data for the background is created by performing projection onto the screen area PC12 while performing hidden surface removal on the backmost image and the object set as the background image.
ここで、VRAM134には、図4に示すようにスクリーン用バッファ144が設けられており、スクリーン用バッファ144には背景用の描画データが書き込まれる背景用のバッファと、演出用の描画データ及び図柄用の描画データがまとめて書き込まれる演出及び図柄用のバッファとが設定されている。また、背景用のバッファ、演出及び図柄用のバッファには、スクリーン領域PC12のピクセル数と同一のドット数のエリアが設定されている。ステップS1010にて作成される背景用の描画データは、背景用のバッファに書き込まれる。なお、描画リストにおいて背景用の画像データが指定されていない場合には、背景用の描画データは作成されない。
Here, as shown in FIG. 4, the
続くステップS1011では、演出及び図柄用の描画データ作成処理を実行する。演出及び図柄用の描画データ作成処理では、演出画像として設定されているオブジェクト及び図柄として設定されているオブジェクトに対して隠面消去を行いながらスクリーン領域PC12への投影を行うことで、スクリーン用バッファ144における演出及び図柄用のバッファに演出及び図柄用の描画データを作成する。なお、描画リストにおいて演出及び図柄用の画像データが指定されていない場合には、演出及び図柄用の描画データは作成されない。 In the subsequent step S1011, drawing data creation processing for effects and symbols is executed. In the rendering data creation process for effects and symbols, the screen buffer is obtained by projecting the object set as the effect image and the object set as the pattern onto the screen area PC12 while performing hidden surface removal. The rendering data for the effect and the symbol is created in the buffer for the effect and the symbol in 144. If the image data for effects and symbols is not specified in the drawing list, the rendering data for effects and symbols is not created.
その後、ステップS1012にて、描画データ合成処理を実行した後に、本描画処理を終了する。ステップS1012の描画データ合成処理では、ステップS1010及びステップS1011の処理によりそれぞれ個別にスクリーン用バッファ144に作成されている背景用の描画データと、演出及び図柄用の描画データとを合成して、その合成結果を描画対象のフレーム領域142a,142bに1フレーム分の描画データとして書き込む。
Thereafter, in step S1012, the drawing data composition process is executed, and then the drawing process is terminated. In the drawing data combining process in step S1012, the drawing data for background and the drawing data for effects and symbols created in the
この場合、その書き込む順序は、背景用の描画データ→演出及び図柄用の描画データの順序で奥側から手前側に並ぶように規定されている。したがって、描画対象のフレーム領域142a,142bに対して、先ず背景用の描画データを書き込み、次に演出及び図柄用の描画データを書き込む。この際、描画の実行対象となったピクセルに完全透過のα値が設定されている場合には奥側の画像がそのまま利用され、半透過のα値が設定されている場合にはα値を基準とした比率での奥側の画像と手前側の画像との融合が行われ、不透過のα値が設定されている場合には奥側の画像に対する手前側の画像の上書きが行われるように、融合用の演算が実行される。 In this case, the order of writing is defined to be arranged from the back side to the front side in the order of background drawing data → effect and symbol drawing data. Therefore, the drawing data for background is first written in the frame areas 142a and 142b to be drawn, and then the drawing data for effects and symbols is written. At this time, if a completely transparent α value is set for the pixel to be rendered, the back image is used as it is, and if a semi-transparent α value is set, the α value is set. Fusion of the back side image and the near side image at the reference ratio is performed, and when the non-transparent α value is set, the near side image is overwritten with the back side image. Then, the fusion operation is executed.
ここで、融合用の演算についてより詳細に説明すると、描画対象のフレーム領域142a,142bにおける各ドットのRGBの各数値情報は、演出及び図柄用の描画データにおける描画対象となったピクセルに設定されているα値を基準として、
R:「奥側画像のR値」×(「1」−「α値」)+「手前側画像のR値」×「α値」
G:「奥側画像のG値」×(「1」−「α値」)+「手前側画像のG値」×「α値」
B:「奥側画像のB値」×(「1」−「α値」)+「手前側画像のB値」×「α値」
となる。
Here, the fusion calculation will be described in more detail. The RGB numerical value information of each dot in the drawing target frame regions 142a and 142b is set to the pixel that is the drawing target in the rendering data for the effects and symbols. Based on the α value that is
R: “R value of back side image” × (“1” − “α value”) + “R value of front side image” × “α value”
G: “G value of back side image” × (“1” − “α value”) + “G value of front side image” × “α value”
B: “B value of back side image” × (“1” − “α value”) + “B value of front side image” × “α value”
It becomes.
ちなみに、各描画データは1フレーム分の面積を有するように規定されているが、演出及び図柄用の描画データにおいて投影が行われなかったブランク部分については完全透過のα値が設定されている。 Incidentally, although each drawing data is defined to have an area for one frame, a completely transparent α value is set for a blank portion that is not projected in the rendering data for effects and symbols.
上記1フレーム分の描画データの作成は20msec周期の範囲内で完了するように行われる。また、作成された描画データに基づいて表示回路155から図柄表示装置31に画像信号が出力されるが、既に説明したとおりダブルバッファ方式が採用されているため、当該画像信号の出力は当該出力に係るフレームに対して1フレーム分後の描画データの作成と並行して行われる。また、表示回路155は1フレーム分の画像信号の出力が完了する毎に参照対象とするフレーム領域142a,142bを交互に切り換えるセレクタ回路を有しており、当該セレクタ回路による切換によって、描画データの描画対象となっているフレーム領域142a,142bが画像信号を出力するための出力対象とならないように規制されている。
The drawing data for one frame is generated so as to be completed within a 20 msec cycle. An image signal is output from the
なお、上記ステップS1002〜ステップS1007までがジオメトリ演算部151により実行される処理であり、上記ステップS1008〜ステップS1012がレンダリング部152により実行される処理である。
Steps S1002 to S1007 are processes executed by the
<Zバッファ143を利用したマスク表示>
次に、Zバッファ143を利用したマスク表示について説明する。
<Mask display using
Next, mask display using the
Zバッファ143は、既に説明したとおり、Zバッファ法による隠面消去を行う場合に利用される。ここで、VDP135にて実行されるZバッファを用いた隠面処理について、図18のフローチャートを参照しながら説明する。
As already described, the
Zバッファを用いた隠面処理は、描画リストにてZテスト指定がなされている場合に、描画処理(図16)におけるステップS1010及びステップS1011の各描画データ作成処理にて起動される。また、表示CPU131は、Zテスト指定を行う場合、Zバッファを用いた隠面処理において基準となるスクリーン領域PC12のZ軸を、ワールド座標系のZ軸に対して平行となるように設定し、Z軸方向に平行な方向に並ぶ各ピクセル間において表示対象とするピクセルを決定する。
The hidden surface process using the Z buffer is activated in each drawing data creation process in steps S1010 and S1011 in the drawing process (FIG. 16) when the Z test is designated in the drawing list. Further, when performing the Z test designation, the
ステップS1010の背景用の描画データ作成処理では、背面用の画像及び背景用のオブジェクトが隠面処理の対象となり、ステップS1011の演出及び図柄用の描画データ作成処理では、演出用のオブジェクト及び図柄用のオブジェクトが隠面処理の対象となる。また、演出及び図柄用の描画データ作成処理における隠面処理では、演出用のオブジェクト及び図柄用のオブジェクトのいずれがも設定されていないブランク部分については、完全透過のα値が設定される。 In the background drawing data creation process in step S1010, the back image and the background object are targets for hidden surface processing, and in the rendering and design drawing data creation process in step S1011, the rendering object and design object are used. This object is the target of hidden surface processing. Further, in the hidden surface process in the rendering data and drawing data creation process for the effect, a completely transparent α value is set for a blank portion in which neither the effect object nor the pattern object is set.
Zバッファ143は1個のみ設定されており、スクリーン用バッファ144における背景用のバッファと同一のドット数のエリアを有しているとともに、演出及び図柄用のバッファと同一のドット数のエリアを有している。
Only one
先ずステップS1101では、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS1102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。
First, in step S1101, with respect to the current projection target dot in the screen region PC12 (see FIG. 17), the individual image included on the Z-axis, and the target pixel of the individual image that is the current test target. The set Z value is grasped. In the subsequent step S1102, the Z value set in the area of the dot corresponding one-to-one with the drawing target dot in the
続くステップS1103では、ステップS1101にて把握した個別画像のZ値が、ステップS1102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS1104に進み、ステップS1101にて把握したZ値を、Zバッファ143におけるステップS1102にて参照したドットのエリアに上書きする。続くステップS1105では、ステップS1101にて参照したピクセルに設定されている色情報といった描画用の数値情報を、スクリーン用バッファ144における描画対象のバッファにおいて、今回の投影対象ドットのエリアに上書きする。その後に、ステップS1106に進む。
In subsequent step S1103, it is determined whether or not the Z value of the individual image grasped in step S1101 corresponds to the near side in the Z-axis direction with respect to the Z value of the
一方、ステップS1103にて、手前側に対応していないと判定した場合には、ステップS1104〜ステップS1105の処理を実行することなく、ステップS1106に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合には、Zバッファ143の更新は行われないとともに、既に設定されている描画用の数値情報がそのまま保持される。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われるとともに、描画用の数値情報も更新される。
On the other hand, if it is determined in step S1103 that it does not correspond to the near side, the process proceeds to step S1106 without executing the processes in steps S1104 to S1105. That is, when the Z value of the pixel to be tested is the same as the Z value already set for the target dot of the
ステップS1106では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS1101に戻り、新たな対象ピクセルに対してZテストを行う。 In step S1106, it is determined whether or not the Z test has been completed for all target pixels included on the Z-axis with respect to the projection target dot. If not completed, the process returns to step S1101 to perform a Z test on the new target pixel.
完了している場合には、ステップS1107にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS1108にて、投影対象ドットを更新した後にステップS1101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には本隠面処理を終了する。 If completed, it is determined in step S1107 whether or not the Z test has been completed for all dots in the screen area PC12. If not completed, the projection target dot is updated in step S1108, and then the process returns to step S1101 to perform a Z test on the new projection target dot. If completed, the hidden surface process is terminated.
上記のように隠面処理が実行されることにより、Z軸上に複数の個別画像が並んだとしても、視点に近い側の個別画像のみが表示されることとなる。ここで、本実施形態では、当該隠面処理を利用して背景用のキャラクタのマスク(すなわち、部分表示)が実行される。そして、このマスクは、表示CPU131においてオブジェクトのZ値をマスク用に設定することで行われる。
By executing the hidden surface process as described above, even if a plurality of individual images are arranged on the Z-axis, only the individual images closer to the viewpoint are displayed. Here, in the present embodiment, masking of the background character (that is, partial display) is executed using the hidden surface processing. This masking is performed by setting the Z value of the object for masking in the
以下、表示CPU131にて実行されるマスク用の演算処理について、図19のフローチャートを参照しながら説明する。なお、当該マスク用の演算処理は、データテーブルにおいて参照したエリアにマスク用の演算処理を実行すべきことが示されている場合に、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。
Hereinafter, the mask calculation process executed by the
先ずステップS1201では、現状設定されているデータテーブルに基づいて、今回の処理回が第1のマスク表示に対応しているか否かを判定する。ここで、マスク表示として、第1のマスク表示と第2のマスク表示とが設定されている。第1のマスク表示は、キャラクタを一部表示させた状態を複数フレームに亘って維持させる表示態様であり、第2のマスク表示は、キャラクタの全体を表示させた状態からマスクするピクセルを複数フレームに亘って除々に増加させ最終的に消滅させる表示態様である。 First, in step S1201, it is determined whether or not the current processing time corresponds to the first mask display based on the currently set data table. Here, the first mask display and the second mask display are set as the mask display. The first mask display is a display mode in which the state in which the character is partially displayed is maintained over a plurality of frames, and the second mask display is a plurality of frames in which pixels are masked from the state in which the entire character is displayed. It is a display mode that gradually increases over time and finally disappears.
第1のマスク表示に対応している場合には、ステップS1202にて、現状設定されているデータテーブルに基づいてマスク対象のオブジェクトを把握する。続くステップS1203では、現状設定されているデータテーブルに基づいて、ステップS1202にて把握したオブジェクトにおいてマスク対象となるピクセルを把握する。 If it corresponds to the first mask display, in step S1202, the mask target object is grasped based on the currently set data table. In the subsequent step S1203, the pixel to be masked in the object grasped in step S1202 is grasped based on the currently set data table.
その後、ステップS1204にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいてマスク対象となっているピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、マスク対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 Then, after executing the Z value setting process in step S1204, the present calculation process is terminated. In the setting process of the Z value, for the pixel that is the mask target in the object, the Z value is set to be on the back side of the backmost image, and for the pixel that is not the mask target, The Z value is set so as to correspond to the position to be originally displayed on the near side of the rearmost image.
上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第1のマスク表示が表示面Gにて行われる。第1のマスク表示の具体的な内容について、図20を参照しながら説明する。なお、説明の便宜上、図20では、3次元画像を2次元画像として示す。
As described above, the mask calculation process is executed, and a drawing list including the object for which the Z value is set as a drawing target is transmitted to the
図20(a)は第1のマスク表示が行われることなく通常通りにキャラクタCH1が表示される場合を示している。また、図20(a―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(a―2)は表示面Gでの表示態様を示す。この場合、図20(a―1)に示すように、各ピクセルには最背面の画像よりも手前側となるようにZ値が設定されているため、図20(a―2)に示すようにキャラクタCH1はその全体が表示される。
FIG. 20A shows a case where the character CH1 is displayed as usual without performing the first mask display. 20 (a-1) is an image diagram of the Z value designated by the
図20(b)は第1のマスク表示が行われる場合を示している。また、図20(b―1)は当該キャラクタCH1に対応したオブジェクトPC13の各ピクセルに対して表示CPU131において指定されたZ値のイメージ図であり、図20(b―2)は表示面Gでの表示態様を示す。この場合、図20(b―1)に示すように、各ピクセルの一部には最背面の画像よりも手前側となるようにZ値が設定されているが、残りのピクセルには最背面の画像よりも奥側となるようにZ値が設定されている。したがって、図20(b―2)に示すように、キャラクタCH1は上記手前側となるようにZ値が設定されたピクセルに対応した箇所のみが表示される。
FIG. 20B shows a case where the first mask display is performed. FIG. 20B-1 is an image diagram of the Z value designated by the
なお、同一のキャラクタCH1について第1のマスク表示用に対応したZ値の設定パターンが、表示CPU131の制御プログラムで複数種類設定されている構成としてもよい。この場合、同一のキャラクタCH1について第1のマスク表示の態様を複数種類設定することが可能となる。
Note that a plurality of Z value setting patterns corresponding to the first mask display for the same character CH1 may be set by the control program of the
マスク用の演算処理(図19)の説明に戻り、ステップS1201にて、今回の処理回が第1のマスク表示に対応していないと判定した場合には、今回の処理回は第2のマスク表示に対応していることを意味しているため、ステップS1205に進む。ステップS1205では、現状設定されているデータテーブルに基づいて、第2のマスク表示の開始タイミングであるか否かを判定する。 Returning to the description of the mask processing (FIG. 19), if it is determined in step S1201 that the current processing time does not correspond to the first mask display, the current processing time is the second mask. Since this means that the display is supported, the process proceeds to step S1205. In step S1205, based on the currently set data table, it is determined whether it is the start timing of the second mask display.
開始タイミングである場合には、ステップS1206にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握する。続くステップS1207では、現状設定されているデータテーブルに基づいて、マスク用の専用テーブルを読み出す。このマスク用の専用テーブルは、今回の第2のマスク表示が完了するまで記憶保持される。続くステップS1208では、上記マスク用の専用テーブルに初期消去対象として設定されているピクセルを把握する。 If it is the start timing, an object to be masked is grasped based on the currently set data table in step S1206. In the subsequent step S1207, the dedicated mask table is read based on the currently set data table. This dedicated table for masking is stored and held until the current second mask display is completed. In the subsequent step S1208, the pixels set as the initial erasure target in the mask dedicated table are grasped.
その後、ステップS1209にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1208にて初期消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、初期消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 Thereafter, the Z value setting process is executed in step S1209, and then this calculation process is terminated. In the Z value setting process, in the above object, the pixel that is grasped as the initial erasure target in step S1208 is set so that the Z value is on the back side of the backmost image. For the pixels that are not, the Z value is set so as to correspond to the position to be originally displayed on the near side of the rearmost image.
一方、ステップS1205にて開始タイミングでないと判定した場合には、ステップS1210に進む。ステップS1210では、ワークRAM132に設定されている消去対象カウンタを更新する。続くステップS1211では、現状読み出されているマスク用の専用テーブルにおいて、ステップS1210にて更新した消去対象カウンタの値に対応したデータを確認し、消去対象のピクセルを把握する。
On the other hand, if it is determined in step S1205 that it is not the start timing, the process proceeds to step S1210. In step S1210, the erasure target counter set in the
その後、ステップS1212にてZ値の設定処理を実行した後に、本演算処理を終了する。当該Z値の設定処理では、上記オブジェクトにおいて、ステップS1211にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 Thereafter, the Z value setting process is executed in step S1212, and then this calculation process is terminated. In the Z value setting process, in the object, the pixel that is recognized as the erasure target in step S1211 is set so that the Z value is on the back side of the rearmost image, and is not to be erased. For non-existing pixels, the Z value is set so as to correspond to the position to be originally displayed on the near side of the backmost image.
上記のようにマスク用の演算処理が実行されて、上記Z値の設定されたオブジェクトを描画対象として含む描画リストがVDP135に送信されることにより、VDP135においては隠面処理としてZバッファを用いた隠面処理(図18)が実行され、最終的に第2のマスク表示が表示面Gにて行われる。第2のマスク表示の具体的な内容について、図21を参照しながら説明する。なお、説明の便宜上、図21では、3次元画像を2次元画像として示す。
As described above, the mask calculation process is executed, and a drawing list including the object for which the Z value is set as a drawing target is transmitted to the
図21(a)はマスク用の専用テーブルに設定されている情報のイメージ図を示しており、図21(b)は第2のマスク表示が行われることなく通常通りにキャラクタCH2が表示される場合を示している。図21(a)に示すように、キャラクタCH2に対応したオブジェクトPC14は複数のピクセルを有しており、マスク用の専用テーブルでは、それら複数のピクセルが複数ずつグループ分けされているとともに各グループに対して消去対象となるフレーム順序が設定されている。具体的には、「a1」として示すグループが初期消去対象として設定されており、その後は、「a2」として示すグループ→「a3」として示すグループ→「a4」として示すグループ→「a5」として示すグループの順序で消去対象となる。
FIG. 21A shows an image diagram of information set in the mask dedicated table, and FIG. 21B shows a case where the character CH2 is displayed as usual without performing the second mask display. Is shown. As shown in FIG. 21 (a), the
第2のマスク表示が開始され、「a1」として示すグループが消去対象となったフレームにおいては、図21(c)に示すように、「a1」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。また、その後のフレームにおいて、「a2」として示すグループが消去対象となった場合には、図21(d)に示すように、「a1」のグループに加え、「a2」のグループに対応したピクセル部分が欠けた状態でキャラクタCH2が表示される。そして、最終的に「a5」として示すグループが消去対象となったフレームにおいては、キャラクタCH2が表示されない状態となる。 In the frame in which the second mask display is started and the group indicated as “a1” is an erasing target, the pixel portion corresponding to the group “a1” is missing as shown in FIG. Character CH2 is displayed. In the subsequent frame, when the group indicated as “a2” is to be erased, as shown in FIG. 21D, in addition to the “a1” group, the pixels corresponding to the “a2” group. Character CH2 is displayed with the portion missing. Then, the character CH2 is not displayed in the frame in which the group indicated as “a5” is finally the erasure target.
以上のとおり、Zバッファ143を利用してオブジェクトのマスクを行うことができる。また、本構成によれば、表示CPU131のプログラム上でマスク用の演算を行うだけでよく、VDP135において画像データの一種であるマスクデータを設定する必要が生じない。したがって、画像データを記憶しておくのに必要な記憶容量を増加させることなく、マスク表示を行うことができる。
As described above, the object can be masked using the
また、表示CPU131においては各オブジェクトのZ値を調整するだけでよいため、表示CPU131の処理負荷をさほど増加させることなく上記マスク表示を行うことができる。また、第1のマスク表示及び第2のマスク表示といった複数種類のマスク表示を、上記のような優れた効果を奏することができる。
In addition, since the
また、非表示とする部分には最背面画像よりも奥側のZ値が設定される。最背面画像はいずれのフレームにおいても常に背面を構成する画像であるため、Z軸(奥行き方向)の位置として絶対的な基準となる。これを基準に非表示とする部分のZ値を設定することで、非表示とする場合のZ値の設定態様を画一的なものとすることが可能となり、当該Z値の設定に係る処理の処理負荷の軽減が図られる。 Further, a Z value on the back side with respect to the rearmost image is set in a non-display portion. Since the rearmost image is an image that always forms the rear surface in any frame, it is an absolute reference for the position in the Z-axis (depth direction). By setting the Z value of the portion to be hidden based on this, it becomes possible to make the setting manner of the Z value in the case of non-display uniform, and the processing relating to the setting of the Z value The processing load can be reduced.
なお、第1のマスク表示及び第2のマスク表示のいずれか一方のみが設定されている構成としてもよい。また、第2のマスク表示において複数のピクセル毎に消去されるのではなく、1ピクセル毎に消去される構成としてもよく、消去対象となったピクセルが再度表示対象に設定されることがある構成としてもよい。 Note that only one of the first mask display and the second mask display may be set. Further, in the second mask display, the pixel may be erased for each pixel instead of being erased for each of the plurality of pixels, and the pixel to be erased may be set as the display object again. It is good.
また、上記Z値の設定を逆に行うことで、複数フレーム分の表示期間に亘ってキャラクタが順次消去されるのではなく、複数フレーム分の表示期間に亘ってキャラクタが順次出現するように表示される構成としてもよい。 In addition, by reversely setting the Z value, characters are not sequentially erased over a display period for a plurality of frames, but are displayed so that characters appear sequentially over a display period for a plurality of frames. It is good also as a structure to be made.
<Zバッファ143を利用したマスク処理の別形態>
Zバッファ143を利用したマスク表示の別形態について説明する。
<Another Form of Mask Processing Using
Another form of mask display using the
図22は表示CPU131にて実行されるマスク用の演算処理の別形態を示すフローチャートである。
FIG. 22 is a flowchart showing another form of the mask calculation processing executed by the
先ずステップS1301では、現状設定されているデータテーブルに基づいて、開始タイミングであるか否かを判定する。開始タイミングである場合には、ステップS1302にて、現状設定されているデータテーブルに基づいて、マスク対象のオブジェクトを把握するとともに、ステップS1303にて、現状設定されているデータテーブルに基づいて、初期マスク用テーブルを読み出す。 First, in step S1301, it is determined whether it is a start timing based on the currently set data table. If it is the start timing, in step S1302, the mask target object is grasped based on the currently set data table, and in step S1303, the initial setting is performed based on the currently set data table. Read the mask table.
続くステップS1304では、マスク抽選処理を実行する。マスク抽選処理では、ワークRAM132に設けられた抽選用カウンタに現状設定されている数値情報を読み出し、その数値情報に対応した消去対象の情報を、ステップS1303にて読み出した初期マスク用テーブルから抽出する。
In subsequent step S1304, a mask lottery process is executed. In the mask lottery process, the numerical information currently set in the lottery counter provided in the
抽選用カウンタは、例えばメイン処理(図12)にてステップS702の処理を実行する度に更新されるように構成されており、さらにはカウンタ値が1周した場合には初期値がランダムに選択される構成となっている。また、初期マスク用テーブルでは、抽選用カウンタの各カウンタ値に1対1で対応させて消去対象の情報が設定されているとともに、その消去対象の情報は、マスク対象のオブジェクトを構成する全ピクセルのうち複数のピクセルを1グループとして、各グループと1対1で対応している。 The lottery counter is configured to be updated every time the process of step S702 is executed in the main process (FIG. 12), for example, and when the counter value makes one round, the initial value is selected at random. It becomes the composition which is done. Further, in the initial mask table, information to be erased is set in a one-to-one correspondence with each counter value of the lottery counter, and the information to be erased includes all the pixels constituting the mask target object. Among these, a plurality of pixels are grouped as one group, and correspond to each group on a one-to-one basis.
続くステップS1305では、ステップS1304にて取得した消去対象の情報から、消去対象のピクセルを把握する。その後、ステップS1306にてZ値の設定処理を実行した後に、本演算処理を終了する。このZ値の設定処理では、上記オブジェクトにおいて、ステップS1305にて消去対象として把握されたピクセルについては、そのZ値が最背面の画像よりも奥側となるように設定され、消去対象となっていないピクセルについては、そのZ値が最背面の画像よりも手前側であって本来表示すべき位置に対応するように設定される。 In subsequent step S1305, the pixel to be erased is grasped from the information to be erased acquired in step S1304. Thereafter, the Z value setting process is executed in step S1306, and then this calculation process is terminated. In the Z value setting process, in the object, the pixel that is grasped as the erasure target in step S1305 is set so that the Z value is on the back side of the backmost image and is not to be erased. For non-existing pixels, the Z value is set so as to correspond to the position to be originally displayed on the near side of the backmost image.
一方、ステップS1301にて開始タイミングではないと判定した場合には、ステップS1307に進む。ステップS1307では、既に読み出されている初期マスク用テーブルから、既に消去対象として設定された消去対象の情報が除外されるように、そのマスク用テーブルを書き換える。例えば、既に消去対象として設定された消去対象の情報に対応している上記カウンタ値が、他の消去対象の情報に重複して割り当てられるように、書き換える。この割り当てはランダムに行われてもよく、テーブル上で直下位のカウンタ値に対応した消去対象の情報に割り当てられる構成としてもよい。 On the other hand, if it is determined in step S1301 that it is not the start timing, the process proceeds to step S1307. In step S1307, the mask table is rewritten so that the information to be erased that has already been set as the erase target is excluded from the already read initial mask table. For example, the counter value corresponding to the information to be erased that has already been set as the object to be erased is rewritten so as to be assigned to other information to be erased. This assignment may be performed at random, or may be configured to be assigned to information to be erased corresponding to the counter value immediately below in the table.
その後、ステップS1307にて書き換えたマスク用テーブルを利用して、ステップS1304〜ステップS1306の処理を実行した後に、本演算処理を終了する。 Thereafter, the processing of step S1304 to step S1306 is executed using the mask table rewritten in step S1307, and then the calculation processing is terminated.
以上のとおり、本別形態によれば、消去対象となるピクセルがランダムに選択されることとなるため、マスク表示の態様を多様化することができる。 As described above, according to this different mode, pixels to be erased are selected at random, so that the mask display mode can be diversified.
なお、Zバッファ143を利用したマスク表示を、背景用のキャラクタではなく、演出用のキャラクタや図柄に対して適用してもよい。例えば、演出用のキャラクタに対して適用する場合、隠面処理が背景用の画像データ及び演出用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。また、図柄に対して適用する場合、隠面処理が背景用の画像データ、演出用の画像データ及び図柄用の画像データに対してまとめて実行されるようにすることで、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。
Note that the mask display using the
また、隠面処理が背景、演出及び図柄に対して個別に行われる場合であっても、VDP135において最背面画像よりも奥側のZ値が設定されているピクセルは描画対象としないと定められているのであれば、上記構成と同様に、最背面画像のZ値を基準にして、表示対象及び非表示対象のZ値の振分を行えばよい。
Further, even when the hidden surface processing is performed individually for the background, the effect, and the design, it is determined that the pixel for which the Z value on the back side of the backmost image is set in the
また、表示対象及び非表示対象のZ値の振分が、最背面画像のZ値を基準にして行われるのではなく、例えば非表示対象のZ値として視点よりも手前のZ値が設定され、表示対象のZ値として視点よりも奥側のZ値が設定される構成としてもよい。 In addition, the Z value of the display target and the non-display target is not distributed based on the Z value of the rearmost image, but, for example, the Z value in front of the viewpoint is set as the Z value of the non-display target. The Z value on the back side from the viewpoint may be set as the Z value to be displayed.
また、Zバッファ143を利用した隠面処理は、ワールド座標系のZ軸を基準に行われるのではなく、視点の向く方向を基準に行われる構成としてもよい。
Further, the hidden surface processing using the
<表示モードの切換に係る構成>
次に、表示モードの切換に係る構成について説明する。
<Configuration related to display mode switching>
Next, a configuration related to display mode switching will be described.
表示モードとは、既に説明したとおり、遊技回が開始されるまでの間に表示される待機画像や遊技回が実行されている状況で表示される遊技回画像の種類を所定の種類に定める状態であり、複数種類の表示モードが設定されている。具体的には、第1表示モードと第2表示モードとが設定されている。 As described above, the display mode is a state in which the standby image displayed until the game turn is started and the type of the game turn image displayed in the situation where the game turn is executed are set to a predetermined type. A plurality of display modes are set. Specifically, a first display mode and a second display mode are set.
第1表示モードと第2表示モードとでは、背景画像の表示態様及び各図柄の表示態様が相互に異なっている。具体的には、同一の番号が付された図柄で比較した場合、第1表示モードと第2表示モードとで図柄の外形や形状は同一となっているが、色や模様が異なっている。また、背景画像については、第1表示モードと第2表示モードとで、最背面画像の種類が異なっているとともに、最背面画像の手前にて表示されるキャラクタの数及び種類が異なっており、表示されるキャラクタの数は第1表示モードの方が第2表示モードよりも多く設定されている。 The display mode of the background image and the display mode of each symbol are different between the first display mode and the second display mode. Specifically, when comparing symbols with the same number, the outer shape and shape of the symbols are the same in the first display mode and the second display mode, but the colors and patterns are different. As for the background image, the first display mode and the second display mode are different in the type of the rearmost image, and the number and type of characters displayed in front of the rearmost image are different. More characters are displayed in the first display mode than in the second display mode.
表示モードの切換は、演出用操作装置48の操作に基づき行われる。具体的には、遊技回や開閉実行モードが実行されていない状況で演出用操作装置48が操作されることで、表示モードが順次切り換えられるようになっている。また、遊技回が実行されている状況における所定の条件下で演出用操作装置48が操作されたことに基づき切り換えられるようになっている。
The display mode is switched based on the operation of the
表示モードの切換に係る具体的な処理構成を説明する。 A specific processing configuration relating to switching of the display mode will be described.
図23は、表示CPU131にて実行される操作発生コマンド対応処理を示すフローチャートである。操作発生コマンド対応処理はV割込み処理(図13)におけるステップS803のコマンド対応処理にて実行される。
FIG. 23 is a flowchart showing an operation generation command response process executed by the
先ずステップS1401では、音声発光制御装置60からモード切換用の操作発生コマンドを受信しているか否かを判定する。受信していない場合にはそのまま本操作コマンド対応処理を終了し、受信している場合にはステップS1402に進む。
First, in step S1401, it is determined whether or not an operation generation command for mode switching is received from the sound
ステップS1402では、第1切換可能期間であるか否かを判定する。第1切換可能期間とは、遊技回及び開閉実行モードのいずれもが実行されていない期間である。第1切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1402では、現状設定されているデータテーブルに基づいて第1切換可能期間であるか否かを判定する。第1切換可能期間である場合には、ステップS1403にて、ワークRAM132に設けられた所定のエリアに対して第1切換実行フラグをセットする。
In step S1402, it is determined whether it is the first switchable period. The first switchable period is a period in which neither the game times nor the opening / closing execution mode is executed. Information for specifying whether it is the first switchable period is set in the data table. In step S1402, it is determined whether or not it is the first switchable period based on the currently set data table. . If it is the first switchable period, a first switch execution flag is set for a predetermined area provided in the
一方、第1切換可能期間ではない場合には、ステップS1404に進み、第2切換可能期間であるか否かを判定する。第2切換可能期間とは、遊技回が実行されている状況において開始タイミングから実行途中における予め定められた基準タイミングまでの期間である。具体的には、図柄表示装置31にて遊技回用演出が実行される場合、全図柄列SA1〜SA3での図柄の変動表示を開始→全図柄列SA1〜SA3での高速変動表示→低速変動表示を経由した各図柄列SA1〜SA3の順次停止という表示の流れを含む。この場合に、第2切換可能期間は、全図柄列SA1〜SA3での図柄の変動表示が開始されてから全図柄列SA1〜SA3での高速変動表示が終了するタイミングまでの期間である。
On the other hand, if it is not the first switchable period, the process advances to step S1404 to determine whether it is the second switchable period. The second switchable period is a period from the start timing to a predetermined reference timing in the middle of execution in a situation where game times are being executed. Specifically, when the game display effect is executed on the
なお、図柄の変動表示の態様を、全図柄列SA1〜SA3での図柄の変動表示を開始→全図柄列SA1〜SA3の加速期間→全図柄列SA1〜SA3での高速変動表示(高速は一定速度)→低速変動表示(低速は一定速度)を経由した各図柄列SA1〜SA3の順次停止という表示の流れとしてもよい。この場合、第2切換可能期間を、全図柄列SA1〜SA3での高速変動表示が実行されている期間としてもよい。 In addition, the variation display mode of the symbol starts the variation display of the symbols in all the symbol columns SA1 to SA3 → the acceleration period of all the symbol columns SA1 to SA3 → the high-speed variation display in all the symbol columns SA1 to SA3 (Speed) → low-speed fluctuation display (low speed is a constant speed), the display sequence of sequential stop of each symbol row SA1 to SA3 may be used. In this case, the second switchable period may be a period during which high-speed fluctuation display is executed in all the symbol rows SA1 to SA3.
また、高速変動表示と低速変動表示との間に中速変動表示が含まれていてもよい。つまり、図柄の変動表示の態様は、2段階、3段階又は4段階以上といったように複数段階で切り換わるのであれば具体的な段階数は任意である。この場合、第2切換可能期間を、各段階のうち遊技者における図柄の識別性が低い低識別な段階の期間としてもよい。 Further, a medium speed fluctuation display may be included between the high speed fluctuation display and the low speed fluctuation display. In other words, the number of specific steps is arbitrary as long as the pattern variation display mode is switched in a plurality of steps such as two steps, three steps, or four steps or more. In this case, the second switchable period may be a period of a low-identification stage in which a player has low symbol discrimination among the stages.
また、図柄の変動表示の流れにおいて相対的に低識別態様での変動表示→高識別態様での変動表示という状態を含むのであれば具体的な変動態様は任意であり、例えばいずれの態様であっても変動速度は同一であるが、低識別態様での変動表示では図柄が透明、半透明、中抜き又は一部を除いた状態で表示され、高識別態様での変動表示では図柄の全体が表示される構成としてもよい。この場合、第2切換可能期間を、低識別態様での変動表示が行われている期間としてもよい。 In addition, a specific variation mode is arbitrary as long as it includes a state of variation display in a relatively low discrimination mode → variation display in a high discrimination mode in the flow of symbol variation display, for example, any mode. However, the fluctuation speed is the same, but in the fluctuation display in the low discrimination mode, the pattern is displayed in a state of being transparent, translucent, hollow or partly removed, and in the fluctuation display in the high discrimination mode, the entire pattern is displayed. It may be configured to be displayed. In this case, the second switchable period may be a period during which the variable display in the low identification mode is performed.
第2切換可能期間であるかを特定するための情報はデータテーブルにおいて設定されており、ステップS1404では、現状設定されているデータテーブルに基づいて第2切換可能期間であるか否かを判定する。第2切換可能期間ではないと判定した場合には、そのまま本操作発生コマンド対応処理を終了し、第2切換可能期間である場合には、ステップS1405にて、ワークRAM132に設けられた所定のエリアに対して第2切換実行フラグをセットする。
Information for specifying whether or not it is the second switchable period is set in the data table. In step S1404, it is determined whether or not it is the second switchable period based on the currently set data table. . If it is determined that the period is not the second switchable period, the operation occurrence command response process is terminated as it is, and if it is the second switchable period, a predetermined area provided in the
ステップS1403及びステップS1405のいずれかの処理を実行した後は、ステップS1406に進む。ステップS1406では、表示モード用のカウンタを更新する。 After executing any one of steps S1403 and S1405, the process proceeds to step S1406. In step S1406, the display mode counter is updated.
表示モード用のカウンタとは、表示CPU131にて現状の表示モードを特定するためのカウンタであり、ワークRAM132に設けられている。表示モード用のカウンタには各表示モードに1対1で対応させてカウンタ値が設定されている。本実施形態では上記のとおり表示モードとして第1表示モード及び第2表示モードの2種類が設定されているため、上記カウンタ値として第1表示モードに対応した「0」の数値と、第2表示モードに対応した「1」の数値とが設定されている。この場合、表示モード用のカウンタの初期値は「0」として設定されているため、表示CPU131への動作電力の供給が開始された場合や、パチンコ機10のリセットが行われた場合には第1表示モードが設定される。
The display mode counter is a counter for specifying the current display mode by the
ステップS1406では、演出用操作装置48が1回操作される度に表示モードが予め定められた順序に従って順次切り換えられるように表示モード用のカウンタを更新する。具体的には、表示モード用のカウンタが「0」であり第1表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第2表示モードに切り換えるとともに、表示モード用のカウンタが「1」であり第2表示モードに設定されている状況においてステップS1406の処理を実行する場合には、表示モード用のカウンタを「1」として第1表示モードに切り換える。ステップS1406の処理を実行した後に、本操作発生コマンド対応処理を終了する。
In step S1406, the display mode counter is updated so that the display mode is sequentially switched in accordance with a predetermined order each time the
次に、表示CPU131にて実行される表示モード背景用の演算処理について、図24のフローチャートを参照しながら説明する。表示モード背景用の演算処理は、タスク処理(図14)におけるステップS903の背景用演算処理にて実行される。なお、大当たり演出を実行する場合などには表示モードに対応した背景画像は表示されないため表示モード背景用の演算処理は実行されず、待機画像を表示する場合や遊技回用の演出を実行する場合などに表示モード背景用の演算処理が実行される。
Next, the display mode background calculation processing executed by the
先ずステップS1501では、ワークRAM132に設けられた表示モード用のカウンタを参照し、第1表示モードであるか否かを判定する。第1表示モードである場合には、ステップS1502にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第1最背面画像を把握する。続くステップS1503では、その把握した第1最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1504にて、現状設定されているデータテーブルに基づいて、第1表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1505では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。
In step S1501, a display mode counter provided in the
一方、第2表示モードである場合には、ステップS1506にて、現状設定されているデータテーブルに基づいて、今回の更新対象の第2最背面画像を把握する。続くステップS1507では、その把握した第2最背面画像の各種パラメータを演算して制御用の情報を更新する。続くステップS1508にて、現状設定されているデータテーブルに基づいて、第2表示モードに対応したオブジェクトであって背景用の更新対象のオブジェクトを把握する。続くステップS1509では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 On the other hand, if it is the second display mode, in step S1506, the second backmost image to be updated this time is grasped based on the currently set data table. In subsequent step S1507, various parameters of the grasped second rearmost image are calculated, and the control information is updated. In subsequent step S1508, based on the currently set data table, an object corresponding to the second display mode and an object to be updated for background is grasped. In subsequent step S1509, various parameters of the grasped object are calculated, and the control information is updated.
なお、ステップS1502の処理の実行タイミングでは、第1最背面画像及び第1表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。また、ステップS1506の処理の実行タイミングでは、第2最背面画像及び第2表示モードに対応した背景用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。 Note that, at the execution timing of the process in step S1502, the control start setting process (step S901) for the first back-most image and the background object corresponding to the first display mode is completed. Also, at the execution timing of the process in step S1506, the control start setting process (step S901) for the background object corresponding to the second rearmost image and the second display mode is completed.
ステップS1505又はステップS1509の処理を実行した後は、ステップS1510にて、ワークRAM132に第1切換実行フラグ又は第2切換実行フラグのいずれかがセットされているか否かを判定する。いずれかの切換実行フラグがセットされている場合には、ステップS1511にて、処理負荷の大きい状況であるか否かを判定する。
After executing the processing in step S1505 or step S1509, it is determined in step S1510 whether either the first switching execution flag or the second switching execution flag is set in the
処理負荷の大きい状況とは、今回の描画リストに指定された画像データに対するジオメトリ演算及びレンダリングの両方がVDP135にて実行される場合に、処理落ちが発生する程度にVDP135の処理負荷が大きい又は処理落ちが発生しないまでもVDP135の処理負荷が比較的大きい状況のことをいう。なお、処理負荷の大きい状況か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1511の判定を行う。
The situation where the processing load is large is that the processing load of the
処理負荷の大きい状況ではない場合には、ステップS1512にて、今回の表示モードに対応した背景画像は別保存済みであるか否かを判定する。ここで、別保存とは、各表示モードに対応した背景画像を表示させるための背景用の描画データを個別に保存するとともにその保存している状態を維持することである。別保存に際しては、VRAM134に設けられたモード用バッファ145が用いられる(図4を参照)。
If the processing load is not high, it is determined in step S1512 whether the background image corresponding to the current display mode has been stored separately. Here, the separate saving means that the drawing data for background for displaying the background image corresponding to each display mode is individually saved and the saved state is maintained. In the separate storage, the
モード用バッファ145には、第1表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第1モード用領域145aと、第2表示モードに対応した背景画像を表示させるための背景用の描画データが書き込まれる第2モード用領域145bと、が設けられている。また、VDP135には、背景用の描画データを第1モード用領域145a及び第2モード用領域145bのいずれかへ書き込む機能と、その書き込まれた背景用の描画データを読み出してスクリーン用バッファ144に書き込む機能と、を有する表示モード制御部154を備えている。
The
別保存済みではない場合にはステップS1513にて別保存の実行指定情報を記憶した後に、本演算処理を終了し、別保存済みである場合にはそのまま本演算処理を終了する。 If it has not been saved separately, the execution designation information of another save is stored in step S1513, and then this calculation process is terminated. If it has been saved separately, this calculation process is terminated as it is.
上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1513の処理が実行されている場合には別保存の実行指定情報が設定される。別保存の実行指定情報には、別保存を実行すべきことを示す情報が含まれているとともに、別保存先のアドレスの情報も含まれている。 When the calculation process for the display mode background is executed as described above, the drawing list created by the subsequent drawing list output process includes the background corresponding to either the first display mode or the second display mode. Information on the instruction to use the image data is set. In addition, when the process in step S1513 is being executed, execution information for separate storage is set. The separate save execution designation information includes information indicating that the separate save is to be executed, and also includes information on the address of the separate save destination.
一方、処理負荷の大きい状況である場合(ステップS1511:YES)には、ステップS1514にて、切換先の表示モードの背景画像が別保存済みであるか否かを判定する。別保存済みではない場合にはそのまま本演算処理を終了する。一方、別保存済みである場合にはステップS1515にて別保存データの使用指定情報を記憶した後に、本演算処理を終了する。 On the other hand, if the processing load is large (step S1511: YES), it is determined in step S1514 whether the background image in the display mode of the switching destination has been stored separately. If it has not been saved separately, this calculation process is terminated. On the other hand, if it has been stored separately, the use designation information of the separately stored data is stored in step S1515, and then this calculation process is terminated.
上記のように表示モード背景用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード及び第2表示モードのいずれかに対応した背景用の画像データの使用指示の情報が設定される。また、ステップS1515の処理が実行されている場合には別保存データの使用指定情報が設定される。別保存データの使用指定情報には、別保存データを使用すべきことを示す情報が含まれているとともに、その別保存データが保存されているアドレスの情報も含まれている。 When the calculation process for the display mode background is executed as described above, the drawing list created by the subsequent drawing list output process includes the background corresponding to either the first display mode or the second display mode. Information on the instruction to use the image data is set. In addition, when the process of step S1515 is being executed, use specification information of another saved data is set. The use specification information of the separate storage data includes information indicating that the separate storage data should be used, and also includes information on an address where the separate storage data is stored.
次に、表示CPU131にて実行される図柄用演算処理について、図25のフローチャートを参照しながら説明する。図柄用演算処理はタスク処理(図14)のステップS905にて実行される。
Next, the symbol calculation process executed by the
先ずステップS1601では、現状設定されているデータテーブルに基づいて、図柄について制御更新用の処理を実行する必要があるか否かを判定する。実行する必要がない場合として大当たり演出を実行している場合が含まれ、実行する必要がある場合として遊技回用の演出を実行している場合及び待機画像を表示している場合が含まれる。実行する必要がない場合にはそのまま本図柄用演算処理を終了し、実行する必要がある場合にはステップS1602にて、現状設定されているデータテーブルに基づいて、遊技回の実行中であるか否かを判定する。 First, in step S1601, it is determined based on the currently set data table whether or not it is necessary to execute control update processing for the symbol. A case where a jackpot effect is being executed is included as a case where it is not necessary to execute, and a case where an effect for game times is being executed and a case where a standby image is displayed are included as a case where it is necessary to execute. If there is no need to execute, the symbol calculation process is terminated as it is, and if it is necessary to execute it, in step S1602, whether or not the game is being executed based on the currently set data table. Determine whether or not.
遊技回の実行中でない場合には、ステップS1603にて、ワークRAM132に第1切換実行フラグがセットされているか否かを判定する。第1切換実行フラグがセットされている場合には、ステップS1604にて、制御対象の図柄を切換先の表示モードに対応させて変更する。具体的には、ワークRAM132において図柄の制御を行う上で確保されている各空きバッファ領域のパラメータ用の情報はそのまま保持させながら、制御対象の図柄の情報(例えば記憶されているアドレスの情報)のみを切換先の表示モードに対応した情報に書き換える。なお、ステップS1603及びステップS1604の処理が、タスク処理(図14)における制御開始用の設定処理(ステップS901)にて実行される構成としてもよい。また、ステップS1603にて肯定判定をした場合に第1切換実行フラグをクリアする。
If the game times are not being executed, it is determined in step S1603 whether the first switching execution flag is set in the
ステップS1603にて否定判定をした場合又はステップS1604の処理を実行した場合は、ステップS1605に進む。ステップS1605では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1606にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。 If a negative determination is made in step S1603 or if the process of step S1604 is executed, the process proceeds to step S1605. In step S1605, the object of the symbol to be controlled is grasped based on the currently set data table, and in step S1606, various parameters of the object are calculated and updated. Thereafter, the symbol calculation process is terminated.
上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードのいずれかに対応した図柄用の画像データの使用指示の情報が設定される。 When the symbol calculation processing is executed as described above, the symbol image data corresponding to either the first display mode or the second display mode is included in the drawing list created by the subsequent drawing list output processing. Information on the use instruction is set.
遊技回の実行中である場合(ステップS1602:YES)には、ステップS1607にて、現状設定されているデータテーブルに基づいて、全図柄列SA1〜SA3において高速変動表示中であるか否かを判定する。全図柄列SA1〜SA3において高速変動表示中である場合には、ステップS1608にて、ワークRAM132に第2切換実行フラグがセットされているか否かを判定する。
If the game is being executed (step S1602: YES), it is determined in step S1607 whether or not high-speed fluctuation display is being performed in all symbol sequences SA1 to SA3 based on the currently set data table. judge. If the high-speed fluctuation display is being performed in all the symbol sequences SA1 to SA3, it is determined in step S1608 whether or not the second switching execution flag is set in the
第2切換実行フラグがセットされている場合には、ステップS1609にて、制御対象の図柄を切換先の表示モードに対応させて変更させることが可能であるか否かを判定する。これは今回の描画リストに対応した描画処理(図16)がVDP135にて実行される場合に、制御対象の図柄を切換先の表示モードに対応させて変更させようとすると、処理落ちが発生するか否かを基準として、処理落ちが発生しないのであれば変更させることが可能となり、処理落ちが発生するのであれば変更させることが不可であると判定される。
If the second switching execution flag is set, it is determined in step S1609 whether the control target symbol can be changed in accordance with the display mode of the switching destination. This is because, when the drawing process corresponding to the current drawing list (FIG. 16) is executed by the
例えば、今回の描画リストにおいて表示モードの切換に対応した背景用の画像データが新たに設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じるため、VDP135の処理負荷を大きくなる。したがって、この場合は、図柄を変更させることが不可であると判定される。一方、今回の描画リストにおいて背景用の画像データとして別保存データが設定されている場合、又は前回の描画リストに係る表示モードと同一の表示モードに対応した背景用の画像データが設定される場合にはVDP135においてワールド座標系への画像データの設定を新たに設定し直す必要が生じないため、VDP135の処理負荷は比較的小さくなる。したがって、この場合は、図柄を変更させることが可能であると判定される。
For example, when background image data corresponding to switching of the display mode is newly set in the current drawing list, it is necessary to newly reset the image data setting in the world coordinate system in the
なお、変更させることが可能か否かの情報はデータテーブルにおいて定められており、その情報に基づいてステップS1609の判定を行う。また、ステップS1608にて肯定判定をした場合に第2切換実行フラグをクリアする。 Information about whether or not the change can be made is defined in the data table, and the determination in step S1609 is performed based on the information. Further, when an affirmative determination is made in step S1608, the second switching execution flag is cleared.
ステップS1609にて、変更させることが可能であると判定した場合には、ステップS1610にて、制御対象の図柄を切換先の表示モードに対応させて変更する。この処理の具体的な内容は、ステップS1604と同様である。ステップS1610の処理を実行した後はステップS1613に進む。 If it is determined in step S1609 that it can be changed, the control target symbol is changed in accordance with the display mode of the switching destination in step S1610. The specific content of this process is the same as that in step S1604. After executing the process of step S1610, the process proceeds to step S1613.
一方、ステップS1609にて、変更させることが可能ではないと判定した場合には、ステップS1611にて、ワークRAM132に設けられた所定のエリアに対して変更待機フラグをセットした後に、ステップS1613に進む。変更待機フラグは、制御対象の図柄の変更が待機されていることを表示CPU131にて特定するためのフラグである。変更待機フラグがセットされている場合には、ステップS1608にて、第2切換実行フラグがセットされていないと判定されたとしても、ステップS1612の処理が実行されることで、ステップS1609の処理が実行される。なお、第2切換実行フラグ及び変更待機フラグの両方がセットされていない場合には、そのままステップS1613に進む。また、変更待機フラグはステップS1612にて肯定判定をした際にクリアされる。
On the other hand, if it is determined in step S1609 that the change cannot be made, a change standby flag is set for a predetermined area provided in the
ステップS1613では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1614にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。 In step S1613, based on the currently set data table, the symbol object to be controlled is grasped, and in step S1614, various parameters of the object are calculated and updated. Thereafter, the symbol calculation process is terminated.
上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。この場合に、ステップS1609にて、切換先の表示モードに対応した図柄に変更させることができないと判定した場合には、切換元の表示モードに対応した図柄の画像データの使用指示の情報がそのまま描画リストに設定される。そうすると、最終的に表示モードに対応しない図柄が表示面Gに表示されることとなるが、第2切換実行フラグがセットされるタイミングは高速変動表示中であるため、遊技者は上記の状態を認識することができない又は認識しづらい。 When the symbol calculation process is executed as described above, the drawing list created in the subsequent drawing list output process includes an instruction to use the image data for the symbol corresponding to the first display mode or the second display mode. Is set. In this case, if it is determined in step S1609 that the symbol cannot be changed to the symbol corresponding to the display mode of the switching destination, the information on the instruction to use the image data of the symbol corresponding to the switching source display mode remains as it is. Set to the drawing list. As a result, a symbol that does not correspond to the display mode is finally displayed on the display surface G. However, since the timing at which the second switching execution flag is set is being displayed at high speed, the player changes the above state. Cannot be recognized or difficult to recognize.
また、切換先の表示モードに対応した図柄に変更させることができない場合には、変更待機フラグがセットされて、その後の処理回で変更が行われる。これにより、VDP135において処理落ちを発生させないようにしつつ、表示モードの切換を良好に行うことができる。なお、高速変動表示が行われている範囲で、切換先の表示モードに対応した図柄の変更が行われるように、VDP135の処理負荷が調整されている。
If the symbol cannot be changed to the symbol corresponding to the display mode of the switching destination, the change standby flag is set, and the change is performed in the subsequent processing times. Thereby, it is possible to satisfactorily switch the display mode while preventing the processing drop in the
高速変動表示中ではない場合(ステップS1607:NO)には、ステップS1615に進む。ステップS1615では、現状設定されているデータテーブルに基づいて、制御対象となる図柄のオブジェクトを把握し、続くステップS1616にて、そのオブジェクトの各種パラメータを演算して更新する。その後、本図柄用演算処理を終了する。上記のように図柄用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、第1表示モード又は第2表示モードに対応した図柄用の画像データの使用指示の情報が設定される。 If high-speed fluctuation display is not being performed (step S1607: NO), the process proceeds to step S1615. In step S1615, the object of the symbol to be controlled is grasped based on the currently set data table, and in step S1616, various parameters of the object are calculated and updated. Thereafter, the symbol calculation process is terminated. When the symbol calculation process is executed as described above, the drawing list created in the subsequent drawing list output process includes an instruction to use the image data for the symbol corresponding to the first display mode or the second display mode. Is set.
次に、VDP135にて実行される背景用の設定処理を、図26のフローチャートを参照しながら説明する。なお、背景用の設定処理は、描画処理(図16)におけるステップS1002にて実行される。
Next, background setting processing executed in the
先ずステップS1701では、今回の描画リストにおいて別保存データの使用指定が設定されているか否かを判定する。設定されている場合には、ステップS1702にて、その指定に対応した別保存データを背景用の描画データとして設定するための情報をレジスタ153に記憶させる。 First, in step S1701, it is determined whether or not use designation of another saved data is set in the current drawing list. If it is set, in step S1702, information for setting another saved data corresponding to the designation as drawing data for the background is stored in the register 153.
設定されていない場合(ステップS1701:NO)又はステップS1702の処理を実行した後は、ステップS1703に進む。ステップS1703では、今回の描画リストに指定されている最背面画像を把握するとともに、ステップS1704にて、その最背面画像について指定されている各種パラメータを把握する。その後、ステップS1705にて、その最背面画像について、ワールド座標系への設定処理を実行する。この設定に係る内容は、既に説明したとおりである。 If not set (step S1701: NO) or after executing the process of step S1702, the process proceeds to step S1703. In step S1703, the rearmost image specified in the current drawing list is grasped, and in step S1704, various parameters designated for the rearmost image are grasped. Thereafter, in step S1705, setting processing for the world coordinate system is executed for the rearmost image. The contents relating to this setting are as described above.
続くステップS1706では、今回の描画リストに指定されている背景用のオブジェクトを把握するとともに、ステップS1707にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS1708にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本背景用の設定処理を終了する。 In subsequent step S1706, the background object designated in the current drawing list is grasped, and in step S1707, various parameters designated for the object are grasped. After that, in step S1708, after setting processing for the object in the world coordinate system is executed, the setting processing for the background is ended.
上記のように背景用の設定処理が実行されることにより、別保存データの使用指定が設定されていない状況だけでなく、別保存データの使用指定が設定されている状況であっても、描画リストにて指定されている画像データをワールド座標系に設定することができる。そして、これに伴って、例えば今回の描画リストが表示モードの切換に係るものである場合には、切換先の表示モードに対応した画像データの制御開始用の設定を行うことができる。 By executing the setting process for the background as described above, drawing is performed not only in the situation where the use designation of the other saved data is not set, but also in the situation where the use designation of the other saved data is set. The image data specified in the list can be set in the world coordinate system. Accordingly, for example, when the current drawing list relates to display mode switching, setting for starting control of image data corresponding to the display mode of the switching destination can be performed.
次に、VDP135にて実行される背景用の描画データ作成処理を、図27のフローチャートを参照しながら説明する。なお、背景用の描画データ作成処理は、描画処理(図16)におけるステップS1010にて実行される。
Next, background drawing data creation processing executed by the
先ずステップS1801では、レジスタ153に別保存データの使用設定の情報がセットされているか否かを判定する。セットされていない場合には、ステップS1802にて、隠面処理を実行して、スクリーン用バッファ144に背景用の描画データを作成する。隠面処理については、既に説明したとおりである。
First, in step S1801, it is determined whether or not use setting information for another saved data is set in the register 153. If not set, in step S1802, hidden surface processing is executed to create background drawing data in the
続くステップS1803では、今回の描画リストにおいて別保存の実行指定が設定されているか否かを判定する。設定されていない場合には、そのまま本描画データ作成処理を終了する。設定されている場合には、ステップS1804にて、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち対象となるモード用領域へ、ステップS1802にて作成された背景用の描画データを書き込む。これにより、背景用の描画データの別保存が行われる。その後に、本描画データ作成処理を終了する。
In a succeeding step S1803, it is determined whether or not another save execution designation is set in the current drawing list. If it is not set, the drawing data creation process is terminated. If set, in step S1804, the background mode created in step S1802 is transferred to the target mode area in the
一方、ステップS1801にて、レジスタ153に別保存データの使用設定の情報がセットされている場合には、ステップS1805に進む。ステップS1805では、モード用バッファ145の第1モード用領域145a及び第2モード用領域145bのうち、今回指定されているモード用領域から別保存データを読み出し、その読み出した別保存データを、今回の背景用の描画データとして、スクリーン用バッファ144に書き込む。その後に、本描画データ作成処理を終了する。
On the other hand, if it is determined in step S1801 that the use setting information for the other saved data is set in the register 153, the process advances to step S1805. In step S1805, the other storage data is read from the mode area designated this time out of the
上記のように背景用の描画データ作成処理が実行されることにより、ジオメトリ演算及びレンダリングを通じた背景用の描画データ、又は別保存データに係る背景用の描画データがスクリーン用バッファ144に格納される。また、各表示モードに対応した画像が表示されるフレームにおいては、その後に演出及び図柄用の描画データ作成処理(ステップS1011)が実行されて、演出及び図柄用の描画データが作成されるとともに、描画データ合成処理(ステップS1012)が実行されて、1フレーム分の描画データが作成される。
By executing the drawing data creation process for the background as described above, the drawing data for the background through the geometry calculation and rendering, or the drawing data for the background related to the other saved data is stored in the
ここで、第1表示モード用の別保存データ及び第2表示モード用の別保存データが作成されるタイミングを、図28のタイミングチャートを参照しながら説明する。 Here, the timing at which the separate storage data for the first display mode and the separate storage data for the second display mode are created will be described with reference to the timing chart of FIG.
図28(A)は第1表示モードに対応した背景用の描画データPD1を示し、図28(B)は第2表示モードに対応した背景用の描画データPD2を示す。また、図28(a)はパチンコ機10の電源のON/OFFの状態を示し、図28(b)は第1表示モードの有無を示し、図28(c)は第2表示モードの有無を示し、図28(d)は第1表示モード用の別保存データの有無を示し、図28(e)は第2表示モード用の別保存データの有無を示す。
FIG. 28A shows background drawing data PD1 corresponding to the first display mode, and FIG. 28B shows background drawing data PD2 corresponding to the second display mode. FIG. 28 (a) shows the power on / off state of the
t1のタイミングでパチンコ機10の電源がON操作されることで、表示CPU131への電力供給が開始され、表示CPU131にて処理が開始される。また、表示モードは第1表示モードに設定されているため、t1のタイミングよりも後のタイミングで、第1表示モードに対応した画像を表示させるために、描画リストが表示CPU131からVDP135に出力され、さらにその描画リストに基づきVDP135にて第1表示モードに対応した描画データの作成が開始される。
When the power of the
その後、t2のタイミングで、第1表示モードに対応した背景用の描画データPD1の作成が完了することで、その描画データが第1表示モード用の別保存データとしてモード用バッファ145の第1モード用領域145aに記憶される。この第1表示モードに対応した背景用の描画データPD1による背景画像では、図28(A)に示すように、最背面画像の手前にて「A」〜「F」にて示す3次元のキャラクタ画像が表示される。また、第1モード用領域145aに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。また、t2のタイミング又はその後の所定のタイミングで、第1表示モードに対応した画像の表示が開始される。
After that, at the timing of t2, the creation of the background drawing data PD1 corresponding to the first display mode is completed, so that the drawing data is stored in the first mode of the
その後、t3のタイミングで演出用操作装置48が操作されることに基づき、表示モードが第1表示モードから第2表示モードに切り換えられる。そして、第2表示モード用の描画データが作成され、第2表示モードに対応した画像の表示が開始される。また、当該タイミングにおいて第2表示モードに対応した背景用の描画データPD2の作成が完了するため、その描画データが第2表示モード用の別保存データとしてモード用バッファ145の第2モード用領域145bに記憶される。この第2表示モードに対応した背景用の描画データPD2による背景画像では、図28(B)に示すように、最背面画像の手前にて「G」〜「J」にて示す3次元のキャラクタ画像が表示される。また、第2モード用領域145bに記憶された別保存データは、VRAM134への電力供給が継続されている間は記憶保持される。
Thereafter, the display mode is switched from the first display mode to the second display mode based on the operation of the
ここで、第1表示モードに対応した背景用の描画データPD1は、第2表示モードに対応した背景用の描画データPD2に比べて、設定されるオブジェクトの数が多い。そうすると、第2表示モードから第1表示モードの切換がVDP135の処理負荷の大きい状況で行われると、VDP135にて処理落ちが発生してしまうことが懸念される。これに対して、両別保存データのうち、第1表示モード用の別保存データを電源立ち上げ時の初期設定が行われている時間を利用して作成しておくことで、処理負荷の大きい状況で表示モードが第1表示モードに切り換えられた場合には、その別保存データを利用して処理落ちを回避することができる。
Here, the drawing data PD1 for the background corresponding to the first display mode has a larger number of objects set than the drawing data PD2 for the background corresponding to the second display mode. Then, when switching from the second display mode to the first display mode is performed in a situation where the processing load of the
一方、第2表示モードに対応した背景用の描画データPD2は、その作成にかかるVDP135の処理負荷が小さく、VDP135の処理負荷の大きい状況で第2表示モードへの切換が行われたとしても、処理落ちが発生しないように設定されている。但し、第2表示モードに対応した背景用の描画データPD2についても別保存は行われ、処理落ちが発生しないまでも比較的処理負荷が大きい状況で第2表示モードへの切換が行われた場合には、その別保存データが利用される。
On the other hand, even if the drawing data PD2 for background corresponding to the second display mode has a low processing load on the
上記のように別保存データが作成されることで、t4〜t9のタイミングで示すように、表示モードの切換が短時間で繰り返し実行された場合などには、それぞれの表示モードにおいて別保存データを利用して背景用の画像を表示することで、処理落ちの発生を阻止することができる。 As shown in the timings t4 to t9, when the separate storage data is created as described above, when the display mode is switched repeatedly in a short time, the separate storage data is stored in each display mode. By using the background image to display it, it is possible to prevent the processing from being lost.
また、別保存の対象は背景画像であり、図柄といった変動が注目される個別画像は含まれない。これにより、個別画像が変動している状況で表示モードの切換が行われた場合に、別保存データを使用した画像の表示を行ったとしても、変動が注目される個別画像の動きは継続されるため、遊技者が違和感を抱きづらくなる。 In addition, another storage target is a background image, and does not include an individual image that is subject to variation such as a design. As a result, when the display mode is switched in a situation where the individual image is fluctuating, the movement of the individual image whose fluctuation is noticed is continued even if the image using the separately stored data is displayed. This makes it difficult for the player to feel uncomfortable.
なお、表示モードは2段階に限定されることはなく、3段階又は4段階以上設定されていてもよい。この場合であっても、各表示モードに対応した背景用の描画データを別保存しておくことで、表示モードの切換を良好に行うことができる。 The display mode is not limited to two stages, and may be set to three stages or four or more stages. Even in this case, it is possible to satisfactorily switch display modes by separately storing background drawing data corresponding to each display mode.
また、表示モードの切換タイミングがいずれであっても、図柄の種類の切換が待機されることなく行われる構成としてもよい。また、図柄は表示モード間で相違しない構成としてもよい。 Moreover, it is good also as a structure which is performed without waiting for the switching of the kind of symbol irrespective of the switching timing of a display mode. Moreover, it is good also as a structure from which a design does not differ between display modes.
また、演出用のキャラクタも表示モードに依存して切り換わる構成としてもよい。この場合、演出用のキャラクタは別保存の対象ではない構成としてもよく、別保存の対象である構成としてもよい。 In addition, the effect character may be switched depending on the display mode. In this case, the effect character may be configured not to be stored separately, or may be configured to be stored separately.
<連結オブジェクトを用いて3次元画像を表示するための構成>
次に、連結オブジェクトを用いて3次元画像を表示するための構成について説明する。
<Configuration for displaying a three-dimensional image using a connected object>
Next, a configuration for displaying a three-dimensional image using a connected object will be described.
連結オブジェクトは、複数の部品オブジェクト(部分オブジェクト)が連結部を関節として連結された一単位のオブジェクトであり、各部品オブジェクトを相対的に変位させることで3次元画像のキャラクタに動きを与えるために設定されている。連結オブジェクトを用いることにより、3次元画像のキャラクタをスムーズに動作させることができる。なお、連結オブジェクトが骨格部と関節部とを有していることに鑑みれば、ボーンモデルと称することもできる。 The connected object is a unit object in which a plurality of part objects (partial objects) are connected with a connecting part as a joint. In order to give movement to a character in a three-dimensional image by relatively displacing each part object Is set. By using the connected object, the character of the three-dimensional image can be smoothly operated. In view of the fact that the connected object has a skeleton part and a joint part, it can also be called a bone model.
連結オブジェクトは、所定の動作を行うキャラクタを表示するために設定されている。ここで、本実施形態では、共通のキャラクタを表示するための連結オブジェクトが複数種類設定されている。この複数種類の連結オブジェクトについて、図29を参照しながら説明する。 The connected object is set to display a character that performs a predetermined action. Here, in this embodiment, multiple types of connected objects for displaying a common character are set. The plurality of types of connected objects will be described with reference to FIG.
図29(a),(b)に示すように、共通のキャラクタを表示するために、第1の連結オブジェクトPC15と、第2の連結オブジェクトPC16とが設定されている。これら第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16はそれぞれ複数の連結部CT1,CT2を有しているが、相互に異なる箇所に連結部CT1,CT2が設定されている。 As shown in FIGS. 29A and 29B, in order to display a common character, a first connected object PC15 and a second connected object PC16 are set. Each of the first connected object PC15 and the second connected object PC16 has a plurality of connected portions CT1 and CT2, but the connected portions CT1 and CT2 are set at different locations.
具体的には、第1の連結オブジェクトPC15は膝部分に連結部が設けられていないが、肘部分に連結部CT1が設けられており、図29(a―1),(a―2)に示すような動作の表示が可能となっている。一方、第2の連結オブジェクトPC16は肘部分に連結部が設けられていないが、膝部分に連結部CT2が設けられており、図29(b―1),(b―2)に示すような動作の表示が可能となっている。上記のように異なる箇所に連結部が設定されていることにより、第1の連結オブジェクトPC15を使用した場合と第2の連結オブジェクトPC16を使用した場合とで、キャラクタに異なる動作をさせることが可能となる。 Specifically, the first connected object PC15 is not provided with a connecting portion at the knee portion, but is provided with a connecting portion CT1 at the elbow portion, as shown in FIGS. 29 (a-1) and 29 (a-2). The operation as shown can be displayed. On the other hand, the second connected object PC16 is not provided with a connecting portion at the elbow portion, but is provided with a connecting portion CT2 at the knee portion, as shown in FIGS. 29 (b-1) and 29 (b-2). The operation can be displayed. As described above, since the connecting portions are set at different places, it is possible to cause the character to perform different actions when the first connected object PC15 is used and when the second connected object PC16 is used. It becomes.
なお、両連結オブジェクトPC15,PC16は共通する箇所に連結部CT1,CT2を有しているが、共通する箇所に連結部CT1,CT2を有していない構成としてもよい。また、両連結オブジェクトPC15,PC16に対しては共通のテクスチャがマッピングされるが、それぞれ個別にテクスチャが設定されている構成としてもよい。複数の連結オブジェクトPC15,PC16を用意しておくことでキャラクタに異なる動作をさせることが可能であれば、連結部CT1,CT2の位置やキャラクタの種類は任意である。 Although both the connected objects PC15 and PC16 have the connecting portions CT1 and CT2 at a common location, the connecting objects CT1 and CT2 may not have the connecting portions CT1 and CT2 at a common location. Further, a common texture is mapped to both the connected objects PC15 and PC16, but a configuration may be adopted in which textures are set individually. If it is possible to cause the character to perform different actions by preparing a plurality of connected objects PC15 and PC16, the positions of the connecting portions CT1 and CT2 and the character type are arbitrary.
以下、上記両連結オブジェクトPC15,PC16を用いてキャラクタが動作している様子を表示するための具体的な処理構成を説明する。 Hereinafter, a specific processing configuration for displaying a state in which a character is moving using both the connected objects PC15 and PC16 will be described.
図30は、表示CPU131にて実行される連結オブジェクト用の演算処理を示すフローチャートである。連結オブジェクト用の演算処理はタスク処理(図14)のステップS904における演出用演算処理にて実行される。また、連結オブジェクト用の演算処理は、連結オブジェクトPC15,PC16を用いた演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。
FIG. 30 is a flowchart showing calculation processing for connected objects executed by the
先ずステップS1901では、現状設定されているデータテーブルに基づいて、連結オブジェクトPC15,PC16を用いた演出の実行中(上記キャラクタが表示中)であるか否かを判定する。演出の実行中ではない場合にはステップS1902にて、連結オブジェクトPC15,PC16を用いた演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS1903に進む。 First, in step S1901, it is determined based on the currently set data table whether an effect using the connected objects PC15 and PC16 is being executed (the character is being displayed). If the effect is not being executed, it is determined in step S1902 whether it is the start timing of the effect using the linked objects PC15 and PC16. If it is not the start timing, the present calculation process is terminated, and if it is the start timing, the process proceeds to step S1903.
ステップS1903では、連結オブジェクト演出の開始指定情報を記憶し、続くステップS1904にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。ちなみに、ステップS1904の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、両連結オブジェクトPC15,PC16に対して制御開始用の処理が完了している。また、制御が開始された両連結オブジェクトPC15,PC16の制御用の情報は、連結オブジェクトPC15,PC16を用いた今回の一連の演出が完了するまではワークRAM132に記憶保持される。
In step S1903, the start specification information of the connected object effect is stored, and in the subsequent step S1904, based on the currently set data table, the first connected object PC15 and the second connected object PC16 are grasped as control targets. To do. Incidentally, at the execution timing of the process in step S1904, the control start process is completed for both connected objects PC15 and PC16 in the immediately preceding control start setting process (step S901). The control information for both connected objects PC15 and PC16 for which control has been started is stored and held in the
続くステップS1905では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1906では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。 In subsequent step S1905, various parameters of the first connected object PC15 are calculated, and the control information related to the first connected object PC15 is updated. In step S1906, various parameters of the second connected object PC16 are calculated, and the control information related to the second connected object PC16 is updated.
続くステップS1907では、第1演出期間の指定情報を記憶する。ここで、連結オブジェクトPC15,PC16を用いた演出は、その全体の演出期間が複数種類の演出期間、具体的には第1演出期間,第2演出期間及び第3演出期間に区分けされている。そして、第1演出期間及び第3演出期間は第1の連結オブジェクトPC15を用いてキャラクタが表示され、第2演出期間は第2の連結オブジェクトPC16を用いてキャラクタが表示される。その後、ステップS1908にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。 In subsequent step S1907, designation information of the first effect period is stored. Here, the effects using the connected objects PC15 and PC16 are divided into a plurality of effect periods, specifically, a first effect period, a second effect period, and a third effect period. In the first effect period and the third effect period, the character is displayed using the first connected object PC15, and in the second effect period, the character is displayed using the second connected object PC16. Thereafter, in step S1908, the parameters of the first connected object PC15 out of both the connected objects PC15 and PC16 are set to be specified in the current drawing list.
続くステップS1909では、現状設定されているデータテーブルに基づいて、第1演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ちなみに、ステップS1909の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、今回の更新対象のオブジェクトに対して制御開始用の処理が完了している。その後、ステップS1910にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In subsequent step S1909, based on the currently set data table, the other objects for the first presentation period and the object to be updated this time are grasped. Incidentally, at the execution timing of the process in step S1909, the control start process for the current update target object is completed in the immediately preceding control start setting process (step S901). Thereafter, in step S1910, the various parameters of the other objects ascertained are calculated, and the control information related to these other objects is updated. Then, the calculation process ends.
上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、連結オブジェクトPC15,PC16を用いた演出を開始させるべきことを示す連結オブジェクト演出の開始指定情報と、第1演出期間であることを示す第1演出期間の指定情報とが、描画リストに設定される。 When the calculation process for the linked object is executed as described above, use instruction information for both linked objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output process. The parameters of the first linked object PC15 are set for the objects PC15 and PC16. Moreover, the start specification information of the connected object effect indicating that the effect using the connected objects PC15 and PC16 should be started and the specification information of the first effect period indicating that it is the first effect period are set in the drawing list. Is done.
一方、連結オブジェクトPC15,PC16を用いた演出の実行中である場合(ステップS1901:YES)には、ステップS1911にて、現状設定されているデータテーブルに基づいて、第1演出期間中であるか否かを判定する。第1演出期間中である場合には、ステップS1904〜ステップS1910の処理を実行した後に、本演算処理を終了する。ちなみに、今回は第1演出期間中であるため、当該第1演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1905にてパラメータの演算が行われる。 On the other hand, when an effect using the linked objects PC15 and PC16 is being executed (step S1901: YES), whether or not the first effect period is in effect based on the currently set data table in step S1911. Determine whether or not. If it is during the first presentation period, the processing of step S1904 to step S1910 is executed, and then the calculation processing is terminated. Incidentally, since this time is in the first production period, the first connected object PC15 performs a predetermined first action (see FIG. 29A) as the first production period progresses. In step S1905, the parameter is calculated.
上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第1演出期間であることを示す第1演出期間の指定情報が、描画リストに設定される。 When the calculation process for the linked object is executed as described above, use instruction information for both linked objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output process. The parameters of the first linked object PC15 are set for the objects PC15 and PC16. In addition, designation information of the first effect period indicating the first effect period is set in the drawing list.
ステップS1911にて、第1演出期間中ではないと判定した場合には、ステップS1912にて、現状設定されているデータテーブルに基づいて、第2演出期間中であるか否かを判定する。第2演出期間中である場合には、ステップS1913にて、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。 If it is determined in step S1911 that it is not during the first effect period, it is determined in step S1912 whether or not it is during the second effect period based on the currently set data table. If it is during the second presentation period, in step S1913, the first connected object PC15 and the second connected object PC16 are grasped as control targets based on the currently set data table.
続くステップS1914では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。また、ステップS1915では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。ちなみに、今回は第2演出期間中であるため、当該第2演出期間の進行に伴って第2の連結オブジェクトPC16が予め定められた第2の動作(図29(b)を参照)をするように、ステップS1915にてパラメータの演算が行われる。 In a succeeding step S1914, various parameters of the first connected object PC15 are calculated, and the control information related to the first connected object PC15 is updated. In step S1915, various parameters of the second connected object PC16 are calculated, and the control information related to the second connected object PC16 is updated. Incidentally, since this time is in the second production period, the second linked object PC16 performs a predetermined second action (see FIG. 29B) as the second production period progresses. In step S1915, the parameter is calculated.
続くステップS1916では、第2演出期間の指定情報を記憶し、さらにステップS1917にて、両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のパラメータが今回の描画リストにて指定されるように設定する。 In the subsequent step S1916, the designation information of the second effect period is stored, and in step S1917, the parameter of the second connected object PC16 among the connected objects PC15 and PC16 is specified in the current drawing list. Set.
続くステップS1918では、現状設定されているデータテーブルに基づいて、第2演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第2演出期間は第1演出期間よりも演出が発展した状態であり、少なくとも第1演出期間から第2演出期間への切り換えに際して表示されるオブジェクト数は増加する。第1演出期間から第2演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1918の処理の実行タイミングにおいて完了している。その後、ステップS1919にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In the subsequent step S1918, based on the currently set data table, the other objects for the second effect period and the object to be updated this time are grasped. Here, the second effect period is a state in which the effect is developed more than the first effect period, and the number of objects displayed at least when switching from the first effect period to the second effect period is increased. The setting process for starting control (step S901) for the object that has been increased when switching from the first effect period to the second effect period is completed at the execution timing of the process of step S1918. Thereafter, in step S1919, the various parameters of the other objects ascertained are calculated, and the control information related to these other objects is updated. Then, the calculation process ends.
上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第2の連結オブジェクトPC16のパラメータが設定される。また、第2演出期間であることを示す第2演出期間の指定情報が、描画リストに設定される。 When the calculation process for the linked object is executed as described above, use instruction information for both linked objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output process. The parameters of the second linked object PC16 are set for the objects PC15 and PC16. In addition, designation information of the second effect period indicating the second effect period is set in the drawing list.
ステップS1912にて、第2演出期間中ではないと判定した場合には、第3演出期間であることを意味するため、ステップS1920に進む。ステップS1920では、現状設定されているデータテーブルに基づいて、第1の連結オブジェクトPC15及び第2の連結オブジェクトPC16を制御対象として把握する。 If it is determined in step S1912 that it is not during the second effect period, the process proceeds to step S1920 because it means the third effect period. In step S1920, the first connected object PC15 and the second connected object PC16 are grasped as control targets based on the currently set data table.
続くステップS1921では、第1の連結オブジェクトPC15の各種パラメータを演算して、当該第1の連結オブジェクトPC15に係る制御用の情報を更新する。ちなみに、今回は第3演出期間中であるため、当該第3演出期間の進行に伴って第1の連結オブジェクトPC15が予め定められた第1の動作(図29(a)を参照)をするように、ステップS1921にてパラメータの演算が行われる。また、ステップS1922では、第2の連結オブジェクトPC16の各種パラメータを演算して、当該第2の連結オブジェクトPC16に係る制御用の情報を更新する。 In subsequent step S1921, various parameters of the first connected object PC15 are calculated, and the control information related to the first connected object PC15 is updated. Incidentally, since this time is in the third effect period, the first linked object PC15 performs a predetermined first action (see FIG. 29A) as the third effect period progresses. In step S1921, the parameter is calculated. In step S1922, various parameters of the second connected object PC16 are calculated, and the control information related to the second connected object PC16 is updated.
続くステップS1923では、第3演出期間の指定情報を記憶し、さらにステップS1924にて、両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のパラメータが今回の描画リストにて指定されるように設定する。 In subsequent step S1923, designation information of the third effect period is stored, and in step S1924, the parameter of the first connected object PC15 out of both the connected objects PC15 and PC16 is specified in the current drawing list. Set.
続くステップS1925では、現状設定されているデータテーブルに基づいて、第3演出期間用の他のオブジェクトであって今回の更新対象のオブジェクトを把握する。ここで、第3演出期間は第2演出期間よりも演出が発展した状態であり、少なくとも第2演出期間から第3演出期間への切り換えに際して表示されるオブジェクト数は増加する。第2演出期間から第3演出期間への切り換えに際して増加した分のオブジェクトに対する制御開始用の設定処理(ステップS901)は、ステップS1925の処理の実行タイミングにおいて完了している。その後、ステップS1926にて、上記把握した他のオブジェクトの各種パラメータを演算して、これら他のオブジェクトに係る制御用の情報を更新した後に、本演算処理を終了する。 In subsequent step S1925, based on the currently set data table, another object for the third effect period and the object to be updated this time is grasped. Here, the third effect period is a state in which the effect is developed more than the second effect period, and the number of objects displayed at least when switching from the second effect period to the third effect period is increased. The setting process for starting control (step S901) for the object that has been increased during the switching from the second effect period to the third effect period is completed at the execution timing of the process of step S1925. After that, in step S1926, the various parameters of the other objects ascertained are calculated, and the control information related to these other objects is updated. Then, the calculation process ends.
上記のように連結オブジェクト用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、両連結オブジェクトPC15,PC16の使用指示の情報が設定されるとともに、それらオブジェクトPC15,PC16に対して第1の連結オブジェクトPC15のパラメータが設定される。また、第3演出期間であることを示す第3演出期間の指定情報が、描画リストに設定される。 When the calculation process for the linked object is executed as described above, use instruction information for both linked objects PC15 and PC16 is set in the drawing list created in the subsequent drawing list output process. The parameters of the first linked object PC15 are set for the objects PC15 and PC16. Also, designation information for the third effect period indicating the third effect period is set in the drawing list.
次に、VDP135にて実行される連結オブジェクト演出用の設定処理を、図31のフローチャートを参照しながら説明する。連結オブジェクト演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、連結オブジェクト演出用の設定処理は、今回の描画リストに連結オブジェクト演出の開始指定、第1演出期間乃至第3演出期間の指定のいずれかが設定されている場合に起動される。
Next, the connection object effect setting process executed in the
先ずステップS2001では、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されているか否かを判定する。設定されている場合には、ステップS2002にて、今回の描画リストに基づいて、メモリモジュール133において第1の連結オブジェクトPC15が記憶されているアドレスを把握して、当該第1の連結オブジェクトPC15を読み出す。また、ステップS2003にて、今回の描画リストに基づいて、メモリモジュール133において第2の連結オブジェクトPC16が記憶されているアドレスを把握して、当該第2の連結オブジェクトPC16を読み出す。
First, in step S2001, it is determined whether or not the start specification of the connected object effect is set in the current drawing list. If it is set, in step S2002, based on the current drawing list, the
続くステップS2004では、第1演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。 In the subsequent step S2004, a uniform α value setting process for the first effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “1” that is the opaque information, and the uniform α value of the second connected object PC16 is set to “0” that is the completely transparent information. To do. As a result, the color information set in advance for all the pixels of the first connected object PC15 (including information on the α value set for each pixel from the beginning) is applied as it is. An α value of “0” is uniformly applied to all pixels of the two connected objects PC16.
続くステップS2005では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2006にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the subsequent step S2005, the parameters specified for the first connected object PC15 in the current drawing list are grasped as the parameters of both the connected objects PC15 and PC16. Thereafter, in step S2006, a setting process to the world coordinate system is executed for both connected objects PC15 and PC16.
今回は連結オブジェクト演出の開始指定に係る処理回であるため、両連結オブジェクトPC15,PC16のワールド座標系への配置を行う。また、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第1の連結オブジェクトPC15のパラメータを第2の連結オブジェクトPC16にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。
Since this time is a processing time related to the start specification of the connected object effect, the two connected objects PC15 and PC16 are arranged in the world coordinate system. Further, the shapes of the two linked objects PC15 and PC16 are substantially the same, but the linked portions of the component objects are different. Then, even if an attempt is made to apply the parameters of the first connected object PC15 to the second connected object PC16 as they are, pixels whose coordinate designations do not match are generated, but for such pixels, a predetermined adjustment is performed on the
続くステップS2007では、今回の描画リストに指定されている第1演出期間用の他のオブジェクトを把握するとともに、ステップS2008にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2009にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。 In the following step S2007, other objects for the first effect period specified in the current drawing list are grasped, and various parameters designated for the object are grasped in step S2008. Thereafter, in step S2009, the setting process for the connected object effect is ended after executing the setting process for the object in the world coordinate system.
上記のように連結オブジェクト演出用の設定処理が実行されることにより、ワールド座標系に対して両連結オブジェクトPC15,PC16の配置が同時に開始される。また、両連結オブジェクトPC15,PC16に対して同一のパラメータが適用されるため、ワールド座標系の同一の位置に対して両連結オブジェクトPC15,PC16が重ねて配置される。但し、ステップS2004の処理が実行されていることにより、第2の連結オブジェクトPC16はレンダリングに際して完全透明のオブジェクトとして扱われるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。
By executing the setting process for the connected object effect as described above, the arrangement of both the connected objects PC15 and PC16 with respect to the world coordinate system is started simultaneously. Further, since the same parameter is applied to both connected objects PC15 and PC16, both connected objects PC15 and PC16 are arranged to overlap each other at the same position in the world coordinate system. However, since the processing of step S2004 is executed, the second connected object PC16 is treated as a completely transparent object at the time of rendering. Therefore, the first connected object of the two connected objects PC15 and PC16 is displayed on the display surface G. Only the
一方、ステップS2001にて、今回の描画リストにおいて連結オブジェクト演出の開始指定が設定されていないと判定した場合には、ステップS2010に進む。ステップS2010では、今回の描画リストにおいて第1演出期間の指定が設定されているか否かを判定する。 On the other hand, if it is determined in step S2001 that the start specification of the connected object effect is not set in the current drawing list, the process proceeds to step S2010. In step S2010, it is determined whether or not the designation of the first effect period is set in the current drawing list.
設定されている場合には、ステップS2004〜ステップS2009の処理を実行した後に、本設定処理を終了する。この場合、ステップS2006では、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。 If it has been set, the processing of step S2004 to step S2009 is executed, and then this setting processing is terminated. In this case, in step S2006, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are grasped from information of parameters set in correspondence with the first connected object PC15 in the drawing list. Update.
上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2004の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2005で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第1演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。 When the setting process for connected object effect is executed as described above, various parameters of both connected objects PC15 and PC16 are updated. However, since the process of step S2004 is executed, the display surface G is connected to both connected objects. Of the objects PC15 and PC16, only the first linked object PC15 is displayed. In addition, since the parameter updated in step S2005 corresponds to the first connected object PC15, the first connection is performed so that the first operation is performed on the display surface G as the first effect period progresses. Object PC15 is displayed.
ステップS2010にて、今回の描画リストにおいて第1演出期間の指定が設定されていないと判定した場合には、ステップS2011に進む。ステップS2011では、今回の描画リストにおいて第2演出期間の指定が設定されているか否かを判定する。 If it is determined in step S2010 that the designation of the first effect period is not set in the current drawing list, the process proceeds to step S2011. In step S2011, it is determined whether or not the designation of the second effect period is set in the current drawing list.
設定されている場合には、ステップS2012にて、第2演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を完全透過情報である「0」に設定するとともに、第2の連結オブジェクトPC16の一律α値を不透過情報である「1」に設定する。これにより、第2の連結オブジェクトPC16の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第1の連結オブジェクトPC15の全ピクセルに対して「0」のα値が一律に適用される。 If it is set, in step S2012, a uniform α value setting process for the second effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “0” that is completely transparent information, and the uniform α value of the second connected object PC16 is set to “1” that is opaque information. To do. As a result, the color information set in advance for all the pixels of the second connected object PC16 (including information on the α value set for each pixel from the beginning) is applied as it is. An α value of “0” is uniformly applied to all the pixels of one connected object PC15.
続くステップS2013では、今回の描画リストにおいて第2の連結オブジェクトPC16に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2014にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the subsequent step S2013, the parameters specified for the second connected object PC16 in the current drawing list are grasped as parameters of both the connected objects PC15 and PC16. Thereafter, in step S2014, a setting process to the world coordinate system is executed for both connected objects PC15 and PC16.
今回は第2演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第2の連結オブジェクトPC16に対応させて設定されているパラメータの情報から把握して更新する。この場合に、両連結オブジェクトPC15,PC16の形状は概ね一致しているが、各部品オブジェクトの連結部が相違している。そうすると、第2の連結オブジェクトPC16のパラメータを第1の連結オブジェクトPC15にそのまま適用しようとしても座標指定が一致しないピクセルが生じるが、そのようなピクセルに対してはVDP135側において所定の調整が行われる。
Since this time is a processing time related to the update of the second rendering period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set in correspondence with the second connected object PC16 in the drawing list. It is grasped from the parameter information that is being updated. In this case, the shapes of the two linked objects PC15 and PC16 are substantially the same, but the linked portions of the component objects are different. Then, even if an attempt is made to apply the parameter of the second connected object PC16 to the first connected object PC15 as it is, a pixel whose coordinate designation does not match is generated, but for such a pixel, a predetermined adjustment is performed on the
続くステップS2015では、今回の描画リストに指定されている第2演出期間用の他のオブジェクトを把握するとともに、ステップS2016にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2017にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第1演出期間から第2演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2017ではそれに応じた処理を実行する。 In the following step S2015, other objects for the second effect period specified in the current drawing list are grasped, and various parameters designated for the object are grasped in step S2016. Thereafter, in step S2017, after setting processing for the object in the world coordinate system is performed, the setting processing for the connected object effect is ended. Here, when the current processing time is a timing related to switching from the first effect period to the second effect period, the number of objects to be displayed increases, and therefore, in step S2017, a process corresponding thereto is executed. .
上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2012の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第2の連結オブジェクトPC16のみが表示される。また、ステップS2013で更新されるパラメータは、第2の連結オブジェクトPC16に対応しているため、第2演出期間の進行に伴って、表示面Gでは第2の動作を行うように第2の連結オブジェクトPC16が表示される。 By executing the setting process for the connected object effect as described above, the various parameters of both the connected objects PC15 and PC16 are updated. However, since the process of step S2012 is executed, the display surface G is connected to both the connected objects. Of the objects PC15 and PC16, only the second linked object PC16 is displayed. In addition, since the parameter updated in step S2013 corresponds to the second connected object PC16, the second connection is performed so that the second operation is performed on the display surface G as the second effect period progresses. The object PC 16 is displayed.
ステップS2011にて、今回の描画リストにおいて第2演出期間の指定が設定されていないと判定した場合には、今回の描画リストにおいて第3演出期間の指定が設定されていることを意味するため、ステップS2018に進む。 If it is determined in step S2011 that the second rendering period is not specified in the current drawing list, it means that the third rendering period is specified in the current rendering list. The process proceeds to step S2018.
ステップS2018では、第3演出期間用の一律α値の設定処理を実行する。具体的には、第1の連結オブジェクトPC15の一律α値を不透過情報である「1」に設定するとともに、第2の連結オブジェクトPC16の一律α値を完全透過情報である「0」に設定する。これにより、第1の連結オブジェクトPC15の全ピクセルに対して予め設定されている色情報(当初から各ピクセルに設定されているα値の情報を含む)がそのまま適用されるのに対して、第2の連結オブジェクトPC16の全ピクセルに対して「0」のα値が一律に適用される。 In step S2018, a uniform α value setting process for the third effect period is executed. Specifically, the uniform α value of the first connected object PC15 is set to “1” that is the opaque information, and the uniform α value of the second connected object PC16 is set to “0” that is the completely transparent information. To do. As a result, the color information set in advance for all the pixels of the first connected object PC15 (including information on the α value set for each pixel from the beginning) is applied as it is. An α value of “0” is uniformly applied to all pixels of the two connected objects PC16.
続くステップS2019では、今回の描画リストにおいて第1の連結オブジェクトPC15に対して指定されているパラメータを、両連結オブジェクトPC15,PC16のパラメータとして把握する。その後、ステップS2020にて、両連結オブジェクトPC15,PC16について、ワールド座標系への設定処理を実行する。 In the subsequent step S2019, the parameters specified for the first connected object PC15 in the current drawing list are grasped as the parameters of both the connected objects PC15 and PC16. After that, in step S2020, a setting process to the world coordinate system is executed for both connected objects PC15 and PC16.
今回は第3演出期間の更新に係る処理回であるため、ワールド座標系に設定されている両連結オブジェクトPC15,PC16の各種パラメータを、描画リストにおいて第1の連結オブジェクトPC15に対応させて設定されているパラメータの情報から把握して更新する。 Since this time is a processing time related to the update of the third effect period, various parameters of both connected objects PC15 and PC16 set in the world coordinate system are set in correspondence with the first connected object PC15 in the drawing list. It is grasped from the parameter information that is being updated.
続くステップS2021では、今回の描画リストに指定されている第3演出期間用の他のオブジェクトを把握するとともに、ステップS2022にて、そのオブジェクトについて指定されている各種パラメータを把握する。その後、ステップS2023にて、そのオブジェクトについて、ワールド座標系への設定処理を実行した後に、本連結オブジェクト演出用の設定処理を終了する。ここで、今回の処理回が第2演出期間から第3演出期間への切り換えに係るタイミングである場合には、表示されるオブジェクトの数が増加するため、ステップS2023ではそれに応じた処理を実行する。 In the subsequent step S2021, other objects for the third effect period specified in the current drawing list are grasped, and in step S2022, various parameters designated for the object are grasped. Thereafter, in step S2023, the setting process for the connected object effect is ended after executing the setting process for the object in the world coordinate system. Here, when the current processing time is a timing related to switching from the second effect period to the third effect period, the number of objects to be displayed increases, and therefore, in step S2023, a process corresponding thereto is executed. .
上記のように連結オブジェクト演出用の設定処理が実行されることにより、両連結オブジェクトPC15,PC16の各種パラメータは更新されるが、ステップS2018の処理が実行されるため、表示面Gには両連結オブジェクトPC15,PC16のうち第1の連結オブジェクトPC15のみが表示される。また、ステップS2019で更新されるパラメータは、第1の連結オブジェクトPC15に対応しているため、第3演出期間の進行に伴って、表示面Gでは第1の動作を行うように第1の連結オブジェクトPC15が表示される。 By executing the setting process for the connected object effect as described above, the various parameters of both the connected objects PC15 and PC16 are updated. However, since the process of step S2018 is executed, the display surface G is connected to both the connected objects. Of the objects PC15 and PC16, only the first linked object PC15 is displayed. In addition, since the parameter updated in step S2019 corresponds to the first connected object PC15, the first connected object performs the first operation on the display surface G as the third effect period progresses. Object PC15 is displayed.
次に、連結オブジェクト演出の内容について、図32を参照しながら説明する。 Next, the contents of the connected object effect will be described with reference to FIG.
図32は連結オブジェクト演出を説明するための説明図である。また、図32(a)は第1演出期間を示し、図32(b)は第2演出期間を示し、図32(c)は第3演出期間を示す。なお、図32(a―1),(b―1),(c―1)はワールド座標系のイメージ図であり、図32(a―2),(b―2),(c―2)は表示面Gを示す。また、図32(a―2),(b―2),(c―2)では背景画像や図柄を省略しているが、実際には各演出用の画像の奥側にて背景画像が表示されるとともに手前側にて図柄が表示される。 FIG. 32 is an explanatory diagram for explaining the connected object effect. 32A shows the first effect period, FIG. 32B shows the second effect period, and FIG. 32C shows the third effect period. 32 (a-1), (b-1), and (c-1) are image diagrams of the world coordinate system, and FIGS. 32 (a-2), (b-2), and (c-2) are The display surface G is shown. Also, in FIG. 32 (a-2), (b-2), and (c-2), the background image and the design are omitted, but the background image is actually displayed on the back side of each effect image. And a symbol is displayed on the front side.
第1演出期間では、図32(a―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(a―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第1演出期間の進行に伴って第1の動作が行われる。また、その他のオブジェクトに対応した画像として、「A」〜「C」に示すキャラクタCH4〜CH6が表示される。 In the first effect period, as shown in FIG. 32 (a-1), both connected objects PC15 and PC16 are set in the world coordinate system, but a transparency process is performed on the second connected object PC16. . Accordingly, as shown in FIG. 32 (a-2), the character CH3 corresponding to the first connected object PC15 is displayed on the display surface G, and the first action is performed as the first performance period progresses. . Characters CH4 to CH6 indicated by “A” to “C” are displayed as images corresponding to other objects.
第2演出期間では、図32(b―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第1の連結オブジェクトPC15に対しては透明化処理が行われる。したがって、図32(b―2)に示すように、表示面Gには第2の連結オブジェクトPC16に対応したキャラクタCH3が表示され、第2演出期間の進行に伴って第2の動作が行われる。 In the second effect period, as shown in FIG. 32 (b-1), both the connected objects PC15 and PC16 are set in the world coordinate system, but a transparency process is performed on the first connected object PC15. . Accordingly, as shown in FIG. 32 (b-2), the character CH3 corresponding to the second connected object PC16 is displayed on the display surface G, and the second action is performed as the second effect period progresses. .
ここで、図32(a―2)と図32(b―2)とで比較した場合、両キャラクタCH3は異なる形状であるかのように示されているが、実際には両連結オブジェクトPC15,PC16に対して同一のテクスチャがマッピングされ、連結部(関節部分)が目立たなくなる。したがって、第1演出期間から第2演出期間に切り換わったとしても、キャラクタCH3に関して表示面Gでは同一、略同一又は同様の画像が表示され、遊技者はその切り換わりを認識しづらくなっている。但し、遊技者が切り換わりの発生を認識しづらいのであれば、両連結オブジェクトPC15,PC16に対して個別にテクスチャが設定されていてもよい。 Here, when comparing FIG. 32 (a-2) and FIG. 32 (b-2), both characters CH3 are shown as if they have different shapes. The same texture is mapped to the PC 16, and the connecting portion (joint portion) becomes inconspicuous. Therefore, even if the first effect period is switched to the second effect period, the same, substantially the same or similar image is displayed on the display surface G with respect to the character CH3, and the player is difficult to recognize the change. . However, if it is difficult for the player to recognize the occurrence of switching, textures may be set individually for both connected objects PC15 and PC16.
また、第2演出期間では、その他のオブジェクトに対応した画像として、「A」〜「E」に示すキャラクタCH4〜CH8が表示される。このキャラクタCH4〜CH8の数は、第1演出期間の場合よりも多い数である。 In the second effect period, characters CH4 to CH8 indicated by “A” to “E” are displayed as images corresponding to other objects. The number of characters CH4 to CH8 is larger than that in the first effect period.
第3演出期間では、図32(c―1)に示すように、両連結オブジェクトPC15,PC16がワールド座標系に設定されるが、第2の連結オブジェクトPC16に対しては透明化処理が行われる。したがって、図32(c―2)に示すように、表示面Gには第1の連結オブジェクトPC15に対応したキャラクタCH3が表示され、第3演出期間の進行に伴って第1の動作が行われる。また、第3演出期間では、その他のオブジェクトに対応した画像として、「A」〜「G」に示すキャラクタCH4〜CH10が表示される。このキャラクタCH4〜CH10の数は、第2演出期間の場合よりも多い数である。 In the third effect period, as shown in FIG. 32 (c-1), both connected objects PC15 and PC16 are set in the world coordinate system, but the transparency process is performed on the second connected object PC16. . Accordingly, as shown in FIG. 32 (c-2), the character CH3 corresponding to the first connected object PC15 is displayed on the display surface G, and the first action is performed as the third effect period progresses. . In the third effect period, characters CH4 to CH10 indicated by “A” to “G” are displayed as images corresponding to other objects. The number of characters CH4 to CH10 is larger than that in the second effect period.
以上のとおり、共通のキャラクタに対して複数の連結オブジェクトPC15,PC16が設定されていることにより、関節部分を利用した動作の種類に応じて表示対象となる連結オブジェクトPC15,PC16を切り換えることができる。例えば、複数種類の動作を単一の連結オブジェクトで行おうとすると、それだけ分の連結部及び部品オブジェクトをその単一の連結オブジェクトに対して設定する必要が生じる。そうすると、一の画像データのデータ容量が大きくなってしまい、メモリモジュール133において単一の画像データとして記憶可能な容量を超えてしまうことが懸念され、超えないとしても単一の画像データを扱う上での処理時間や転送時間の長時間化が懸念される。これに対して、複数の連結オブジェクトPC15,PC16として設定されているため、上記のような不都合を生じさせることなく、キャラクタに対して複数種類の動作を行わせることが可能となる。
As described above, since a plurality of linked objects PC15 and PC16 are set for a common character, the linked objects PC15 and PC16 to be displayed can be switched according to the type of motion using the joint portion. . For example, if a plurality of types of actions are to be performed with a single connected object, it is necessary to set the corresponding connected parts and component objects for the single connected object. Then, the data capacity of one image data increases, and there is a concern that the
また、パチンコ機10の設計段階においては演出の修正が行われる機会が多く、キャラクタの動作についての修正の度に連結オブジェクトの全体の動きを見直していると、設計に要する期間が多大なものとなってしまう。これに対して、上記のように行わせたい動作の種類に応じて複数の連結オブジェクトPC15,PC16を設定することで、演出の修正を行う必要が生じたとしても、既に作成済みの連結オブジェクトPC15,PC16の全てを修正する必要がなくなる。よって、パチンコ機10の設計を良好に行えるようにしながら、キャラクタに対して複数種類の動作を行わせることが可能となる。
In addition, there are many occasions where the production is corrected at the design stage of the
また、キャラクタを表示させるために連結オブジェクトが切り換えられるタイミングよりも前に切換元のオブジェクトだけでなく切換先のオブジェクトについても、表示CPU131において制御対象とされるとともに、VDP135においてワールド座標系への配置対象とされる。これにより、切換タイミングとなった場合に表示CPU131及びVDP135では、切換先のオブジェクトに対して制御開始処理を実行するのではなく、当該制御開始処理よりも処理負荷が小さい制御更新処理を実行すればよいため、切換タイミングにおける処理負荷が軽減される。
Further, not only the switching source object but also the switching destination object before the timing at which the linked object is switched to display the character is controlled by the
特に、切換タイミングでは、演出が発展し、表示されるオブジェクトの数が増加するため、表示CPU131及びVDP135にとって処理負荷が比較的大きくなるタイミングである。この場合に、切換先のオブジェクトに対して制御開始処理を行う構成を想定すると、表示CPU131やVDP135において処理落ちが発生することが懸念されるが、上記のとおり切換先のオブジェクトについて制御更新処理を実行すればよいため、当該処理落ちの発生を阻止することができる。
In particular, the switching timing is a timing at which the processing load becomes relatively large for the
また、ワールド座標系に両連結オブジェクトPC15,PC16を同時に配置するとともに、適用する一律α値を完全透過情報と不透過情報とで切り換える構成であるため、表示CPU131では両者の切換に関して一律α値の切換指定をすればよく、VDP135ではその指定に従って適用する一律α値を切り換えればよい。よって、表示CPU131及びVDP135の処理構成の複雑化を抑えながら、上記のような優れた効果を奏することができる。
In addition, since both connected objects PC15 and PC16 are simultaneously arranged in the world coordinate system and the uniform α value to be applied is switched between completely transparent information and non-transparent information, the
また、表示CPU131からVDP135には、ワールド座標系に同時に配置される両連結オブジェクトPC15,PC16のうち表示対象の連結オブジェクトに対してのパラメータ情報のみが提供される。これにより、描画リストに設定されるデータ量の軽減が図られる。また、VDP135では、両連結オブジェクトPC15,PC16のパラメータの更新を同一の態様で行えばよいため、VDP135の処理負荷の軽減が図られる。
Further, the
なお、第1演出期間〜第3演出期間の切換では、キャラクタの数が増加することに代えて又は加えて、上記複数の連結オブジェクトが用意されているキャラクタとは異なる演出用のキャラクタの動作が新たに追加される構成としてもよく、上記複数の連結オブジェクトが用意されているキャラクタとは別に処理負荷の大きい演出用のキャラクタの表示が開始される構成としてもよい。 In the switching from the first effect period to the third effect period, instead of or in addition to the increase in the number of characters, the action of the character for effect different from the character in which the plurality of connected objects are prepared. It may be configured to be newly added, or may be configured to start displaying an effect character with a large processing load separately from the character for which the plurality of connected objects are prepared.
また、第2の連結オブジェクトPC16の表示CPU131における制御開始タイミングやVDP135における制御開始タイミングは、第1の連結オブジェクトPC15と同一ではなくてもよい。例えば、第1演出期間から第2演出期間への切換タイミングよりも前ではあるが、第1の連結オブジェクトPC15の制御開始タイミングよりも後のタイミングであってもよい。
Further, the control start timing in the
また、演出期間の切換タイミングにおける処理負荷が上記構成よりも増加するが、当該切換タイミングにおいて第2の連結オブジェクトPC16の制御が開始される構成としてもよい。この場合、第1の連結オブジェクトPC15と第2の連結オブジェクトPC16とがワールド座標系に同時に配置されることがないため、一律α値を調整して表示対象を切り換える制御を行わなくてもよい。 Moreover, although the processing load at the switching timing of the production period is greater than that in the above configuration, the control of the second connected object PC 16 may be started at the switching timing. In this case, since the first connected object PC15 and the second connected object PC16 are not simultaneously arranged in the world coordinate system, it is not necessary to perform control to switch the display target by adjusting the uniform α value.
また、ワールド座標系に同時に配置されている両連結オブジェクトPC15,PC16について、表示対象の切換を一律α値の調整により行うのではなく、レンダリング対象の切換により行う構成としてもよい。この場合、表示対象ではない側の連結オブジェクトは、レンダリングが行われないこととなるため、上記構成よりもレンダリング時の処理負荷が軽減される。 In addition, for both connected objects PC15 and PC16 that are simultaneously arranged in the world coordinate system, the display target may be switched by switching the rendering target instead of by uniformly adjusting the α value. In this case, since the connected object on the side that is not the display target is not rendered, the processing load during rendering is reduced as compared with the above configuration.
また、第3演出期間が不具備である構成としてもよく、第4演出期間以上の演出期間が設定されている構成としてもよい。また、一のキャラクタに対して、3個以上の連結オブジェクトが用意されている構成としてもよい。 Moreover, it is good also as a structure which the 3rd production period does not have, and it is good also as a structure by which the production period more than the 4th production period is set. Moreover, it is good also as a structure by which the 3 or more connection object is prepared with respect to one character.
<粒子分散演出を行うための構成>
次に、粒子分散演出を行うための構成について説明する。
<Configuration for particle dispersion effect>
Next, a configuration for performing a particle dispersion effect will be described.
粒子分散演出とは、連続する複数フレーム(複数の画像更新タイミング)に亘って、多数の粒子単体画像が分散していくかのように表示される演出のことである。この分散に際しては、多数の粒子単体画像における少なくとも一部の画像同士がそれぞれ異なる軌道で変位していくように表示される。粒子分散演出に際しては、多数の粒子単体画像に対して1対1で対応させて設定された多数の頂点データを有する粒子分散用オブジェクトと、当該粒子分散用オブジェクトに対応させて設定され、各頂点データに対応した位置にそれぞれ対応する粒子単体画像を表示させるための多数の単体画像データを有する粒子分散用テクスチャとが用いられる。 The particle dispersion effect is an effect that is displayed as if a large number of particle single images are dispersed over a plurality of continuous frames (a plurality of image update timings). At the time of the dispersion, at least some of the images of the single particle images are displayed so as to be displaced along different trajectories. In the particle dispersion effect, a particle dispersion object having a large number of vertex data set corresponding to a large number of particle single images in a one-to-one correspondence, and a particle dispersion object set corresponding to the particle dispersion object, each vertex A particle dispersion texture having a large number of single image data for displaying a single particle image corresponding to a position corresponding to the data is used.
これら粒子分散用オブジェクト及び粒子分散用テクスチャについて、図33(a)及び図33(b)を参照しながら詳細に説明する。図33(a)は粒子分散用オブジェクトPC17を説明するための説明図であり、図33(b)は粒子分散用テクスチャPC18を説明するための説明図である。 The particle dispersion object and the particle dispersion texture will be described in detail with reference to FIGS. 33 (a) and 33 (b). FIG. 33A is an explanatory diagram for explaining the particle dispersion object PC17, and FIG. 33B is an explanatory diagram for explaining the particle dispersion texture PC18.
図33(a)に示すように、粒子分散用オブジェクトPC17は、頂点データと、当該頂点データに対応した座標データと、これら以外である他のデータとを含んでいる。頂点データは、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら頂点データによって粒子分散用オブジェクトPC17における各頂点が識別される。座標データは、各頂点データに1対1で対応させて、座標(1),座標(2),座標(3),・・・,座標(99),座標(100)と多数設定されており、VDP135では、これら座標データによって粒子分散用オブジェクトPC17における各頂点のワールド座標系内における位置が認識される。
As shown in FIG. 33A, the particle dispersion object PC17 includes vertex data, coordinate data corresponding to the vertex data, and other data other than these. A large number of vertex data is set as vertex (1), vertex (2), vertex (3),..., Vertex (99), vertex (100). Each vertex in the
他のデータには、例えば粒子分散用オブジェクトPC17の初期スケールのデータや、全頂点データに対して一律に適用される初期α値のデータや、粒子分散用オブジェクトPC17の初期回転角度のデータなどが含まれている。 The other data includes, for example, initial scale data of the particle dispersion object PC17, initial α value data uniformly applied to all vertex data, and initial rotation angle data of the particle dispersion object PC17. include.
図33(b)に示すように、粒子分散用テクスチャPC18は、単体データと、当該単体データに対応した相関データと、当該単体データに対応した単体画像データと、これら以外である他のデータとを含んでいる。単体画像データは、各単体データに1対1で対応させて、単体画像データ(1),単体画像データ(2),単体画像データ(3),・・・,単体画像データ(99),単体画像データ(100)と多数設定されている。各単体画像データは、例えばビットマップ形式データと、ビットマップ画像の各ピクセルでの表示色を決定する際に参照される色パレットテーブルとの組み合わせを少なくとも含んでいる。各単体画像データは同一種類の粒子単体画像を表示させるデータとなっている。具体的には「球形の泡」を表示させるデータとなっており、各単体画像データの一部又は全部において当該「球形の泡」の形状、初期状態における大きさ、及び色彩は異なっている。この場合、粒子分散演出を実行する上でのVDP135における処理負荷の軽減を図りながら、同時に表示させる粒子単体画像の数を多くすべく、初期状態におけるスケールで全単体画像データを設定したとしても、表示面Gにて、全粒子単体画像を同時に表示させることが可能な構成となっている。
As shown in FIG. 33 (b), the particle dispersion texture PC 18 includes single data, correlation data corresponding to the single data, single image data corresponding to the single data, and other data other than these. Is included. The single image data is associated with each single data on a one-to-one basis, and single image data (1), single image data (2), single image data (3), ..., single image data (99), single image data A large number of image data (100) are set. Each single image data includes at least a combination of, for example, bitmap format data and a color palette table referred to when determining a display color at each pixel of the bitmap image. Each single image data is data for displaying the same kind of particle single image. Specifically, it is data for displaying “spherical bubbles”, and the shape, the size in the initial state, and the color of the “spherical bubbles” are different in some or all of the individual image data. In this case, even if all the single image data is set at the scale in the initial state in order to increase the number of particle single images to be displayed simultaneously while reducing the processing load in the
なお、各単体画像データの少なくとも一部について又は全部について粒子の種類が相違していてもよい。また、同一種類の粒子であるとともに、その形状、初期状態におけるスケール、及び色彩が同一であってもよい。 In addition, the kind of particle | grains may differ about at least one part of each single image data, or all. Moreover, while being the same kind of particle | grains, the shape, the scale in an initial state, and color may be the same.
粒子分散用テクスチャPC18の単体データは、単体(1),単体(2),単体(3),・・・,単体(99),単体(100)と多数設定されており、VDP135では、これら単体データによって粒子分散用テクスチャPC18に設定されている多数の単体画像データが個別に認識される。相関データは、各単体データに1対1で対応させて、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されており、VDP135では、これら相関データによって粒子分散用テクスチャPC18における各単体画像データが粒子分散用オブジェクトPC17における各頂点データのいずれに対応しているかが認識される。
The single data of the texture PC 18 for particle dispersion is set as single (1), single (2), single (3),..., Single (99), single (100). A large number of single image data set in the particle dispersion texture PC 18 is individually recognized by the data. Correlation data is set in a large number of vertices (1), vertices (2), vertices (3), ..., vertices (99), vertices (100) in a one-to-one correspondence with each piece of data. The
他のデータには、各単体画像データに対して個別に適用されるα値のデータや、各単体画像データに対して一律に適用されるα値のデータなどが含まれている。 The other data includes α value data individually applied to each single image data, α value data uniformly applied to each single image data, and the like.
ここで、粒子分散用オブジェクトPC17における各座標データには、それぞれ初期データが設定されており、これら初期データはそれぞれ異なる座標となっている。粒子分散用オブジェクトPC17の各座標データは書き換え可能となっており、当該粒子分散用オブジェクトPC17がワールド座標系に設定される場合には、上記各座標データが初期データとは異なる座標のデータに書き換えられた状態で設定される。かかる書き換えを行うために使用される書き換え用基準データとして、複数種類のキーデータKD1〜KD3が設定されている。 Here, initial data is set for each coordinate data in the particle dispersion object PC17, and these initial data have different coordinates. Each coordinate data of the particle dispersion object PC17 is rewritable, and when the particle dispersion object PC17 is set in the world coordinate system, each coordinate data is rewritten to data having a coordinate different from the initial data. Is set in the specified state. A plurality of types of key data KD1 to KD3 are set as reference data for rewriting used for such rewriting.
キーデータKD1〜KD3は、少なくとも2種類設定されており、具体的には、図33(c)〜(e)に示すように、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3の3種類が設定されている。これら各キーデータKD1〜KD3は、それぞれ、相関データと、当該相関データに対応した座標データとを含んでいる。 At least two types of key data KD1 to KD3 are set. Specifically, as shown in FIGS. 33 (c) to (e), the first key data KD1, the second key data KD2, and the third key data. Three types of KD3 are set. Each of these key data KD1 to KD3 includes correlation data and coordinate data corresponding to the correlation data.
具体的には、第1キーデータKD1の相関データ、第2キーデータKD2の相関データ、及び第3キーデータKD3の相関データはいずれも、適用対象である粒子分散用オブジェクトPC17の各頂点データと1対1で対応させて設定されており、頂点(1),頂点(2),頂点(3),・・・,頂点(99),頂点(100)と多数設定されている。 Specifically, the correlation data of the first key data KD1, the correlation data of the second key data KD2, and the correlation data of the third key data KD3 are all the vertex data of the particle dispersion object PC17 to be applied. These are set in a one-to-one correspondence, and a large number of vertices (1), vertices (2), vertices (3),..., Vertices (99), and vertices (100) are set.
一方、第1キーデータKD1の座標データ、第2キーデータKD2の座標データ、及び第3キーデータKD3の座標データはそれぞれ、各相関データに1対1で対応させて多数設定されているが、同一の相関データ間で比較した場合において相違している。 On the other hand, the coordinate data of the first key data KD1, the coordinate data of the second key data KD2, and the coordinate data of the third key data KD3 are each set in a large number corresponding to each correlation data, There is a difference when comparing between the same correlation data.
具体的には、第1キーデータKD1の座標データは、座標(1−1),座標(2−1),座標(3−1),・・・,座標(99−1),座標(100−1)と多数設定されており、第2キーデータKD2の座標データは、座標(1−2),座標(2−2),座標(3−2),・・・,座標(99−2),座標(100−2)と多数設定されており、第3キーデータKD3の座標データは、座標(1−3),座標(2−3),座標(3−3),・・・,座標(99−3),座標(100−3)と多数設定されている。また、頂点(1)に対応している座標データが、第1キーデータKD1では座標(1−1)、第2キーデータKD2では座標(1−2)、及び第3キーデータKD3では座標(1−3)であり、頂点(100)に対応している座標データが、第1キーデータKD1では座標(100−1)、第2キーデータKD2では座標(100−2)、及び第3キーデータKD3では座標(100−3)であるように、一の頂点データに対してそれぞれ異なる座標データが設定されている。 Specifically, the coordinate data of the first key data KD1 includes coordinates (1-1), coordinates (2-1), coordinates (3-1), ..., coordinates (99-1), coordinates (100 -1) and the coordinate data of the second key data KD2 are coordinates (1-2), coordinates (2-2), coordinates (3-2), ..., coordinates (99-2). ), Coordinates (100-2), and the coordinate data of the third key data KD3 includes coordinates (1-3), coordinates (2-3), coordinates (3-3),. A large number of coordinates (99-3) and coordinates (100-3) are set. Also, the coordinate data corresponding to the vertex (1) is the coordinate (1-1) for the first key data KD1, the coordinate (1-2) for the second key data KD2, and the coordinate (1-2) for the third key data KD3. 1-3) and the coordinate data corresponding to the vertex (100) are the coordinates (100-1) for the first key data KD1, the coordinates (100-2) for the second key data KD2, and the third key. In the data KD3, different coordinate data are set for one vertex data such as the coordinate (100-3).
ちにみに、各キーデータKD1〜KD3は、α値のデータや、回転角度のデータが設定されていないこととの関係で、粒子分散用オブジェクトPC17よりもデータ容量が小さく設定されている。 Incidentally, each of the key data KD1 to KD3 is set to have a data capacity smaller than that of the particle dispersion object PC17 in relation to the fact that the α value data and the rotation angle data are not set.
各キーデータKD1〜KD3は、上記のとおり、各粒子単体画像の変位軌道を決定付けるべく設定されているものであり、粒子分散用オブジェクトPC17に対して適用される順序が予め定められている。具体的には、第2キーデータKD2は、第1キーデータKD1よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられ、第3キーデータKD3は、第2キーデータKD2よりも各粒子単体画像の変位方向先側の座標データを設定する場合に用いられる。粒子分散用オブジェクトPC17をワールド座標系に設定する場合には、上記キーデータKD1〜KD3の座標データが各頂点データに対して適用されることにより、各頂点データに対応した各粒子単体画像がそれぞれの軌道で変位する。 Each of the key data KD1 to KD3 is set to determine the displacement trajectory of each particle single image as described above, and the order of application to the particle dispersion object PC17 is determined in advance. Specifically, the second key data KD2 is used when setting the coordinate data ahead of the displacement direction of each particle single image from the first key data KD1, and the third key data KD3 is the second key data. This is used when setting the coordinate data of the displacement direction ahead of each particle single image from KD2. When the particle dispersion object PC17 is set in the world coordinate system, the coordinate data of the key data KD1 to KD3 is applied to each vertex data, so that each particle single image corresponding to each vertex data is obtained. Displacement in the orbit.
この場合に、少なくとも所定のフレーム数間においては複数のキーデータKD1〜KD3、より詳細には2個のキーデータKD1〜KD3の座標データが融合された状態で各頂点データに対して適用される。具体的には、粒子分散演出の最初のフレーム(すなわち画像更新タイミング)における各頂点データの座標データを決定付ける第1キーデータKD1は、最初のフレームよりも後の複数フレームである第1フレーム数(例えば99フレーム)分に相当する第1フレーム期間に亘って用いられる。第2キーデータKD2は、上記第1フレーム期間、当該第1フレーム期間に対して次のフレームに相当する第1切換対象フレーム、及びそれ以降の複数フレームである第2フレーム数分に相当する第2フレーム期間に亘って用いられる。第3キーデータKD3は、上記第2フレーム期間に亘って用いられる。この場合に、上記第1フレーム数と上記第2フレーム数とは同一のフレーム数となっている。 In this case, at least for a predetermined number of frames, a plurality of key data KD1 to KD3, more specifically, coordinate data of two key data KD1 to KD3 is applied to each vertex data in a fused state. . Specifically, the first key data KD1 for determining the coordinate data of each vertex data in the first frame (that is, the image update timing) of the particle dispersion effect is the first frame number that is a plurality of frames after the first frame. It is used over the first frame period corresponding to (for example, 99 frames). The second key data KD2 includes the first frame period, the first frame to be switched corresponding to the next frame with respect to the first frame period, and the second frame number corresponding to the second frame number that is a plurality of frames thereafter. Used over two frame periods. The third key data KD3 is used over the second frame period. In this case, the first frame number and the second frame number are the same.
なお、第3キーデータKD3の後に第4キーデータが設定されていてもよく、この場合には、第3キーデータKD3は、上記第2フレーム期間、当該第2フレーム期間に対して次のフレームに相当する第2切換対象フレーム、及びそれ以降の複数フレームである第3フレーム数(第1フレーム数及び第2フレーム数と同一フレーム数)分に相当する第3フレーム期間に亘って用いられ、第4キーデータは、上記第3フレーム期間に亘って用いられる。 Note that the fourth key data may be set after the third key data KD3. In this case, the third key data KD3 is stored in the second frame period in the next frame period. Used for the third frame period corresponding to the second frame to be switched corresponding to the third frame number (the same number of frames as the first frame number and the second frame number) which is a plurality of frames thereafter. The fourth key data is used over the third frame period.
かかる構成であることにより、上記キーデータKD1〜KD3の数が、粒子分散演出が実行される場合の連続フレーム数よりも少ない数、より詳細には、粒子分散演出に際して、粒子分散用オブジェクトPC17における各頂点データの座標データが変更される回数よりも少ない数に設定されている構成であっても、各粒子単体画像が変位する様子を滑らかに表示することが可能となる。 With this configuration, the number of the key data KD1 to KD3 is smaller than the number of continuous frames when the particle dispersion effect is executed, more specifically, in the particle dispersion object PC17 during the particle dispersion effect. Even when the coordinate data of each vertex data is set to a number smaller than the number of changes, it is possible to smoothly display a state in which each particle single image is displaced.
以下に、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1〜KD3を用いて粒子分散演出を実行するための具体的な処理構成を説明する。なお、粒子分散用オブジェクトPC17、粒子分散用テクスチャPC18及び各キーデータKD1〜KD3は、メモリモジュール133に予め記憶されている。
A specific processing configuration for executing a particle dispersion effect using the particle dispersion object PC17, the particle dispersion texture PC18, and the key data KD1 to KD3 will be described below. The particle dispersion object PC17, the particle dispersion texture PC18, and the key data KD1 to KD3 are stored in the
図34(a)は、表示CPU131にて実行される粒子分散演出用の演算処理を示すフローチャートである。粒子分散演出用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、粒子分散演出用の演算処理は、粒子分散演出が実行される遊技回に対応したデータテーブルが設定されている場合に起動される。
FIG. 34 (a) is a flowchart showing a calculation process for particle dispersion effect executed by the
先ずステップS2101では、現状設定されているデータテーブルに基づいて、粒子分散演出の実行中であるか否かを判定する。演出の実行中ではない場合にはステップS2102にて、粒子分散演出の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2103に進む。 First, in step S2101, it is determined whether the particle dispersion effect is being executed based on the currently set data table. If the effect is not being executed, it is determined in step S2102 whether it is the start timing of the particle dispersion effect. If it is not the start timing, the calculation process is terminated as it is, and if it is the start timing, the process proceeds to step S2103.
ステップS2103では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。ちなみに、ステップS2103の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、粒子分散用オブジェクトPC17に対して制御開始用の処理が完了している。また、制御が開始された粒子分散用オブジェクトPC17の制御用の情報は、粒子分散演出が完了するまではワークRAM132に記憶保持される。
In step S2103, the particle dispersion object PC17 is grasped as a control object based on the currently set data table. Incidentally, at the execution timing of the process of step S2103, the control start process for the particle dispersion object PC17 is completed in the immediately preceding control start setting process (step S901). The control information of the particle
続くステップS2104では、メモリモジュール133から第1キーデータKD1及び第2キーデータKD2を読み出す初期読み出し処理を実行するとともに、ステップS2105では、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新する。その後、ステップS2106にて粒子分散演出の開始指定情報を記憶した後に、本演算処理を終了する。
In the subsequent step S2104, initial read processing for reading the first key data KD1 and the second key data KD2 from the
上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2104にて読み出した第1キーデータKD1及び第2キーデータKD2と、上記ステップS2105にて算出したパラメータとが設定される。また、粒子分散演出を開始すべきことを示す粒子分散演出の開始指定情報が、描画リストに設定される。 When the computation processing for particle dispersion effect is executed as described above, the use instruction information of the particle dispersion object PC17 is included in the drawing list created by the subsequent drawing list output processing. The first key data KD1 and second key data KD2 set together with the usage instruction information and read in step S2104 and the parameters calculated in step S2105 are set. Also, start designation information for the particle dispersion effect indicating that the particle dispersion effect should be started is set in the drawing list.
ステップS2101にて粒子分散演出中であると判定した場合には、ステップS2107にて、現状設定されているデータテーブルに基づいて、キーデータの更新タイミングであるか否かを判定する。かかる更新タイミングは、上述した第1切換対象フレームに相当する。 If it is determined in step S2101 that the particle dispersion effect is being performed, it is determined in step S2107 whether it is the update timing of the key data based on the currently set data table. Such update timing corresponds to the above-described first switching target frame.
キーデータの更新タイミングではない場合(ステップS2107:NO)には、ステップS2108に進む。当該ステップS2108では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。 If it is not time to update the key data (step S2107: NO), the process proceeds to step S2108. In step S2108, the particle dispersion object PC17 is grasped as a control target based on the currently set data table.
続くステップS2109では、キーデータのブレンド割合を決定する処理を実行する。かかるブレンド割合を決定する処理では、メモリモジュール133に予め記憶されている図34(b)に示すようなブレンド用テーブルBTを参照することで、現状設定されている2個のキーデータKD1〜KD3の各座標データをブレンドする際のブレンド比率のデータを読み出し、その読み出したデータによる各座標データのブレンドを行う。
In the subsequent step S2109, processing for determining the blend ratio of the key data is executed. In the process of determining the blend ratio, the currently set two pieces of key data KD1 to KD3 are referred to by referring to a blend table BT as shown in FIG. 34 (b) stored in advance in the
ブレンド用テーブルBTについて詳細には、当該ブレンド用テーブルBTには、フレーム数のデータが設定されているとともに、各フレーム数のデータに1対1で対応させて、前側のキーデータに設定されている各座標データに適用すべき比率と、後側のキーデータに設定されている各座標データに適用すべき比率とが設定されている。この場合、フレーム数が1増加する度に、すなわち各粒子単体画像の座標の更新タイミングとなる度に、一定の比率でブレンド割合が変化するようにブレンド用テーブルBTが設定されている。具体的には、前側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が減少し、後側のキーデータについては、各更新タイミングとなる度に、1%ずつブレンドする際の比率が増加し、さらに各更新タイミングにおいて前側のキーデータの比率と後側のキーデータの比率との和が100%となるように、ブレンド用テーブルBTが設定されている。 The blend table BT is described in detail. In the blend table BT, data on the number of frames is set, and the key data on the front side is set in correspondence with the data on the number of frames. The ratio to be applied to each coordinate data and the ratio to be applied to each coordinate data set in the rear key data are set. In this case, the blending table BT is set so that the blending ratio is changed at a constant ratio every time the number of frames increases by 1, that is, whenever the coordinate update timing of each particle single image comes. Specifically, for the front key data, the ratio for blending by 1% decreases at each update timing, and for the rear key data, 1% at each update timing. The blending table BT is set so that the ratio at the time of blending increases and the sum of the ratio of the front key data and the ratio of the rear key data becomes 100% at each update timing.
なお、ブレンド用テーブルBTは、各更新タイミングとなるどに1%ずつ比率が変化していくように設定されている構成に限定されることはなく、2%ずつ又は3%ずつといったように2%以上ずつ変化していくように設定されていてもよく、また一定の比率ではなく異なる比率で変化していくように設定されていてもよい。 The blend table BT is not limited to a configuration in which the ratio is set to change by 1% at each update timing, but 2% or 2% or the like. % May be set to change by% or more, or may be set to change at a different ratio instead of a fixed ratio.
ステップS2109では、現状設定されているデータテーブルに基づいて、ブレンド用テーブルBTを参照する。また、ステップS2109では、当該データテーブルに設定されている現状のポインタ情報に基づいて、ブレンド用テーブルBTにおいて参照すべきフレーム数を把握するとともに、そのフレーム数に設定されている前側のキーデータの比率と後側のキーデータの比率とを読み出す。この場合、現状設定されているデータテーブルが第1キーデータKD1及び第2キーデータKD2であれば、第1キーデータKD1が前側のキーデータに相当し、第2キーデータKD2が後側のキーデータに相当する。 In step S2109, the blend table BT is referred to based on the currently set data table. In step S2109, based on the current pointer information set in the data table, the number of frames to be referred to in the blend table BT is grasped, and the key data of the front key set in the number of frames is determined. The ratio and the ratio of the key data on the rear side are read out. In this case, if the currently set data table is the first key data KD1 and the second key data KD2, the first key data KD1 corresponds to the front key data, and the second key data KD2 corresponds to the rear key data. Corresponds to data.
その後、ステップS2110にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2111にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。 Thereafter, in step S2110, various parameters other than the coordinates are calculated for the particle dispersion object PC17, and the control information related to the particle dispersion object PC17 is updated. In step S2111, the particle dispersion effect is displayed. After storing the update designation information, this calculation process is terminated.
上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2109にて決定したブレンド割合のデータと、上記ステップS2110にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。 When the computation processing for particle dispersion effect is executed as described above, the use instruction information of the particle dispersion object PC17 is included in the drawing list created by the subsequent drawing list output processing. The blend ratio data set in step S2109 and the parameter calculated in step S2110 are set together with use instruction information. In addition, update designation information of the particle dispersion effect indicating that the particle dispersion effect should be updated is set in the drawing list.
ステップS2107にて、キーデータの更新タイミングであると判定した場合には、ステップS2112に進む。当該ステップS2112では、現状設定されているデータテーブルに基づいて、粒子分散用オブジェクトPC17を制御対象として把握する。
If it is determined in step S2107 that the key data update timing is reached, the process advances to step S2112. In step S2112, the particle
続くステップS2113では、新たなキーデータを読み出す処理を実行する。かかる処理では、現状設定されている2個のキーデータのうち後側のキーデータに対して次の順番のキーデータKD1〜KD3をメモリモジュール133から読み出す。具体的には、第1キーデータKD1及び第2キーデータKD2が現状設定されているため、これらのうち後側のキーデータは第2キーデータKD2となり、それに対して次の順番のキーデータは第3キーデータKD3となる。
In a succeeding step S2113, a process for reading new key data is executed. In such processing, the next key data KD1 to KD3 are read from the
その後、ステップS2114にて、粒子分散用オブジェクトPC17について、座標以外の各種パラメータを演算して、当該粒子分散用オブジェクトPC17に係る制御用の情報を更新するとともに、ステップS2115にて、粒子分散演出の更新指定情報を記憶した後に、本演算処理を終了する。 Thereafter, in step S2114, various parameters other than the coordinates are calculated for the particle dispersion object PC17, and the control information related to the particle dispersion object PC17 is updated. In step S2115, the particle dispersion effect is displayed. After storing the update designation information, this calculation process is terminated.
上記のように粒子分散演出用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、粒子分散用オブジェクトPC17の使用指示の情報が粒子分散用テクスチャPC18の使用指示の情報とともに設定され、さらに上記ステップS2112にて読み出した第3キーデータKD3と、上記ステップS2113にて算出したパラメータとが設定される。また、粒子分散演出を更新すべきことを示す粒子分散演出の更新指定情報が、描画リストに設定される。 When the computation processing for particle dispersion effect is executed as described above, the use instruction information of the particle dispersion object PC17 is included in the drawing list created by the subsequent drawing list output processing. The third key data KD3 set together with the usage instruction information and read in step S2112 and the parameter calculated in step S2113 are set. In addition, update designation information of the particle dispersion effect indicating that the particle dispersion effect should be updated is set in the drawing list.
ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2107にて否定判定をし、ステップS2108〜ステップS2111の処理を実行する。この場合においてステップS2109では、第2キーデータKD2を前側のキーデータ及び第2キーデータKD2を後側のキーデータとして、ブレンド割合が順次決定される。 Incidentally, from the next processing time when the third key data KD3 is newly set, a negative determination is made in step S2107 until the end timing of the particle dispersion effect is reached, and the processing in steps S2108 to S2111 is executed. In this case, in step S2109, the blend ratio is sequentially determined using the second key data KD2 as the front key data and the second key data KD2 as the rear key data.
次に、VDP135にて実行される粒子分散演出用の設定処理を、図35のフローチャートを参照しながら説明する。粒子分散演出用の設定処理は、描画処理(図16)におけるステップS1003の演出用の設定処理にて実行される。また、粒子分散演出用の設定処理は、今回の描画リストに粒子分散演出の開始指定情報及び粒子分散演出の更新指定情報のいずれかが設定されている場合に起動される。
Next, the setting process for particle dispersion effect executed in the
先ずステップS2201では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2202にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17をVRAM134の展開用バッファ141に読み出す。その後、ステップS2203では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。
First, in step S2201, it is determined whether or not start designation information for particle dispersion effect is set in the current drawing list. If it is set, in step S2202, the address where the particle dispersion object PC17 is stored in the
続くステップS2204では、初期適用処理を実行する。初期適用処理では、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、第1キーデータKD1に設定されている各座標データに書き換えることにより、各頂点データの開始座標を設定する。また、ステップS2205では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In a succeeding step S2204, an initial application process is executed. In the initial application process, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data set in the first key data KD1, thereby setting the start coordinates of each vertex data. In step S2205, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.
その後、ステップS2206にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。これにより、第1キーデータKD1に設定されている各座標データに対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。
Thereafter, in step S2206, the setting process to the world coordinate system is executed for the particle dispersion object PC17, and then this setting process is terminated. Thereby, each vertex data of the particle dispersion object PC17 is set at coordinates corresponding to each coordinate data set in the first key data KD1. In the color information setting process (step S1009) of the drawing process (FIG. 16) in the
一方、ステップS2201にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2207に進む。ステップS2207では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。 On the other hand, if it is determined in step S2201 that the start specification of the particle dispersion effect is not set in the current drawing list, the process proceeds to step S2207. In step S2207, it is determined whether new key data is specified in the current drawing list.
指定されていない場合には、ステップS2008にて、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、今回の描画リストにおいて設定されているブレンド割合のデータに従ってブレンドする。 If not specified, coordinate blending processing is executed in step S2008. In the blending process, the currently set two pieces of key data, specifically, the coordinate data of the first key data KD1 and the second key data KD2 are set in the current drawing list in the first frame period. Blend according to the blend ratio data.
この場合、先ず第1キーデータKD1の一の頂点データに対応した座標データを読み出すとともに、第2キーデータKD2の上記頂点データに対応した座標データを読み出す。そして、前者の座標データを(x1,y1,z1)、後者の座標データを(x2,y2,z2)、ブレンド用テーブルBTから読み出した前側のキーデータの比率をrt1、及びブレンド用テーブルBTから読み出した後側のキーデータの比率をrt2とした場合において、ブレンド後の座標データ(x,y,z)が、
x:x1×rt1+x2×rt2
y:y1×rt1+y2×rt2
z:z1×rt1+z2×rt2
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した座標データに対して実行する。
In this case, first, the coordinate data corresponding to one vertex data of the first key data KD1 is read, and the coordinate data corresponding to the vertex data of the second key data KD2 is read. Then, the former coordinate data is (x1, y1, z1), the latter coordinate data is (x2, y2, z2), the ratio of the front side key data read from the blending table BT is rt1, and the blending table BT When the ratio of the read back key data is rt2, the coordinate data (x, y, z) after blending is
x: x1 * rt1 + x2 * rt2
y: y1 * rt1 + y2 * rt2
z: z1 * rt1 + z2 * rt2
Blend so that Further, such blending is executed for coordinate data corresponding to all vertex data.
続くステップS2209では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。その後、ステップS2210にて、上記ステップS2208におけるブレンド結果である各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2209において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。
In the subsequent step S2209, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17. Thereafter, in step S2210, each coordinate data that is the blend result in step S2208 is set for the particle dispersion object PC17 that is already set in the world coordinate system, and the parameter grasped in step S2209 is set to the relevant particle. After setting for the
この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2208におけるブレンド結果である各座標データに書き換える。これにより、ステップS2208のブレンド結果に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。
In this case, when setting each coordinate data as the blend result, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data as the blend result in step S2208. Thereby, each vertex data of the particle dispersion object PC17 is set at the coordinates corresponding to the blend result of step S2208. In the color information setting process (step S1009) of the drawing process (FIG. 16) in the
ステップS2207にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合には、ステップS2211にて、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。 If it is determined in step S2207 that new key data is specified in the current drawing list, key data update processing is executed in step S2211. In the update process, of the two key data currently stored in the register 153, the front key data, specifically, the first key data KD1 is replaced with new key data set in the current drawing list. Specifically, it is rewritten to the third key data KD3.
続くステップS2212では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2213では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In the subsequent step S2212, application processing at the time of update is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. In step S2213, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.
その後、ステップS2214にて、上記ステップS2212において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2214において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。
Thereafter, in step S2214, each coordinate data grasped in step S2212 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameter grasped in step S2214 is set for the particle dispersion. After setting for the
この場合、上記ステップS2212にて把握した各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2212にて把握した各座標データに書き換える。これにより、第2キーデータKD2に対応した座標で、粒子分散用オブジェクトPC17の各頂点データが設定される。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、それぞれ各頂点データに対応した粒子単体画像データが設定される。
In this case, when setting each coordinate data grasped in step S2212, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data grasped in step S2212. Thereby, each vertex data of the particle dispersion object PC17 is set at the coordinates corresponding to the second key data KD2. In the color information setting process (step S1009) of the drawing process (FIG. 16) in the
ちなみに、第3キーデータKD3が新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2207にて否定判定をし、ステップS2208〜ステップS2210の処理を実行する。この場合においてステップS2208では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行される。 Incidentally, from the next processing time when the third key data KD3 is newly set, a negative determination is made in step S2207 until the end timing of the particle dispersion effect is reached, and the processing in steps S2208 to S2210 is executed. In this case, in step S2208, coordinate blending is executed using the second key data KD2 and the third key data KD3.
次に、粒子分散演出の内容について、図36を参照しながら説明する。 Next, the content of the particle dispersion effect will be described with reference to FIG.
図36(a)は粒子分散演出を説明するための説明図であり、図36(b−1)及び(b−2)は各粒子単体画像がどのような軌跡で変位するのかを簡易的に説明するための説明図である。 FIG. 36 (a) is an explanatory diagram for explaining the particle dispersion effect, and FIGS. 36 (b-1) and (b-2) simply show how the individual particle images are displaced. It is explanatory drawing for demonstrating.
図36(a)に示すように、粒子分散演出は遊技回用の演出として実行され、具体的には遊技回が終了する場合において一の有効ライン上に大当たり図柄の組み合わせが停止表示された場合に、粒子分散演出が実行される。粒子分散演出では、表示面Gにおいて「球形の泡」である粒子単体画像PTが多数表示されるとともに、それら多数の粒子単体画像PTが連続する複数フレームに亘ってそれぞれ所定の軌道で変位するように表示される。 As shown in FIG. 36 (a), the particle dispersion effect is executed as an effect for game times, and specifically, when the combination of jackpot symbols is stopped and displayed on one active line when the game times are ended. In addition, the particle dispersion effect is executed. In the particle dispersion effect, a large number of single particle images PT that are “spherical bubbles” are displayed on the display surface G, and the large number of single particle images PT are displaced in a predetermined trajectory over a plurality of consecutive frames. Is displayed.
当該所定の軌道について、図36(b−1)及び(b−2)を参照しながら具体的に説明すると、第1キーデータKD1の各座標データが設定された状態では、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b−1)において実線にて示す開始座標に対応した位置にて表示される。この場合、各粒子単体画像PT1〜PT3は、それぞれ異なる位置にて表示される。 The predetermined trajectory will be specifically described with reference to FIGS. 36 (b-1) and (b-2). In a state where each coordinate data of the first key data KD1 is set, the particle single image PT1, Each of the particle single image PT2 and the particle single image PT3 is displayed at a position corresponding to the start coordinate indicated by the solid line in FIG. In this case, the individual particle images PT1 to PT3 are displayed at different positions.
その後の第1フレーム期間では、第1キーデータKD1及び第2キーデータKD2のブレンド処理が実行されることにより、図36(b−1)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1〜PT3の変位軌道は直線状となっている。 In the subsequent first frame period, the blending process of the first key data KD1 and the second key data KD2 is executed, and as shown by the two-dot chain line in FIG. The single particle image PT2 and the single particle image PT3 are displayed as if they are displaced along different trajectories. In this case, since the coordinates are determined by the blend process of the first key data KD1 and the second key data KD2, the displacement trajectories of the individual particle images PT1 to PT3 are linear.
第1フレーム期間が経過した場合には、第2キーデータKD2の各座標データが設定されることにより、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれは、図36(b−2)において実線にて示す切換対象座標に対応した位置にて表示される。この場合、各粒子単体画像PT1〜PT3は、それぞれ異なる位置にて表示される。 When the first frame period has elapsed, the coordinate data of the second key data KD2 is set, so that each of the particle single image PT1, the particle single image PT2, and the particle single image PT3 is shown in FIG. In 2), it is displayed at a position corresponding to the switching target coordinates indicated by a solid line. In this case, the individual particle images PT1 to PT3 are displayed at different positions.
その後の第2フレーム期間では、第2キーデータKD2及び第3キーデータKD3のブレンド処理が実行されることにより、図36(b−2)の二点鎖線で示すように、粒子単体画像PT1、粒子単体画像PT2及び粒子単体画像PT3のそれぞれが異なる軌道で変位しているかのように表示される。この場合、第1キーデータKD1と第2キーデータKD2とのブレンド処理によって座標が決定されるため、各粒子単体画像PT1〜PT3の変位軌道は直線状となっている。また、第2フレーム期間における各粒子単体画像PT1〜PT3の軌道は、第1フレーム期間の場合における軌道とは異なっている。 In the subsequent second frame period, by executing blend processing of the second key data KD2 and the third key data KD3, as shown by a two-dot chain line in FIG. 36 (b-2), the particle single image PT1, The single particle image PT2 and the single particle image PT3 are displayed as if they are displaced along different trajectories. In this case, since the coordinates are determined by the blend process of the first key data KD1 and the second key data KD2, the displacement trajectories of the individual particle images PT1 to PT3 are linear. In addition, the trajectories of the individual particle images PT1 to PT3 in the second frame period are different from the trajectories in the first frame period.
以上のとおり、粒子分散演出では、粒子分散用オブジェクトPC17における各頂点データの座標データを、複数種類のキーデータKD1〜KD3のブレンドを利用しながら設定するようにしたことにより、データ容量の削減及び処理負荷の軽減という両者のバランスを図りながら、多数の粒子単体画像が分散していくかのような表示演出を行うことが可能となる。 As described above, in the particle dispersion effect, the coordinate data of each vertex data in the particle dispersion object PC17 is set using a blend of a plurality of types of key data KD1 to KD3, thereby reducing the data capacity and It is possible to provide a display effect as if a large number of single particle images are dispersed while achieving a balance between the reduction of processing load.
すなわち、単体画像データの座標データが全フレーム数に亘って設定されたアニメーションデータを全単体画像データに1対1で対応させて設定する構成も考えられるが、この場合、それだけデータ容量が必要となる。これに対して、上記のように複数種類のキーデータKD1〜KD3のブレンドを利用することで、上記のように全てのアニメーションデータを設定する構成に比べて、必要なデータ容量を削減することが可能となる。 That is, a configuration in which the animation data in which the coordinate data of the single image data is set over the total number of frames is set so as to correspond to the single image data on a one-to-one basis is also conceivable. Become. On the other hand, by using a blend of a plurality of types of key data KD1 to KD3 as described above, the required data capacity can be reduced compared to the configuration in which all animation data is set as described above. It becomes possible.
その一方、全単体画像データの座標データをプログラムに基づく処理のみによって算出する構成も考えられるが、この場合、各粒子単体画像が相互に異なる軌道で変位表示されるとすると、それだけ複雑であって膨大なプログラムが必要となる。これに対して、上記のように複数種類のキーデータKD1〜KD3のブレンドを利用することで、座標データを算出するための情報がプログラム側とデータ側とで適度に分散されることとなり、処理負荷の軽減が図られる。 On the other hand, a configuration is also conceivable in which the coordinate data of all single image data is calculated only by processing based on the program. However, in this case, if each particle single image is displayed in a different orbit, it is complicated. A huge program is required. On the other hand, by using a blend of a plurality of types of key data KD1 to KD3 as described above, information for calculating coordinate data is appropriately distributed between the program side and the data side. The load can be reduced.
また、単体画像データを個別のオブジェクトとして設定するのではなく、粒子分散用オブジェクトPC17の各頂点データに対応させて設定したことにより、表示CPU131からVDP135に送信される描画リストのデータ容量を削減することが可能となる。
Further, since the single image data is not set as an individual object but is set in correspondence with each vertex data of the particle
また、VDP135においても単体画像データを設定するためのオブジェクトを読み出す場合において、各単体画像データに対応した個別のオブジェクトをそれぞれ読み出すのではなく、粒子分散用オブジェクトPC17として読み出すことが可能であるため、当該読み出しに要する処理負荷の軽減が図られる。
Also, when reading an object for setting single image data in the
また、第1キーデータKD1及び第2キーデータKD2のブレンド処理は、表示CPU131ではなくVDP135にて実行されるため、表示CPU131の処理負荷の軽減を図ることが可能となる。
Further, since the blending process of the first key data KD1 and the second key data KD2 is executed by the
<粒子分散演出用の設定処理の別形態>
図37は、VDP135にて実行される粒子分散演出用の設定処理の別形態を説明するためのフローチャートである。
<Another form of setting process for particle dispersion effect>
FIG. 37 is a flowchart for explaining another form of the setting process for particle dispersion effect executed in the
先ずステップS2301では、今回の描画リストにおいて粒子分散演出の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2302にて、今回の描画リストに基づいて、メモリモジュール133において粒子分散用オブジェクトPC17が記憶されているアドレスを把握して、当該粒子分散用オブジェクトPC17を読み出す。その後、ステップS2303では、今回の描画リストに設定されている第1キーデータKD1及び第2キーデータKD2をレジスタ153に記憶させる。
First, in step S2301, it is determined whether or not start designation information for particle dispersion effects is set in the current drawing list. If set, in step S2302, based on the current drawing list, the
続くステップS2304では、今回の描画リストに基づいて、メモリモジュール133において第1テクスチャ及び第2テクスチャが記憶されているアドレスを把握する。
In the subsequent step S2304, the
ここで、本別形態では、各キーデータKD1〜KD3に1対1で対応させてテクスチャも複数種類設定されている。具体的には、第1キーデータKD1、第2キーデータKD2及び第3キーデータKD3に1対1で対応させて第1テクスチャ、第2テクスチャ及び第3テクスチャが設定されている。なお、キーデータが4種類以上設定されている構成においては、それに対応させてテクスチャも4種類以上設定されていればよい。 Here, in this embodiment, a plurality of types of textures are set corresponding to each key data KD1 to KD3 on a one-to-one basis. Specifically, the first texture, the second texture, and the third texture are set in a one-to-one correspondence with the first key data KD1, the second key data KD2, and the third key data KD3. In a configuration in which four or more types of key data are set, it is only necessary that four or more types of textures are set correspondingly.
各テクスチャには、図33にて示した粒子分散用テクスチャPC18と同様に、各頂点データに1対1で対応させて単体画像データが設定されている。このように単一の粒子分散用オブジェクトPC17に対して複数種類のテクスチャが設定されていることにより、粒子分散用オブジェクトPC17の一の頂点データに対して設定される単体画像データの種類が複数フレームの経過(すなわち複数の更新タイミングの経過)に伴って変更され、さらに当該変更が粒子分散用オブジェクトPC17の多数の頂点データ、より詳細には全頂点データに対して行われる。 For each texture, single image data is set in a one-to-one correspondence with each vertex data, similarly to the particle dispersion texture PC 18 shown in FIG. As described above, since a plurality of types of textures are set for a single particle dispersion object PC17, the type of single image data set for one vertex data of the particle dispersion object PC17 is a plurality of frames. (Ie, a plurality of update timings), and the change is performed on a large number of vertex data of the particle dispersion object PC17, more specifically on all vertex data.
例えば、第1テクスチャでは、第1の頂点データに対する単体画像データが、第1単体画像(例えば図36に示す「○」)を表示するための第1単体画像データであるのに対して、第2テクスチャでは、第1の頂点データに対する単体画像データが、第2単体画像(例えば図36に示す「□」)を表示するための第2単体画像データとなっている。同様に、第1テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像(例えば図36に示す「△」)を表示するための第3単体画像データであるのに対して、第2テクスチャでは、第2の頂点データに対する単体画像データが、第3単体画像とは異なる単体画像(例えば図36に示す「○」)を表示するための単体画像データとなっている。 For example, in the first texture, the single image data for the first vertex data is the first single image data for displaying the first single image (for example, “◯” shown in FIG. 36). In 2 textures, single image data for the first vertex data is second single image data for displaying a second single image (for example, “□” shown in FIG. 36). Similarly, in the first texture, the single image data for the second vertex data is the third single image data for displaying the third single image (for example, “Δ” shown in FIG. 36). In the second texture, the single image data for the second vertex data is single image data for displaying a single image (for example, “◯” shown in FIG. 36) different from the third single image.
ステップS2304の処理を実行した後は、ステップS2305にて、上記ステップS2204と同様に、初期適用処理を実行する。これにより、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データが、第1キーデータKD1に設定されている各座標データに対応した開始座標に設定される。 After executing the process of step S2304, the initial application process is executed in step S2305, as in step S2204. Thereby, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is set to a start coordinate corresponding to each coordinate data set in the first key data KD1.
その後、ステップS2306にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2307にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第1テクスチャ及び第2テクスチャのうち第1テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第1テクスチャに対応した単体画像が、第1キーデータKD1に対応した座標で表示されることとなる。
Thereafter, in step S2306, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2307. For the particle dispersion object PC17, after performing the setting process to the world coordinate system, this setting process is terminated. Also, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the
一方、ステップS2301にて、今回の描画リストにおいて粒子分散演出の開始指定が設定されていないと判定した場合には、ステップS2308に進む。ステップS2308では、今回の描画リストにおいて新たなキーデータが指定されているか否かを判定する。 On the other hand, if it is determined in step S2301 that the start specification of the particle dispersion effect is not set in the current drawing list, the process proceeds to step S2308. In step S2308, it is determined whether new key data is specified in the current drawing list.
指定されていない場合には、ステップS2309にて、レジスタ153に設けられているブレンド用カウンタの数値情報を1加算されるように更新する。ここで、ブレンド用カウンタとは、複数のキーデータを用いた座標データのブレンドを行う場合、及び複数のテクスチャを用いた単体画像データのブレンドを行う場合において、そのブレンドの割合をVDP135にて特定するためのカウンタである。
If not specified, in step S2309, the numerical value information of the blending counter provided in the register 153 is updated so that 1 is added. Here, the blending counter is specified by the
ブレンド用カウンタは、初期値として「0」が設定されており、カウンタ値が「1」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を99%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を1%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を99%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を1%とする。また、カウンタ値が「2」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を98%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を2%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を98%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を2%とする。また、カウンタ値が「99」の場合には、前側のキーデータ(例えば第1キーデータKD1)の比率を1%とするとともに後側のキーデータ(例えば第2キーデータKD2)の比率を99%とし、さらに前側のテクスチャ(例えば第1テクスチャ)の比率を1%とするとともに後側のテクスチャ(例えば第2テクスチャ)の比率を99%とする。つまり、フレーム数が先に進むほど、前側のキーデータの適用比率が低減される一方、後側のキーデータの適用比率が増加され、同様に前側のテクスチャの適用比率が低減される一方、後側のテクスチャの適用比率が増加される。 The blending counter is set to “0” as an initial value. When the counter value is “1”, the ratio of the front key data (for example, the first key data KD1) is set to 99% and the rear side The ratio of the key data (for example, the second key data KD2) is 1%, the ratio of the front texture (for example, the first texture) is 99%, and the ratio of the rear texture (for example, the second texture) is 1. %. When the counter value is “2”, the ratio of the front key data (for example, the first key data KD1) is 98% and the ratio of the rear key data (for example, the second key data KD2) is 2. %, And the ratio of the texture on the front side (for example, the first texture) is 98% and the ratio of the texture on the rear side (for example, the second texture) is 2%. When the counter value is “99”, the ratio of the front key data (for example, the first key data KD1) is set to 1% and the ratio of the rear key data (for example, the second key data KD2) is set to 99. %, And the ratio of the front texture (for example, the first texture) is 1% and the ratio of the rear texture (for example, the second texture) is 99%. In other words, as the number of frames progresses, the application ratio of the front key data is reduced, while the application ratio of the rear key data is increased, and similarly, the application ratio of the front texture is reduced. The application ratio of the side texture is increased.
なお、上記のようなブレンド用カウンタの数値情報に対応したブレンド割合の情報は、予めテーブル情報としてメモリモジュール133に記憶されているが、これに限定されることはなく、ブレンド用カウンタの数値情報に対応したブレンド割合の情報を、プログラムにて定められた演算式によって算出する構成としてもよい。
The blend ratio information corresponding to the numerical information of the blending counter as described above is stored in advance in the
続くステップS2310では、座標のブレンド処理を実行する。当該ブレンド処理では、現状設定されている2個のキーデータ、具体的には第1フレーム期間であれば第1キーデータKD1及び第2キーデータKD2の各座標データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。このブレンドの具体的な演算方法は、上記ステップS2208の場合と同様である。 In the subsequent step S2310, coordinate blending processing is executed. In the blending process, the two key data currently set, specifically, the coordinate data of the first key data KD1 and the second key data KD2 in the first frame period, the update process in step S2309. The blending is performed according to the blending ratio corresponding to the numerical information of the later blending counter. A specific calculation method of this blend is the same as that in step S2208.
続くステップS2311では、テクスチャのブレンド処理を実行する。当該ブレンド処理では、現状把握されている2個のテクスチャ、具体的には第1フレーム期間であれば第1テクスチャ及び第2テクスチャの各単体画像データを、上記ステップS2309の更新処理後におけるブレンド用カウンタの数値情報に対応したブレンド割合に従ってブレンドする。 In the subsequent step S2311, a texture blending process is executed. In the blending process, the two textures that are currently grasped, specifically, the single image data of the first texture and the second texture in the first frame period are used for blending after the update process in step S2309. Blend according to the blend ratio corresponding to the numerical information of the counter.
例えば、先ず第1テクスチャの一の頂点データに対応した単体画像データを読み出すとともに、第2テクスチャの上記頂点データに対応した単体画像データを読み出す。そして、前者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)におけるRGBの各色情報を(r1,g1,b1)、後者の単体画像データ(ここでは説明の便宜上、1ピクセルとする)を(r2,g2,b2)、ブレンド用カウンタの数値情報に対応した前側のテクスチャの比率をrt3、及びブレンド用カウンタの数値情報に対応した後側のテクスチャの比率をrt4(rt3+rt4=1)とした場合において、ブレンド後の単体画像データ(r,g,b)が、
r:r1×rt3+r2×rt4
g:g1×rt3+g2×rt4
b:b1×rt3+b2×rt4
となるようにブレンドを行う。また、かかるブレンドを、全頂点データに対応した単体画像データに対して実行する。
For example, first, single image data corresponding to one vertex data of the first texture is read, and single image data corresponding to the vertex data of the second texture is read. Then, each color information of RGB in the former single image data (here, for convenience of description, 1 pixel) is (r1, g1, b1), and the latter single image data (here, for convenience of description, 1 pixel). (R2, g2, b2), the ratio of the front texture corresponding to the numerical information of the blending counter is rt3, and the ratio of the rear texture corresponding to the numerical information of the blending counter is rt4 (rt3 + rt4 = 1). In this case, the single image data (r, g, b) after blending is
r: r1 × rt3 + r2 × rt4
g: g1 * rt3 + g2 * rt4
b: b1 × rt3 + b2 × rt4
Blend so that Further, such blending is executed for single image data corresponding to all vertex data.
その後、ステップS2312にて、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握するとともに、ステップS2313にて、粒子分散用オブジェクトPC17について、ワールド座標系への設定処理を実行した後に、本設定処理を終了する。 Thereafter, in step S2312, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17, and in step S2313, For the particle dispersion object PC17, after performing the setting process to the world coordinate system, this setting process is terminated.
この場合、上記ブレンド結果である各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、ステップS2310におけるブレンド結果である各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、ステップS2311におけるブレンド結果である各単体画像データが適用される。これにより、ステップS2311のブレンド結果に対応した単体画像が、ステップS2310のブレンド結果に対応した座標で表示されることとなる。
In this case, when setting each coordinate data as the blend result, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data as the blend result in step S2310. In the color information setting process (step S1009) of the rendering process (FIG. 16) in the
ここで、上記のようにVDP135側にてブレンド用カウンタを用いてブレンド割合を導出する構成であるため、表示CPU131においてはブレンド割合を導出するための処理は実行されない。これにより、表示CPU131の処理負荷の軽減が図られる。
Here, since the blend ratio is derived using the blend counter on the
なお、表示CPU131は、第1キーデータKD1と第2キーデータKD2との組み合わせや、第2キーデータKD2と第3キーデータKD3との組み合わせといった、所定のキーデータの組み合わせを用いる場合におけるそれらキーデータのブレンド割合を変更する回数をVDP135に対して指示し、その指示に従ってVDP135がその所定のキーデータの組み合わせについて各変更回におけるブレンド割合を独自に決定する構成としてもよい。この場合、所定のキーデータの組み合わせとして同一のものを用いる期間が複数種類存在している場合において、特定の期間ではそれ以外の期間に比べてVDP135の処理負荷が大きい場合、その特定の期間では、表示CPU131が指示する変更回数を少なくすることで、VDP135の処理負荷の軽減を図ることが可能となる。また、上記構成において、VDP135が、各変更回において一定の割合でブレンド割合が変更されていくように設定されている構成としてもよく、この場合、指示された変更回数に応じて一義的に各変更回のブレンド割合を導出できるようなデータが設定されていてもよく、演算によって各変更回のブレンド割合を導出する構成としてもよい。
Note that the
ステップS2308にて、今回の描画リストにおいて新たなキーデータが指定されていると判定した場合、ステップS2314にてブレンド用カウンタの初期化を実行する。これにより、次回の処理回からはブレンド割合の算出が最初から開始されることとなる。 If it is determined in step S2308 that new key data is specified in the current drawing list, the blending counter is initialized in step S2314. Thereby, the calculation of the blend ratio is started from the beginning from the next processing time.
続くステップS2315では、キーデータの更新処理を実行する。当該更新処理では、レジスタ153に現状記憶されている2個のキーデータのうち、前側のキーデータ、具体的には第1キーデータKD1を、今回の描画リストにおいて設定されている新たなキーデータ、具体的には第3キーデータKD3に書き換える。また、ステップS2316では、新たなテクスチャを把握する。当該処理では、レジスタ153に現状記憶されている2個のテクスチャのうち、前側のテクスチャ、具体的には第1テクスチャを、今回の描画リストにおいて設定されている新たなテクスチャ、具体的には第3テクスチャに書き換える。なお、この書き換えに際してはメモリモジュール133からの第3テクスチャの読み出しが行われる。
In a succeeding step S2315, a key data update process is executed. In the update process, of the two key data currently stored in the register 153, the front key data, specifically, the first key data KD1 is replaced with new key data set in the current drawing list. Specifically, it is rewritten to the third key data KD3. In step S2316, a new texture is grasped. In this process, of the two textures currently stored in the register 153, the front texture, specifically the first texture, is set to the new texture set in the current drawing list, specifically the first texture. Rewrite to 3 textures. In this rewriting, the third texture is read from the
続くステップS2317では、更新時の適用処理を実行する。具体的には、第2キーデータKD2に設定されている各座標データを把握する。また、ステップS2318では、今回の描画リストにおいて粒子分散用オブジェクトPC17に対して指定されている座標以外のパラメータを、当該粒子分散用オブジェクトPC17の他のパラメータとして把握する。 In the subsequent step S2317, an application process at the time of update is executed. Specifically, each coordinate data set in the second key data KD2 is grasped. In step S2318, parameters other than the coordinates specified for the particle dispersion object PC17 in the current drawing list are grasped as other parameters of the particle dispersion object PC17.
その後、ステップS2319にて、上記ステップS2317において把握した各座標データを既にワールド座標系に設定されている粒子分散用オブジェクトPC17に対して設定するとともに、上記ステップS2318において把握したパラメータを当該粒子分散用オブジェクトPC17に対して設定した後に、本設定処理を終了する。
Thereafter, in step S2319, the coordinate data obtained in step S2317 is set for the particle dispersion object PC17 already set in the world coordinate system, and the parameters obtained in step S2318 are set for the particle dispersion object. After setting for the
この場合、各座標データの設定に際しては、粒子分散用オブジェクトPC17の各頂点データに対応した各座標データを、上記ステップS2317にて把握した各座標データに書き換える。また、VDP135における描画処理(図16)の色情報の設定処理(ステップS1009)では、上記のような座標に設定された各頂点データに対して、第2テクスチャ及び第3テクスチャのうち第2テクスチャのみが粒子分散用オブジェクトPC17に対して適用される。これにより、第2テクスチャに対応した単体画像が、第2キーデータKD2に対応した座標で表示されることとなる。
In this case, when setting each coordinate data, each coordinate data corresponding to each vertex data of the particle dispersion object PC17 is rewritten to each coordinate data grasped in step S2317. Further, in the color information setting process (step S1009) of the drawing process (FIG. 16) in the
ちなみに、第3キーデータKD3及び第3テクスチャが新たに設定された次の処理回からは、粒子分散演出の終了タイミングとなるまで、ステップS2308にて否定判定をし、ステップS2309〜ステップS2313の処理を実行する。この場合においてステップS2310では、第2キーデータKD2及び第3キーデータKD3を用いて座標のブレンドが実行され、ステップS2311では、第2テクスチャ及び第3テクスチャを用いて単体画像データのブレンドが実行される。 Incidentally, from the next processing time when the third key data KD3 and the third texture are newly set, a negative determination is made in step S2308 until the end timing of the particle dispersion effect, and the processing in steps S2309 to S2313 is performed. Execute. In this case, in step S2310, coordinate blending is executed using the second key data KD2 and third key data KD3, and in step S2311, single image data blending is executed using the second texture and the third texture. The
上記のように粒子分散演出を実行させるための別形態では、演出が進行することに伴って同一のオブジェクトに適用されるテクスチャが相違されることにより、粒子分散演出の表示態様に変化を与えることが可能となり、当該表示演出の単調化が抑えられる。この場合に、表示態様が変更されるフレーム毎に異なるテクスチャが用いられるのではなく、第1の更新タイミングに対応したテクスチャと、それよりも複数の更新タイミング後である第2の更新タイミングに対応したテクスチャとのブレンドを行うことで、それら第1の更新タイミングと第2の更新タイミングとの間において用いる画像データを作成する構成であるため、予め記憶されておくテクスチャの数を減らすことが可能となり、データ容量の削減が図られる。 In another form for executing the particle dispersion effect as described above, the display mode of the particle dispersion effect is changed by the difference in the texture applied to the same object as the effect progresses. And the monotonization of the display effect is suppressed. In this case, a different texture is not used for each frame whose display mode is changed, but a texture corresponding to the first update timing and a second update timing after a plurality of update timings are supported. By blending with the texture, the image data used between the first update timing and the second update timing is created, so the number of textures stored in advance can be reduced. Thus, the data capacity can be reduced.
また、各テクスチャは、各キーデータに1対1で対応させて設定されており、さらに各テクスチャの切り換えは、各キーデータの切り換えに合わせて行われる。よって、VDP135における切り換えに係る処理の処理負荷の軽減が図られる。
Each texture is set to correspond to each key data on a one-to-one basis, and each texture is switched in accordance with the switching of each key data. Therefore, the processing load of processing related to switching in the
<粒子分散演出についての他の別形態>
・上記粒子分散演出(図35の場合及び図37の場合)において、キーデータKD1〜KD3の数をより多く設定するとともに、用いるキーデータKD1〜KD3の切り換えが発生するまでのフレーム数を少なく設定する(例えば10フレーム毎)ことで、座標データのブレンドを実行しながら、単体画像が直線状ではなく、曲線状の軌跡を描くように変位表示される構成としてもよい。
<Other forms of particle dispersion effect>
In the particle dispersion effect (in the case of FIG. 35 and FIG. 37), the number of key data KD1 to KD3 is set to be larger and the number of frames until the key data KD1 to KD3 to be used is changed is set to be smaller. By doing so (for example, every 10 frames), it is possible to adopt a configuration in which the single image is displaced and displayed so as to draw a curved trajectory instead of a straight line while performing blending of coordinate data.
・キーデータKD1〜KD3を用いてブレンドを行う対象を、座標データに加えて又は代えて、透明度を設定するためのα値としてもよく、テクスチャマッピングを実行しなくても頂点データの色情報や複数の頂点データからなるポリゴンの色情報を決定することを可能とする頂点カラーとしてもよい。また、オブジェクトに対するテクスチャの相対的な貼り付け位置を決定するためのUV値を変更させて、同一のテクスチャを貼り付ける場合であっても表示態様を変更させるUVスクロールを行う構成においては、そのUV値をキーデータのブレンドを用いて変更する構成としてもよい。 The object to be blended using the key data KD1 to KD3 may be an α value for setting the transparency in addition to or instead of the coordinate data, and the color information of the vertex data without executing texture mapping It is good also as a vertex color which makes it possible to determine the color information of the polygon which consists of several vertex data. Further, in the configuration in which the UV scroll for changing the display mode even when the same texture is pasted by changing the UV value for determining the relative pasting position of the texture with respect to the object, the UV is used. It is good also as a structure which changes a value using the blend of key data.
・第1フレーム期間と第2フレーム期間とが同一のフレーム数である構成に限定されることはなく、これらフレーム期間に含まれるフレーム数が異なっていてもよい。この場合、各フレーム期間に応じたブレンド処理を行う必要がある。 The first frame period and the second frame period are not limited to the same number of frames, and the number of frames included in these frame periods may be different. In this case, it is necessary to perform a blending process according to each frame period.
・単体画像を表示させるための単体画像データの種類が同一である構成としてもよい。この場合、粒子分散用テクスチャPC18において各単体データに対応させて単体画像データを設定しておく必要がないため、当該粒子分散用テクスチャPC18のデータ容量の削減が図られる。 -It is good also as a structure with the same kind of single image data for displaying a single image. In this case, since it is not necessary to set single image data corresponding to each piece of single data in the particle dispersion texture PC 18, the data capacity of the particle dispersion texture PC 18 can be reduced.
・2種類のキーデータを用いてブレンドを行う構成に代えて、3種類以上のキーデータを用いてブレンドを行う構成としてもよい。この場合、これら3種類のキーデータをブレンドする比率を適宜変更することにより、単体画像が変位する場合の軌道を直線状ではなく、曲線状とすることが可能となる。また、3種類以上のキーデータを用いてブレンドを行う場合、例えば、それら3種類以上のキーデータから仮想の円弧や球面を算出により想定し、その想定した仮想の円弧や球面に沿って変位していくように単体画像が表示される構成としてもよい。 -It is good also as a structure which blends using 3 or more types of key data instead of the structure which blends using 2 types of key data. In this case, by appropriately changing the blending ratio of these three types of key data, it is possible to make the trajectory when the single image is displaced not a straight line but a curved line. When blending using three or more types of key data, for example, a virtual arc or sphere is assumed by calculation from these three or more types of key data, and displacement is performed along the assumed virtual arc or sphere. Alternatively, a single image may be displayed so as to progress.
・VDP135が、キーデータを利用して頂点データを算出する専用の回路を有する構成としてもよい。また、VDP135が、キーデータを利用しない場合において頂点データを算出する専用の回路を有する構成としてもよい。これら回路を個別に有する構成とすることにより、それぞれの頂点データの算出に特化させることが可能となり、頂点データの算出を好適に行うことが可能となる。
The
・上記のようにキーデータを利用してパラメータデータを導出する構成を、スプライトデータといった2次元情報の画像データを利用して画像表示を行う構成に適用してもよい。例えばスプライトデータをフレームバッファ142に設定する場合の座標のパラメータを導出する上で、複数のキーデータのブレンドを行う構成としてもよい。
The configuration in which parameter data is derived using key data as described above may be applied to a configuration in which image display is performed using image data of two-dimensional information such as sprite data. For example, in order to derive a coordinate parameter when sprite data is set in the
<海面表示を行うための構成>
次に、海面表示を行うための構成について説明する。
<Configuration for sea level display>
Next, a configuration for performing sea level display will be described.
海面表示とは、背景において海面を表示させるための演出であり、さらにその海面が連続する複数フレーム(複数の画像更新タイミング)に亘って、波打つように表示される演出のことである。なお、海面表示は、上述した第1表示モード及び第2表示モードのうち第1表示モードにおいて実行される表示演出である。海面表示に際しては、海面用オブジェクトと、当該海面用オブジェクトの動きを細かく変化させるための法線マップデータとが用いられる。 The sea level display is an effect for displaying the sea level in the background, and is an effect that is displayed so as to wave over a plurality of frames (a plurality of image update timings) where the sea level continues. The sea level display is a display effect executed in the first display mode among the first display mode and the second display mode described above. When displaying the sea surface, a sea surface object and normal map data for finely changing the motion of the sea surface object are used.
これら海面用オブジェクト及び法線マップデータについて、図38(a),(b)を参照しながら詳細に説明する。図38(a)は海面用オブジェクトPC19を説明するための説明図であり、図38(b)は法線マップデータND1,ND2を説明するための説明図である。 These sea surface objects and normal map data will be described in detail with reference to FIGS. 38 (a) and (b). FIG. 38A is an explanatory diagram for explaining the sea surface object PC19, and FIG. 38B is an explanatory diagram for explaining the normal map data ND1 and ND2.
図38(a)に示すように、海面用オブジェクトPC19は、複数の頂点データによって規定される面データ(ポリゴン)SDを、複数行及び複数列となるように多数有している。この場合、各面データSDは、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(a)において左下角部分の面データSDは第1列第1行の情報を順番情報として有しており、図38(a)において右上角部分の面データSDは第25列第25行の情報を順番情報として有している。 As shown in FIG. 38 (a), the sea surface object PC19 has a large number of surface data (polygons) SD defined by a plurality of vertex data so as to form a plurality of rows and a plurality of columns. In this case, each surface data SD has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38A, the surface data SD of the lower left corner portion has information of the first column and the first row as the order information, and in FIG. 38A, the surface data SD of the upper right corner portion is the 25th column. It has 25 rows of information as order information.
各面データSDは4個の頂点データによる四角形として定義されているが、これに限定されることはなく、3個の頂点データによる三角形として定義されていてもよく、5個以上の頂点データによる他の多角形として定義されていてもよい。また、任意の一の面データSDは、他の面データSDと隣接しており、当該一の面データSDの頂点データは当該他の面データSDの頂点データを兼用している。つまり、各面データSDは隣り合う面データSD同士において辺が共通している。したがって、基本的には一の頂点データの座標データを変更した場合には、複数の面データSDが変形されることとなり、隣り合う2個の頂点データよりなる一の辺の座標データを変更した場合には、複数の面データSDの向きが変更されることとなる。 Each surface data SD is defined as a quadrangle by four vertex data, but is not limited to this, and may be defined as a triangle by three vertex data. It may be defined as another polygon. One arbitrary surface data SD is adjacent to the other surface data SD, and the vertex data of the one surface data SD also serves as the vertex data of the other surface data SD. That is, each surface data SD has a common side between the adjacent surface data SD. Therefore, basically, when the coordinate data of one vertex data is changed, a plurality of surface data SD is deformed, and the coordinate data of one side composed of two adjacent vertex data is changed. In this case, the direction of the plurality of surface data SD is changed.
海面用オブジェクトPC19には、上記各面データSDの初期状態における座標や面の向きを決定すべく各頂点データの初期座標データが設定されている。また、これ以外にも、海面用オブジェクトPC19の初期スケールのデータや、全頂点データ(又は面データSD)に対して一律に適用される初期α値のデータや、海面用オブジェクトPC19の初期回転角度のデータなどが含まれている。 In the sea surface object PC19, initial coordinate data of each vertex data is set in order to determine the coordinates and the orientation of the surface of each surface data SD in the initial state. In addition, the initial scale data of the sea surface object PC19, the initial α value data uniformly applied to all vertex data (or surface data SD), and the initial rotation angle of the sea surface object PC19. Data is included.
ここで、海面用オブジェクトPC19の各面データSDは、隣接する複数の面データSDをまとめることで複数群に区分けされており、具体的には第1面データ群、・・・、第k面データ群(kは2以上の整数であり、本実施の形態ではk=25)を有している。各面データ群に含まれる面データSDの数は、複数である所定数(具体的には25個)で同一となっているが、少なくとも一部の面データ群間において含まれる面データSDの数が異なっていてもよい。なお、図38(a)においては、太線で囲んだ各単位が面データ群に相当する。
Here, each surface data SD of the sea
上記各面データ群は、表示CPU131における制御に基づき、それぞれ個別に座標及び面の向きが決定される。詳細には、第1面データ群に含まれる全面データSDが所定の方向を向く同一の面を構成し、その状態において第1面データ群にて基準となる面データSDの座標が所定の座標となるように、第1面データ群に含まれる各面データSDの座標及び面の向きが決定される。つまり、海面用オブジェクトPC19の各面データSDの座標及び向きは、先ず海面データ群の単位で大まかに決定される。以下、この各面データ群の単位で決定された座標及び向きを、第1段階の形態とも言う。
In each of the surface data groups, the coordinates and the orientation of the surface are individually determined based on the control in the
なお、基準となる面データSDは、各面データ群において単一の面データSDであるが、複数の面データSDであってもよい。また、面データSDを基準として座標を設定するのではなく、面データ群の隅角部分を構成する頂点データに対して基準となる座標を設定する構成としてもよく、この場合、隅角部分の全てに対して基準となる座標を設定してもよく、一の隅角部分に対してのみ基準となる座標を設定してもよい。また、海面用オブジェクトPC19を一連のものとすべく、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、上記座標及び面の向きが決定される。 The reference plane data SD is a single plane data SD in each plane data group, but may be a plurality of plane data SD. Further, instead of setting the coordinates based on the surface data SD, it is possible to adopt a configuration in which coordinates serving as a reference are set for the vertex data constituting the corner portion of the surface data group. The reference coordinates may be set for all, or the reference coordinates may be set only for one corner portion. Further, in order to make the sea surface object PC 19 a series, in the adjacent surface data group, the coordinates and the orientation of the surface are determined so that the coordinates of the vertex data at the boundary portion between them are the same.
法線マップデータND1,ND2は、各面データ群の単位で第1段階の形態が決定された後において、各面データ群に含まれる各面データSDの向きを相互に異ならせるためのデータであり、複数種類、具体的には2種類の法線マップデータND1,ND2がメモリモジュール133に予め記憶されている。各法線マップデータND1,ND2はそれぞれ、各面データSDの向きを第1段階の形態から変化させるための単位法線データUNDを多数有している。なお、以下の説明では、一対の法線マップデータND1,ND2の一方を第1法線マップデータND1、他方を第2法線マップデータND2とも言う。
The normal map data ND1 and ND2 are data for making the directions of the surface data SD included in each surface data group different from each other after the first stage form is determined in units of each surface data group. Yes, a plurality of types, specifically, two types of normal map data ND1 and ND2 are stored in the
図38(b)は、多数の単位法線データUNDを多数有している法線マップデータND1,ND2のイメージ図であり、複数行及び複数列となるように配列された各四角部分が単位法線データUNDを示す。この場合、各法線マップデータND1,ND2において各単位法線データUNDはそれぞれ、行の情報と列の情報との組合せを有している(以下、この情報を順番情報ともいう)。例えば図38(b)において左下角部分の単位法線データUNDは第1列第1行の情報を順番情報として有しており、図38(b)において右上角部分の単位法線データUNDは第35列第35行の情報を順番情報として有している。 FIG. 38B is an image diagram of normal map data ND1 and ND2 having a large number of unit normal data UND, and each square portion arranged in a plurality of rows and a plurality of columns is a unit method. Line data UND is shown. In this case, in each of the normal map data ND1 and ND2, each unit normal data UND has a combination of row information and column information (hereinafter, this information is also referred to as order information). For example, in FIG. 38B, the unit normal data UND in the lower left corner portion has information of the first column and the first row as the order information, and in FIG. 38B, the unit normal data UND in the upper right corner portion is The information in the 35th column and the 35th row is included as the order information.
各単位法線データUNDは、各面データSDの向きを第1段階の形態から変化させる場合における方向のデータ及びその方向に変化させる際の変化量のデータ(以下、変更データともいう)を有している。この場合、一の法線マップデータND1,ND2において、一部の単位法線データUND間ではその変化させる方向のデータ及びその方向への変化量のデータが同一となっている。但し、これに限定されることはなく、全ての単位法線データUND間において相違していてもよい。 Each unit normal data UND includes direction data when the direction of each surface data SD is changed from the first stage form, and change amount data when the direction is changed in the direction (hereinafter also referred to as change data). doing. In this case, in one normal map data ND1 and ND2, the data of the direction to be changed and the data of the amount of change in the direction are the same among some unit normal data UND. However, the present invention is not limited to this, and may be different among all unit normal data UND.
一対の法線マップデータND1,ND2間において、各単位法線データUNDにより決定される変更データとして同一のものは含まれているが、変更データの配列は一致していない。この場合、一対の法線マップデータND1,ND2間における全ての順番情報において、各単位法線データUNDにより決定される変更データが相違していてもよく、少なくとも一部の順番情報において各単位法線データUNDにより決定される変更データが相違している構成としてもよい。各法線マップデータND1,ND2において、単位法線データUNDの数は同一となっているが異なっていもよい。 Between the pair of normal map data ND1 and ND2, the same change data determined by each unit normal data UND is included, but the arrangement of the change data does not match. In this case, in all the order information between the pair of normal map data ND1 and ND2, the change data determined by each unit normal data UND may be different. The change data determined by the line data UND may be different. In each of the normal map data ND1 and ND2, the number of unit normal data UND is the same but may be different.
各法線マップデータND1,ND2における単位法線データUNDの数は、海面用オブジェクトPC19を構成する面データSDの数よりも多く設定されている。かかる構成において、各法線マップデータND1,ND2の単位法線データUNDを海面用オブジェクトPC19の面データSDに適用する場合、全面データSDが各法線マップデータND1,ND2に含まれる範囲において、基準となる面データSDに適用する単位法線データUNDが選択され、その関係を基準とするとともに面データSD側の順番情報と単位法線データUND側の順番情報とを利用することで、上記基準となる面データSD以外の面データSDに対応させる単位法線データUNDが選択される。 The number of unit normal data UND in each normal map data ND1, ND2 is set to be larger than the number of surface data SD constituting the sea surface object PC19. In such a configuration, when the unit normal data UND of each normal map data ND1, ND2 is applied to the surface data SD of the sea surface object PC19, the entire surface data SD is within the range included in each normal map data ND1, ND2. The unit normal data UND to be applied to the reference surface data SD is selected, the relationship is used as a reference, and the order information on the surface data SD side and the order information on the unit normal data UND side are used, thereby Unit normal data UND corresponding to the surface data SD other than the reference surface data SD is selected.
より詳細に説明すると、面データSDを第m列第n行分有している構成において(m及びnは1以上の整数)、基準となる面データSDが第1列第1行であり、それに対応する単位法線データUNDが第s列第t行である場合(s及びtは1以上の整数)、今回使用する単位法線データUNDは第s列〜第(s+m−1)列であって、第t列〜第(t+n−1)行分となる。したがって、それら単位法線データUNDが法線マップデータND1,ND2から読み出される。そして、その読み出された各単位法線データUNDは、第s列第t行の順番情報が第1列第1行となる演算によって順番情報の変換が行われるとともに、その変換後の順番情報と同一の順番情報の面データSDに対応付けられる。 More specifically, in the configuration having the surface data SD for the m-th column and the n-th row (m and n are integers of 1 or more), the reference surface data SD is the first column and the first row, When the corresponding unit normal data UND is the s-th column and the t-th row (s and t are integers of 1 or more), the unit normal data UND used this time is the s-th column to the (s + m-1) -th column. Thus, the length is from the t-th column to the (t + n-1) -th row. Therefore, the unit normal data UND is read from the normal map data ND1 and ND2. The read unit normal data UND is converted into order information by an operation in which the order information of the s-th column and the t-th row becomes the first column and the first row, and the converted order information Are associated with the surface data SD of the same order information.
図39(a)及び(b)を参照しながら、一対の法線マップデータND1,ND2を海面用オブジェクトPC19に適用する手法を説明する。 A method of applying the pair of normal map data ND1 and ND2 to the sea surface object PC19 will be described with reference to FIGS. 39 (a) and 39 (b).
図39(a)に示すように、法線マップデータND1,ND2を用いて海面用オブジェクトPC19の面データSDの向きを変更させる場合には、一対の法線マップデータND1,ND2が海面用オブジェクトPC19に対して同時に適用される。この場合、海面表示の開始時においては、一方の法線マップデータND1の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。また、他方の法線マップデータND2についても同様に、当該法線マップデータND2の隅角部分の単位法線データUNDが海面用オブジェクトPC19の同じ側の隅角部分と一致し、且つ海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているようにデータ設定が行われる。
As shown in FIG. 39A, when the direction of the surface data SD of the sea surface object PC19 is changed using the normal map data ND1 and ND2, the pair of normal map data ND1 and ND2 is the sea surface object. The same applies to the
この場合、同一の面データSDに対して一方の法線マップデータND1の単位法線データUNDと他方の法線マップデータND2の単位法線データUNDとが同時に対応することとなる。これら単位法線データUNDの変更データを面データSDに適用する場合には、一方の法線マップデータND1に対応した変更データによる面データSDの向きと、他方の法線マップデータND2に対応した変更データによる面データSDの向きとの中間の向きとなるように、各変更データのブレンドが実行され、そのブレンドした結果の変更データが面データSDに対して適用される。 In this case, the unit normal data UND of one normal map data ND1 and the unit normal data UND of the other normal map data ND2 simultaneously correspond to the same surface data SD. When the change data of these unit normal data UND is applied to the surface data SD, the direction of the surface data SD by the change data corresponding to one normal map data ND1 and the other normal map data ND2 Each change data is blended so as to be in the middle of the direction of the surface data SD based on the change data, and the change data resulting from the blending is applied to the surface data SD.
なお、図39(a)では、開始時に基準となる隅角部分の位置が、一方の法線マップデータND1と他方の法線マップデータND2とで異なる構成となっているが、同一であってもよい。この場合であっても、一対の法線マップデータND1,ND2間において変更データの配列が異なっているため、面データSDに適用される変更データの内容が両法線マップデータND1,ND2で同一となる事象が全ての面データSDに対して発生してしまうことはない。 In FIG. 39A, the position of the corner portion serving as a reference at the start is different between one normal map data ND1 and the other normal map data ND2, but is the same. Also good. Even in this case, since the arrangement of the change data is different between the pair of normal map data ND1 and ND2, the contents of the change data applied to the plane data SD are the same in both normal map data ND1 and ND2. Will not occur for all surface data SD.
その後、海面表示におけるフレーム数が進行していくことに伴って、図39(b)に示すように、海面用オブジェクトPC19の基準となる面データSDに対して対応する単位法線データUNDが、両法線マップデータND1,ND2のそれぞれにおいて変更される。但し、この変更に際しては、海面用オブジェクトPC19の全ての面データSDがそれぞれ異なる単位法線データUNDと対応しているように変更が行われる。
Thereafter, as the number of frames in the sea surface display proceeds, as shown in FIG. 39B, unit normal data UND corresponding to the surface data SD serving as the reference of the sea surface object PC19 is It is changed in each of the normal map data ND1, ND2. However, in this change, the change is performed so that all the plane data SD of the sea
このように基準となる面データSDに対応する単位法線データUNDを変更させることにより、各面データSDの向きが変更される態様を除々に変化させることが可能となり、海面表示を変化に富んだものとすることが可能となる。また、一対の法線マップデータND1,ND2をブレンドする構成であることにより、パチンコ機10の設計段階において上記変更データのバリエーションをある程度抑えたとしても、面データSDに対して実質的に適用される変更データのバリエーションを増やすことが可能となる。
Thus, by changing the unit normal data UND corresponding to the reference surface data SD, it is possible to gradually change the direction in which the direction of each surface data SD is changed, and the sea surface display is rich in changes. It becomes possible to be. Further, since the pair of normal map data ND1 and ND2 are blended, even if the variation of the change data is suppressed to some extent in the design stage of the
次に、図40を参照しながら、各面データSDに対する変更データの適用の仕方を説明する。 Next, a method of applying change data to each surface data SD will be described with reference to FIG.
既に説明したように各面データSDに対して単位法線データUNDが個別に対応付けられるが、それら全ての面データSDに対して単位法線データUNDによる変更データが適用されるわけではなく、各面データ群において一部の面データSD1に対してのみ単位法線データUNDによる変更データが適用される。詳細には、同一の頂点データを共有する面データSD同士に対して同時に変更データの適用が行われないように、適用対象となる面データSD1が予め定められている。 As already described, the unit normal data UND is individually associated with each surface data SD, but the change data by the unit normal data UND is not applied to all the surface data SD. The change data based on the unit normal data UND is applied only to a part of the surface data SD1 in each surface data group. Specifically, the surface data SD1 to be applied is determined in advance so that the change data is not applied to the surface data SD sharing the same vertex data at the same time.
詳細には、各面データ群において変更データが適用される面データSD1は、図40(a)に示すように一部に限られており、それら適用対象の面データSD1間には、他の面データSD2が存在することで、適用対象の面データSD1同士において頂点データを共有していない。また、適用対象の面データSD1は面データ群においてその隅角部分を構成していないため、面データ群間で見た場合であっても、適用対象の面データSD1同士において頂点データを共有していない。このような構成であることにより、法線マップデータND1,ND2を利用してランダムに面データSDの向きを変更する構成であったとしても、適用対象の面データSD1間にはそれら面データSD1の向きの違いを吸収するための緩衝用の面データSD2が存在することとなり、海面用オブジェクトPC19の面としての連続性を担保することが可能となる。 Specifically, the surface data SD1 to which the change data is applied in each surface data group is limited to a part as shown in FIG. 40 (a), and there is other data between the surface data SD1 to be applied. Since the surface data SD2 exists, the vertex data is not shared between the surface data SD1 to be applied. Further, since the surface data SD1 to be applied does not constitute a corner portion in the surface data group, even when viewed between the surface data groups, the vertex data is shared between the surface data SD1 to be applied. Not. With such a configuration, even if the orientation of the surface data SD is randomly changed using the normal map data ND1, ND2, the surface data SD1 is between the surface data SD1 to be applied. Therefore, there is buffer surface data SD2 for absorbing the difference in the orientation of the sea surface, and it is possible to ensure continuity as the surface of the sea surface object PC19.
適用対象の面データSD1に対して変更データが適用されることにより、各面データSDの向きが第1段階の形態から変更される様子を図40(b−1)及び(b−2)に示す。図40(b−1)に示すように、第1段階の形態では、所定の面データ群に含まれる各面データSD1,SD2は、同一の方向を向いており、同一の面を形成している。 FIGS. 40B-1 and 40B-2 show how the orientation of each surface data SD is changed from the first stage by applying the change data to the surface data SD1 to be applied. Show. As shown in FIG. 40 (b-1), in the first stage form, the surface data SD1 and SD2 included in the predetermined surface data group face the same direction and form the same surface. Yes.
これら面データSD1,SD2のうち、2番目と4番目が適用対象の面データSD1であり、これら2番目及び4番目の面データSD1に対して、両法線マップデータND1,ND2のブレンド結果である変更データが適用される。この際、図40(b−2)に示すように、2番目及び4番目の面データSD1がそれぞれ対応する変更データに基づく向きに変更される。また、適用対象の面データSD1ではなく緩衝用の面データSD2である1番目、3番目及び5番目の各面データSD2は、第1段階の形態からの変化量が最も少ない態様において海面用オブジェクトPC19の面としての連続性を担保するようにして向きが変更される。
Of these plane data SD1 and SD2, the second and fourth plane data are the target plane data SD1, and the second and fourth plane data SD1 are obtained by blending both normal map data ND1 and ND2. Some change data is applied. At this time, as shown in FIG. 40 (b-2), the second and fourth surface data SD1 are changed to directions based on the corresponding change data. Further, the first, third, and fifth surface data SD2, which are the buffer surface data SD2 instead of the surface data SD1 to be applied, are the sea surface objects in a mode in which the amount of change from the first stage form is the smallest. The direction is changed so as to ensure continuity as the surface of the
以下に、海面用オブジェクトPC19の各面データSDの向きを設定するための具体的な処理構成を説明する。
A specific processing configuration for setting the direction of each surface data SD of the sea
図41(a)は、表示CPU131にて実行される海面表示用の演算処理を示すフローチャートである。海面表示用の演算処理は、タスク処理(図14)のステップS903における背景用演算処理にて実行される。また、海面表示用の演算処理は、第1表示モードである状況で実行されるものであり、図24におけるステップS1502〜ステップS1505の処理の一部として実行される。
FIG. 41A is a flowchart showing a calculation process for sea level display executed by the
先ずステップS2401では、現状設定されているデータテーブルに基づいて、海面表示の実行中であるか否かを判定する。海面表示の実行中ではない場合にはステップS2402にて、海面表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS2403に進む。 First, in step S2401, it is determined based on the currently set data table whether the sea level display is being executed. If the sea level display is not being executed, it is determined in step S2402 whether it is the start timing of the sea level display. If it is not the start timing, the calculation process is terminated as it is, and if it is the start timing, the process proceeds to step S2403.
ステップS2403では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。ちなみに、ステップS2403の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、海面用オブジェクトPC19に対して制御開始用の処理が完了している。また、制御が開始された海面用オブジェクトPC19の制御用の情報は、海面表示が完了するまではワークRAM132に記憶保持される。
In step S2403, based on the currently set data table, the sea surface object PC19 is grasped as a control target. Incidentally, at the execution timing of the process of step S2403, the control start process for the sea surface object PC19 is completed in the immediately preceding control start setting process (step S901). The control information of the sea
続くステップS2404では、第1法線マップデータND1及び第2法線マップデータND2を制御対象としてVDP135に指示するための情報を記憶する。但し、表示CPU131では、これら第1法線マップデータND1及び第2法線マップデータND2を海面用オブジェクトPC19に実際に適用するために必要な演算処理は実行しない。つまり、表示CPU131は、第1法線マップデータND1及び第2法線マップデータND2については、これらデータND1,ND2を使用すべきことをVDP135に対して指示するものの、これらデータND1,ND2を実際に制御するための演算処理を実行しない。これにより、表示CPU131の処理負荷の軽減が図られる。
In subsequent step S2404, information for instructing the
続くステップS2405では、メモリモジュール133から海面用アニメーションデータをワークRAM132に読み出す。図41(b)は海面用アニメーションデータADを説明するための説明図である。海面用アニメーションデータADは、海面用オブジェクトPC19を面データ群の単位で制御するためのデータであり、当該海面用アニメーションデータADによって各面データ群の基準座標及び向きが決定されることで、海面用オブジェクトPC19について第1段階の形態が決定される。
In the subsequent step S2405, the sea surface animation data is read from the
より詳細には、海面用アニメーションデータADには、連番となるようにして複数のポインタ情報が設定されており、各ポインタ情報のそれぞれには、各面データ群について基準座標のデータ及び向きのデータが設定されている。例えば、第1面データ群に対しては、第1のポインタ情報に対応させて、基準座標のデータ(A1−1)及び向きのデータ(B1−1)が設定されており、第2のポインタ情報に対応させて、基準座標のデータ(A1−2)及び向きのデータ(B1−2)が設定されており、第fのポインタ情報(fは3以上の整数であり、例えば「50」)に対応させて、基準座標のデータ(A1−f)及び向きのデータ(B1−f)が設定されている。また、第2面データ群、・・・、第k面データ群に対しても各ポインタ情報に対応させて基準座標のデータ及び向きのデータが設定されている。 More specifically, a plurality of pointer information are set in the sea surface animation data AD so as to be serial numbers, and each pointer information includes reference coordinate data and orientation information for each surface data group. Data is set. For example, for the first surface data group, reference coordinate data (A1-1) and orientation data (B1-1) are set corresponding to the first pointer information, and the second pointer is set. Corresponding to the information, reference coordinate data (A1-2) and orientation data (B1-2) are set, and the f-th pointer information (f is an integer of 3 or more, for example, “50”). The reference coordinate data (A1-f) and the orientation data (B1-f) are set corresponding to the above. Also, reference coordinate data and orientation data are set for the second surface data group,..., K-th surface data group in association with each pointer information.
ポインタ情報は、海面表示が行われている状況において1フレーム分進行する場合(画像更新タイミングとなる度)に更新され、ポインタ情報の更新に伴って基準座標のデータ及び向きのデータの組合せが次の順番のものに変更されることとなる。この場合に、それら連続する基準座標のデータ及び向きのデータは、各面データ群において第1段階の形態が動きの連続性を有するように設定されている。 The pointer information is updated when one frame proceeds in a state where the sea surface display is performed (every time the image update timing is reached), and the combination of the reference coordinate data and the orientation data is the next along with the update of the pointer information. It will be changed to the thing of the order. In this case, the continuous reference coordinate data and orientation data are set such that the first stage form has motion continuity in each surface data group.
また、各面データ群間においてポインタ情報の進行に伴う基準座標のデータ及び向きのデータの配列態様は相違しているが、隣接する面データ群間において形態上の連続性が損なわれないようにそれら基準座標のデータ及び向きのデータが設定されている。つまり、複数の辺が他の面データ群と接している面データ群は、それら他の面データ群の基準座標及び向きが決定されれば、それら他の面データ群と接している状態を解除しない限り、基準座標及び向きに制約が生じ、場合によっては一義的に定まることとなる。このような状況において、当該他の面データ群と接している状態を解除しないようにして、各面データ群の基準座標及び向きが予め定められている。具体的には、既に説明したとおり、隣接する面データ群においては、両者の境界部分における頂点データの座標が同一となるように、基準座標のデータ及び向きのデータが決定されている。 In addition, the arrangement mode of the reference coordinate data and the orientation data according to the progress of the pointer information is different between the surface data groups, but the continuity in form is not impaired between the adjacent surface data groups. These reference coordinate data and orientation data are set. In other words, a surface data group in which a plurality of sides are in contact with another surface data group is released from the state in contact with the other surface data group if the reference coordinates and orientation of the other surface data group are determined. Unless this is done, restrictions are imposed on the reference coordinates and orientation, and in some cases, the coordinates are uniquely determined. In such a situation, the reference coordinates and orientation of each surface data group are determined in advance so as not to cancel the state in contact with the other surface data group. Specifically, as already described, in the adjacent surface data group, the reference coordinate data and the orientation data are determined so that the coordinates of the vertex data at the boundary portion between them are the same.
図41(a)の説明に戻り、ステップS2405にて海面用アニメーションデータADを読み出した後は、ステップS2406にて、当該海面用アニメーションデータADから初期設定データを把握する。具体的には、開始用のデータとして、第1のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2407にて海面表示の開始指定情報を記憶した後に、本演算処理を終了する。 Returning to the description of FIG. 41A, after the sea surface animation data AD is read out in step S2405, initial setting data is grasped from the sea surface animation data AD in step S2406. Specifically, a combination of reference coordinate data and orientation data set in correspondence with the first pointer information is read out for the entire data group as start data. Thereafter, after storing the sea surface display start designation information in step S2407, the present calculation process is terminated.
上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。さらにまた、上記ステップS2406にて把握した第1段階の形態についての初期設定データが設定されるとともに、海面表示を開始すべきことを示す海面表示の開始指定情報が、描画リストに設定される。
When the calculation process for sea level display is executed as described above, information on the instruction to use the sea
ステップS2401にて海面表示の実行中であると判定した場合には、ステップS2408に進む。ステップS2408では、現状設定されているデータテーブルに基づいて、海面用オブジェクトPC19を制御対象として把握する。また、ステップS2409では、現状設定されているデータテーブルに基づいて、第1法線マップデータND1及び第2法線マップデータND2を制御対象として把握する。
If it is determined in step S2401 that the sea level display is being executed, the process proceeds to step S2408. In
続くステップS2410では、既にワークRAM132に読み出されている海面用アニメーションデータADのポインタ情報を1増加させるように更新し、ステップS2411にて、その更新後のポインタ情報に対応した更新データを把握する。この把握処理について具体的には、更新用のデータとして、更新後のポインタ情報に対応させて設定されている基準座標のデータ及び向きのデータの組合せが、全面データ群について読み出される。その後、ステップS2412にて、海面表示の更新指定情報を記憶した後に、本演算処理を終了する。
In the following step S2410, the pointer information of the sea surface animation data AD already read to the
上記のように海面表示用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、海面用オブジェクトPC19の使用指示の情報が設定されるとともに、第1法線マップデータND1及び第2法線マップデータND2の使用指示の情報が設定される。また、上記ステップS2411にて把握した第1段階の形態についての更新データが描画リストに設定される。さらにまた、海面表示を更新すべきことを示す海面表示の更新指定情報が、描画リストに設定される。
When the calculation process for sea level display is executed as described above, information on the instruction to use the sea
なお、海面用アニメーションデータADのポインタ情報は、海面表示が実行される全フレーム数に対応していてもよいが、本パチンコ機10では、海面表示が実行される全フレーム数よりもポインタ情報の数が少なく設定されている。この場合、海面表示の実行中においてポインタ情報が最後の順番のものとなってしまうが、最後の順番となった次のフレームにおいては最初のポインタ情報に復帰される。また、このようにポインタ情報がループすることに鑑みて、ポインタ情報が最後の順番における第1段階の形態と、ポインタ情報が最初の順番における第1段階の形態とが海面用オブジェクトPC19の動きとして連続性を有していることが好ましい。
The pointer information of the sea surface animation data AD may correspond to the total number of frames on which the sea level display is executed, but in the
次に、VDP135にて実行される海面表示用の設定処理を、図42のフローチャートを参照しながら説明する。海面表示用の設定処理は、第1表示モードである状況で実行されるものであり、図26におけるステップS1703〜ステップS1708の処理の一部として実行される。また、海面表示の設定処理は、今回の描画リストに海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。
Next, sea level display setting processing executed in the
先ずステップS2501では、今回の描画リストにおいて海面表示の開始指定情報が設定されているか否かを判定する。設定されている場合には、ステップS2502に進む。 First, in step S2501, it is determined whether or not the sea surface display start designation information is set in the current drawing list. If it is set, the process proceeds to step S2502.
ステップS2502では、今回の描画リストに基づいて、メモリモジュール133において海面用オブジェクトPC19が記憶されているアドレスを把握して、当該海面用オブジェクトPC19をVRAM134の展開用バッファ141に読み出す。また、ステップS2503では、今回の描画リストに基づいて、メモリモジュール133において第1法線マップデータND1及び第2法線マップデータND2が記憶されているアドレスを把握して、これら第1法線マップデータND1及び第2法線マップデータND2をVRAM134の展開用バッファ141に読み出す。
In step S2502, based on the current drawing list, the address at which the sea
続くステップS2504では、今回の描画リストに設定されている初期設定データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2505にて、その把握した初期設定データを適用した状態で海面用オブジェクトPC19をワールド座標系に設定する。これにより、海面用オブジェクトPC19が第1段階の形態となった状態でワールド座標系に設定される。
In the subsequent step S2504, initial setting data (data extracted from the sea surface animation data AD) set in the current drawing list is grasped, and in step S2505, the sea surface is applied with the grasped initial setting data applied. The
続くステップS2506では、第1法線マップデータND1のワールド座標系への初期設定処理を実行するとともに、ステップS2507では、第2法線マップデータND2のワールド座標系への初期設定処理を実行する。これにより、図39(a)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対して第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが対応付けられる。 In subsequent step S2506, initial setting processing of the first normal map data ND1 to the world coordinate system is executed, and in step S2507, initial setting processing of the second normal map data ND2 to the world coordinate system is executed. As a result, the unit normal data UND and the second normal of the first normal map data ND1 are obtained for each surface data SD of the sea surface object PC19 so as to be in the state described with reference to FIG. The unit normal data UND of the map data ND2 is associated.
その後、ステップS2508にて、法線パラメータの設定処理を実行した後に、本設定処理を終了する。かかる法線パラメータの設定処理について、図43のフローチャートを参照しながら説明する。なお、法線パラメータとは、面データSDの向きを決定付けるパラメータのことであり、具体的には当該面データSDを構成する頂点データの座標を決定付けるものである。 Thereafter, in step S2508, normal parameter setting processing is executed, and then this setting processing ends. The normal parameter setting process will be described with reference to the flowchart of FIG. The normal parameter is a parameter that determines the direction of the surface data SD, and specifically determines the coordinates of the vertex data constituting the surface data SD.
法線パラメータの設定処理では、先ずステップS2601にて、レジスタ153に設けられた適用カウンタの初期化処理を実行する。本処理において適用カウンタは、第1法線マップデータND1及び第2法線マップデータND2の単位法線データUNDに設定されている変更データを適用する対象の面データSD1をVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては当該適用対象の面データSD1の数に対応した数値情報が適用カウンタに設定される。
In the normal parameter setting processing, first, in step S2601, initialization processing of an application counter provided in the register 153 is executed. In this process, the application counter uses the
続くステップS2602では、第1法線マップデータND1において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第1法線マップデータND1において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。 In subsequent step S2602, the change data is read from the unit normal data UND corresponding to the current numerical information of the application counter in the first normal map data ND1. Specifically, first, the surface data SD1 corresponding to the current numerical information of the application counter is grasped, and thereafter the unit normal data UND associated with the surface data SD1 is grasped in the first normal map data ND1. To do. Then, the change data set in the unit normal data UND is read.
続くステップS2603では、第2法線マップデータND2において適用カウンタの現状の数値情報に対応した単位法線データUNDから変更データを読み出す。具体的には、先ず適用カウンタの現状の数値情報に対応した面データSD1を把握し、その後に第2法線マップデータND2において当該面データSD1に対応付けられている単位法線データUNDを把握する。そして、その単位法線データUNDに設定されている変更データを読み出す。 In the subsequent step S2603, the change data is read from the unit normal data UND corresponding to the current numerical information of the application counter in the second normal map data ND2. Specifically, first, the surface data SD1 corresponding to the current numerical information of the application counter is grasped, and thereafter the unit normal data UND associated with the surface data SD1 is grasped in the second normal map data ND2. To do. Then, the change data set in the unit normal data UND is read.
続くステップS2604では、上記ステップS2602にて第1法線マップデータND1から読み出した変更データと、上記ステップS2603にて第2法線マップデータND2から読み出した変更データとのブレンド処理を実行する。このブレンド処理に際しては、既に説明したとおり、第1法線マップデータND1に対応した変更データによる面データSD1の向きと、第2法線マップデータND2に対応した変更データによる面データSD1の向きとの中間の向きとなるように、各変更データのブレンドが実行される。 In subsequent step S2604, a blending process is executed between the change data read from the first normal map data ND1 in step S2602 and the change data read from the second normal map data ND2 in step S2603. In the blending process, as described above, the orientation of the surface data SD1 based on the change data corresponding to the first normal map data ND1, and the orientation of the surface data SD1 based on the change data corresponding to the second normal map data ND2. Each change data is blended so as to be in the middle direction.
なお、当該ブレンドは、各変更データを適用した場合における面データSD1の各向きの中間となるように行われる構成に限定されることはなく、所定の比率で第1法線マップデータND1に係る変更データ寄り又は第2法線マップデータND2に係る変更データ寄りとなる構成としてもよい。 The blend is not limited to a configuration that is performed in the middle of each direction of the surface data SD1 when each change data is applied, and the blend is related to the first normal map data ND1 at a predetermined ratio. It is good also as a structure which becomes the change data side or change data side which concerns on 2nd normal map data ND2.
続くステップS2605では、上記ステップS2604にてブレンドした結果の変更データを、適用カウンタの現状の数値情報に対応した面データSD1に対して適用する。これにより、当該面データSD1については第1段階の形態における向きから、上記ブレンド後の変更データに対応した向きに変更される。但し、既に説明したとおり、変更データは第1段階の形態を基準としてそこからの相対的な変化量として与えられているため、変更データがそのまま適用されるのではなく、第1段階の形態における向きを基準として、そこからブレンド後の変更データに対応した方向であって対応した変化量分だけ変更される。 In the subsequent step S2605, the change data resulting from the blending in step S2604 is applied to the surface data SD1 corresponding to the current numerical information of the application counter. Thereby, the surface data SD1 is changed from the direction in the first stage form to the direction corresponding to the changed data after blending. However, as already described, since the change data is given as a relative change amount based on the form of the first stage, the change data is not applied as it is, but in the form of the first stage. With the direction as a reference, the change is made in the direction corresponding to the changed data after blending and by the corresponding change amount.
続くステップS2606では、適用カウンタの現状の数値情報に対応した面データSD1に対して隣接する面データSD2、すなわち適用対象の面データSD1と頂点データを共有する面データSD2(既に説明した緩衝用の面データSD2に相当)の向きを、当該共有する頂点データの座標の変更に合わせて変更する処理を実行する。この場合、今回の適用対象の面データSD1と共有していない頂点データについては、第1段階の形態から座標を変更させずに、隣接する面データSD2の向きを変更する。 In subsequent step S2606, the surface data SD2 adjacent to the surface data SD1 corresponding to the current numerical information of the application counter, that is, the surface data SD2 sharing the vertex data with the surface data SD1 to be applied (the buffer data already described). A process of changing the direction of the surface data SD2) according to the change of the coordinates of the shared vertex data is executed. In this case, for the vertex data that is not shared with the current application target surface data SD1, the direction of the adjacent surface data SD2 is changed without changing the coordinates from the first stage form.
続くステップS2607では、適用カウンタの数値情報を1減算することにより、法線パラメータの設定を行う対象が次の適用対象の面データSD1に移行するように適用カウンタの数値情報を更新する。 In subsequent step S2607, by subtracting 1 from the numerical information of the application counter, the numerical information of the application counter is updated so that the target for setting the normal parameter shifts to the next application target surface data SD1.
その後、ステップS2608にて、その更新後の適用カウンタの数値情報が、全ての適用対象の面データSD1に対する設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2608にて否定判定をした場合には、ステップS2602に戻り、新たな適用対象の面データSD1に対してステップS2602〜ステップS2607の処理を実行し、ステップS2608にて肯定判定をした場合には、本設定処理を終了する。 Thereafter, in step S2608, whether or not the updated numerical value information of the application counter is information indicating that the setting for all the application target surface data SD1 has been completed, that is, the numerical value information of the application counter is “ Whether or not “0” is determined. If a negative determination is made in step S2608, the process returns to step S2602, and the processing of steps S2602 to S2607 is executed for the new application target surface data SD1, and if an affirmative determination is made in step S2608 This setting process ends.
海面表示用の設定処理(図42)の説明に戻り、ステップS2501にて否定判定をした場合には、ステップS2509にて、今回の描画リストに設定されている更新データ(海面用アニメーションデータADから抽出されたデータ)を把握し、ステップS2510にて、その把握した更新データを、ワールド座標系に既に設定されている海面用オブジェクトPC19に設定する。この場合、上記更新データが、海面用オブジェクトPC19の各面データ群の座標及び向きのデータに対して上書きされる。これにより、海面用オブジェクトPC19が、再度、第1段階の形態となった状態でワールド座標系に設定される。 Returning to the description of the sea surface display setting process (FIG. 42), if a negative determination is made in step S2501, update data (from the sea surface animation data AD) set in the current drawing list in step S2509. In step S2510, the obtained update data is set in the sea surface object PC19 already set in the world coordinate system. In this case, the update data is overwritten on the coordinate and orientation data of each surface data group of the sea surface object PC19. As a result, the sea surface object PC19 is set to the world coordinate system again in the state of the first stage.
続くステップS2511では、第1法線マップデータND1の更新処理を実行するとともに、ステップS2512では、第2法線マップデータND2の更新処理を実行する。これにより、図39(b)を参照しながら説明した状態となるように、海面用オブジェクトPC19の各面データSDに対応付けられる第1法線マップデータND1の単位法線データUND及び第2法線マップデータND2の単位法線データUNDが変更される。 In subsequent step S2511, update processing of the first normal map data ND1 is executed, and in step S2512 update processing of the second normal map data ND2 is executed. Accordingly, the unit normal data UND and the second method of the first normal map data ND1 associated with each surface data SD of the sea surface object PC19 so as to be in the state described with reference to FIG. The unit normal data UND of the line map data ND2 is changed.
その後、ステップS2508の法線パラメータの設定処理を実行した後に、本設定処理を終了する。当該法線パラメータの設定処理は、既に説明したとおりである。 Thereafter, the normal parameter setting process in step S2508 is executed, and then this setting process is terminated. The normal parameter setting process is as described above.
以上のように海面用オブジェクトPC19を構成する各面データSDのワールド座標系における座標及び向きが決定される。そして、それら面データSDに対しては、描画処理(図16)におけるステップS1009の色情報の設定処理にて色情報の設定が行われる。この場合に、当該面データSDに対する色情報の設定は、テクスチャマッピング処理とは異なる手法にて行われる。かかる手法について説明する。 As described above, the coordinates and orientation in the world coordinate system of each surface data SD constituting the sea surface object PC19 are determined. For these plane data SD, color information is set in the color information setting process in step S1009 in the drawing process (FIG. 16). In this case, setting of color information for the surface data SD is performed by a method different from the texture mapping process. Such a method will be described.
図44(a)〜(c)は、各面データSDに色情報を設定する手法を説明するための説明図である。 44A to 44C are explanatory diagrams for explaining a method of setting color information in each surface data SD.
色情報の設定処理(ステップS1009)は、図16に示すように、各オブジェクトのワールド座標系への設定処理が完了し、さらにステップS1006の視野座標系への設定処理、及びステップS1007のクリッピング処理が実行された後に、実行される。したがって、色情報の設定処理が実行されるタイミングでは既に、海面用オブジェクトPC19の各面データSDの座標及び向きが視野座標系に変換された状態で設定されている。
In the color information setting process (step S1009), as shown in FIG. 16, the setting process for each object in the world coordinate system is completed, the setting process in the visual field coordinate system in step S1006, and the clipping process in step S1007. Is executed after. Accordingly, at the timing when the color information setting process is executed, the coordinates and orientation of each surface data SD of the sea
この状態では、図44(a)に示すように、視野座標系の基準となる視点VDが設定されているとともに、その視点VDよりも上方の位置となるように海面用オブジェクトPC19が設定されている。つまり、本パチンコ機10における海面表示は、海中を背景とする表示であって、その海中から見上げた状態で海面が表示される演出のことである。
In this state, as shown in FIG. 44A, the viewpoint VD serving as the reference of the visual field coordinate system is set, and the sea surface object PC19 is set so as to be positioned above the viewpoint VD. Yes. That is, the sea level display in the
各面データSDに対する色情報の設定に際しては、海面用オブジェクトPC19の上方に仮に光源している場合において、その光源からの透過光を面データSDの座標及び向きとの関係で、視点VDの位置にて視認することが可能となるか否かを想定して、上記光源からの光が透過することに対応した面データSDと、上記光源からの光が海面用オブジェクトPC19の上方側にて全反射して透過しないことに対応した面データSDとに振り分ける。 When setting color information for each surface data SD, if a light source is temporarily provided above the sea surface object PC19, the position of the viewpoint VD is determined based on the transmitted light from the light source in relation to the coordinates and orientation of the surface data SD. The surface data SD corresponding to the transmission of the light from the light source and the light from the light source are all above the sea surface object PC19. The data is distributed to the surface data SD corresponding to the reflection and not transmission.
この振分に際しては、上記光源を描画処理(図16)のライティング処理(ステップS1008)にて設定するのではなく、視点VDに対する面データSDの角度が所定の角度未満であるか否かにより、その面データSDを、透過光の多い分類と、透過光の少ない分類とのいずれかに振り分ける。 In this distribution, the light source is not set in the lighting process (step S1008) of the drawing process (FIG. 16), but depending on whether or not the angle of the surface data SD with respect to the viewpoint VD is less than a predetermined angle. The surface data SD is assigned to either a classification with a large amount of transmitted light or a classification with a small amount of transmitted light.
より詳細には、図44(b−1)及び(b−2)に示すように、先ず面データSDの座標及び向きのデータを利用して、視点VDから当該面データSDを見た場合の角度である屈折角βを算出する。この算出に際しては、座標及び向きのデータに対して1対1で対応させて屈折角のデータが設定されたテーブルをメモリモジュール133から読み出して用いられるが、算出式のプログラムを予め用意しておき、その算出式で屈折角を算出するようにしてもよい。
More specifically, as shown in FIGS. 44 (b-1) and 44 (b-2), when the surface data SD is first viewed from the viewpoint VD using the coordinates and orientation data of the surface data SD. The refraction angle β, which is an angle, is calculated. In this calculation, a table in which refraction angle data is set in a one-to-one correspondence with the coordinate and orientation data is read from the
ここで、面データSDに対する色情報の設定は、大気中から海面への光の入射を前提としているため、屈折角βが大きいほど、入射角αは大きくなり、入射角αが大きくなるほど、光量は少なくなる。これを前提として、VDP135では、屈折角βを算出した後は、その屈折角βが所定の基準角度未満であるか否かを判定する。そして、屈折角βが所定の基準角度未満である場合(例えば図44(b−1)の場合)には、その屈折角βを生じさせる面データSDを透過光が多い分類とし、屈折角βが所定の基準角度以上である場合(例えば図44(b−2)の場合)には、その屈折角βを生じさせる面データSDを透過光が少ない分類とする。ちなみに、視点VD側とは逆側を向く方向の成分を有している場合といったように、視点VD側を向く成分を向く方向に有していない面データSDは、全て透過光が少ない分類とされる。
Here, the setting of the color information for the surface data SD is based on the premise that light enters the sea surface from the atmosphere. Therefore, the larger the refraction angle β, the larger the incident angle α, and the larger the incident angle α, the light amount. Will be less. Based on this assumption, after calculating the refraction angle β, the
上記のような分類を行った後は、図44(c)に示すようなカラーテーブルCTを用いて各面データSDの色情報を決定する。カラーテーブルCTは、メモリモジュール133に予め記憶されており、複数のカラーNO.のデータと、これらカラーNO.のデータに1対1で対応させて色情報が設定されている。また、カラーテーブルCTには、いずれの色情報を面データSDに対して適用するかを決定する際に参照される相関データが設定されている。
After the above classification, the color information of each surface data SD is determined using a color table CT as shown in FIG. The color table CT is stored in advance in the
この場合、カラーNO.「7」は、上記透過光が少ない分類とされた面データSDに対して適用されるものである。一方、カラーNO.「1」〜「6」は、上記透過光が多い分類とされた面データSDに対して適用されるものであり、かかる分類の面データSDに対しては色情報が複数種類設定されている。当該分類の面データSDに対していずれの色情報を設定するかは、当該面データSDの向きによって決定されるのではなく、視点VDからのZ軸方向の距離によって決定される。 In this case, color NO. “7” is applied to the surface data SD that is classified as having less transmitted light. On the other hand, color NO. “1” to “6” are applied to the surface data SD classified as having a large amount of transmitted light, and a plurality of types of color information are set for the surface data SD of the classification. . Which color information is set for the surface data SD of the classification is not determined by the direction of the surface data SD, but by the distance in the Z-axis direction from the viewpoint VD.
詳細には、面データSDのうち一の隅角部分(例えば図38(a)の状態で見て左下角部分)の頂点データを基準頂点データとして、その基準頂点データのZ座標のデータが、第1段階の閾値である「Z1」以下である場合(すなわち「Z1」よりもZ座標が視点VDに近い場合)には色情報として「CL1」が選択され、第1段階の閾値である「Z1」よりも大きく且つ第2段階の閾値である「Z2」以下である場合には色情報として「CL2」が選択され、第2段階の閾値である「Z2」よりも大きく且つ第3段階の閾値である「Z3」以下である場合には色情報として「CL3」が選択される。そして、以下同様にして、各閾値の範囲に対応させて「CL4」及び「CL5」が選択され、上記基準頂点データのZ座標のデータが、第5段階の閾値である「Z5」よりも大きい場合には色情報として「CL6」が選択される。 Specifically, the vertex data of one corner portion (for example, the lower left corner portion in the state of FIG. 38A) of the surface data SD is used as reference vertex data, and the Z coordinate data of the reference vertex data is: If it is less than or equal to the first-stage threshold “Z1” (that is, if the Z coordinate is closer to the viewpoint VD than “Z1”), “CL1” is selected as the color information, and the first-stage threshold “ If it is greater than Z1 and less than or equal to the second stage threshold “Z2”, “CL2” is selected as the color information, and is greater than the second stage threshold “Z2” and the third stage threshold. When the threshold value is “Z3” or less, “CL3” is selected as the color information. In the same manner, “CL4” and “CL5” are selected corresponding to each threshold range, and the Z-coordinate data of the reference vertex data is larger than “Z5” which is the fifth-stage threshold value. In this case, “CL6” is selected as the color information.
これら色情報「CL1」〜「CL6」は、後側ほど暗い色となるように設定されており、具体的には、色情報「CL1」は白色として設定され、色情報「CL6」は暗い青色として設定され、色情報「CL2」〜「CL5」はそれらの中間色として設定されている。また、色情報「CL7」は、色情報「CL6」よりも暗い色として設定されており、具体的には黒色に近い青色として設定されている。 These color information “CL1” to “CL6” are set so as to become darker toward the rear side. Specifically, the color information “CL1” is set as white, and the color information “CL6” is dark blue. The color information “CL2” to “CL5” is set as an intermediate color between them. Also, the color information “CL7” is set as a darker color than the color information “CL6”, and specifically, is set as a blue color close to black.
以下に、各面データSDに色情報を設定するための具体的な処理構成を説明する。 Hereinafter, a specific processing configuration for setting color information in each surface data SD will be described.
図45(a)は、VDP135にて実行される海面表示用の色情報設定処理を示すフローチャートである。海面表示用の色情報設定処理は、描画処理(図16)におけるステップS1009の色情報の設定処理にて実行される。また、海面表示用の色情報設定処理は、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されている場合に起動される。
FIG. 45A is a flowchart showing the color information setting process for sea level display executed in the
先ずステップS2701では、上記適用カウンタの初期化処理を実行する。本処理において適用カウンタは、色情報の設定を行う対象の面データSDをVDP135にて特定するための役割を有しており、適用カウンタが初期化された状態においては海面用オブジェクトPC19に含まれる面データSDの数に対応した数値情報が適用カウンタに設定される。
First, in step S2701, the application counter initialization process is executed. In this processing, the application counter has a role for specifying the surface data SD for which color information is set by the
続くステップS2702では、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2703にて、その把握した向きのデータから上記屈折角を算出する。そして、ステップS2704にて、その算出した屈折角が基準角度以上であるか否かを判定する。 In the following step S2702, the orientation data is grasped from the surface data SD corresponding to the current numerical information of the application counter in the sea surface object PC19, and the refraction angle is calculated from the grasped orientation data in step S2703. In step S2704, it is determined whether or not the calculated refraction angle is equal to or greater than a reference angle.
基準角度以上である場合には、ステップS2705にて、カラーテーブルCTにおけるカラーNO.7の色情報(「CL7」)を、今回対象となった面データSDに対して設定する。一方、基準角度未満である場合には、ステップS2706にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2707にて、カラーテーブルCTと照合することにより、対応するカラーNO.の色情報(「CL1」〜「CL6」のいずれか)を、今回対象となった面データSDに対して設定する。 If the angle is equal to or larger than the reference angle, in step S2705, the color NO. 7 color information (“CL7”) is set for the surface data SD that is the current target. On the other hand, if the angle is less than the reference angle, in step S2706, the Z coordinate data of the target surface data SD is read out, and in step S2707, the corresponding color NO. . Color information (any one of “CL1” to “CL6”) is set for the current surface data SD.
ステップS2705又はステップS2707の処理を実行した後は、ステップS2708にて、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2709にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。 After executing the processing of step S2705 or step S2707, in step S2708, by subtracting 1 from the numerical information of the application counter, the application counter is set so that the target for setting color information shifts to the next plane data SD. Update numeric information of. Thereafter, in step S2709, whether or not the updated numerical value information of the application counter is information indicating that the setting of the color information for all the surface data SD has been completed, that is, the numerical value information of the application counter is “ Whether or not “0” is determined.
ステップS2709にて否定判定をした場合には、ステップS2702に戻り、新たな面データSDに対してステップS2702〜ステップS2708の処理を実行する。一方、ステップS2709にて肯定判定をした場合には、本色情報設定処理を終了する。 If a negative determination is made in step S2709, the process returns to step S2702, and the processes of steps S2702 to S2708 are performed on the new surface data SD. On the other hand, if a positive determination is made in step S2709, the color information setting process is terminated.
図45(b)は、VDP135にて実行される海面用の調整処理を示すフローチャートである。当該海面用の調整処理は、描画処理(図16)におけるステップS1010の背景用の描画データ作成処理にて実行される。より詳細には、図27では省略するとともに説明も省略していたが、ステップS1802とステップS1803との間にて実行される。つまり、背景用の3次元画像データが2次元画像データに変換された後に、海面用の調整処理が実行される。
FIG. 45B is a flowchart showing the adjustment process for the sea surface executed by the
先ずステップS2711では、今回の描画リストにおいて海面表示の開始指定情報及び海面表示の更新指定情報のいずれかが設定されているか否かを判定する。いずれもが設定されていない場合には、そのまま本調整処理を終了する。いずれかが設定されている場合には、ステップS2712にて、海面のぼかし処理を実行した後に、本調整処理を終了する。 First, in step S2711, it is determined whether or not any of the sea surface display start designation information and the sea surface display update designation information is set in the current drawing list. If neither is set, the adjustment process is terminated as it is. If either one is set, the adjustment process is terminated after executing the sea surface blurring process in step S2712.
海面のぼかし処理では、隠面処理(ステップS1802)を利用して作成された背景用の2次元画像データにおいて、ガウスフィルタを利用したぼかし処理を実行する。詳細には、海面表示に対応した領域から1のピクセルを抽出するとともに、そのピクセルを中心としてX軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンド(合成)を行う。また、同様に、同一のピクセルを中心としてY軸方向の両側に所定数(例えば5個)のピクセルを抽出する。その後、中心としたピクセルからの距離に応じた重み付けを、ガウス関数を利用して決定し、その決定した重み付けを適用した状態で各ピクセルの色情報のブレンドを行う。そして、海面表示に対応した領域を構成している全ピクセルに対して、上記ガウスフィルタを利用したぼかし処理を実行する。 In the sea surface blurring process, a blurring process using a Gaussian filter is performed on the background two-dimensional image data created using the hidden surface process (step S1802). Specifically, one pixel is extracted from the area corresponding to the sea level display, and a predetermined number (for example, five) of pixels are extracted on both sides in the X-axis direction around the pixel. Thereafter, the weighting according to the distance from the center pixel is determined using a Gaussian function, and the color information of each pixel is blended (synthesized) with the determined weighting applied. Similarly, a predetermined number (for example, five) of pixels are extracted on both sides in the Y-axis direction with the same pixel as the center. Thereafter, the weighting according to the distance from the center pixel is determined using a Gaussian function, and the color information of each pixel is blended with the determined weighting applied. And the blurring process using the said Gaussian filter is performed with respect to all the pixels which comprise the area | region corresponding to a sea surface display.
次に、海面表示の内容について、図46を参照しながら説明する。 Next, the contents of the sea level display will be described with reference to FIG.
図46(a)は海面表示を説明するための説明図であり、図46(b)は海面表示が行われている領域の色情報の設定態様を簡易的に説明するための説明図である。 46A is an explanatory diagram for explaining the sea level display, and FIG. 46B is an explanatory diagram for simply explaining the color information setting mode of the area where the sea level display is performed. .
図46(a)に示すように、複数の図柄が変動表示されている背景では、海中を示す画像が表示されている。この背景の上部にて海面表示SPがなされている。この場合、海面を表示させるための面データSDの向きが細かく制御されているとともに、その細かく制御された状態に応じた色情報が設定されていることにより、海面の向きが細かく表現されるとともに大気中から海中への光の透過がリアルに表現されている。よって、リアルな海面表示SPを行うことが可能となっている。 As shown in FIG. 46 (a), an image showing the sea is displayed in the background in which a plurality of symbols are variably displayed. The sea level display SP is made on the upper part of this background. In this case, the direction of the surface data SD for displaying the sea surface is finely controlled, and color information corresponding to the finely controlled state is set, so that the direction of the sea surface is expressed finely. The transmission of light from the atmosphere to the sea is expressed realistically. Therefore, realistic sea level display SP can be performed.
また、海面用オブジェクトPC19の第1段階の形態を設定した後に、各面データSDの向きを調整する構成であるため、海面の大きな動きは規則的なものとしながら、その規則的な大きな動きの中で各面データSDの向きに不規則性を与えることが可能となる。
In addition, since the configuration of the surface data SD is adjusted after the first stage form of the sea
また、各面データSDの動きを個別に制御する際には、法線マップデータND1,ND2を利用したことにより、各面データSDの向きを演算によって個別に変化させる必要が生じない。よって、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。特に、法線マップデータND1,ND2のワールド座標系における位置を変化させることにより、海面表示SPの進行に伴って各面データSDに対応付けられる単位法線データUNDを変更させる構成であるため、海面表示SPの進行に伴って面データSDの向きを複雑に変化させる場合において、同一の法線マップデータND1,ND2を利用し且つ同一の適用処理を利用することが可能となるため、記憶容量の削減及び処理負荷の軽減が図られる。 Further, when the movement of each surface data SD is individually controlled, the normal map data ND1 and ND2 are used, so that it is not necessary to individually change the direction of each surface data SD by calculation. Therefore, the above excellent effects can be achieved while reducing the processing load. In particular, by changing the position of the normal map data ND1, ND2 in the world coordinate system, the unit normal data UND associated with each surface data SD is changed as the sea surface display SP progresses. Since the same normal map data ND1 and ND2 can be used and the same application process can be used when the direction of the surface data SD is changed in a complicated manner with the progress of the sea surface display SP, the storage capacity And the processing load can be reduced.
また、海面用アニメーションデータADを利用した大まかな動きの決定は表示CPU131にて実行し、法線マップデータND1,ND2を利用した細かな面の向きの決定はVDP135にて実行する構成であるため、処理負荷の分散が図られる。
In addition, the rough movement determination using the sea surface animation data AD is executed by the
また、既に説明したとおり、海面のぼかし処理が実行されることにより、図46(b)に示すように、光の透過がほとんどないことに対応した色情報が設定されたピクセルPS(左側のピクセルPS)と、光の透過が最もあることに対応した色情報が設定されたピクセルPS(右側のピクセルPS)との間には、これら両ピクセルPSの色情報をブレンドさせたピクセルPS(中央側のピクセルPS)が存在することとなる。これにより、海面表示SPを行っている領域にて個別に色情報が設定される構成において色情報が相違する部分の境界を目立たなくすることが可能となる。 Further, as described above, when the sea surface blurring process is executed, as shown in FIG. 46B, the pixel PS (left pixel) in which color information corresponding to almost no light transmission is set. PS) and a pixel PS (right side pixel PS) for which color information corresponding to the most light transmission is set (right side pixel PS) is a pixel PS (center side) obtained by blending the color information of both pixels PS. Pixel PS). Thereby, it becomes possible to make the boundary of the portion where the color information is different inconspicuous in the configuration in which the color information is individually set in the area where the sea level display SP is performed.
また、2次元画像とした後に当該ぼかし処理を実行するため、3次元画像の状態でぼかし処理を実行する構成に比べて、処理負荷の軽減が図られる。 In addition, since the blurring process is performed after the two-dimensional image is generated, the processing load can be reduced as compared with the configuration in which the blurring process is performed in the state of the three-dimensional image.
<海面表示用の色情報設定処理の別形態>
図47は、VDP135にて実行される海面表示用の色情報設定処理の別形態を説明するためのフローチャートである。
<Another form of color information setting process for sea level display>
FIG. 47 is a flowchart for explaining another form of the color information setting process for sea level display executed in the
先ずステップS2801では、上記ステップS2701と同様に、適用カウンタの初期化処理を実行する。続くステップS2802では、上記ステップS2702と同様に、海面用オブジェクトPC19において適用カウンタの現状の数値情報に対応した面データSDから向きのデータを把握し、ステップS2803にて、上記ステップS2703と同様に、その把握した向きのデータから屈折角を算出する。 First, in step S2801, similarly to step S2701, the application counter initialization process is executed. In the subsequent step S2802, as in step S2702, the orientation data is obtained from the surface data SD corresponding to the current numerical information of the application counter in the sea surface object PC19. In step S2803, as in step S2703, The refraction angle is calculated from the data of the grasped orientation.
続くステップS2804では、上記ステップS2803にて算出した屈折角の情報から色情報を導出する。この場合、色情報の導出に際しては、屈折角の情報と色情報とが対応付けられたカラーテーブルをメモリモジュール133から読み出し、屈折角の情報に対応した色情報を読み出す。つまり、本別形態では、屈折角の情報から直接的に色情報が読み出される。
In the subsequent step S2804, color information is derived from the refraction angle information calculated in step S2803. In this case, when the color information is derived, the color table in which the refraction angle information and the color information are associated is read from the
その後、ステップS2805にて、今回対象となった面データSDのZ座標のデータを読み出し、ステップS2806にて、その読み出したZ座標のデータに対応した色情報の調整処理を実行する。この場合、視点VDから遠い距離に存在する面データSDほど、ステップS2804にて設定された色情報を暗い色側にシフトさせる場合のシフト量が大きくなる処理が実行される。 Thereafter, in step S2805, the Z coordinate data of the target surface data SD is read, and in step S2806, color information adjustment processing corresponding to the read Z coordinate data is executed. In this case, a process is executed in which the amount of shift when the color information set in step S2804 is shifted to the darker color side is larger for the surface data SD that is farther from the viewpoint VD.
続くステップS2807では、適用カウンタの数値情報を1減算することにより、色情報の設定を行う対象が次の面データSDに移行するように適用カウンタの数値情報を更新する。その後、ステップS2808にて、その更新後の適用カウンタの数値情報が、全ての面データSDに対する色情報の設定が完了したことを表す情報となっているか否か、すなわち適用カウンタの数値情報が「0」となっているか否かを判定する。ステップS2808にて否定判定をした場合には、ステップS2802に戻り、新たな面データSDに対してステップS2802〜ステップS2807の処理を実行する。一方、ステップS2808にて肯定判定をした場合には、本色情報設定処理を終了する。 In subsequent step S2807, by subtracting 1 from the numerical information of the application counter, the numerical information of the application counter is updated so that the target for setting the color information shifts to the next surface data SD. Thereafter, in step S2808, whether or not the updated numerical value information of the application counter is information indicating that the setting of the color information for all the surface data SD has been completed, that is, the numerical value information of the application counter is “ Whether or not “0” is determined. If a negative determination is made in step S2808, the process returns to step S2802, and the processes of steps S2802 to S2807 are executed for the new surface data SD. On the other hand, if a positive determination is made in step S2808, the color information setting process is terminated.
<他の別形態>
・一の法線マップデータND1,ND2に含まれる単位法線データUNDの数が海面用オブジェクトPC19に含まれる面データSDの数以下である構成としてもよい。この場合、同一の法線マップデータND1,ND2を複数並べることにより、面データSDの全てに対して単位法線データUNDを対応付けるようにすればよい。
<Other alternative forms>
The number of unit normal data UND included in one normal map data ND1, ND2 may be equal to or less than the number of surface data SD included in the sea surface object PC19. In this case, unit normal data UND may be associated with all the surface data SD by arranging a plurality of the same normal map data ND1 and ND2.
・法線マップデータND1,ND2は複数種類設定されている必要はなく、単一の法線マップデータが設定されている構成としてもよい。この場合、海面表示に際して、当該単一の法線マップデータのみを海面用オブジェクトPC19に適用する構成としてもよい。当該構成であっても、海面用オブジェクトPC19に適用される法線マップデータの位置を変化させることで、海面表示の進行に伴って各面データSDの向きを変化させることが可能となる。また、当該単一の法線マップデータを複数同時に読み出すとともに、それら複数の法線マップデータにおいて海面用オブジェクトPC19に適用する位置を相互に異ならせることにより、複雑な面の向きの制御を可能とする構成としてもよい。
A plurality of types of normal map data ND1 and ND2 do not need to be set, and a single normal map data may be set. In this case, when displaying the sea surface, only the single normal map data may be applied to the sea surface object PC19. Even in this configuration, by changing the position of the normal map data applied to the sea
・法線マップデータND1,ND2の単位法線データUNDを適用する対象は、同一の頂点データを共有する複数の面データSDが同時に適用対象とならないように制限されている構成に限定されることはなく、全面データSDに対して単位法線データUNDを適用する構成としてもよい。但し、本構成においては、一の頂点データに対して異なる座標が同時に設定されることとなるため、その調整を別途行う必要がある。例えば、頂点データの座標設定を行う際の優先度を隣接する面データSD同士において予め定めておき、優先度が高い面データSDについては単位法線データUNDをそのまま適用し、優先度が低い面データSDについては優先度が高い面データSDにより決定される頂点データの座標を維持しながら、第1段階の形態の状態よりも自身に適用される単位法線データUNDにより決定される向きに近付けるように調整する構成としてもよい。 The target to which the unit normal data UND of the normal map data ND1 and ND2 is applied is limited to a configuration in which a plurality of surface data SD sharing the same vertex data are not applied simultaneously. Instead, the unit normal data UND may be applied to the entire data SD. However, in this configuration, since different coordinates are set simultaneously for one vertex data, it is necessary to separately adjust the coordinates. For example, the priority when the coordinates of the vertex data are set is determined in advance between the adjacent surface data SD, and the unit normal data UND is applied as it is to the surface data SD with a high priority, and the surface with a low priority. The data SD is closer to the direction determined by the unit normal data UND applied to itself than the state of the first stage form, while maintaining the coordinates of the vertex data determined by the surface data SD having a high priority. It is good also as a structure adjusted as follows.
・各面データSDに対する色情報の設定は、カラーテーブルCTを利用した設定の仕方や、上記図47に示した設定の仕方に限定されることはなく、例えば、描画処理(図16)のライティング処理にて仮想光源を、海面用オブジェクトPC19を挟んで視点VDの反対側に設定し、その仮想光源からの光の透過量を各面データSDについて個別に算出する構成としてもよい。この場合、光の透過量に応じた色情報を、予め定められたテーブル情報を利用して導出し、その導出結果の色情報を各面データSDに設定する構成が考えられる。また、各面データSDに対して初期の色情報が予め設定されており、その色情報を上記算出した透過量との関係で調整する構成が考えられる。 The setting of the color information for each surface data SD is not limited to the setting method using the color table CT or the setting method shown in FIG. 47. For example, the lighting of the drawing process (FIG. 16) A virtual light source may be set on the opposite side of the viewpoint VD across the sea surface object PC19 in the processing, and the amount of light transmitted from the virtual light source may be calculated individually for each surface data SD. In this case, a configuration is conceivable in which color information corresponding to the amount of transmitted light is derived using predetermined table information, and the color information of the derivation result is set in each surface data SD. In addition, initial color information is preset for each surface data SD, and a configuration in which the color information is adjusted in relation to the calculated transmission amount is conceivable.
・海面用オブジェクトPC19が視点VDの上方に設定されている構成に限定されることはなく、海面用オブジェクトPC19が視点VDの下方に設定されている構成としてもよい。この場合、各面データSDの向きを上記各手法により決定した後に、それら各面データSDの向きが光を反射し易い向きであれば明るい色情報を設定し、それら各面データSDの向きが光を透過し易い向きであれば暗い色情報を設定する。この設定に際しては、予め用意されたテーブル情報を利用してもよく、仮想光源を利用して実際に算出する構成としてもよい。 The sea surface object PC19 is not limited to the configuration set above the viewpoint VD, and the sea surface object PC19 may be configured below the viewpoint VD. In this case, after the direction of each surface data SD is determined by each of the above methods, if the direction of each surface data SD is a direction that easily reflects light, bright color information is set, and the direction of each surface data SD is If the direction is easy to transmit light, dark color information is set. For this setting, table information prepared in advance may be used, or a configuration may be used in which actual calculation is performed using a virtual light source.
・導出した屈折角が所定の角度以下である面データSDについては、視点VDからのZ軸方向の距離に関係なく、最も明るい色情報を設定する構成としてもよい。また、これに代えて、導出した屈折角が所定の角度以下である面データSDについては、他の屈折角の場合よりも明るい色情報を設定するとともに、その色情報をベースとして、視点VDからのZ軸方向の距離が遠いほど暗くなるように色情報の調整を行うようにしてもよい。 For the surface data SD whose derived refraction angle is equal to or smaller than a predetermined angle, the brightest color information may be set regardless of the distance in the Z-axis direction from the viewpoint VD. Alternatively, for the surface data SD whose derived refraction angle is equal to or smaller than a predetermined angle, color information brighter than other refraction angles is set, and the color information is used as a base from the viewpoint VD. The color information may be adjusted so that it becomes darker as the distance in the Z-axis direction increases.
・上記のように面の向きを制御して色情報を設定する処理構成は、海面である必要はなく、川や池といった他の水面であってもよい。また、経時的に面の状態を変化させる透過膜や、反射膜を表現する際に、上記のような面の向きを制御して色情報を設定する処理構成を適用してもよい。 The processing configuration for setting the color information by controlling the direction of the surface as described above does not have to be the sea surface, and may be another water surface such as a river or a pond. Further, when expressing a transmissive film or a reflective film that changes the state of the surface over time, a processing configuration that sets the color information by controlling the direction of the surface as described above may be applied.
・マップデータを利用して制御するパラメータの対象は、向きや座標に限定されることはなく、面の色や面の透明値であってもよい。 The target of the parameter controlled using the map data is not limited to the orientation and coordinates, and may be the surface color or the surface transparency value.
・法線マップデータND1,ND2に含まれる単位法線データUNDの数が、海面用オブジェクトPC19に含まれる面データSDの数よりも少ない構成としてもよい。この場合、一の法線マップデータND1,ND2を海面用オブジェクトPC19における所定数の面データSDに対して適用するとともに、同一の法線マップデータND1,ND2を残りの面データSDに対して再度適用すればよい。 The number of unit normal data UND included in the normal map data ND1, ND2 may be smaller than the number of surface data SD included in the sea surface object PC19. In this case, one normal map data ND1, ND2 is applied to a predetermined number of surface data SD in the sea surface object PC19, and the same normal map data ND1, ND2 is applied again to the remaining surface data SD. Apply.
・法線パラメータの設定処理(図43)にて、ステップS2606の処理、すなわち隣接する面データの調整処理が実行されない構成としてもよい。この場合、緩衝用の面データSD2については、当該面データSD2が有する複数の頂点データのうち、適用対象の面データSD1と共有している頂点データは法線マップデータND1,ND2の適用に伴い変更されるが、共有していない頂点データは第1段階の形態において設定されている座標が維持される。この場合であっても、緩衝用の面データSD2の向きやサイズは、適用対象の面データSD1の向きやサイズの変更に応じて変更されることとなる。 In the normal parameter setting process (FIG. 43), the process of step S2606, that is, the adjustment process of adjacent surface data may not be executed. In this case, for the buffer surface data SD2, the vertex data shared with the surface data SD1 to be applied among the plurality of vertex data included in the surface data SD2 is associated with the application of the normal map data ND1 and ND2. Although the vertex data is changed but not shared, the coordinates set in the first stage form are maintained. Even in this case, the direction and size of the buffer surface data SD2 are changed according to the change in the direction and size of the surface data SD1 to be applied.
・面データSDの向きを直接制御する法線マップデータND1,ND2に代えて、海面用オブジェクトPC19の各頂点データの座標を直接制御するマップデータを用いる構成としてもよい。この場合、当該マップデータを海面用オブジェクトPC19に適用することで、頂点データの座標が変更され、その変更の結果として面データSDの向きが変更されることとなる。本構成であれば、制御対象が面ではなく頂点となるため、法線マップデータND1,ND2を利用していた場合のような適用対象の面データSD1と緩衝用の面データSD2との切り分けを行う必要がなくなる。なお、マップデータにおいて設定される各頂点データの制御量は、第1段階の形態における座標からの変化量であることが好ましい。 Instead of the normal map data ND1 and ND2 that directly control the direction of the surface data SD, map data that directly controls the coordinates of each vertex data of the sea surface object PC19 may be used. In this case, by applying the map data to the sea surface object PC19, the coordinates of the vertex data are changed, and the direction of the surface data SD is changed as a result of the change. In this configuration, since the control target is not a surface but a vertex, the separation between the application target surface data SD1 and the buffer surface data SD2 as in the case of using the normal map data ND1 and ND2 is performed. There is no need to do it. Note that the control amount of each vertex data set in the map data is preferably a change amount from the coordinates in the first stage form.
・海面用オブジェクトPC19が複数の面データ群に区別されている構成は必須ではなく、このような区別がなされていない構成としてもよい。この場合、法線マップデータND1,ND2などを利用して海面用オブジェクトPC19の各面データSDのそれぞれ個別に制御されることとなる。
A configuration in which the sea
・同一の更新タイミングにおいて、面データ群単位での制御を行うことに基づく第1段階の形態の設定と、法線マップデータND1,ND2などを利用した面データSDの向きの個別の制御との両方を行う構成に限定されることはなく、例えば一の更新タイミングにおいて上記第1段階の形態の設定を行い、次以降の更新タイミングにおいて面データSDの向きの個別の制御を行い、さらにそれらを繰り返していく構成としてもよい。この場合、一の更新タイミングにおける処理負荷の軽減が図られる。 The setting of the first stage based on performing the control in units of surface data groups at the same update timing and the individual control of the direction of the surface data SD using the normal map data ND1, ND2, etc. The configuration is not limited to the configuration in which both are performed. For example, the configuration of the first stage is set at one update timing, individual control of the direction of the surface data SD is performed at the next and subsequent update timings, and further, It is good also as a structure to repeat. In this case, the processing load at one update timing can be reduced.
・視点VDからのZ軸方向の距離に応じて色情報を選択する構成に限定されることはなく、X座標、Y座標及びZ座標により定まる視点VDからの距離に応じて色情報を選択する構成としてもよい。また、これに代えて、視点VDからのX軸方向の距離に応じて色情報を選択する構成としてもよく、Y軸方向の距離に応じて色情報を選択する構成としてもよい。また、視点VDからの距離ではなく、対象となるオブジェクトの回転位置やスケールに応じて色情報を選択する構成としてもよい。 -It is not limited to the structure which selects color information according to the distance of the Z-axis direction from the viewpoint VD, Color information is selected according to the distance from the viewpoint VD defined by X coordinate, Y coordinate, and Z coordinate. It is good also as a structure. Alternatively, the color information may be selected according to the distance in the X-axis direction from the viewpoint VD, or the color information may be selected according to the distance in the Y-axis direction. Further, the color information may be selected according to the rotation position and scale of the target object instead of the distance from the viewpoint VD.
<ピント表示を行うための構成>
次に、ピント表示を行うための構成について説明する。
<Configuration for focus display>
Next, a configuration for performing focus display will be described.
ピント表示とは、表示面Gにおいて複数種類の個別画像が、表示面Gの奥行き方向の位置がそれぞれ異なるかのようにして同時に表示される場合において、奥行き方向の所定の位置又は範囲に存在している個別画像にピントが合い、当該個別画像については模様の境界や曲り部分の境界、さらに外縁部分が鮮明に表示されるのに対して、それよりも手前側及び奥側に存在しているかのようにして表示されている個別画像についてはピントがずれていて、模様の境界や曲り部分の境界、さらには外縁部分が不鮮明となってぼかした状態で表示される表示演出のことである。 In focus display, when multiple types of individual images are simultaneously displayed on the display surface G as if the positions in the depth direction of the display surface G are different from each other, they are present at a predetermined position or range in the depth direction. The individual image is in focus, and the boundary of the pattern, the boundary of the curved part, and the outer edge of the individual image are clearly displayed. The individual images displayed as described above are out of focus, and the display effect is displayed in a state where the boundary of the pattern, the boundary of the curved portion, and the outer edge portion are blurred and blurred.
ピント表示は、遊技回中及び開閉実行モード中のうち相対的に画像表示に要する処理負荷が低い開閉実行モード中に実行される。つまり、遊技回中においては、各図柄列SA1〜SA3において予め定められたアニメーションデータに従って図柄の変動表示を行う必要があるのに起因して、表示CPU131のタスク処理(図14)ではステップS903〜ステップS905の処理が少なくとも実行される。その一方、開閉実行モード中においては、各図柄列SA1〜SA3において図柄の変動表示を行う必要がないため、表示CPU131のタスク処理(図14)ではステップS903及びステップS904は実行されるが、ステップS905は実行されない。この分だけ、開閉実行モード中においては表示CPU131の処理負荷が軽減されているため、その軽減されている分を利用して、ピント表示用の制御が実行される。
The focus display is executed during the opening / closing execution mode during game play and during the opening / closing execution mode, which has a relatively low processing load for image display. In other words, during game play, the
図48は、表示CPU131にて実行される開閉実行モード時の演出用演算処理を示すフローチャートである。開閉実行モード時の演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、開閉実行モード時の演出用演算処理は、開閉実行モードに対応したデータテーブルが設定されている場合に起動される。
FIG. 48 is a flowchart showing the effect calculation processing in the opening / closing execution mode executed by the
先ずステップS2901では、現状設定されているデータテーブルに基づいて、今回の更新対象となる演出用のオブジェクトを把握する。ちなみに、ステップS2901の処理の実行タイミングでは、上記演出用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2902では、その把握した演出用のオブジェクトの各種パラメータを演算して制御用の情報を更新する。 First, in step S2901, an effect object to be updated this time is grasped based on the currently set data table. Incidentally, at the execution timing of the process of step S2901, the setting process for starting control (step S901) for the effect object is completed. In subsequent step S2902, the control information is updated by calculating various parameters of the grasped object for presentation.
続くステップS2903では、現状設定されているデータテーブルに基づいて、今回の更新対象となる教示用のオブジェクトを把握する。教示用のオブジェクトとは、遊技の状況を遊技者に教示可能とする画像を表示する場合に利用されるオブジェクトのことであり、例えばラウンド中であれば、現状のラウンドが何番目のラウンドであるかといった内容が教示用のオブジェクトを用いて教示される(図52参照)。また、開閉実行モードへの移行の契機となった遊技回において有効ライン上に最終停止表示された図柄の組合せの種類の情報が教示用のオブジェクトを用いて教示される(図52参照)。ちなみに、ステップS2903の処理の実行タイミングでは、上記教示用のオブジェクトに対する制御開始用の設定処理(ステップS901)は完了している。続くステップS2904では、その把握したオブジェクトの各種パラメータを演算して制御用の情報を更新する。 In the subsequent step S2903, the teaching object to be updated this time is grasped based on the currently set data table. The teaching object is an object that is used when displaying an image that allows the player to teach the game status to the player. For example, if a round is in progress, the current round is the number of the round. Such contents are taught using a teaching object (see FIG. 52). In addition, information on the combination type of symbols that are finally stopped and displayed on the active line in the game times that trigger the transition to the opening / closing execution mode is taught using the teaching object (see FIG. 52). Incidentally, at the execution timing of the processing of step S2903, the setting processing for starting control (step S901) for the teaching object is completed. In a succeeding step S2904, various parameters of the grasped object are calculated and the control information is updated.
続くステップS2905では、現状設定されているデータテーブルに基づいて、開閉実行モードにおけるピント演出期間であるか否かを判定する。ピント演出期間は、遊技者による演出用操作装置48の操作に基づきピント表示を行うことが可能な期間のことである。本パチンコ機10では、開閉実行モードの一部の期間としてピント演出期間が設定されており、具体的には第1ラウンド目といった所定のラウンド(すなわち可変入賞装置22への入賞が可能となる期間)にピント演出期間が設定されている。但し、これに限定されることはなく、複数のラウンドに対してピント演出期間が設定されていてもよく、オープニングやエンディングにおいてピント演出期間が設定されていてもよく、ラウンド間にピント演出期間が設定されていてもよく、所定のラウンドとその次のラウンドに亘ってピント演出期間が設定されていてもよく、開閉実行モードの全体がラウンド演出期間として設定されていてもよい。
In the subsequent step S2905, it is determined whether or not it is the focus effect period in the opening / closing execution mode based on the currently set data table. The focus effect period is a period during which a focus display can be performed based on the operation of the
ピント演出期間ではない場合(ステップS2905:NO)には、そのまま本演出用演算処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。 If it is not the focus effect period (step S2905: NO), the effect effect calculation process is terminated. When the effect calculation process in the opening / closing execution mode is executed as described above, the drawing list created in the subsequent drawing list output process includes an instruction to use the effect object obtained in step S2901. Information is set together with information on texture use instructions corresponding to these objects. In addition, the parameter calculated in step S2902 is set in the drawing list, and further, information on the instruction to use the teaching object grasped in step S2903 is set, and in step S2904 The calculated parameter is set.
ピント演出期間である場合(ステップS2905:YES)には、ステップS2906にて、ピント選択期間であるか否かを判定する。ピント演出期間には、その開始タイミングから300フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って遊技者によってピントを選択可能とするピント選択期間が設定されている。当該ピント選択期間にて遊技者によるピント選択指示が演出用操作装置48の操作に基づきなされた場合に、ピント表示実行期間が行われるように設定されている。このピンと表示実行期間は、実行対象となっているラウンドの終了まで行われる。ピント選択期間にてピント選択の対象となる個別画像は、その後に続くピント表示実行期間においても表示が継続されるため、ピント選択期間におけるピント選択の結果を反映したピント表示を実行することが可能となる。
If it is the focus production period (step S2905: YES), it is determined in step S2906 whether it is the focus selection period. In the focus effect period, a focus selection period in which the player can select a focus over a predetermined number of frames (a predetermined plurality of image update timings) such as 300 frames from the start timing is set. The focus display execution period is set to be performed when the player selects a focus selection instruction during the focus selection period based on the operation of the
なお、ピント表示実行期間は、少なくとも500フレームといった所定の複数のフレーム数(所定の複数の画像更新タイミング)に亘って実行される。また、所定のラウンドがピント選択期間として設定されており、それ以降のラウンドがピント表示実行期間として設定されている構成としてもよい。 The focus display execution period is executed over a predetermined plurality of frames (a predetermined plurality of image update timings) such as at least 500 frames. Also, a predetermined round may be set as the focus selection period, and the subsequent rounds may be set as the focus display execution period.
ピント選択期間である場合(ステップS2906:YES)には、ステップS2907にて、ピント選択用のパラメータ調整処理を実行するとともに、ステップS2908にて、ピント選択の実行指定情報を記憶した後に、本演出用演算処理を終了する。 If it is the focus selection period (step S2906: YES), the focus adjustment parameter adjustment processing is executed in step S2907, and the focus selection execution designation information is stored in step S2908. Operation processing is terminated.
上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2901にて把握された演出用のオブジェクトのパラメータとして、ピント選択用のパラメータが設定されるとともに、ピント選択の実行指定情報が設定される。 When the effect calculation processing in the opening / closing execution mode is executed as described above, the drawing list created in the subsequent drawing list output processing includes an instruction to use the effect object grasped in step S2901. Is set together with information on the instruction to use the texture corresponding to these objects. In addition, the parameter calculated in step S2902 is set in the drawing list, and further, information on the instruction to use the teaching object grasped in step S2903 is set, and in step S2904 The calculated parameter is set. Further, in the drawing list, a focus selection parameter is set as the parameter of the effect object grasped in step S2901, and execution selection information for focus selection is set.
ここで、ピント選択期間においては、表示面Gにてピント選択を可能とする個別画像が除々に切り換えられていると遊技者が認識可能な表示が行われる。例えば、複数の個別画像が表示面Gの奥行き方向にずれて配置されているかのように同時に表示されている状態において、それら複数の個別画像が順次、ピント選択可能状態へと遷移される。このピント選択可能状態とする方法は任意であるが、例えば個別画像の周縁を囲むようにして環状部を表示させるとともに、その環状部を点滅表示させる構成や、個別画像を拡大表示させる構成や、個別画像を拡大させた後に縮小表示させる構成や、個別画像を指し示す別画像を表示させる構成が考えられる。このようなピント選択可能状態の表示は、ピント選択の実行指定情報が設定された描画リストが出力されている状況において、VDP135にて上記ピント選択用のパラメータが参照されることで実行される。
Here, in the focus selection period, a display that allows the player to recognize that individual images that enable focus selection on the display surface G are gradually switched. For example, in a state where a plurality of individual images are displayed at the same time as if they are arranged shifted in the depth direction of the display surface G, the plurality of individual images are sequentially shifted to a focus selectable state. Any method can be used to select the focus selectable state. For example, the annular portion is displayed so as to surround the periphery of the individual image, and the annular portion is blinked, the individual image is enlarged, or the individual image is displayed. A configuration in which an image is enlarged and then reduced and a separate image indicating an individual image is displayed. Such a focus selectable state display is executed by referring to the focus selection parameter in the
なお、本パチンコ機10においては、ピント選択が可能となる個別画像は背景の手前にて表示される演出用の個別画像であるが、背景の画像が含まれていてもよい。
In the
一方、ピント選択期間ではない場合(ステップS2906:NO)には、ステップS2909に進む。ステップS2909では、ピント表示の実行中であるか否かを判定する。ピント表示の実行中ではない場合には、ステップS2910にて、音声発光制御装置60からピント指示コマンドを受信しているか否かを判定する。ピント指示コマンドは、ピント選択期間にて遊技者によるピント選択指示がなされた場合において、当該ピント選択期間の終了タイミングにて音声発光制御装置60から送信されるコマンドであり、当該ピント指示コマンドにはピント選択指示された個別画像の情報が含まれる。
On the other hand, if it is not the focus selection period (step S2906: NO), the process proceeds to step S2909. In step S2909, it is determined whether focus display is being executed. If focus display is not being executed, it is determined in step S2910 whether or not a focus instruction command has been received from the sound
ステップS2910にて否定判定をした場合には、そのまま本処理を終了する。このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、上記ステップS2905にて否定判定をして本演出用演算処理を終了した場合と同様の情報が設定される。 If a negative determination is made in step S2910, the present process ends. When the effect calculation process in the opening / closing execution mode is executed as described above, the drawing list created in the subsequent drawing list output process makes a negative determination in step S2905 and ends the effect calculation process. The same information as that in the case of the above is set.
ステップS2910にて肯定判定をした場合には、ステップS2911にてピント範囲の算出処理を実行する。ピント範囲の算出処理では、ピント指示コマンドに含まれているピント選択指示対象の個別画像の情報からピントを合わせる範囲を算出する処理を実行する。この場合、ピント演出期間にて表示される個別画像の種類は、パチンコ機10の設計段階において既に定められているため、ピント選択対象となる個別画像に1対1で対応させてピント範囲のデータがピント範囲テーブルとして予め定められている。したがって、ステップS2911では、先ずメモリモジュール133からピント範囲テーブルを読み出し、上記ピント選択指示対象となった個別画像に対応したピント範囲のデータを読み出す。その後、ステップS2912にて、ピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。
If an affirmative determination is made in step S2910, a focus range calculation process is executed in step S2911. In the focus range calculation process, a process for calculating a focus range is performed from the information of the individual image that is the focus selection instruction target included in the focus instruction command. In this case, since the type of the individual image displayed in the focus production period is already determined at the design stage of the
上記のように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、上記ステップS2911にて算出したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が記憶される。 When the effect calculation processing in the opening / closing execution mode is executed as described above, the drawing list created in the subsequent drawing list output processing includes an instruction to use the effect object grasped in step S2901. Is set together with information on the instruction to use the texture corresponding to these objects. In addition, the parameter calculated in step S2902 is set in the drawing list, and further, information on the instruction to use the teaching object grasped in step S2903 is set, and in step S2904 The calculated parameter is set. In addition, in the drawing list, the focus range data calculated in step S2911 is set, and the focus production execution designation information is stored.
ステップS2910にて肯定判定をした場合には、ピント表示の実行状態となる。このピント表示の実行状態への設定は、例えばデータテーブルにおいてピント表示の実行状態か否かを区別するためのフラグに「1」をセットすることなどによって行われる。ピント表示の実行状態となった場合には、ステップS2909にて肯定判定をし、ステップS2912にてピント演出の実行指定情報を記憶した後に、本演出用演算処理を終了する。 If an affirmative determination is made in step S2910, the focus display execution state is entered. The setting to the execution state of the focus display is performed, for example, by setting “1” in a flag for distinguishing whether or not the focus display is in the execution state in the data table. If the focus display execution state is set, an affirmative determination is made in step S2909, and after the focus production execution designation information is stored in step S2912, the effect production calculation process ends.
このように開閉実行モード時の演出用演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、上記ステップS2901にて把握された演出用のオブジェクトの使用指示の情報が、それらオブジェクトに対応したテクスチャの使用指示の情報とともに設定される。また、当該描画リストには、上記ステップS2902にて算出したパラメータが設定され、さらには上記ステップS2903にて把握された教示用のオブジェクトの使用指示の情報が設定されるとともに、上記ステップS2904にて算出したパラメータが設定される。また、当該描画リストには、今回のピント演出に対応したピント範囲のデータが設定されるとともに、ピント演出の実行指定情報が設定される。 When the effect calculation process in the opening / closing execution mode is executed as described above, the drawing list created in the subsequent drawing list output process includes an instruction to use the effect object obtained in step S2901. Information is set together with information on texture use instructions corresponding to these objects. In addition, the parameter calculated in step S2902 is set in the drawing list, and further, information on the instruction to use the teaching object grasped in step S2903 is set, and in step S2904 The calculated parameter is set. In addition, in the drawing list, focus range data corresponding to the current focus effect is set, and execution specification information for the focus effect is set.
VDP135では、表示CPU131から送信される描画リストに基づいて、ピント選択期間用の画像表示を行うとともに、ピント表示実行期間用の画像表示を行う。この場合、ピント選択期間用の画像表示については、ピント選択用のパラメータを参照しながら描画処理(図16)を実行することに基づき、既に説明したようなピント選択可能状態となる個別画像が順次切り換わるような画像表示が行われる。一方、ピント表示実行期間用の画像表示は、3次元画像データの状態から2次元画像データの状態に移行させる処理が実行された後に、ピントを調整するための処理が実行されることにより行われる。
In the
以下、VDP135においてピントを調整するための具体的な構成について説明する。図49(a)は、VDP135においてピントを調整する上で用いられるVRAM134の各エリアを説明するための説明図である。
Hereinafter, a specific configuration for adjusting the focus in the
図49(a)に示すように、VRAM134には、第1フレーム領域142a及び第2フレーム領域142bを有するフレームバッファ142と、Zバッファ143とが設けられている。これら各バッファ142,143については既に説明したとおりであり、フレームバッファ142の各フレーム領域142a,142bには、図柄表示装置31への描画を実行する際に参照される2次元データである描画データが作成され、Zバッファ143は、隠面処理(図18)を実行する際にZ軸方向の座標データを一時的に記憶するために利用される。
As shown in FIG. 49A, the
VRAM134には、上記各バッファ142,143以外にも、VDP135においてピントを調整するためのエリアとして、ぼかし用バッファ181が設けられている。ぼかし用バッファ181は、フレーム領域142a,142bと同一数の単位エリアを有している。つまり、各フレーム領域142a,142bは相互に同一数の単位エリアを有しており、それと同一の数の単位エリアを、ぼかし用バッファ181は有している。ぼかし用バッファ181は、一のフレーム領域に作成されている描画リストをそのままの状態で一時記憶することが可能となっている。
In addition to the
なお、描画リストをそのままの状態で一時記憶させることができるのであれば、ぼかし用バッファ181における単位エリアの数は、一のフレーム領域が有する単位エリアの数よりも多くてもよい。 If the drawing list can be temporarily stored as it is, the number of unit areas in the blurring buffer 181 may be larger than the number of unit areas included in one frame region.
VDP135においてピントを調整するための処理は、描画処理(図16)におけるステップS1012の描画データ合成処理にて実行される。図49(b)は、描画データ合成処理を示すフローチャートである。
The process for adjusting the focus in the
描画データ合成処理では、先ずステップS3001にて、今回の描画リストにおいてピント演出の実行指定情報が設定されているか否かを判定する。設定されていない場合には、ステップS3002に進む。 In the drawing data composition process, first, in step S3001, it is determined whether or not execution designation information for focus effect is set in the current drawing list. If not set, the process proceeds to step S3002.
ステップS3002では、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。その後、ステップS3003にて、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込んだ後に、本合成処理を終了する。
In step S3002, the background drawing data already created in step S1010 and stored in the
この場合においてα値を参照しながら演出及び図柄用の描画データが書き込まれることは、既に説明したとおりである。また、開閉実行モードにおいては、演出及び図柄用の描画データにおいて図柄は存在しておらず、演出用の個別画像に対応したデータのみが存在している。さらにまた、開閉実行モードにおいては、演出及び図柄用の描画データに、教示用のオブジェクトに対して教示用のテクスチャを貼り付けることに基づき作成された教示用の個別画像のデータが含まれており、当該教示用の個別画像のデータに対しては他の個別画像のデータが手前側から重なることがないように演出及び図柄用の描画データが作成されている。 In this case, drawing data for effects and symbols is written with reference to the α value, as already described. Further, in the opening / closing execution mode, there is no symbol in the rendering data for effects and symbols, and only data corresponding to the individual images for effects exists. Furthermore, in the opening / closing execution mode, data for individual images for teaching created based on pasting a texture for teaching to a teaching object is included in rendering data for effects and symbols. For the individual image data for teaching, rendering data for effects and symbols is created so that the data of other individual images do not overlap from the front side.
一方、今回の描画リストにおいてピント演出の実行指定情報が設定されている場合には、ステップS3004に進む。ステップS3004では、上記ステップS3002と同様に、直前のステップS1010において既に作成されてスクリーン用バッファ144に記憶されている背景用の描画データを、今回の描画対象のフレーム領域142a,142bに書き込む。続くステップS3005では、上記ステップS3003と同様に、直前のステップS1011において既に作成されてスクリーン用バッファ144に記憶されている演出及び図柄用の描画データを、上記のように背景用の描画データが書き込まれたフレーム領域142a,142bに書き込む。その後、ステップS3006にて、ピント演出用の調整処理を実行した後に、本合成処理を終了する。
On the other hand, if focus execution execution designation information is set in the current drawing list, the process advances to step S3004. In step S3004, as in step S3002, the background drawing data already created in step S1010 and stored in the
図50(a)はピント演出用の調整処理を示すフローチャートである。 FIG. 50A is a flowchart showing adjustment processing for focus production.
ピント演出用の調整処理では、先ずステップS3101〜ステップS3107にて、ピント演出を実行するために参照するぼかしマップデータを作成するためのぼかしマップ作成処理を実行する。ぼかしマップデータは、2次元画像データである描画データにおいて、当該描画データが作成されているフレーム領域142a,142bの各単位エリアに設定された色情報が、3次元画像データの状況にてどのようなZ軸方向の座標を有していたのかをVDP135にて特定するためのマップデータである。つまり、フレーム領域142a,142bの各単位エリアに1対1で対応させてZ軸方向の座標データが設定されたデータである。
In the adjustment process for the focus effect, first, in steps S3101 to S3107, a blur map creation process for creating blur map data to be referred to for executing the focus effect is executed. In the blur map data, in the drawing data which is two-dimensional image data, the color information set in each unit area of the frame regions 142a and 142b in which the drawing data is created is changed in the state of the three-dimensional image data. This is map data for specifying in the
ここで、既に説明したとおり、背景用の描画データや演出及び図柄用の描画データは、描画処理(図16)にて、ワールド座標系に対して各オブジェクトを設定し(ステップS1002〜ステップS1004)、カメラ座標系への変換処理(ステップS1005)を経て、視野座標系への変換処理(ステップS1006)を実行し、さらにその状態で、クリッピング処理(ステップS1007)、ライティング処理(ステップS1008)及び色情報の設定処理(ステップS1009)を実行した後に、作成する。この場合において、各描画データは、フレーム領域142a,142bに対して作成されるものであるため、当該描画データの作成に際して、上記のように視野座標系にて色情報の設定処理が行われたデータの状態は維持されており、描画データの作成後においても新たな描画処理が起動されるまでは維持される。そして、この視野座標系にて色情報の設定処理が行われた状態のデータを利用して、ぼかしマップデータが作成される。 Here, as already described, the drawing data for the background and the drawing data for effects and symbols are set for each object in the world coordinate system in the drawing process (FIG. 16) (steps S1002 to S1004). Then, through the conversion process to the camera coordinate system (step S1005), the conversion process to the visual field coordinate system (step S1006) is executed, and in that state, the clipping process (step S1007), the lighting process (step S1008), and the color It is created after the information setting process (step S1009) is executed. In this case, since each drawing data is created for the frame regions 142a and 142b, color information setting processing is performed in the visual field coordinate system as described above when creating the drawing data. The data state is maintained, and is maintained until a new drawing process is started even after drawing data is created. Then, blur map data is created using data in a state where color information setting processing is performed in this visual field coordinate system.
ぼかしマップ作成処理では、Zバッファ143を利用して、隠面処理(図18)と同様の処理を実行することに基づき、ぼかしマップデータを作成する。但し、隠面処理(図18)では、背景用の画像データのみを処理対象として背景用の描画データを作成し、演出及び図柄用の描画データのみを処理対象として演出及び図柄用の描画データを作成する構成であったが、ぼかしマップ作成処理では、このような区別を行うことなく、視野座標系においてクリッピングされた全ての画像データをまとめて処理対象として扱う。
In the blur map creation process, blur map data is created based on performing the same process as the hidden surface process (FIG. 18) using the
ぼかしマップ作成処理について具体的には、先ずステップS3101にて、スクリーン領域PC12(図17を参照)における今回の投影対象ドットを基準として、そのZ軸上に含まれる個別画像であって、今回のテスト対象となった個別画像の対象ピクセルに設定されているZ値を把握する。続くステップS3102では、Zバッファ143において上記描画対象ドットと1対1で対応したドットのエリアに設定されているZ値を把握する。
Specifically, in the blur map creation process, first, in step S3101, an individual image included on the Z axis on the basis of the current projection target dot in the screen area PC 12 (see FIG. 17) The Z value set for the target pixel of the individual image to be tested is grasped. In the subsequent step S3102, the Z value set in the dot area corresponding to the drawing target dot on the one-to-one basis in the
続くステップS3103では、ステップS3101にて把握した個別画像のZ値が、ステップS3102にて把握したZバッファ143のZ値よりもZ軸方向の手前側に対応しているか否かを判定する。手前側に対応している場合には、ステップS3104に進み、ステップS3101にて把握したZ値を、Zバッファ143におけるステップS3102にて参照したドットのエリアに上書きする。その後にステップS3105に進む。
In the following step S3103, it is determined whether or not the Z value of the individual image grasped in step S3101 corresponds to the near side in the Z-axis direction with respect to the Z value of the
一方、ステップS3103にて、手前側に対応していないと判定した場合には、ステップS3104の処理を実行することなく、ステップS3105に進む。つまり、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値と同一又はZ軸方向の奥側である場合にはZバッファ143の更新は行われない。一方、テスト対象となったピクセルのZ値が、既にZバッファ143の対象ドットに設定されているZ値よりもZ軸方向の手前側である場合には、Zバッファ143の更新が行われる。
On the other hand, if it is determined in step S3103 that it does not correspond to the near side, the process proceeds to step S3105 without executing the process in step S3104. In other words, when the Z value of the pixel to be tested is the same as the Z value already set for the target dot in the
ステップS3105では、投影対象ドットを基準としたZ軸上に含まれる全ての対象ピクセルに対して、Zテストが完了したか否かを判定する。完了していない場合には、ステップS3101に戻り、新たな対象ピクセルに対してZテストを行う。 In step S3105, it is determined whether or not the Z test has been completed for all target pixels included on the Z axis with respect to the projection target dot. If not completed, the process returns to step S3101 to perform a Z test on the new target pixel.
完了している場合には、ステップS3106にて、スクリーン領域PC12の全てのドットに対してZテストが完了しているか否かを判定する。完了していない場合には、ステップS3107にて、投影対象ドットを更新した後にステップS3101に戻り、新たな投影対象ドットに対してZテストを行う。完了している場合には、ぼかしマップデータの作成が完了したことを意味するため、ステップS3108に進む。 If completed, it is determined in step S3106 whether or not the Z test has been completed for all dots in the screen area PC12. If not completed, the projection target dot is updated in step S3107, and the process returns to step S3101 to perform a Z test on the new projection target dot. If completed, it means that the creation of the blur map data has been completed, and the process advances to step S3108.
上記のようにぼかしマップデータが作成されることにより、合成描画データの各単位エリアに対応した色情報がZ軸方向においてどのような座標を有するものであるか否かをVDP135にて特定することが可能となる。よって、各単位エリアに対応した色情報について、奥行き方向の相対的な位置関係をVDP135にて特定することが可能となる。
By creating the blur map data as described above, the
ピント演出用の調整処理では、ステップS3101〜ステップS3107にて、ぼかしマップデータを作成した後に、ステップS3108に進む。 In the adjustment process for the focus effect, the process proceeds to step S3108 after the blur map data is created in steps S3101 to S3107.
ステップS3108では、描画データ合成処理(図49(b))におけるステップS3004及びステップS3005の処理により、描画対象のフレーム領域142a,142bに作成された合成描画データを、ぼかし用バッファ181に保存する。続くステップS3109では今回の描画リストにおいて設定されているピント範囲のデータを読み出す。 In step S3108, the combined drawing data created in the drawing target frame regions 142a and 142b by the processing in steps S3004 and S3005 in the drawing data combining process (FIG. 49B) is stored in the blurring buffer 181. In subsequent step S3109, the data of the focus range set in the current drawing list is read out.
その後、ステップS3110〜ステップS3117にて、その読み出したピント範囲のデータに基づいて、ぼかし処理を実行する。当該ぼかし処理では、今回の描画対象のフレーム領域142a,142bにおける単位エリアについて、ぼかし処理の実行対象であるか否かの判定処理を実行するとともに、実行対象であると判定した単位エリアに対して、ぼかしを生じさせる処理を実行し、さらにこれらの処理を今回の描画対象のフレーム領域142a,142bに含まれる全ての単位エリアに対して実行する。 Thereafter, in step S3110 to step S3117, the blurring process is executed based on the read focus range data. In the blurring process, a determination process for determining whether or not the unit areas in the frame areas 142a and 142b to be drawn this time are the execution target of the blurring process is performed, and the unit area determined to be the execution target is executed. , Processing for causing blurring is executed, and further, these processing are executed for all the unit areas included in the frame regions 142a and 142b to be drawn this time.
ここで、Z軸方向の座標データがピント範囲に対応している単位エリアに対しては、ぼかしを生じさせる処理は実行れないが、当該ピント範囲はZ軸方向の単一の座標データに対応しているのではなく、図50(b)に示すように、Z軸方向に連続する複数の座標データに対応している。つまり、ピント範囲は、ある程度の被写界深度を有するように設定されており、表示面Gに表示される画像をぼかし過ぎないようにされている。ピント範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように設定されていることが好ましい。 Here, for the unit area whose coordinate data in the Z-axis direction corresponds to the focus range, the blurring process is not executed, but the focus range corresponds to a single coordinate data in the Z-axis direction. Instead, it corresponds to a plurality of coordinate data continuous in the Z-axis direction as shown in FIG. That is, the focus range is set to have a certain depth of field so that the image displayed on the display surface G is not excessively blurred. Specifically, the focus range is arbitrary, but in the state of the three-dimensional image data, it is set to be a range that can include the entire individual image for one effect having a predetermined thickness in the Z-axis direction. It is preferable.
Z軸方向の座標データがピント範囲から外れている単位エリアについては、ピント範囲から遠い距離に存在するものほど、ぼかしの度合いが大きくなるように設定されている。具体的には、図50(b)に示すように、ピント範囲から遠ざかるに従って段階的にぼかしの度合いが大きくなるように、第1ぼかし範囲と、第2ぼかし範囲と、第3ぼかし範囲とが設定されている。 The unit area in which the coordinate data in the Z-axis direction is out of the focus range is set so that the degree of blurring increases as the distance from the focus range increases. Specifically, as shown in FIG. 50B, the first blur range, the second blur range, and the third blur range are set so that the degree of blur increases stepwise as the distance from the focus range increases. Is set.
第1ぼかし範囲はピント範囲から連続するようにして設定されており、Z軸方向においてピント範囲から遠ざかる側に連続する複数の座標データに対応している。第1ぼかし範囲は、ピント範囲の奥側及び手前側の両方に存在する。また、第2ぼかし範囲は第1ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲及び第1ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第2ぼかし範囲は、奥側の第1ぼかし範囲のさらなる奥側及び手前側の第1ぼかし範囲のさらなる手前側の両方に存在する。また、第3ぼかし範囲は第2ぼかし範囲から連続するようにして設定されており、Z軸方向においてピント範囲、第1ぼかし範囲及び第2ぼかし範囲から遠ざかる側に連続する複数の座標データに対応している。第3ぼかし範囲は、奥側の第2ぼかし範囲のさらなる奥側及び手前側の第2ぼかし範囲のさらなる手前側の両方に存在する。 The first blur range is set so as to be continuous from the focus range, and corresponds to a plurality of coordinate data continuous on the side away from the focus range in the Z-axis direction. The first blur range exists on both the back side and the near side of the focus range. The second blur range is set so as to be continuous from the first blur range, and corresponds to a plurality of coordinate data that are continuous on the side away from the focus range and the first blur range in the Z-axis direction. The second blur range exists both on the further back side of the first blur range on the back side and on the further front side of the first blur range on the near side. The third blur range is set so as to be continuous from the second blur range, and corresponds to a plurality of coordinate data continuous in the Z-axis direction and away from the focus range, the first blur range, and the second blur range. doing. The third blur range exists both on the further back side of the second blur range on the back side and on the further front side of the second blur range on the near side.
第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲は具体的には任意であるが、3次元画像データの状態においてZ軸方向に所定の厚みを有する一の演出用の個別画像の全体を含めることが可能な範囲となるように、それぞれ設定されていることが好ましい。この場合、第1ぼかし範囲、第2ぼかし範囲、及び第3ぼかし範囲に含まれるZ軸方向の座標データの数は相互に同一であり且つその座標データの数はピント範囲と同一であるが、ピント範囲とは異なっていてもよく、相互に異なっていてもよい。例えばピント範囲から遠いぼかし範囲ほど含まれるZ軸方向の座標データの数が多くなる構成としてもよい。 Specifically, the first blur range, the second blur range, and the third blur range are arbitrary, but in the state of the three-dimensional image data, the entire individual image for rendering having a predetermined thickness in the Z-axis direction It is preferable that each is set so as to be in a range in which can be included. In this case, the number of coordinate data in the Z-axis direction included in the first blur range, the second blur range, and the third blur range is the same and the number of coordinate data is the same as the focus range. It may be different from the focus range or different from each other. For example, a configuration in which the number of coordinate data in the Z-axis direction included in the blur range farther from the focus range may be increased.
ピント範囲は、既に説明したとおり、遊技者の演出用操作装置48の操作に基づき変更されるものであるため、メモリモジュール133に予め記憶されているピント範囲用のデータは、当該ピント範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、遊技者による演出用操作装置48の操作に基づき、そのピント範囲を設定する上で基準となるZ軸方向の座標が決定され、その座標を基準として、ピント範囲用のデータに含まれるZ軸方向の座標データの数が実際の座標データの範囲として変換されることで、ピント範囲が設定される。この場合、ピント範囲を設定する上で基準となるZ軸方向の座標は、ピント範囲の最も手前側の座標又は最も奥側の座標として設定しておくことが好ましい。最も手前側の座標として設定しておくことで、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に加算するだけで、ピント範囲を設定することが可能となる。また、最も奥側の座標として設定した場合であっても、その基準となった座標に対して、ピント範囲用のデータに設定されている座標データの数を単純に減算するだけで、ピント範囲を設定することが可能となる。
As described above, since the focus range is changed based on the operation of the player's operation device for
同様に、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲についても、メモリモジュール133に予め記憶されている各ぼかし範囲用のデータは、当該ぼかし範囲に含まれることとなるZ軸方向に連続する座標データの数のデータとして設定されている。そして、上記のように決定されたピント範囲に基づき、各ぼかし範囲の基準となる座標が決定され、その基準となる座標に対して各ぼかし範囲用のデータを適用することにより、各ぼかし範囲を設定することが可能となる。
Similarly, for the first blur range, the second blur range, and the third blur range, the data for each blur range stored in advance in the
上記のとおりピント範囲の手前側及び奥側のそれぞれに対して、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲を設定可能な構成であるが、既に説明したとおりピント範囲は遊技者の演出用操作装置48の操作に基づき決定される。そうすると、ピント範囲が最も手前側に存在する演出用の個別画像に対応させて設定されることがある。この場合には、各ぼかし範囲は、ピント範囲に対して奥側にのみ設定されることとなる。
As described above, the first blur range, the second blur range, and the third blur range can be set for each of the near side and the far side of the focus range. As described above, the focus range is determined by the player. It is determined based on the operation of the
図50(a)の説明に戻り、ぼかし処理では、先ずステップS3110にて、今回の単位エリアに対応したZ軸方向の座標データを、ステップS3101〜ステップS3107にて作成したぼかしマップデータから読み出す。続くステップS3111では、ステップS3110にて読み出したZ軸方向の座標データが、ステップS3109にて読み出したピント範囲内に含まれるか否かを判定する。ピント範囲内に含まれている場合には、その単位エリアに対しては、ぼかしを生じさせる処理を実行する必要がないため、ステップS3112〜ステップS3115の処理を実行することなくステップS3116に進む。 Returning to the description of FIG. 50A, in the blurring process, first, in step S3110, coordinate data in the Z-axis direction corresponding to the current unit area is read from the blur map data created in steps S3101 to S3107. In subsequent step S3111, it is determined whether or not the coordinate data in the Z-axis direction read in step S3110 is included in the focus range read in step S3109. If it is included in the focus range, it is not necessary to execute the process of causing blur for the unit area, and the process proceeds to step S3116 without executing the processes of steps S3112 to S3115.
ピント範囲内に含まれていない場合には、ステップS3112にて、今回の単位エリアが教示用の個別画像を表示するための教示用エリアに対応しているか否かを判定する。教示用の個別画像は、既に説明した教示用のオブジェクトを利用して表示される画像のことである。教示用エリアに対応している場合には、ステップS3113〜ステップS3115の処理を実行することなくステップS3116に進む。つまり、教示用の個別画像に対しては、ぼかしを生じさせる処理は実行されない。これにより、ピント演出を行う場合であっても、教示用の個別画像を利用した情報の教示を好適に行うことが可能となる。 If it is not included in the focus range, it is determined in step S3112 whether or not the current unit area corresponds to a teaching area for displaying a teaching individual image. The individual image for teaching is an image displayed using the teaching object already described. If it corresponds to the teaching area, the process proceeds to step S3116 without executing the processes of steps S3113 to S3115. That is, the process for causing the blur is not performed on the individual images for teaching. Thus, even when a focus effect is performed, it is possible to suitably teach information using a teaching individual image.
ちなみに、教示用の個別画像が表示される位置は、遊技者による演出用操作装置48の操作態様に関係なく不変であるため、教示用エリアに含まれる単位エリアのアドレスは事前に定められており、そのデータはメモリモジュール133に予め記憶されている。
By the way, the position where the individual image for teaching is displayed is unchanged regardless of the operation mode of the
ステップS3112にて否定判定をした場合には、ステップS3113に進む。ステップS3113では、ぼかし範囲の決定処理を実行する。具体的には、ステップS3110にて読み出したZ軸方向の座標データが、第1ぼかし範囲、第2ぼかし範囲及び第3ぼかし範囲のいずれに含まれているのかを判定し、ぼかしを生じさせる上で対象となるぼかし範囲を決定する。その後、ステップS3114にて、ぼかし発生処理を実行する。 If a negative determination is made in step S3112, the process proceeds to step S3113. In step S3113, blurring area determination processing is executed. Specifically, it is determined whether the coordinate data in the Z-axis direction read in step S3110 is included in the first blur range, the second blur range, or the third blur range, and blur is generated. To determine the target blur range. Thereafter, blur generation processing is executed in step S3114.
ぼかし発生処理について、図51(a)のフローチャートを参照しながら説明する。 The blur generation process will be described with reference to the flowchart of FIG.
先ずステップS3201では、上記ステップS3113にて第1ぼかし範囲が決定されたか否かを判定する。第1ぼかし範囲が決定されている場合には、ステップS3202にて、今回の単位エリアを基準として、X軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、今回の描画対象となっているフレーム領域142a,142bからではなく、ぼかし用バッファ181から行う。また、ステップS3202では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。 First, in step S3201, it is determined whether or not the first blurring range is determined in step S3113. If the first blur range is determined, in step S3202, the first predetermined number of unit areas are specified in each of the X-axis directions with reference to the current unit area, and the color from each of these unit areas is determined. Extract information. This extraction is performed from the blurring buffer 181 instead of from the frame regions 142a and 142b to be drawn this time. In step S3202, the color information set in the current unit area is also extracted. This extraction is also performed from the blurring buffer 181.
続くステップS3203では、X軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのX軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。 In the subsequent step S3203, blurring generation processing in the X-axis direction is executed. In the blur generation process, blurring is generated using a Gaussian filter. In other words, with the unit area that is the subject of this time as the center, weighting according to the distance in the X-axis direction from the unit area that is the center is determined using a Gaussian function for each of the extracted unit areas. Then, in a state where the determined weighting is applied, the color information of the central unit area and the color information of the extracted unit area are blended. The color information of the blend result is temporarily stored in the register 153.
続くステップS3204では、今回の単位エリアを基準として、Y軸方向のそれぞれに第1所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3204では、今回の単位エリアに設定されている色情報の抽出も行うが、この抽出もぼかし用バッファ181から行う。 In the subsequent step S3204, a first predetermined number of unit areas are specified in each of the Y-axis directions with reference to the current unit area, and color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. In step S 3204, the color information set in the current unit area is also extracted. This extraction is also performed from the blurring buffer 181.
続くステップS3205では、Y軸方向のぼかし発生処理を実行する。当該ぼかし発生処理では、ガウスフィルタを利用してぼかしを生じさせる。つまり、今回の対象となっている単位エリアを中心として、当該中心とした単位エリアからのY軸方向の距離に応じた重み付けを、上記抽出した各単位エリアに対してガウス関数を利用して決定し、その決定した重み付けを適用した状態で、上記中心とした単位エリアの色情報、及び上記抽出した単位エリアの色情報のブレンドを行う。このブレンド結果の色情報は、レジスタ153に一時記憶される。 In the subsequent step S3205, a blur generation process in the Y-axis direction is executed. In the blur generation process, blurring is generated using a Gaussian filter. In other words, with the unit area that is the subject of this time as a center, weighting according to the distance in the Y-axis direction from the unit area that is the center is determined using a Gaussian function for each of the extracted unit areas. Then, in a state where the determined weighting is applied, the color information of the central unit area and the color information of the extracted unit area are blended. The color information of the blend result is temporarily stored in the register 153.
その後、ステップS3206にて、ブレンド処理を実行する。具体的には、上記ステップS3203にて算出したブレンド結果の色情報と、上記ステップS3205にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。 Thereafter, blend processing is executed in step S3206. Specifically, the blend result color information calculated in step S3203 and the blend result color information calculated in step S3205 are blended at the same ratio. Thereafter, the blur generation process ends.
上記のようにぼかし発生処理が実行されることにより、図51(b−1)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第1所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。 By executing the blur generation process as described above, as shown in FIG. 51 (b-1), the first predetermined number is provided on each side of the X-axis direction on the basis of the unit area that is the current target. Each color information set in the unit area of minutes and each color information set in the first predetermined number of unit areas on both sides in the Y-axis direction are the colors of the unit area that is the current target. Blended with information.
ステップS3201にて否定判定をした場合には、ステップS3207にて、上記ステップS3113において第2ぼかし範囲が決定されたか否かを判定する。第2ぼかし範囲が決定されている場合には、ステップS3208にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3208では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 If a negative determination is made in step S3201, it is determined in step S3207 whether or not the second blur range is determined in step S3113. When the second blur range is determined, in step S3208, a second predetermined number of unit areas greater than the first predetermined number are specified in each of the X-axis directions with reference to the current unit area. Color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181. In step S3208, the color information set in the current unit area is extracted from the blurring buffer 181.
続くステップS3209では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。 In the subsequent step S3209, blurring generation processing in the X-axis direction is executed. The specific contents of this processing are the same as in step S3203.
続くステップS3210では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第1所定数よりも多い第2所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3210では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 In the subsequent step S3210, a second predetermined number of unit areas larger than the first predetermined number are specified in each of the Y-axis directions with reference to the current unit area, and color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. In step S3210, the color information set in the current unit area is extracted from the blurring buffer 181.
続くステップS3211では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。 In a succeeding step S3211, a blur generation process in the Y-axis direction is executed. The specific contents of this process are the same as in step S3205.
その後、ステップS3212にて、ブレンド処理を実行する。具体的には、上記ステップS3209にて算出したブレンド結果の色情報と、上記ステップS3211にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。 Thereafter, in step S3212, blend processing is executed. Specifically, the color information of the blend result calculated in step S3209 and the color information of the blend result calculated in step S3211 are blended at the same ratio. Thereafter, the blur generation process ends.
上記のようにぼかし発生処理が実行されることにより、図51(b−2)に示すように、今回の対象となっている単位エリアを基準として、X軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報と、Y軸方向の両側にそれぞれ第2所定数分の単位エリアに設定されている各色情報とが、上記今回の対象となっている単位エリアの色情報に対してブレンドされる。この場合、ブレンド対象となる単位エリアの数が図51(b−1)の場合よりも多くなるため、第1ぼかし範囲の場合よりも第2ぼかし範囲の場合の方が、ぼかしの度合いが大きくなる。 By executing the blur generation process as described above, as shown in FIG. 51 (b-2), the second predetermined number is provided on each side in the X-axis direction with reference to the unit area that is the current target. Each color information set in the unit area of minutes and each color information set in the second predetermined number of unit areas on both sides in the Y-axis direction are the colors of the unit area that is the object of this time Blended with information. In this case, since the number of unit areas to be blended is larger than in the case of FIG. 51 (b-1), the degree of blurring is greater in the second blur range than in the first blur range. Become.
ステップS3207にて否定判定をした場合には、上記ステップS3113において第3ぼかし範囲が決定されたことを意味する。第3ぼかし範囲が決定されている場合には、ステップS3213にて、今回の単位エリアを基準として、X軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3213では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 If a negative determination is made in step S3207, it means that the third blur range has been determined in step S3113. If the third blur range is determined, in step S3213, a third predetermined number of unit areas greater than the second predetermined number are specified in each of the X-axis directions with reference to the current unit area. Color information is extracted from each of these unit areas. This extraction is performed from the blurring buffer 181. In step S3213, the color information set in the current unit area is extracted from the blurring buffer 181.
続くステップS3214では、X軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3203と同様である。 In the subsequent step S3214, blurring generation processing in the X-axis direction is executed. The specific contents of this processing are the same as in step S3203.
続くステップS3215では、今回の単位エリアを基準として、Y軸方向のそれぞれに、第2所定数よりも多い第3所定数の単位エリアを特定し、それら単位エリアのそれぞれから色情報を抽出する。この抽出は、ぼかし用バッファ181から行う。また、ステップS3215では、今回の単位エリアに設定されている色情報の抽出を、ぼかし用バッファ181から行う。 In subsequent step S3215, a third predetermined number of unit areas larger than the second predetermined number are specified in each of the Y-axis directions with reference to the current unit area, and color information is extracted from each of the unit areas. This extraction is performed from the blurring buffer 181. In step S3215, the color information set in the current unit area is extracted from the blurring buffer 181.
続くステップS3216では、Y軸方向のぼかし発生処理を実行する。かかる処理の具体的な内容は、上記ステップS3205と同様である。 In a succeeding step S3216, a blur generation process in the Y-axis direction is executed. The specific contents of this process are the same as in step S3205.
その後、ステップS3217にて、ブレンド処理を実行する。具体的には、上記ステップS3214にて算出したブレンド結果の色情報と、上記ステップS3216にて算出したブレンド結果の色情報とを、同一の比率でブレンドする。その後、本ぼかし発生処理を終了する。上記のようにぼかし発生処理が実行されることにより、ぼかしの度合いを、第2ぼかし範囲の場合よりも大きくすることが可能となる。 Thereafter, blend processing is executed in step S3217. Specifically, the blend result color information calculated in step S3214 and the blend result color information calculated in step S3216 are blended at the same ratio. Thereafter, the blur generation process ends. By executing the blur generation process as described above, it is possible to make the degree of blur larger than in the second blur range.
ピント演出用の調整処理(図50(a))の説明に戻り、ステップS3114にて、ぼかし発生処理を実行した後は、ステップS3115にて、当該ぼかし発生処理にて算出した結果の色情報を、描画対象となっているフレーム領域142a,142bにおける今回の単位エリアに対して上書きした後に、ステップS3116に進む。これにより、各ぼかし範囲に対応した状態の色情報が単位エリアに設定されることとなる。 Returning to the description of the adjustment process for the focus effect (FIG. 50A), after executing the blur generation process in step S3114, in step S3115, the color information of the result calculated in the blur generation process is displayed. After overwriting the current unit area in the frame areas 142a and 142b to be rendered, the process proceeds to step S3116. As a result, the color information corresponding to each blur range is set in the unit area.
ここで、このようにぼかしを生じさせた結果の色情報が順次、描画対象となっているフレーム領域142a,142bに設定される構成において、ぼかし発生処理では、上記のとおり、フレーム領域142a,142bから色情報を読み出すのではなく、ぼかし用バッファ181から色情報を読み出す。これにより、所定の単位エリアにぼかしを発生させる場合において、既にぼかしを生じさせた結果の色情報が用いられないようにすることが可能となる。よって、ぼかし発生処理を実行する順番に依存しない態様で、ぼかしを生じさせることが可能となる。 Here, in the configuration in which the color information resulting from the blurring is sequentially set in the frame areas 142a and 142b to be drawn, in the blur generation process, the frame areas 142a and 142b are as described above. The color information is read from the blurring buffer 181 instead of reading the color information. As a result, when blurring is generated in a predetermined unit area, it is possible to prevent color information that has already been generated from blurring from being used. Therefore, it is possible to cause blurring in a manner that does not depend on the order in which blurring generation processing is executed.
ステップS3116では、今回の描画対象のフレーム領域142a,142bについて全ての単位エリアを、上記ステップS3110〜ステップS3115の処理の実行対象としたか否かを判定する。完了していない場合には、ステップS3117にて、対象単位エリアを更新した後にステップS3110に戻り、新たな対象単位エリアに対して、上記ステップS3110〜ステップS3115の処理を実行する。完了している場合には、本調整処理を終了する。 In step S3116, it is determined whether or not all the unit areas of the current drawing target frame regions 142a and 142b have been subjected to the processing in steps S310 to S3115. If not completed, the target unit area is updated in step S3117, and then the process returns to step S3110 to execute the processes in steps S3110 to S3115 for the new target unit area. If it has been completed, this adjustment process is terminated.
次に、ピント表示の内容について、図52を参照しながら説明する。 Next, the contents of the focus display will be described with reference to FIG.
図52(a)はピント表示が行われていない状態を示し、図52(b)はピント表示が行われている状態を示す。 FIG. 52A shows a state where focus display is not performed, and FIG. 52B shows a state where focus display is performed.
ピント表示が行われていない状態では、図52(a)に示すように、各演出用の個別画像CH11,CH12,CH13、背景の画像(海面の画像、砂浜の画像及び空の画像)CH14及び各教示用の個別画像CH15,CH16は、いずれもピントが合った状態となっている。したがって、これら各画像CH11〜CH16は、その模様の境界や曲がり部分の境界、さらに外縁部分が鮮明に表示されている。 In a state where focus display is not performed, as shown in FIG. 52 (a), individual images CH11, CH12, CH13 for each effect, background images (sea surface images, sand beach images, and sky images) CH14 and The individual images CH15 and CH16 for teaching are both in focus. Therefore, in each of these images CH11 to CH16, the boundary of the pattern, the boundary of the bent portion, and the outer edge portion are clearly displayed.
一方、ピント表示が行われている状態では、図52(b)に示すように、演出用の個別画像CH11及び当該個別画像CH11が存在している砂浜部分の背景の画像CH14については、ピント範囲に含まれているため、鮮明に表示されているが、他の演出用の個別画像CH12,CH13及び他の部分の背景の画像CH14については、ピント範囲から外れているため、模様の境界や曲り部分の境界、さらには外縁部分がぼかした状態で表示され、不鮮明となっている。特に、ぼかした状態は、ピント範囲に含まれている演出用の個別画像CH11から表示面Gの奥行き方向において手前側及び奥側に遠くなるように表示されているものほど、その度合いが大きくなっている。これにより、遊技者に対して、演出用の個別画像CH11にピントが合っていると認識させることが可能となる。 On the other hand, in the state in which the focus display is performed, as shown in FIG. 52B, the focus individual range CH11 and the background image CH14 of the sandy beach portion where the individual image CH11 exists are in focus range. However, the individual images CH12 and CH13 for other effects and the background image CH14 of other parts are out of the focus range, so the boundaries of the pattern and the bends are displayed. The boundary of the part and the outer edge part are displayed in a blurred state, and are unclear. In particular, the degree of the blurred state increases as the distance from the individual image CH11 for presentation included in the focus range to the far side and the far side in the depth direction of the display surface G increases. ing. This allows the player to recognize that the effect individual image CH11 is in focus.
但し、ピント表示が行われている状態であっても、図52(b)に示すように、教示用の個別画像CH15,CH16は、図52(a)と同様に鮮明に表示されている。これにより、ピント表示が行われているとしても、教示用の個別画像CH15,CH16を利用した情報の教示を良好に行うことが可能となる。また、教示用の個別画像CH15,CH16は、他の画像よりも手前側に配置されているかのように表示されているため、ぼかし発生の対象から除外されたとしても、ピント表示の対象から除外されている遊技者に明確に認識させることができ、ピント表示を良好に行うことが可能となる。 However, even in a state where focus display is being performed, as shown in FIG. 52B, the individual images for teaching CH15 and CH16 are clearly displayed as in FIG. 52A. As a result, even if focus display is performed, it is possible to satisfactorily teach information using the individual images CH15 and CH16 for teaching. Further, the individual images for teaching CH15 and CH16 are displayed as if they are arranged on the near side of the other images, so even if they are excluded from the blur generation target, they are excluded from the focus display target. Can be clearly recognized by the player being played, and the focus display can be performed well.
また、上記ピント表示に際しては、ぼかしマップデータがメモリモジュール133に予め記憶されているのではなく、VDP135にてその都度作成される。これにより、データ容量の削減を図ることが可能となる。特に、遊技者による演出用操作装置48の操作に基づきピント範囲を設定するようにしたことにより、遊技者の遊技への積極参加を可能とした構成においては、ぼかしマップデータを事前に予め設定しておこうとすると、データ容量が膨大なものとなる。また、このデータ容量の膨大化を抑えようとすると、演出用操作装置48の操作に基づき選択できるピント範囲のパターンが少なくなってしまう。これに対して、上記のように、ぼかしマップデータをVDP135にてその都度作成するようにしたことにより、データ容量の削減を図りつつ、遊技者の遊技への積極参加を好適に促すことが可能となる。
In the focus display, the blur map data is not stored in the
その一方、上記のようにぼかしマップデータを作成するようにすると、それだけVDP135の処理負荷が増加する。これに対して、ぼかしを発生させる際には、3次元画像の状態で行うのではなく、2次元画像の状態で行うようにしたことにより、色情報の平均化に際して複雑な処理を実行する必要がなくなり、ぼかしを発生させる上での処理負荷の軽減が図られる。
On the other hand, if the blur map data is created as described above, the processing load of the
<ピント表示の別形態>
・ぼかしマップデータを描画データの作成に際して作成する構成に限定されることはなく、ぼかしマップデータをメモリモジュール133に予め記憶させておく構成としてもよい。この場合に、ピント範囲が演出用操作装置48の操作に基づき選択される構成であれば、その選択に係る全てのバリエーションに対応させて、ぼかしマップデータを予め作成しておく必要がある。また、ピント範囲が演出用操作装置48の操作に基づき選択されずに、一定の態様でぼかし表示が行われるのであれば、その態様に則したぼかしマップデータを予め作成しておけばよい。
<Another form of focus display>
The blur map data is not limited to the configuration for creating the drawing data, and the blur map data may be stored in the
上記のようにぼかしマップデータが予め作成されている構成においては、ぼかしマップデータにおいて各単位エリアに対応させて設定されているデータは、Z軸方向の座標データである必要はなく、ピント範囲、及び各ぼかし範囲のうち、いずれの範囲に該当しているかを示すデータであってもよい。 In the configuration in which the blur map data is created in advance as described above, the data set to correspond to each unit area in the blur map data does not need to be coordinate data in the Z-axis direction, and the focus range, Also, it may be data indicating which range of the blur ranges corresponds.
・ぼかしを生じさせるための色情報の平均化処理は、3次元画像データを2次元画像データに変換した後に行う必要はなく、3次元画像データの状態において行うようにしてもよい。この場合、基準となるピクセルに対して、その周囲のピクセルをブレンドする際には、基準となるピクセルからそれら周囲のピクセルまでの距離を3次元の状態で算出し、その算出結果に応じた重み付けをそれら周囲のピクセルの色情報に適用した状態でブレンド処理を行うようにすればよい。 The averaging process of color information for causing blurring does not need to be performed after converting the three-dimensional image data into the two-dimensional image data, and may be performed in the state of the three-dimensional image data. In this case, when blending the surrounding pixels with the reference pixel, the distance from the reference pixel to the surrounding pixels is calculated in a three-dimensional state, and weighting is performed according to the calculation result. Is applied to the color information of the surrounding pixels.
・ぼかしを生じさせるための色情報の平均化処理は、ガウス関数を利用して中心からの距離に応じた重み付けを行うのではなく、抽出した色情報を均等にブレンドする構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。 The averaging process of color information for causing blurring may be configured to blend the extracted color information evenly, instead of performing weighting according to the distance from the center using a Gaussian function. In this case, although the realism of the blur display is reduced, the processing load can be reduced.
・ぼかしを生じさせるための色情報の平均化処理は、X軸方向及びY軸方向のそれぞれについて行う構成に限定されることはなく、いずれか一方についてのみ行う構成としてもよい。この場合、ぼかし表示のリアルさは低減されてしまうものの、処理負荷の軽減は図られる。 The averaging process of color information for causing blurring is not limited to the configuration performed for each of the X-axis direction and the Y-axis direction, and may be configured for only one of them. In this case, although the realism of the blur display is reduced, the processing load can be reduced.
・ぼかしを生じさせるための色情報の平均化処理に際しては、描画対象のフレーム領域142a,142bに設定されている描画データを、ぼかし用バッファ181に別保存した状態で行う構成に限定されることはなく、描画対象のフレーム領域142a,142bをそのまま利用する構成としてもよい。この場合、所定の単位エリアの色情報についてぼかしを生じさせる場合において、既にぼかしを生じさせた単位エリアの色情報が用いられることになり、ぼかしを生じさせる処理の順番がぼかしの度合いに影響を与えることとなるが、ぼかし用バッファ181を別途設ける必要がない点で、記憶容量の削減が図られるとともに、ぼかし用バッファ181への別保存を行う必要がない点で、処理負荷の軽減が図られる。 The color information averaging process for causing blurring is limited to a configuration in which the drawing data set in the drawing target frame areas 142a and 142b is stored separately in the blurring buffer 181. The frame areas 142a and 142b to be drawn may be used as they are. In this case, when the color information of a predetermined unit area is blurred, the color information of the unit area that has already been blurred is used, and the order of processing that causes the blur affects the degree of blur. However, since it is not necessary to separately provide the blurring buffer 181, the storage capacity can be reduced, and it is not necessary to perform another storage in the blurring buffer 181, thereby reducing the processing load. It is done.
・ぼかしマップデータを作成する際にZバッファ143以外のバッファを用いるようにしてもよい。この場合、VRAM134に、ぼかしマップデータを作成するための専用のバッファを設けるようにしてもよい。
A buffer other than the
・背景用の描画データと、演出及び図柄用の描画データとを個別に作成し、それらを合成して1フレーム分の描画データを作成する構成ではなく、ステップS1009にて色情報の設定処理を実行した後は、1フレーム分の描画データをまとめて作成する構成としてもよい。当該構成においては、隠面処理を利用して当該1フレーム分の描画データを作成した場合、Zバッファ143には各単位エリアに対応したZ軸方向の座標データが設定されていることとなる。したがって、この隠面処理にてZバッファ143に作成されたデータを、ぼかしマップデータとしてそのまま利用することが可能となる。
The drawing data for background and the drawing data for effects and symbols are individually created and combined to create drawing data for one frame, but color information setting processing is performed in step S1009. After execution, the drawing data for one frame may be created collectively. In this configuration, when drawing data for one frame is created using hidden surface processing, coordinate data in the Z-axis direction corresponding to each unit area is set in the
・遊技回用の演出としてピント表示を行うようにしてもよい。この場合、上記のように教示用の個別画像を、ぼかし対象から除外したのと同様に、各図柄列SA1〜SA3にて変動表示されている図柄は、ぼかし対象から除外してもよい。また、リーチ中の演出として、ピント表示を行うのであれば、先に停止表示されている図柄列SA1,SA3上において、リーチラインを形成している図柄を、ぼかし対象から除外してもよく、それに加えて又は代えて、最終停止図柄列SA2の図柄を、ぼかし対象から除外してもよい。リーチラインを形成している図柄を除外することで、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となり、最終停止図柄列SA2の図柄を除外することで、最終停止図柄列SA2においてリーチライン付近に存在している図柄の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。 -You may make it perform a focus display as an effect for game times. In this case, the symbols that are variably displayed in the symbol rows SA1 to SA3 may be excluded from the blurring target, as in the case where the individual images for teaching are excluded from the blurring target as described above. If the focus display is performed as an effect during the reach, the symbols forming the reach line may be excluded from the blur target on the symbol sequences SA1 and SA3 that have been stopped and displayed first. In addition to or instead of this, the symbols in the final stop symbol sequence SA2 may be excluded from the blurring target. By excluding the symbols forming the reach line, it becomes possible to use the focus display as a reach effect without reducing the distinguishability of the type of the reach symbol, and the symbols of the final stop symbol sequence SA2 are excluded. Thus, the focus display can be used as a reach effect without degrading the distinguishability of symbols existing near the reach line in the final stop symbol array SA2.
また、リーチラインを形成している図柄又はその種類を教示する画像の表示は行いながら、図柄列SA1〜SA3を非表示として、ピント表示を利用したリーチ演出を行う構成においては、リーチラインを形成している図柄又はその種類を教示する画像は、ぼかし対象から除外するようにしてもよい。これにより、リーチ図柄の種類の識別性を低下させることなく、ピント表示をリーチ演出として利用することが可能となる。 In addition, the reach line is formed in the configuration in which the display of the symbol line SA1 to SA3 is not displayed and the reach effect using the focus display is performed while the image forming the reach line or the image teaching the type is displayed. You may make it exclude the image which teaches the design currently performed or its kind from the blurring object. This makes it possible to use the focus display as a reach effect without reducing the distinguishability of the type of reach symbol.
また、遊技回用の演出としてピント表示を行う場合において、ぼかし対象から除外する対象は、図柄以外であってもよく、例えば表示面Gにて保留情報の数を教示するための画像を表示するのであれば、当該保留情報の数を教示するための画像を、ぼかし対象から除外してもよい。 In addition, when focus display is performed as an effect for game times, the target to be excluded from the blur target may be other than symbols, and for example, an image for teaching the number of hold information is displayed on the display surface G. In this case, an image for teaching the number of the hold information may be excluded from the blur target.
3次元画像データを用いた画像表示を行うのではなく、スプライトデータといった2次元画像データを用いた画像表示を行う構成において、ピント表示を行うようにしてもよい。この場合、フレーム領域142a,142bへのスプライトデータの設定に際して、各スプライトデータに、表示面Gの奥行き方向に対応する座標データを設定しておき、その座標データが、ピント範囲及び各ぼかし範囲のうちいずれに含まれるかによって、ぼかし表示を行う構成が考えられる。 Focus display may be performed in a configuration in which image display using two-dimensional image data such as sprite data is performed instead of image display using three-dimensional image data. In this case, when setting sprite data in the frame regions 142a and 142b, coordinate data corresponding to the depth direction of the display surface G is set in each sprite data, and the coordinate data is used for the focus range and each blur range. Depending on which of them is included, a configuration in which blur display is performed can be considered.
・ワールド座標系に画像データを設定した後に、パラメータ群を含むマップデータを作成する処理を実行する構成を、ピント表示以外の目的で行うようにしてもよい。 -After setting image data in the world coordinate system, a configuration for executing processing for creating map data including a parameter group may be performed for purposes other than focus display.
例えば、1フレーム分の画像において所定の領域が点滅しているかの表示を行う上で、オブジェクトの面の向きに応じて点灯及び消灯のいずれかを設定する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、点滅表示を行うようにしてもよい。 For example, when displaying whether or not a predetermined area is blinking in an image for one frame, in a configuration in which one of lighting and extinguishing is set according to the orientation of the object surface, In the state set to, the direction of each surface is read as a parameter, and map data is created as data obtained by collecting them. Then, the blinking display may be performed by processing the color information on the projected drawing data based on the created map data.
また、例えば、1フレーム分の画像において海面といった形状が経時的に変化する面の表示を行う上で、オブジェクトの面の向きに応じて各面データに設定する色情報を選択する構成において、ワールド座標系や視野座標系に設定されている状態において各面の向きをパラメータとして読み取り、それらを集合させたデータとしてマップデータを作成する。そして、投影後の描画データに対して、その作成したマップデータを元に色情報の加工を行うことにより、面表示を行うようにしてもよい。 In addition, for example, when displaying a surface such as the sea surface that changes over time in an image for one frame, the color information to be set for each surface data is selected according to the orientation of the surface of the object. In the state set in the coordinate system or the visual field coordinate system, the orientation of each surface is read as a parameter, and map data is created as data obtained by collecting them. Then, surface display may be performed by processing the color information on the projected drawing data based on the created map data.
<模様変更表示を行うための構成>
次に、模様変更表示を行うための構成について説明する。
<Configuration for pattern change display>
Next, a configuration for performing pattern change display will be described.
模様変更表示とは、特別キャラクタを複数フレーム(複数の画像更新タイミング)に亘って連続して表示させる場合において、その特別キャラクタの外縁形状は同一としながら、フレームの進行に伴って模様を変化させる表示演出のことである。但し、模様を単純に変化させるのではなく、当該特別キャラクタの一部の模様の変更については、当該特別キャラクタに対応した特別オブジェクトに貼り付ける第1部分テクスチャの種類を切り換えるのに対して、当該特別キャラクタの他の模様の変更については、特別オブジェクトに貼り付ける第2部分テクスチャの種類は同一のものとしながら、その第2部分テクスチャの特別オブジェクトに対する相対的な貼り付け位置を変化させることにより、模様を変化させる。 Pattern change display means that when a special character is continuously displayed over a plurality of frames (a plurality of image update timings), the outer edge shape of the special character is the same, and the pattern is changed with the progress of the frame. It is a display effect. However, instead of simply changing the pattern, when changing the pattern of a part of the special character, the type of the first partial texture to be pasted on the special object corresponding to the special character is changed. Regarding the change of other patterns of the special character, the type of the second partial texture to be pasted to the special object is the same, but the relative pasting position of the second partial texture with respect to the special object is changed, Change the pattern.
これら特別オブジェクト、第1部分テクスチャ及び第2部分テクスチャについて、図53(a)〜(c)を参照しながら詳細に説明する。図53(a)は特別オブジェクトPC20を説明するための説明図であり、図53(b−1)〜(b−3)は第1部分テクスチャPC21〜PC23を説明するための説明図であり、図53(c−1)〜(c−4)は第2部分テクスチャPC24〜PC27を説明するための説明図である。 The special object, the first partial texture, and the second partial texture will be described in detail with reference to FIGS. 53 (a) to 53 (c). 53 (a) is an explanatory diagram for explaining the special object PC20, and FIGS. 53 (b-1) to (b-3) are explanatory diagrams for explaining the first partial textures PC21 to PC23. 53 (c-1) to (c-4) are explanatory diagrams for explaining the second partial textures PC24 to PC27.
図53(a)に示すように、特別オブジェクトPC20は、多数のポリゴンを含み、立体的な形状に対応したデータとして作成されており、複数のパーツ部BP,AP1〜AP4を有している。これら複数のパーツ部BP,AP1〜AP4として、本体パーツ部BPと、当該本体パーツ部BPに付属する複数の付属パーツ部AP1〜AP4とを有している。特別キャラクタは、鯨を人型に適用したキャラクタであり、本体パーツ部BPはその顔部分及び胴体部分に相当し、各付属パーツ部AP1〜AP4は胴体部分から連続する手部分及び足部分に相当している。 As shown in FIG. 53A, the special object PC20 includes a large number of polygons, is created as data corresponding to a three-dimensional shape, and has a plurality of parts BP and AP1 to AP4. The plurality of parts BP, AP1 to AP4 includes a main body part BP and a plurality of attached parts AP1 to AP4 attached to the main body part BP. The special character is a character in which a whale is applied to a human form, the main body part part BP corresponds to the face part and the torso part, and the attached part parts AP1 to AP4 correspond to the hand part and the foot part continuous from the torso part. doing.
本体パーツ部BPには、図53(b−1)〜(b−3)に示すように、顔の模様(目や口の模様)及び胴体が光に反射しているかのような表示を行うための模様の両方を含む画像を表示させるための第1部分テクスチャPC21〜PC23が貼り付けられる。これら第1部分テクスチャPC21〜PC23は、本体パーツ部BPの全体を覆うことが可能なように設定されている。また、顔の模様を表示させるためのデータは、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21〜PC23間において同一となっている。その一方、胴体が光に反射しているかのような表示を行うためのデータについては、これらデータが貼り付けられることとなる本体パーツ部BPの位置(座標)が各第1部分テクスチャPC21〜PC23間において異なっている。 As shown in FIGS. 53 (b-1) to (b-3), the main body part portion BP performs display as if the face pattern (eyes and mouth pattern) and the body are reflected by light. First partial textures PC21 to PC23 for displaying an image including both of the patterns for printing are pasted. These first partial textures PC21 to PC23 are set so as to be able to cover the entire body part part BP. Further, the data for displaying the face pattern has the same position (coordinates) of the main body part part BP to which the data is pasted between the first partial textures PC21 to PC23. On the other hand, for data for displaying as if the body is reflecting light, the positions (coordinates) of the main body part part BP to which these data are pasted are the first partial textures PC21 to PC23. Are different.
つまり、第1部分テクスチャPC21〜PC23は、本体パーツ部BPにおいて貼り付けられる位置が変化しない不変模様を表示させるためのデータと、本体パーツ部BPにおいて貼り付けられる位置が変化する変化模様を表示させるためのデータとを有しており、第1部分テクスチャPC21〜PC23間において、不変模様を表示させるためのデータ構成は共通であるが、変化模様を表示させるためのデータ構成は相違している。 That is, the first partial textures PC21 to PC23 display data for displaying an invariant pattern in which the position to be pasted in the main body part part BP does not change and a change pattern in which the position to be pasted in the main body part part BP changes. The data configuration for displaying the invariant pattern is common among the first partial textures PC21 to PC23, but the data configuration for displaying the change pattern is different.
一方、付属パーツ部AP1〜AP4には、図53(c−1)〜(c−4)に示すように、手や足の部分が光に反射しているかのような表示を行うための模様を含む画像を表示させるための第2部分テクスチャPC24〜PC27が貼り付けられる。これら第2部分テクスチャPC24〜PC27は、付属パーツ部AP1〜AP4に1対1で対応させて設けられており、さらに一の付属パーツ部AP1〜AP4に対して一の第2部分テクスチャPC24〜PC27のみが設けられている。各第2部分テクスチャPC24〜PC27は、対応する付属パーツ部AP1〜AP4を覆うことが可能なように設定されている。この場合、各第2部分テクスチャPC24〜PC27のそれぞれにおいて、境界部分を生じさせる模様はそれに対して逆側の境界部分を生じさせる模様と連続性を有するように設定されている。 On the other hand, as shown in FIGS. 53 (c-1) to (c-4), the accessory parts AP1 to AP4 are designed to display as if the hand or foot part is reflected by light. Second partial textures PC24 to PC27 for displaying an image including the above are pasted. These second partial textures PC24 to PC27 are provided in a one-to-one correspondence with the attached part parts AP1 to AP4, and one second partial texture PC24 to PC27 with respect to one attached part part AP1 to AP4. Only provided. Each of the second partial textures PC24 to PC27 is set so as to cover the corresponding accessory part parts AP1 to AP4. In this case, in each of the second partial textures PC24 to PC27, the pattern that generates the boundary part is set to have continuity with the pattern that generates the boundary part on the opposite side.
第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27の特別オブジェクトPC20に対する貼り付けは、予め定められたUV座標値に基づき行われる。UV座標値は、既に説明したとおりであり、オブジェクト用の画像データ及びテクスチャ用の画像データの組み合わせに対して付属させた状態でメモリモジュール133に記憶されており、テクスチャ用の画像データの各ピクセルをオブジェクト用の画像データの各ピクセルに1対1で対応させることが可能となる。
The first partial textures PC21 to PC23 and the second partial textures PC24 to PC27 are attached to the special object PC20 based on predetermined UV coordinate values. The UV coordinate values are as described above, and are stored in the
上記特別キャラクタを表示させる場合には、特別オブジェクトPC20の本体パーツ部BPに対しては、貼り付け対象となる第1部分テクスチャPC21〜PC23が予め定められた順序で変更される。この順序は、上記変化模様が変化していく態様が連続性を有するように設定されている。一方、特別オブジェクトPC20の付属パーツ部AP1〜AP4に対しては、それぞれに対応する一の第2部分テクスチャPC24〜PC27が貼り付けられることとなるが、その貼り付けを行う際に参照するUV座標値が初期の設定状態から予め定められた態様で変更される。このUV座標値の変更は、各第2部分テクスチャPC24〜PC27に対応した各模様のそれぞれが変化していく態様が連続性を有するように設定されている。 When the special character is displayed, the first partial textures PC21 to PC23 to be pasted are changed in a predetermined order with respect to the main body part BP of the special object PC20. This order is set so that the change pattern changes continuously. On the other hand, one second partial texture PC24 to PC27 corresponding to each of the attached parts AP1 to AP4 of the special object PC20 is pasted. The UV coordinates to be referred to when the pasting is performed. The value is changed in a predetermined manner from the initial setting state. The change of the UV coordinate value is set so that the aspect in which each pattern corresponding to each of the second partial textures PC24 to PC27 changes has continuity.
以下、特別オブジェクトPC20、第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27を用いて模様変更表示を実行するための具体的な処理構成を説明する。なお、特別オブジェクトPC20、第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27は、メモリモジュール133に予め記憶されている。
Hereinafter, a specific processing configuration for executing the pattern change display using the
図54は、表示CPU131にて実行される特別キャラクタ用の演算処理を示すフローチャートである。特別キャラクタ用の演算処理は、タスク処理(図14)のステップS904における演出用演算処理にて実行される。また、特別キャラクタ用の演算処理は、特別キャラクタが表示される遊技回に対応したデータテーブルが設定されている場合に起動される。
FIG. 54 is a flowchart showing a calculation process for a special character executed by the
先ずステップS3301では、現状設定されているデータテーブルに基づいて、特別キャラクタの表示中であるか否かを判定する。特別キャラクタの表示中ではない場合にはステップS3302に進む。ステップS3302では、特別キャラクタ表示の開始タイミングであるか否かを判定する。開始タイミングではない場合にはそのまま本演算処理を終了し、開始タイミングである場合にはステップS3303に進む。 First, in step S3301, it is determined whether a special character is being displayed based on the currently set data table. If the special character is not being displayed, the process advances to step S3302. In step S3302, it is determined whether it is the start timing of special character display. If it is not the start timing, the present calculation process is terminated, and if it is the start timing, the process proceeds to step S3303.
ステップS3303では、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。ちなみに、ステップS3303の処理の実行タイミングでは、直前の制御開始用の設定処理(ステップS901)にて、特別オブジェクトPC20に対して制御開始用の処理が完了している。また、制御が開始された特別オブジェクトPC20の制御用の情報は、特別キャラクタの表示が完了するまでワークRAM132に記憶保持される。
In step S3303, the
続くステップS3304では、第1部分テクスチャの初期設定処理を実行する。具体的には、複数種類の第1部分テクスチャPC21〜PC23のうち使用の順番が最初に設定されている第1部分テクスチャPC21を特定し、その第1部分テクスチャPC21の使用指示情報を記憶する。なお、複数種類の第1部分テクスチャPC21〜PC23の使用順番のデータは、テーブル情報として、メモリモジュール133に予め記憶されている。
In a succeeding step S3304, an initial setting process of the first partial texture is executed. Specifically, the first partial texture PC21 to which the order of use is set first among the plurality of types of first partial textures PC21 to PC23 is specified, and the use instruction information of the first partial texture PC21 is stored. Note that the use order data of the plurality of types of first partial textures PC21 to PC23 is stored in advance in the
続くステップS3305では、各第2部分テクスチャの初期設定処理を実行する。ここで、表示CPU131では、各第2部分テクスチャPC24〜PC27のUV座標値を変更させる場合、初期座標値からの変化量をそれぞれの第2部分テクスチャPC24〜PC27に1対1で対応させて導出し、その導出した各変化量をVDP135に提供する。VDP135では、その提供された各変化量のデータを、それぞれ対応する各初期座標値に対して適用する。この場合、一の第2部分テクスチャPC24〜PC27で見た場合、当該第2部分テクスチャPC24〜PC27には多数のピクセルが含まれているため、初期座標値はそれら多数のピクセル毎に存在している。したがって、一の第2部分テクスチャPC24〜PC27に対応する変化量のデータは、当該一の第2部分テクスチャPC24〜PC27の各初期座標値に対して一律に適用される。
In subsequent step S3305, initial setting processing of each second partial texture is executed. Here, in the case where the
例えば、一の第2部分テクスチャPC24〜PC27を構成する所定のピクセルの初期座標値が(U1、V1)であり、他のピクセルの初期座標値が(U2、V2)である状況において、変化量のデータが(w1、w2)である場合には、上記所定のピクセルのUV座標値は、(U1+w1、V1+w2)に設定され、他のピクセルのUV座標値は、(U2+w1、V2+w2)に設定される。したがって、付属パーツ部AP1〜AP4に対する第2部分テクスチャPC24〜PC27の相対位置が同一の方向性であって同一の変化量で変更されることとなる。ステップS3305は、初期設定処理であるため、変化量は存在しないことに対応したデータが記憶される。 For example, in a situation where the initial coordinate values of predetermined pixels constituting one second partial texture PC24 to PC27 are (U1, V1) and the initial coordinate values of other pixels are (U2, V2), the amount of change Is (w1, w2), the UV coordinate value of the predetermined pixel is set to (U1 + w1, V1 + w2), and the UV coordinate values of the other pixels are set to (U2 + w1, V2 + w2). The Therefore, the relative positions of the second partial textures PC24 to PC27 with respect to the attached part parts AP1 to AP4 have the same directionality and are changed with the same amount of change. Since step S3305 is an initial setting process, data corresponding to the fact that there is no change amount is stored.
なお、第2部分テクスチャPC24〜PC27のUV座標値を初期座標値から変更させるための変化量のデータは、テーブル情報として、使用順序の情報と1対1で対応させて設定されており、このテーブル情報は、メモリモジュール133に予め記憶されている。また、当該テーブル情報は、各第2部分テクスチャPC24〜PC27に対して個別に設定されている。
The change amount data for changing the UV coordinate values of the second partial textures PC24 to PC27 from the initial coordinate values is set as table information in a one-to-one correspondence with the information on the order of use. The table information is stored in the
その後、ステップS3306にて、特別キャラクタの開始指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。 Thereafter, in step S3306, the special character start designation information is stored. In step S3307, various parameters are calculated for the special object PC20, and the control information related to the special object PC20 is updated. This calculation process is terminated.
上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3304にて記憶した第1部分テクスチャPC21の使用指示情報と、上記ステップS3305にて導出した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの開始指定情報が設定される。
When the calculation process for the special character is executed as described above, information on the instruction to use the
ステップS3301にて特別キャラクタの表示中であると判定した場合には、ステップS3308にて、現状設定されているデータテーブルに基づいて、特別オブジェクトPC20を制御対象として把握する。 If it is determined in step S3301 that the special character is being displayed, in step S3308, the special object PC20 is grasped as a control target based on the currently set data table.
続くステップS3309では、現状設定されているデータテーブルに基づいて、第1部分テクスチャPC21〜PC23の更新タイミングであるか否かを判定する。第1部分テクスチャPC21〜PC23の更新タイミングは、所定の複数である第1特定数フレームに1回、すなわち所定の複数である第1特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定の第1部分テクスチャPC21〜PC23から次の第1部分テクスチャPC21〜PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該第1部分テクスチャPC21〜PC23からさらに次の第1部分テクスチャPC21〜PC23の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。 In the subsequent step S3309, it is determined whether it is the update timing of the first partial textures PC21 to PC23 based on the currently set data table. The update timing of the first partial textures PC21 to PC23 is set as once for a predetermined number of first specific number of frames, that is, once for a predetermined number of first specific number of image update timings. Furthermore, this update timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing, and from the predetermined first partial textures PC21 to PC23 to the next first part. The number of frames until the update timing of texture PC21 to PC23 (number of image update timings) and the number of frames from the first partial texture PC21 to PC23 to the update timing of the next first partial texture PC21 to PC23 ( The number of image update timings) may be different.
第1部分テクスチャPC21〜PC23の更新タイミングではない場合には、ステップS3310にて、前回の処理回にて記憶した第1部分テクスチャPC21〜PC23の使用指示情報をそのまま記憶する。一方、第1部分テクスチャPC21〜PC23の更新タイミングである場合には、ステップS3311にて、次の順番の第1部分テクスチャPC21〜PC23に対応した使用指示情報を記憶する。 If it is not the update timing of the first partial textures PC21 to PC23, the use instruction information of the first partial textures PC21 to PC23 stored in the previous processing round is stored as it is in step S3310. On the other hand, if it is the update timing of the first partial textures PC21 to PC23, use instruction information corresponding to the first partial textures PC21 to PC23 in the next order is stored in step S3311.
ステップS3310又はステップS3311の処理を実行した後は、ステップS3312にて、各第2部分テクスチャPC24〜PC27に適用するUV座標値の更新タイミングであるか否かを判定する。UV座標値の更新タイミングは、所定の複数である第2特定数フレームに1回、すなわち所定の複数である第2特定数の画像更新タイミングに対して1回として設定されており、さらにこの更新タイミングは一定となっている。但し、これに限定されることはなく、各フレームに1回、すなわち各画像更新タイミングに対して1回として設定されていてもよく、所定のUV座標値から次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)と、当該UV座標値からさらに次のUV座標値の更新タイミングとなるまでのフレーム数(画像更新タイミング数)とが異なっていてもよい。 After executing the process of step S3310 or step S3311, it is determined in step S3312 whether it is the update timing of the UV coordinate value applied to each of the second partial textures PC24 to PC27. The update timing of the UV coordinate values is set once for a second specific number of frames that is a predetermined plurality, that is, once for a second specific number of image update timings that are a predetermined plurality. Timing is constant. However, the present invention is not limited to this, and may be set once for each frame, that is, once for each image update timing. The number of frames up to (image update timing number) may be different from the number of frames (image update timing number) from the UV coordinate value until the next UV coordinate value update timing.
また、UV座標値の更新タイミングは、第1部分テクスチャPC21〜PC23の更新タイミングと同期しているが、非同期であってもよい。非同期とする上では、各更新周期を相違させる構成が考えられる。この場合に、UV座標値の更新タイミングを、第1部分テクスチャPC21〜PC23の更新タイミングよりも短い周期としてもよく、長い周期としてもよいが、UV座標値の更新側であれば更新周期を短くしてもデータ容量への影響がほとんどないことに鑑みて、UV座標値の更新タイミングを第1部分テクスチャPC21〜PC23の更新タイミングよりも短い周期とすることが好ましい。 The update timing of the UV coordinate values is synchronized with the update timing of the first partial textures PC21 to PC23, but may be asynchronous. In order to make it asynchronous, the structure which makes each update period different can be considered. In this case, the update timing of the UV coordinate values may be shorter or longer than the update timing of the first partial textures PC21 to PC23. However, if the UV coordinate value is updated, the update cycle is shortened. However, in view of the fact that there is almost no influence on the data capacity, it is preferable that the update timing of the UV coordinate values is shorter than the update timing of the first partial textures PC21 to PC23.
UV座標値の更新タイミングではない場合には、ステップS3313にて、前回の処理回にて記憶した各変化量のデータをそのまま記憶する。一方、UV座標値の更新タイミングである場合には、ステップS3314にて、次の順番の各変化量のデータを記憶する。 If it is not the update timing of the UV coordinate value, in step S3313, the data of each change amount stored in the previous processing time is stored as it is. On the other hand, if it is the update timing of the UV coordinate value, the data of each change amount in the next order is stored in step S3314.
ステップS3313又はステップS3314の処理を実行した後は、ステップS3315にて、特別キャラクタの継続指定情報を記憶するとともに、ステップS3307にて、特別オブジェクトPC20について、各種パラメータを演算して、当該特別オブジェクトPC20に係る制御用の情報を更新した後に、本演算処理を終了する。 After executing the process of step S3313 or step S3314, in step S3315, the continuation designation information of the special character is stored, and in step S3307, various parameters are calculated for the special object PC20, and the special object PC20. After the control information related to is updated, this calculation process is terminated.
上記のように特別キャラクタ用の演算処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、特別オブジェクトPC20の使用指示の情報が設定されるとともに、上記ステップS3310及びステップS3311のいずれかにて記憶した第1部分テクスチャPC21〜PC23の使用指示情報と、上記ステップS3313及び上記ステップS3314のいずれかにて記憶した各変化量のデータとが設定される。さらにまた、当該描画リストには、上記ステップS3307にて算出したパラメータが設定されるとともに、特別キャラクタの継続指定情報が設定される。
When the calculation process for the special character is executed as described above, the use instruction information for the
VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合には、描画処理(図16)における演出用の設定処理(ステップS1003)にて、特別オブジェクトPC20をワールド座標系に設定する処理を実行する。この場合、ワールド座標系に設定する際の座標、スケール及び回転角度なども描画リストにて指定されているため、それらを適用した状態で特別オブジェクトPC20を設定する。また、特別キャラクタは、複数フレームに亘って所定の方向に変位するかのように表示されるため、それに即した描画リストがVDP135に対して適用され、それに即した状態でワールド座標系への特別オブジェクトPC20の設定が行われる。
In the
また、VDP135では、特別キャラクタを表示させるべき描画リストを受信した場合、描画処理(図16)における色情報の設定処理(ステップS1009)にて、特別オブジェクトPC20に対して第1部分テクスチャPC21〜PC23及び第2部分テクスチャPC24〜PC27を貼り付ける。当該テクスチャの貼り付けに係る処理について、以下に説明する。
Further, in the
図55は、特別キャラクタ用のテクスチャマッピング処理を示すフローチャートである。特別キャラクタ用のテクスチャマッピング処理は、今回の描画リストに特別キャラクタの開始指定情報及び特別キャラクタの継続指定情報のいずれかが設定されている場合に起動される。 FIG. 55 is a flowchart showing texture mapping processing for a special character. The texture mapping process for the special character is started when either the special character start designation information or the special character continuation designation information is set in the current drawing list.
先ずステップS3401では、今回の描画リストにおいて設定されている第1部分テクスチャPC21〜PC23の使用指定情報を把握する。続くステップS3402では、ステップS3401にて把握した使用指定情報に対応した第1部分テクスチャPC21〜PC23をメモリモジュール133から読み出す。その後、ステップS3403にて、上記ステップS3402にて読み出した第1部分テクスチャPC21〜PC23を、特別オブジェクトPC20の本体パーツ部BPに貼り付ける。これにより、本体パーツ部BPへのテクスチャの貼り付けが完了する。
First, in step S3401, the use designation information of the first partial textures PC21 to PC23 set in the current drawing list is grasped. In a succeeding step S3402, the first partial textures PC21 to PC23 corresponding to the use designation information grasped in the step S3401 are read from the
続くステップS3404では、レジスタ153に設けられた付属パーツカウンタに、付属パーツ部AP1〜AP4の数に対応した情報である「4」をセットし、ステップS3405に進む。ステップS3405では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した第2部分テクスチャPC24〜PC27をメモリモジュール133から読み出す。
In the subsequent step S3404, “4” that is information corresponding to the number of the attached part parts AP1 to AP4 is set in the attached part counter provided in the register 153, and the process proceeds to step S3405. In step S3405, the second partial textures PC24 to PC27 corresponding to the attached part parts AP1 to AP4 indicated by the numerical information of the current attached part counter are read from the
続くステップS3406では、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した初期座標値のデータを読み出す。また、ステップS3407では、今回の描画リストにおいて設定されている変化量のデータのうち、現状の付属パーツカウンタの数値情報が示す付属パーツ部AP1〜AP4に対応した変化量のデータを把握する。そして、ステップS3408において、ステップS3406にて読み出した初期座標値に対して、ステップS3407にて把握した変化量を適用することで、今回のUV座標値を導出する。その後、ステップS3409では、ステップS3408にて導出したUV座標値に従って、ステップS3405にて読み出した第2部分テクスチャPC24〜PC27を、対応する付属パーツ部AP1〜AP4に貼り付ける。 In subsequent step S3406, data of initial coordinate values corresponding to the attached part parts AP1 to AP4 indicated by the numerical value information of the current attached part counter is read. Further, in step S3407, the change amount data corresponding to the attached part parts AP1 to AP4 indicated by the numerical value information of the current attached part counter is grasped from the change amount data set in the current drawing list. In step S3408, the current UV coordinate value is derived by applying the amount of change grasped in step S3407 to the initial coordinate value read in step S3406. Thereafter, in step S3409, the second partial textures PC24 to PC27 read in step S3405 are pasted on the corresponding accessory parts AP1 to AP4 in accordance with the UV coordinate values derived in step S3408.
続くステップS3410では、付属パーツカウンタの数値情報を1減算し、ステップS3411にて、減算後の付属パーツカウンタの数値情報が「0」であるか否かを判定する。「0」ではない場合には、ステップS3405に戻り、次の付属パーツ部AP1〜AP4に対して上記ステップS3405〜ステップS3409による第2部分テクスチャPC24〜PC27の貼り付け処理を実行する。ステップS3411にて、付属パーツカウンタの数値情報が「0」であると判定した場合には、本テクスチャマッピング処理を終了する。 In subsequent step S3410, 1 is subtracted from the numerical value information of the attached part counter, and in step S3411, it is determined whether or not the numerical value information of the attached part counter after the subtraction is “0”. If it is not “0”, the process returns to step S3405, and the pasting process of the second partial textures PC24 to PC27 in steps S3405 to S3409 is executed for the next accessory parts AP1 to AP4. If it is determined in step S3411 that the numerical information of the attached part counter is “0”, the texture mapping process is terminated.
次に、模様変更表示の内容について、図56を参照しながら説明する。 Next, the contents of the pattern change display will be described with reference to FIG.
図56(a),(b)は模様変更表示の内容を説明するための説明図である。 56 (a) and 56 (b) are explanatory diagrams for explaining the contents of the pattern change display.
特別キャラクタCH17を利用した模様変更表示は、図56(a),(b)に示すように、遊技回中において、所定の有効ライン上にてリーチラインが形成され、最終停止図柄列SA2にて図柄の変動表示が行われている状況で実行される。本パチンコ機10では、当該遊技回が開閉実行モードの移行契機となる期待度を高いことを遊技者に報知するための演出として模様変更表示が行われる。なお、特別キャラクタCH17を用いた模様変更表示は、開閉実行モードの移行契機となる遊技回においてのみ所定の確率で発生する構成としてもよい。
In the pattern change display using the special character CH17, as shown in FIGS. 56 (a) and 56 (b), a reach line is formed on a predetermined active line during the game, and the last stop symbol array SA2 is used. It is executed in the situation where the symbol variation display is performed. In the
模様変更表示では、特別キャラクタCH17が所定の方向に変位表示される。この場合に、特別キャラクタCH17の変位に伴って、当該特別キャラクタCH17に付されている模様が変更される。具体的には、特別キャラクタCH17の表面が光に照らされて反射するとともに、その反射して明るくなっている箇所が変位していくように模様が変更される。この模様の変更は、本体パーツ部BP及び各付属パーツ部AP1〜AP4のそれぞれにて発生する。その一方、特別キャラクタCH17に表示されている目や口の位置は一定となっている。 In the pattern change display, the special character CH17 is displayed displaced in a predetermined direction. In this case, the pattern attached to the special character CH17 is changed with the displacement of the special character CH17. Specifically, the surface of the special character CH17 is reflected by light and reflected, and the pattern is changed so that the portion that is reflected and brightened is displaced. This pattern change occurs in the main body part BP and each of the attached part parts AP1 to AP4. On the other hand, the positions of the eyes and mouth displayed on the special character CH17 are constant.
以上のように、特別オブジェクトPC20の一部に対しては、複数種類のテクスチャPC21〜PC23を予め記憶させておき、貼り付け対象とするテクスチャPC21〜PC23を順次変更するのに対して、特別キャラクタCH17の他の部分に関しては単一のテクスチャPC24〜PC27としながら、そのテクスチャPC24〜PC27のUV座標値を順次変更する構成としたことにより、データ容量と処理負荷とのバランスを図りながら模様変更表示を行うことが可能となる。 As described above, a plurality of types of textures PC21 to PC23 are stored in advance for a part of the special object PC20, and the textures PC21 to PC23 to be pasted are sequentially changed. With respect to other parts of CH17, a single texture PC24 to PC27 is used, and the UV coordinate values of the texture PC24 to PC27 are sequentially changed, so that the pattern change display is performed while balancing the data capacity and the processing load. Can be performed.
また、目や口といった特別キャラクタにおいてその外縁に対する相対位置が変化しない模様が存在している箇所は、単一のテクスチャのUV座標値の切り換えにより模様の変更を行うのではなく、貼り付け対象とするテクスチャPC21〜PC23を順次変更することによって模様の変更を行うようにしたことにより、当該箇所の模様を変更する際の処理負荷の軽減を図ることが可能となる。 In addition, in a special character such as an eye or a mouth where a pattern whose relative position with respect to the outer edge does not change is not changed by changing the UV coordinate value of a single texture, Since the texture is changed by sequentially changing the textures PC21 to PC23 to be processed, it is possible to reduce the processing load when changing the pattern of the part.
その一方、比較的サイズの小さい付属パーツ部AP1〜AP4については、単一のテクスチャPC24〜PC27のUV座標値の切り換えにより模様の変更を行うようにしたことにより、UV座標値の変更に伴って模様の形状が若干変形してしまったとしても、それが目立たないようにすることが可能となる。 On the other hand, for the accessory parts AP1 to AP4 having a relatively small size, the pattern is changed by switching the UV coordinate values of the single textures PC24 to PC27. Even if the shape of the pattern is slightly deformed, it can be made inconspicuous.
<模様変更表示の別形態>
・第2部分テクスチャPC24〜PC27が各付属パーツ部AP1〜AP4に1対1で対応させて設定されている構成に代えて、所定の第2部分テクスチャは複数の付属パーツ部AP1〜AP4に対して共通して用いられる構成としてもよく、一の第2部分テクスチャが全ての付属パーツ部AP1〜AP4に対して共通して用いられる構成としてもよい。この場合、各付属パーツ部AP1〜AP4の模様の態様を異ならせる上では、UV座標値の初期設定値をそれぞれ相違させるようにするとよい。
<Another form of pattern change display>
-Instead of the configuration in which the second partial textures PC24 to PC27 are set to correspond to the attached part parts AP1 to AP4 on a one-to-one basis, the predetermined second partial textures are provided for a plurality of attached part parts AP1 to AP4. May be used in common, or one second partial texture may be used in common for all the attached part parts AP1 to AP4. In this case, in order to make the patterns of the accessory parts AP1 to AP4 different, it is preferable to make the initial setting values of the UV coordinate values different.
・各付属パーツ部AP1〜AP4において貼り付け対象の第2部分テクスチャPC24〜PC27のUV座標値が変更される速度は、同一である構成に限定されることはなく、一部については相違している構成としてもよく、全部が相違している構成としてもよい。 The speed at which the UV coordinate values of the second partial textures PC24 to PC27 to be pasted are changed in the attached part parts AP1 to AP4 is not limited to the same configuration, and partly differs. The configuration may be different, or the configuration may be different from each other.
・本体パーツ部BPと付属パーツ部AP1〜AP4の少なくとも一つとを跨ぐようにして模様が付されている構成としてもよい。この場合、特別キャラクタの外観を変更する場合において、上記跨いでいる部分における模様の連続性が担保されるように、第1部分テクスチャPC21〜PC23が変更される場合の上記跨いでいる模様の変化態様と、第2部分テクスチャPC24〜PC27が変更される場合の上記跨いでいる模様の変化態様とを対応付けることが好ましい。 -It is good also as a structure by which the pattern is attached | subjected so that main body part part BP and at least one of attachment part parts AP1-AP4 may be straddled. In this case, when the appearance of the special character is changed, the change of the straddling pattern when the first partial textures PC21 to PC23 are changed so that the continuity of the pattern in the straddling portion is ensured. It is preferable that the mode and the pattern change mode straddling when the second partial textures PC24 to PC27 are changed are associated with each other.
<ラウンド演出に係る構成について>
次に、ラウンド演出に係る構成について説明する。
<About the configuration related to round production>
Next, a configuration related to a round effect will be described.
ラウンド演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。開閉実行モードでは複数回のラウンド遊技が行われるように設定されており、ラウンド演出は、開閉実行モードに移行する場合に実行されるラウンド演出抽選にて当該ラウンド演出を行うことに当選した場合に、ラウンド遊技が行われる度に実行される。なお、上記ラウンド演出抽選で当選しなかった場合には、開閉実行モード時の演算処理等が実行されることとなる。 The round effect is an effect that can be executed when a round game is being performed in the opening / closing execution mode. In the opening / closing execution mode, it is set so that a plurality of round games are performed, and when the round effect is selected to perform the round effect in the round effect lottery executed when shifting to the opening / closing execution mode. This is executed each time a round game is played. In the case where the round effect lottery is not won, arithmetic processing or the like in the opening / closing execution mode is executed.
なお、ラウンド遊技とは、既に説明した通り、(1)可変入賞装置22の開放時間が所定時間を経過すること、(2)可変入賞装置22への遊技球の総入賞個数が所定個数となること、のいずれか一方の条件が満たされるまで継続する遊技のことである。
In addition, as already explained, the round game is (1) the opening time of the variable winning
ラウンド演出では、動画像データが用いられる。動画像データとは、1フレーム分の静止画像データを基準として複数の差分データを有するようにフレーム間圧縮されて、例えばMPEG2方式で符号化された画像データである。当該動画像データが、VDP135に設けられた動画デコーダ(図示略)によってデコードされた場合には、複数フレーム分の静止画像データに展開される。これら静止画像データを順次描画することにより、一連のムービーが再生される。
In the round effect, moving image data is used. The moving image data is image data that is compressed between frames so as to have a plurality of difference data with reference to still image data for one frame and is encoded by, for example, the MPEG2 method. When the moving image data is decoded by a moving image decoder (not shown) provided in the
本パチンコ機10に設定されている動画像データについて図57を参照しながら説明する。
The moving image data set in the
図57に示すように、ラウンド演出で用いられる動画像データとして、ラウンド動画像データRMD0が設定されている。ラウンド動画像データRMD0は、最初のアドレスにファイルデータが設定され、それに続けて各フレームの圧縮データが設定されている。なお、各フレームの圧縮データにはフレームヘッダが付随している。 As shown in FIG. 57, round moving image data RMD0 is set as moving image data used in a round effect. In the round moving image data RMD0, file data is set at the first address, and subsequently, compressed data of each frame is set. The compressed data of each frame is accompanied by a frame header.
圧縮データは、基準データに相当する1フレーム分のIピクチャデータと、第1の差分データに相当する複数フレーム分のPピクチャデータと、第2の差分データに相当する複数フレーム分のBピクチャデータと、を有している。 The compressed data includes one frame of I picture data corresponding to the reference data, a plurality of frames of P picture data corresponding to the first difference data, and a plurality of frames of B picture data corresponding to the second difference data. And have.
Iピクチャデータは、復号に際して、当該データ単独で1フレーム分の静止画像データを作成することができるデータである。Pピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータを参照して前方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。Bピクチャデータは、復号に際して、1フレーム又は複数フレーム前のIピクチャデータ若しくはPピクチャデータと、1フレーム又は複数フレーム後のIピクチャデータ若しくはPピクチャデータとを参照して双方向予測を行うことで、1フレーム分の静止画像データを作成することができるデータである。 The I picture data is data that can create still image data for one frame by the data alone at the time of decoding. P picture data is data that can generate still image data for one frame by performing forward prediction with reference to I picture data or P picture data of one frame or a plurality of frames before decoding. . B picture data is decoded by bi-directional prediction with reference to I picture data or P picture data before one frame or plural frames and I picture data or P picture data after one frame or plural frames. This is data that can create still image data for one frame.
ラウンド動画像データRMD0の圧縮データでは、1フレーム目のデータとしてIピクチャデータが設定されている。また、2フレーム目,…,m―1フレーム目のデータとしてBピクチャデータが設定されている。また、mフレーム目のデータとしてPピクチャデータが設定されている。また、m+1フレーム目,…,n―1フレーム目のデータとしてBピクチャデータが設定されている。また、nフレーム目のデータとしてPピクチャデータが設定されている。なお、ピクチャデータの配列パターンは上記のものに限定されることはなく任意である。 In the compressed data of the round moving image data RMD0, I picture data is set as the data of the first frame. In addition, B picture data is set as data of the second frame,..., M−1 frame. Also, P picture data is set as the data of the mth frame. Further, B picture data is set as data of the (m + 1) th frame,..., The (n−1) th frame. Also, P picture data is set as the nth frame data. Note that the arrangement pattern of the picture data is not limited to the above, and is arbitrary.
ラウンド動画像データRMD0から作成される静止画像データのサイズは、表示面Gに対応させて設定されており、具体的には表示面G全体に表示させることが可能な大きさに設定されている。 The size of the still image data created from the round moving image data RMD0 is set so as to correspond to the display surface G, and specifically, is set to a size that can be displayed on the entire display surface G. .
また、ラウンド演出では、上記ラウンド動画像データRMD0とは別に、静止画像データである挿入画像データIPD0が用いられる。上記ラウンド動画像データRMD0及び挿入画像データIPD0の内容について図58を参照しながら説明する。図58(a)はラウンド動画像データRMD0に設定されている画像の一部の内容を示し、図58(b)は挿入画像データIPD0に設定されている画像を示す。 In addition, in the round effect, inserted image data IPD0 that is still image data is used separately from the round moving image data RMD0. The contents of the round moving image data RMD0 and the inserted image data IPD0 will be described with reference to FIG. FIG. 58A shows the contents of part of the image set in the round moving image data RMD0, and FIG. 58B shows the image set in the insertion image data IPD0.
ラウンド動画像データRMD0には、図58(a−1)に示すように、波立っている様子を示す第1背景画像BP1に対して重なるようにして、サーフィンをしている様子を示す第1移動キャラクタ画像MP1及び蛸の画像である第2移動キャラクタ画像MP2が付加された基準データ(Iピクチャデータ)RMD1が設定されている。 In the round moving image data RMD0, as shown in FIG. 58 (a-1), a first surfing state is shown that overlaps with the first background image BP1 showing a undulating state. The reference data (I picture data) RMD1 to which the moving character image MP1 and the second moving character image MP2 that is a spider image are added is set.
また、図58(a−2),(a−3)に示すように、第1背景画像BP1を有さないが、各移動キャラクタ画像MP1,MP2が移動するのに対応した差分データ(Pピクチャデータ又はBピクチャデータ)RMD2が設定されている。基準データRMD1により1フレーム分の静止画像データが作成されるとともに基準データRMD1に対して差分データRMD2が適用されることにより、基準データRMD1に設定された第1背景画像BP1に対して各差分データRMD2に設定された各移動キャラクタ画像MP1,MP2が付加された1フレーム分の静止画像データが作成される。 Also, as shown in FIGS. 58 (a-2) and (a-3), the difference data (P picture) corresponding to the movement of the moving character images MP1 and MP2 does not have the first background image BP1. Data or B picture data) RMD2 is set. Still image data for one frame is generated from the reference data RMD1, and the difference data RMD2 is applied to the reference data RMD1, whereby each difference data for the first background image BP1 set in the reference data RMD1. Still image data for one frame to which the moving character images MP1 and MP2 set in RMD2 are added is created.
ちなみに、ラウンド動画像データRMD0には、各移動キャラクタ画像MP1,MP2が表示面Gからフレームアウトするように設定されている。具体的には各移動キャラクタ画像MP1,MP2がフレームアウトした位置まで移動するように差分データが設定されている。 Incidentally, in the moving image data RMD0, the moving character images MP1 and MP2 are set so as to be out of the display surface G. Specifically, the difference data is set so that each of the moving character images MP1 and MP2 moves to a position out of the frame.
また、ラウンド動画像データRMD0には、図58(a−3)に示すように、雲が示された第2背景画像BP2が描画された基準データRMD3が設定されている。 Further, as shown in FIG. 58 (a-3), reference data RMD3 in which a second background image BP2 showing a cloud is drawn is set in the round moving image data RMD0.
さらに、ラウンド動画像データRMD0には、図58(a−4)に示すように、男の子の第3移動キャラクタ画像MP3が拡大して描画された基準データRMD4が設定されている。また、図示は省略するが、ラウンド動画像データRMD0には、第3移動キャラクタ画像MP3が所定の動作を行うのに対応した差分データが設定されている。 Further, as shown in FIG. 58 (a-4), reference data RMD4 in which the boy's third moving character image MP3 is drawn enlarged is set in the round moving image data RMD0. Although not shown, difference data corresponding to the third moving character image MP3 performing a predetermined action is set in the round moving image data RMD0.
上記各データRMD1〜RMD4により作成される静止画像データを、動画用オブジェクトに順次貼り付けることにより、一連の動画表示が行われる。 A series of moving image display is performed by sequentially pasting still image data created by the data RMD1 to RMD4 to a moving image object.
挿入画像データIPD0は、図58(b)に示すように、表示面Gの一部に表示される画像に対応したものであり、表示面G全体を表示させるのに用いられる画像データよりもそのサイズ及びデータ量(データ容量)が小さく設定されたデータである。 As shown in FIG. 58 (b), the insertion image data IPD0 corresponds to an image displayed on a part of the display surface G, and more than the image data used to display the entire display surface G. This is data in which the size and data amount (data capacity) are set small.
挿入画像データIPD0には、表示態様が異なる複数種類の画像データが設定されている。具体的には、挿入画像データIPD0には、図58(b−1)に示すように、2人の女の子が示された第1挿入キャラクタ画像IP1が描画された第1挿入画像データIPD1と、図58(b−2)に示すように、3人の女の子が示された第2挿入キャラクタ画像IP2が描画された第2挿入画像データIPD2と、が設定されている。 In the insertion image data IPD0, a plurality of types of image data having different display modes are set. Specifically, in the insertion image data IPD0, as shown in FIG. 58 (b-1), first insertion image data IPD1 in which a first insertion character image IP1 showing two girls is drawn, As shown in FIG. 58 (b-2), second inserted image data IPD2 in which a second inserted character image IP2 showing three girls is drawn is set.
ラウンド演出では、ラウンド動画像データRMD0に設定された一連のラウンド動画が再生される。そして、当該動画の再生中の所定のタイミングにて、挿入画像データIPD0を用いて挿入キャラクタ画像が挿入表示される。この場合、ラウンドに応じて、用いられる挿入画像データIPD0が異なるように設定されている。 In the round effect, a series of round moving images set in the round moving image data RMD0 is reproduced. Then, at a predetermined timing during the reproduction of the moving image, the insertion character image is inserted and displayed using the insertion image data IPD0. In this case, the insertion image data IPD0 used is set to be different depending on the round.
ラウンド動画像データRMD0及び挿入画像データIPD0を用いてラウンド演出を行うための具体的な処理構成について以下に説明する。 A specific processing configuration for performing a round effect using the round moving image data RMD0 and the inserted image data IPD0 will be described below.
図59は、表示CPU131にて実行されるラウンド演出用の演算処理を示すフローチャートである。ラウンド演出用の演算処理は、開閉実行モードに対応したデータテーブルが設定された場合に、タスク処理(図14)におけるステップS904の演出用演算処理にて起動される。
FIG. 59 is a flowchart showing a calculation process for round effect executed by the
先ずステップS3501では、開閉実行モードに対応したデータテーブルに基づいてラウンド演出の実行中であるか否かを判定する。開閉実行モードに対応したデータテーブルは、ラウンド演出としてラウンド動画が複数回再生されるよう設定されており、具体的には、ラウンド数と同じ回数だけラウンド動画が再生されるように設定されている。 First, in step S3501, it is determined whether a round effect is being executed based on the data table corresponding to the opening / closing execution mode. The data table corresponding to the open / close execution mode is set so that the round video is played a plurality of times as a round effect, and specifically, the round video is set to be played as many times as the number of rounds. .
ラウンド演出が実行中でない場合には、ステップS3502に進み、開閉実行モードに対応したデータテーブルに基づいてラウンド動画の再生開始タイミングであるか否かを判定する。具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画を複数回再生させることに対応させて、ラウンド動画の再生開始タイミングが複数設定されている。当該再生開始タイミングは、ラウンド遊技の開始タイミングと同期しており、詳細にはラウンド遊技の開始タイミングよりも1処理回分(20msec)だけ前のタイミングとなるよう構成されている。 If the round effect is not being executed, the process advances to step S3502 to determine whether it is the reproduction start timing of the round moving image based on the data table corresponding to the opening / closing execution mode. Specifically, in the data table corresponding to the open / close execution mode, a plurality of round video playback start timings are set in correspondence with the round video playback. The reproduction start timing is synchronized with the start timing of the round game, and more specifically, is configured to be a timing one processing time (20 msec) before the start timing of the round game.
なお、ラウンド動画像データRMD0をデコードするのに上記1処理回分の期間よりも長い期間を要する場合には、ラウンド動画の再生開始タイミングを、ラウンド遊技の開始タイミングよりも上記ラウンド動画像データRMD0をデコードするのに要する期間分だけ更に前に設定しておくとよい。これにより、デコードに要する期間によって生じ得るタイムラグに好適に対応することができる。要は、ラウンド動画の再生と、ラウンド遊技の開始とが同一タイミングとなるように、ラウンド動画像データRMD0をデコードするのに要する期間を考慮してラウンド動画の再生開始タイミングが設定されていればよい。 If it takes a longer period than the one processing time to decode the round moving image data RMD0, the round moving image data RMD0 is set to the round moving image reproduction start timing higher than the round game starting timing. It is good to set it further ahead for the period required for decoding. Thereby, it is possible to suitably cope with a time lag that may occur depending on a period required for decoding. In short, if the playback start timing of the round video is set in consideration of the period required to decode the round moving image data RMD0 so that the playback of the round video and the start of the round game have the same timing. Good.
ラウンド動画の再生開始タイミングでない場合には、そのまま本ラウンド演出用の演算処理を終了する一方、ラウンド動画の再生開始タイミングである場合には、ステップS3503に進み、ワークRAM132に設けられたラウンドカウンタエリアに記憶されているラウンドカウンタRCの更新処理を実行する。ラウンドカウンタRCは、表示制御装置130にてラウンド数を把握するためのものである。ラウンドカウンタRCは、開閉実行モードに対応したデータテーブルが設定された場合に初期値として「0」が設定される。
If it is not the playback start timing of the round video, the calculation processing for this round effect is finished as it is, but if it is the playback start timing of the round video, the process proceeds to step S3503 and the round counter area provided in the
ステップS3503では、ラウンドカウンタRCを1加算する処理を実行する。これにより、ラウンドカウンタRCを把握することにより、1の開閉実行モードにおいてラウンド動画が再生された回数を把握することができる。すなわち、ラウンドカウンタRCを把握することにより、現状行われているラウンド遊技が何ラウンド目であるかを特定することができる。 In step S3503, a process of adding 1 to the round counter RC is executed. Thereby, by grasping the round counter RC, it is possible to grasp the number of times the round moving image has been reproduced in one opening / closing execution mode. That is, by grasping the round counter RC, it is possible to specify the number of rounds currently being played.
その後、ステップS3504にて、開閉実行モードに対応したデータテーブルに基づいて、各種アドレスを把握する。具体的には、VRAM134の展開用バッファ141においてラウンド動画像データRMD0が格納されているアドレスと、当該ラウンド動画像データRMD0をデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。
Thereafter, in step S3504, various addresses are grasped based on the data table corresponding to the opening / closing execution mode. Specifically, when the round moving image data RMD0 is stored in the
続くステップS3505では、VDP135にてラウンド動画像データRMD0をデコードするように指定するデコード指定情報を記憶して、本演算処理を終了する。
In the subsequent step S3505, the decoding designation information for designating the
上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、ラウンド動画像データRMD0のデコード指定情報が設定された描画リストが作成され、VDP135に送信される。
When the arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decoding designation information of the round moving image data RMD0 is set is created and transmitted to the
ラウンド演出が実行中である場合には、ステップS3506に進み、動画用オブジェクトを把握する。動画用オブジェクトは、静止画像データをマッピングするためのオブジェクトである。動画用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。 If the round effect is being executed, the process advances to step S3506 to grasp the moving image object. The moving image object is an object for mapping still image data. The moving object is composed of rectangular plate-shaped plate polygons. The plate polygon can be referred to as an object having a small number of polygons, and is low-definition data configured in a flat shape without unevenness in the three-dimensional direction.
動画用オブジェクトのサイズは、表示面G全体の画像を表示することが可能なサイズに設定されている。具体的には、動画用オブジェクトの板面のサイズが上記静止画像データと同一サイズに設定されている。 The size of the moving image object is set to a size capable of displaying an image of the entire display surface G. Specifically, the size of the plate surface of the moving image object is set to the same size as the still image data.
動画用オブジェクトを把握した後は、ステップS3507にて、当該動画用オブジェクトに対してマッピングする静止画像データを特定するための処理を実行する。具体的には、ラウンド動画像データRMD0から作成された静止画像データのうち今回のフレーム番号に対応した静止画像データが格納されているアドレスを把握する。このアドレスの把握は、現状設定されている開閉実行モードに対応したデータテーブルに基づいて行われる。 After grasping the moving image object, in step S3507, processing for specifying still image data to be mapped to the moving image object is executed. Specifically, the address where the still image data corresponding to the current frame number is stored among the still image data created from the round moving image data RMD0 is grasped. This address is grasped based on a data table corresponding to the currently set opening / closing execution mode.
続くステップS3508では、動画用オブジェクトに適用されるパラメータを決定する演算処理を実行する。そして、ステップS3509にて、ラウンド動画像データRMD0から作成した静止画像データを使用することを示す動画像指定情報を記憶する。 In the subsequent step S3508, a calculation process for determining a parameter applied to the moving image object is executed. In step S3509, moving image designation information indicating that still image data created from the round moving image data RMD0 is used is stored.
ステップS3509の処理の実行後は、ステップS3510〜ステップS3518にて、挿入画像データIPD0に係る演算処理を実行する。 After execution of the process of step S3509, the calculation process related to the insertion image data IPD0 is executed in steps S3510 to S3518.
先ず、ステップS3510にて、現状設定されているデータテーブルに基づいて挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合にはステップS3511に進み、挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。 First, in step S3510, it is determined whether or not the inserted character image is being displayed based on the currently set data table. If the inserted character image is not being displayed, the process advances to step S3511 to determine whether it is the display start timing of the inserted character image.
具体的には、開閉実行モードに対応したデータテーブルには、ラウンド動画中に挿入キャラクタ画像の表示開始タイミング(挿入タイミング)が予め定められている。詳細には、挿入キャラクタ画像の挿入タイミングはラウンド動画の内容に対応させて設定されており、各移動キャラクタ画像MP1,MP2がフレームアウトしたタイミングと基準データRMD4の表示タイミングとの間、詳細には基準データRMD3の表示タイミングに設定されている。当該データテーブルに基づいて、挿入キャラクタ画像の挿入タイミングであるか否かを判定する。 Specifically, in the data table corresponding to the open / close execution mode, the display start timing (insertion timing) of the inserted character image is predetermined in the round moving image. Specifically, the insertion timing of the inserted character image is set in correspondence with the content of the round video, and in detail between the timing when each of the moving character images MP1 and MP2 is framed and the display timing of the reference data RMD4. The display timing of the reference data RMD3 is set. Based on the data table, it is determined whether it is the insertion timing of the inserted character image.
挿入キャラクタ画像の挿入タイミングである場合には、ステップS3512〜ステップS3516にて挿入キャラクタ画像の挿入に係る処理を実行する。 If it is the insertion timing of the inserted character image, processing related to insertion of the inserted character image is executed in steps S3512 to S3516.
具体的には、先ずステップS3512にて、挿入画像データIPD0を描画するための挿入用オブジェクトを把握する。挿入用オブジェクトは、矩形板状の板ポリゴンで構成されている。板ポリゴンは、既に説明した通り、ポリゴン数の少ないオブジェクトともいうことができ3次元方向への凹凸のない平面状に構成された低精細のデータである。 Specifically, first, in step S3512, an insertion object for drawing the insertion image data IPD0 is grasped. The insertion object is composed of a rectangular plate-shaped plate polygon. As already described, the plate polygon can be referred to as an object having a small number of polygons, and is low-definition data configured in a planar shape without unevenness in the three-dimensional direction.
挿入用オブジェクトは、挿入画像データIPD0に対応させて設定されている。詳細には、挿入用オブジェクトの板面のサイズと挿入画像データIPD0のサイズとが同一となるように、挿入用オブジェクトのサイズが設定されている。これにより、圧縮等の特別な処理をすることなく、挿入用オブジェクトに対して挿入画像データIPD0をマッピングすることができ、当該マッピングにより挿入キャラクタ画像を表示させることができる。 The insertion object is set corresponding to the insertion image data IPD0. Specifically, the size of the insertion object is set so that the size of the plate surface of the insertion object and the size of the insertion image data IPD0 are the same. Accordingly, the insertion image data IPD0 can be mapped to the insertion object without performing special processing such as compression, and the insertion character image can be displayed by the mapping.
ここで、挿入画像データIPD0は、表示面Gにおいて部分的に表示される画像に係る画像データである。このため、当該挿入画像データIPD0に対応させて設定された挿入用オブジェクトは、表示面G全体の画像を表示させるのに用いられる動画用オブジェクトよりも小さく設定されている。 Here, the insertion image data IPD0 is image data relating to an image partially displayed on the display surface G. For this reason, the insertion object set corresponding to the insertion image data IPD0 is set smaller than the moving image object used for displaying the image of the entire display surface G.
挿入用オブジェクトを把握した後は、ステップS3513〜ステップS3515にて、挿入用オブジェクトに対してマッピングする画像データ(テクスチャ)を把握する処理を実行する。この場合、現状のラウンド動画が何回目のラウンドであるかに応じて、マッピングする画像データを異ならせる。 After grasping the insertion object, processing for grasping image data (texture) to be mapped to the insertion object is executed in steps S3513 to S3515. In this case, the image data to be mapped is made different depending on how many rounds the current round video is.
具体的には、先ずステップS3513にて、今回のラウンド演出が何回目のラウンドに対応したものであるかを把握する。具体的には、ラウンドカウンタRCを把握する。 Specifically, first, in step S3513, it is determined how many rounds the current round production corresponds to. Specifically, the round counter RC is grasped.
そして、ステップS3514にて、各挿入画像データIPD1,IPD2のうち、ステップS3513にて把握されたラウンドカウンタRCに対応した1の画像データを選択する。詳細には、ステップS3513にて把握されたラウンドカウンタRCが奇数である場合には、第1挿入キャラクタ画像IP1に対応する第1挿入画像データIPD1を選択し、ステップS3513にて把握されたラウンドカウンタRCが偶数である場合には、第2挿入キャラクタ画像IP2に対応する第2挿入画像データIPD2を選択する。そして、当該選択された挿入画像データのアドレスを設定する。 In step S3514, one piece of image data corresponding to the round counter RC grasped in step S3513 is selected from each of the inserted image data IPD1 and IPD2. Specifically, when the round counter RC grasped in step S3513 is an odd number, the first insertion image data IPD1 corresponding to the first insertion character image IP1 is selected, and the round counter grasped in step S3513 is selected. When RC is an even number, the second insertion image data IPD2 corresponding to the second insertion character image IP2 is selected. Then, the address of the selected insertion image data is set.
その後、ステップS3515にて、挿入用オブジェクトの各種パラメータの演算処理を実行する。この場合、挿入用オブジェクトの座標は、ワールド座標系に変換した場合に表示面Gの中央に挿入キャラクタ画像が表示されるように設定されているとともに、動画用オブジェクトよりも前になるよう設定されている。 Thereafter, in step S3515, calculation processing of various parameters of the insertion object is executed. In this case, the coordinates of the insertion object are set so that the insertion character image is displayed in the center of the display surface G when converted to the world coordinate system, and is set before the moving image object. ing.
その後、ステップS3516にて、挿入キャラクタ画像を表示することを示す画像挿入指定情報を設定し、本演算処理を終了する。 Thereafter, in step S3516, image insertion designation information indicating that an insertion character image is to be displayed is set, and this calculation processing is terminated.
上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定される。また、当該描画リストには、動画用オブジェクトが設定されるとともに、当該動画用オブジェクトに適用される各種パラメータが設定される。この場合、当該パラメータには、動画用オブジェクトに対してマッピングされる画像データ(テクスチャ)としてラウンド動画像データRMD0から作成された静止画像データのアドレスが含まれている。 When the above arithmetic processing is executed, moving image designation information is set in the drawing list created in the subsequent drawing list output processing (step S806). In the drawing list, a moving image object is set, and various parameters applied to the moving image object are set. In this case, the parameter includes an address of still image data created from the round moving image data RMD0 as image data (texture) mapped to the moving image object.
さらに、今回の演算処理が挿入キャラクタ画像の挿入タイミングである場合には、今回のラウンド演出に対応した挿入キャラクタ画像を表示するための情報、具体的には挿入用オブジェクト、及び当該挿入用オブジェクトに適用されるパラメータが設定されるとともに、画像挿入指定情報が設定される。この場合、上記パラメータには、挿入用オブジェクトに対してマッピングされる画像データ(テクスチャ)として、今回のラウンドに対応した挿入画像データのアドレスが含まれている。 Further, when the current calculation process is the insertion timing of the insertion character image, information for displaying the insertion character image corresponding to the current round effect, specifically, the insertion object and the insertion object Applicable parameters are set, and image insertion designation information is set. In this case, the parameter includes the address of the inserted image data corresponding to the current round as the image data (texture) mapped to the insertion object.
挿入キャラクタ画像が表示中である場合には、ステップS3510を肯定判定し、ステップS3517及びステップS3518にて、現状表示されている挿入キャラクタ画像の表示を維持する処理を実行する。具体的には、ステップS3517にて、挿入用オブジェクトを把握し、ステップS3518にて、現状設定されている挿入用オブジェクトのパラメータを維持する演算を行う。この場合、挿入用オブジェクトに対してマッピングされる挿入画像データのアドレスも維持する。そして、ステップS3516にて画像挿入指定情報を設定し、本演算処理を終了する。 If the inserted character image is being displayed, an affirmative decision is made in step S3510, and processing for maintaining the display of the currently displayed inserted character image is executed in steps S3517 and S3518. Specifically, in step S3517, the object for insertion is grasped, and in step S3518, an operation for maintaining the parameters of the insertion object currently set is performed. In this case, the address of the insertion image data mapped to the insertion object is also maintained. In step S3516, image insertion designation information is set, and the present calculation process is terminated.
上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において作成される描画リストには、動画指定情報が設定されるとともに、今回のフレーム番号に対応した静止画像データに対応した画像を表示させるための情報が設定される。 When the above calculation process is executed, moving picture designation information is set in the drawing list created in the subsequent drawing list output process (step S806), and the still picture data corresponding to the current frame number is supported. Information for displaying an image is set.
また、挿入キャラクタ画像が表示中である場合には、描画リストには、今回のラウンドに対応した挿入キャラクタ画像に対応した画像を表示するための情報が設定される。 When the inserted character image is being displayed, information for displaying an image corresponding to the inserted character image corresponding to the current round is set in the drawing list.
なお、ラウンド演出用の演算処理において、現在のラウンド遊技が何ラウンド目であるかを認識させるための個別画像の演算処理を実行する構成としてもよい。この場合、遊技者が今回のラウンド遊技が何ラウンド目であるかを容易に確認することができる。 In addition, in the calculation process for round effect, it is good also as a structure which performs the calculation process of the separate image for making it recognize what number round the present round game is. In this case, the player can easily check how many rounds this round game is.
また、開閉実行モード中は、図柄用演算処理(ステップS905)はスキップするよう構成されている。これにより、開閉実行モード中は、図柄の変動表示が表示されないため、ラウンド動画像データRMD0によるラウンド動画に遊技者の注意を惹きつけることができるとともに、開閉実行モード中における処理負荷の軽減を図ることができる。なお、これに限られず、開閉実行モード中に図柄の変動表示を行わせる構成としてもよい。 Further, the symbol calculation process (step S905) is skipped during the opening / closing execution mode. As a result, since the symbol variation display is not displayed during the opening / closing execution mode, it is possible to attract the player's attention to the round moving image by the round moving image data RMD0 and to reduce the processing load during the opening / closing execution mode. be able to. However, the present invention is not limited to this, and a configuration may be adopted in which the symbol variation display is performed during the opening / closing execution mode.
さらに、ラウンド動画の再生中は、背景用の設定処理(ステップS903)はスキップするよう構成されている。この場合であっても、動画用オブジェクトに対してラウンド動画像データRMD0から作成された静止画像データが貼り付けられることにより、表示面G全体に亘って上記静止画像データに係る画像が表示される。つまり、上記動画表示に係る画像が背景画像として機能する。これにより、背景用の設定処理に係る処理負荷分だけ、処理負荷の軽減を図ることができる。 Further, the background setting process (step S903) is skipped during the reproduction of the round moving image. Even in this case, the image related to the still image data is displayed over the entire display surface G by pasting the still image data created from the round moving image data RMD0 to the moving image object. . That is, the image relating to the moving image display functions as a background image. Accordingly, the processing load can be reduced by the processing load related to the background setting process.
次に、VDP135の動画デコーダにて実行されるデコード処理について、図60のフローチャートを参照しながら説明する。当該デコード処理は、表示CPU131から送信される描画リストにいずれかのデコード指定情報が設定されている場合に起動される。また、当該デコード処理は、VDP135にて実行される描画処理(図16)とは非同期で起動される。
Next, decoding processing executed by the moving picture decoder of the
先ずステップS3601では、描画リストにて指定されたアドレスの情報から、ラウンド動画像データRMD0のアドレスを把握する。続くステップS3602では、描画リストにて指定された展開先アドレスの情報から、ラウンド動画像データRMD0の展開先のエリアを把握する。 First, in step S3601, the address of the round moving image data RMD0 is grasped from the information of the address specified in the drawing list. In a succeeding step S3602, the development destination area of the round moving image data RMD0 is grasped from the information of the development destination address designated in the drawing list.
続くステップS3603では、ステップS3601にて把握したアドレスからラウンド動画像データRMD0を読み出すとともに、当該ラウンド動画像データRMD0をデコードする。そして、そのデコード結果の各静止画像データを、ステップS3602にて把握したアドレスの各エリアに書き込む。その後、本デコード処理を終了する。 In subsequent step S3603, the round moving image data RMD0 is read from the address grasped in step S3601, and the round moving image data RMD0 is decoded. Then, each still image data of the decoding result is written in each area of the address grasped in step S3602. Thereafter, the decoding process is terminated.
ちなみに、デコード指定情報が設定された描画リストをVDP135が受信してから、ラウンド動画の1フレーム目の静止画像データを作成するまでに要する期間は、描画リストの受信周期(20msec)よりも小さく設定されている。これにより、デコード指定情報が設定された描画リストを受信してから、1フレーム目の静止画像データに対応したアドレスが設定された描画リストを受信するまでには、1フレーム目の静止画像データが作成されている。よって、アドレスに対応した静止画像データが存在しないという事態が発生しないようになっている。 By the way, the period from when the VDP 135 receives the rendering list in which the decoding designation information is set to when the still image data for the first frame of the round movie is created is set to be smaller than the rendering list reception cycle (20 msec). Has been. As a result, the still image data of the first frame is not received until the drawing list in which the address corresponding to the still image data of the first frame is received after the drawing list in which the decoding designation information is set is received. Has been created. Therefore, a situation in which there is no still image data corresponding to the address does not occur.
なお、デコード処理は、描画処理と非同期で起動される構成としたが、これに限られない。例えば、描画処理にて所定のエリアに書き込まれた静止画像データを用いた描画が完了したことに基づいて、新たなフレームに係る静止画像データを展開する構成としてもよい。この場合、デコードされた静止画像データが用いられる毎に静止画像データを順次展開するため、1度に全部を展開して保存する構成と比較して、静止画像データを書き込むためのエリアの領域を少なくすることができる。さらに、デコードしながらラウンド動画を再生する構成であるため、デコードによるタイムラグを小さくすることができる。 The decoding process is activated asynchronously with the drawing process, but is not limited thereto. For example, the configuration may be such that still image data relating to a new frame is developed based on the completion of drawing using still image data written in a predetermined area in the drawing process. In this case, since the still image data is sequentially expanded every time the decoded still image data is used, the area of the area for writing the still image data is compared with the configuration in which all the images are expanded and stored at one time. Can be reduced. Furthermore, since it is the structure which reproduces | regenerates a round moving image, decoding, the time lag by decoding can be made small.
次に、VDP135にて実行されるラウンド演出用の設定処理について、図61のフローチャートを参照しながら説明する。 Next, the setting process for round effect performed in VDP135 is demonstrated, referring the flowchart of FIG.
ラウンド演出用の設定処理は、描画処理(図16)のステップS1003にて実行される演出用の設定処理の一部の処理として実行される。また、描画リストにおいて動画像指定情報が設定されている場合に、当該ラウンド演出用の設定処理が実行される。 The round effect setting process is executed as a part of the effect setting process executed in step S1003 of the drawing process (FIG. 16). In addition, when moving image designation information is set in the drawing list, the setting process for the round effect is executed.
先ずステップS3701では、描画リストにて設定されている動画用オブジェクトを把握し、ステップS3702にて、描画リストに基づいて当該動画用オブジェクトに対して適用される各種パラメータを把握する。 First, in step S3701, the moving image object set in the drawing list is grasped, and in step S3702, various parameters applied to the moving image object are grasped based on the drawing list.
その後、ステップS3703にて、動画用オブジェクトについてワールド座標系への設定処理を実行し、ステップS3704に進む。 Thereafter, in step S3703, a setting process for the moving image object to the world coordinate system is executed, and the process proceeds to step S3704.
続くステップS3704では、描画リストにおいて画像挿入指定情報が記憶されているか否かを判定する。画像挿入指定情報が記憶されていない場合には、そのまま本設定処理を終了する一方、画像挿入指定情報が記憶されている場合には、ステップS3705にて今回の描画リストに設定されている挿入用オブジェクトを把握し、ステップS3706にて描画リストに基づいて挿入用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS3707にて、挿入用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 In the following step S3704, it is determined whether or not image insertion designation information is stored in the drawing list. If the image insertion designation information is not stored, the present setting process is terminated as it is. On the other hand, if the image insertion designation information is stored, the insertion setting set in the current drawing list in step S3705. The object is grasped, and parameters applied to the insertion object are grasped based on the drawing list in step S3706. In step S3707, the setting process for the insertion object to the world coordinate system is executed, and the setting process is terminated.
上記のように設定処理が実行されることにより、ワールド座標系において動画用オブジェクトと挿入用オブジェクトとの配置が同時に開始される。この場合、動画用オブジェクトの前側に挿入用オブジェクトが重なるように配置される。 By executing the setting process as described above, the placement of the moving object and the inserting object is started simultaneously in the world coordinate system. In this case, the insertion object is arranged so as to overlap the front side of the moving image object.
次に、ラウンド演出用マッピング処理について図62のフローチャートを用いて説明する。当該ラウンド演出用マッピング処理は、描画処理(図16)の色情報の設定処理(ステップS1009)において、ラウンド演出に係る描画リスト(動画指定情報が設定された描画リスト)が作成された場合に起動される。 Next, the round effect mapping process will be described with reference to the flowchart of FIG. The round effect mapping process is started when a drawing list (drawing list in which moving image designation information is set) related to the round effect is created in the color information setting process (step S1009) of the drawing process (FIG. 16). Is done.
先ず、ステップS3801では、今回の設定対象の静止画像データが格納されているアドレスの情報を、描画リストから把握する。続くステップS3802では、ステップS3801にて把握したアドレスの情報から今回の描画対象の静止画像データを把握する。続くステップS3803では、動画用オブジェクトに対してステップS3802にて把握した静止画像データをマッピングする。この場合、静止画像データの座標値は、動画用オブジェクトに対して予め設定されているUV座標値であり、動画用オブジェクトに対する静止画像データの貼付位置は一義的に決まっている。 First, in step S3801, the information of the address where the still image data to be set this time is stored is grasped from the drawing list. In the subsequent step S3802, the still image data to be drawn this time is grasped from the address information grasped in step S3801. In the subsequent step S3803, the still image data grasped in step S3802 is mapped to the moving image object. In this case, the coordinate value of the still image data is a UV coordinate value set in advance for the moving image object, and the pasting position of the still image data with respect to the moving image object is uniquely determined.
その後、ステップS3804では、今回の描画リストに画像挿入指定情報が設定されているか否かを判定する。画像挿入指定情報が設定されていない場合には、そのまま本処理を終了する一方、画像挿入指定情報が設定されている場合には、ステップS3805にて今回の描画リストに設定されている挿入キャラクタ画像データのアドレスの情報を把握する。 Thereafter, in step S3804, it is determined whether image insertion designation information is set in the current drawing list. If the image insertion designation information is not set, the process is terminated as it is. If the image insertion designation information is set, the inserted character image set in the current drawing list in step S3805. Know the data address information.
ステップS3806では、ステップS3805にて把握したアドレスの情報から今回の描画対象の挿入画像データを把握する。その後、ステップS3807にて、挿入用オブジェクトに対してステップS3806にて把握した挿入キャラクタ画像データをマッピングして、本処理を終了する。 In step S3806, the insertion image data to be drawn this time is grasped from the address information grasped in step S3805. Thereafter, in step S3807, the insertion character image data grasped in step S3806 is mapped to the insertion object, and this process is terminated.
以上の処理が実行されることにより、表示面Gにてラウンド動画像データRMD0に係るラウンド動画が再生されることとなる。また、画像挿入指定情報が設定されている場合には、当該ラウンド動画に対して重なるようにして挿入キャラクタ画像が表示される。 By executing the above processing, the round moving image related to the round moving image data RMD0 is reproduced on the display surface G. If image insertion designation information is set, the inserted character image is displayed so as to overlap the round moving image.
ここで、ラウンド動画には、第2背景画像BP2のみが描画されており、各挿入キャラクタ画像は設定されていない。そして、ラウンド数に対応した挿入キャラクタ画像が第2背景画像BP2に対して重なるように表示される構成となっているため、挿入画像データIPD0を表示面G全体に表示される画像データとして用意する必要がない。これにより、挿入画像データIPD0のデータ量の削減を図ることができる。 Here, only the second background image BP2 is drawn in the round moving image, and each inserted character image is not set. Since the inserted character image corresponding to the number of rounds is displayed so as to overlap the second background image BP2, the inserted image data IPD0 is prepared as image data to be displayed on the entire display surface G. There is no need. Thereby, the data amount of the insertion image data IPD0 can be reduced.
すなわち、表示面Gの一部を変更する場合には、共通した部分(第2背景画像BP2)に係るデータを動画像データに設定し、個別の部分(各挿入キャラクタ画像IP1,IP2)に係るデータを別に用意することにより、全体としてのデータ量の削減を図ることができる。 That is, when changing a part of the display surface G, the data related to the common part (second background image BP2) is set as the moving image data, and the individual parts (each inserted character image IP1, IP2) are related. By preparing the data separately, it is possible to reduce the data amount as a whole.
また、動画像データの特性上、連続するフレーム毎に静止画像データを設定する必要がある。この必須の静止画像データを用いて第2背景画像BP2を描画することにより、必須の静止画像データを好適に利用することができ、ラウンド演出に係るデータ量の削減を図ることができる。 In addition, due to the characteristics of moving image data, it is necessary to set still image data for each successive frame. By drawing the second background image BP2 using the essential still image data, the essential still image data can be suitably used, and the amount of data related to the round effect can be reduced.
さらに、例えば第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描かれた画像に対して、第1挿入キャラクタ画像IP1を上書きしようとすると、真ん中に表示される女の子を消去するべく、当該女の子に対応した領域に対して第2背景画像BP2を描画する必要が生じることに起因して上書き対象となる領域が大きくなったり、消去対象となる領域とその他の領域とで異なるα値が設定されたαデータを別途設けたりする必要が生じ得る。このため、処理負荷の増大化が生じたり、データ量の増大化が生じたりする場合がある。これに対して、第2背景画像BP2に係る静止画像データを動画像データに設定し、変更対象となる挿入キャラクタ画像に係る画像データを動画像データとは別に用意することにより、上記不都合を回避することができる。 Furthermore, for example, when the first inserted character image IP1 is overwritten on the image in which the second inserted character image IP2 is drawn on the second background image BP2, the girl displayed in the middle is deleted, Due to the need to draw the second background image BP2 in the area corresponding to the girl, the area to be overwritten becomes larger, or different α values are set in the area to be erased and other areas It may be necessary to provide the α data separately. For this reason, the processing load may increase or the amount of data may increase. On the other hand, by setting the still image data related to the second background image BP2 as moving image data and preparing the image data related to the insertion character image to be changed separately from the moving image data, the above inconvenience is avoided. can do.
なお、動画用オブジェクトの板面は平面であるため、静止画像データに係る画像が湾曲することがない。これにより、静止画像データに係る画像がそのまま表示されることとなる。 Note that since the plate surface of the moving image object is a flat surface, the image related to the still image data is not curved. As a result, the image related to the still image data is displayed as it is.
また、動画用オブジェクト及び挿入用オブジェクトについては平行投影されるように構成されている。これにより、パースペクティブの関係上、表示面Gの縁側の画像が湾曲したりするのを抑えることができる。 Further, the moving image object and the insertion object are configured to be projected in parallel. Thereby, it can suppress that the image of the edge side of the display surface G curves according to a perspective.
次にラウンド演出の様子について、図63を用いて説明する。図63は、ラウンド演出の様子を示すタイムチャートである。 Next, the state of the round effect will be described with reference to FIG. FIG. 63 is a time chart showing the appearance of a round effect.
ラウンド演出の開始タイミングであるt1のタイミングでは、図63(a)に示すように、第1背景画像BP1及び各移動キャラクタ画像MP1,MP2が表示される。 As shown in FIG. 63A, the first background image BP1 and the moving character images MP1 and MP2 are displayed at the timing t1, which is the start timing of the round effect.
そして、時間の経過(フレーム番号の更新)に伴って、各移動キャラクタ画像MP1,MP2が所定方向に移動する。例えば、t2のタイミングでは、図63(b)に示すように、各移動キャラクタ画像MP1,MP2が波に乗って移動する様子が表示される。そして、各移動キャラクタ画像MP1,MP2がフレームアウトする。 Then, with the passage of time (update of the frame number), each moving character image MP1, MP2 moves in a predetermined direction. For example, at the timing t2, as shown in FIG. 63 (b), the moving character images MP1 and MP2 are displayed on the waves. Then, the moving character images MP1 and MP2 are out of frame.
その後、画像挿入タイミングであるt3のタイミングにて、第2背景画像BP2を背景として挿入キャラクタ画像が表示される。この場合、今回のラウンド演出が奇数ラウンド目である場合には、図63(c−1)に示すように、第1挿入キャラクタ画像IP1が表示される。一方、今回のラウンド演出が偶数ラウンド目である場合には、図63(c−2)に示すように、第2挿入キャラクタ画像IP2が表示される。 After that, the inserted character image is displayed with the second background image BP2 as the background at the timing t3 which is the image insertion timing. In this case, when the current round effect is an odd-numbered round, as shown in FIG. 63 (c-1), the first insertion character image IP1 is displayed. On the other hand, when the current round effect is the even-numbered round, as shown in FIG. 63 (c-2), the second inserted character image IP2 is displayed.
その後、t4のタイミングでは、図63(d)に示すように、第3移動キャラクタ画像MP3が表示される。そして、当該第3移動キャラクタ画像MP3が所定の動作を行った後、ラウンド演出が終了する。 Thereafter, at the timing of t4, as shown in FIG. 63 (d), the third moving character image MP3 is displayed. Then, after the third moving character image MP3 performs a predetermined action, the round effect ends.
以上の通り、ラウンド遊技が開始される度にラウンド動画を再生する構成とし、更にラウンド動画の再生中に、当該ラウンド動画に係る画像に対して重なるように今回のラウンドに対応した挿入キャラクタ画像を表示させるラウンド演出を実行する構成とした。これにより、1のラウンド動画像データRMD0を用いて複数の表示態様の動画を視認させることができるため、ラウンド毎にラウンド動画像データRMD0を用意する構成と比較して、メモリモジュール133に記憶させておくデータ量を削減することができる。
As described above, a round video is played each time a round game is started, and the inserted character image corresponding to the current round is overlapped with the image related to the round video during playback of the round video. It was set as the structure which performs the round production to display. Thereby, since one round moving image data RMD0 can be used to visually recognize a plurality of display modes of moving images, the round moving image data RMD0 is stored in the
特に、開閉実行モードにおいては、同一の遊技、すなわち、ラウンド遊技が繰り返し行われる。この場合、ラウンド遊技が繰り返し行われることに対応させて、同一のラウンド演出を繰り返し実行する構成とすると、ラウンド演出への注目度が低下するおそれがある。かといって、ラウンド遊技毎に異なる動画表示を行う構成とすると、当該動画表示に係る動画像データのデータ量の増大化が懸念される。 In particular, in the opening / closing execution mode, the same game, that is, a round game is repeatedly performed. In this case, if the same round effect is repeatedly executed in response to repeated round games, the degree of attention to the round effect may be reduced. However, if the moving image display is different for each round game, there is a concern about an increase in the data amount of moving image data related to the moving image display.
これに対して、本パチンコ機10によれば、ラウンド動画の再生中に、今回のラウンドに対応した挿入キャラクタ画像を表示させる構成とすることにより、同一のラウンド動画を用いて、ラウンド演出のバリエーションの多様化を図ることができる。
On the other hand, according to the
なお、挿入画像データIPD0として第1挿入画像データIPD1及び第2挿入画像データIPD2の2種類を用意したが、これに限られず、例えばラウンド数分だけ挿入画像データを用意する構成としてもよい。この場合、各ラウンドに対して各挿入画像データを対応付けて設定するとよい。これにより、ラウンド演出の多様化を図るとともに、挿入画像データに基づいて表示される画像に基づいて今回のラウンド遊技が何ラウンド目であるかを把握することが可能となる。 Although two types of the first insertion image data IPD1 and the second insertion image data IPD2 are prepared as the insertion image data IPD0, the present invention is not limited to this. For example, the insertion image data may be prepared for the number of rounds. In this case, each inserted image data may be set in association with each round. As a result, it is possible to diversify the round effects and to know how many rounds the current round game is based on the image displayed based on the inserted image data.
さらに、挿入画像データをラウンド数よりも多く用意し、各ラウンドにおける挿入キャラクタ画像の挿入タイミングにて、複数の挿入画像データのうち1の挿入画像データを選択する構成としてもよい。これにより、挿入される挿入キャラクタ画像のランダム性を高め、挿入キャラクタ画像への注目度を高めることができる。 Further, it is possible to prepare more insertion image data than the number of rounds, and select one insertion image data from a plurality of insertion image data at the insertion timing of the insertion character image in each round. Thereby, the randomness of the inserted character image to be inserted can be increased, and the degree of attention to the inserted character image can be increased.
また、挿入キャラクタ画像が表示されている状況において、挿入画像データIPD0に適用されるパラメータは変更しない構成としたが、これに限られず、適用されるパラメータを順次更新する構成としてもよい。この場合、一律α値を更新する構成とすれば、挿入キャラクタ画像をフェードイン又はフェードアウトさせることが可能となり、倍率情報を更新する構成とすれば、挿入キャラクタ画像の拡大又は縮小表示を行うことが可能となる。 Further, in the situation where the inserted character image is displayed, the parameter applied to the inserted image data IPD0 is not changed. However, the present invention is not limited to this, and the applied parameter may be sequentially updated. In this case, if the configuration is such that the uniform α value is updated, the inserted character image can be faded in or out, and if the configuration is such that the magnification information is updated, the inserted character image can be enlarged or reduced. It becomes possible.
挿入キャラクタ画像をフェードイン又はフェードアウトさせる場合には、挿入キャラクタ画像と、当該挿入キャラクタ画像の背面側に描画されている動画に係る画像とのブレンディング処理を実行する構成としてもよい。これにより、挿入キャラクタ画像と動画に係る画像との親和性を高めることができ、挿入キャラクタ画像と動画に係る画像とを同時に表示させることによって生じ得る違和感を軽減することができる。 When the inserted character image is faded in or faded out, the blending process may be executed between the inserted character image and an image related to a moving image drawn on the back side of the inserted character image. Thereby, the affinity between the inserted character image and the image related to the moving image can be increased, and the uncomfortable feeling that can be caused by simultaneously displaying the inserted character image and the image related to the moving image can be reduced.
また、ラウンド動画に限られず、例えばスーパーリーチ表示を行う場合や、ノーマルリーチ表示を行う場合に本発明を適用してもよい。この場合、スーパーリーチ表示中に再生されるリーチ動画に係るリーチ動画像データを用意するとともに、当該リーチ動画の再生中に挿入される挿入画像の挿入画像データを複数種類用意する。そして、表示CPU131は、スーパーリーチ表示を行う場合に、複数種類の挿入画像データのうち1の画像データを抽選する処理を実行し、抽選された挿入画像データのアドレスをデータテーブルに設定する。そして、挿入画像の挿入タイミングである場合に、データテーブルに設定された挿入画像データのアドレスに基づいて、今回の挿入画像データを把握し、当該挿入画像データに基づいて描画を行わせる。これにより、1のリーチ動画像データを用いて、複数種類のスーパーリーチ表示を行うことが可能となる。
Further, the present invention is not limited to round moving images, and the present invention may be applied to, for example, a super reach display or a normal reach display. In this case, reach moving image data related to the reach moving image reproduced during the super reach display is prepared, and a plurality of types of inserted image data of the inserted image inserted during the reproduction of the reach moving image are prepared. Then, when performing the super reach display, the
また、上記構成では、ラウンド毎にラウンド動画を再生する構成としたが、これに限られず、例えば複数のラウンドに跨って再生される一連のムービーであってもよい。この場合、開閉実行モードが終了するまで繰り返し上記一連のムービーを再生させる構成とするとよい。この場合であっても、一連のムービーの途中に異なる挿入キャラクタ画像を挿入することにより異なるムービーのように認識させることができる。 In the above configuration, the round video is played back for each round. However, the present invention is not limited to this. For example, a series of movies played back over a plurality of rounds may be used. In this case, the series of movies may be repeatedly played until the opening / closing execution mode ends. Even in this case, it can be recognized as different movies by inserting different insertion character images in the middle of a series of movies.
上記複数のラウンドに跨って一連のムービーを再生する場合、各ラウンド間のインターバル期間中に挿入キャラクタ画像を表示させる構成としてもよい。これにより、複数のラウンドに跨って再生されるムービーにおいてインターバル期間中であることを遊技者に好適に認識させることができる。 When a series of movies is reproduced across the plurality of rounds, the inserted character image may be displayed during the interval between the rounds. Thereby, it is possible to make the player preferably recognize that the movie is played back over a plurality of rounds and that the interval period is in effect.
また、基準データRMD3には、第2背景画像BP2のみが描画されていたが、これに限られず、例えば第1挿入キャラクタ画像IP1及び第2背景画像BP2双方が描画されたものとしてもよい。この場合、第1挿入キャラクタ画像IP1に対して第2挿入キャラクタ画像IP2が重なるように、第2挿入画像データIPD2の座標を設定するとよい。これにより、画像を挿入する場合と挿入しない場合とで異なるラウンド演出を表示させることができる。但し、動画像データを有効に活用できる点、奥側に表示される画像を上書きするために画像データのサイズを大きめに確保する必要がある点等を鑑みれば、基準データRMD3には、第2背景画像BP2のみが描画されている構成の方がよい。 In the reference data RMD3, only the second background image BP2 is drawn. However, the present invention is not limited to this. For example, both the first inserted character image IP1 and the second background image BP2 may be drawn. In this case, the coordinates of the second insertion image data IPD2 may be set so that the second insertion character image IP2 overlaps the first insertion character image IP1. Thereby, different round effects can be displayed depending on whether the image is inserted or not. However, in view of the point that the moving image data can be effectively used and the size of the image data needs to be secured to overwrite the image displayed on the back side, the reference data RMD3 includes the second data. A configuration in which only the background image BP2 is drawn is better.
また、挿入キャラクタ画像を表示させる構成としたが、これに限られず、例えばt3のタイミング〜t4のタイミングに亘って別の挿入用動画を再生する構成としてもよい。この場合、t3のタイミングにて挿入用動画を再生することができるように、当該t3のタイミングよりも前のタイミングにて挿入用動画のデコードを行うとよい。また、挿入用動画は、表示面Gにおける所定の領域に対応した動画としてもよいし、表示面G全体の動画としてもよい。 Further, although the insertion character image is displayed, the present invention is not limited to this. For example, another insertion moving image may be reproduced from the timing t3 to the timing t4. In this case, the insertion moving image may be decoded at a timing before the timing t3 so that the insertion moving image can be reproduced at the timing t3. Further, the moving image for insertion may be a moving image corresponding to a predetermined area on the display surface G, or may be a moving image of the entire display surface G.
上記構成では、一連のラウンド動画の再生中に、当該ラウンド動画に関連した挿入キャラクタ画像を表示させる構成としたが、これに限られず、ラウンド動画の態様とは関連しない特定画像をラウンド動画とは別に表示させる構成としてもよい。この場合、特定画像はラウンド動画が再生される期間のうち一部の期間において表示される構成としてもよいし、ラウンド動画が再生される期間全体に亘って表示させる構成としてもよい。 In the above configuration, the inserted character image related to the round video is displayed during playback of a series of round videos. However, the present invention is not limited to this, and a specific image that is not related to the aspect of the round video is a round video. It is good also as a structure displayed separately. In this case, the specific image may be configured to be displayed during a part of the period during which the round video is reproduced, or may be configured to be displayed over the entire period during which the round video is reproduced.
特定画像としては、例えば現状のラウンドが何番目のラウンドであるかを遊技者に教示可能な教示画像や、又はラウンド動画の再生回数を教示可能な教示画像や、大当たり当選となった場合に表示面Gにて表示された大当たり図柄の組み合わせを構成した図柄画像又は当該図柄画像に対応した画像等としてもよい。 As specific images, for example, a teaching image that can be used to teach the player what number the current round is, a teaching image that can teach the number of times a round video has been played, or a jackpot win is displayed. It is good also as the image etc. which corresponded to the symbol image which comprised the combination of the jackpot symbol displayed on the surface G, or the said symbol image.
この場合、例えば教示画像の表示に係る処理としては、ラウンド動画とは別に各種教示用の画像データ(教示用のオブジェクト及び教示用のテクスチャ)を用意して、ラウンド動画に係る画像に対して上記教示用のオブジェクト及び教示用のテクスチャを用いて作成される教示画像を挿入して表示させる構成や、所定の教示画像が含まれたラウンド動画を用意する構成が考えられる。 In this case, for example, as processing related to the display of the teaching image, various teaching image data (teaching object and teaching texture) are prepared separately from the round moving image, and the above processing is performed on the image related to the round moving image. A configuration in which a teaching image created using a teaching object and a teaching texture is inserted and displayed, or a configuration in which a round moving image including a predetermined teaching image is prepared can be considered.
上記所定の教示画像が含まれたラウンド動画を用意する構成において、教示画像の内容を変更する場合には、当該ラウンド動画に含まれている上記所定の教示画像に対して重なるように変更先の教示画像を描画する。具体的には、上記所定の教示画像が表示される領域に重なるように変更先の教示用のオブジェクトを配置する。これにより、ラウンド動画に含まれている上記所定の教示画像に対して変更先の教示画像が上書きされ、当該変更先の教示画像が表示されることとなる。 In a configuration in which a round moving image including the predetermined teaching image is prepared, when the content of the teaching image is changed, the change destination is overlapped with the predetermined teaching image included in the round moving image. Draw the teaching image. Specifically, the change destination teaching object is arranged so as to overlap the area where the predetermined teaching image is displayed. Thereby, the change destination teaching image is overwritten on the predetermined teaching image included in the round moving image, and the changing destination teaching image is displayed.
かかる構成において、挿入キャラクタ画像を挿入表示する場合、当該挿入キャラクタ画像によって上記教示画像が上書きされないように、挿入用オブジェクトと教示用のオブジェクトとの位置関係を設定する。具体的には、ワールド座標系において、視点に対して挿入用オブジェクトよりも近い側に教示用のオブジェクトが配置されるように両者の座標を設定する。これにより、教示画像が挿入キャラクタ画像によって見えなくなるという不都合を回避することができる。 In such a configuration, when an insertion character image is inserted and displayed, the positional relationship between the insertion object and the teaching object is set so that the teaching image is not overwritten by the insertion character image. Specifically, in the world coordinate system, the coordinates of both are set so that the teaching object is arranged closer to the viewpoint than the insertion object. As a result, it is possible to avoid the inconvenience that the teaching image becomes invisible by the inserted character image.
また、2次元表示を行う構成に対して上記画像挿入の発明を適用してもよい。具体的には、例えば挿入する画像に対応した画像データをスプライトデータとしてメモリモジュール133に対して予め記憶させておくとともに、当該スプライトデータに適用される各種パラメータ情報を記憶させておく。そして、動画像データをデコードすることにより作成される静止画像データをフレームバッファ142に書き込み、当該フレームバッファ142に対して挿入する画像に係るスプライトデータを書き込む処理を実行すればよい。
Further, the above-described image insertion invention may be applied to a configuration that performs two-dimensional display. Specifically, for example, image data corresponding to an image to be inserted is stored in advance in the
<ラウンド演出を行う場合の別形態>
ラウンド演出を行う場合の別形態について図64〜図68を用いて説明する。
<Another form of round production>
Another form in the case of performing a round effect will be described with reference to FIGS.
本別形態では、ラウンド動画像データRMD0の構成が異なっている。その異なる点について図64を用いて説明する。図64は、本別形態におけるラウンド動画像データRMD0の構成を説明するための説明図である。 In this different form, the structure of the round moving image data RMD0 is different. The different points will be described with reference to FIG. FIG. 64 is an explanatory diagram for explaining the configuration of the round moving image data RMD0 in the present different embodiment.
本別形態では、ラウンド動画像データRMD0は、挿入キャラクタ画像が表示されるタイミングにて分割されており、詳細には、ラウンド動画の開始タイミングから、当該各移動キャラクタ画像MP1,MP2がフェードアウトするまでの第1ラウンド動画に対応した第1ラウンド動画像データRMD0aと、第3移動キャラクタ画像MP3が表示されてからラウンド動画の終了タイミングまでの第2ラウンド動画に対応した第2ラウンド動画像データRMD0bと、に分割されている。 In this different form, the round moving image data RMD0 is divided at the timing when the inserted character image is displayed. Specifically, from the start timing of the round moving image until each of the moving character images MP1 and MP2 fades out. First round moving image data RMD0a corresponding to the first round moving image, second round moving image data RMD0b corresponding to the second round moving image from when the third moving character image MP3 is displayed to the end timing of the round moving image, , Has been divided into.
第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bの圧縮態様について図65を用いて説明する。図65は各ラウンド動画像データRMD0a,RMD0bの圧縮態様を説明するための説明図であって、図65(a)は第1ラウンド動画像データRMD0aの圧縮態様を説明するための説明図、図65(b)は第2ラウンド動画像データRMD0bの圧縮態様を説明するための説明図、図65(c)は各ラウンド動画像データRMD0a,RMD0bのビットレートを説明するためのグラフである。 A compression mode of the first round moving image data RMD0a and the second round moving image data RMD0b will be described with reference to FIG. FIG. 65 is an explanatory diagram for explaining the compression mode of each round video data RMD0a, RMD0b, and FIG. 65 (a) is an explanatory diagram for explaining the compression mode of the first round video data RMD0a. 65 (b) is an explanatory diagram for explaining the compression mode of the second round video data RMD0b, and FIG. 65 (c) is a graph for explaining the bit rates of the round video data RMD0a and RMD0b.
既に説明した通り、第1ラウンド動画像データRMD0aと、第2ラウンド動画像データRMD0bとは、符号化された圧縮データであり、基準データと、差分データとを有している。この場合、各ラウンド動画の再生時間が同一であり且つ各ラウンド動画像データRMD0a,RMD0bに含まれる基準データが同一であっても、ラウンド動画の内容に応じて、第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0bのデータ量が異なる場合が生じる。 As described above, the first round moving image data RMD0a and the second round moving image data RMD0b are encoded compressed data, and include reference data and difference data. In this case, even if the reproduction time of each round moving image is the same and the reference data included in each round moving image data RMD0a, RMD0b is the same, the first round moving image data RMD0a and RMD0a There is a case where the data amount of the second round moving image data RMD0b is different.
具体的には、第1ラウンド動画と第2ラウンド動画とを比較すると、第1ラウンド動画の方が第2ラウンド動画よりも移動対象キャラクタの数が多い分だけ、第1ラウンド動画の方が、第2ラウンド動画よりも動きが激しいとともに、複雑なもの(高精細なもの)となっている。このため、図65(a−1)及び図65(b−1)に示すように、第1ラウンド動画像データRMD0aの差分データは、第2ラウンド動画像データRMD0bの差分データよりも大きくなる。 Specifically, when the first round video and the second round video are compared, the first round video is more in the first round video than the second round video because the number of movement target characters is larger. The movement is more intense than the second round video, and it is complicated (high-definition). Therefore, as shown in FIGS. 65 (a-1) and 65 (b-1), the difference data of the first round moving image data RMD0a is larger than the difference data of the second round moving image data RMD0b.
ここで、ラウンド動画像データRMD0全体で割り当てることが可能なデータ量は予め定められており、当該データ量に合うように各ラウンド動画像データRMD0a,RMD0bを調整する必要がある。この場合、各ラウンド動画像データRMD0a,RMD0bのビットレートを調整することにより、ラウンド動画全体の画質を維持しつつ、所望のデータ量に設定することができる。 Here, the amount of data that can be allocated in the entire round moving image data RMD0 is determined in advance, and it is necessary to adjust each of the round moving image data RMD0a and RMD0b so as to match the data amount. In this case, by adjusting the bit rate of each of the round moving image data RMD0a and RMD0b, a desired data amount can be set while maintaining the image quality of the entire round moving image.
具体的には、動きが少ないもの又は比較的複雑でないもの(低精細なもの)に対してはビットレートを下げても画質は低下しにくい。一方、動きが大きいものや比較的複雑なものに対してビットレートを下げると、ブロックノイズやモスキートノイズが大量に発生し、画質が大きく低下する。このため、図65(a−2)に示すように、第1ラウンド動画像データRMD0aに対しては比較的大きなビットレートを割り当てることで、比較的大きなデータ量(FS1)を確保し、第1ラウンド動画の画質の低下を抑制する。一方、図65(b−2)に示すように、第2ラウンド動画像データRMD0bに対しては比較的小さなビットレートを割り当てることで、比較的小さなデータ量(FS2)を確保し、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。これにより、ラウンド演出で用いられる一連のラウンド動画の画質の低下を抑制することができる。 Specifically, the image quality is less likely to be lowered even if the bit rate is lowered for those with little motion or relatively uncomplicated (low definition). On the other hand, if the bit rate is lowered for a large movement or a relatively complicated object, a large amount of block noise or mosquito noise is generated, and the image quality is greatly degraded. Therefore, as shown in FIG. 65 (a-2), by assigning a relatively large bit rate to the first round moving image data RMD0a, a relatively large amount of data (FS1) is secured, and the first Suppress the degradation of the quality of the round video. On the other hand, as shown in FIG. 65 (b-2), by assigning a relatively small bit rate to the second round moving image data RMD0b, a relatively small data amount (FS2) is secured, and the second round The data amount of the moving image data RMD0b can be reduced. Thereby, the fall of the image quality of a series of round animation used for a round production can be controlled.
すなわち、図65(c)に示すように、第1ラウンド動画像データRMD0aのビットレートを上げ、第2ラウンド動画像データRMD0bのビットレートを下げて設定することにより、各ラウンド動画像データRMD0a,RMD0bが同一のビットレートで設定される場合(図65(c)の点線参照)と比較して、トータルのデータ量が同一にも関わらず、ラウンド動画の画質の低下が抑制されている。これにより、ラウンド動画像データRMD0を所望のデータ量に設定しつつ、ラウンド動画の画質の低下を抑制することができる。 That is, as shown in FIG. 65 (c), by increasing the bit rate of the first round moving image data RMD0a and lowering the bit rate of the second round moving image data RMD0b, each round moving image data RMD0a, Compared to the case where RMD0b is set at the same bit rate (see the dotted line in FIG. 65 (c)), although the total data amount is the same, the degradation of the image quality of the round moving image is suppressed. Accordingly, it is possible to suppress the deterioration of the image quality of the round moving image while setting the round moving image data RMD0 to a desired data amount.
ちなみに、各ラウンド動画像データRMD0a,RMD0bを作成する段階における圧縮処理について詳細に説明すると、各ラウンド動画像データRMD0a,RMD0bは、複数回(具体的には2回)に亘る圧縮処理を行うことにより作成されている。具体的には、先ず1回目の圧縮処理では、予め設定されたラウンド動画像データRMD0全体のデータ量を把握し、そのデータ量となるように各ラウンド動画像データRMD0a,RMD0bに対して割り当てる各データ量FS1,FS2を把握し、それらの各データ量FS1、FS2に対応したビットレートを把握する。そして、2回目の圧縮処理にて、1回目の圧縮処理にて把握されたビットレートを用いて実際の圧縮処理を実行する。これにより、ラウンド動画像データRMD0が予め設定されたデータ量となるようになっている。 Incidentally, the compression processing at the stage of creating each round moving image data RMD0a, RMD0b will be described in detail. Each round moving image data RMD0a, RMD0b is subjected to compression processing a plurality of times (specifically, twice). It is created by. Specifically, first, in the first compression process, the data amount of the entire preset round moving image data RMD0 is grasped, and each round moving image data RMD0a, RMD0b is assigned to each of the data amounts. The data amounts FS1 and FS2 are grasped, and the bit rates corresponding to the respective data amounts FS1 and FS2 are grasped. Then, in the second compression process, the actual compression process is executed using the bit rate obtained in the first compression process. Thereby, the round moving image data RMD0 has a data amount set in advance.
ここで、各ラウンド動画像データRMD0a,RMD0bの圧縮においては、それぞれ個別に設定されたビットレートに基づくデータ量となるように、差分データを簡略化することにより差分データを圧縮し、基準データは簡略化されないようになっている。基準データは各差分データ(Pピクチャデータ及びBピクチャデータ)の基準となるデータであるため、基準データの画質が低下すると、フレーム間圧縮による誤差に起因するラウンド動画全体の画質が著しく低下するからである。 Here, in the compression of each round moving image data RMD0a, RMD0b, the difference data is compressed by simplifying the difference data so that the data amount is based on the bit rate set individually, and the reference data is It is not simplified. Since the reference data is data serving as a reference for each difference data (P picture data and B picture data), if the image quality of the reference data is reduced, the image quality of the entire round moving image is significantly reduced due to an error caused by inter-frame compression. It is.
また、本別形態では、挿入画像データIPD0が異なっている。具体的には、本別形態における挿入画像データIPD0のサイズは、当該挿入画像データIPD0に係る画像が表示面G全体に表示可能となるように設定されている。そして、挿入画像データIPD0には、第2背景画像BP2に重ねて第1挿入キャラクタ画像IP1が描画された挿入画像データと、第2背景画像BP2に重ねて第2挿入キャラクタ画像IP2が描画された挿入画像データと、が設けられている。すなわち、本別形態の挿入画像データIPD0は、表示面G全体に表示される一枚の画像そのものを示すものである。なお、以降の説明において挿入画像データIPD0を用いて表示される画像、すなわち第2背景画像BP2に重ねて各挿入キャラクタ画像IP1,IP2のいずれが描画された画像を単に挿入画像とも言う。 Further, in this different form, the inserted image data IPD0 is different. Specifically, the size of the insertion image data IPD0 in this different embodiment is set so that the image related to the insertion image data IPD0 can be displayed on the entire display surface G. In the insertion image data IPD0, the insertion image data in which the first insertion character image IP1 is drawn over the second background image BP2 and the second insertion character image IP2 is drawn over the second background image BP2. Inserted image data. That is, the inserted image data IPD0 in this different form indicates one image itself displayed on the entire display surface G. In the following description, an image displayed using the inserted image data IPD0, that is, an image in which any of the inserted character images IP1 and IP2 is drawn on the second background image BP2 is simply referred to as an inserted image.
本別形態では、これら分割された各ラウンド動画像データRMD0a,RMDbを所定の間隔を介して順次デコードし、第1ラウンド動画及び第2ラウンド動画を所定の間隔を介して順次再生するとともに、当該間隔中に上記挿入画像データIPD0を用いて、第2背景画像BP2と、各挿入キャラクタ画像IP1,IP2のいずれか一方とが一体となった挿入画像を表示させることにより、一連のラウンド動画を再生させる。 In this embodiment, each of the divided round moving image data RMD0a and RMDb is sequentially decoded through a predetermined interval, and the first round moving image and the second round moving image are sequentially reproduced through the predetermined interval. A series of round videos is reproduced by displaying the inserted image in which the second background image BP2 and one of the inserted character images IP1 and IP2 are integrated using the inserted image data IPD0 during the interval. Let
次に、本別形態におけるラウンド演出用の演算処理について図66のフローチャートを用いて説明する。 Next, the calculation process for round production in this different form is demonstrated using the flowchart of FIG.
先ず、ステップS3901では、現状設定されているデータテーブル、詳細には開閉実行モードに対応したデータテーブルに基づいて、挿入キャラクタ画像が表示中であるか否かを判定する。挿入キャラクタ画像が表示中でない場合には、ステップS3902に進み、現状設定されているデータテーブルに基づいて挿入キャラクタ画像の表示開始タイミングであるか否かを判定する。挿入キャラクタ画像の表示開始タイミングは、開閉実行モードに対応したデータテーブルに予め定められており、詳細には第1ラウンド動画の終了タイミングと同一に設定されている。 First, in step S3901, it is determined whether or not the inserted character image is being displayed based on the currently set data table, specifically, the data table corresponding to the opening / closing execution mode. If the inserted character image is not being displayed, the process advances to step S3902 to determine whether it is the display start timing of the inserted character image based on the currently set data table. The display start timing of the inserted character image is determined in advance in the data table corresponding to the opening / closing execution mode, and is specifically set to be the same as the end timing of the first round moving image.
挿入キャラクタ画像の表示開始タイミングでない場合には、ステップS3903に進み、現状設定されているデータテーブルに基づいてラウンド動画に係る演出が実行中であるか否かを判定する。この場合、第1ラウンド動画又は第2ラウンド動画に係る演出が実行中であるか否かを判定する、
ラウンド動画に係る演出が実行中でない場合には、ステップS3904にて第1ラウンド動画の再生開始タイミングであるか否かを判定する。第1ラウンド動画の再生開始タイミングでない場合には、そのまま本演算処理を終了する一方、第1ラウンド動画の再生開始タイミングである場合には、ステップS3905にてラウンドカウンタRCを1加算する処理を実行し、ステップS3906及びステップS3907にて、第1ラウンド動画像データRMD0aのデコードに係る処理を実行する。
If it is not the display start timing of the inserted character image, the process advances to step S3903 to determine whether or not an effect related to the round moving image is being executed based on the currently set data table. In this case, it is determined whether or not an effect related to the first round video or the second round video is being executed.
If the effect related to the round video is not being executed, it is determined in step S3904 whether or not it is the playback start timing of the first round video. If it is not the playback start timing of the first round video, this calculation process is terminated as it is. If it is the playback start timing of the first round video, a process of adding 1 to the round counter RC is executed in step S3905. In steps S3906 and S3907, processing related to decoding of the first round moving image data RMD0a is executed.
詳細には、ステップS3906にて、VRAM134の展開用バッファ141において第1ラウンド動画像データRMD0aが格納されているアドレスと、当該第1ラウンド動画像データRMD0aをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。
Specifically, in step S3906, the address at which the first round moving image data RMD0a is stored in the
そして、ステップS3907では、第1ラウンド動画像データRMD0aのデコード指定情報を設定し、本演算処理を終了する。 In step S3907, the decoding designation information of the first round moving image data RMD0a is set, and this calculation process is terminated.
上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第1ラウンド動画像データRMD0aのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第1ラウンド動画像データRMD0aのデコード処理を実行する。当該デコード処理は、既に説明した通りであるため、説明を省略する。
When the arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decoding designation information of the first round moving image data RMD0a is set is created and transmitted to the
ラウンド動画に係る演出が実行中である場合には、ステップS3908〜ステップS3910にてラウンド動画に対応した静止画像データを描画対象として設定する処理を実行する。この場合、デコードされているラウンド動画像データRMD0が第1ラウンド動画像データRMD0aである場合には、第1ラウンド動画に係る静止画像データが描画対象として設定される一方、デコードされているラウンド動画像データRMD0が第2ラウンド動画像データRMD0bである場合には、第2ラウンド動画に係る静止画像データが描画対象として設定される。なお、当該処理の具体的な構成については、既に説明した通りであるため、説明を省略する。 If the effect related to the round moving image is being executed, processing for setting still image data corresponding to the round moving image as a drawing target is executed in steps S3908 to S3910. In this case, when the decoded round moving image data RMD0 is the first round moving image data RMD0a, still image data related to the first round moving image is set as a drawing target, while the decoded round moving image data RMD0 is set as a drawing target. When the image data RMD0 is the second round moving image data RMD0b, still image data related to the second round moving image is set as a drawing target. Note that the specific configuration of the processing is as described above, and thus the description thereof is omitted.
その後、ステップS3911にて、ラウンド演出を実行することをVDP135にて特定させるためのラウンド演出指定情報を設定し、本演算処理を終了する。
Thereafter, in step S3911, round effect designation information for specifying in the
上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、動画用オブジェクトが描画対象として設定されるとともに、当該動画用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、動画用オブジェクトに対してマッピングされる画像データとして静止画像データのアドレスが含まれている。 When the calculation process is executed, in the subsequent drawing list output process (step S806), the moving image object is set as a drawing target, and various parameters applied to the moving image object are set. The various parameters include an address of still image data as image data mapped to the moving image object.
一方、挿入キャラクタ画像の表示開始タイミングである場合には(ステップS3902:YES)、ステップS3912〜ステップS3915にて、挿入キャラクタ画像を描画対象として設定する処理を実行する。 On the other hand, if it is the display start timing of the inserted character image (step S3902: YES), processing for setting the inserted character image as a drawing target is executed in steps S3912 to S3915.
ここで、本別形態の挿入用オブジェクトのサイズは、挿入画像データIPD0のサイズに対応させて設定されている。具体的には、挿入画像データIPD0のサイズと同一になるように挿入用オブジェクトのサイズが設定されている。つまり、本別形態においては、挿入用オブジェクトと動画用オブジェクトとは同一である。 Here, the size of the object for insertion according to this embodiment is set in correspondence with the size of the inserted image data IPD0. Specifically, the size of the insertion object is set to be the same as the size of the insertion image data IPD0. That is, in this different embodiment, the insertion object and the moving image object are the same.
なお、ステップS3912〜ステップS3915の具体的な処理構成は既に説明した通りであるため、説明を省略する。 Note that the specific processing configuration of step S3912 to step S3915 has already been described, and thus the description thereof is omitted.
ステップS3912〜ステップS3915の処理の実行後は、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。 After execution of the processing of step S3912 to step S3915, round effect designation information is set in step S3911, and this calculation processing ends.
上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、挿入用オブジェクトが描画対象として設定されるとともに、当該挿入用オブジェクトに対して適用される各種パラメータが設定される。当該各種パラメータには、挿入用オブジェクトに対してマッピングされる画像データとして今回のラウンド遊技に対応した挿入画像データのアドレスが含まれる。 When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), the insertion object is set as a drawing target, and various parameters applied to the insertion object are set. The various parameters include an address of insertion image data corresponding to the current round game as image data mapped to the insertion object.
ここで、挿入用オブジェクトのサイズは表示面G全体に対応したものとなっており、且つ当該挿入用オブジェクトにマッピングされる挿入画像データIPD0のサイズは表示面G全体に対応したものに設定されている。そして、本別形態における挿入画像データIPD0には、第2背景画像BP2が予め描画されている。これにより、本別形態においては、挿入画像は背景画像として機能する。すなわち、本別形態において挿入画像は、背景画像とキャラクタ画像とを合わせた1の画像であると言える。これにより、ラウンド動画が再生されない状況であっても表示面G全体に所定の画像が表示される。 Here, the size of the insertion object corresponds to the entire display surface G, and the size of the insertion image data IPD0 mapped to the insertion object is set to correspond to the entire display surface G. Yes. Then, the second background image BP2 is drawn in advance in the inserted image data IPD0 in this different form. Thereby, in this different form, an insertion image functions as a background image. That is, it can be said that the inserted image is one image in which the background image and the character image are combined. As a result, a predetermined image is displayed on the entire display surface G even when a round moving image is not reproduced.
挿入キャラクタ画像が表示中である場合(ステップS3901:YES)、ステップS3916に進み、現状設定されているデータテーブルに基づいて第2ラウンド動画の再生開始タイミングであるか否かを判定する。第2ラウンド動画の再生開始タイミングは、挿入画像の表示開始タイミング(第1ラウンド動画の終了タイミング)から所定期間が経過したタイミングに設定されている。 If the inserted character image is being displayed (step S3901: YES), the process proceeds to step S3916, and it is determined whether it is the reproduction start timing of the second round moving image based on the currently set data table. The reproduction start timing of the second round moving image is set to a timing when a predetermined period has elapsed from the display start timing of the inserted image (end timing of the first round moving image).
第2ラウンド動画の再生開始タイミングでない場合には、ステップS3917及びステップS3918にて、挿入画像の表示を維持するための処理を実行し、ステップS3911にてラウンド演出指定情報を設定し、本演算処理を終了する。これらの処理は、既に説明した通りであるため、説明を省略する。 If it is not the playback start timing of the second round moving image, processing for maintaining the display of the inserted image is executed in steps S3917 and S3918, and round presentation designation information is set in step S3911. Exit. Since these processes have already been described, the description thereof will be omitted.
一方、第2ラウンド動画の再生開始タイミングである場合には、ステップS3919及びステップS3920にて、第2ラウンド動画を再生させるための処理を実行する。具体的には、ステップS3919にて、VRAM134の展開用バッファ141において第2ラウンド動画像データRMD0bが格納されているアドレスと、当該第2ラウンド動画像データRMD0bをデコードして複数フレーム分の静止画像データを作成した場合に、それら静止画像データを格納しておくエリアのアドレスと、を把握する。
On the other hand, when it is the reproduction start timing of the second round moving image, processing for reproducing the second round moving image is executed in steps S3919 and S3920. Specifically, in step S3919, the address at which the second round moving image data RMD0b is stored in the
そして、ステップS3920では、第2ラウンド動画像データRMD0bのデコード指定情報を設定し、本演算処理を終了する。 In step S3920, the decoding designation information of the second round moving image data RMD0b is set, and this calculation process ends.
上記演算処理が実行された場合、その後の描画リスト出力処理(ステップS806)において、第2ラウンド動画像データRMD0bのデコード指定情報が設定された描画リストが作成され、VDP135に送信される。VDP135の動画レコーダは、上記デコード指定情報が設定された描画リストを受信したことに基づいて、第2ラウンド動画像データRMD0bのデコード処理を実行する。
When the above arithmetic processing is executed, in the subsequent drawing list output processing (step S806), a drawing list in which the decoding designation information of the second round moving image data RMD0b is set is created and transmitted to the
かかる処理によれば、第1ラウンド動画又は第2ラウンド動画の再生中である場合には、動画用オブジェクトが描画対象として設定された描画リストが作成される一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中は、挿入用オブジェクトが描画対象として設定された描画リストが作成される。この場合、1の描画リストに、動画用オブジェクトと挿入用オブジェクトとの双方が設定されないようになっている。 According to this process, when the first round video or the second round video is being played back, the drawing list in which the video object is set as the drawing target is created, while the end timing of the first round video is During the period between the start timing of the second round moving image, a drawing list in which the insertion object is set as a drawing target is created. In this case, neither a moving image object nor an insertion object is set in one drawing list.
ちなみに、ステップS3919及びステップS3920の処理を実行した処理回に対して次の処理回以降は、ステップS3908〜ステップS3911の処理が実行される。これにより、第2ラウンド動画に係る静止画像データが動画用オブジェクトに対してマッピングされる画像データとして設定されることとなる。 Incidentally, the processing of step S3908 to step S3911 is executed after the next processing time with respect to the processing time of executing the processing of step S3919 and step S3920. As a result, the still image data related to the second round moving image is set as image data mapped to the moving image object.
以上説明した通り、ラウンド演出用の演算処理では、1処理回毎に今回の描画対象が設定される。これにより、1処理回毎に描画リストが設定され、VDP135では1処理回毎に画像が更新されるように描画処理が実行される。つまり、1フレーム毎に画像の更新が行われ、ラウンド動画が再生される期間に亘って、フレームレートは同一に設定されている。
As described above, in the calculation process for the round effect, the current drawing target is set for each process. As a result, a drawing list is set every processing time, and the
次に、本別形態におけるラウンド演出用の設定処理について図67(a)のフローチャートを用いて説明する。本別形態におけるラウンド演出用の設定処理は、受信した描画リストにラウンド演出指定情報が設定されている場合には、起動するよう構成されている。 Next, the setting process for round effect in this different form is demonstrated using the flowchart of Fig.67 (a). The setting process for round effect in this different form is configured to start when round effect designation information is set in the received drawing list.
先ず、ステップS4001では、描画対象となるオブジェクトを把握する。具体的には、第1ラウンド動画又は第2ラウンド動画が再生中である場合には、動画用オブジェクトが把握される。一方、第1ラウンド動画の終了タイミングと第2ラウンド動画の開始タイミングとの間の期間中である場合には、挿入用オブジェクトが把握される。 First, in step S4001, an object to be drawn is grasped. Specifically, when the first round moving image or the second round moving image is being reproduced, the moving image object is grasped. On the other hand, when the period is between the end timing of the first round video and the start timing of the second round video, the insertion object is grasped.
その後、ステップS4002にて、描画リストに基づいて、描画対象のオブジェクトに適用されるパラメータを把握する。その後、ステップS4003にて、上記ステップS4001にて把握された動画用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 Thereafter, in step S4002, the parameters applied to the drawing target object are grasped based on the drawing list. Thereafter, in step S4003, a setting process to the world coordinate system is executed for the moving image object grasped in step S4001, and the setting process is terminated.
次に、本別形態のラウンド演出用マッピング処理を図67(b)のフローチャートを用いて説明する。 Next, the round effect mapping process according to this embodiment will be described with reference to the flowchart of FIG.
先ず、ステップS4101では、描画対象となるオブジェクトに対して適用されるパラメータのうち、マッピングする画像データ(テクスチャ)のアドレスを把握する。この場合、描画リストに動画用オブジェクトが設定されている場合には、フレーム番号に対応した静止画像データのアドレスを把握する一方、描画リストに挿入用オブジェクトが設定されている場合には、今回のラウンド遊技に対応した挿入画像データIPD0のアドレスを把握する。 First, in step S4101, an address of image data (texture) to be mapped is grasped from parameters applied to an object to be drawn. In this case, when a moving image object is set in the drawing list, the address of the still image data corresponding to the frame number is grasped. On the other hand, when an insertion object is set in the drawing list, this time The address of the inserted image data IPD0 corresponding to the round game is grasped.
続くステップS4102では、上記ステップS4101にて把握されたアドレスに基づいて、マッピングする画像データ(テクスチャ)を把握する。そして、ステップS4103では、描画対象となるオブジェクトに対して上記ステップS4102にて把握された画像データをマッピングして、本マッピング処理を終了する。 In subsequent step S4102, image data (texture) to be mapped is grasped based on the address grasped in step S4101. In step S4103, the image data grasped in step S4102 is mapped to the object to be rendered, and the mapping process ends.
次に、本別形態におけるラウンド演出の実行態様を図68のタイムチャートを用いて説明する。図68(a)は第1ラウンド動画の再生期間を示すタイムチャート、図68(b)は挿入画像の表示期間を示すタイムチャート、図68(c)は第2ラウンド動画の再生期間を示すタイムチャートである。 Next, the execution aspect of the round effect in this different form is demonstrated using the time chart of FIG. 68A is a time chart showing the playback period of the first round video, FIG. 68B is a time chart showing the display period of the inserted image, and FIG. 68C is a time showing the playback period of the second round video. It is a chart.
先ず、図68(a)に示すように、ラウンド遊技の開始タイミングであるt11のタイミングにて、表示面Gにて第1ラウンド動画の再生が開始される。そして、t12のタイミングにて第1ラウンド動画が終了すると、図68(a)及び図68(b)に示すように、表示面Gには、第1ラウンド動画に代えて挿入画像データIPD0に係る挿入画像が表示される。詳細には、第2背景画像BP2に重なるようにして、第1挿入キャラクタ画像IP1又は第2挿入キャラクタ画像IP2が表示される。 First, as shown in FIG. 68 (a), reproduction of the first round moving image is started on the display surface G at the timing t11 which is the start timing of the round game. Then, when the first round moving image ends at the timing of t12, as shown in FIGS. 68 (a) and 68 (b), the display surface G is associated with the insertion image data IPD0 instead of the first round moving image. The inserted image is displayed. Specifically, the first inserted character image IP1 or the second inserted character image IP2 is displayed so as to overlap the second background image BP2.
その後、図68(b)及び図68(c)に示すように、t13のタイミングにて挿入画像に代えて第2ラウンド動画が開始され、t14のタイミングにて当該第2ラウンド動画が終了する。これにより、表示面Gにて、第1ラウンド動画→挿入画像→第2ラウンド動画の順に画像が表示される1連のラウンド演出が行われることとなる。 Thereafter, as shown in FIGS. 68 (b) and 68 (c), the second round moving image is started instead of the inserted image at the timing t13, and the second round moving image is ended at the timing t14. Thereby, on the display surface G, a series of round effects in which images are displayed in the order of first round moving image → inserted image → second round moving image will be performed.
そして、次のラウンド遊技の開始タイミングであるt15のタイミングにて、再度第1ラウンド動画から順次再生される。 Then, at the timing of t15 which is the start timing of the next round game, the first round moving image is sequentially reproduced again.
以上詳述した本実施の形態によれば、1連のラウンド動画に係るラウンド動画像データRMD0を、ラウンド動画中の動きの激しさに応じて複数の単位データ(第1ラウンド動画像データRMD0a及び第2ラウンド動画像データRMD0b)に分割した。そして、各ラウンド動画像データRMD0a,RMD0b毎にビットレートを調整することにより、ラウンド動画像データRMD0を予め定められたデータ量に設定しつつ、効率的な画質調整を行うことができる。 According to the embodiment described above in detail, the round moving image data RMD0 related to a series of round moving images is converted into a plurality of unit data (first round moving image data RMD0a and Divided into second round moving image data RMD0b). Then, by adjusting the bit rate for each of the round moving image data RMD0a and RMD0b, it is possible to perform efficient image quality adjustment while setting the round moving image data RMD0 to a predetermined data amount.
詳細には、第1ラウンド動画中の動きが比較的激しいことに起因して差分データが比較的大きくなり易いことが想定される第1ラウンド動画像データRMD0aに対しては、比較的高いビットレートでエンコード処理を行うことにより、第1ラウンド動画の画質を維持することができる。一方、第2ラウンド動画中の動きが比較的穏やかであることに起因して差分データが比較的小さくなり易いことが想定される第2ラウンド動画像データRMD0bに対しては、比較的低いビットレートでエンコード処理を行うことにより、画質を維持しつつ、第2ラウンド動画像データRMD0bのデータ量の削減を図ることができる。 Specifically, a relatively high bit rate is used for the first round moving image data RMD0a, in which the difference data is assumed to be relatively large due to relatively strong movement in the first round moving image. The image quality of the first round moving image can be maintained by performing the encoding process. On the other hand, for the second round moving image data RMD0b in which the difference data is assumed to be relatively small due to the relatively gentle movement in the second round moving image, the bit rate is relatively low. By performing the encoding process, it is possible to reduce the data amount of the second round moving image data RMD0b while maintaining the image quality.
特に、ラウンド動画像データRMD0のデータ量を抑える点に着目すれば、ラウンド動画のフレームレート、具体的には画像の更新タイミングを抑制することも考えられる。しかしながら、フレームレートを変更する構成とすると、現状のフレームレートを把握するための処理等のフレームレートを変更するための処理が別途必要なり、処理負荷の増大化及び上記処理に係るプログラム容量の増大化が懸念される。 In particular, focusing on the point of suppressing the data amount of the round moving image data RMD0, it is conceivable to suppress the frame rate of the round moving image, specifically, the update timing of the image. However, if the frame rate is changed, a process for changing the frame rate, such as a process for grasping the current frame rate, is required, which increases the processing load and the program capacity for the process. There is a concern about conversion.
これに対して、本別形態によれば、上記フレームレートの変更に係る処理を実行することなく、ラウンド動画像データRMD0のデータ量を抑制することができる。すなわち、データ量の削減を、処理により補償する構成ではなく圧縮態様で実現している。これにより、パチンコ機10に係る処理負荷の増大化を抑制しつつ、ラウンド動画像データRMD0のデータ量の削減を図ることができる。
On the other hand, according to the present embodiment, the data amount of the round moving image data RMD0 can be suppressed without executing the process related to the change of the frame rate. That is, the reduction of the data amount is realized not in a configuration that compensates by processing but in a compression mode. Accordingly, it is possible to reduce the data amount of the round moving image data RMD0 while suppressing an increase in processing load related to the
また、エンコード処理が行われた動画像データのデータ量は、差分データのデータ量に関わらずビットレートに依存する。つまり、エンコーダは、差分データのデータ量に関わらず動画像データのデータとしてビットレートに対応したデータ量を確保することとなる。この場合、差分データが小さくなり易いことが想定される動画に対して比較的高いビットレートでエンコード処理を行った場合、実際には何もデータが格納されていない無駄なデータ量を確保することとなり、データ量の無駄が発生する。これに対して、本別形態によれば、上記無駄なデータの発生を抑制することができるため、データ量の削減を図ることができる。 Further, the data amount of the moving image data subjected to the encoding process depends on the bit rate regardless of the data amount of the difference data. That is, the encoder secures a data amount corresponding to the bit rate as moving image data data regardless of the data amount of difference data. In this case, when encoding processing is performed at a relatively high bit rate for a moving image that is likely to have small difference data, a wasteful data amount in which no data is actually stored is ensured. As a result, the amount of data is wasted. On the other hand, according to the present embodiment, the generation of the useless data can be suppressed, so that the data amount can be reduced.
また、第1ラウンド動画と第2ラウンド動画との間に挿入画像を表示させ、当該挿入画像を、現在のラウンド演出に係るラウンドに応じて異ならせる構成とした。これにより、1のラウンド動画像データRMD0を用いて、複数態様のラウンド演出を行うことができる。よって、複数態様のラウンド演出を好適に行いつつ、データ量の削減を図ることができる。 Moreover, it was set as the structure which displays an insertion image between a 1st round animation and a 2nd round animation, and changes the said insertion image according to the round which concerns on the present round effect. Accordingly, a plurality of round effects can be performed using one round moving image data RMD0. Therefore, it is possible to reduce the amount of data while suitably performing a plurality of round effects.
さらに、第1ラウンド動画像データRMD0aをデコードするタイミングと、第2ラウンド動画像データRMD0bをデコードするタイミングとが異なるため、ラウンド動画を再生するためのデコードに係る処理負荷が分散されている。これにより、局所的な処理負荷の増大に起因する処理落ちの発生を抑制することができる。 Furthermore, since the timing for decoding the first round moving image data RMD0a is different from the timing for decoding the second round moving image data RMD0b, the processing load related to decoding for reproducing the round moving image is distributed. Thereby, generation | occurrence | production of the process fall resulting from the increase in a local process load can be suppressed.
なお、本別形態では、ラウンド動画中において場面が切り換わることにより、動きの激しさや複雑さが異なる構成としたが、これに限られず、場面の切り換わりと、動きの激しさ等とが、同期しない構成としてもよい。この場合、場面の切り換わり毎に動画像データを分割する構成としてもよい。これにより、各場面毎に複数の単位動画像データを用意し、これら単位動画像データを組み合わせることにより、一連のラウンド動画の多様化を図ることができる。また、組み合わせ毎に一連の動画像データを用意する構成と比較して、動画像データに係るデータ量の削減を図ることができる。但し、ビットレートの割り当てを好適に行うことができる観点に着目すれば、動きの激しさ等を基準にラウンド動画像データRMD0を分割する構成の方が好ましい。 In this form, the intensity and complexity of the movement are different due to the scene switching in the round video, but not limited to this, the scene switching and the intensity of the movement are not limited to this. It is also possible to have a configuration that is not synchronized. In this case, the moving image data may be divided every time the scene is switched. Thus, a plurality of unit moving image data is prepared for each scene, and a combination of these unit moving image data can diversify a series of round moving images. Further, compared to a configuration in which a series of moving image data is prepared for each combination, it is possible to reduce the amount of data related to moving image data. However, from the viewpoint of suitably assigning the bit rate, it is preferable to divide the round moving image data RMD0 based on the intensity of motion or the like.
また、1のラウンド動画を2つの動画像データに分割したが、これに限られず、3つ以上の動画像データに分割する構成としてもよい。但し、動画像データの特性上、1の動画像データ中に、差分データの基準となる規準データが設けられている必要がある。当該基準データは、圧縮対象とはならない又は圧縮するとしても圧縮率が差分データと比較して小さい。このため、ラウンド動画像データRMD0全体のデータ量が却って増大化するおそれがある。よって、1のラウンド動画像データRMD0を複数の動画像データに分割することに起因する基準データの増加と、ビットレートとの調整によるラウンド動画像データRMD0全体のデータ量の削減と、の関係を考慮して、動画像データの分割態様を決定するとよい。具体的には、分割によって生じ得る基準データの増加に起因するデータ量の増加量が、分割した動画像データのビットレート調整により確保可能なデータ量の削減量よりも小さい場合には、動画像データを分割し、上記増加量が上記削減量よりも大きい場合には、分割することなく1の動画像データとして扱うとよい。 Further, although one round moving image is divided into two moving image data, the present invention is not limited to this, and a configuration may be adopted in which the image is divided into three or more moving image data. However, due to the characteristics of moving image data, it is necessary to provide reference data serving as a reference for difference data in one moving image data. The reference data is not subject to compression or has a smaller compression rate than differential data even if it is compressed. For this reason, the data amount of the entire round moving image data RMD0 may increase on the contrary. Therefore, the relationship between the increase in the reference data resulting from dividing one round moving image data RMD0 into a plurality of moving image data and the reduction in the data amount of the entire round moving image data RMD0 by adjusting the bit rate is as follows. In consideration of this, the division mode of the moving image data may be determined. Specifically, when the amount of increase in the data amount due to the increase in the reference data that may occur due to the division is smaller than the reduction amount of the data amount that can be secured by adjusting the bit rate of the divided moving image data, When the data is divided and the increase amount is larger than the reduction amount, the data may be handled as one moving image data without being divided.
また、各ラウンド動画像データRMD0a,RMD0bは基準データのデータ量が同一であると仮定したが、これに限られず、異なる構成であってもよい。また、各ラウンド動画像データRMD0a,RMD0bにより再生される各ラウンド動画の再生時間は同一と仮定したが、これに限られず、異なる構成であってもよい。これらの場合であっても、各ラウンド動画像データRMD0a,RMD0bに係るビットレートを調整することにより、ラウンド動画像データRMD0全体のデータ量を好適に調整することができる。 Further, although it is assumed that the round moving image data RMD0a and RMD0b have the same data amount of the reference data, the present invention is not limited to this, and may have different configurations. In addition, although it is assumed that the reproduction times of the round moving images reproduced by the round moving image data RMD0a and RMD0b are the same, the reproduction time is not limited to this, and may be different configurations. Even in these cases, the data amount of the entire round moving image data RMD0 can be suitably adjusted by adjusting the bit rate related to each of the round moving image data RMD0a and RMD0b.
また、第1ラウンド動画と第2ラウンド動画との間に所定の期間を設ける構成としたが、これに限られず、例えば第1ラウンド動画と第2ラウンド動画とを連続して表示させる構成としてもよい。この場合、挿入画像を表示しない構成としてもよく、第1ラウンド動画中、第2ラウンド動画中、又は各ラウンド動画に跨って挿入画像を表示する構成としてもよい。 Moreover, although it was set as the structure which provides a predetermined period between a 1st round animation and a 2nd round animation, it is not restricted to this, For example, as a structure which displays a 1st round animation and a 2nd round animation continuously Good. In this case, the insertion image may not be displayed, and the insertion image may be displayed during the first round moving image, the second round moving image, or across each round moving image.
<砂浜背景画像を表示するための構成及び砂浜疾走演出を行うための構成>
次に、砂浜背景を表示するための構成及び砂浜疾走演出を行うための構成について説明する。
<Configuration for displaying sand beach background image and configuration for performing sand beach sprint production>
Next, a configuration for displaying a sandy beach background and a configuration for performing a sandy beach running effect will be described.
砂浜背景画像は、砂浜から海を見た場合の画像であり、所定の周期で波が砂浜に打ち寄せられている様子を示す画像である。砂浜背景画像は、図柄の変動表示が行われる場合の背景画像として用いられる。 The sandy beach background image is an image when the sea is seen from the sandy beach, and is an image showing a state in which waves are hit against the sandy beach at a predetermined cycle. The sandy beach background image is used as a background image when symbols are displayed in a variable manner.
砂浜疾走演出は、開閉実行モードにおけるラウンド遊技が行われている場合に実行され得る演出である。詳細には、砂浜疾走演出は、開閉実行モードに移行する場合に実行される演出抽選処理にて当該砂浜疾走演出を行うことに当選した場合に実行される演出である。 The sand beach sprint effect is an effect that can be executed when a round game is being performed in the opening / closing execution mode. Specifically, the sandy beach sprinting effect is an effect that is executed when winning the sandy beach sprinting effect in the effect lottery process executed when shifting to the opening / closing execution mode.
砂浜疾走演出は、複数の図柄画像が砂浜を疾走する演出である。当該演出では、砂浜背景画像に描かれた風景を別の角度、詳細には当該風景をローアングルから見た場合の画像が背景画像として用いられる。 The sand beach sprinting effect is an effect in which a plurality of symbol images sprint on the sandy beach. In this effect, the landscape drawn on the sand beach background image is used as a background image, and more specifically, an image when the landscape is viewed from a low angle is used.
ここで、本パチンコ機10には、投影パターンとして透視投影と平行投影とが設定されており、表示する画像の内容に応じてこれらの投影パターンを使い分けている。透視投影とは、ワールド座標系に配置された各オブジェクトを所定の視点から見た状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点が所定の視点に向けて直線的に移動するように投影することをいう。これにより、視点からの距離に応じて各オブジェクトに係る画像は変化するように表示される。
Here, in this
これに対して、平行投影は、各オブジェクトをスクリーン領域PC12から見たそのままの状態で投影することをいい、具体的には各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に移動するように投影することをいう。これにより、所定の視点からの距離に関わらず、各オブジェクトの各画像は常に一定の大きさで表示される。これらの投影パターンの使い分けについては後述する。 On the other hand, the parallel projection means that each object is projected as it is viewed from the screen area PC12. Specifically, the vertexes of each polygon of each object move perpendicularly to the screen area PC12. To project. Thereby, regardless of the distance from the predetermined viewpoint, each image of each object is always displayed at a constant size. The use of these projection patterns will be described later.
砂浜背景画像の表示に際しては、複数のオブジェクトと、当該各オブジェクトそれぞれに対応させて設定された複数のテクスチャが用いられる。 When displaying a sandy beach background image, a plurality of objects and a plurality of textures set in correspondence with the respective objects are used.
砂浜背景画像の表示に用いられる複数のオブジェクトについて図69を用いて説明する。図69は各オブジェクトOB1〜OB4を説明するための説明図である。 A plurality of objects used for displaying the beach background image will be described with reference to FIG. FIG. 69 is an explanatory diagram for explaining the objects OB1 to OB4.
なお、以降の説明において、特に断りがない限り、ワールド座標系を基準として説明し、視点は+Z方向を向いているとする。 In the following description, the world coordinate system will be described as a reference unless otherwise specified, and the viewpoint is assumed to face the + Z direction.
図69(a)に示すように、砂浜背景画像の表示に係るオブジェクトとして、砂浜を表示にするのに用いられる砂浜オブジェクトOB1、波を表示するのに用いられる波オブジェクトOB2、海を表示するのに用いられる海オブジェクトOB3及び空を表示するのに用いられる空オブジェクトOB4が設定されている。各オブジェクトOB1〜OB4は矩形の板ポリゴンで構成されており、その長手方向のサイズはスクリーン領域PC12の長手方向のサイズよりも大きく設定されている。 As shown in FIG. 69 (a), the sand beach object OB1 used to display the sand beach, the wave object OB2 used to display the wave, and the sea are displayed as the objects related to the display of the sand beach background image. The sea object OB3 used for the above and the sky object OB4 used for displaying the sky are set. Each object OB1 to OB4 is composed of a rectangular plate polygon, and the size in the longitudinal direction is set larger than the size in the longitudinal direction of the screen region PC12.
各オブジェクトOB1〜OB4は、特定視点PV1から透視投影された場合に、砂浜から見た海の映像となるように配置される。具体的には、ワールド座標系における特定視点PV1から見て奥行き方向(+Z方向)に向かって、砂浜オブジェクトOB1、波オブジェクトOB2、海オブジェクトOB3、空オブジェクトOB4の順番に配置されるように各オブジェクトOB1〜OB4の座標が設定されている。 The objects OB1 to OB4 are arranged so as to be an image of the sea viewed from the sandy beach when projected from the specific viewpoint PV1. Specifically, the objects are arranged in the order of the sand beach object OB1, the wave object OB2, the sea object OB3, and the sky object OB4 in the depth direction (+ Z direction) when viewed from the specific viewpoint PV1 in the world coordinate system. The coordinates of OB1 to OB4 are set.
また、図69(b)に示すように、砂浜オブジェクトOB1、波オブジェクトOB2及び海オブジェクトOB3はスクリーン領域PC12(投影平面)に対して傾斜して配置されている。これにより、特定視点PV1から透視投影した場合に、各オブジェクトOB1〜OB3により表示される個別画像毎に遠近感(奥行き感)を付与することができる。 Further, as shown in FIG. 69 (b), the beach object OB1, the wave object OB2, and the sea object OB3 are arranged to be inclined with respect to the screen area PC12 (projection plane). Thus, when perspective projection is performed from the specific viewpoint PV1, it is possible to give a sense of perspective (depth feeling) to each individual image displayed by the objects OB1 to OB3.
また、隣接するオブジェクトの一部がオーバーラップして重なり合うように配置されており、各オブジェクトOB1〜OB3が連続している。具体的には、波オブジェクトOB2の手前側の端部が砂浜オブジェクトOB1の奥側の端部の上に重なっており、海オブジェクトOB3の手前側の端部が波オブジェクトOB2の奥側の端部の上に重なっている。この場合、波オブジェクトOB2は、砂浜オブジェクトOB1及び海オブジェクトOB3に対してオーバーラップしているため、波オブジェクトOB2が傾斜方向に移動しても各オブジェクトOB1〜OB3間の連続性は確保されている。 Moreover, it arrange | positions so that a part of adjacent object may overlap and it overlaps, and each object OB1-OB3 is continuing. Specifically, the front end of the wave object OB2 overlaps the end on the back side of the sand beach object OB1, and the front end of the sea object OB3 is the end on the back side of the wave object OB2. It overlaps on the top. In this case, since the wave object OB2 overlaps the sand beach object OB1 and the sea object OB3, continuity between the objects OB1 to OB3 is ensured even if the wave object OB2 moves in the tilt direction. .
なお、空オブジェクトOB4は、海オブジェクトOB3の奥側の端部から連続するように配置されている。当該空オブジェクトOB4は+Y方向に起立して配置されている。 The sky object OB4 is arranged so as to continue from the end on the back side of the sea object OB3. The empty object OB4 is erected in the + Y direction.
各オブジェクトOB1〜OB4に対応させて、複数のテクスチャTD1〜TD4が設けられている。これら各テクスチャTD1〜TD4について図70を用いて説明する。図70は、各テクスチャTD1〜TD4を説明するための説明図である。なお、図面の関係上、各テクスチャTD1〜TD4のうち一部を示す。また、2点鎖線は投影領域を示す。 A plurality of textures TD1 to TD4 are provided corresponding to the objects OB1 to OB4. Each of these textures TD1 to TD4 will be described with reference to FIG. FIG. 70 is an explanatory diagram for explaining the textures TD1 to TD4. A part of the textures TD1 to TD4 is shown for the sake of illustration. A two-dot chain line indicates a projection area.
図70に示すように、各テクスチャTD1〜TD4は、各オブジェクトOB1〜OB4に対応させて矩形の画像データとして設定されている。各テクスチャTD1〜TD4には、それぞれ貼り付けられるオブジェクトに対応した画像が描かれており、具体的には、砂浜オブジェクトOB1に対応するテクスチャとして砂浜が描かれた砂浜テクスチャTD1が設けられており、波オブジェクトOB2に対応するテクスチャとして波が描かれた波テクスチャTD2が設けられており、海オブジェクトOB3に対応するテクスチャとして海が描かれた海テクスチャTD3が設けられており、空オブジェクトOB4に対応するテクスチャとして空が描かれた空テクスチャTD4が設けられている。 As shown in FIG. 70, the textures TD1 to TD4 are set as rectangular image data corresponding to the objects OB1 to OB4. In each of the textures TD1 to TD4, an image corresponding to the object to be pasted is drawn. Specifically, a sand beach texture TD1 in which a sand beach is drawn is provided as a texture corresponding to the sand beach object OB1, A wave texture TD2 in which a wave is drawn is provided as a texture corresponding to the wave object OB2, and a sea texture TD3 in which the sea is drawn is provided as a texture corresponding to the sea object OB3, which corresponds to the sky object OB4. An empty texture TD4 in which the sky is drawn as a texture is provided.
ここで、各テクスチャTD1〜TD4は、特定視点PV1から各オブジェクトOB1〜OB3を見た場合に奥行き感のある砂浜背景画像となるように設定されている。具体的には、特定視点PV1から実際に見た場合の映像に対応したものであって、全体として所定のパースペクティブが掛かった(遠近感が生じる)画像データが各テクスチャTD1〜TD4として設定されている。この場合、各テクスチャTD1〜TD4は、各オブジェクトOB1〜OB4により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、特定視点PV1と各オブジェクトOB1〜OB4との距離に対応させて設定されている。これにより、各オブジェクトOB1〜OB4が連続して配置されている状況において特定視点PV1から各オブジェクトOB1〜OB4を透視投影した場合に、パースペクティブの整合性が取れた奥行き感のある砂浜背景画像が生成されることとなる。 Here, the textures TD1 to TD4 are set to be sandy beach background images with a sense of depth when the objects OB1 to OB3 are viewed from the specific viewpoint PV1. Specifically, image data that corresponds to an image actually viewed from the specific viewpoint PV1 and has a predetermined perspective as a whole (perspective) is set as each texture TD1 to TD4. Yes. In this case, the textures TD1 to TD4 are made to correspond to the distances between the specific viewpoint PV1 and the objects OB1 to OB4 so that the perspective (perspective) between the individual images displayed by the objects OB1 to OB4 is matched. Is set. As a result, when the objects OB1 to OB4 are perspectively projected from the specific viewpoint PV1 in a situation where the objects OB1 to OB4 are continuously arranged, a perspective sandy beach background image with a consistent perspective is generated. Will be.
以上の通り、各オブジェクトOB1〜OB4を連続させながらスクリーン領域PC12(YZ平面)に対して傾けて配置するとともに、当該各オブジェクトOB1〜OB4に対して貼り付ける各テクスチャTD1〜TD4として、特定視点PV1から見た映像に対応したものであって、全体として所定のパースペクティブが掛かるように各個別画像間のパースペクティブの整合性を取った画像データを用いることにより、板ポリゴンを用いて奥行き感のある砂浜背景画像を作成することができる。これにより、比較的少ない処理負荷及びデータ量で、現実感のある画像を遊技者に対して視認させることができる。 As described above, the respective objects OB1 to OB4 are arranged while being inclined with respect to the screen area PC12 (YZ plane), and the specific viewpoint PV1 is used as the textures TD1 to TD4 to be pasted to the objects OB1 to OB4. A sandy beach with a sense of depth using plate polygons by using image data that is consistent with the perspective of each individual image so that a predetermined perspective is applied as a whole. A background image can be created. As a result, a realistic image can be visually recognized by the player with a relatively small processing load and data amount.
ちなみに、各個別画像に係るパースペクティブは、各テクスチャTD1〜TD4の画像データよりも、特定視点PV1及び各オブジェクトOB1〜OB4間の距離の方が支配的になっている。つまり、各個別画像に係るパースペクティブは、上記距離の変化に対して大きく変化する。 Incidentally, in the perspective related to each individual image, the distance between the specific viewpoint PV1 and each object OB1 to OB4 is more dominant than the image data of each texture TD1 to TD4. That is, the perspective related to each individual image changes greatly with respect to the change in the distance.
次に、砂浜疾走演出について説明する。 Next, the sand beach sprint production will be described.
砂浜疾走演出とは、連続する複数フレームに亘って、複数の図柄画像が所定の方向に向けて砂浜を走っているように表示される演出である。この演出では、砂浜背景画像を表示するのに用いた各オブジェクトOB1〜OB4及び各テクスチャTD1〜TD4が用いられる。 The sand beach sprint effect is an effect that is displayed as if a plurality of symbol images are running on the sand beach in a predetermined direction over a plurality of consecutive frames. In this effect, the objects OB1 to OB4 and the textures TD1 to TD4 used for displaying the sandy beach background image are used.
ここで、砂浜疾走演出で用いられる背景画像(以降、砂浜背景画像と区別するために演出用背景画像という)は、砂浜背景画像とは視点が異なっている。このため、特定視点PV1に基づいて決定された各テクスチャTD1〜TD4を用いると、パースペクティブの整合性が取れなくなり、違和感のある画像となってしまう。 Here, the background image used for the sand beach sprint effect (hereinafter referred to as the effect background image to be distinguished from the sand beach background image) has a different viewpoint from the sand beach background image. For this reason, when the textures TD1 to TD4 determined based on the specific viewpoint PV1 are used, perspective consistency cannot be obtained, and an uncomfortable image is obtained.
当該現象について図71を用いて説明する。図71は、パースペクティブの変化を説明するための説明図である。なお、説明の便宜上、波オブジェクトOB2及び空オブジェクトOB4を省略し、砂浜オブジェクトOB1及び海オブジェクトOB3を連続させたもので説明する。 This phenomenon will be described with reference to FIG. FIG. 71 is an explanatory diagram for explaining a change in perspective. For convenience of explanation, the wave object OB2 and the sky object OB4 are omitted, and the sandy beach object OB1 and the sea object OB3 are continuous.
既に説明した通り、砂浜オブジェクトOB1及び海オブジェクトOB3はスクリーン領域PC12に対して傾斜しているため、特定視点PV1及び各オブジェクトOB1,OB3間の距離は、各オブジェクトOB1,OB3の部位に応じて異なっている。具体的には、特定視点PV1から砂浜オブジェクトOB1の手前側の端部までの距離R1、特定視点PV1から海オブジェクトOB3の手前側の端部までの距離R2、特定視点PV1から海オブジェクトOB3の奥側の端部までの距離R3、の順に大きくなっている(R1<R2<R3)。かかる状況において、特定視点PV1を視点として透視投影を行うことにより、各距離R1〜R3に応じたパースペクティブが掛かった画像が得られる。 As already described, since the sand beach object OB1 and the sea object OB3 are inclined with respect to the screen area PC12, the distance between the specific viewpoint PV1 and each object OB1, OB3 differs depending on the part of each object OB1, OB3. ing. Specifically, the distance R1 from the specific viewpoint PV1 to the end on the near side of the sand beach object OB1, the distance R2 from the specific viewpoint PV1 to the end on the near side of the sea object OB3, and the back of the sea object OB3 from the specific viewpoint PV1. The distance R3 to the end on the side increases in the order (R1 <R2 <R3). In such a situation, by performing perspective projection with the specific viewpoint PV1 as the viewpoint, an image with a perspective according to each distance R1 to R3 is obtained.
この場合、パースペクティブの掛かり具合は各距離R1〜R3の比率に依存している。具体的には、距離R1に対する距離R2の比率が高いほど砂浜オブジェクトOB1のパースペクティブはより掛かる。そして、距離R2に対する距離R3の比率が高いほど海オブジェクトOB3のパースペクティブはより掛かる。 In this case, the degree of perspective is dependent on the ratio of the distances R1 to R3. Specifically, as the ratio of the distance R2 to the distance R1 is higher, the perspective of the sand beach object OB1 is more increased. Then, as the ratio of the distance R3 to the distance R2 is higher, the perspective of the sea object OB3 is further increased.
また、砂浜オブジェクトOB1及び海オブジェクトOB3に対して貼り付けられる各テクスチャTD1、TD3は、各オブジェクトOB1,OB3(実際には波オブジェクトOB2も含む)により表示される各個別画像間のパースペクティブ(遠近感)が整合するように、上記比率を考慮して設定されている。これにより、パースペクティブの整合性が取れた画像を表示させることが可能となっている。 The textures TD1 and TD3 pasted to the sand beach object OB1 and the sea object OB3 are perspectives (perspective) between the individual images displayed by the objects OB1 and OB3 (actually including the wave object OB2). ) Is set in consideration of the above ratio. As a result, it is possible to display an image with consistent perspective.
ここで、視点を特定視点PV1から−Y方向に移動させて別視点PV2に設定した場合、各距離R1〜R3がそれぞれ距離R1’〜R3’に変化し、上記比率が変化する。これにより、透視投影した場合のパースペクティブの掛かり具合が異なることとなる。すると、距離R1〜R3に合わせて設定された各テクスチャTD1,TD3を用いると、各オブジェクトOB1,OB3間におけるパースペクティブの整合性が取れなくなる。これにより、全体として違和感のある画像となる。 Here, when the viewpoint is moved from the specific viewpoint PV1 in the −Y direction and set to another viewpoint PV2, the distances R1 to R3 change to the distances R1 ′ to R3 ′, respectively, and the ratio changes. As a result, the perspective is different in the perspective projection. Then, if the textures TD1 and TD3 set in accordance with the distances R1 to R3 are used, the perspective consistency between the objects OB1 and OB3 cannot be obtained. As a result, the image becomes uncomfortable as a whole.
特に、各オブジェクトOB1,OB3を所定の方向に移動させて画像の更新を行う場合には、各オブジェクトOB1,OB3に係る画像のパースペクティブが異なることに起因する違和感が目立ち易い。具体的には、奥側に表示されている海が、手前側に表示されている砂浜よりも速く移動したりする。 In particular, when the images are updated by moving the objects OB1 and OB3 in a predetermined direction, a sense of incongruity caused by the different perspectives of the images related to the objects OB1 and OB3 is easily noticeable. Specifically, the sea displayed on the back side moves faster than the sand beach displayed on the near side.
また、視点から画角を変更すると、パースペクティブの掛かり具合が異なることとなるため、上記パースペクティブのずれが目立ち易くなる。 Further, when the angle of view is changed from the viewpoint, the degree of the perspective is different, and thus the perspective shift is easily noticeable.
これに対して、本実施の形態では、演出用背景画像を作成する場合には、透視投影に代えて平行投影を行う構成とし、さらに奥行き方向の距離に応じて各オブジェクトOB1,OB3のサイズを調整する構成とした。これらの構成について図72を用いて説明する。図72は、演出用背景画像を作成する場合の各オブジェクトOB1,OB3の設定態様を説明するための説明図である。 On the other hand, in the present embodiment, when creating a production background image, parallel projection is used instead of perspective projection, and the sizes of the objects OB1 and OB3 are set according to the distance in the depth direction. It was set as the structure adjusted. These configurations will be described with reference to FIG. FIG. 72 is an explanatory diagram for explaining a setting mode of the objects OB1 and OB3 in the case of creating an effect background image.
平行投影とは、既に説明した通り、各オブジェクトの各ポリゴンの頂点がスクリーン領域PC12に対して垂直に直線的に移動するように投影する手法である。当該平行投影を行う場合、視点からの距離に依存しない画像、すなわち遠近感がない画像が表示される。 As described above, the parallel projection is a method of projecting so that the vertices of the polygons of the objects move linearly with respect to the screen area PC12. When performing the parallel projection, an image that does not depend on the distance from the viewpoint, that is, an image having no perspective is displayed.
具体的には、砂浜オブジェクトOB1及び海オブジェクトOB3を平行投影すると、スクリーン領域PC12には、海オブジェクトOB3が砂浜オブジェクトOB1よりも奥側にあるのにも関わらず、両者が視点からの距離に対応したサイズ調整がなされることなく表示される。これにより、両者の間に生じ得るパースペクティブのずれが軽減されることとなる。 Specifically, when the sand beach object OB1 and the sea object OB3 are projected in parallel, the screen area PC12 corresponds to the distance from the viewpoint even though the sea object OB3 is behind the sand beach object OB1. Displayed without any size adjustment. This reduces the perspective shift that may occur between the two.
特に、各個別画像に係るパースペクティブは、各テクスチャTD1,TD3に係るパースペクティブよりも、視点及び各オブジェクトOB1,OB3間の距離に基づくパースペクティブの方が支配的となっているため、上記距離の変化に基づくパースペクティブのずれは目立ち易い。 In particular, the perspective based on the individual images is more dominant in the perspective based on the viewpoint and the distance between the objects OB1 and OB3 than in the perspectives related to the textures TD1 and TD3. Perspective shifts based on are easily noticeable.
これに対して、平行投影を行うことにより、上記距離に基づくパースペクティブ自体が付加されないため、パースペクティブのずれを軽減することが可能となる。 On the other hand, by performing parallel projection, the perspective itself based on the distance is not added, so that the perspective shift can be reduced.
なお、この場合、各テクスチャTD1,TD3に基づくパースペクティブは反映されるが、当該パースペクティブのずれは、上記距離に基づくパースペクティブのずれよりも目立ちにくい。このため、遊技者としては違和感を抱きにくい。 In this case, the perspective based on the textures TD1 and TD3 is reflected, but the perspective shift is less noticeable than the perspective shift based on the distance. For this reason, it is difficult for a player to feel uncomfortable.
なお、各テクスチャTD1,TD3のパースペクティブをなくす処理を実行してもよい。これにより、よりパースペクティブの矛盾のない画像を遊技者に対して視認させることができる。 In addition, you may perform the process which eliminates the perspective of each texture TD1, TD3. Thereby, it is possible to make the player visually recognize an image with no more inconsistent perspective.
具体的には、例えば各テクスチャTD1,TD3において手前側にマッピングされる領域ほど横方向(X方向)に縮小させ、奥側にマッピングされる領域ほど横方向に拡大させる補正処理を実行するとよい。また、例えば各オブジェクトOB1,OB3を、手前側が長辺で奥側が短辺とする台形オブジェクトとし、当該台形オブジェクトに対してテクスチャをマッピングする構成としてもよい。 Specifically, for example, a correction process may be executed in which the area mapped to the near side in each texture TD1, TD3 is reduced in the horizontal direction (X direction) and the area mapped in the back side is enlarged in the horizontal direction. Further, for example, each of the objects OB1 and OB3 may be a trapezoid object having a long side on the front side and a short side on the back side, and a texture may be mapped to the trapezoid object.
平行投影を行う場合、本来砂浜よりも遠くに存在するために、砂浜よりも小さく見えるはずの海がサイズ調整されることなく表示されるため、奥行き感のない画像となる。換言すれば、砂浜及び海間の大きさの比率が視点からの距離に対応していないため、奥行き感のない画像となる。 When performing parallel projection, since the sea originally exists farther than the sandy beach, the sea that should appear smaller than the sandy beach is displayed without being adjusted in size, so that the image does not have a sense of depth. In other words, since the ratio of the size between the beach and the sea does not correspond to the distance from the viewpoint, the image has no sense of depth.
これに対して、上記比率が上記視点からの距離に対応するように各オブジェクトOB1,OB3の倍率が設定されている。具体的には、視点からの距離が大きくなるほど、各オブジェクトOB1,OB3の大きさが徐々に小さくなるように各オブジェクトOB1,OB3の大きさが設定されている。 On the other hand, the magnification of each object OB1, OB3 is set so that the ratio corresponds to the distance from the viewpoint. Specifically, the sizes of the objects OB1 and OB3 are set so that the sizes of the objects OB1 and OB3 gradually decrease as the distance from the viewpoint increases.
より詳細に説明すると、変更された視点から砂浜オブジェクトOB1及び海オブジェクトOB3を透視投影すると、図72に示す領域Aにて砂浜オブジェクトOB1に係る画像である砂浜画像が表示される。そして、図72に示す領域Bにて海オブジェクトOB3に係る画像である海画像が表示される。上記各領域A,Bの大きさの比率は、視点からの距離に依存したものである。 More specifically, when the sand beach object OB1 and the sea object OB3 are perspective-projected from the changed viewpoint, a sand beach image that is an image related to the sand beach object OB1 is displayed in a region A shown in FIG. Then, a sea image that is an image related to the sea object OB3 is displayed in a region B shown in FIG. The ratio of the sizes of the areas A and B depends on the distance from the viewpoint.
各オブジェクトOB1,OB3のサイズ及び座標(詳細にはY座標)は、平行投影された場合に当該各オブジェクトOB1,OB3に係る画像が表示される領域が上記各領域A,Bと同一となるように設定されている。これにより、擬似的に遠近感のある演出用背景画像が表示されることとなる。 The size and coordinates (specifically, the Y coordinate) of the objects OB1 and OB3 are such that the areas where the images related to the objects OB1 and OB3 are displayed are the same as the areas A and B when parallel projection is performed. Is set to As a result, an effect background image with a sense of perspective is displayed.
なお、説明の便宜上、波オブジェクトOB2を省略した態様で説明したが、波オブジェクトOB2が設定されている状況についても同様である。 For convenience of explanation, the wave object OB2 is omitted. However, the same applies to the situation where the wave object OB2 is set.
上記各画像表示に係る具体的な処理構成について以下に説明する。 A specific processing configuration relating to each image display will be described below.
先ず、砂浜背景用演算処理について図73のフローチャートを用いて説明する。当該砂浜背景用演算処理は、現状設定されているデータテーブルが砂浜背景画像の表示に対応したものである場合に、表示CPU131のタスク処理(図14)における背景用演算処理(ステップS903)にて実行される。
First, the sand beach background calculation process will be described with reference to the flowchart of FIG. The sand beach background calculation process is performed in the background calculation process (step S903) in the task process (FIG. 14) of the
ステップS4201では、砂浜背景画像を表示するのに必要な各オブジェクトOB1〜OB4を把握する。 In step S4201, each object OB1 to OB4 necessary for displaying the sandy beach background image is grasped.
その後、ステップS4202にて、各オブジェクトOB1〜OB4の座標及び角度を更新する。具体的には、ワールド座標系に配置された場合に、各オブジェクトOB1〜OB4が奥行き方向(特定視点PV1から遠ざかる方向)に連続して並ぶように且つ空オブジェクトOB4を除く各オブジェクトOB1〜OB4がスクリーン領域PC12に対して所定の角度傾くように各座標を設定する。 Thereafter, in step S4202, the coordinates and angles of the objects OB1 to OB4 are updated. Specifically, when arranged in the world coordinate system, the objects OB1 to OB4 excluding the empty object OB4 are arranged so that the objects OB1 to OB4 are continuously arranged in the depth direction (the direction away from the specific viewpoint PV1). Each coordinate is set so as to be inclined at a predetermined angle with respect to the screen area PC12.
続くステップS4203では、各テクスチャのアドレス設定処理を実行する。具体的には、各オブジェクトOB1〜OB4に対して貼り付けられる各テクスチャTD1〜TD4のアドレスを設定する。その後、ステップS4204にてその他のパラメータを更新する演算処理を行う。 In subsequent step S4203, an address setting process for each texture is executed. Specifically, the addresses of the textures TD1 to TD4 to be pasted on the objects OB1 to OB4 are set. Thereafter, calculation processing for updating other parameters is performed in step S4204.
続くステップS4205では、各オブジェクトOB1〜OB4を透視投影することを特定するための情報である透視投影指定情報を設定する。そして、ステップS4206にてその他の背景用オブジェクトを把握し、ステップS4207にて当該その他の背景用オブジェクトのパラメータの更新に係る演算処理を行い、本砂浜背景用演算処理を終了する。 In a succeeding step S4205, perspective projection designation information which is information for specifying that each of the objects OB1 to OB4 is perspectively projected is set. In step S4206, the other background object is grasped. In step S4207, calculation processing related to the parameter update of the other background object is performed, and the sandy beach background calculation processing ends.
かかる処理が行われた場合、その後に行われる描画リスト出力処理(ステップS806)では、描画対象として各オブジェクトOB1〜OB4が設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用される各種パラメータが設定された描画リストが作成される。また、描画リストには、透視投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1〜OB4を既に説明した通りの位置関係となるように各オブジェクトOB1〜OB4を配置し、透視投影を行う。これにより、遠近感のある画像が作成される。
When such processing is performed, in the subsequent drawing list output processing (step S806), the respective objects OB1 to OB4 are set as drawing targets, and various parameters applied to the respective objects OB1 to OB4. A drawing list in which is set is created. Further, perspective projection designation information is set in the drawing list. When the
次に、砂浜疾走演出の背景用演算処理について図74(a)のフローチャートを用いて説明する。砂浜疾走演出の背景用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、表示CPU131のタスク処理(図14)におけるステップS903の背景用演算処理にて実行される。
Next, the background arithmetic processing for the sand beach sprint effect will be described with reference to the flowchart of FIG. The background computing process for the sand beach running effect is executed in the background computing process in step S903 in the task process (FIG. 14) of the
先ずステップS4301では、現状設定されているデータテーブルに基づいて、砂浜疾走演出中であるか否かを判定する。 First, in step S4301, it is determined based on the currently set data table whether or not the sand beach sprint effect is being performed.
砂浜疾走演出中でない場合には、ステップS4302に進み、砂浜疾走演出の開始タイミングであるか否かを判定する。 If it is not during the sand beach sprint production, the process proceeds to step S4302 and it is determined whether or not it is the start timing of the beach sprint production.
砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4303〜ステップS4308にて、演出用背景画像を描画するための初期設定処理を実行する。 If it is not the start timing of the sand beach sprint production, this calculation process is terminated as it is, but if it is the start timing of the sand beach sprint production, the initial setting for rendering the background image for production is performed in steps S4303 to S4308. Execute the process.
具体的には、先ずステップS4303にて、各オブジェクトOB1〜OB4を把握する処理を実行する。 Specifically, first, in step S4303, processing for grasping each object OB1 to OB4 is executed.
そして、ステップS4304にて、各オブジェクトOB1〜OB4の座標を調整する処理を実行し、更にステップS4305にて、各オブジェクトOB1〜OB4に対して適用される倍率を調整する処理を実行する。具体的には、各オブジェクトOB1〜OB4に対して、演出用背景画像に対応した座標及び倍率を設定する。詳細には、各オブジェクトOB1〜OB4が平行投影された場合に、当該平行投影された領域が砂浜背景画像を表示させる場合の各オブジェクトOB1〜OB4の座標系において別視点PV2から透視投影を行った場合の投影領域と重なるように、各オブジェクトOB1〜OB4の座標及び倍率を設定する。 In step S4304, a process of adjusting the coordinates of the objects OB1 to OB4 is executed. In step S4305, a process of adjusting the magnification applied to the objects OB1 to OB4 is executed. Specifically, coordinates and a magnification corresponding to the effect background image are set for each of the objects OB1 to OB4. Specifically, when the objects OB1 to OB4 are projected in parallel, perspective projection is performed from another viewpoint PV2 in the coordinate system of the objects OB1 to OB4 when the parallel projected region displays a sandy beach background image. The coordinates and magnifications of the objects OB1 to OB4 are set so as to overlap with the projection area in the case.
その後、ステップS4306にて視点として別視点PV2を設定し、ステップS4307にて、その他のパラメータの初期設定に係る演算処理を実行する。そして、ステップS4308にて、平行投影指定情報を設定する。当該平行投影指定情報は、VDP135において各オブジェクトOB1〜OB4を平行投影するように指示するための情報である。
Thereafter, another viewpoint PV2 is set as the viewpoint in step S4306, and in step S4307, arithmetic processing related to initial setting of other parameters is executed. In step S4308, parallel projection designation information is set. The parallel projection designation information is information for instructing the
その後、ステップS4309にてその他の背景用オブジェクトを把握し、ステップS4310にて当該その他の背景用オブジェクトに対して適用される各種パラメータを更新に係る演算処理を実行して、本演算処理を終了する。 Thereafter, in step S4309, the other background object is grasped, and in step S4310, calculation processing related to updating various parameters applied to the other background object is executed, and this calculation processing is ended. .
かかる処理が行われた場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、描画対象として各オブジェクトOB1〜OB4が設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用される各種パラメータが設定される。当該各種パラメータは、各オブジェクトOB1〜OB4が平行投影される場合に対応したものである。 When such processing is performed, each object OB1 to OB4 is set as a drawing target in the drawing list created in the subsequent drawing list output process (step S806), and for each object OB1 to OB4. Various parameters to be applied are set. The various parameters correspond to the case where the objects OB1 to OB4 are projected in parallel.
また、上記描画リストには平行投影指定情報が設定されている。VDP135は、上記描画リストを受信した場合には、各オブジェクトOB1〜OB4を把握し、各オブジェクトOB1〜OB4に対して平行投影に対応したパラメータを適用した状態で、別視点PV2を基準とする平行投影を行う。これにより、砂浜背景画像の視点(特定視点PV1)とは異なる視点(別視点PV2)から見た演出用背景画像が作成される。
In addition, parallel projection designation information is set in the drawing list. When the
砂浜疾走演出中である場合には、ステップS4311〜ステップS4314にて、演出用背景画像をスクロールするための処理を実行する。具体的には、先ずステップS4311にて、各オブジェクトOB1〜OB4を把握する。 If the sand beach running effect is being performed, processing for scrolling the effect background image is executed in steps S4311 to S4314. Specifically, first, in step S4311, each object OB1 to OB4 is grasped.
続くステップS4312では、視点の位置を更新する処理を実行する。具体的には、現状設定されている視点から第1変位量だけ−X方向に変位させる処理を実行する。 In a succeeding step S4312, a process for updating the viewpoint position is executed. Specifically, a process of displacing in the −X direction by the first displacement amount from the currently set viewpoint is executed.
その後、ステップS4313にて、各オブジェクトOB1〜OB4に適用されるパラメータを更新する演算処理を実行する。具体的には、各オブジェクトOB1〜OB4を現状の座標から所定の変位量だけ−X方向に移動させる。当該所定の変位量は、−X方向への視点の変位量よりも小さい範囲内で、各オブジェクトOB1〜OB4と視点との距離に応じて設定されている。 After that, in step S4313, a calculation process for updating parameters applied to the objects OB1 to OB4 is executed. Specifically, the objects OB1 to OB4 are moved in the −X direction by a predetermined displacement amount from the current coordinates. The predetermined displacement amount is set in accordance with the distance between each object OB1 to OB4 and the viewpoint within a range smaller than the displacement amount of the viewpoint in the −X direction.
具体的には、図74(b)の説明図に示すように、視点と各オブジェクトOB1〜OB4とのZ方向の距離が大きくなるほど、視点に対する各オブジェクトOB1〜OB4の相対速度が小さくなるように、各オブジェクトOB1〜OB4の変位量が設定されている。詳細には、視点と各オブジェクトOB1〜OB4のZ方向の距離との距離が大きくなるほど、各オブジェクトOB1〜OB4の変位量と第1変位量との差分が小さくなるように各オブジェクトOB1〜OB4の変位量が設定されている。これにより、視点に対して手前側に配置されているオブジェクトほど+X方向に速く移動するように見え、視点に対して奥側に配置されているオブジェクトほど+X方向に遅く移動するように見える。よって、擬似的な遠近感を表現することができる。 Specifically, as shown in the explanatory diagram of FIG. 74B, the relative speed of each object OB1 to OB4 with respect to the viewpoint decreases as the distance in the Z direction between the viewpoint and each object OB1 to OB4 increases. The displacement amount of each object OB1 to OB4 is set. Specifically, as the distance between the viewpoint and the distance in the Z direction of each object OB1 to OB4 increases, the difference between the displacement amount of each object OB1 to OB4 and the first displacement amount becomes smaller. The amount of displacement is set. As a result, the object arranged closer to the viewpoint appears to move faster in the + X direction, and the object arranged farther to the viewpoint appears to move slower in the + X direction. Therefore, a pseudo perspective can be expressed.
また、波オブジェクトOB2については、−X方向への変位だけでなく、Y座標及びZ座標についても座標を更新する処理を実行する。具体的には、図69(b)に示すように、波オブジェクトOB2を、傾斜角度を維持した状態で手前側に進むようにY座標及びZ座標を設定する。これにより、波が手前側に打ち寄せてくる様子を表現することができる。 For the wave object OB2, not only the displacement in the −X direction, but also the process of updating the coordinates for the Y coordinate and the Z coordinate is executed. Specifically, as shown in FIG. 69 (b), the Y coordinate and the Z coordinate are set so that the wave object OB2 moves forward while maintaining the tilt angle. As a result, it is possible to express a state in which the waves approach the near side.
すなわち、砂浜オブジェクトOB1に対して波オブジェクトOB2を、視点から見て重なり合うように(詳細にはZ方向にずらして)配置し、当該波オブジェクトOB2を砂浜オブジェクトOB1に対して相対的に変位させることにより、砂浜に対して重なるように波が表示されることとなる。 That is, the wave object OB2 is disposed so as to overlap the sand beach object OB1 as viewed from the viewpoint (specifically, shifted in the Z direction), and the wave object OB2 is displaced relative to the sand beach object OB1. Thus, the wave is displayed so as to overlap the sand beach.
そして、波オブジェクトOB2の初期位置からの変位量が予め特定量となった場合には、座標を維持するとともに、波オブジェクトOB2が徐々に消えていくように一律α値を更新する処理を実行する。そして、一律α値が所定の値(例えば完全透過のα値)となったことに基づいて、再度波オブジェクトOB2を初期位置に配置して一連の処理を実行する。これにより、波が打ち寄せて消えていく様子を繰り返し見せることができ、リアルな波を実現することができる。 Then, when the displacement amount from the initial position of the wave object OB2 becomes a specific amount in advance, the coordinate is maintained and a process of updating the uniform α value so that the wave object OB2 gradually disappears is executed. . Then, based on the fact that the uniform α value has become a predetermined value (for example, the α value of complete transmission), the wave object OB2 is again arranged at the initial position and a series of processing is executed. As a result, it is possible to repeatedly show the waves rushing and disappearing, and real waves can be realized.
その後、ステップS4314にて平行投影指定情報を設定し、ステップS4309及びステップS4310の処理を実行して、本演算処理を終了する。 Thereafter, parallel projection designation information is set in step S4314, the processes in steps S4309 and S4310 are executed, and the present calculation process is terminated.
かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、背景用画像を表示するのに必要な各オブジェクトOB1〜OB4が描画対象として設定されるとともに、当該各オブジェクトOB1〜OB4に対して適用されるパラメータ情報が設定される。当該各種パラメータには、視点が−X方向に移動するよう設定されているとともに、視点と各オブジェクトOB1〜OB4との距離が大きくなるに従って当該視点に対する相対速度が小さくなるように各オブジェクトOB1〜OB4の座標の変位量が設定されている。これにより、演出用背景画像が+X方向にスクロールするように表示されることとなる。 When such processing is executed, each of the objects OB1 to OB4 necessary for displaying the background image is set as a drawing target in the drawing list created in the subsequent drawing list output processing. Parameter information applied to the objects OB1 to OB4 is set. The various parameters are set so that the viewpoint moves in the −X direction, and the objects OB1 to OB4 are set such that the relative speed with respect to the viewpoint decreases as the distance between the viewpoint and the objects OB1 to OB4 increases. The amount of displacement of the coordinates is set. As a result, the effect background image is displayed so as to scroll in the + X direction.
なお、視点が移動することにより、投影対象となる領域が各オブジェクトOB1〜OB4の端側の領域にとなった場合には、現状投影対象となっている各オブジェクトOB1〜OB4に対して視点の進行方向の先側に同一の各オブジェクトOB1〜OB4を連続して設定するように構成されている。これにより、視点が各オブジェクトOB1〜OB4よりも速い速度で移動することに起因して演出用背景画像が途切れてしまう不都合を回避することができる。 In addition, when the area to be projected becomes an area on the end side of each object OB1 to OB4 due to the movement of the viewpoint, the viewpoint of each object OB1 to OB4 currently being projected is changed. Each of the same objects OB1 to OB4 is set continuously on the front side in the traveling direction. Thereby, it is possible to avoid the inconvenience that the effect background image is interrupted due to the viewpoint moving at a faster speed than the objects OB1 to OB4.
また、各テクスチャTD1〜TD4における視点の移動方向に対応した両端部、具体的にはX方向の両端部は、描かれた模様が連続するように設定されているとよい。これにより、オブジェクトの切れ目が把握されにくいため、遊技者に対して違和感を与えにくい。 Further, both ends corresponding to the moving direction of the viewpoint in each texture TD1 to TD4, specifically, both ends in the X direction may be set so that the drawn pattern is continuous. This makes it difficult to grasp the discontinuity of the object, so that it is difficult for the player to feel uncomfortable.
次に、砂浜疾走演出の演出用演算処理について図75のフローチャートを用いて説明する。砂浜疾走演出の演出用演算処理は、現状設定されているデータテーブルが砂浜疾走演出に対応したものである場合に、タスク処理(図14)における演出用演算処理(ステップS904)にて実行される処理である。 Next, the calculation process for producing the sand beach sprint effect will be described with reference to the flowchart of FIG. When the currently set data table corresponds to the sand beach sprinting effect, the sandy sprinting performance calculation process is executed by the effect calculation process (step S904) in the task process (FIG. 14). It is processing.
先ず、ステップS4401では、現状設定されているデータテーブルに基づいて砂浜疾走演出中であるか否かを判定する。 First, in step S4401, it is determined whether or not the sand beach sprint effect is being performed based on the currently set data table.
砂浜疾走演出中でない場合には、ステップS4402に進み、現状設定されているデータテーブルに基づいて砂浜疾走演出の開始タイミングであるか否かを判定する。 If it is not during the sand beach sprint production, the process proceeds to step S4402, and it is determined whether or not it is the start timing of the beach sprint production based on the currently set data table.
砂浜疾走演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、砂浜疾走演出の開始タイミングである場合には、ステップS4403に進み、疾走対象の図柄オブジェクトを把握する。そして、ステップS4404にて当該図柄オブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、図柄オブジェクトが平行投影された場合に、当該図柄オブジェクトに係る画像が砂浜画像に重なるように図柄オブジェクトの座標を設定する。詳細には、砂浜オブジェクトOB1とスクリーン領域PC12との間に図柄オブジェクトを配置する。 If it is not the start timing of the sand beach sprint production, the present calculation process is terminated. If it is the start timing of the sand beach sprint production, the process proceeds to step S4403, and the symbol object to be run is grasped. In step S4404, an arithmetic process related to initial setting of various parameter information applied to the symbol object is executed. In this case, when the symbol object is projected in parallel, the coordinates of the symbol object are set so that the image related to the symbol object overlaps the sand beach image. Specifically, the symbol object is arranged between the sand beach object OB1 and the screen area PC12.
その後、ステップS4405にて、今回の描画対象となる教示用のオブジェクトを把握する。教示用のオブジェクトは、既に説明した通り、遊技状況を遊技者に教示可能となる画像を表示する場合に利用されるオブジェクトであり、詳細には現状のラウンドが何番目のラウンドであるかを教示するためのオブジェクトと、開閉実行モードが連続して行われた回数を示すためのオブジェクトと、が設定されている。ステップS4405では、これらの教示用のオブジェクトを把握する。 Thereafter, in step S4405, the teaching object to be drawn this time is grasped. As already explained, the teaching object is an object that is used when displaying an image that enables the player to teach the game situation, and in detail, tells what number the current round is. And an object for indicating the number of times that the opening / closing execution mode is continuously performed are set. In step S4405, these teaching objects are grasped.
そして、ステップS4406にて上記教示用のオブジェクトに対して適用される各種パラメータ情報の初期設定に係る演算処理を実行する。この場合、教示用のオブジェクトが演出用背景画像の生成に用いられる各オブジェクトOB1〜OB4よりも視点側に配置されるように当該教示用のオブジェクトの座標を設定する。そして、本演算処理を終了する。 In step S4406, arithmetic processing related to initial setting of various parameter information applied to the teaching object is executed. In this case, the coordinates of the teaching object are set so that the teaching object is arranged on the viewpoint side with respect to the objects OB1 to OB4 used for generating the effect background image. Then, this calculation process ends.
かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成される描画リストには、図柄オブジェクト及び教示用のオブジェクトが描画対象として設定されるとともに、これらのオブジェクトに対して適用されるパラメータが設定される。これらのオブジェクトは演出用背景画像の生成に用いられる各オブジェクトOB1〜OB4よりも視点側に配置されるようになっている。これにより、上記各オブジェクトに対して平行投影が行われることにより、演出用背景画像に対して重なるようにして図柄画像及び教示用画像が表示されることとなる。 When such processing is executed, in the drawing list created in the subsequent drawing list output processing (step S806), the symbol object and the teaching object are set as drawing targets, and for these objects, Applicable parameters are set. These objects are arranged closer to the viewpoint than the objects OB1 to OB4 used for generating the effect background image. As a result, by performing parallel projection on each of the objects, the design image and the teaching image are displayed so as to overlap the effect background image.
砂浜疾走演出中である場合には、ステップS4407にて疾走対象の図柄オブジェクトを把握する処理を実行する。そして、ステップS4408にて図柄オブジェクトに適用されるパラメータを更新する演算処理を実行する。具体的には、−X方向の視点の移動に伴って図柄オブジェクトが移動するように図柄オブジェクトの座標を更新する。この場合、視点の変位量と図柄オブジェクトの変位量とを同一に設定する。これにより、視点の移動と図柄オブジェクトの移動とを同期させることができ、図柄画像の移動に伴って視点が追従していくように見せることができる。 If the sand beach sprint production is being performed, in step S4407, a process of grasping the sprint target symbol object is executed. In step S4408, a calculation process for updating parameters applied to the symbol object is executed. Specifically, the coordinates of the symbol object are updated so that the symbol object moves as the viewpoint moves in the -X direction. In this case, the viewpoint displacement and the symbol object displacement are set to be the same. Thereby, the movement of the viewpoint and the movement of the symbol object can be synchronized, and the viewpoint can appear to follow as the symbol image moves.
続くステップS4409及びステップS4410では、視点の移動に伴う教示用のオブジェクトの更新処理を実行する。具体的には、先ずステップS4409にて教示用のオブジェクトを把握する。そして、ステップS4410にて、教示用のオブジェクトに適用されるパラメータを更新する演算処理実行する。詳細には、−X方向の視点の移動に伴って教示用のオブジェクトが移動するように当該教示用のオブジェクトの座標を更新する。この場合、視点の変位量と教示用のオブジェクトの変位量とを同一に設定する。これにより、視点の移動と教示用のオブジェクトの移動とを同期させることができ、教示用画像を常に表示させることが可能となる。 In subsequent steps S4409 and S4410, update processing of the teaching object accompanying the movement of the viewpoint is executed. Specifically, first, in step S4409, a teaching object is grasped. In step S4410, calculation processing for updating parameters applied to the teaching object is executed. Specifically, the coordinates of the teaching object are updated so that the teaching object moves as the viewpoint in the −X direction moves. In this case, the viewpoint displacement amount and the teaching object displacement amount are set to be the same. Thereby, the movement of the viewpoint and the movement of the teaching object can be synchronized, and the teaching image can always be displayed.
なお、上記処理では、便宜上、ステップS4403〜ステップS4406の処理と、ステップS4407〜ステップS4410の処理と、を分けて表示したが、これに限られず、これらの処理を共通化してもよい。この場合、データテーブル上に各更新タイミングにおいて設定すべき画像データを予め設定しておき、更新タイミングとなる度に、当該更新タイミングに対応した上記各種画像データを適宜読み出し、描画に係る設定処理を行う構成とすればよい。 In the above process, for the sake of convenience, the process of step S4403 to step S4406 and the process of step S4407 to step S4410 are displayed separately. However, the present invention is not limited to this, and these processes may be shared. In this case, image data to be set at each update timing is set in advance on the data table, and each time the update timing is reached, the various image data corresponding to the update timing is appropriately read, and a setting process related to drawing is performed. What is necessary is just to make it the structure to perform.
次に、砂浜背景画像及び砂浜疾走演出の様子について図76を用いて説明する。図76(a)は砂浜背景画像が表示された表示面Gを示す説明図、図76(b)は砂浜疾走演出の様子を説明するための説明図である。 Next, the state of the sand beach background image and the sand beach running effect will be described with reference to FIG. FIG. 76A is an explanatory diagram showing the display surface G on which the sandy beach background image is displayed, and FIG. 76B is an explanatory diagram for explaining the state of the sand beach sprint effect.
図76(a)に示すように、砂浜背景画像BP10には、手前側から順に、第1砂画像BP11、第1波画像BP12、第1海画像BP13、第1空画像BP14が表示されている。砂浜背景画像BP10は、遠近感のある画像であり、具体的には例えば第1海画像BP13においては奥側(水平線)に近づくに従って波の間隔及び波の幅が小さくなるようになっている。 As shown in FIG. 76A, in the sand beach background image BP10, a first sand image BP11, a first wave image BP12, a first sea image BP13, and a first sky image BP14 are displayed in this order from the front side. . The sandy beach background image BP10 is an image with a sense of perspective. Specifically, for example, in the first sea image BP13, the wave interval and the wave width become smaller as it approaches the back side (horizontal line).
砂浜疾走演出では、図76(b)に示すように、手前側から順に、第2砂画像BP21、第2波画像BP22、第2海画像BP23、第2空画像BP24が表示された画像であって砂浜背景画像BP10とは視点が異なる演出用背景画像BP20が表示される。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に小さく表示されるため、遠近感のある画像となっている。 In the sand beach sprint production, as shown in FIG. 76 (b), the second sand image BP21, the second wave image BP22, the second sea image BP23, and the second sky image BP24 are displayed in order from the front side. An effect background image BP20 having a different viewpoint from the sand beach background image BP10 is displayed. In this case, the second sand image BP21, the second wave image BP22, the second sea image BP23, and the second sky image BP24 are displayed in this order, and thus the image has a sense of perspective.
そして、演出用背景画像BP20に対して重なるように図柄画像CP1〜CP3及び教示用画像CP4,CP5が表示される。そして、演出用背景画像BP20が+X方向に対応する方向である右方向に移動することにより、当該図柄画像CP1〜CP3が−X方向に対応する方向である左方向に向けて移動するように見える。この場合、第2砂画像BP21→第2波画像BP22→第2海画像BP23→第2空画像BP24の順に、移動速度は遅くなっている。これにより、奥側(視点から遠く)にあるものほどゆっくり移動するように見え、遠近感が生じている。 Then, the design images CP1 to CP3 and the teaching images CP4 and CP5 are displayed so as to overlap the effect background image BP20. Then, when the effect background image BP20 moves in the right direction corresponding to the + X direction, the symbol images CP1 to CP3 appear to move toward the left direction corresponding to the −X direction. . In this case, the moving speed decreases in the order of the second sand image BP21 → the second wave image BP22 → the second sea image BP23 → the second sky image BP24. As a result, the object on the far side (far from the viewpoint) appears to move more slowly, giving rise to a sense of perspective.
以上の通り、各オブジェクトOB1〜OB4を奥行き方向に並べて配置するとともに、各オブジェクトOB1〜OB4に対して貼り付けるテクスチャとして、特定視点PV1から見た場合の画像に対応したものを用意し、これらを透視投影することにより砂浜背景画像BP10を表示させる構成において、特定視点PV1とは異なる別視点PV2に基づく演出用背景画像BP20を表示させる場合には各オブジェクトOB1〜OB4を平行投影する構成とした。これにより、用いるテクスチャの共通化を図りつつ、視点の変更に伴うパースペクティブの整合性のずれを抑制することができる。よって、テクスチャの共通化を図ることができる点でデータ量の削減を図ることができる。 As described above, the objects OB1 to OB4 are arranged side by side in the depth direction, and as textures to be attached to the objects OB1 to OB4, those corresponding to the image viewed from the specific viewpoint PV1 are prepared. In the configuration in which the sandy beach background image BP10 is displayed by perspective projection, when the effect background image BP20 based on the different viewpoint PV2 different from the specific viewpoint PV1 is displayed, the objects OB1 to OB4 are parallel projected. Accordingly, it is possible to suppress a deviation in perspective consistency due to a change in viewpoint while sharing the texture to be used. Therefore, the amount of data can be reduced in that the texture can be shared.
特に、比較的簡素なオブジェクトである板ポリゴンで構成された各オブジェクトOB1〜OB4を投影平面に対して傾斜して配置し、これら各オブジェクトOB1〜OB4を透視投影することにより、比較的少ない処理負荷でパースペクティブが掛かった砂浜背景画像BP10を生成することができる。一方、視点が異なると、透視投影に基づくパースペクティブの掛かり具合のずれが目立ち易くなる。 In particular, each of the objects OB1 to OB4 made up of plate polygons, which are relatively simple objects, is arranged to be inclined with respect to the projection plane, and each of these objects OB1 to OB4 is perspectively projected, so that the processing load is relatively small. A sandy beach background image BP10 with a perspective can be generated. On the other hand, when the viewpoints are different, the shift of the perspective application based on the perspective projection is easily noticeable.
これに対して、視点が異なる演出用背景画像BP20を生成する場合には、パースペクティブを生じさせない平行投影を行うことにより、上記ずれの発生を抑制することができる。 On the other hand, when the production background image BP20 having a different viewpoint is generated, the occurrence of the shift can be suppressed by performing parallel projection without generating a perspective.
この場合、視点と各オブジェクトOB1〜OB4との距離が大きくなるほど、各オブジェクトOB1〜OB4の倍率を小さくするとともに、視点に対する各オブジェクトOB1〜OB4の相対移動速度を小さくする構成とした。これにより、平行投影により得られる画像を遠近感のある画像に見せることができる。 In this case, as the distance between the viewpoint and each of the objects OB1 to OB4 increases, the magnification of each of the objects OB1 to OB4 is decreased and the relative movement speed of each of the objects OB1 to OB4 with respect to the viewpoint is decreased. Thereby, an image obtained by parallel projection can be shown as a perspective image.
なお、上記構成では、各オブジェクトOB1〜OB4は板状ポリゴンであったが、これに限られず、例えば各オブジェクトOB1〜OB4のいずれかを、表示対象となる画像に対応させて設定された3次元の特定オブジェクトとして構成してもよい。この場合、当該特定オブジェクトに対応させてテクスチャを設け、当該テクスチャを上記特定オブジェクトに貼り付ける構成とする。これにより、上記特定オブジェクトに係る画像については視点の変化に対応することができる一方、他のオブジェクトについては視点の変化に対応することができず、パースペクティブの整合性が取れなくなる事態が生じ得る。これに対して、視点が変化した場合には平行投影を行うことにより、両者のずれを軽減することができる。 In the above configuration, each of the objects OB1 to OB4 is a plate-like polygon. However, the present invention is not limited to this. For example, any one of the objects OB1 to OB4 is set in correspondence with an image to be displayed. You may comprise as a specific object. In this case, a texture is provided corresponding to the specific object, and the texture is pasted on the specific object. As a result, the image relating to the specific object can cope with the change in viewpoint, while the other object cannot cope with the change in viewpoint, and the perspective may not be consistent. On the other hand, when the viewpoint changes, parallel projection is performed to reduce the deviation between the two.
また、上記構成では、別視点PV2は特定視点PV1を−Y方向に移動した位置としたが、これに限られず、例えばZ方向にずらした位置にしてもよく、任意である。 In the above configuration, the different viewpoint PV2 is a position where the specific viewpoint PV1 is moved in the -Y direction, but is not limited thereto, and may be a position shifted in the Z direction, for example.
また、各オブジェクトOB1〜OB4に係る画像間のパースペクティブの整合性について説明したが、これに限られず、例えば最背面画像等の2次元画像データに係る画像と、1のオブジェクトに係る画像との整合性についても同様である。つまり、1のオブジェクトと2次元画像データとを組み合わせて1の画像を表示させる場合にも視点の変化に伴う透視投影と平行投影との切換を適用することができる。 Further, the perspective consistency between the images related to the objects OB1 to OB4 has been described. However, the present invention is not limited to this. For example, the alignment of the image related to the two-dimensional image data such as the backmost image and the image related to one object is performed. The same applies to sex. That is, even when one image is displayed by combining one object and two-dimensional image data, switching between perspective projection and parallel projection accompanying a change in viewpoint can be applied.
上記構成では、砂浜背景画像BP10を表示するのに用いられるテクスチャを、演出用背景画像BP20を表示するのに用いる構成としたが、これに限られず、所定の画像を表示するのに用いられるテクスチャを、上記所定の画像とは視点が異なる画像を表示するのに用いる構成であればよく、具体的な表示内容については任意である。 In the above configuration, the texture used to display the sand beach background image BP10 is used to display the effect background image BP20. However, the texture is not limited to this, and is used to display a predetermined image. May be used for displaying an image having a different viewpoint from the predetermined image, and the specific display content is arbitrary.
また、上記構成では、視点を−X方向に移動させる構成としたが、これに限られず、移動させない構成としてもよい。この場合、各オブジェクトOB1〜OB4を+X方向に移動させる構成とし、その移動量を視点からの距離に応じて異ならせる構成とするとよい。また、視点の移動方向は−X方向としたが、これに限られず、任意である。 In the above configuration, the viewpoint is moved in the −X direction. However, the present invention is not limited to this, and may be configured not to move. In this case, each of the objects OB1 to OB4 may be configured to move in the + X direction, and the amount of movement may be varied according to the distance from the viewpoint. Further, although the viewpoint movement direction is the -X direction, it is not limited to this and is arbitrary.
上記構成では、各オブジェクトOB1〜OB4を平行投影した場合の領域が、各オブジェクトOB1〜OB4を透視投影した場合の領域と重なるように、各オブジェクトOB1〜OB4の座標及び倍率を設定したが、これに限られない。要は、別視点PV2に対応した画像であって遠近感が生じるように各オブジェクトOB1〜OB4の座標及び倍率を調整する構成であればよい。 In the above configuration, the coordinates and magnifications of the objects OB1 to OB4 are set so that the areas when the objects OB1 to OB4 are projected in parallel overlap the areas when the objects OB1 to OB4 are perspectively projected. Not limited to. In short, any image corresponding to another viewpoint PV2 may be used as long as the coordinates and magnifications of the objects OB1 to OB4 are adjusted so that a perspective is generated.
さらに、演出用背景画像BP20を表示させる場合に、各オブジェクトOB1〜OB3の傾斜角度を、砂浜背景画像BP10を表示させる場合の傾斜角度から変更する構成としてもよく、各オブジェクトOB1〜OB3の傾斜角度を個別に変更してもよい。 Furthermore, when displaying the effect background image BP20, the inclination angle of each object OB1 to OB3 may be changed from the inclination angle when the sand beach background image BP10 is displayed, and the inclination angle of each object OB1 to OB3 may be changed. May be changed individually.
また、砂浜疾走演出にて描画対象となる教示用のオブジェクト及び図柄オブジェクトに対する投影パターンとしては、平行投影及び透視投影どちらでもよい。平行投影を行う場合には図柄画像CP1〜CP3及び教示用画像CP4,CP5を見易く表示させることができる一方、透視投影を行う場合には上記各画像CP1〜CP5を立体的に表示させることができる。 In addition, the projection pattern for the teaching object and the pattern object to be drawn in the sand beach running effect may be either parallel projection or perspective projection. When parallel projection is performed, the symbol images CP1 to CP3 and teaching images CP4 and CP5 can be displayed in an easy-to-see manner. On the other hand, when perspective projection is performed, the images CP1 to CP5 can be displayed stereoscopically. .
また、教示用のオブジェクトの投影パターンを平行投影に設定し、図柄オブジェクトの投影パターンを透視投影にする構成としてもよい。この場合、教示用画像CP4,CP5を見易く表示させつつ、砂浜疾走演出に係る図柄画像CP1〜CP3を立体的に表示させることができる。 Alternatively, the projection pattern of the teaching object may be set to parallel projection, and the projection pattern of the pattern object may be a perspective projection. In this case, the symbol images CP1 to CP3 related to the sandy beach running effect can be displayed in a three-dimensional manner while the teaching images CP4 and CP5 are easily displayed.
<第2の実施形態>
本実施の形態では、表示演出として歪み演出及び瞬き演出を行うための構成を備えている。そして、歪み演出に合わせて描画処理が第1の実施形態と異なっている。以下に、各演出を行うための構成について説明する。なお、第1の実施形態と同様の構成については説明を省略する。
<Second Embodiment>
In this Embodiment, the structure for performing a distortion effect and a blink effect as a display effect is provided. The drawing process is different from that of the first embodiment in accordance with the distortion effect. Below, the structure for performing each effect is demonstrated. Note that a description of the same configuration as in the first embodiment is omitted.
<歪み演出を行うための構成について>
歪み演出を行うための構成について説明する。
<Configuration for distortion production>
A configuration for performing a distortion effect will be described.
歪み演出は、図柄の変動表示が行われる場合に背景画像の一部が歪む演出である。具体的には、背景画像として水中の様子が描かれた画像が表示されている状況において特定方向にスクロールする図柄の変動表示が開始される場合に、背景画像の一部の領域、詳細には図柄に対して当該図柄の進行方向とは逆側の領域が歪むように表示される。これにより、遊技者としては、当該歪みを、図柄がスクロールを開始することにより形成された流れに起因する光の屈折として認識することが想定される。よって、水中での図柄のスクロールをリアルに認識させることができる。 The distortion effect is an effect in which a part of the background image is distorted when the symbol variation display is performed. Specifically, in the situation where an underwater image is displayed as a background image, when a variable display of a pattern that scrolls in a specific direction is started, a part of the background image, in detail The area on the opposite side of the symbol in the direction of travel of the symbol is displayed so as to be distorted. Thereby, it is assumed that the player recognizes the distortion as refraction of light caused by the flow formed by the symbols starting to scroll. Therefore, it is possible to recognize the scroll of the symbol in water realistically.
当該歪み演出で用いられる構成について図77を用いて説明する。図77(a)は屈折用オブジェクトOB10を示す説明図、図77(b)及び図77(c)は屈折用オブジェクトOB10を変形させた様子を説明するための説明図、図77(d)は屈折用オブジェクトOB10に対して適用される屈折用αデータSKD1を説明するための説明図である。 A configuration used in the distortion effect will be described with reference to FIG. 77 (a) is an explanatory view showing the refraction object OB10, FIGS. 77 (b) and 77 (c) are explanatory views for explaining the deformation of the refraction object OB10, and FIG. It is explanatory drawing for demonstrating the alpha data SKD1 for refraction applied with respect to the object OB10 for refraction.
図77(a)に示すように、屈折用オブジェクトOB10は矩形状の板ポリゴンで構成されている。板ポリゴンはポリゴン数の少ないオブジェクトともいうことができ3次元方向(詳細にはローカル座標系でのZ方向)への凹凸のない平面状に構成された低精彩の画像データである。 As shown in FIG. 77 (a), the refraction object OB10 is composed of a rectangular plate polygon. The plate polygon can be referred to as an object having a small number of polygons, and is low-definition image data configured in a planar shape without unevenness in a three-dimensional direction (specifically, the Z direction in the local coordinate system).
屈折用オブジェクトOB10の形状(サイズ)は、歪みを発生させたい歪み領域PE1に対応させて設定されており、具体的には、視野座標系への変換処理を行った場合に歪み領域PE1を覆うことができるように設定されている。詳細には、屈折用オブジェクトOB10の形状は、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように設定されている。このため、屈折用オブジェクトOB10を歪み領域PE1に対して重なるように配置された状態で平行投影が行われた場合には、歪み領域PE1に対して屈折用オブジェクトOB10に係る画像が表示されることとなる。 The shape (size) of the refraction object OB10 is set so as to correspond to the distortion region PE1 where distortion is desired to be generated, and specifically covers the distortion region PE1 when the conversion processing to the visual field coordinate system is performed. Is set to be able to. Specifically, the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1. For this reason, when parallel projection is performed in a state where the refraction object OB10 is arranged so as to overlap the distortion region PE1, an image related to the refraction object OB10 is displayed on the distortion region PE1. It becomes.
屈折用オブジェクトOB10には、格子状に頂点座標が設定されている。当該頂点座標には、ローカル3次元座標が設定されており、各頂点座標のZ座標(奥行き方向の座標)は同一に設定されている。 In the refraction object OB10, vertex coordinates are set in a lattice shape. As the vertex coordinates, local three-dimensional coordinates are set, and the Z coordinates (coordinates in the depth direction) of the respective vertex coordinates are set to be the same.
屈折用オブジェクトOB10の頂点座標は歪み領域PE1に対応させて設定されており、具体的には屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標によって形成される領域が歪み領域PE1と略同一となるように設定されている。 The vertex coordinates of the refraction object OB10 are set so as to correspond to the strain area PE1, and specifically, the area formed by the vertex coordinates other than the vertex coordinates constituting the outer edge portion of the refraction object OB10 is defined as the strain area PE1. It is set to be substantially the same.
上記屈折用オブジェクトOB10は変形可能に構成されている。具体的には、屈折用オブジェクトOB10の各頂点座標のZ座標はそれぞれ個別に変位可能となっており、当該Z座標が変位することにより屈折用オブジェクトOB10は歪むようになっている。 The refraction object OB10 is configured to be deformable. Specifically, the Z coordinate of each vertex coordinate of the refraction object OB10 can be individually displaced, and the refraction object OB10 is distorted by the displacement of the Z coordinate.
屈折用オブジェクトOB10の変形形態について詳細に説明する。本実施の形態では、屈折用オブジェクトOB10の変形形態は複数種類設定されている。当該複数種類の変形形態のうちの第1変形形態の屈折用オブジェクトOB10と、第2変形形態の屈折用オブジェクトOB10とについて図77(b)及び図77(c)を用いて説明する。図77(b)は第1変形形態の屈折用オブジェクトOB10を説明するための説明図、図77(c)は第2変形形態の屈折用オブジェクトOB10を説明するための説明図である。なお、説明の便宜上、以降の説明において、第1変形形態の屈折用オブジェクトOB10を単に第1変形形態OB10aと、第2変形形態の屈折用オブジェクトOB10を単に第2変形形態OB10bという。 A modification of the refraction object OB10 will be described in detail. In the present embodiment, a plurality of types of deformation forms of the refraction object OB10 are set. The refraction object OB10 according to the first variation and the refraction object OB10 according to the second variation among the plurality of variations will be described with reference to FIGS. 77 (b) and 77 (c). FIG. 77 (b) is an explanatory diagram for explaining the refraction object OB10 of the first modification, and FIG. 77 (c) is an illustration for explaining the refraction object OB10 of the second modification. For convenience of explanation, in the following description, the refraction object OB10 of the first modification is simply referred to as a first modification OB10a, and the refraction object OB10 of the second modification is simply referred to as a second modification OB10b.
図77(b)及び図77(c)に示すように、各変形形態OB10a,OB10bは、テクスチャが貼り付けられる板面に凹凸が形成されるように変形している。具体的には、各変形形態OB10a,OB10bは、屈折用オブジェクトOB10の外縁部を構成する頂点座標のZ座標を基準として、歪み領域PE1に対応する各頂点座標のZ座標がそれぞれ所定量だけ変位することにより変形している。詳細には、X方向における両端の頂点座標を固定端とするZ成分を持つ1周期の正弦波が形成され且つY方向における両端の頂点座標を始点及び終点とする円弧が形成されるように歪み領域PE1に含まれる各頂点座標のZ座標が変位している。そして、各変形形態OB10a,OB10bは、上記正弦波の位相がπだけずれている。 As shown in FIGS. 77 (b) and 77 (c), each of the deformation forms OB10a and OB10b is deformed so that irregularities are formed on the plate surface to which the texture is attached. Specifically, in each of the deformation forms OB10a and OB10b, the Z coordinate of each vertex coordinate corresponding to the strain region PE1 is displaced by a predetermined amount with reference to the Z coordinate of the vertex coordinate constituting the outer edge portion of the refraction object OB10. It is deformed by doing. Specifically, the distortion is such that a one-cycle sine wave having a Z component with the vertex coordinates at both ends in the X direction as fixed ends is formed and an arc with the vertex coordinates at both ends in the Y direction as starting points and ending points is formed. The Z coordinate of each vertex coordinate included in the region PE1 is displaced. In each of the modified forms OB10a and OB10b, the phase of the sine wave is shifted by π.
これら各変形形態OB10a,OB10bに対して、背景画像のうち各変形形態OB10a,OB10bが配置される領域に対応した部分のテクスチャがマッピングされることにより、歪み画像が表現される。この場合、所定の更新タイミングとなる度に、屈折用オブジェクトOB10を、X方向への位相が異なる第1変形形態OB10aと第2変形形態OB10bとに交互に変形させることにより、X方向に進行する水の流れに対応した歪み画像を表現することができる。これにより、図柄のX方向のスクロールに伴って、X方向の水の流れが形成されたように視認させることができ、図柄のスクロールと歪み画像との関連付けを好適に行うことができる。 A distortion image is expressed by mapping a texture corresponding to a region where each of the modified forms OB10a and OB10b is arranged in the background image to each of the modified forms OB10a and OB10b. In this case, at each predetermined update timing, the refraction object OB10 advances in the X direction by alternately deforming the refraction object OB10 into the first deformation form OB10a and the second deformation form OB10b having different phases in the X direction. A distortion image corresponding to the flow of water can be expressed. Accordingly, it is possible to visually recognize the flow of water in the X direction as the symbol is scrolled in the X direction, and it is possible to suitably associate the symbol scroll with the distorted image.
また、歪み演出では、屈折用オブジェクトOB10が配置される領域に表示される歪み画像と、その領域の周縁の画像とを馴染ませるために、屈折用αデータSKD1が用いられる。αデータは、既に説明した通り、画像データの各ピクセル単位で適用される透過情報のことであり、画像データとしてメモリモジュール133に予め記憶されている。
Further, in the distortion effect, the refraction α data SKD1 is used in order to familiarize the distortion image displayed in the area where the refraction object OB10 is disposed with the peripheral image of the area. As already described, α data is transmission information applied in units of pixels of image data, and is stored in advance in the
屈折用αデータSKD1は、図77(d)に示すように、その外形が適用対象となる屈折用オブジェクトOB10と一致するようにそのサイズが設定されている。屈折用αデータSKD1は、異なるα値が設定された複数の領域に区分けされている。 As shown in FIG. 77 (d), the size of the refraction α data SKD1 is set so that its outer shape matches the refraction object OB10 to be applied. The refraction α data SKD1 is divided into a plurality of regions in which different α values are set.
屈折用αデータSKD1を区分けする領域は、中央側の透明度よりも縁側の透明度の方が高くなるように形成されている。詳細には、屈折用αデータSKD1は、屈折用αデータSKD1の中央領域に設けられ、不透過情報である「1」が設定された不透過領域SKA0と、当該不透過領域SKA0を囲むように設けられ、部分透過情報(0<α1<1)が設定された第1部分透過領域SKA1と、当該第1部分透過領域SKA1を囲むように設けられ、第1部分透過領域SKA1よりも透過率が高い部分透過情報(0<α2<α1)が設定された第2部分透過領域SKA2と、に区分けされている。 The region into which the refraction α data SKD1 is divided is formed so that the transparency on the edge side is higher than the transparency on the center side. Specifically, the refraction α data SKD1 is provided in the central area of the refraction α data SKD1, and surrounds the non-transmission area SKA0 in which “1” as the non-transmission information is set, and the non-transmission area SKA0. A first partial transmission area SKA1 in which partial transmission information (0 <α1 <1) is set, and the first partial transmission area SKA1 is provided so as to surround the first partial transmission area SKA1, and the transmittance is higher than that of the first partial transmission area SKA1. It is divided into a second partial transmission area SKA2 in which high partial transmission information (0 <α2 <α1) is set.
屈折用オブジェクトOB10(第1変形形態OB10a及び第2変形形態OB10bを含む)に対して屈折用αデータSKD1が適用されることにより、屈折用オブジェクトOB10に含まれる各ピクセルに対して屈折用αデータSKD1に含まれるα値が適用される。 By applying the refraction α data SKD1 to the refraction object OB10 (including the first modification OB10a and the second modification OB10b), the refraction α data for each pixel included in the refraction object OB10. The α value included in SKD1 is applied.
また、歪み画像を表示面Gの奥側にて重なる画像と重ね合わせる場合には、その重ね合わせに係る各ドットでは、屈折用αデータSKD1にて定められているα値と屈折用オブジェクトOB10に設定されている一律α値とを基準とした数値情報の融合(すなわち、ブレンディング)が行われる。具体的には、屈折用αデータSKD1に設定されているα値を個別α値とすると、
R:「奥側画像のR値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のR値」×「個別α値」×「一律α値」
G:「奥側画像のG値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のG値」×「個別α値」×「一律α値」
B:「奥側画像のB値」×(「1」−「個別α値」×「一律α値」)+「歪み画像のB値」×「個別α値」×「一律α値」
の演算が行われる。
In addition, when a distortion image is superimposed on an image overlapping on the back side of the display surface G, each dot related to the overlap has an α value determined by the refraction α data SKD1 and the refraction object OB10. The numerical information is fused (ie, blended) based on the set uniform α value. Specifically, when the α value set in the refraction α data SKD1 is an individual α value,
R: “R value of the back image” × (“1” − “Individual α value” × “Uniform α value”) + “R value of the distorted image” × “Individual α value” × “Uniform α value”
G: “G value of back image” × (“1” − “individual α value” × “uniform α value”) + “G value of distorted image” × “individual α value” × “uniform α value”
B: “B value of back side image” × (“1” − “individual α value” × “uniform α value”) + “B value of distorted image” × “individual α value” × “uniform α value”
Is calculated.
屈折用αデータSKD1が適用されることにより、歪み画像は、中央領域から縁側に向かうに従って徐々に透明となる。これにより、歪み画像の縁が背景画像に馴染み、当該歪み画像の縁が目立ちにくくなっている。 By applying the refraction α data SKD1, the distorted image becomes gradually transparent from the central region toward the edge side. As a result, the edge of the distorted image becomes familiar with the background image, and the edge of the distorted image is less noticeable.
また、歪み画像は、一律α値を反映した状態で表示される。具体的には、一律α値が小さい場合、歪み画像よりも奥側画像が反映される。一方、一律α値が大きい場合には歪み画像が奥側画像よりも反映される。 Further, the distorted image is displayed in a state in which the uniform α value is reflected. Specifically, when the uniform α value is small, the back side image is reflected rather than the distorted image. On the other hand, when the uniform α value is large, the distorted image is reflected more than the back side image.
歪み演出の具体的な処理構成について説明する。 A specific processing configuration of the distortion effect will be described.
図78は、表示CPU131にて実行される歪み演出演算処理を示すフローチャートである。歪み演出演算処理は、タスク処理(図14)におけるステップS904の演出用演算処理において、現状設定されているデータテーブルが歪み演出に対応したデータテーブルである場合に実行される。
FIG. 78 is a flowchart showing a distortion effect calculation process executed by the
先ず、ステップS4501では、現状設定されているデータテーブルに基づいて、歪み演出の実行中であるか否かを判定する。 First, in step S4501, it is determined whether or not a distortion effect is being executed based on the currently set data table.
歪み演出の実行中でない場合には、ステップS4502に進み、現状設定されているデータテーブルに基づいて、歪み演出の開始タイミングであるか否かを判定する。具体的には、現状設定されているデータテーブルに、歪み演出の開始タイミングであることを特定する情報が設定されているか否かを判定する。当該歪み演出の開始タイミングは図柄の変動開始タイミングと同一に設定されている。これにより、歪み演出は図柄の変動開始が行われる場合に実行されることとなる。 If the distortion effect is not being executed, the process advances to step S4502 to determine whether or not it is the distortion effect start timing based on the currently set data table. Specifically, it is determined whether or not information specifying the start timing of the distortion effect is set in the currently set data table. The start timing of the distortion effect is set to be the same as the change start timing of the symbol. Thereby, a distortion effect will be performed when the change start of a symbol is performed.
開始タイミングでない場合にはそのまま本演算処理を終了する一方、開始タイミングである場合には、ステップS4503〜ステップS4507にて屈折用オブジェクトOB10の初期設定に係る処理を実行する。具体的には、先ずステップS4503にて、屈折用オブジェクトOB10を把握する。そして、ステップS4504にて、当該屈折用オブジェクトOB10の座標の初期設定を行う。 If it is not the start timing, the present calculation process is terminated as it is, whereas if it is the start timing, a process related to the initial setting of the refraction object OB10 is executed in steps S4503 to S4507. Specifically, first, in step S4503, the refraction object OB10 is grasped. In step S4504, the coordinates of the refraction object OB10 are initially set.
当該座標は、データテーブル上に予め設定されている。詳細には、図柄画像に対して当該図柄画像のスクロール方向とは逆側の領域が歪み領域PE1として設定されており、当該歪み領域PE1に対して重なるように屈折用オブジェクトOB10の座標が設定されている。より詳細には、屈折用オブジェクトOB10が投影された場合に屈折用オブジェクトOB10の外縁部を構成する頂点座標以外の頂点座標が歪み領域PE1に含まれるように屈折用オブジェクトOB10の座標が設定されている。 The coordinates are set in advance on the data table. Specifically, an area opposite to the scroll direction of the symbol image with respect to the symbol image is set as the distortion region PE1, and the coordinates of the refraction object OB10 are set so as to overlap with the distortion region PE1. ing. More specifically, the coordinates of the refraction object OB10 are set so that the vertex area other than the vertex coordinates constituting the outer edge of the refraction object OB10 is included in the distortion region PE1 when the refraction object OB10 is projected. Yes.
その後、ステップS4505にて、一律α値として不透過情報である「1」を設定する。続くステップS4506では、屈折用オブジェクトOB10に適用されるその他のパラメータの演算処理を行う。 Thereafter, in step S4505, “1” which is non-transparent information is set as a uniform α value. In the subsequent step S4506, calculation processing of other parameters applied to the refraction object OB10 is performed.
そして、ステップS4507にて、座標マッピングデータの初期設定を行う。当該座標マッピングデータについて図79を用いて説明する。図79は座標マッピングデータを説明するための説明図である。詳細には、図79(a)は第1座標マッピングデータMD1を説明するための説明図、図79(b)は第2座標マッピングデータMD2を説明するための説明図である。 In step S4507, initial setting of coordinate mapping data is performed. The coordinate mapping data will be described with reference to FIG. FIG. 79 is an explanatory diagram for explaining the coordinate mapping data. Specifically, FIG. 79A is an explanatory diagram for explaining the first coordinate mapping data MD1, and FIG. 79B is an explanatory diagram for explaining the second coordinate mapping data MD2.
各座標マッピングデータMD1,MD2は、屈折用オブジェクトOB10を構成する各頂点座標のZ方向の変位量を決定するために用いられるデータである。各座標マッピングデータMD1,MD2には、屈折用オブジェクトOB10の各頂点に対して1対1に対応させてZ方向の変位量が設定されている。詳細には、屈折用オブジェクトOB10の頂点がX方向に10個、Y方向に7個だけマトリックス状に設定されていることに対応させて、屈折用オブジェクトOB10を構成する頂点のうち左上端の頂点に対して適用されるZ方向の変位量をZ(1,1)としてマトリックス状にZ(a,b)(a:1〜10、b:1〜7)が設定されている。なお、説明の便宜上、第1座標マッピングデータMD1に設定されているZ(a,b)をZ1(a,b)と、第2座標マッピングデータMD2に設定されているZ2(a,b)といい、Z(a,b)はZ1(a,b)及びZ2(a,b)の双方を示すものだとする。 Each coordinate mapping data MD1, MD2 is data used to determine the amount of displacement in the Z direction of each vertex coordinate constituting the refraction object OB10. In each coordinate mapping data MD1, MD2, a displacement amount in the Z direction is set in a one-to-one correspondence with each vertex of the refraction object OB10. Specifically, in correspondence with the fact that only 10 vertices of the refraction object OB10 are set in a matrix shape in the X direction and 7 in the Y direction, the top left vertex of the vertices constituting the refraction object OB10. Z (a, b) (a: 1 to 10, b: 1 to 7) is set in a matrix with Z (1, 1) as the displacement amount in the Z direction applied to. For convenience of explanation, Z (a, b) set in the first coordinate mapping data MD1 is Z1 (a, b), and Z2 (a, b) is set in the second coordinate mapping data MD2. Okay, Z (a, b) represents both Z1 (a, b) and Z2 (a, b).
Z(a,b)は、屈折用オブジェクトOB10の外縁を形成する各頂点のZ座標を基準とするZ方向の変位量が設定されたものである。詳細には、屈折用オブジェクトOB10の外縁を形成する各頂点に対応したZ(1,b)、Z(10,b),Z(a,1),Z(a,7)には「0」が設定されており、その他のZ(x,y)(x:2〜9、y:2〜6)には、各変形形態OB10a,OB10bに対応した変位量が設定されている。 Z (a, b) is set with a displacement amount in the Z direction with reference to the Z coordinate of each vertex forming the outer edge of the refraction object OB10. Specifically, Z (1, b), Z (10, b), Z (a, 1), Z (a, 7) corresponding to each vertex forming the outer edge of the refraction object OB10 is “0”. In other Z (x, y) (x: 2 to 9, y: 2 to 6), displacement amounts corresponding to the deformation forms OB10a and OB10b are set.
具体的には、Z1(x,y)は、屈折用オブジェクトOB10が第1変形形態OB10aに変形するよう設定されている。一方、Z2(x,y)は、屈折用オブジェクトOB10が第2変形形態OB10bに変形するよう設定されている。 Specifically, Z1 (x, y) is set such that the refraction object OB10 is deformed into the first deformation form OB10a. On the other hand, Z2 (x, y) is set so that the refraction object OB10 is deformed into the second deformation form OB10b.
ステップS4507では、初期設定として第1座標マッピングデータMD1のアドレス情報を描画リストに設定する処理を実行する。これにより、第1座標マッピングデータMD1のアドレス情報が設定された描画リストが作成される。そして、VDP135では、当該アドレス情報に基づいて第1座標マッピングデータMD1を取得し、屈折用オブジェクトOB10の各頂点に対して、当該各頂点に対応するZ座標の変位量の分だけ変位させることで、屈折用オブジェクトOB10を第1変形形態OB10aに変形させる処理を実行する。
In step S4507, processing for setting the address information of the first coordinate mapping data MD1 in the drawing list is executed as an initial setting. Thereby, a drawing list in which the address information of the first coordinate mapping data MD1 is set is created. The
なお、ステップS4507では、現状どちらの座標マッピングデータが設定されているかを表示CPU131にて特定するための処理を実行する。具体的には、ワークRAM132には、現状設定されている座標マッピングデータを特定するための情報を格納する特定記憶領域が設けられている。ステップS4507では、当該特定記憶領域に対して、第1座標マッピングデータMD1に対応した情報を設定する。
In step S4507, the
ステップS4507の処理の実行後は、ステップS4508〜ステップS4510にて、屈折用αデータSKD1の設定を行う。具体的には、ステップS4508にて屈折用αデータSKD1を把握し、ステップS4509にて、屈折用αデータSKD1の座標を屈折用オブジェクトOB10と同一座標に設定する。そして、ステップS4510にて屈折用αデータSKD1に適用されるその他のパラメータの演算処理を行う。 After the execution of step S4507, the refraction α data SKD1 is set in steps S4508 to S4510. Specifically, the refraction α data SKD1 is grasped in step S4508, and the coordinates of the refraction α data SKD1 are set to the same coordinates as the refraction object OB10 in step S4509. In step S4510, calculation processing of other parameters applied to the refraction α data SKD1 is performed.
その後、ステップS4511にてその他の演出用オブジェクトを把握し、ステップS4512にて当該演出用オブジェクトに適用されるパラメータの演算処理を行う。 Thereafter, in step S4511, other effect objects are grasped, and in step S4512, a parameter calculation process applied to the effect objects is performed.
続くステップS4513では、VDP135にて歪み演出が行われることを特定するための歪み演出指定情報を設定し、本演算処理を終了する。
In a succeeding step S4513, distortion effect designation information for specifying that the distortion effect is performed in the
かかる処理が実行された場合、その後の描画リスト出力処理(ステップS806)にて作成された描画リストには、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1は同一座標に設定されている。 When such processing is executed, at least the refraction object OB10 and the refraction α data SKD1 are set in the drawing list created in the subsequent drawing list output processing (step S806). In this case, the refraction object OB10 and the refraction α data SKD1 are set to the same coordinates.
また、当該描画リストには、第1座標マッピングデータMD1のアドレス情報及び歪み演出指定情報が設定されている。 In the drawing list, address information and distortion effect designation information of the first coordinate mapping data MD1 are set.
一方、歪み演出実行中である場合(ステップS4501:YES)、ステップS4514にて、現状設定されているデータテーブルに基づいて、透明化期間中であるか否かを判定する。具体的には、歪み演出に対応したデータテーブルには、透明化期間であることを特定するための情報が設定されている。当該透明化期間は、歪み演出の終了タイミングに対して複数フレーム(例えば10フレーム)前のタイミングから歪み演出の終了タイミングまでの期間に設定されている。ステップS4514では、現状設定されているデータテーブルに当該情報が設定されているか否かを判定する。 On the other hand, if the distortion effect is being executed (step S4501: YES), it is determined in step S4514 whether or not it is during the transparency period based on the currently set data table. Specifically, information for specifying the transparency period is set in the data table corresponding to the distortion effect. The transparency period is set to a period from the timing before a plurality of frames (for example, 10 frames) to the end timing of the distortion effect until the end timing of the distortion effect. In step S4514, it is determined whether the information is set in the currently set data table.
透明化期間中でない場合には、ステップS4515にて屈折用オブジェクトOB10を把握し、ステップS4516にてパラメータの演算処理を実行する。この場合、初期設定された各種パラメータを維持する。 If it is not during the transparency period, the refraction object OB10 is grasped in step S4515, and parameter calculation processing is executed in step S4516. In this case, the initially set various parameters are maintained.
その後、ステップS4517にて、屈折用オブジェクトOB10の変形を更新する処理、すなわち座標マッピングデータを更新する処理を実行する。具体的には、特定記憶領域に記憶されている情報に基づいて、前の処理回にて設定された座標マッピングデータを把握する。そして、前の処理回にて把握された座標マッピングデータとは異なる座標マッピングデータのアドレスを設定するとともに、特定記憶領域に今回設定した座標マッピングデータに対応した情報を格納する。例えば、前の処理回にて第1座標マッピングデータMD1が設定された場合には第2座標マッピングデータMD2を設定し、前の処理回にて第2座標マッピングデータMD2が設定された場合には第1座標マッピングデータMD1を設定する。 Thereafter, in step S4517, a process of updating the deformation of the refraction object OB10, that is, a process of updating the coordinate mapping data is executed. Specifically, the coordinate mapping data set in the previous processing time is grasped based on the information stored in the specific storage area. Then, an address of coordinate mapping data different from the coordinate mapping data grasped in the previous processing round is set, and information corresponding to the coordinate mapping data set this time is stored in the specific storage area. For example, when the first coordinate mapping data MD1 is set in the previous processing time, the second coordinate mapping data MD2 is set, and when the second coordinate mapping data MD2 is set in the previous processing time. First coordinate mapping data MD1 is set.
そして、ステップS4508〜ステップS4513の処理を実行し、本演算処理を終了する。 And the process of step S4508-step S4513 is performed, and this calculation process is complete | finished.
以上の処理が実行された場合、少なくとも屈折用オブジェクトOB10及び屈折用αデータSKD1が設定された描画リストが作成される。この場合、屈折用オブジェクトOB10及び屈折用αデータSKD1に対して適用されるパラメータは維持されている。 When the above processing is executed, a drawing list in which at least the refraction object OB10 and the refraction α data SKD1 are set is created. In this case, parameters applied to the refraction object OB10 and the refraction α data SKD1 are maintained.
また、今回作成された描画リストには、前回作成された描画リストに設定された座標マッピングデータとは異なる座標マッピングデータのアドレスが設定されているとともに、歪み演出指定情報が設定されている。 In the drawing list created this time, an address of coordinate mapping data different from the coordinate mapping data set in the drawing list created last time is set, and distortion effect designation information is set.
透明化期間中である場合(ステップS4514:YES)、ステップS4518にて屈折用オブジェクトOB10を把握する。そして、ステップS4519にて一律α値を更新する。具体的には、一律α値を所定値(例えば0.1)だけ減算する処理を実行する。 If it is during the transparency period (step S4514: YES), the refraction object OB10 is grasped in step S4518. In step S4519, the uniform α value is updated. Specifically, a process of subtracting a uniform α value by a predetermined value (for example, 0.1) is executed.
その後、ステップS4520にてその他のパラメータの演算処理を実行し、ステップS4521にて座標マッピングデータの更新処理を実行する。そして、ステップS4508〜ステップS4513の処理を実行して、本演算処理を終了する。これらの処理については既に説明した通りであるため、説明を省略する。 Thereafter, calculation processing of other parameters is executed in step S4520, and update processing of coordinate mapping data is executed in step S4521. And the process of step S4508-step S4513 is performed and this calculation process is complete | finished. Since these processes are as described above, the description thereof is omitted.
以上の処理が実行された場合、屈折用オブジェクトOB10に適用される一律α値が異なる描画リストが作成される。当該一律α値は、フレーム毎に徐々に小さくなる。 When the above processing is executed, drawing lists with different uniform α values applied to the refraction object OB10 are created. The uniform α value gradually decreases for each frame.
ここで、透明化期間と一律α値の減算値とは対応させて設定されている。具体的には、歪み演出の終了タイミングにおいて一律α値が「0」となるように、減算値と透明化期間とが設定されている。詳細には、透明化期間に係るフレーム数=1/減算値となるように両者が設定されている。これにより、屈折用オブジェクトOB10に貼り付けられた画像が徐々に消えていき、歪み演出の終了タイミングでは完全に消えるようになっている。 Here, the transparency period and the uniform α value subtraction value are set in correspondence with each other. Specifically, the subtraction value and the transparency period are set so that the α value is uniformly “0” at the end timing of the distortion effect. Specifically, both are set so that the number of frames related to the transparent period = 1 / subtraction value. As a result, the image attached to the refraction object OB10 gradually disappears, and disappears completely at the end timing of the distortion effect.
なお、タスク処理(図14)の図柄用演算処理(ステップS905)では、歪み演出の開始と同期して、図柄の変動表示の開始に係る処理が実行される。具体的には、各図柄画像が所定の方向(左方向)に向けてスクロールするための処理が実行される。 In the symbol calculation processing (step S905) of the task processing (FIG. 14), processing related to the start of symbol variation display is executed in synchronization with the start of the distortion effect. Specifically, a process for scrolling each symbol image in a predetermined direction (left direction) is executed.
次に、本実施の形態におけるVDP135にて行われる描画処理について図80のフローチャートを用いて説明する。当該描画処理は、予め定められた周期にて定期的に行われるループ処理であり、詳細には描画リストが作成される周期(20msec)よりも短い周期で行われる。この場合、描画処理の実行に係る時間は、描画リストの受信間隔よりも短く設定されている。これにより、描画処理が行われている最中に新たな描画リストが受信されてないようになっている。
Next, drawing processing performed in the
さらに、描画処理の実行に係る時間と、描画リストが作成され当該描画リストを受信するまでの時間とを合わせた時間が、画像の更新間隔よりも短くなるように設定されている。これにより、画像の更新間隔よりも描画に係る時間が長くなる事態が生じないようになっている。 Furthermore, the time taken to execute the drawing process and the time from when the drawing list is created until the drawing list is received is set to be shorter than the image update interval. This prevents a situation where the drawing time is longer than the image update interval.
先ず、ステップS4601にて、新たな描画リストを受信したか否かを判定する。新たな描画リストを受信していない場合にはそのまま本処理を終了する一方、新たな描画リストを受信している場合には、ステップS4602〜ステップS4608にて先に背景用の描画データ(背景画像)を作成する。 First, in step S4601, it is determined whether a new drawing list has been received. If a new drawing list has not been received, the present process is terminated. If a new drawing list has been received, the background drawing data (background image) is first received in steps S4602 to S4608. ).
具体的には、先ずステップS4602にて背景用の設定処理を実行する。そして、当該ステップS4602にて把握された最背面画像及び背景用のオブジェクトに対して、ステップS4603〜ステップS4608の処理を実行する。これにより、背景用の描画データが先に作成され、背景用のバッファに書き込まれる。 Specifically, first, background setting processing is executed in step S4602. Then, the processes in steps S4603 to S4608 are performed on the rearmost image and the background object grasped in step S4602. As a result, background drawing data is created first and written to the background buffer.
その後、ステップS4609〜ステップS4616の処理を実行することにより、演出及び図柄用の描画データを作成する。そして、ステップS4617にて描画データ合成処理を実行し、本描画処理を終了する。 Thereafter, the processing of steps S4609 to S4616 is executed, thereby creating rendering data for effects and symbols. In step S4617, a drawing data composition process is executed, and the drawing process ends.
かかる構成によれば、演出用及び図柄用の描画データの作成に係る処理を実行する前段階で、背景画像の作成が完了している。これにより、演出用及び図柄用の描画データの作成に係る処理を実行する場合に、背景画像を用いることが可能となっている。 According to such a configuration, the creation of the background image has been completed at the stage prior to the execution of the process relating to the creation of rendering data for effects and symbols. As a result, it is possible to use a background image when executing processing related to creation of rendering data for effects and symbols.
次に、歪み演出用の設定処理について図81のフローチャートを用いて説明する。歪み演出用の設定処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4609の演出用の設定処理にて実行される。 Next, the setting process for distortion effect will be described with reference to the flowchart of FIG. The distortion effect setting process is executed in the effect setting process in step S4609 of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list.
先ず、ステップS4701では、描画リストに設定されている屈折用オブジェクトOB10を把握する。 First, in step S4701, the refraction object OB10 set in the drawing list is grasped.
その後ステップS4702にて、描画リストに設定されている座標マッピングデータのアドレス情報に基づいて、今回適用される座標マッピングデータを把握する。続くステップS4703では、ステップS4702にて把握された座標マッピングデータを用いて屈折用オブジェクトOB10を変形させる。 Thereafter, in step S4702, the coordinate mapping data applied this time is grasped based on the address information of the coordinate mapping data set in the drawing list. In subsequent step S4703, the refraction object OB10 is deformed using the coordinate mapping data grasped in step S4702.
具体的には、座標マッピングデータを参照することにより、屈折用オブジェクトOB10を構成する各頂点に対応するZ方向の変位量を把握する。そして、ローカル座標系における各頂点のZ座標を、把握されたZ方向の変位量だけ変位させる。これにより、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形する。 Specifically, the displacement amount in the Z direction corresponding to each vertex constituting the refraction object OB10 is grasped by referring to the coordinate mapping data. Then, the Z coordinate of each vertex in the local coordinate system is displaced by the grasped displacement amount in the Z direction. Accordingly, the refraction object OB10 is deformed into the first modified form OB10a or the second modified form OB10b.
その後、ステップS4704にて第2変形形態OB10bに対して適用される各種パラメータを把握する。そして、ステップS4705にて、第1変形形態OB10a又は第2変形形態OB10bについてワールド座標系への設定処理を実行し、ステップS4706に進む。 Thereafter, in step S4704, various parameters applied to the second modified form OB10b are grasped. In step S4705, the setting process to the world coordinate system is executed for the first modified form OB10a or the second modified form OB10b, and the process proceeds to step S4706.
ステップS4706では、その他の演出用オブジェクトを把握し、ステップS4707では当該演出用オブジェクトに対して適用されるパラメータを把握する。そして、ステップS4708にて、その他の演出用オブジェクトについてワールド座標系への設定処理を実行し、本設定処理を終了する。 In step S4706, other effect objects are grasped, and in step S4707, parameters applied to the effect objects are grasped. Then, in step S4708, a setting process to the world coordinate system is executed for the other effect objects, and this setting process ends.
上記のように設定処理が実行されることにより、屈折用オブジェクトOB10を変形することで形成された第1変形形態OB10a又は第2変形形態OB10bがワールド座標系に配置される。 By performing the setting process as described above, the first modified form OB10a or the second modified form OB10b formed by deforming the refraction object OB10 is arranged in the world coordinate system.
次に、歪み演出用テクスチャマッピング処理について図82のフローチャートを用いて説明する。歪み演出用テクスチャマッピング処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)のステップS4615における色情報の設定処理にて実行される。 Next, the distortion effect texture mapping process will be described with reference to the flowchart of FIG. The distortion effect texture mapping process is executed in the color information setting process in step S4615 of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list.
歪み演出用テクスチャマッピング処理では、屈折用オブジェクトOB10(詳細には各変形形態OB10a,OB10bのいずれか)に対して貼り付けられるテクスチャとして背景画像の一部を用いる処理を実行する。 In the distortion effect texture mapping process, a process of using a part of the background image as a texture to be attached to the refraction object OB10 (specifically, any one of the deformation forms OB10a and OB10b) is executed.
ステップS4801では、今回の描画対象として設定されている背景画像を把握する。具体的には、描画処理(図80)のステップS4608にて背景用のバッファに書き込まれた背景用の描画データを把握する。 In step S4801, the background image set as the current drawing target is grasped. Specifically, the drawing data for background written in the background buffer in step S4608 of the drawing process (FIG. 80) is grasped.
続くステップS4802では、ステップS4801にて把握された背景画像を用いて、屈折用オブジェクトOB10に貼り付けるテクスチャを作成する処理を実行する。具体的には、把握された背景画像をトリミングすることにより、当該背景画像のうち屈折用オブジェクトOB10に係る領域、具体的には屈折用オブジェクトOB10が投影される領域に対応した部分の画像データを抜き出す。この場合、当該画像データのサイズが屈折用オブジェクトOB10のサイズと同一になるように抜き出す。 In the subsequent step S4802, a process of creating a texture to be pasted on the refraction object OB10 is executed using the background image grasped in step S4801. Specifically, by trimming the grasped background image, image data of a portion corresponding to the region related to the refraction object OB10 in the background image, specifically, the region where the refraction object OB10 is projected is obtained. Extract. In this case, the image data is extracted so that the size of the image data is the same as the size of the refraction object OB10.
なお、トリミングの際には、背景用のバッファに書き込まれている背景用の描画データ自体は変更せず、別途バッファを用いて行う。 When trimming is performed, the background drawing data itself written in the background buffer is not changed, but is used separately.
その後、ステップS4803にて、屈折用オブジェクトOB10(第1変形形態OB10a又は第2変形形態OB10b)に対して、ステップS4802にて抜き出した部分の画像データをテクスチャとして貼り付ける。この場合、ラップマッピング手法又はUVラッピング手法で行う。 After that, in step S4803, the image data of the portion extracted in step S4802 is pasted as a texture to the refraction object OB10 (first modified form OB10a or second modified form OB10b). In this case, a lap mapping method or a UV wrapping method is used.
その後、ステップS4804にて、描画リストに基づいてその他のオブジェクトに対して貼り付けられるテクスチャを把握し、ステップS4805にて各オブジェクトに対してテクスチャを貼り付けて本処理を終了する。 Thereafter, in step S4804, the texture to be pasted to other objects is grasped based on the drawing list, and in step S4805, the texture is pasted to each object, and this processing is terminated.
かかる構成によれば、屈折用オブジェクトOB10に対して、当該屈折用オブジェクトOB10の投影領域に対応した背景画像が貼り付けられる。この場合、屈折用オブジェクトOB10が第1変形形態OB10a又は第2変形形態OB10bに変形した状態で投影されることにより、屈折用オブジェクトOB10の投影領域に対応する歪み領域PE1の背景画像が歪む。これにより、歪みに対応したテクスチャを別途設けることなく、背景画像の一部が歪む様子を表現することができる。 According to this configuration, a background image corresponding to the projection area of the refraction object OB10 is pasted on the refraction object OB10. In this case, when the refraction object OB10 is projected in a state of being deformed into the first deformation form OB10a or the second deformation form OB10b, the background image of the distortion area PE1 corresponding to the projection area of the refraction object OB10 is distorted. Accordingly, it is possible to express a state in which a part of the background image is distorted without separately providing a texture corresponding to the distortion.
ここで、既に説明した通り、屈折用オブジェクトOB10に貼り付けられるテクスチャのサイズと屈折用オブジェクトOB10のサイズとは同一に設定されている。これにより、他の領域に表示される画像の画質と比較して、屈折用オブジェクトOB10が変形することによって生じ得る歪み画像の画質の低下が目立ちにくい。 Here, as already described, the size of the texture pasted on the refraction object OB10 and the size of the refraction object OB10 are set to be the same. Thereby, compared with the image quality of the image displayed in another area, the deterioration of the image quality of the distorted image that may be caused by the deformation of the refraction object OB10 is less noticeable.
なお、歪み演出を実行する場合における描画処理(図80)のステップS4616の演出及び図柄用の描画データ作成処理では、平行投影で投影することで描画データを作成する。これにより、視点からの距離を考慮して屈折用オブジェクトOB10のサイズを設定する必要がないため、屈折用オブジェクトOB10のサイズの設定を簡単に行うことができる。 In the rendering process and the drawing data creation process for symbol in step S4616 of the rendering process (FIG. 80) when the distortion effect is executed, the rendering data is created by projecting in parallel projection. Thus, since it is not necessary to set the size of the refraction object OB10 in consideration of the distance from the viewpoint, the size of the refraction object OB10 can be easily set.
但し、平行投影に限られず透視投影を行う構成としてもよい。この場合、屈折用オブジェクトOB10が投影された場合に当該屈折用オブジェクトOB10の投影領域が歪み領域PE1に対応するように、視点からの距離を考慮して屈折用オブジェクトOB10のサイズ及び屈折用オブジェクトOB10の座標が設定されているとよい。 However, the invention is not limited to parallel projection and may be configured to perform perspective projection. In this case, when the refraction object OB10 is projected, the size of the refraction object OB10 and the refraction object OB10 are considered in consideration of the distance from the viewpoint so that the projection area of the refraction object OB10 corresponds to the distortion area PE1. It is good that the coordinates of are set.
次に、歪み演出用融合処理について図83のフローチャートを用いて説明する。歪み演出用融合処理は、描画リストに歪み演出指定情報が設定されている場合に、描画処理(図80)の描画データ合成処理(ステップS4617)において実行される。なお、説明の便宜上、フレームバッファ142のうち、変形した屈折用オブジェクトOB10が投影された領域に含まれるドットに対応する単位エリアを対象として説明し、その他の領域に含まれるドットに対応する単位エリアについては説明を省略する。さらに、最初に対象となるドットは予め定められているとする。
Next, the distortion effect fusion processing will be described with reference to the flowchart of FIG. The distortion effect fusion process is executed in the drawing data composition process (step S4617) of the drawing process (FIG. 80) when the distortion effect designation information is set in the drawing list. For convenience of explanation, the unit area corresponding to the dots included in the other areas of the
先ずステップS4901では、演出用の描画データに基づいて、屈折用オブジェクトOB10が投影された領域に含まれるドットのうち今回の対象ドットに対応した対象ピクセルの数値情報を把握する。当該数値情報が歪み画像の数値情報(「m」とする)に対応する。 First, in step S4901, the numerical information of the target pixel corresponding to the current target dot among the dots included in the region where the refraction object OB10 is projected is grasped based on the rendering data for presentation. The numerical information corresponds to the numerical information (“m”) of the distorted image.
そして、ステップS4902にて、屈折用αデータSKD1に基づいて、今回の対象ドットに対応する個別α値を把握し、ステップS4903にて、描画リストに基づいて屈折用オブジェクトOB10に対して適用される一律α値を把握する。 In step S4902, the individual α value corresponding to the current target dot is grasped based on the refraction α data SKD1, and in step S4903, it is applied to the refraction object OB10 based on the drawing list. To grasp the uniform α value.
続くステップS4904では、背景用の描画データに基づいて、背景画像における今回の対象ドットに対応する対象ピクセルの数値情報を把握する。当該数値情報が奥側画像の数値情報(「n」とする)に対応する。 In the subsequent step S4904, the numerical information of the target pixel corresponding to the current target dot in the background image is grasped based on the background drawing data. The numerical information corresponds to the numerical information (referred to as “n”) of the back image.
そして、ステップS4905にて、上記ステップS4901〜ステップS4904の処理により把握された把握結果に基づいて融合処理(ブレンディング処理)を実行し、その融合結果を、フレームバッファ142における各単位エリアのうち今回の対象ドットに対応した単位エリアに書き込む。 In step S4905, a fusion process (blending process) is executed based on the grasped result obtained by the processes in steps S4901 to S4904. Write to the unit area corresponding to the target dot.
上記融合処理では、先に説明した演算式が用いられる。すなわち、n×(1−「個別α値」×「一律α値」)+m×「個別α値」×「一律α値」の演算を行う。 In the fusion process, the arithmetic expression described above is used. That is, an operation of n × (1− “individual α value” × “uniform α value”) + m × “individual α value” × “uniform α value” is performed.
続くステップS4906では、屈折用オブジェクトOB10の投影領域に含まれる全ドットについて融合処理が完了しているか否かを判定する。完了していない場合には、ステップS4907にて対象ドットを更新する処理を実行し、ステップS4901に戻る。これにより、新たな対象ドットに対して融合処理を実行することとなる。完了している場合には、本融合処理を終了する。 In a succeeding step S4906, it is determined whether or not the fusion process has been completed for all the dots included in the projection area of the refraction object OB10. If not completed, a process for updating the target dot is executed in step S4907, and the process returns to step S4901. As a result, the fusion process is executed for a new target dot. If it has been completed, this fusion processing is terminated.
以上の処理が実行されることにより、歪み画像と背景画像との融合が行われることとなる。つまり、一律α値が「1」である場合には、外縁部に向かうに従って透明となる歪み画像が表示される。一方、一律α値が「0」である場合には、背景画像がそのまま表示される。 By executing the above processing, the distortion image and the background image are fused. That is, when the uniform α value is “1”, a distortion image that becomes transparent toward the outer edge is displayed. On the other hand, when the uniform α value is “0”, the background image is displayed as it is.
次に、歪み演出の様子について図84を用いて説明する。図84は、歪み演出を説明するための説明図であり、図84(a)は歪み演出が開始される前の画像を説明するための説明図、図84(b)は第1変形形態OB10aに基づく歪み画像を説明するための説明図、図84(c)は第2変形形態OB10bに基づく歪み画像を説明するための説明図である。なお、図面の関係上、表示面Gの一部を示すとともに、歪み演出の対象となる図柄画像CP11及び海中の様子を示す背景画像の一部として2つの珊瑚画像CP12のみを表示するが、実際には複数の個別画像及び最背面画像が表示される。 Next, the state of the distortion effect will be described with reference to FIG. FIG. 84 is an explanatory diagram for explaining the distortion effect, FIG. 84 (a) is an explanatory diagram for explaining an image before the distortion effect is started, and FIG. 84 (b) is a first modified form OB10a. FIG. 84C is an explanatory diagram for explaining a distorted image based on the second modified form OB10b. In addition, while showing a part of the display surface G in relation to the drawings, only the two spider images CP12 are displayed as a part of the design image CP11 to be distorted and a background image showing an underwater state. A plurality of individual images and the backmost image are displayed.
図84(a)に示すように、歪み演出が開始される前には、図柄画像CP11が停止表示されている。この場合、表示面Gにおける歪み領域PE1、具体的には図柄画像CP11に対して当該図柄画像CP11のスクロール方向(左方向)とは逆側の領域(右側領域)には、珊瑚が描かれた2つの珊瑚画像CP12が並んで表示されている。 As shown in FIG. 84A, the symbol image CP11 is stopped and displayed before the distortion effect is started. In this case, wrinkles are drawn in the distortion area PE1 on the display surface G, specifically, in the area (right area) opposite to the scroll direction (left direction) of the symbol image CP11 with respect to the symbol image CP11. Two haze images CP12 are displayed side by side.
歪み演出が開始されると、図柄画像CP11が左方向にスクロール移動する。この場合、図84(b)に示すように、歪み領域PE1には、膨張した膨張珊瑚画像CP13と収縮した収縮珊瑚画像CP14が描かれた第1歪み画像CP15が表示される。この場合、膨張珊瑚画像CP13が図柄画像CP11側に表示され、収縮珊瑚画像CP14がそれとは反対側に表示される。 When the distortion effect starts, the symbol image CP11 scrolls to the left. In this case, as shown in FIG. 84 (b), in the strain area PE1, the first strain image CP15 in which the expanded fold image CP13 and the contracted fold image CP14 are drawn is displayed. In this case, the expanded wrinkle image CP13 is displayed on the pattern image CP11 side, and the contracted wrinkle image CP14 is displayed on the opposite side.
歪み演出の開始タイミングに対して次のフレームでは、図8(c)に示すように、歪み領域PE1には、膨張珊瑚画像CP13及び収縮珊瑚画像CP14の位置関係が逆になった第2歪み画像CP16が表示される。 In the next frame with respect to the start timing of the distortion effect, as shown in FIG. 8C, the second distortion image in which the positional relationship between the expansion wrinkle image CP13 and the contraction wrinkle image CP14 is reversed in the distortion region PE1. CP16 is displayed.
その後、フレーム毎に各歪み画像CP15,CP16が交互に表示される。これにより、図柄画像CP11に対して当該図柄画像CP11の進行方向とは逆側の領域にて水中の流れが形成されたことに起因して揺らいでいるように見える。 Thereafter, the distorted images CP15 and CP16 are alternately displayed for each frame. Thereby, it seems that the underwater flow is formed in the region opposite to the traveling direction of the symbol image CP11 with respect to the symbol image CP11.
そして、図柄画像CP11のスクロール(歪み演出)が開始されてから、所定数のフレームが更新されたことに基づいて、歪み領域PE1には、徐々に膨張珊瑚画像CP13及び収縮珊瑚画像CP14に代えて、珊瑚画像CP12が表示される。 Then, based on the fact that a predetermined number of frames have been updated after the scroll (distortion effect) of the symbol image CP11 is started, the distortion region PE1 is gradually replaced with the expansion wrinkle image CP13 and the contraction wrinkle image CP14. A haze image CP12 is displayed.
以上の通り、図柄画像CP11の変動表示が行われる場合に、歪み領域PE1に各歪み画像CP15,CP16を交互に表示することにより、図柄画像CP11のスクロールにより水中に流れが形成されて奥側の背景が揺らいだように見せることができる。これにより、水中における図柄のスクロールを、よりリアルに表現することが可能となる。 As described above, when the variation display of the symbol image CP11 is performed, the distortion images CP15 and CP16 are alternately displayed in the distortion region PE1, whereby a flow is formed in the water by scrolling the symbol image CP11 and the back side is formed. You can make the background appear to rock. Thereby, it becomes possible to express the scroll of the pattern in water more realistically.
この場合、屈折用オブジェクトOB10を第1変形形態OB10a又は第2変形形態OB10bに変形させ、これらに対して背景画像の一部をテクスチャとして貼り付けることにより各歪み画像CP15,CP16を作成した。これにより、歪みを表現するためのテクスチャを別途用意する必要がないため、画像を歪ませるのに要するデータ量の削減を図ることができる。 In this case, the distorted images CP15 and CP16 were created by deforming the refraction object OB10 into the first modified form OB10a or the second modified form OB10b, and pasting a part of the background image as a texture thereto. As a result, it is not necessary to prepare a separate texture for expressing the distortion, so that it is possible to reduce the amount of data required to distort the image.
また、屈折用オブジェクトOB10の描画に係る処理を実行する前に背景画像の描画データを作成し、当該描画データを用いて屈折用オブジェクトOB10への貼付対象となるテクスチャを作成する構成とした。これにより、屈折用オブジェクトOB10に対して貼り付けるテクスチャを予め用意しておく必要がないため、テクスチャのデータ量の更なる削減を図ることができる。 In addition, the drawing data of the background image is created before executing the process related to the drawing of the refraction object OB10, and the texture to be applied to the refraction object OB10 is created using the drawing data. Thereby, since it is not necessary to prepare a texture to be pasted on the refraction object OB10 in advance, the amount of texture data can be further reduced.
具体的には、背景用の各種オブジェクトをワールド座標系に配置し、これらを投影することにより歪み対象となる描画データ、すなわち背景用の2次元画像データを取得する。その後、屈折用オブジェクトOB10を配置し且つ変形させた状態で当該屈折用オブジェクトOB10に対して歪み対象となる描画データをテクスチャとして貼り付け且つ投影する構成とした。これにより、テクスチャの作成に係る処理を描画処理の一部として用いることができるため、処理負荷の軽減を図ることができる。換言すれば、描画処理の途中段階で作成される画像をテクスチャとして用いることができる。 Specifically, various background objects are arranged in the world coordinate system, and these are projected to obtain drawing data to be distorted, that is, background two-dimensional image data. After that, the refraction object OB10 is disposed and deformed, and the drawing data to be distorted is pasted and projected as a texture on the refraction object OB10. As a result, the processing related to texture creation can be used as part of the drawing processing, so that the processing load can be reduced. In other words, an image created in the middle of the drawing process can be used as a texture.
ここで、テクスチャの各単位領域(ピクセル)には、色情報として3色分の数値情報が格納されている。このため、Z方向の変位量のみが設定されている座標マッピングデータと比較して、情報量が大きくなり易い。この点、上記構成によれば、情報量が比較的少ない座標マッピングデータのみを用いて各歪み画像CP15,CP16を表示することができるため、各歪み画像CP15,CP16に係るテクスチャを別途設ける構成と比較して、歪み演出に係るデータ量を小さくすることができる。 Here, numerical information for three colors is stored as color information in each unit area (pixel) of the texture. For this reason, compared with the coordinate mapping data in which only the amount of displacement in the Z direction is set, the amount of information tends to be large. In this regard, according to the above configuration, each of the distorted images CP15 and CP16 can be displayed using only the coordinate mapping data having a relatively small amount of information. Therefore, the texture relating to each of the distorted images CP15 and CP16 is separately provided. In comparison, the amount of data related to the distortion effect can be reduced.
また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定し屈折用オブジェクトOB10を変形させる場合に当該屈折用オブジェクトOB10の外縁部のZ座標は変更しない構成とした。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界が目立つことを回避することができる。 Further, when the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1, and the refraction object OB10 is deformed, the outer edge of the refraction object OB10 The Z coordinate of the part was not changed. Thereby, it is possible to avoid the conspicuous boundary between the image related to the refraction object OB10 and the other image.
さらに、各歪み画像CP15,CP16の外縁部に向かうに従って当該各歪み画像CP15,CP16が透明となるように屈折用αデータSKD1を設けた。これにより、屈折用オブジェクトOB10に係る画像と、その他の画像との境界をより好適に目立ちにくくすることができる。 Further, the refraction α data SKD1 is provided so that the distorted images CP15 and CP16 become transparent toward the outer edges of the distorted images CP15 and CP16. As a result, the boundary between the image related to the refraction object OB10 and the other image can be more suitably made inconspicuous.
そして、歪み演出が終了する場合には、各歪み画像CP15,CP16を徐々に透明にする構成とした。これにより、各歪み画像CP15,CP16から珊瑚画像CP12に移り変わる場合に当該移り変わりを目立ちにくくすることができる。 When the distortion effect ends, the distortion images CP15 and CP16 are gradually made transparent. Thereby, when changing from each distortion image CP15 and CP16 to haze image CP12, the said change can be made not conspicuous.
なお、上記構成では、歪みを表現する場面として、図柄画像CP11が変動表示を開始する場面を設定したが、これに限られず、任意である。例えば、物体が高速移動することによって生じる衝撃波を表現するのに用いてもよく、場面の切換、図柄画像CP11を別の図柄画像に切り換える場合に用いてもよい。この場合、歪ませたい領域(歪み領域PE1)に合わせて屈折用オブジェクトOB10の形状を設定する。 In the above-described configuration, the scene where the symbol image CP11 starts the variable display is set as a scene expressing distortion. However, the present invention is not limited to this and is arbitrary. For example, it may be used to express a shock wave generated by a high-speed movement of an object, or may be used when switching scenes or switching the symbol image CP11 to another symbol image. In this case, the shape of the refraction object OB10 is set in accordance with the region to be distorted (distortion region PE1).
また、歪みを表現する演出に限られず、画像の一部又は全部を変化させる表示演出に対して本発明を適用することができる。例えば屈折用オブジェクトOB10に対して適用されるパラメータを変更することにより画像の一部を拡大又は縮小させる構成としてもよく、回転させる構成としてもよい。さらに、表示面Gに表示されている画像の一部を他の領域と比較して透明にしてもよい。 Further, the present invention is not limited to effects that express distortion, and the present invention can be applied to display effects that change part or all of an image. For example, a configuration in which a part of the image is enlarged or reduced by changing a parameter applied to the refraction object OB10 may be used, or a configuration in which the image is rotated may be used. Furthermore, a part of the image displayed on the display surface G may be made transparent compared with other regions.
さらに、例えば、投影された場合に表示面G全体を表示可能な特定オブジェクトを設け、当該特定オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける。そして、予め定められた更新タイミングとなる度に、上記特定オブジェクトを複数の部品オブジェクトに分割し、当該部品オブジェクトをそれぞれ独立して移動させることにより、表示面Gに表示されていた背景画像が割れたように視認させる演出を行うことができる。これにより、場面の切換等を好適に行うことができる。 Further, for example, a specific object capable of displaying the entire display surface G when projected is provided, and the drawing data of the background image stored in the background buffer is directly pasted to the specific object. The background image displayed on the display surface G is broken by dividing the specific object into a plurality of component objects and moving the component objects independently at each predetermined update timing. An effect of visually recognizing the image can be performed. Thereby, switching of a scene etc. can be performed suitably.
また、上記構成によれば、屈折用オブジェクトOB10に対して貼り付けられるテクスチャが屈折用オブジェクトOB10と同一のサイズとなるように背景画像をトリミングする構成としたが、これに限られず、例えば異なるサイズとなるようにトリミングする構成としてもよい。この場合、屈折用オブジェクトOB10のサイズに合わせて拡大又は縮小処理を実行するとよい。これにより、上記拡大又は縮小処理により屈折用オブジェクトOB10尾に貼り付けられる画像が歪むため、歪み画像をより歪ませることができる。但し、上記構成の場合、歪み画像と他の画像との境界が目立ち易くなるため、当該境界の目立ち易さを考慮すれば上記構成の方がよい。 Further, according to the above configuration, the background image is trimmed so that the texture pasted on the refraction object OB10 has the same size as that of the refraction object OB10. However, the present invention is not limited to this. It is good also as a structure trimmed so that it may become. In this case, the enlargement or reduction process may be executed in accordance with the size of the refraction object OB10. Thereby, the image pasted on the tail of the refraction object OB10 is distorted by the enlargement or reduction process, so that the distorted image can be further distorted. However, in the case of the above configuration, since the boundary between the distorted image and another image is easily noticeable, the above configuration is better considering the conspicuousness of the boundary.
また、屈折用オブジェクトOB10が平行投影された場合の表示領域が歪み領域PE1よりも大きくなるように屈折用オブジェクトOB10の形状を設定したが、これに限られず、例えば上記表示領域が歪み領域PE1と一致するように屈折用オブジェクトOB10の形状を設定してもよい。この場合、屈折用オブジェクトOB10を変形させる場合には屈折用オブジェクトOB10の外縁部を構成する頂点座標についても変位させる構成とするとよい。 In addition, the shape of the refraction object OB10 is set so that the display area when the refraction object OB10 is projected in parallel is larger than the distortion area PE1, but the present invention is not limited to this, and for example, the display area is the distortion area PE1. The shape of the refraction object OB10 may be set so as to match. In this case, when the refraction object OB10 is deformed, the vertex coordinates constituting the outer edge portion of the refraction object OB10 may be displaced.
また、上記構成では、第1座標マッピングデータMD1及び第2座標マッピングデータMD2を交互に用いることにより、背景画像が揺らいだように見せる構成としたが、これに限られず、例えば徐々に歪みが大きくなる又は小さくなる演出及びこれらの演出を組み合わせた演出を実行する構成としてもよい。 In the above configuration, the first coordinate mapping data MD1 and the second coordinate mapping data MD2 are alternately used to make the background image appear to fluctuate. However, the present invention is not limited to this. For example, the distortion gradually increases. It is good also as a structure which performs the production | combination which produces the effect which becomes or becomes small, and these productions.
上記構成では、歪みの対象は背景画像の一部であったが、これに限られず、例えば背景画像の全部を歪ませる構成としてもよい。この場合、表示面G全体を覆うことが可能な屈折用オブジェクトを設け、当該屈折用オブジェクトに対して背景用のバッファに記憶されている背景画像の描画データをそのまま貼り付ける構成とする。 In the above configuration, the distortion target is a part of the background image. However, the present invention is not limited to this. For example, the entire background image may be distorted. In this case, a refraction object that can cover the entire display surface G is provided, and the drawing data of the background image stored in the background buffer is pasted to the refraction object as it is.
また、背景画像に限られず、図柄画像、所定のキャラクタ画像又は表示面Gに表示されている画像そのものの全部又は一部を歪ませる構成としてもよい。この場合、屈折用オブジェクトの描画に係る処理を実行する前に、歪ませたい対象を含む画像に係る描画データを予め作成しておき、屈折用オブジェクトの描画に係る処理において、上記描画データに基づいて屈折用オブジェクトに対して貼り付けるテクスチャを作成して、貼り付ける構成とするよい。 Moreover, it is not restricted to a background image, It is good also as a structure which distorts all or one part of the pattern image, a predetermined character image, or the image itself currently displayed on the display surface G. In this case, before executing the process related to the drawing of the refraction object, drawing data related to the image including the target to be distorted is created in advance, and the process related to the drawing of the refraction object is based on the drawing data. Thus, a texture to be pasted on the refraction object may be created and pasted.
また、上記構成では、屈折用オブジェクトOB10の変形を各座標マッピングデータMD1,MD2を用いることで実現したが、これに限られず、例えば4次元関数(x、y、z、t)を定義し、当該4次元関数に基づいて各頂点のZ方向の変位量を導出することにより屈折用オブジェクトOB10を変形させる構成としてもよい。この場合、歪み演出に係るデータ量の更なる削減を図ることができる。但し、VDP135の処理負荷の増大化、高精細な歪みに起因する関数の複雑化等に鑑みれば、各座標マッピングデータMD1,MD2を用いる構成の方が好ましい。
In the above configuration, the refraction object OB10 is deformed by using the coordinate mapping data MD1 and MD2. However, the present invention is not limited to this. For example, a four-dimensional function (x, y, z, t) is defined, The refractive object OB10 may be deformed by deriving the displacement amount of each vertex in the Z direction based on the four-dimensional function. In this case, the data amount relating to the distortion effect can be further reduced. However, in view of an increase in processing load of the
なお、上記構成では、屈折用オブジェクトOB10を、当該屈折用オブジェクトOB10の板面に凹凸が形成されるように各頂点座標のZ座標を変位させて変形させたが、これに限られず、例えばX座標及びY座標の少なくとも一方を変位させる構成としてもよい。この場合、格子状に配置された各頂点により渦が形成されるように各頂点のXY座標を設定するとよい。これにより、各頂点に対応させてテクスチャを貼り付けることにより歪んだ画像を表現することが可能となる。但し、処理負荷の観点に着目すれば、Z方向の変位のみの方がよい。 In the above configuration, the refraction object OB10 is deformed by displacing the Z coordinate of each vertex coordinate so that irregularities are formed on the plate surface of the refraction object OB10. It is good also as a structure which displaces at least one of a coordinate and a Y coordinate. In this case, the XY coordinates of each vertex may be set so that a vortex is formed by each vertex arranged in a grid pattern. Thereby, it becomes possible to express a distorted image by pasting a texture corresponding to each vertex. However, from the viewpoint of the processing load, it is better to have only the displacement in the Z direction.
また、上記構成では、先に背景用の描画データ(2次元画像データ)を作成した後に、演出用及び図柄用の描画データを作成する構成としたが、これに限られず、例えば第1の実施の形態のように、背景用、演出用及び図柄用の各オブジェクトをワールド座標系に配置し、当該各オブジェクトに対して投影することで各描画データを作成する構成としてもよい。この場合、2回描画処理を実行する構成とするとよい。具体的には、1回目では屈折用オブジェクトOB10を除く各オブジェクトを配置し投影することにより各描画データを作成し、2回目では屈折用オブジェクトOB10を含む各オブジェクトを配置し投影して各描画データを作成する。この場合、2回目の描画処理にて、1回目の描画処理にて作成された背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを作成する構成とする。これにより、背景画像の一部をテクスチャとして用いることができる。但し、上記構成の場合、同一処理を重複して行う必要があるため、無駄な処理が増え、処理負荷の増大化が懸念される。この点に着目すれば、先に背景用の描画データを作成した後に、演出用及び図柄用の描画データを作成する構成の方が優れている。 In the above configuration, the drawing data for the rendering and the design is created after the drawing data for the background (two-dimensional image data) is created first, but the present invention is not limited to this. For example, the first implementation As in the embodiment, each drawing data may be created by arranging each object for background, effect and design in the world coordinate system and projecting the object. In this case, it is preferable that the drawing process is executed twice. Specifically, each drawing data is created by arranging and projecting each object excluding the refraction object OB10 at the first time, and each drawing data by arranging and projecting each object including the refraction object OB10 at the second time. Create In this case, in the second drawing process, a texture to be pasted on the refraction object OB10 is created using the background drawing data created in the first drawing process. Thereby, a part of background image can be used as a texture. However, in the case of the above configuration, since it is necessary to perform the same process repeatedly, there is a concern that useless processes increase and the processing load increases. If attention is paid to this point, a configuration in which drawing data for production and design is created after drawing data for background is created first is superior.
また、変形対象となる画像が更新される構成であってもよい。例えば、図柄画像CP11のスクロールに伴って歪み領域PE1を順次スクロールさせる構成としてもよい。この場合、所定の更新タイミング(例えば各フレーム)毎に屈折用オブジェクトOB10の座標を更新するとともに、歪み演出用マッピング処理(図82)におけるトリミング処理(ステップS4802)においてトリミングする領域を、屈折用オブジェクトOB10の座標に合わせて変更するようにするとよい。これにより、データ量の増大化を招くことなく、歪み領域PE1の変位に好適に対応することができる。 Moreover, the structure by which the image used as a deformation | transformation object is updated may be sufficient. For example, the distortion region PE1 may be sequentially scrolled as the symbol image CP11 is scrolled. In this case, the coordinates of the refraction object OB10 are updated every predetermined update timing (for example, each frame), and the region to be trimmed in the trimming process (step S4802) in the distortion effect mapping process (FIG. 82) is set as the refraction object. It is good to change according to the coordinate of OB10. Thereby, it is possible to suitably cope with the displacement of the strain region PE1 without increasing the data amount.
また、歪み領域PE1を固定しつつ背景画像を変位させる構成としてもよい。この場合であっても、フレーム毎に背景画像に係る背景用の描画データを生成し、さらにフレーム毎に当該背景用の描画データを用いて屈折用オブジェクトOB10に対して貼り付けるテクスチャを生成する構成であるため、変位した背景画像を歪ませることができる。 Moreover, it is good also as a structure which displaces a background image, fixing distortion area | region PE1. Even in this case, a configuration for generating drawing data for the background related to the background image for each frame and generating a texture to be pasted to the refraction object OB10 using the drawing data for the background for each frame. Therefore, the displaced background image can be distorted.
なお、背景画像の変位としては、所定の方向への背景画像のスクロールが考えられる。当該スクロールは、背景画像を構成するオブジェクトの移動又は視点の移動により実現することができる。 As the displacement of the background image, scrolling of the background image in a predetermined direction can be considered. The scroll can be realized by moving an object constituting the background image or moving the viewpoint.
また、画像の一部を加工して表示演出を行う構成は、2次元表示に係る構成に適用してもよい。具体的には、メモリモジュール133に複数種類のスプライトデータを記憶させておき、当該スプライトデータを用いて所定の画像に係る描画データを生成する。そして、当該描画データをフレームバッファ142に設けられた仮バッファに記憶させておき、当該描画データの一部を抜き出し、当該抜き出したデータをスプライトデータとして扱う構成とするとよい。これにより、描画データに係る画像の一部を拡大又は縮小したり、所定の方向に移動させたりする表示演出を行うことができる。
In addition, a configuration in which a part of an image is processed to perform a display effect may be applied to a configuration related to two-dimensional display. Specifically, a plurality of types of sprite data are stored in the
さらに抜き出したデータを別のスプライトデータに対して重ねることにより、抜き出したデータに係る画像に上書きすることもできる。 Furthermore, by superimposing the extracted data on another sprite data, it is possible to overwrite the image related to the extracted data.
また、屈折用オブジェクトOB10に対して貼り付けるテクスチャは、投影することにより作成されたものであったが、これに限られず、例えば予めメモリモジュール133に記憶させておく構成としてもよい。但し、テクスチャのデータ量の増大化に着目すれば、投影することで作成する構成の方がよい。
Further, the texture to be pasted on the refraction object OB10 has been created by projection, but is not limited thereto, and may be configured to be stored in advance in the
また、屈折用オブジェクトOB10は板状ポリゴンであったが、これに限られず、任意の形状のポリゴンを用いてもよい。但し、処理負荷の観点に着目すれば、板状ポリゴンである構成の方がよい。 Further, although the refraction object OB10 is a plate-shaped polygon, it is not limited to this, and a polygon having an arbitrary shape may be used. However, from the viewpoint of processing load, a configuration of plate-like polygons is better.
上記構成では、屈折用オブジェクトOB10の変形形態を、第1変形形態OB10aと第2変形形態OB10bとに交互に切り換えることで、歪みを表現したが、これに限られず、例えば2つの屈折用オブジェクトOB10を設け、各屈折用オブジェクトOB10をそれぞれ第1変形形態OB10aと、第2変形形態OB10bとに変形させて、両者を短辺部にて連結させる構成としてもよい。この場合、連結したものを所定の方向にスクロールさせる構成とするとよい。この場合であっても、揺らいだ画像を好適に表示させることができる。 In the above configuration, the distortion is expressed by alternately switching the deformation form of the refraction object OB10 between the first deformation form OB10a and the second deformation form OB10b. However, the present invention is not limited to this. For example, two refraction objects OB10 It is good also as a structure which deform | transforms each refraction | bending object OB10 into the 1st deformation | transformation form OB10a and 2nd deformation | transformation form OB10b, respectively, and connects both in a short side part. In this case, it is good to make it the structure which scrolls the connected thing in a predetermined direction. Even in this case, a swaying image can be suitably displayed.
<瞬き演出を行うための構成について>
次に、瞬き演出を行うための構成について説明する。
<About the configuration for blinking production>
Next, a configuration for performing a blink effect will be described.
瞬き演出とは、所定のキャラクタ画像が瞬きをする演出である。 The blink effect is an effect in which a predetermined character image blinks.
当該瞬き演出では、所定のキャラクタ画像を表示するのに用いられるベースオブジェクトOB21及びベーステクスチャTD11と、目の部分を変更するのに用いられる部分オブジェクトOB22及び部分テクスチャTD12とが用いられる。これらの各構成について図85を用いて説明する。図85(a)はベースオブジェクトOB21及び部分オブジェクトOB22を説明するための説明図、図85(b)はベーステクスチャTD11を説明するための説明図、図85(c)は部分テクスチャTD12を説明するための説明図である。なお、ベースオブジェクトOB21と部分オブジェクトOB22との関係を説明するために、図85(a)においてベースオブジェクトOB21と部分オブジェクトOB22とを重ねて示すとともに、部分オブジェクトOB22を点線で示す。さらに、ベーステクスチャTD11と部分テクスチャTD12との関係を説明するために、図85(b)において部分テクスチャTD12の外形を点線で示す。 In the blink effect, a base object OB21 and a base texture TD11 used to display a predetermined character image, and a partial object OB22 and a partial texture TD12 used to change the eye part are used. Each of these components will be described with reference to FIG. 85A is an explanatory diagram for explaining the base object OB21 and the partial object OB22, FIG. 85B is an explanatory diagram for explaining the base texture TD11, and FIG. 85C is a diagram explaining the partial texture TD12. It is explanatory drawing for. In order to explain the relationship between the base object OB21 and the partial object OB22, in FIG. 85A, the base object OB21 and the partial object OB22 are overlapped and the partial object OB22 is indicated by a dotted line. Furthermore, in order to explain the relationship between the base texture TD11 and the partial texture TD12, the outer shape of the partial texture TD12 is indicated by a dotted line in FIG.
ベースオブジェクトOB21は、図85(a)に示すように、複数の部品オブジェクトからなる1単位のオブジェクトであり、各部品オブジェクトに適用されるパラメータを更新することで3D画像のキャラクタに動きや変化を与えることができる。 As shown in FIG. 85 (a), the base object OB21 is a unit object composed of a plurality of part objects. By updating the parameters applied to each part object, the base object OB21 moves and changes the character of the 3D image. Can be given.
また、ベースオブジェクトOB21において、キャラクタの頭部に対応した頭部オブジェクトOB31に貼り付けるテクスチャとしてベーステクスチャTD11が設定されている。ベーステクスチャTD11は、図85(b)に示すように、顔が描かれた画像データである。ベーステクスチャTD11は頭部オブジェクトOB31に対応させた矩形状の画像データとして設定されている。具体的には、ベーステクスチャTD11は、3次元の頭部オブジェクトOB31を2次元に展開した場合の画像データに対応させて設定されており、展開した画像データと同一の形状となるように縦横ピクセル数が設定されている。当該ベーステクスチャTD11が頭部オブジェクトOB31に対して貼り付けられることにより、顔が表現されることとなる。 In the base object OB21, a base texture TD11 is set as a texture to be pasted on the head object OB31 corresponding to the character's head. The base texture TD11 is image data in which a face is drawn as shown in FIG. The base texture TD11 is set as rectangular image data corresponding to the head object OB31. Specifically, the base texture TD11 is set corresponding to the image data when the three-dimensional head object OB31 is expanded two-dimensionally, and the vertical and horizontal pixels have the same shape as the expanded image data. Number is set. The face is represented by pasting the base texture TD11 on the head object OB31.
なお、髪型については、頭部オブジェクトOB31とは別に髪型オブジェクトOB32が設けられているとともに、当該髪型オブジェクトOB32に対して貼り付ける髪型テクスチャが設けられている。これらを用いて髪型を表現し、髪型オブジェクトOB32と頭部オブジェクトOB31とを重ねあわせることにより、キャラクタの頭部を表現する。 For the hairstyle, a hairstyle object OB32 is provided separately from the head object OB31, and a hairstyle texture to be attached to the hairstyle object OB32 is provided. The hairstyle is expressed using these, and the head of the character is expressed by superimposing the hairstyle object OB32 and the head object OB31.
また、ベーステクスチャTD11は矩形状の画像データとして設定されている構成としたが、これに限られず、頭部オブジェクトOB31の形状に合わせて異なる形状の画像データとして設定してもよい。 The base texture TD11 is set as rectangular image data. However, the present invention is not limited to this. The base texture TD11 may be set as image data having a different shape in accordance with the shape of the head object OB31.
部分オブジェクトOB22は、当該部分オブジェクトOB22が投影された場合にベースオブジェクトOB21における目の表示領域を覆うことが可能となるようにその形状及びサイズが設定されている。具体的には、部分オブジェクトOB22は、図85(a)に示すように、ベースオブジェクトOB21において目が表示される領域と同一の形状となる矩形板状ポリゴンで構成されている。これにより、ワールド座標系においてベースオブジェクトOB21が配置され、視点とベースオブジェクトOB21との間であって且つベースオブジェクトOB21において目が表示される領域に対して重なるように部分オブジェクトOB22が配置された状態で平行投影が行われた場合には、ベーステクスチャTD11の目に代えて、部分オブジェクトOB22の画像が表示されることとなる。この場合、部分オブジェクトOB22に対して、ベーステクスチャTD11の目とは態様が異なるテクスチャが貼り付けられることにより、目の態様が異なるキャラクタ画像が表示される。 The shape and size of the partial object OB22 are set so that the partial object OB22 can cover the display area of the eye in the base object OB21 when the partial object OB22 is projected. Specifically, as shown in FIG. 85A, the partial object OB22 is composed of rectangular plate-shaped polygons having the same shape as the area where the eyes are displayed in the base object OB21. Thereby, the base object OB21 is arranged in the world coordinate system, and the partial object OB22 is arranged between the viewpoint and the base object OB21 and so as to overlap the area where the eyes are displayed in the base object OB21. When the parallel projection is performed, the image of the partial object OB22 is displayed instead of the eyes of the base texture TD11. In this case, a texture image having a different aspect from the eyes of the base texture TD11 is pasted on the partial object OB22, thereby displaying a character image having a different aspect.
当該部分オブジェクトOB22に対して貼り付けるテクスチャとして複数種類(具体的には3種類)の部分テクスチャTD12が設けられている。 A plurality of types (specifically, three types) of partial textures TD12 are provided as textures to be pasted on the partial object OB22.
部分テクスチャTD12について説明すると、部分テクスチャTD12のサイズは部分オブジェクトOB22と同一に設定されており、具体的には、部分オブジェクトOB22の形状と同一となるように、部分テクスチャTD12の各縦横ピクセル数が設定されている。このため、部分オブジェクトOB22に対して部分テクスチャTD12は変形することなく貼り付けられることとなる。 The partial texture TD12 will be described. The size of the partial texture TD12 is set to be the same as that of the partial object OB22. Specifically, the number of vertical and horizontal pixels of the partial texture TD12 is the same as the shape of the partial object OB22. Is set. For this reason, the partial texture TD12 is pasted to the partial object OB22 without deformation.
この場合、ベーステクスチャTD11のピクセル数は頭部オブジェクトOB31全体の大きさに対応させて設定されており、部分テクスチャTD12のピクセル数は頭部オブジェクトOB31のうち目の部分に対応させて設定されているため、図85(b)に示すように、部分テクスチャTD12の方がベーステクスチャTD11よりもサイズが小さく、データ量が少ない画像データとなっている。 In this case, the number of pixels of the base texture TD11 is set corresponding to the overall size of the head object OB31, and the number of pixels of the partial texture TD12 is set corresponding to the eye portion of the head object OB31. Therefore, as shown in FIG. 85 (b), the partial texture TD12 is smaller than the base texture TD11 and is image data with a smaller data amount.
部分テクスチャTD12には目が開いた状態の画像データである第1部分テクスチャTD21(図85(c−1)参照)と、目が開いた状態と目が閉じた状態との中間状態の画像データである第2部分テクスチャTD22(図85(c−2)参照)と、目が閉じた状態の第3部分テクスチャTD23(図85(c−3)参照)と、が設定されている。第1部分テクスチャTD21は、ベーステクスチャTD11の目の部分と同一の画像が描かれたテクスチャである。 In the partial texture TD12, the first partial texture TD21 (see FIG. 85 (c-1)) which is image data with the eyes open, and image data in an intermediate state between the eyes opened and eyes closed The second partial texture TD22 (see FIG. 85 (c-2)) and the third partial texture TD23 (see FIG. 85 (c-3)) with the eyes closed are set. The first partial texture TD21 is a texture on which the same image as the eye portion of the base texture TD11 is drawn.
部分オブジェクトOB22に対して貼り付けるテクスチャを第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャTD23→第2部分テクスチャTD22→第1部分テクスチャTD21を1周期として順次切り換えることにより、瞬きを表現することができる。 By sequentially switching the texture to be pasted to the partial object OB22 as the first partial texture TD21 → second partial texture TD22 → third partial texture TD23 → second partial texture TD22 → first partial texture TD21 as one cycle, Can be expressed.
瞬き演出の具体的な処理構成について説明する。 A specific processing configuration of the blink effect will be described.
図86は、表示CPU131にて実行される瞬き演出用演算処理を示すフローチャートである。瞬き演出用演算処理は、タスク処理(図14)のステップS904における演出用演算処理において、現状設定されているデータテーブルが瞬き演出に対応したものである場合に起動される。
FIG. 86 is a flowchart showing the blink effect calculation process executed by the
先ずステップS5001にて、現状設定されているデータテーブルに基づいて、瞬き演出中であるか否かを判定する。 First, in step S5001, based on the currently set data table, it is determined whether or not a blink effect is being performed.
瞬き演出の実行中でない場合には、ステップS5002に進み、現状設定されているデータテーブルに基づいて、瞬き演出の開始タイミングであるか否かを判定する。 If the blink effect is not being executed, the process advances to step S5002 to determine whether it is the start timing of the blink effect based on the currently set data table.
瞬き演出の開始タイミングでない場合にはそのまま本演算処理を終了する一方、瞬き演出の開始タイミングである場合には、ステップS5003に進み、ベースオブジェクトOB21を把握する。そして、ステップS5004に進み、ベーステクスチャTD11を含むベースオブジェクトOB21に対して貼り付けられる各種テクスチャのアドレス情報を設定する。 If it is not the start timing of the blink effect, the present calculation process is ended as it is. If it is the start timing of the blink effect, the process proceeds to step S5003, and the base object OB21 is grasped. In step S5004, address information of various textures to be pasted on the base object OB21 including the base texture TD11 is set.
その後、ステップS5005にて、ベースオブジェクトOB21に対して適用されるその他のパラメータの初期設定に係る演算処理を行う。 Thereafter, in step S5005, calculation processing relating to initial setting of other parameters applied to the base object OB21 is performed.
続くステップS5006では、部分オブジェクトOB22を把握する。そして、ステップS5007にて当該部分オブジェクトOB22の初期座標を設定する。初期座標はデータテーブルに予め設定されており、具体的には、ワールド座標系に変換した場合にベースオブジェクトOB21よりも前側(視点側)であって投影(平行投影)した場合にベースオブジェクトOB21において目が表示される領域と重なるように配置されるよう設定されている。 In a succeeding step S5006, the partial object OB22 is grasped. In step S5007, initial coordinates of the partial object OB22 are set. The initial coordinates are set in advance in the data table. Specifically, in the base object OB21 when projected to the front side (viewpoint side) and projected (parallel projection) from the base object OB21 when converted into the world coordinate system. It is set to be arranged so as to overlap the area where the eyes are displayed.
その後、ステップS5008では、部分テクスチャTD12のアドレス情報の初期設定を行う。具体的には、第1部分テクスチャTD21のアドレス情報を設定する。そして、ステップS5009にてその他のパラメータの初期設定に係る演算処理を実行する。 Thereafter, in step S5008, the address information of the partial texture TD12 is initialized. Specifically, address information of the first partial texture TD21 is set. In step S5009, calculation processing related to initial setting of other parameters is executed.
その後、ステップS5010にて瞬き演出指定情報を描画リストに設定して本演算処理を終了する。当該瞬き演出指定情報は、VDP135において瞬き演出に係る描画処理を実行することを特定するのに用いられる情報である。
Thereafter, in step S5010, blink effect designation information is set in the drawing list, and the present calculation process is terminated. The blink effect designation information is information used to specify that the drawing process related to the blink effect is executed in the
かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストには、ベースオブジェクトOB21及び部分オブジェクトOB22が描画対象として設定されるとともに、各オブジェクトOB21,OB22に対応したパラメータが設定される。この場合、投影した場合にベースオブジェクトOB21の頭部オブジェクトOB31及びベーステクスチャTD11による目の画像に重なるように部分オブジェクトOB22及び第1部分テクスチャTD21による目の画像が表示されるように各オブジェクトOB21,OB22の座標が設定されている。また、上記描画リストには、瞬き演出指定情報が設定されている。 When such processing is executed, the base object OB21 and the partial object OB22 are set as drawing targets in the drawing list created in the subsequent drawing list output processing, and parameters corresponding to the objects OB21 and OB22 are set. Is set. In this case, when projected, each object OB21, so that the image of the eye of the partial object OB22 and the first partial texture TD21 is displayed so as to overlap the image of the head of the base object OB21 and the eye of the base texture TD11. The coordinates of OB22 are set. In the drawing list, blink effect designation information is set.
一方、瞬き演出中である場合には、ステップS5011〜ステップS5013にて、ベースオブジェクトOB21の設定に係る処理を実行する。具体的には、ステップS5011にて、ベースオブジェクトOB21を把握し、ステップS5012にて各種テクスチャのアドレスを設定する。そして、ステップS5013にてその他のパラメータの演算処理を行う。この場合、初期設定された各種パラメータを維持する処理を実行する。 On the other hand, when the blinking effect is being performed, processing relating to the setting of the base object OB21 is executed in steps S5011 to S5013. Specifically, the base object OB21 is grasped in step S5011, and addresses of various textures are set in step S5012. In step S5013, other parameter calculation processing is performed. In this case, a process of maintaining the various parameters that are initialized is executed.
その後、ステップS5014〜ステップS5018にて部分オブジェクトOB22の設定に係る処理を実行する。具体的には、先ずステップS5014にて部分オブジェクトOB22を把握する。そして、ステップS5015にて、現状設定されているデータテーブルに基づいて、部分テクスチャTD12の更新タイミングであるか否かを判定する。具体的には、瞬き演出に対応したデータテーブルには、所定数のフレーム毎に部分テクスチャTD12の更新タイミングを特定するための情報が設定されている。ステップS5015では、上記情報が設定されているか否かを判定する。 Thereafter, processing relating to the setting of the partial object OB22 is executed in steps S5014 to S5018. Specifically, first, in step S5014, the partial object OB22 is grasped. In step S5015, it is determined whether it is the update timing of the partial texture TD12 based on the currently set data table. Specifically, information for specifying the update timing of the partial texture TD12 is set for each predetermined number of frames in the data table corresponding to the blink effect. In step S5015, it is determined whether the information is set.
部分テクスチャTD12の更新タイミングでない場合には、ステップS5016に進み、前回の部分テクスチャTD12のアドレス情報を設定する。そして、ステップS5017にてその他のパラメータの演算処理を実行し、ステップS5010にて瞬き演出指定情報を設定し、本演算処理を終了する。 If it is not the update timing of the partial texture TD12, the process proceeds to step S5016 to set the address information of the previous partial texture TD12. In step S5017, another parameter calculation process is executed. In step S5010, blink effect designation information is set, and the calculation process ends.
かかる処理が実行された場合、その後の描画リスト出力処理では、前回作成された描画リストと同一の描画リストが作成される。 When such processing is executed, in the subsequent drawing list output processing, the same drawing list as the previously created drawing list is created.
一方、部分テクスチャTD12の更新タイミングである場合には、ステップS5018に進み、前回の部分テクスチャに対して次の部分テクスチャのアドレス情報を設定する処理を実行する。具体的には、瞬き演出に対応したデータテーブルには、部分オブジェクトOB22に対する貼付対象となる各部分テクスチャTD21〜TD23の順序が予め設定されている。詳細には、第1部分テクスチャTD21→第2部分テクスチャTD22→第3部分テクスチャ→第2部分テクスチャTD22を1周期として設定されている。ステップS5018では、上記周期に基づいて、前回の描画リストにおいて設定された部分テクスチャに対して次の部分テクスチャを把握し、当該次の部分テクスチャに対応したアドレスを設定する処理を実行する。 On the other hand, if it is the update timing of the partial texture TD12, the process advances to step S5018 to execute processing for setting the address information of the next partial texture for the previous partial texture. Specifically, the order of the partial textures TD21 to TD23 to be pasted on the partial object OB22 is set in advance in the data table corresponding to the blink effect. Specifically, the first partial texture TD21 → second partial texture TD22 → third partial texture → second partial texture TD22 is set as one cycle. In step S5018, based on the above cycle, the next partial texture is grasped for the partial texture set in the previous drawing list, and processing for setting an address corresponding to the next partial texture is executed.
そして、ステップS5017及びステップS5010の処理を実行して本演算処理を終了する。 And the process of step S5017 and step S5010 is performed and this calculation process is complete | finished.
かかる処理が実行された場合、その後の描画リスト出力処理にて作成される描画リストは、前回作成された描画リストと比較して、部分オブジェクトOB22に対して貼り付けられる部分テクスチャTD12が異なっている。 When such processing is executed, the drawing list created in the subsequent drawing list output processing differs from the drawing list created last time in the partial texture TD12 pasted to the partial object OB22. .
VDP135は、瞬き演出指定情報が設定された描画リストを受信した場合、各オブジェクトOB21,OB22に設定されている座標に基づいてワールド座標系への設定を行う。そして、ベースオブジェクトOB21に対してベーステクスチャTD11を含む各種テクスチャをマッピングするとともに、部分オブジェクトOB22に対して今回描画リストに設定されている部分テクスチャTD12をマッピングし、演出及び図柄用の描画データ作成処理にて、各オブジェクトOB21,OB22を平行投影し、描画データを作成する。これにより、目の部分が部分テクスチャTD12の画像に置き換わったキャラクタ画像が作成される。
When the
この場合、部分テクスチャTD12の更新タイミングに係る描画リストには、前回の描画リストとは異なる部分テクスチャTD12が設定されているため、表示面Gには、前回の処理により表示されたキャラクタ画像と比較して、目の態様が異なるキャラクタ画像が表示されることとなる。 In this case, since the partial texture TD12 different from the previous drawing list is set in the drawing list related to the update timing of the partial texture TD12, the display surface G is compared with the character image displayed by the previous processing. As a result, character images having different eye forms are displayed.
次に、瞬き演出の様子について図87を用いて説明する。図87は、瞬き演出を説明するための説明図であり、具体的には図87(a)は瞬き演出の開始タイミングにおいて表示面Gに表示される画像を説明するための説明図、図87(b)及び図87(c)はキャラクタ画像CP22の表示態様の移り変わりを時系列で示した説明図である。なお、説明の便宜上、キャラクタ画像CP22以外の画像を省略して示すが、実際には背景画像及び図柄画像等が表示される。 Next, the state of the blink effect will be described with reference to FIG. FIG. 87 is an explanatory diagram for explaining the blink effect. Specifically, FIG. 87 (a) is an explanatory diagram for explaining an image displayed on the display surface G at the start timing of the blink effect. (B) and FIG. 87 (c) are explanatory diagrams showing the transition of the display mode of the character image CP22 in time series. For convenience of explanation, images other than the character image CP22 are omitted, but a background image, a design image, and the like are actually displayed.
瞬き演出が開始される場合、図87(a)に示すように、ベースオブジェクトOB21及びベーステクスチャTD11を含む各種テクスチャを用いて作成されたベース画像CP21を有するキャラクタ画像CP22が表示される。この場合、ベース画像CP21における重ね合わせ領域PE2(詳細には目の領域)には、部分オブジェクトOB22及び第1部分テクスチャTD21を用いて作成された第1部分画像CP23が表示される。 When the blink effect is started, as shown in FIG. 87A, a character image CP22 having a base image CP21 created using various textures including the base object OB21 and the base texture TD11 is displayed. In this case, the first partial image CP23 created using the partial object OB22 and the first partial texture TD21 is displayed in the overlapping region PE2 (specifically, the eye region) in the base image CP21.
なお、既に説明した通り、第1部分テクスチャTD21に描かれている目の画像は、ベース画像CP21における目の画像と同一であるため、実際にはベース画像CP21と同一の画像が表示されることとなる。 Note that, as already described, the eye image drawn on the first partial texture TD21 is the same as the eye image in the base image CP21, so that the same image as the base image CP21 is actually displayed. It becomes.
その後、部分テクスチャTD12の更新タイミングとなることに基づいて、図87(b)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第2部分テクスチャTD22を用いて作成された第2部分画像CP24が表示される。 Thereafter, based on the update timing of the partial texture TD12, as shown in FIG. 87 (b), in the overlapping area PE2, the second part created using the partial object OB22 and the second partial texture TD22. An image CP24 is displayed.
そして、次の更新タイミングとなることに基づいて、図87(c)に示すように、重ね合わせ領域PE2には、部分オブジェクトOB22及び第3部分テクスチャTD23を用いて作成された第3部分画像CP25が表示される。 Then, based on the next update timing, as shown in FIG. 87 (c), the third partial image CP25 created by using the partial object OB22 and the third partial texture TD23 in the overlapping region PE2. Is displayed.
以上のように、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25の順に更新されることにより、目が徐々に閉じていく様子が表現される。 As described above, a state in which the eyes are gradually closed is expressed by updating the first partial image CP23 → the second partial image CP24 → the third partial image CP25 in this order.
その後、更新タイミングとなる度に、重ね合わせ領域PE2には、第2部分画像CP24→第1部分画像CP23が表示される。 Thereafter, at the update timing, the second partial image CP24 → the first partial image CP23 is displayed in the overlapping area PE2.
すなわち、第1部分画像CP23→第2部分画像CP24→第3部分画像CP25→第2部分画像CP24→第1部分画像CP23→…、という順序で繰り返し画像が更新されることにより、キャラクタ画像CP22が瞬きをしているように見える。 That is, the character image CP22 is updated by repeatedly updating the first partial image CP23 → the second partial image CP24 → the third partial image CP25 → the second partial image CP24 → the first partial image CP23 →. Looks like you are blinking.
以上の通り、キャラクタ画像CP22の目の部分に対して局所的に部分オブジェクトOB22を配置し、所定の更新タイミングとなる度に当該部分オブジェクトOB22に対して貼り付ける部分テクスチャTD12を更新することにより、キャラクタ画像CP22の瞬きを表現することができる。この場合、部分テクスチャTD12はベーステクスチャTD11の一部の領域のテクスチャであるため、ベーステクスチャTD11と比較してデータ量が小さい。これにより、ベーステクスチャTD11を複数用意する構成と比較して、瞬き演出を行うのに必要なデータ量の削減を図ることができる。 As described above, the partial object OB22 is locally arranged with respect to the eye part of the character image CP22, and the partial texture TD12 to be pasted on the partial object OB22 is updated every predetermined update timing. The blink of character image CP22 can be expressed. In this case, since the partial texture TD12 is a texture of a partial region of the base texture TD11, the data amount is smaller than that of the base texture TD11. Thereby, compared with the structure which prepares multiple base texture TD11, reduction of the data amount required in order to perform a blink effect can be aimed at.
すなわち、ベース画像CP21を、変化対象となる部位と変化対象とならない部位とに区分けし、変化対象となる部位のみに対応したテクスチャを設け、当該テクスチャとベース画像CP21とを用いてキャラクタ画像の動作を表現する構成とした。これにより、ベース画像CP21全体に係るテクスチャ、すなわちベーステクスチャTD11を複数用意する必要がない。よって、データ量の削減を図りつつ、特定キャラクタ画像の一部を変化させることが可能となる。 That is, the base image CP21 is divided into a part to be changed and a part not to be changed, a texture corresponding to only the part to be changed is provided, and the motion of the character image is performed using the texture and the base image CP21. It was set as the structure which expresses. Thereby, it is not necessary to prepare a plurality of textures relating to the entire base image CP21, that is, the base texture TD11. Therefore, it is possible to change a part of the specific character image while reducing the data amount.
この場合、例えば頭部オブジェクトOB31を、目の部分に対応した目オブジェクトと、目よりも下の部分に対応した第1オブジェクトと、目よりも上の部分に対応した第2オブジェクトとに分割し、当該目オブジェクトに対して貼り付けるテクスチャを変更することにより、瞬きを表現する構成も考えられる。しかしながら、かかる構成の場合、頭部オブジェクトOB31を分割することに起因して描画対象となるオブジェクト数が増加し、把握対象となる頂点数が増加する。このため、処理負荷の増大化が懸念される。 In this case, for example, the head object OB31 is divided into an eye object corresponding to the eye part, a first object corresponding to the part below the eye, and a second object corresponding to the part above the eye. A configuration that expresses blinking by changing the texture to be applied to the eye object is also conceivable. However, in such a configuration, the number of objects to be drawn increases due to the division of the head object OB31, and the number of vertices to be grasped increases. For this reason, there is a concern about an increase in processing load.
これに対して、本形態によれば、1の頭部オブジェクトOB31と、描画に係る処理負荷が比較的少ない板状ポリゴンである1の部分オブジェクトOB22とで瞬きを実現することができる。これにより、瞬き演出を行うのに要する処理負荷の増大化を抑制することができる。 On the other hand, according to the present embodiment, blinking can be realized by one head object OB31 and one partial object OB22 that is a plate-shaped polygon with a relatively small processing load related to drawing. Thereby, increase of the processing load required for performing a blink effect can be suppressed.
なお、瞬きについて説明したが、これに限られず、1単位の個別画像の一部を変化させる場合に本発明を適用することができる。具体的には、変化対象となる領域に対して重なるように部分オブジェクトを配置し、当該部分オブジェクトに対して当該領域に表示される変化後の部分画像に対応した部分テクスチャを貼り付ければよい。例えば、口を変える場合、服の模様を一部変更する場合にも本発明を適用することができる。 In addition, although blinking was demonstrated, it is not restricted to this, This invention is applicable when changing a part of 1 unit of individual images. Specifically, the partial object may be arranged so as to overlap the area to be changed, and a partial texture corresponding to the changed partial image displayed in the area may be pasted on the partial object. For example, the present invention can be applied to changing the mouth or partially changing the pattern of clothes.
また、瞬き演出を行う場合に、ベース画像CP21の目の画像と同一の第1部分テクスチャTD21を用意して、当該第1部分テクスチャTD21を用いて第1部分画像CP23を表示させる構成としたが、これに限られず、第1部分テクスチャTD21を用意しない構成としてもよい。これにより、瞬き演出に要するデータ量の削減を好適に図ることができる。この場合、瞬き演出に対応したデータテーブルに、ベース画像CP21をそのまま表示する期間であることを特定するための情報を設定し、ステップS5013の処理の実行後に、当該期間中であるか否かを判定する処理を実行する。当該判定処理にて、ベース画像CP21をそのまま表示する期間であると判定した場合には、部分オブジェクトOB22の設定に係る処理(ステップS5014〜ステップS5017)を実行することなく、本演算処理を終了する。一方、ベース画像CP21をそのまま表示する期間でないと判定した場合には、部分オブジェクトOB22の設定に係る処理を実行する構成とするとよい。これにより、ベース画像CP21の一部を流用して瞬き演出を行うことが可能となる。但し、上記判定処理に係る処理負荷分だけ瞬き演出用演算処理の処理負荷が大きくなることに着目すれば、第1部分テクスチャTD21を予め用意しておく構成の方がよい。 In addition, when the blink effect is performed, the first partial texture TD21 that is the same as the eye image of the base image CP21 is prepared, and the first partial image CP23 is displayed using the first partial texture TD21. The configuration is not limited to this, and the first partial texture TD21 may not be prepared. Thereby, it is possible to suitably reduce the amount of data required for the blink effect. In this case, information for specifying that it is a period for displaying the base image CP21 as it is is set in the data table corresponding to the blink effect, and whether or not the period is in effect after the execution of the process of step S5013. The process for determining is executed. If it is determined in the determination process that it is a period for displaying the base image CP21 as it is, the present calculation process is terminated without executing the process related to the setting of the partial object OB22 (steps S5014 to S5017). . On the other hand, when it is determined that it is not the period for displaying the base image CP21 as it is, it is preferable to perform a process related to the setting of the partial object OB22. Accordingly, it is possible to perform a blink effect by using a part of the base image CP21. However, if attention is paid to the fact that the processing load of the blink effect calculation process is increased by the processing load related to the determination process, it is better to prepare the first partial texture TD21 in advance.
特に、一般的に定期処理では、最大負荷が付与された場合であっても処理落ちしないように設計する必要がある。このため、上記構成の場合、上記判定処理及び部分オブジェクトOB22の設定に係る処理が実行された場合であっても処理落ちしないように設計する必要がある。これに対して、第1部分テクスチャTD21を用意する構成の場合、上記判定処理が必要なく、その分だけ余裕を持たせることができる。これにより、瞬き演出に要するテクスチャのデータ量の削減と、瞬き演出に起因する処理負荷の増大化の抑制とのバランスを取ることができる。 In particular, it is generally necessary for the periodic processing to be designed so that the processing is not lost even when the maximum load is applied. For this reason, in the case of the above configuration, it is necessary to design so that the processing is not lost even when the determination processing and the processing related to the setting of the partial object OB22 are executed. On the other hand, in the case of the configuration in which the first partial texture TD21 is prepared, the above determination process is not necessary, and a margin can be given accordingly. This makes it possible to balance the reduction in the amount of texture data required for the blink effect and the suppression of an increase in processing load caused by the blink effect.
なお、瞬きの途中態様の様子を示す第2部分テクスチャTD22を設ける構成としたが、これに限られず、例えば第1部分テクスチャTD21及び第3部分テクスチャTD23に基づいて中間態様の部分テクスチャを作成する構成としてもよい。この場合、中間態様の部分テクスチャに係る画像データを用意する必要がないため、データ量の削減を図ることができる。但し、中間態様の部分テクスチャの作成に係る処理負荷を考慮すれば、中間態様の部分テクスチャを予め用意しておく構成の方が好ましい。 In addition, although it was set as the structure which provides the 2nd partial texture TD22 which shows the mode of the way of blinking, it is not restricted to this, For example, based on 1st partial texture TD21 and 3rd partial texture TD23, the partial texture of an intermediate aspect is produced. It is good also as a structure. In this case, since it is not necessary to prepare image data related to the partial texture of the intermediate mode, the data amount can be reduced. However, in consideration of the processing load related to the creation of the partial texture of the intermediate mode, it is preferable to prepare the partial texture of the intermediate mode in advance.
上記構成においては、部分オブジェクトOB22を設け、ベースオブジェクトOB21に対して部分オブジェクトOB22が重なるように両者の位置関係を設定することで瞬き演出を実現させる構成としたが、これに限られず、部分オブジェクトOB22を設けない構成としてもよい。この場合、部分テクスチャTD12を頭部オブジェクトOB31における目の領域に対して直接上書きする構成としてもよい。具体的には、ベーステクスチャTD11が貼り付けられた頭部オブジェクトOB31の目の領域に対応する頂点に対応付けて部分テクスチャTD12のUV座標を設定し、当該部分テクスチャTD12を上記目の領域に貼り付ける処理を実行する。但し、部分オブジェクトOB22は板ポリゴンであるため、当該部分オブジェクトOB22を構成する頂点の数は頭部オブジェクトOB31における目の領域を形成する頂点の数よりも少なくなり易い。このため、部分オブジェクトOB22を用いて瞬き演出を行う構成の方が、マッピングに係る処理負荷が軽くなり易い。 In the above configuration, the partial object OB22 is provided, and the positional relationship between the two is set so that the partial object OB22 overlaps the base object OB21. However, the present invention is not limited to this. It is good also as a structure which does not provide OB22. In this case, the partial texture TD12 may be directly overwritten on the eye area in the head object OB31. Specifically, the UV coordinate of the partial texture TD12 is set in association with the vertex corresponding to the eye area of the head object OB31 to which the base texture TD11 is pasted, and the partial texture TD12 is pasted on the eye area. The process to attach is executed. However, since the partial object OB22 is a plate polygon, the number of vertices constituting the partial object OB22 tends to be smaller than the number of vertices forming the eye area in the head object OB31. For this reason, the processing load related to mapping tends to be lighter in the configuration in which the blink effect is performed using the partial object OB22.
さらに、髪型オブジェクトOB32に対して貼り付けるテクスチャを複数種類設け、当該髪型オブジェクトOB32に貼り付けるテクスチャを場面に応じて切り換える構成としてもよい。 Further, a plurality of types of textures to be pasted on the hairstyle object OB32 may be provided, and the texture to be pasted on the hairstyle object OB32 may be switched according to the scene.
<その他の実施形態>
なお、上述した各実施形態の記載内容に限定されず、本発明の趣旨を逸脱しない範囲内で種々の変形改良が可能である。例えば以下のように変更してもよい。ちなみに、以下の別形態の構成を、上記実施の形態の構成に対して、個別に適用してもよく、組み合わせて適用してもよい。
<Other embodiments>
In addition, it is not limited to the description content of each embodiment mentioned above, A various deformation | transformation improvement is possible within the range which does not deviate from the meaning of this invention. For example, you may change as follows. Incidentally, the configuration of another embodiment described below may be applied individually or in combination to the configuration of the above embodiment.
(1)描画データを作成する上で必要となる画像データを、その必要となったタイミングでメモリモジュール133から読み出すのではなく、その必要となるタイミングよりも前に事前にVRAM134に読み出しておく構成としてもよい。このような事前読み出しを行うことにより、描画データの作成を好適に行うことが可能となる。特に、メモリモジュール133としてNAND型フラッシュメモリを用いる場合には、読み出しに要する時間がNOR型フラッシュメモリよりも長時間化してしまう傾向にあるため、このような構成に、上記事前読み出しの構成を適用すると効果的である。なお、VDP135において使用される画像データに加えて又は代えて、表示CPU131において使用されるプログラムやデータが事前に読み出される構成としてもよい。
(1) A configuration in which image data required for creating drawing data is not read from the
(2)演出用の描画データが書き込まれる演出用のバッファと、図柄用の描画データが書き込まれる図柄用のバッファとが個別に設けられており、最終的な生成データの生成に際しては、背景用のバッファに書き込まれた描画データと、演出用のバッファに書き込まれた描画データと、図柄用の描画データに書き込まれた描画データと、が合成される構成としてもよい。また、これに代えて、第1演出用の描画データが作成されるバッファと、第2演出用の描画データが作成されるバッファとが存在していて、第1演出用の描画データは背景用の描画データと図柄用の描画データとの間に存在し、第2演出用の描画データは最前面に存在するように、描画データの合成が行われる構成としてもよい。 (2) A rendering buffer in which rendering data for rendering is written and a buffer for symbols in which the rendering data for symbols are written are provided separately. The drawing data written in the buffer, the drawing data written in the effect buffer, and the drawing data written in the pattern drawing data may be combined. Alternatively, there are a buffer in which drawing data for the first effect is created and a buffer in which drawing data for the second effect is created. The drawing data for the first effect is for the background. The drawing data may be combined so that the drawing data for the second effect exists in the foreground, and the drawing data for the second effect exists in the foreground.
(3)カメラ(視点)がワールド座標系に配置される画像データ毎に個別に設定される構成としたが、これに代えて、ワールド座標系に配置される全画像データに対して単一のカメラが共通して設定される構成としてもよい。 (3) The camera (viewpoint) is configured to be set individually for each image data arranged in the world coordinate system. Instead, a single camera is used for all image data arranged in the world coordinate system. A configuration may be adopted in which cameras are set in common.
(4)ワールド座標系に配置された画像データは、背景画像、演出画像及び図柄画像の単位で投影される構成としたが、背景画像及び演出画像の単位でまとめて投影される構成としてもよく、演出画像及び図柄画像の単位でまとめて投影される構成としてもよく、全てがまとめて投影される構成としてもよい。 (4) The image data arranged in the world coordinate system is projected in the unit of the background image, the effect image, and the design image. However, the image data may be projected in the unit of the background image and the effect image. Further, it may be configured to project together in units of effect images and design images, or may be configured to project all together.
(5)上作動口23への入賞に係る保留情報と下作動口24への入賞に係る保留情報とが区別して記憶されるとともに、下作動口24への入賞に係る保留情報が優先して消化される構成を適用してもよく、これとは逆に上作動口23への入賞に係る保留情報が優先して消化される構成を適用してもよい。
(5) The hold information related to winning in the upper working port 23 and the hold information related to winning in the lower working
また、上記構成において、複数の作動口が上下に並設されているのではなく、上作動口23に対応した第1作動口と、下作動口24に対応した第2作動口とが左右に並設された構成としてもよく、これら両作動口が斜めに並設された構成としてもよい。さらにまた、発射ハンドル41の操作態様に応じて、第1作動口への入賞のみ又は第2作動口への入賞のみを狙えるように、両作動口を離間して配置する構成としてもよい。
Further, in the above configuration, the plurality of operation ports are not arranged vertically, but the first operation port corresponding to the upper operation port 23 and the second operation port corresponding to the
また、上記構成において、メイン表示部33に、上作動口23への入賞に基づき取得された保留情報の当否判定の結果を表示する第1表示領域と、下作動口24への入賞に基づき取得された保留情報の当否判定の結果を表示する第2表示領域とを設けてもよい。この場合、上作動口23への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第1表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。また、下作動口24への入賞に基づき取得された保留情報が当否判定の対象となることに先立って又は当否判定の対象となったことに基づいて、第2表示領域において絵柄の変動表示が開始されるとともに当該当否判定に対応した停止結果を表示し係る1遊技回の変動表示が終了される。
Further, in the above configuration, the
(6)上作動口23への入賞に係る保留情報が当否判定の対象となった場合と、下作動口24への入賞に係る保留情報が当否判定の対象となった場合とで、遊技者が得られる利益が異なる構成としてもよい。また、上記各実施形態のように作動口を複数設ける構成においては、作動口の数は2個に限定されることはなく、3個以上であってもよい。また、作動口が1個のみ設けられた構成としてもよい。
(6) A player in the case where the hold information related to winning in the upper working port 23 becomes a target of the success / failure determination, and in the case where the hold information related to winning in the lower working
(7)主制御装置50から出力されるコマンドに基づいて、音声発光制御装置60により表示制御装置70,130が制御される構成に代えて、主制御装置50から出力されるコマンドに基づいて、表示制御装置70,130が音声発光制御装置60を制御する構成としてもよい。また、音声発光制御装置60と表示制御装置70,130とが別々に設けられた構成に代えて、両制御装置が一の制御装置として設けられた構成としてもよく、それら両制御装置のうち一方の機能が主制御装置50に集約されていてもよく、それら両制御装置の両機能が主制御装置50に集約されていてもよい。また、主制御装置50から音声発光制御装置60に出力されるコマンドの構成も任意である。
(7) Based on the command output from the
(8)上記各実施形態とは異なる他のタイプのパチンコ機等、例えば特別装置の特定領域に遊技球が入ると電動役物が所定回数開放するパチンコ機や、特別装置の特定領域に遊技球が入ると権利が発生して大当たりとなるパチンコ機、他の役物を備えたパチンコ機、アレンジボール機、雀球等の遊技機にも、本発明を適用できる。 (8) Other types of pachinko machines different from the above-described embodiments, such as pachinko machines that release a predetermined number of times when a game ball enters a specific area of a special device, or game balls in a specific area of a special device The present invention can also be applied to a pachinko machine that generates a right if a player enters, a pachinko machine equipped with other objects, an arrangement ball machine, a sparrow ball, and other gaming machines.
また、弾球式でない遊技機、例えば、複数種の図柄が周方向に付された複数の周回体として複数のリールを備え、メダルの投入及びスタートレバーの操作によりリールの回転を開始し、ストップスイッチが操作されることでリールが停止した後に、表示窓から視認できる有効ライン上に特定図柄又は特定図柄の組み合わせが成立していた場合にはメダルの払い出し等といった特典を遊技者に付与するスロットマシンにも、本発明を適用できる。この場合、スロットマシンの各種制御に対して本発明を適用できるとともに、リールとは別に液晶表示装置といった表示装置を備えた構成においては当該表示制御装置における画像の表示に係る制御に対して本発明を適用できる。 Also, non-ballistic gaming machines, for example, equipped with a plurality of reels as a plurality of rotating bodies with a plurality of types of symbols attached in the circumferential direction, start rotation of the reels by inserting medals and operating the start lever, and stop Slot that gives a player a privilege such as paying out medals when a specific symbol or combination of specific symbols is established on an effective line visible from the display window after the reel is stopped by operating the switch The present invention can also be applied to a machine. In this case, the present invention can be applied to various types of control of the slot machine, and the present invention is applied to control related to image display in the display control device in a configuration including a display device such as a liquid crystal display device in addition to the reel. Can be applied.
また、取込装置を備え、貯留部に貯留されている所定数の遊技球が取込装置により取り込まれた後にスタートレバーが操作されることによりリールの回転を開始する、パチンコ機とスロットマシンとが融合された遊技機にも、本発明を適用できる。 In addition, a pachinko machine and a slot machine that have a take-in device and start rotation of a reel by operating a start lever after a predetermined number of game balls stored in the storage unit are taken in by the take-in device The present invention can also be applied to a gaming machine in which is integrated.
<上記実施形態から抽出される発明群について>
以下、上述した実施形態から抽出される発明群の特徴について、必要に応じて効果等を示しつつ説明する。なお以下においては、理解の容易のため、上記実施形態において対応する構成を括弧書き等で適宜示すが、この括弧書き等で示した具体的構成に限定されるものではない。
<Invention Group Extracted from the Embodiments>
Hereinafter, the features of the invention group extracted from the above-described embodiments will be described while showing effects and the like as necessary. In the following, for easy understanding, the corresponding configuration in the above embodiment is appropriately shown in parentheses and the like, but is not limited to the specific configuration shown in parentheses and the like.
<特徴A群>
特徴A1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記データ生成手段は、
複数の個別画像を含む画像群を前記表示部に表示させる場合に適用する前記パラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)と、
当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature A group>
Feature A1. Display means (symbol display device 31) having a display unit (display surface G);
When an image is displayed on the display unit using the generation data (drawing data) generated by the data generation unit (
With
In the gaming machine in which the data generation means generates the generation data based on using image data and applying parameter data that determines the display mode of the image based on the image data.
The data generation means includes
Deriving means for deriving the parameter data to be applied when an image group including a plurality of individual images is displayed on the display unit (function for executing the processing of step S2204, step S2208, and step S2212 in VDP135, or step S2305 in VDP135) Step S2310, Step S2317),
Based on using the specific image data in a state where the parameter data derived by the deriving means is applied to the specific image data (particle dispersion object PC17), the generated data for displaying the image group on the display unit Image group means (a function for executing the processing of step S2206, step S2210, and step S2214 in VDP135, or a function for executing the processing of step S2307, step S2313, and step S2319 in VDP135) that enables generation;
With
The derivation means includes first parameter data (for example, first key data KD1) applied when displaying the image group at the first update timing, and a second update timing after the first update timing. And using the second parameter data (for example, second key data KD2) applied when displaying the image group, the image group is displayed at an update timing between the first update timing and the second update timing. A gaming machine characterized by having specific deriving means for deriving specific parameter data to be applied when displaying (a function for executing the process of step S2208 in
特徴A1によれば、複数の個別画像を含む画像群が表示されることにより、表示内容の複雑化が可能となり、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。 According to the feature A1, by displaying an image group including a plurality of individual images, the display content can be complicated, and the player's interest in the image displayed on the display unit can be increased. Become.
この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。 In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived using the first parameter data and the second parameter data, the specific parameter data Is not required to be stored in advance, and the data capacity can be reduced. Furthermore, it is possible to ensure continuity with respect to each of the first parameter data and the second parameter data.
さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。 Furthermore, the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is the first parameter data and the second parameter as specific parameter data. It is derived collectively using data. As a result, parameter data to be referred to when deriving parameter data among a plurality of individual images included in the image group corresponds to the same update timing. Accordingly, the processing load for deriving the specific parameter data can be reduced.
特徴A2.前記画像群には、第1個別画像(例えば粒子単体画像PT1)と第2個別画像(例えば粒子単体画像PT2)とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータとを含む前記特定パラメータデータを導出するものであることを特徴とする特徴A1に記載の遊技機。
Feature A2. The image group includes a first individual image (for example, a particle single image PT1) and a second individual image (for example, a particle single image PT2),
The first parameter data includes parameter data applied when displaying the first individual image, and parameter data applied when displaying the second individual image,
The second parameter data includes parameter data applied when displaying the first individual image, and parameter data applied when displaying the second individual image,
The specific derivation means is applied when displaying the first individual image using the first parameter data and the second parameter data, and when displaying the second individual image. The gaming machine according to Feature A1, wherein the specific parameter data including the parameter data to be derived is derived.
特徴A2によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。 According to the feature A2, there is parameter data corresponding to each of the first individual image and the second individual image included in the image group in each of the first parameter data, the second parameter data, and the specific parameter data. Become. Thus, in the configuration in which the parameter data for displaying a plurality of individual images included in the image group is derived as specific parameter data at the update timing between the first update timing and the second update timing, When the display mode of the first individual image and the second individual image is changed as time passes, the changing mode can be made to correspond to each individual image.
特徴A3.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであることを特徴とする特徴A1又はA2に記載の遊技機。 Feature A3. The game according to Feature A1 or A2, wherein the specific derivation means derives the specific parameter data by blending the first parameter data and the second parameter data at a predetermined ratio. Machine.
特徴A3によれば、第1パラメータデータと第2パラメータデータとをそのまま利用しながら特定パラメータデータを導出することが可能となる。 According to the feature A3, specific parameter data can be derived while using the first parameter data and the second parameter data as they are.
特徴A4.前記画像群には、第1個別画像と第2個別画像とが含まれており、
前記第1パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記第2パラメータデータは、前記第1個別画像を表示させる場合に適用されるパラメータデータと、前記第2個別画像を表示させる場合に適用されるパラメータデータと、を含み、
前記特定導出手段は、
前記第1パラメータデータと前記第2パラメータデータとを用いて、前記第1個別画像を表示させる場合に適用される第1特定パラメータデータと、前記第2個別画像を表示させる場合に適用される第2特定パラメータデータとを含む前記特定パラメータデータを導出するものでり、
且つ、特定の更新タイミングにて前記特定パラメータデータを導出する場合において、前記第1特定パラメータデータを導出する場合における前記所定の比率と、前記第2特定パラメータデータを導出する場合における前記所定の比率とが同一であることを特徴とする特徴A3に記載の遊技機。
Feature A4. The image group includes a first individual image and a second individual image,
The first parameter data includes parameter data applied when displaying the first individual image, and parameter data applied when displaying the second individual image,
The second parameter data includes parameter data applied when displaying the first individual image, and parameter data applied when displaying the second individual image,
The specific derivation means includes
The first specific parameter data applied when displaying the first individual image using the first parameter data and the second parameter data, and the first specific parameter data applied when displaying the second individual image. Deriving the specific parameter data including two specific parameter data,
And when deriving the specific parameter data at a specific update timing, the predetermined ratio in deriving the first specific parameter data and the predetermined ratio in deriving the second specific parameter data And the gaming machine according to Feature A3, wherein:
特徴A4によれば、第1パラメータデータ、第2パラメータデータ及び特定パラメータデータのそれぞれには、画像群に含まれる第1個別画像及び第2個別画像のそれぞれに対応したパラメータデータが存在することとなる。これにより、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとしてまとめて導出される構成において、時間の経過に伴って第1個別画像及び第2個別画像の表示態様を変化させる場合に、その変化していく態様をそれぞれの個別画像に対応させたものとすることが可能となる。 According to the feature A4, each of the first parameter data, the second parameter data, and the specific parameter data includes parameter data corresponding to each of the first individual image and the second individual image included in the image group. Become. Thus, in the configuration in which the parameter data for displaying a plurality of individual images included in the image group is derived as specific parameter data at the update timing between the first update timing and the second update timing, When the display mode of the first individual image and the second individual image is changed as time passes, the changing mode can be made to correspond to each individual image.
また、このように各個別画像に対応した各パラメータデータを含むようにして特定パラメータデータを導出する構成において、第1個別画像に対応した第1特定パラメータデータを導出する場合に用いられる所定の比率と、第2個別画像に対応した第2特定パラメータデータを導出する場合に用いられる所定の比率とが同一となっている。これにより、所定の比率の情報を共通して使用することが可能となり、所定の比率がそれぞれ異なる構成に比べて処理負荷の軽減が図られる。 Further, in the configuration for deriving the specific parameter data so as to include each parameter data corresponding to each individual image in this way, a predetermined ratio used when deriving the first specific parameter data corresponding to the first individual image, The predetermined ratio used when deriving the second specific parameter data corresponding to the second individual image is the same. As a result, it becomes possible to use information of a predetermined ratio in common, and the processing load can be reduced as compared with configurations having different predetermined ratios.
特徴A5.前記第1更新タイミングと前記第2更新タイミングとの間には、前記画像群の表示態様が変更される更新タイミングが複数存在しており、
前記特定導出手段は、前記第1更新タイミングと前記第2更新タイミングとの間にて前記画像群の表示態様が変更される複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとを用いて前記特定パラメータデータを導出するものであることを特徴とする特徴A1乃至A4のいずれか1に記載の遊技機。
Feature A5. Between the first update timing and the second update timing, there are a plurality of update timings at which the display mode of the image group is changed,
The specific deriving means includes the first parameter data and the second parameter at each of a plurality of update timings in which a display mode of the image group is changed between the first update timing and the second update timing. The gaming machine according to any one of features A1 to A4, wherein the specific parameter data is derived using data.
特徴A5によれば、第1更新タイミングと第2更新タイミングとの間に含まれる複数の更新タイミングのそれぞれにおいて同一の特定パラメータデータを用いるのではなく、それぞれの更新タイミングにて個別に特定パラメータデータが導出される構成であるため、第1パラメータデータから第2パラメータデータへと除々に近付くようにパラメータデータを導出することが可能となる。これにより、画像群の表示態様を一連のものとして遊技者に視認させることが可能となる。 According to the feature A5, instead of using the same specific parameter data at each of a plurality of update timings included between the first update timing and the second update timing, the specific parameter data is individually obtained at each update timing. Therefore, the parameter data can be derived so as to gradually approach the first parameter data to the second parameter data. Thereby, it becomes possible to make a player visually recognize the display mode of an image group as a series.
また、複数の更新タイミングのそれぞれにおいて用いられるパラメータデータが第1パラメータデータと第2パラメータデータとを用いて導出される構成であるため、それらパラメータデータを予め記憶させておく構成に比べ、データ容量の削減が図られる。さらにまた、それら複数のパラメータデータは、いずれも第1パラメータデータと第2パラメータデータとを用いて導出されるため、それら複数のパラメータデータを導出する上で参照すべきパラメータデータの種類を変更する必要が生じない。よって、処理負荷の軽減が図られる。 Further, since the parameter data used at each of the plurality of update timings is derived using the first parameter data and the second parameter data, the data capacity is larger than the configuration in which the parameter data is stored in advance. Reduction. Furthermore, since the plurality of parameter data are all derived using the first parameter data and the second parameter data, the type of parameter data to be referred to in deriving the plurality of parameter data is changed. There is no need. Therefore, the processing load can be reduced.
特徴A6.前記特定導出手段は、前記第1パラメータデータと前記第2パラメータデータとを所定の比率でブレンドすることにより前記特定パラメータデータを導出するものであり、
前記データ生成手段は、前記複数の更新タイミングのそれぞれにおいて、前記第1パラメータデータと前記第2パラメータデータとをブレンドする場合における前記所定の比率を決定する比率決定手段(表示CPU131におけるステップS2109の処理を実行する機能、又はVDP135におけるステップS2309の処理を実行する機能)を備え、
当該比率決定手段は、前記複数の更新タイミングにおいて一の更新タイミングから次の更新タイミングとなった場合の前記所定の比率の変化量と、当該次の更新タイミングからさらに次の更新タイミングとなった場合の前記所定の比率の変化量とが同一となるように前記決定を行うものであることを特徴とする特徴A5に記載の遊技機。
Feature A6. The specific derivation means derives the specific parameter data by blending the first parameter data and the second parameter data at a predetermined ratio,
The data generating means is ratio determining means for determining the predetermined ratio in the case where the first parameter data and the second parameter data are blended at each of the plurality of update timings (the process of step S2109 in the display CPU 131). Or a function of executing the process of step S2309 in the VDP 135),
The ratio determining means is the amount of change in the predetermined ratio when the update timing is changed from one update timing to the next update timing in the plurality of update timings, and when the next update timing is further changed from the next update timing. The game machine according to A5, wherein the determination is performed so that the amount of change in the predetermined ratio is the same.
特徴A6によれば、第1更新タイミングと第2更新タイミングとの間の複数の更新タイミングのそれぞれでは、一定の変化量で所定の比率を変更していくだけでよいため、所定の比率を変化させる上での構成の簡素化が図られる。 According to the feature A6, at each of the plurality of update timings between the first update timing and the second update timing, it is only necessary to change the predetermined ratio with a constant change amount, and thus the predetermined ratio is changed. The above configuration can be simplified.
特徴A7.一の更新タイミングにおける画像を表示させるのに必要は画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を出力する描画指示手段(表示CPU131)を備え、
前記表示制御手段は、前記描画指示手段にて指示されている情報に従って画像の表示を行わせるものであり、
当該表示制御手段が、前記特定導出手段を有していることを特徴とする特徴A1乃至A6のいずれか1に記載の遊技機。
Feature A7. In order to display an image at one update timing, a drawing instruction unit (display CPU 131) that outputs drawing instruction information (drawing list) including at least information specifying image data and parameter data applied to the image data is provided. ,
The display control unit is configured to display an image according to information instructed by the drawing instruction unit.
The gaming machine according to any one of features A1 to A6, wherein the display control means includes the specific derivation means.
特徴A7によれば、描画指示手段側において特定パラメータデータを導出する必要がないため、当該描画指示手段の処理負荷の軽減が図られる。 According to the feature A7, since it is not necessary to derive specific parameter data on the drawing instruction unit side, the processing load of the drawing instruction unit can be reduced.
特徴A8.前記第1パラメータデータ、前記第2パラメータデータ及び前記特定パラメータデータは、前記画像群が表示される位置を決定するための座標情報を含んでいることを特徴とする特徴A1乃至A7のいずれか1に記載の遊技機。 Feature A8. Any one of the characteristics A1 to A7, wherein the first parameter data, the second parameter data, and the specific parameter data include coordinate information for determining a position where the image group is displayed. The gaming machine described in 1.
特徴A8によれば、既に説明したような優れた効果を奏しながら、画像群に含まれる各個別画像の位置が変化していく画像を表示することが可能となる。 According to the feature A8, it is possible to display an image in which the position of each individual image included in the image group changes while exhibiting the excellent effects as described above.
特徴A9.前記特定パラメータデータに対応した座標情報は、前記画像群に含まれる各個別画像の位置が、前記第1パラメータデータにより定まる位置と、前記第2パラメータデータにより定まる位置とを結ぶ仮想直線上となるようにする座標情報であることを特徴とする特徴A8に記載の遊技機。 Feature A9. The coordinate information corresponding to the specific parameter data is on a virtual straight line that connects the position of each individual image included in the image group to the position determined by the first parameter data and the position determined by the second parameter data. The gaming machine according to Feature A8, wherein the gaming machine is coordinate information.
特徴A9によれば、第1パラメータデータにより定まる位置から、第2パラメータデータにより定まる位置へと移動しているように画像群を表示させる場合において、それらの両位置を結ぶ直線上を移動するように特定パラメータデータを導出するだけでよいため、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出する上で、当該導出に際しての処理負荷の軽減が図られる。 According to the feature A9, when the image group is displayed so as to move from the position determined by the first parameter data to the position determined by the second parameter data, the image group is moved on a straight line connecting the two positions. Therefore, when the specific parameter data is derived using the first parameter data and the second parameter data, the processing load at the time of deriving can be reduced.
特徴A10.前記導出手段は、前記第1パラメータデータ及び前記第2パラメータデータを記憶手段(メモリモジュール133)から読み出すことで導出するものであることを特徴とする特徴A1乃至A9のいずれか1に記載の遊技機。 Feature A10. The game according to any one of features A1 to A9, wherein the deriving means derives the first parameter data and the second parameter data by reading them from a storage means (memory module 133). Machine.
特徴A10によれば、第1更新タイミングにおいては第1パラメータデータを読み出して用い、第2更新タイミングにおいては第2パラメータデータを読み出して用いるだけでよいため、それら更新タイミングにおける処理負荷の軽減が図られる。その一方、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいては、第1パラメータデータと第2パラメータデータとを用いて特定パラメータデータを導出すればよいため、それだけパラメータデータを記憶しておくためのデータ容量が削減できる。つまり、本構成によれば、データ容量及び処理負荷の両方のバランスを図りながら、画像群を用いた表示を行うことが可能となる。 According to the feature A10, it is only necessary to read and use the first parameter data at the first update timing and read and use the second parameter data at the second update timing, so that the processing load at the update timing can be reduced. It is done. On the other hand, at the update timing between the first update timing and the second update timing, it is only necessary to derive the specific parameter data using the first parameter data and the second parameter data. The data capacity for storage can be reduced. That is, according to this configuration, it is possible to perform display using an image group while balancing both the data capacity and the processing load.
特徴A11.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備え、
前記特定画像データは、オブジェクトの画像データに対応しており、前記画像群に含まれる前記複数の個別画像はそれぞれ、前記オブジェクトの画像データの各頂点データに対応していることを特徴とする特徴A1乃至A10のいずれか1に記載の遊技機。
Feature A11. The data generation means includes an arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function for executing the processing in steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (function to execute the processing of step S1006 in the VDP 135), and image data of the object is projected onto the projection plane set based on the viewpoint, and based on the data projected on the projection plane Drawing setting means for generating generated data (a function for executing the processing of steps S1010 to S1012 in the VDP 135),
The specific image data corresponds to image data of an object, and each of the plurality of individual images included in the image group corresponds to each vertex data of the image data of the object. The gaming machine according to any one of A1 to A10.
特徴A11によれば、3次元情報を利用したリアルな画像表示を可能とした構成において、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。 According to the feature A11, in a configuration that enables real image display using three-dimensional information, it is only necessary to arrange one object in a virtual three-dimensional space when displaying an image group, thereby reducing the processing load. However, it is possible to display an image group.
特徴A12.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定画像データの使用指示情報が含まれている場合、前記特定画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A11に記載の遊技機。
Feature A12. The arrangement means displays drawing instruction information (drawing list) including at least information specifying image data required to display an image at one update timing and parameter data applied to the image data (
The drawing instruction means includes, when displaying the image group, use instruction information of the specific image data in the drawing instruction information,
When the drawing instruction information includes use instruction information of the specific image data, the arrangement unit arranges the specific image data in the virtual three-dimensional space, thereby generating generated data for displaying the image group. The gaming machine according to Feature A11, wherein the gaming machine is capable of being generated.
特徴A12によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。 According to the feature A12, when the image group is displayed, the drawing instruction unit only needs to include the use instruction information for one object in the drawing instruction information, so that the processing load required for setting the drawing instruction information can be reduced. In addition, the data capacity of the drawing instruction information can be reduced.
特徴A13.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、複数の個別画像を含む画像群を前記表示部に表示させる場合に適用するパラメータデータを導出する導出手段(VDP135におけるステップS2204、ステップS2208及びステップS2212の処理を実行する機能、又はVDP135におけるステップS2305、ステップS2310、ステップS2317)を備え、
前記配置手段は、当該導出手段により導出された前記パラメータデータを、特定画像データ(粒子分散用オブジェクトPC17)に適用した状態で当該特定画像データを用いることに基づき、前記表示部に前記画像群を表示させる生成データの生成を可能とする画像群用手段(VDP135におけるステップS2206、ステップS2210及びステップS2214の処理を実行する機能、又はVDP135におけるステップS2307、ステップS2313及びステップS2319の処理を実行する機能)と、
を備え、
前記導出手段は、第1更新タイミングにて前記画像群を表示させる場合に適用する第1パラメータデータ(例えば第1キーデータKD1)と、当該第1更新タイミングよりも後である第2更新タイミングにて前記画像群を表示させる場合に適用する第2パラメータデータ(例えば第2キーデータKD2)とを用いて、それら第1更新タイミングと第2更新タイミングとの間の更新タイミングにて前記画像群を表示させる場合に適用する特定パラメータデータを導出する特定導出手段(VDP135におけるステップS2208の処理を実行する機能、又はVDP135におけるステップS2310の処理を実行する機能)を備えていることを特徴とする遊技機。
Feature A13. Arranging means for arranging image data of an object that is three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (Function for executing the processing of step S1006 in the VDP 135) and image data of the object is projected onto a projection plane set based on the viewpoint, and generated data (drawing data) based on the data projected onto the projection plane The drawing data generated by the data generation means (the
Display control means (
In gaming machines equipped with
The data generation means is a derivation means for deriving parameter data to be applied when an image group including a plurality of individual images is displayed on the display unit (a function for executing the processes of steps S2204, S2208, and S2212 in the
The arranging unit uses the specific image data in a state where the parameter data derived by the deriving unit is applied to the specific image data (particle dispersion object PC17), and the image unit is displayed on the display unit. Image group means capable of generating generation data to be displayed (function to execute the processing of step S2206, step S2210 and step S2214 in VDP135, or function to execute the processing of step S2307, step S2313 and step S2319 in VDP135) When,
With
The derivation means includes first parameter data (for example, first key data KD1) applied when displaying the image group at the first update timing, and a second update timing after the first update timing. And using the second parameter data (for example, second key data KD2) applied when displaying the image group, the image group is displayed at an update timing between the first update timing and the second update timing. A gaming machine characterized by having specific deriving means for deriving specific parameter data to be applied when displaying (a function for executing the process of step S2208 in
特徴A13によれば、3次元情報を利用したリアルな画像表示が可能となり、さらには複数の個別画像を含む画像群が表示されることにより表示内容の複雑化が可能となる。よって、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となる。 According to the feature A13, realistic image display using three-dimensional information is possible, and further, display contents can be complicated by displaying an image group including a plurality of individual images. Therefore, the player's interest in the image displayed on the display unit can be increased.
この場合に、第1パラメータデータと第2パラメータデータとを用いて、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおける特定パラメータデータが導出される構成であるため、当該特定パラメータデータを予め記憶させておく必要がない点でデータ容量の削減が図られ、さらには第1パラメータデータ及び第2パラメータデータのそれぞれに対する連続性を担保することが可能となる。 In this case, since the specific parameter data at the update timing between the first update timing and the second update timing is derived using the first parameter data and the second parameter data, the specific parameter data Is not required to be stored in advance, and the data capacity can be reduced. Furthermore, it is possible to ensure continuity with respect to each of the first parameter data and the second parameter data.
さらにまた、第1更新タイミングと第2更新タイミングとの間の更新タイミングにおいて画像群に含まれる複数の個別画像を表示させるためのパラメータデータが、特定パラメータデータとして、第1パラメータデータと第2パラメータデータとを用いてまとめて導出される。これにより、画像群に含まれる複数の個別画像間において、パラメータデータを導出する上で参照すべきパラメータデータは同一の更新タイミングに対応したものである。よって、特定パラメータデータを導出する上での処理負荷の軽減が図られる。 Furthermore, the parameter data for displaying a plurality of individual images included in the image group at the update timing between the first update timing and the second update timing is the first parameter data and the second parameter as specific parameter data. It is derived collectively using data. As a result, parameter data to be referred to when deriving parameter data among a plurality of individual images included in the image group corresponds to the same update timing. Accordingly, the processing load for deriving the specific parameter data can be reduced.
特徴A14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示制御手段は、特定の生成データを用いることにより、複数の個別画像を含む画像群を同時に表示させる構成であり、
前記画像群を表示させるために前記配置手段により前記仮想3次元空間に配置される画像データは、当該画像群に含まれる前記複数の個別画像のそれぞれが、各頂点データに対応付けられている特定オブジェクトの画像データ(粒子分散用オブジェクトPC17)であることを特徴とする遊技機。
Feature A14. Arranging means for arranging image data of an object that is three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (The function of executing the processing of step S1006 in the VDP 135) and the image data of the object is projected onto a projection plane set based on the viewpoint, and generation data is generated based on the data projected onto the projection plane. Generation data (drawing data) generated by data generation means (
Display control means (
In gaming machines equipped with
The display control means is configured to simultaneously display an image group including a plurality of individual images by using specific generation data.
The image data arranged in the virtual three-dimensional space by the arrangement means for displaying the image group is identified by each of the plurality of individual images included in the image group being associated with each vertex data. A game machine characterized by being image data of an object (object PC17 for particle dispersion).
特徴A14によれば、3次元情報を利用したリアルな画像表示が可能となる。この場合に、画像群の表示に際しては一のオブジェクトを仮想3次元空間に配置すればよいため、処理負荷の軽減を図りながら、画像群を表示させることが可能となる。 According to the feature A14, it is possible to display a realistic image using three-dimensional information. In this case, when displaying the image group, it is only necessary to arrange one object in the virtual three-dimensional space. Therefore, it is possible to display the image group while reducing the processing load.
特徴A15.前記配置手段は、一の更新タイミングにおける画像を表示させるのに必要な画像データを指定する情報及び当該画像データに適用するパラメータデータを少なくとも含む描画指示情報(描画リスト)を描画指示手段(表示CPU131)が出力したことに基づき、当該描画指示情報にて指示されている情報に従って前記画像データを前記仮想3次元空間に配置することにより、当該描画指示情報に対応した生成データの生成が可能となるようにするものであり、
前記描画指示手段は、前記画像群を表示させる場合、前記特定オブジェクトの画像データの使用指示情報を前記描画指示情報に含ませるものであり、
前記配置手段は、前記描画指示情報に前記特定オブジェクトの画像データの使用指示情報が含まれている場合、当該特定オブジェクトの画像データを前記仮想3次元空間に配置することにより、前記画像群を表示させる生成データの生成が可能となるようにするものであることを特徴とする特徴A14に記載の遊技機。
Feature A15. The arrangement means displays drawing instruction information (drawing list) including at least information specifying image data required to display an image at one update timing and parameter data applied to the image data (
The drawing instruction means, when displaying the image group, includes use instruction information of image data of the specific object in the drawing instruction information,
The arrangement means displays the image group by arranging the image data of the specific object in the virtual three-dimensional space when the drawing instruction information includes use instruction information of the image data of the specific object. The game machine according to Feature A14, wherein generation data to be generated can be generated.
特徴A15によれば、画像群を表示させる場合において描画指示手段は、一のオブジェクトについての使用指示情報を描画指示情報に含ませるだけでよいため、描画指示情報の設定に要する処理負荷の軽減が図られるとともに、描画指示情報のデータ容量の削減が図られる。 According to the feature A15, when the image group is displayed, the drawing instruction unit only needs to include the use instruction information for one object in the drawing instruction information. Therefore, the processing load required for setting the drawing instruction information can be reduced. In addition, the data capacity of the drawing instruction information can be reduced.
上記特徴A群の発明は、以下の課題に対して効果的である。 The invention of the above-described feature group A is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case where the image is displayed using the two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been. Further, by reading out the image data, generation data for displaying a character or the like in front of the background is generated in a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which characters and the like are arranged in front of the background is displayed on the display unit.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the polygon. Generated data is generated by projecting a texture-attached polygon onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the generated data.
ここで、個別画像の表示方向を複雑なものとしたり、複数の個別画像を同時に表示させることにより、表示部にて表示されている画像に対する遊技者の興味を高めることが可能となると考えられる。しかしながら、このような画像の表示を行う場合に、処理負荷が極端に増加してしまうことや、データ容量が極端に増加してしまうことは好ましくない。 Here, it is considered that the player's interest in the image displayed on the display unit can be increased by making the display direction of the individual images complicated or by simultaneously displaying a plurality of individual images. However, when such an image is displayed, it is not preferable that the processing load is extremely increased and the data capacity is extremely increased.
本発明は、上記例示した事情等に鑑みてなされたものであり、処理負荷を抑えながら、表示演出を良好に行うことが可能な遊技機を提供することを目的とするものである。 The present invention has been made in view of the above-described circumstances and the like, and an object thereof is to provide a gaming machine capable of performing a display effect satisfactorily while suppressing a processing load.
<特徴B群>
特徴B1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記配置手段による前記仮想3次元空間への配置対象となるオブジェクトの画像データには、複数の面を定めることが可能なデータを有し且つそれら複数の面データ(面データSD)によって3次元形状を定めることが可能な多面オブジェクトの画像データ(海面用オブジェクトPC19)が含まれており、
前記データ生成手段は、
複数の更新タイミングに亘って前記多面オブジェクトの画像データに対応した多面画像を表示させるべく前記仮想3次元空間に前記多面オブジェクトの画像データを配置する場合に、前記多面画像の表示態様が変更されるように前記複数の面データのうち少なくとも一部についての前記仮想3次元空間への配置態様を変更させる配置態様変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135における海面表示用の設定処理を実行する機能)と、
当該配置態様変更手段により前記配置態様が変更された前記面データに対して適用する色情報を、当該面データの配置態様に応じて当該面データ単位で変更させることにより、前記多面画像の少なくとも一部の領域の表示色が複数の更新タイミング間において異なることとなる画像表示を可能とする表示色変更手段(VDP135における海面表示用の色情報設定処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature B group>
Feature B1. Arranging means for arranging image data of an object that is three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (Function for executing the processing of step S1006 in the VDP 135) and image data of the object is projected onto a projection plane set based on the viewpoint, and generated data (drawing data) based on the data projected onto the projection plane The drawing data generated by the data generation means (the
A display control unit (of the VDP 135) displays an image corresponding to the generated data stored in the storage unit on the display unit (symbol display device 31) and updates the content of the image when a predetermined update timing is reached. Display circuit 155),
In gaming machines equipped with
The image data of the object to be arranged in the virtual three-dimensional space by the arrangement means has data capable of defining a plurality of surfaces, and a three-dimensional shape by the plurality of surface data (surface data SD). Image data of a multi-face object (sea surface object PC19) that can be defined,
The data generation means includes
When the image data of the multifaceted object is arranged in the virtual three-dimensional space to display the multifaceted image corresponding to the image data of the multifaceted object over a plurality of update timings, the display mode of the multifaceted image is changed. As described above, arrangement mode changing means for changing the arrangement mode in the virtual three-dimensional space for at least a part of the plurality of plane data (a function for executing arithmetic processing for sea level display in the
By changing color information applied to the surface data whose arrangement mode has been changed by the arrangement mode changing unit in units of the plane data according to the arrangement mode of the surface data, at least one of the multi-plane images. Display color changing means (a function for executing color information setting processing for sea level display in VDP 135) that enables image display in which the display color of the area of the image is different between a plurality of update timings;
A gaming machine characterized by comprising:
特徴B1によれば、複数の面データのうち少なくとも一部についての配置態様が変更されるとともに、当該配置態様が変更された面データに適用される色情報がその配置態様の変更に伴って変更される。これにより、表示演出を複雑化させることが可能となり、表示演出への遊技者の興味を高めることが可能となる。 According to the feature B1, the arrangement mode for at least a part of the plurality of plane data is changed, and the color information applied to the plane data whose arrangement mode is changed is changed along with the change of the arrangement mode. Is done. Thereby, it becomes possible to complicate the display effect and to increase the player's interest in the display effect.
また、上記色情報の変更は、面データの配置態様に応じて当該面データ単位で行われる。これにより、色情報が変更されるパターンに対応させて多数のテクスチャを事前に記憶させておかなくても、面データの配置態様に応じた色情報の設定を行うことが可能となる。よって、データ容量の増大化を抑制しながら、表示演出への遊技者の興味を高めることが可能となる。 Further, the color information is changed in units of the surface data according to the arrangement mode of the surface data. Accordingly, it is possible to set the color information according to the arrangement mode of the surface data without storing in advance a large number of textures corresponding to the pattern whose color information is changed. Therefore, it is possible to increase the player's interest in display effects while suppressing an increase in data capacity.
なお、「前記配置態様変更手段は、前記配置態様を変更させる場合、前記複数の面データのうち少なくとも一部について、向き、形状及びサイズのうち少なくとも一つを変更させる」という構成が上記構成に含まれる。 In addition, the configuration that “the arrangement mode changing unit changes at least one of the orientation, shape, and size of at least a part of the plurality of surface data when changing the arrangement mode” is the above configuration. included.
特徴B2.前記配置態様変更手段は、前記複数の面データのうち一部の面データの配置態様を変更させ、且つ他の面データの配置態様を当該一部の面データに対する配置態様の変更に対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1に記載の遊技機。 Feature B2. The arrangement mode changing means changes the arrangement mode of part of the surface data among the plurality of surface data, and causes the arrangement mode of other surface data to correspond to the change of the arrangement mode for the part of the surface data. The gaming machine according to Feature B1, further comprising (a function for executing a normal parameter setting process in the VDP 135).
特徴B2によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。 According to the feature B2, it is possible to individually control the arrangement mode of the surface data without losing the continuity between the surface data.
特徴B3.前記配置態様変更手段は、前記多面画像において対応する領域が相互に連続しない非連続の面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つ前記多面画像において対応する領域が前記非連続の面データに対応する領域と連続する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記非連続の面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えていることを特徴とする特徴B1又はB2に記載の遊技機。 Feature B3. The arrangement mode changing unit changes a predetermined parameter that is at least one of orientation, shape, and size with respect to discontinuous surface data (surface data SD1 to be applied) whose corresponding regions in the multi-surface image are not continuous with each other. And means for causing the predetermined parameter of surface data (buffer surface data SD2) corresponding to the region corresponding to the discontinuous surface data to correspond to the discontinuous surface data in the multi-surface image. The gaming machine according to feature B1 or B2, further comprising (a function for executing normal parameter setting processing in the VDP 135).
特徴B3によれば、各面データ間の連続性を失わせないようにしながら、面データの配置態様を個別に制御することが可能となる。特に、配置態様を積極的に変更させる対象を非連続の面データとし、当該非連続の面データに連続する面データについては、上記非連続の面データに対応させることにより、このような切り分けを行わずに配置態様の変更を行う構成に比べて、各面データ間の連続性を担保するための調整に要する処理負荷の軽減が図られる。 According to the feature B3, it is possible to individually control the arrangement mode of the plane data while not losing the continuity between the plane data. In particular, the object of actively changing the arrangement mode is discontinuous surface data, and for the surface data continuous to the discontinuous surface data, such separation is performed by corresponding to the discontinuous surface data. Compared to the configuration in which the arrangement mode is changed without performing the processing, the processing load required for adjustment for ensuring the continuity between the surface data can be reduced.
なお、上記特徴B3のより具体的な構成としては、
「前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記頂点データを相互に共有していない面データ(適用対象の面データSD1)について、向き、形状及びサイズのうち少なくとも一つである所定パラメータを変更させ、且つそれら変更対象となった面データと頂点データを共有する面データ(緩衝用の面データSD2)の前記所定パラメータを、前記変更対象となった面データに対応させる手段(VDP135における法線パラメータの設定処理を実行する機能)を備えている」
という構成が考えられる。
In addition, as a more specific configuration of the feature B3,
“Each surface data is defined by a plurality of vertex data, and the predetermined plurality of surface data share some vertex data with each other,
The arrangement mode changing unit changes a predetermined parameter that is at least one of orientation, shape, and size with respect to surface data (surface data SD1 to be applied) that does not share the vertex data with each other, and changes them. Means (normal parameter setting processing in VDP 135) for associating the predetermined parameter of the surface data (buffer surface data SD2) that shares the vertex data with the target surface data into the target surface data to be changed. Have the ability to execute)
The configuration can be considered.
特徴B4.前記各面データは、複数の頂点データによって定められるものであり、さらに所定の複数の面データは一部の頂点データを相互に共有しており、
前記配置態様変更手段は、前記各頂点データの座標を個別に変更させることにより、前記各面データの向き、形状及びサイズのうち少なくとも一つを変更させるものであることを特徴とする特徴B1又はB2に記載の遊技機。
Feature B4. Each of the surface data is determined by a plurality of vertex data, and the predetermined plurality of surface data share some vertex data with each other,
The arrangement mode changing unit changes at least one of the orientation, shape, and size of each surface data by individually changing the coordinates of each of the vertex data. A gaming machine according to B2.
特徴B4によれば、一の頂点データの座標を変更することで、複数の面データの向き、形状及びサイズのうち少なくとも一つを変更することが可能となる。このように面データ単位でパラメータを制御するのではなく、頂点データ単位でパラメータを制御することで、面データ間の連続性を担保させるための処理構成をあえて設定しなくても、面データの配置態様を個別に制御することが可能となる。 According to the feature B4, it is possible to change at least one of the direction, shape, and size of the plurality of surface data by changing the coordinates of one vertex data. Instead of controlling parameters in units of plane data in this way, by controlling parameters in units of vertex data, it is not necessary to set a processing configuration for ensuring continuity between plane data. The arrangement mode can be individually controlled.
特徴B5.前記配置態様変更手段は、
前記複数の面データの各配置態様を個別に変更させることを可能とする個別制御データ(第1法線マップデータND1、第2法線マップデータND2)を記憶手段(メモリモジュール133)から読み出すデータ読出手段(VDP135におけるステップS2503を実行する機能)と、
前記個別制御データを前記多面オブジェクトの画像データに適用する場合の態様を前記複数の更新タイミング間において異ならせる適用変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B4のいずれか1に記載の遊技機。
Feature B5. The arrangement mode changing means includes:
Data for reading out individual control data (first normal map data ND1, second normal map data ND2) from the storage means (memory module 133) that enables each arrangement mode of the plurality of surface data to be individually changed. Reading means (function of executing step S2503 in the VDP 135);
Application changing means for changing the mode in which the individual control data is applied to the image data of the multi-faceted object between the plurality of update timings (a function for executing the processing of steps S2506, S2507, S2511 and S2512 in the VDP 135) )When,
A gaming machine according to any one of features B1 to B4, characterized by comprising:
特徴B5によれば、予め記憶された個別制御データを利用して面データの配置態様を変更させる構成において、その個別制御データを利用しながら、複数の更新タイミング間において多面画像の表示態様を変更させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。 According to the feature B5, in the configuration in which the arrangement mode of the plane data is changed using the individual control data stored in advance, the display mode of the multi-plane image is changed between a plurality of update timings while using the individual control data. It becomes possible to make it. Therefore, it is possible to achieve the excellent effects as described above while balancing both the data capacity and the processing load.
特徴B6.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5に記載の遊技機。
Feature B6. The individual control data has a plurality of unit control data (unit normal data UND), and the unit control data is applied to the surface data or data defining the surface data,
The application changing unit is a correspondence changing unit (in the
特徴B6によれば、単位制御データを適用する対象のデータと当該単位制御データとの対応関係を切り換えることによって複数の更新タイミング間において多面画像の表示態様を変更させる構成であるため、個別制御データを利用しながら多面画像の表示態様を変更させる構成において処理負荷を軽減することが可能となる。 According to the feature B6, since the display mode of the multi-plane image is changed between a plurality of update timings by switching the correspondence between the target data to which the unit control data is applied and the unit control data, the individual control data It is possible to reduce the processing load in the configuration in which the display mode of the multi-plane image is changed while using.
特徴B7.前記適用変更手段は、前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して複数の前記単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴B5又はB6に記載の遊技機。 Feature B7. The application changing unit is a plurality of applying units (steps S2506 and S2507 in the VDP 135) that reflect the contents of the plurality of unit control data to one data to which the unit control data is applied in the image data of the multi-plane object. The gaming machine according to feature B5 or B6, further including a function of executing the processing of step S2511 and step S2512).
特徴B7によれば、単位制御データを参照しながら配置態様を変更させる構成において、その変更させる配置態様の多様化が図られる。 According to the feature B7, in the configuration in which the arrangement mode is changed with reference to the unit control data, the arrangement mode to be changed can be diversified.
特徴B8.前記個別制御データは、複数の単位制御データ(単位法線データUND)を有しており、それら単位制御データが前記面データ又は前記面データを定めるデータに適用され、
前記データ読出手段は、複数の前記個別制御データを前記記憶手段から読み出すものであり、
前記適用変更手段は、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象の一のデータに対して、前記複数の個別制御データのそれぞれの単位制御データの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記多面オブジェクトの画像データにおいて前記単位制御データを適用する対象のデータと当該単位制御データとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の個別制御データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴B5又はB6に記載の遊技機。
Feature B8. The individual control data has a plurality of unit control data (unit normal data UND), and the unit control data is applied to the surface data or data defining the surface data,
The data reading means reads a plurality of the individual control data from the storage means,
The application changing means is
Multiple application means for reflecting the contents of each unit control data of the plurality of individual control data to one data to which the unit control data is applied in the image data of the multifaceted object (steps S2507 and steps in the VDP 135) The function of executing the processing of S2512),
The correspondence between the data to which the unit control data is applied and the unit control data in the image data of the multifaceted object is changed according to the switching of the update timing, and the change of the correspondence is changed to the plurality of individual control data Correspondence changing means (function for executing the processing of step S2506 and step S2511 in VDP135) to be performed for each of
A gaming machine according to Feature B5 or B6, characterized by comprising:
特徴B8によれば、遊技機設計段階における個別制御データの設計の容易化を図りながら、配置態様を複雑に変化させることが可能となる。 According to the feature B8, it is possible to change the arrangement mode in a complex manner while facilitating the design of the individual control data in the gaming machine design stage.
特徴B9.前記配置態様変更手段は、
複数の前記面データを含む一群のデータについてまとめて配置態様を変更させる第1変更手段(表示CPU131における海面表示用の演算処理を実行する機能、VDP135におけるステップS2504及びステップS2509を実行する機能)と、
当該第1変更手段により配置態様が変更された前記一群のデータに含まれる各面データの配置態様を個別に変更させる第2変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B8のいずれか1に記載の遊技機。
Feature B9. The arrangement mode changing means includes:
First changing means for collectively changing the arrangement mode for a group of data including the plurality of surface data (a function for executing arithmetic processing for sea level display in the
Second changing means for individually changing the arrangement mode of each surface data included in the group of data whose arrangement mode has been changed by the first changing unit (the processing of steps S2506, S2507, S2511 and S2512 in the VDP 135) Function to execute)
A gaming machine according to any one of features B1 to B8, characterized by comprising:
特徴B9によれば、大きな流れに沿って配置態様を変更するようにしながら、面データ単位での配置態様を複雑に変化させることが可能となる。 According to the feature B9, it is possible to change the arrangement mode in units of plane data in a complicated manner while changing the arrangement mode along a large flow.
なお、このような作用効果を生じさせるより具体的な構成としては、「前記第1変更手段により変更される配置態様の種類は、位置、向き及びサイズの少なくとも一つであり、前記第2変更手段により変更される配置態様の種類には、前記第1変更手段により変更される配置対象の種類の少なくとも一部が含まれている」構成が考えられる。 In addition, as a more specific configuration for producing such an effect, “the type of the arrangement mode changed by the first changing means is at least one of position, orientation, and size, and the second change The arrangement mode changed by the means includes at least a part of the arrangement target type changed by the first changing means ”.
また、「前記多面オブジェクトの画像データには、前記一群のデータが複数含まれており、前記第1変更手段は、それら複数の一群のデータの配置態様を個別に変更させるものである」構成が考えられる。 In addition, the image data of the multifaceted object includes a plurality of the group of data, and the first changing unit individually changes an arrangement mode of the plurality of groups of data. Conceivable.
特徴B10.前記表示色変更手段は、
前記配置態様変更手段による変更対象となった配置態様に応じて、前記面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702〜ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記配置態様とは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B1乃至B9のいずれか1に記載の遊技機。
Feature B10. The display color changing means is
Classification specifying means for specifying whether or not color information to be applied to the surface data is included in a predetermined classification according to the arrangement mode to be changed by the arrangement mode changing unit (steps S2702 to S2702 in the VDP 135) The function of executing S2705),
Color information for selecting color information to be applied to the surface data identified as being included in the predetermined classification by the classification specifying means from among a plurality of levels of color information based on parameters of a different type from the arrangement mode Selection means (function of executing steps S2706 and S2707 in the VDP 135);
The gaming machine according to any one of features B1 to B9, comprising:
特徴B10によれば、配置態様に応じて色情報を変化させながら、さらに配置態様とは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、リアルな画像表示を実現することが可能となる。 According to the feature B10, the color information is determined based on parameters different from the arrangement mode while the color information is changed according to the arrangement mode, so that the color information can be set in a complicated manner. This makes it possible to realize a realistic image display.
特徴B11.前記配置態様変更手段は、前記面データの向きを少なくとも変更させるものであり、
前記表示色変更手段は、前記視点に対する前記面データの角度に基づき、当該面データに適用する色情報を変更させるものであることを特徴とする特徴B1乃至B10のいずれか1に記載の遊技機。
Feature B11. The arrangement mode changing means changes at least the direction of the surface data,
The gaming machine according to any one of features B1 to B10, wherein the display color changing unit changes color information applied to the surface data based on an angle of the surface data with respect to the viewpoint. .
特徴B11によれば、面の向きに応じた色情報の設定を行うことが可能となり、多面画像の表示をリアルに行うことが可能となる。 According to the feature B11, it is possible to set color information according to the orientation of the surface, and it is possible to display a multi-surface image realistically.
特徴B12.前記表示色変更手段は、
前記配置態様変更手段により変更された前記面データの向きに応じて、当該面データに対して適用する色情報が所定の区分に含まれるか否かを特定する区分特定手段(VDP135におけるステップS2702〜ステップS2705を実行する機能)と、
当該区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記向きとは異なる種類のパラメータに基づき、複数段階の色情報の中から選択する色情報選択手段(VDP135におけるステップS2706及びステップS2707を実行する機能)と、
を備えていることを特徴とする特徴B11に記載の遊技機。
Feature B12. The display color changing means is
According to the orientation of the surface data changed by the arrangement mode changing means, classification specifying means for specifying whether or not the color information to be applied to the surface data is included in a predetermined classification (step S2702 in the VDP 135) The function of executing step S2705),
Color information selection for selecting color information to be applied to the surface data identified as being included in the predetermined classification by the classification specifying means from among a plurality of stages of color information based on parameters of a type different from the orientation Means (function of executing steps S2706 and S2707 in the VDP 135);
A gaming machine according to Feature B11, comprising:
特徴B12によれば、面の向きに応じて色情報を変化させながら、さらに面の向きとは異なるパラメータに基づき色情報が決定されるため、色情報を複雑に設定することが可能となる。これにより、多面画像の表示をリアルに行うことが可能となる。 According to the feature B12, the color information is determined based on parameters different from the direction of the surface while changing the color information according to the direction of the surface, so that the color information can be set in a complicated manner. Thereby, it becomes possible to display a multi-plane image realistically.
特徴B13.前記色情報選択手段は、前記区分特定手段により前記所定の区分に含まれると特定された前記面データに適用する色情報を、前記視点からの所定方向の距離に基づき、複数段階の色情報の中から選択するものであることを特徴とする特徴B12に記載の遊技機。 Feature B13. The color information selection unit is configured to apply color information to be applied to the surface data identified as being included in the predetermined category by the category identification unit based on a distance in a predetermined direction from the viewpoint. The gaming machine according to Feature B12, wherein the gaming machine is selected from the inside.
特徴B13によれば、面の向きだけでなく面の位置に応じて色情報が変化するため、多面画像の表示をリアルに行うことが可能となる。 According to the feature B13, since the color information changes according to the position of the surface as well as the direction of the surface, it is possible to display a multi-surface image realistically.
上記特徴B群の発明は、以下の課題に対して効果的である。 The invention of the above-mentioned feature B group is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, an object that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the object. Generation data is generated by projecting the object to which the texture is pasted onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the generated data.
ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, it is not preferable that the data capacity is extremely increased in order to further improve the display effect.
<特徴C群>
特徴C1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
<Feature C group>
Feature C1. Display means (symbol display device 31) having a display unit (display surface G);
When an image is displayed on the display unit using the generation data (drawing data) generated by the data generation unit (
In gaming machines equipped with
The display mode of the image in the display unit includes a mode in which a plurality of individual images are displayed so as to be recognized by the player as being displayed in a positional relationship shifted in the depth direction of the display unit. ,
The data generation means includes an individual image displayed to be recognized by the player as being present on the near side in the depth direction with respect to the predetermined reference position in the depth direction, and the back side in the depth direction. The target individual image that is at least one of the individual images displayed so as to be recognized by the player as being present in the image is contoured compared to the image recognized by the player as being present at the reference position A gaming machine comprising blur setting means (a function for executing an adjustment process for focus effect in the VDP 135) that causes a line to be displayed in a blurred state when the line becomes unclear.
特徴C1によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。 According to the feature C1, it is possible to perform a display effect as if the reference position is in focus, and it is possible to perform a display effect with a sense of depth.
特徴C2.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記生成データは、色情報が設定された単位データを多数有しており、
前記ぼかし設定手段は、
前記設定用記憶手段に設定された前記画像データに対応したデータであって前記各単位データを生じさせる各データのそれぞれについて前記奥行きパラメータを導出するパラメータ導出手段(VDP135におけるステップS3101〜ステップS3107を実行する機能)と、
前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していないデータに対してぼかし発生処理を実行することにより、当該データに対応した画像部分がぼかした状態で表示されるようにするぼかし実行手段(VDP135におけるステップS3110〜ステップS3115を実行する機能)と、
を備えていることを特徴とする特徴C1に記載の遊技機。
Feature C2. The data generation means generates the generation data based on setting image data, and further sets the image data in a state where a depth parameter corresponding to the display position in the depth direction is applied. Based on the display mode, the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction.
The generated data has many unit data in which color information is set,
The blur setting means includes
Parameter deriving means for deriving the depth parameter for each of the data corresponding to the image data set in the setting storage means and generating the unit data (perform steps S3101 to S3107 in the VDP 135) Function)
Performing blurring so that an image portion corresponding to the data is displayed in a blurred state by performing blurring generation processing on data whose depth parameter does not correspond to the reference parameter corresponding to the reference position Means (function of executing steps S3110 to S3115 in the VDP 135);
The gaming machine according to Feature C1, further comprising:
特徴C2によれば、ぼかした状態とするための画像データを予め記憶させておく必要がないため、データ容量の削減を図りながら、ぼかした状態での表示を行うことが可能となる。また、各単位データを生じさせる各データのそれぞれについて奥行きパラメータが導出される構成であるため、ぼかした状態の表示を細かく制御することが可能となる。 According to the feature C2, since it is not necessary to store image data for a blurred state in advance, it is possible to display in a blurred state while reducing the data capacity. In addition, since the depth parameter is derived for each piece of data that generates each unit data, it is possible to finely control the display in a blurred state.
特徴C3.前記表示手段における表示演出として、前記ぼかした状態での表示が複数の更新タイミングに亘って行われるぼかし表示演出が含まれており、
前記パラメータ導出手段は、前記奥行きパラメータの導出を、1回の前記ぼかし表示演出の一の更新タイミングと他の更新タイミングとのそれぞれにおいて行うものであることを特徴とする特徴C2に記載の遊技機。
Feature C3. The display effect in the display means includes a blur display effect in which the display in the blurred state is performed over a plurality of update timings,
The gaming machine according to Feature C2, wherein the parameter derivation means derives the depth parameter at one update timing and another update timing of the one blur display effect. .
特徴C3によれば、表示演出の進行に応じて、ぼかした状態の表示を変化させることが可能となる。 According to the feature C3, it is possible to change the blurred display according to the progress of the display effect.
特徴C4.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記パラメータ導出手段は、前記投影後の2次元情報のデータに含まれる各単位データのそれぞれについて前記奥行きパラメータを導出するものであり、
前記ぼかし実行手段は、前記投影後の2次元情報のデータに対して、前記奥行きパラメータを利用して前記ぼかし発生処理を実行するものであることを特徴とする特徴C2又はC3に記載の遊技機。
Feature C4. The data generation means includes an arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function for executing the processing in steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (function for executing the processing of step S1006 in the VDP 135), and two-dimensional information projected on the projection plane by projecting the image data of the object onto the projection plane set based on the viewpoint Drawing setting means (a function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data that is two-dimensional information based on the data of
The parameter deriving means derives the depth parameter for each unit data included in the data of the two-dimensional information after the projection,
The game machine according to Feature C2 or C3, wherein the blurring execution unit is configured to execute the blur generation process on the data of the two-dimensional information after the projection by using the depth parameter. .
特徴C4によれば、奥行きパラメータの導出やぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、これら処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature C4, the depth parameter derivation and the blur generation process are not performed on the three-dimensional information data, but on the two-dimensional information data. Therefore, the processing load is reduced. However, the above excellent effects can be achieved.
特徴C5.前記ぼかし実行手段は、前記ぼかし発生処理として、前記投影後の2次元情報のデータに含まれる単位データの色情報をその周囲の単位データの色情報とブレンディングさせる処理(VDP135におけるステップS3206、ステップS3212及びステップS3217を実行する機能)を実行するものであることを特徴とする特徴C4に記載の遊技機。 Feature C5. As the blur generation process, the blur executing unit blends the color information of the unit data included in the data of the two-dimensional information after the projection with the color information of the surrounding unit data (steps S3206 and S3212 in the VDP 135). And the function of executing step S3217). The gaming machine according to Feature C4,
特徴C5によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。この場合に、そのブレンディングさせる処理は、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C5, since the blending process is executed when blurring occurs, it is possible to display a blurred state according to the type of image displayed in the blurred display effect. Thus, it is possible to suitably display the blurred state. In this case, the blending process is not performed on the data of the three-dimensional information but on the data of the two-dimensional information, so that the display of the blurred state is performed while reducing the processing load. Can be suitably performed.
特徴C6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記ぼかし設定手段は、前記投影後の2次元情報のデータに対してぼかし発生処理を実行することにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C5のいずれか1に記載の遊技機。
Feature C6. The data generation means includes an arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function for executing the processing in steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (function for executing the processing of step S1006 in the VDP 135), and two-dimensional information projected on the projection plane by projecting the image data of the object onto the projection plane set based on the viewpoint Drawing setting means (a function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data that is two-dimensional information based on the data of
The blur setting means performs blur generation processing on the data of the two-dimensional information after projection so that the target individual image is displayed in a blurred state. The gaming machine according to any one of features C1 to C5.
特徴C6によれば、ぼかし発生処理を、3次元情報のデータに対して行うのではなく、2次元情報のデータに対して行う構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature C6, the blur generation process is not performed on the data of the three-dimensional information, but on the data of the two-dimensional information. An excellent effect can be achieved.
特徴C7.前記ぼかし設定手段は、前記ぼかした状態での表示を行う場合、特別画像(教示用の個別画像CH15,CH16)については、前記基準位置に対して前記奥行き方向にずれた位置に存在していると遊技者に認識されるように表示されるとしても、前記ぼかした状態での表示対象から除外するものであることを特徴とする特徴C1乃至C6のいずれか1に記載の遊技機。 Feature C7. When the blur setting means performs display in the blurred state, the special image (teaching individual images CH15 and CH16) is present at a position shifted in the depth direction with respect to the reference position. The gaming machine according to any one of features C1 to C6, wherein the gaming machine is excluded from the display target in the blurred state even if it is displayed so as to be recognized by the player.
特徴C7によれば、ぼかした状態での表示を行う場合、基準位置に対してずれた位置に存在しているように表示されている個別画像に対して一律にぼかした状態での表示を適用しようとすると、遊技者に認識させるべき情報を認識させづらくしてしまう可能性が生じる。これに対して、特別画像については、基準位置に存在しているように表示されているか否かに関係なく、ぼかした状態での表示対象から除外する構成としたことにより、上記のような不都合の発生を抑制しながら、ぼかした状態での表示を実現することが可能となる。 According to the feature C7, when the display in the blurred state is performed, the display in the uniformly blurred state is applied to the individual image displayed so as to exist at a position shifted from the reference position. Attempting to do so may make it difficult for the player to recognize information that should be recognized. On the other hand, the special image is excluded from the display target in the blurred state regardless of whether or not the special image is displayed at the reference position. It is possible to realize a display in a blurred state while suppressing the occurrence of.
なお、前記特別画像には、遊技者に遊技状況を教示するために用いられる教示用画像が含まれる。 The special image includes a teaching image that is used to teach the player the gaming situation.
特徴C8.前記特別画像は、前記基準位置に対して前記奥行き方向の手前側に存在していると遊技者に認識されるように表示される画像であることを特徴とする特徴C7に記載の遊技機。 Feature C8. The gaming machine according to Feature C7, wherein the special image is an image displayed so as to be recognized by a player as being present on the near side in the depth direction with respect to the reference position.
特徴C8によれば、特別画像がぼかした状態の表示対象から除外される構成において、それが意図的に除外されていると遊技者に認識させ易くなる。よって、ぼかした状態の表示演出に違和感を与えることなく、特別画像をぼかした状態の表示対象から除外することが可能となる。 According to the feature C8, in the configuration in which the special image is excluded from the display target in the blurred state, the player can easily recognize that the special image is intentionally excluded. Therefore, it is possible to exclude the special image from the display object in the blurred state without giving a sense of incongruity to the display effect in the blurred state.
特徴C9.遊技者による操作を受け付ける操作受付手段(演出用操作装置48)を備え、
前記ぼかし設定手段は、前記操作受付手段に対する遊技者の操作に基づき、前記基準位置を変更させるものであることを特徴とする特徴C1乃至C8のいずれか1に記載の遊技機。
Feature C9. Operation receiving means (production operation device 48) for receiving an operation by a player is provided,
The gaming machine according to any one of features C1 to C8, wherein the blur setting unit changes the reference position based on a player's operation on the operation receiving unit.
特徴C9によれば、ぼかした状態の表示演出の画一化が抑えられ、当該表示演出への注目度を高めることが可能となる。 According to the feature C9, uniform display effects in a blurred state can be suppressed, and the degree of attention to the display effects can be increased.
特徴C10.前記ぼかし設定手段は、予め定められた第1表示期間(遊技回)では前記ぼかした状態の表示を行わず、前記ぼかした状態の表示に要する処理を除いた処理の処理負荷が前記第1表示期間よりも低い第2表示期間(ラウンド遊技)にて前記ぼかした状態の表示を行うものであることを特徴とする特徴C1乃至C9のいずれか1に記載の遊技機。 Feature C10. The blur setting means does not display the blurred state during a predetermined first display period (game times), and the processing load of processing excluding the processing required for the display of the blurred state is the first display period. The gaming machine according to any one of features C1 to C9, wherein the blurred display is performed in a second display period (round game) lower than the period.
特徴C10によれば、ぼかした状態の表示を行う場合における更新タイミングの処理負荷が極端に増加してしまうことが抑制される。 According to the feature C10, it is possible to suppress the processing load at the update timing from being extremely increased when the display in the blurred state is performed.
特徴C11.前記データ生成手段は、画像データを設定することに基づき前記生成データを生成するものであり、
前記ぼかし設定手段は、前記画像データによって決定付けられる少なくとも一部の色情報をその周囲の色情報とブレンディングさせることにより、前記対象個別画像がぼかした状態で表示されるようにするものであることを特徴とする特徴C1乃至C10のいずれか1に記載の遊技機。
Feature C11. The data generation means generates the generation data based on setting image data,
The blur setting means blends at least a part of color information determined by the image data with surrounding color information so that the target individual image is displayed in a blurred state. The gaming machine according to any one of features C1 to C10, wherein:
特徴C11によれば、ぼかしの発生に際してブレンディングさせる処理が実行される構成であるため、ぼかした状態の表示演出に際して表示される画像の種類に応じた、ぼかした状態の表示を行うことが可能となり、当該ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C11, since the blending process is executed when the blur occurs, it is possible to display the blurred state according to the type of the image displayed in the blurred display effect. Thus, it is possible to suitably display the blurred state.
特徴C12.前記データ生成手段は、画像データを設定することに基づき、前記生成データを生成するものであり、さらに前記奥行き方向の表示位置に対応した奥行きパラメータを適用した状態で前記画像データを設定することに基づき、前記複数の個別画像が前記奥行き方向にずれた位置関係で表示されていると遊技者に認識される表示態様とする構成であり、
前記ぼかし設定手段は、前記奥行きパラメータが前記基準位置に対応した基準パラメータに対応していない画像データに対してぼかし発生処理を実行することにより、当該画像データに対応した前記対象個別画像がぼかした状態で表示されるようにするものであり、
前記基準パラメータは、前記基準位置が前記奥行き方向の所定範囲に対応するように所定のパラメータ範囲を有していることを特徴とする特徴C1乃至C11のいずれか1に記載の遊技機。
Feature C12. The data generation means generates the generation data based on setting image data, and further sets the image data in a state where a depth parameter corresponding to the display position in the depth direction is applied. Based on the display mode, the player recognizes that the plurality of individual images are displayed in a positional relationship shifted in the depth direction.
The blur setting unit blurs the target individual image corresponding to the image data by executing blur generation processing on image data whose depth parameter does not correspond to the reference parameter corresponding to the reference position. To be displayed in the state,
The gaming machine according to any one of features C1 to C11, wherein the reference parameter has a predetermined parameter range such that the reference position corresponds to the predetermined range in the depth direction.
特徴C12によれば、被写界深度をある程度広げた状態で、ぼかした状態の表示を行うことが可能となる。よって、ぼかした状態の表示を好適に行うことが可能となる。 According to the feature C12, it is possible to display a blurred state with the depth of field extended to some extent. Therefore, it is possible to suitably display a blurred state.
特徴C13.前記ぼかし設定手段は、前記基準位置から前記奥行き方向に所定距離だけ離れた位置に存在していると遊技者に認識される画像よりも、当該所定距離よりも前記奥行き方向に遠い位置に存在していると遊技者に認識される画像の方が前記ぼかした状態で表示される度合いが大きくなるようにするものであることを特徴とする特徴C1乃至C12のいずれか1に記載の遊技機。 Feature C13. The blur setting means exists at a position farther in the depth direction than the predetermined distance than an image recognized by the player as being at a position away from the reference position by a predetermined distance in the depth direction. The game machine according to any one of features C1 to C12, wherein an image recognized by the player when displayed is greater in degree of display in the blurred state.
特徴C13によれば、ぼかした状態の表示をよりリアルに行うことが可能となる。 According to the feature C13, it is possible to display the blurred state more realistically.
特徴C14.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記表示部における画像の表示態様には、複数の個別画像が前記表示部の奥行き方向にずれた位置関係で表示されていると遊技者に認識されるように表示される態様が含まれており、
前記データ生成手段は、前記奥行き方向の所定の基準位置に対して当該奥行き方向の手前側に存在していると遊技者に認識されるように表示されている個別画像及び当該奥行き方向の奥側に存在していると遊技者に認識されるように表示されている個別画像の少なくとも一方である対象個別画像が、前記基準位置に存在していると遊技者に認識される画像に比べて輪郭線が不鮮明となることで、ぼかした状態で表示されるようにするぼかし設定手段(VDP135におけるピント演出用の調整処理を実行する機能)を備えていることを特徴とする遊技機。
Feature C14. Arranging means for arranging image data of an object that is three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (Function for executing the processing of step S1006 in the VDP 135) and image data of the object is projected onto a projection plane set based on the viewpoint, and generated data (drawing data) based on the data projected onto the projection plane The drawing data generated by the data generation means (the
Display control means (
In gaming machines equipped with
The display mode of the image in the display unit includes a mode in which a plurality of individual images are displayed so as to be recognized by the player as being displayed in a positional relationship shifted in the depth direction of the display unit. ,
The data generation means includes an individual image displayed to be recognized by the player as being present on the near side in the depth direction with respect to the predetermined reference position in the depth direction, and the back side in the depth direction. The target individual image that is at least one of the individual images displayed so as to be recognized by the player as being present in the image is contoured compared to the image recognized by the player as being present at the reference position A gaming machine comprising blur setting means (a function for executing an adjustment process for focus effect in the VDP 135) that causes a line to be displayed in a blurred state when the line becomes unclear.
特徴C14によれば、基準位置にピントが合っているかのような表示演出を行うことが可能となり、奥行き感のある表示演出を行うことが可能となる。 According to the feature C14, it is possible to perform a display effect as if the reference position is in focus, and it is possible to perform a display effect with a sense of depth.
上記特徴C群の発明は、以下の課題に対して効果的である。 The invention of the above-mentioned feature C group is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case where the image is displayed using the two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been. Further, by reading out the image data, generation data for displaying a character or the like in front of the background is generated in a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which characters and the like are arranged in front of the background is displayed on the display unit.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, an object that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the object. Drawing data is created by projecting the object to which the texture is pasted onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the drawing data.
ここで、表示演出への遊技者の注目度を高めるためには、よりリアルな画像表示を行うことが好ましく、この点について未だ改良の余地がある。 Here, in order to increase the player's attention to the display effect, it is preferable to perform more realistic image display, and there is still room for improvement in this regard.
<特徴D群>
特徴D1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備え、
前記データ生成手段は、画像データを用いるとともに当該画像データによる画像の表示態様を決定付けるパラメータデータを適用することに基づき前記生成データを生成するものである遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101〜ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
<Feature D group>
Feature D1. Display means (symbol display device 31) having a display unit (display surface G);
When an image is displayed on the display unit using the generation data (drawing data) generated by the data generation unit (
With
In the gaming machine in which the data generation means generates the generation data based on using image data and applying parameter data that determines the display mode of the image based on the image data.
The generated data has many unit data in which color information is set,
The data generating means is a set data deriving means (step in the VDP 135) for deriving set data (normal map data ND1, ND2, blur map data) to be used for each generating unit data for generating each unit data. A function of executing S2503, a function of executing steps S3101 to S3107 in the VDP 135), and applying each unit parameter data included in the aggregate data derived by the aggregate data deriving means to each of the generating unit data To generate the generated data, and to generate the generated data in which the same kind of individual images are displayed in different modes by changing at least one of the method of applying the set data and the content of the set data to be applied A gaming machine that is characterized by
特徴D1によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。 According to the feature D1, each unit parameter data group is handled as aggregate data, so that the processing for data handling can be simplified. In addition, since it is a configuration in which generation data is generated in which the same type of individual images are displayed in different modes by changing at least one of the method of applying the set data and the content of the set data to be applied. It is possible to diversify display effects while suppressing the amount of image data stored in advance.
特徴D2.前記集合データ導出手段は、記憶手段(メモリモジュール133)から前記集合データ(第1法線マップデータND1、第2法線マップデータND2)を読み出すことで当該集合データを導出するものであることを特徴とする特徴D1に記載の遊技機。 Feature D2. The set data deriving means derives the set data by reading the set data (first normal map data ND1, second normal map data ND2) from the storage means (memory module 133). The gaming machine according to Feature D1, which is characterized.
特徴D2によれば、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D2, it is possible to achieve the above excellent effects while reducing the processing load.
特徴D3.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出される前記集合データ(第1法線マップデータND1、第2法線マップデータND2)は、前記仮想3次元空間に配置されている前記オブジェクトの画像データに対して適用されることを特徴とする特徴D1又はD2に記載の遊技機。
Feature D3. The data generation means includes an arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function for executing the processing in steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (function for executing the processing of step S1006 in the VDP 135), and two-dimensional information projected on the projection plane by projecting the image data of the object onto the projection plane set based on the viewpoint Drawing setting means (a function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data that is two-dimensional information based on the data of
The set data (first normal map data ND1, second normal map data ND2) derived by the set data deriving means is applied to the image data of the object arranged in the virtual three-dimensional space. The gaming machine according to Feature D1 or D2, wherein
特徴D3によれば、集合データを利用して3次元情報の画像データの配置態様を変更することが可能となるため、リアルな画像表示を実現しながら、さらに複雑な画像表示を行うことが可能となる。この場合に、その複雑な画像表示を行う場合において、上記のとおり集合データを利用する構成であるため、データ容量及び処理負荷の両方のバランスを図ることが可能となる。 According to the feature D3, since it is possible to change the arrangement mode of the image data of the three-dimensional information using the collective data, it is possible to display a more complicated image while realizing a realistic image display. It becomes. In this case, when the complicated image display is performed, the aggregate data is used as described above, so that it is possible to balance both the data capacity and the processing load.
特徴D4.前記集合データ導出手段は、前記画像データが設定された状態において、当該設定された状態に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであり、
前記データ生成手段は、その導出された前記集合データを、前記画像データから作成されたデータに対して適用することに基づき、前記生成データを生成するものであることを特徴とする特徴D1乃至D3のいずれか1に記載の遊技機。
Feature D4. The set data deriving means derives the set data (blur map data) by specifying each unit parameter data (Z value) corresponding to the set state in a state where the image data is set. Is,
The data generation means generates the generation data based on applying the derived set data to data generated from the image data. Features D1 to D3 The gaming machine according to any one of the above.
特徴D4によれば、集合データを予め記憶させておく必要がないため、データ容量の削減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D4, it is not necessary to store the collective data in advance, so that it is possible to achieve the excellent effects as described above while reducing the data capacity.
特徴D5.前記集合データ導出手段は、前記集合データを用いて前記生成データが生成される状況において、各生成データのそれぞれに対応した前記集合データを導出するものであることを特徴とする特徴D4に記載の遊技機。 Feature D5. The collective data deriving unit derives the collective data corresponding to each of the generated data in a situation where the generated data is generated using the collective data. Gaming machine.
特徴D5によれば、各更新タイミングにおいて異なる集合データを用いることが可能となり、表示演出の多様化を図ることが可能となる。また、この場合であっても、集合データは予め記憶されているのではなく、その都度作成されるため、データ容量の削減を図りながら、表示演出の多様化を図ることが可能となる。 According to the feature D5, different set data can be used at each update timing, and display effects can be diversified. Even in this case, the collective data is not stored in advance, but is created each time, so that it is possible to diversify display effects while reducing the data capacity.
特徴D6.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段は、前記配置手段による前記オブジェクトの画像データの配置態様に応じた前記各単位パラメータデータ(Z値)を特定することにより前記集合データ(ぼかしマップデータ)を導出するものであることを特徴とする特徴D4又はD5に記載の遊技機。
Feature D6. The data generation means includes an arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function for executing the processing in steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (function for executing the processing of step S1006 in the VDP 135), and two-dimensional information projected on the projection plane by projecting the image data of the object onto the projection plane set based on the viewpoint Drawing setting means (a function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data that is two-dimensional information based on the data of
The set data deriving unit derives the set data (blur map data) by specifying each unit parameter data (Z value) according to the arrangement mode of the image data of the object by the arrangement unit. The gaming machine according to Feature D4 or D5, wherein
特徴D6によれば、3次元情報の画像データを利用することでリアルな画像表示を実現した構成において、そのリアルな画像表示を可能とするデータ設定態様に則して集合データが作成されるため、集合データの利用がリアルな画像表示に悪影響を及してしまわないようにすることが可能となる。 According to the feature D6, in the configuration in which the real image display is realized by using the image data of the three-dimensional information, the collective data is created in accordance with the data setting mode that enables the real image display. It is possible to prevent the use of the collective data from adversely affecting the realistic image display.
特徴D7.前記データ生成手段は、仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影された2次元情報のデータに基づいて2次元情報である生成データを生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を備えており、
前記集合データ導出手段により導出された前記集合データ(ぼかしマップデータ)は、前記投影後の2次元情報のデータに対して適用されることを特徴とする特徴D1乃至D6のいずれか1に記載の遊技機。
Feature D7. The data generation means includes an arrangement means for arranging image data of an object, which is three-dimensional information, in the virtual three-dimensional space (a function for executing the processing in steps S1002 to S1004 in the VDP 135), and a viewpoint in the virtual three-dimensional space. Viewpoint setting means (function for executing the processing of step S1006 in the VDP 135), and two-dimensional information projected on the projection plane by projecting the image data of the object onto the projection plane set based on the viewpoint Drawing setting means (a function for executing the processing of steps S1010 to S1012 in the VDP 135) for generating generation data that is two-dimensional information based on the data of
The collective data (blurred map data) derived by the collective data deriving unit is applied to the data of the two-dimensional information after the projection, according to any one of the features D1 to D6, Gaming machine.
特徴D7によれば、集合データは、3次元情報のデータに対して適用されるのではなく、2次元情報のデータに対して適用される構成であるため、処理負荷の軽減を図りながら、上記のような優れた効果を奏することが可能となる。 According to the feature D7, the collective data is not applied to the data of the three-dimensional information, but is applied to the data of the two-dimensional information. Therefore, while reducing the processing load, It is possible to achieve such excellent effects.
特徴D8.前記データ生成手段は、前記集合データの前記各単位パラメータデータを前記各生成用単位データに適用する場合の態様を複数の更新タイミング間において異ならせることに基づき、同一種類の個別画像の表示態様が変化していくことに対応した前記生成データを生成する生成実行手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能、ステップS1010〜ステップS1012を実行する機能)を備えていることを特徴とする特徴D1乃至D7のいずれか1に記載の遊技機。
Feature D8. The data generation means is configured to display the same type of individual images based on different modes when the unit parameter data of the aggregate data is applied to the generation unit data between a plurality of update timings. Generation execution means for generating the generated data corresponding to the change (function to execute the processing of step S2506, step S2507, step S2511 and step S2512 in
特徴D8によれば、単一の集合データを利用しながら、複数の更新タイミング間において同一種類の個別画像の表示態様を変化させることが可能となる。よって、データ容量及び処理負荷の両方のバランスを図りながら、既に説明したような優れた効果を奏することが可能となる。 According to the feature D8, it is possible to change the display mode of the same type of individual images between a plurality of update timings while using a single set of data. Therefore, it is possible to achieve the excellent effects as described above while balancing both the data capacity and the processing load.
特徴D9.前記生成実行手段は、前記各単位パラメータデータと前記各生成用単位データとの対応関係を更新タイミングの切り換わりに伴って変更させる対応関係変更手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8に記載の遊技機。 Feature D9. The generation execution means changes the correspondence relationship between each unit parameter data and each generation unit data as the update timing is switched (steps S2506, S2507, S2511 and steps in the VDP 135). The game machine according to Feature D8, which includes a function of executing the processing of S2512).
特徴D9によれば、単位パラメータデータと生成用単位データとの対応関係を切り換えることで、複数の更新タイミング間において画像の表示態様を変更させる構成であるため、集合データを利用しながら画像の表示態様を変更させる構成において、処理負荷を軽減することが可能となる。 According to the feature D9, since the display mode of the image is changed between a plurality of update timings by switching the correspondence between the unit parameter data and the generation unit data, the image display can be performed while using the collective data. In the configuration in which the aspect is changed, the processing load can be reduced.
特徴D10.前記生成実行手段は、前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、複数の単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2506、ステップS2507、ステップS2511及びステップS2512の処理を実行する機能)を備えていることを特徴とする特徴D8又はD9に記載の遊技機。 Feature D10. The generation execution unit includes a plurality of application units (steps S2506 and S2507 in the VDP 135) that reflect the contents of a plurality of unit parameter data for one data to which the unit parameter data is applied in each unit data for generation. The game machine according to feature D8 or D9, further comprising a function of executing the processes of steps S2511 and S2512).
特徴D10によれば、単位パラメータデータを参照しながら表示態様を変更させる構成において、その変更させる表示態様の多様化が図られる。 According to the feature D10, in the configuration in which the display mode is changed while referring to the unit parameter data, the display mode to be changed can be diversified.
特徴D11.前記集合データ導出手段は、前記集合データを複数導出するものであり、
前記生成実行手段は、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象の一のデータに対して、前記複数の集合データのそれぞれの単位パラメータデータの内容を反映させる複数適用手段(VDP135におけるステップS2507及びステップS2512の処理を実行する機能)と、
前記各生成用単位データにおいて前記単位パラメータデータを適用する対象のデータと当該単位パラメータデータとの対応関係を更新タイミングの切り換わりに伴って変更させ且つ当該対応関係の変更を前記複数の集合データのそれぞれについて行う対応関係変更手段(VDP135におけるステップS2506及びステップS2511の処理を実行する機能)と、
を備えていることを特徴とする特徴D8に記載の遊技機。
Feature D11. The set data deriving means is for deriving a plurality of the set data,
The generation execution means includes
A plurality of applying means (steps S2507 and S2512 in the VDP 135) reflect the contents of the unit parameter data of the plurality of aggregate data to one data to which the unit parameter data is applied in each of the generating unit data. Function to execute processing)
In each of the generating unit data, the correspondence between the data to which the unit parameter data is applied and the unit parameter data is changed as the update timing is switched, and the change in the correspondence is changed in the plurality of set data. Correspondence changing means (function to execute the processing of step S2506 and step S2511 in VDP135) to be performed for each,
The gaming machine according to Feature D8, comprising:
特徴D11によれば、遊技機設計段階における集合データの設計の容易化を図りながら、表示態様を複雑に変化させることが可能となる。 According to the feature D11, it is possible to change the display mode in a complex manner while facilitating the design of the collective data at the gaming machine design stage.
特徴D12.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に出力表示する表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記生成データは、色情報が設定された単位データを多数有しており、
前記データ生成手段は、前記各単位データを生じさせる各生成用単位データに対して用いるための集合データ(法線マップデータND1,ND2、ぼかしマップデータ)を導出する集合データ導出手段(VDP135におけるステップS2503を実行する機能、VDP135におけるステップS3101〜ステップS3107を実行する機能)を備え、当該集合データ導出手段により導出された集合データに含まれる各単位パラメータデータを前記各生成用単位データに適用することにより前記生成データを生成し、且つ集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データを生成するものであることを特徴とする遊技機。
Feature D12. Arranging means for arranging image data of an object that is three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (Function for executing the processing of step S1006 in the VDP 135) and image data of the object is projected onto a projection plane set based on the viewpoint, and generated data (drawing data) based on the data projected onto the projection plane The drawing data generated by the data generation means (the
Display control means (
In gaming machines equipped with
The generated data has many unit data in which color information is set,
The data generating means is a set data deriving means (step in the VDP 135) for deriving set data (normal map data ND1, ND2, blur map data) to be used for each generating unit data for generating each unit data. A function of executing S2503, a function of executing steps S3101 to S3107 in the VDP 135), and applying each unit parameter data included in the aggregate data derived by the aggregate data deriving means to each of the generating unit data To generate the generated data, and to generate the generated data in which the same kind of individual images are displayed in different modes by changing at least one of the method of applying the set data and the content of the set data to be applied A gaming machine that is characterized by
特徴D12によれば、各単位パラメータデータ群が集合データとして扱われるため、データの扱いに関して処理の簡素化が図られる。また、集合データの適用の仕方及び適用する集合データの内容のうち少なくとも一方を変更することにより同一種類の個別画像が異なる態様で表示されることとなる生成データが生成される構成であるため、予め記憶させておく画像データのデータ量を抑えながら、表示演出の多様化を図ることが可能となる。 According to the feature D12, each unit parameter data group is handled as aggregate data, so that the processing for data handling can be simplified. In addition, since it is a configuration in which generation data is generated in which the same type of individual images are displayed in different modes by changing at least one of the method of applying the set data and the content of the set data to be applied. It is possible to diversify display effects while suppressing the amount of image data stored in advance.
上記特徴D群の発明は、以下の課題に対して効果的である。 The invention of the feature group D is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case where the image is displayed using the two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been. Further, by reading out the image data, generation data for displaying a character or the like in front of the background is generated in a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which characters and the like are arranged in front of the background is displayed on the display unit.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した描画データが作成される。そして、その描画データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, an object that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the object. Drawing data is created by projecting the object to which the texture is pasted onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the drawing data.
ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, it is not preferable that the data capacity is extremely increased in order to further improve the display effect.
<特徴E群>
特徴E1.仮想3次元空間内に3次元情報であるオブジェクトの画像データを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1006の処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトの画像データを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、ジオメトリ演算部151及びレンダリング部152)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示手段(図柄表示装置31)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135の表示回路155)と、
を備えている遊技機において、
前記データ生成手段は、前記オブジェクトの画像データに対してテクスチャの画像データを設定するテクスチャ設定手段(VDPにおける特別キャラクタ用のテクスチャマッピング処理を実行する機能)を備え、
前記オブジェクトの画像データとして所定個別画像(特別キャラクタ)を表示させる場合に用いられる所定オブジェクトデータ(特別オブジェクトPC20)が含まれており、さらに前記テクスチャの画像データとして前記所定オブジェクトデータに対して設定される所定テクスチャデータ(第1部分テクスチャPC21〜PC23、第2部分テクスチャPC24〜PC27)が含まれており、
前記所定テクスチャデータは、
前記所定オブジェクトデータの第1パーツデータ(本体パーツ部BP)に対して設定される第1テクスチャデータ(第1部分テクスチャPC21〜PC23)と、
前記所定オブジェクトデータの第2パーツデータ(付属パーツ部AP1〜AP4)に対して設定される第2テクスチャデータ(第2部分テクスチャPC24〜PC27)と、
が含まれており、
前記テクスチャ設定手段は、
前記第1パーツデータに対して設定する前記第1テクスチャデータの種類を変更する第1設定手段(VDP135におけるステップS3401〜ステップS3403を実行する機能)と、
前記第2パーツデータに対して前記第2テクスチャデータを設定する場合において、当該第2パーツデータに対する当該第2テクスチャデータの設定位置関係を変更する第2設定手段(VDP135におけるステップS3405〜ステップS3409を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature E group>
Feature E1. Arranging means for arranging image data of an object that is three-dimensional information in the virtual three-dimensional space (function for executing the processing of steps S1002 to S1004 in the VDP 135), and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (Function for executing the processing of step S1006 in the VDP 135) and image data of the object is projected onto a projection plane set based on the viewpoint, and generated data (drawing data) based on the data projected onto the projection plane The drawing data generated by the data generation means (the
A display control unit (of the VDP 135) displays an image corresponding to the generated data stored in the storage unit on the display unit (symbol display device 31) and updates the content of the image when a predetermined update timing is reached. Display circuit 155),
In gaming machines equipped with
The data generation means includes texture setting means (function to execute texture mapping processing for special characters in VDP) for setting texture image data for the image data of the object,
Predetermined object data (special object PC20) used when displaying a predetermined individual image (special character) as image data of the object is included, and is further set for the predetermined object data as image data of the texture. Predetermined texture data (first partial texture PC21 to PC23, second partial texture PC24 to PC27),
The predetermined texture data is
First texture data (first partial textures PC21 to PC23) set for the first part data (main body part part BP) of the predetermined object data;
Second texture data (second partial textures PC24 to PC27) set for second part data (attached part parts AP1 to AP4) of the predetermined object data;
Is included,
The texture setting means includes
First setting means for changing the type of the first texture data set for the first part data (function for executing steps S3401 to S3403 in the VDP 135);
When setting the second texture data for the second part data, second setting means (steps S3405 to S3409 in the
A gaming machine characterized by comprising:
特徴E1によれば、所定個別画像の外観を変化させる場合において、設定するテクスチャデータの種類をまとめて変更するのではなく、テクスチャデータの一部である第1テクスチャデータについては種類を変更する一方、テクスチャデータの他の一部である第2テクスチャデータについては第2パーツデータに対する設定位置関係を変更させる構成である。これにより、所定個別画像の一部については外観を複雑に変化させるようにしながら、他の一部については外観の変化の複雑さを低減する代わりにデータ容量の削減が図られる。よって、データ容量と処理負荷とのバランスを図りながら、上記のように所定個別画像の外観を変化させることが可能となる。 According to the feature E1, when changing the appearance of the predetermined individual image, the type of texture data to be set is not changed at once, but the type is changed for the first texture data which is a part of the texture data. The second texture data, which is another part of the texture data, is configured to change the setting positional relationship with respect to the second part data. As a result, while the appearance of some of the predetermined individual images is changed in a complicated manner, the data capacity can be reduced instead of reducing the complexity of the change in the appearance of the other portions. Therefore, it is possible to change the appearance of the predetermined individual image as described above while balancing the data capacity and the processing load.
特徴E2.前記所定個別画像において前記第2パーツデータが占める割合は、前記第1パーツデータが占める割合よりも小さいことを特徴とする特徴E1に記載の遊技機。 Feature E2. The gaming machine according to Feature E1, wherein a ratio of the second part data in the predetermined individual image is smaller than a ratio of the first part data.
特徴E2によれば、テクスチャデータの種類ではなく設定位置関係が変更される領域は、テクスチャデータの設定位置関係ではなく種類が変更される領域に比べて、外観を変化させる場合においてその変化が乏しいものとなるが、前者の領域の方が小さいため、所定個別画像全体としては外観が大きく変化していると遊技者に認識させることが可能となる。 According to the feature E2, the region where the setting position relationship is changed instead of the texture data type is less changed when the appearance is changed than the region where the type is changed instead of the texture data setting position relationship. However, since the former area is smaller, it is possible to make the player recognize that the appearance of the predetermined individual image has changed greatly.
特徴E3.前記所定オブジェクトデータに対応した所定個別画像において前記第1パーツデータが占める領域には、当該所定個別画像において特定の外縁部分に対する相対位置が変化しない画像部分(目や口の模様部分)が存在していることを特徴とする特徴E1又はE2に記載の遊技機。 Feature E3. In an area occupied by the first part data in the predetermined individual image corresponding to the predetermined object data, there is an image portion (a pattern portion of an eye or a mouth) whose relative position with respect to a specific outer edge portion does not change in the predetermined individual image. The gaming machine according to feature E1 or E2, characterized in that
特徴E3によれば、相対位置が変化すると好ましくない画像部分については、第1テクスチャデータとして設定されているため、当該画像部分を含めた領域の外観の変化を好適に行うことが可能となる。 According to the feature E3, since the image portion that is not preferable when the relative position changes is set as the first texture data, it is possible to suitably change the appearance of the region including the image portion.
特徴E4.前記第2テクスチャデータは、一方の境界部分に設定されている色情報がその逆側の境界部分に設定されている色情報に対して連続性を有していることを特徴とする特徴E1乃至E3のいずれか1に記載の遊技機。 Feature E4. In the second texture data, the color information set in one boundary portion has continuity with the color information set in the opposite boundary portion. The gaming machine according to any one of E3.
特徴E4によれば、第2テクスチャデータの設定位置関係を変化していった場合において、所定個別画像に模様の境界が生じてしまうことが抑制される。 According to the feature E4, when the setting positional relationship of the second texture data is changed, it is possible to suppress the occurrence of a pattern boundary in the predetermined individual image.
特徴E5.前記第2パーツデータ及び前記第2テクスチャデータの組合せは、複数存在しており、
前記第2設定手段は、一の前記第2テクスチャデータの設定位置関係を変更する場合には他の前記第2テクスチャデータの設定位置関係を変更するものであることを特徴とする特徴E1乃至E4のいずれか1に記載の遊技機。
Feature E5. There are a plurality of combinations of the second part data and the second texture data,
The second setting means is configured to change the setting positional relationship of the other second texture data when changing the setting positional relationship of one of the second texture data. The gaming machine according to any one of the above.
特徴E5によれば、第2テクスチャデータが複数存在している構成において、それら第2テクスチャデータの設定に要する処理負荷の軽減が図られる。 According to the feature E5, in a configuration in which a plurality of second texture data are present, the processing load required for setting the second texture data can be reduced.
上記特徴E群の発明は、以下の課題に対して効果的である。 The feature E group invention is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるオブジェクトが設定されるとともに、そのオブジェクトに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたオブジェクトを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, an object that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the object. Generation data is generated by projecting the object to which the texture is pasted onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the generated data.
ここで、表示演出への遊技者の興味を高めるためには、表示演出のさらなる改良を図ることが好ましい。その一方、表示演出のさらなる改良を図る上で、データ容量が極端に増加してしまうことは好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to further improve the display effect. On the other hand, it is not preferable that the data capacity is extremely increased in order to further improve the display effect.
<特徴F群>
特徴F1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した1の動画を前記複数の更新タイミング分の期間に亘って表示させる表示演出を実行する表示演出実行手段(表示CPU131においてラウンド演出用の演算処理を実行する機能、VDP135におけるラウンド演出用の設定処理及びラウンド演出用マッピング処理を実行する機能)と、
を備え、
前記表示演出実行手段は、前記表示演出の演出期間のうち一部の特定期間において所定の画像を挿入することにより、前記1の動画を用いて複数種類の表示パターンの表示演出を実行可能に構成されていることを特徴とする遊技機。
<Feature F group>
Feature F1. Display means (symbol display device 31) having a display unit (display surface G);
Display storage means (memory module 133) for storing image data in advance;
Display control means (
In gaming machines equipped with
The display storage means stores compressed moving image data used for reproducing a moving image,
The display control means includes
Development means (moving picture decoder) for developing any moving image data in a development area and creating still image data for a plurality of update timings for an image corresponding to the moving image data;
By using still image data corresponding to a plurality of update timings expanded by the expansion means in the order determined in the moving image data, one moving image corresponding to the moving image data corresponds to the plurality of update timings. Display effect execution means for executing a display effect to be displayed over a period of time (a function of executing a calculation process for round effect in the
With
The display effect executing means is configured to be able to execute display effects of a plurality of types of display patterns using the one moving image by inserting a predetermined image in a part of a specific period of the effect period of the display effect. A gaming machine characterized by being made.
特徴F1によれば、1の動画を用いて複数種類の表示パターンの表示演出を実行することにより、表示演出毎に動画像データを用意する構成と比較して、表示演出に要するデータ量の削減を図ることができる。よって、表示演出の多様化を図りつつ、データ量の増大化を抑制することができる。 According to the feature F1, the amount of data required for the display effect is reduced as compared with the configuration in which moving image data is prepared for each display effect by executing a display effect of a plurality of types of display patterns using one moving image. Can be achieved. Therefore, an increase in the amount of data can be suppressed while diversifying display effects.
特徴F2.前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記表示演出実行手段は、前記特定期間において前記所定画像データを用いて前記所定の画像を表示させ得るものであることを特徴とする特徴F1に記載の遊技機。
Feature F2. The display storage means stores predetermined image data (inserted image data IPD0) which is image data used to display the predetermined image and has a smaller data amount than the moving image data.
The gaming machine according to F1, wherein the display effect executing means is capable of displaying the predetermined image using the predetermined image data in the specific period.
特徴F2によれば、所定画像データを用いて所定の画像が表示される。当該所定画像データは動画像データよりも少ないデータ量に設定されている。これにより、表示演出毎に動画像データを用意する構成と比較して、少ないデータ量で表示演出の多様化を図ることができる。 According to the feature F2, a predetermined image is displayed using predetermined image data. The predetermined image data is set to a smaller data amount than the moving image data. Thereby, compared with the structure which prepares moving image data for every display effect, the diversification of a display effect can be achieved with a small data amount.
また、所定画像データを用いて所定の画像を表示させる構成の方が、所定の画像を作成して表示させる構成と比較して、所定の画像の作成に係る処理を実行する必要がない分だけ所定の画像の表示に係る処理負荷が軽くなり易い。これにより、表示演出に係るデータ量の削減を図りつつ、所定の画像を表示させるのに要する処理負荷を軽減させることができ、データ量の削減と処理負荷とのバランスを図ることができる。 In addition, the configuration in which the predetermined image is displayed using the predetermined image data is more than the configuration in which the predetermined image is generated and displayed, so that the processing related to the generation of the predetermined image need not be executed. A processing load related to display of a predetermined image tends to be lightened. As a result, the processing load required to display a predetermined image can be reduced while reducing the data amount related to the display effect, and the balance between the reduction of the data amount and the processing load can be achieved.
特徴F3.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に代えて前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。 Feature F3. The game machine according to Feature F1 or Feature F2, wherein the display effect executing means displays the predetermined image instead of the image related to the first moving image in the specific period.
特徴F3によれば、特定期間において動画に係る画像が表示される場合と所定の画像が表示される場合とがある。これにより、表示演出の表示パターンの1つとして1の動画に係る画像の表示を用いることができる。よって、少ないデータ量で表示演出の多様化を図ることができる。 According to the feature F3, there are a case where an image related to a moving image is displayed in a specific period and a case where a predetermined image is displayed. Thereby, the display of the image which concerns on one moving image can be used as one of the display patterns of a display effect. Therefore, it is possible to diversify display effects with a small amount of data.
なお、本特徴の具体的な構成としては、「前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像に対して前記所定の画像を上書きするものである」ことが考えられる。かかる構成によれば、動画表示に係る処理にて特別な処理を行うことなく、1の動画に係る画像に代えて所定の画像を表示させることができる。 As a specific configuration of this feature, it is conceivable that “the display effect executing unit overwrites the predetermined image on the image related to the first moving image during the specific period”. According to this configuration, it is possible to display a predetermined image instead of an image related to one moving image without performing special processing in the processing related to moving image display.
特徴F4.前記表示演出実行手段は、前記特定期間において前記1の動画に係る画像と、前記所定の画像とを重ね合わせることで合成画像を作成し、当該合成画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。 Feature F4. The display effect executing means creates a composite image by superimposing the image related to the first moving image and the predetermined image in the specific period, and displays the composite image. The gaming machine according to Feature F1 or Feature F2.
特徴F4によれば、1の動画に係る画像と所定の画像との合成画像が表示されるため、1の動画に係る画像を用いて、当該1の動画に係る画像とは異なる画像を表示させることができる。 According to the feature F4, since a composite image of an image related to one moving image and a predetermined image is displayed, an image different from the image related to the one moving image is displayed using the image related to the one moving image. be able to.
特に、動画像データの特性上、当該動画像データは、更新タイミング毎の連続するデータを保持する必要がある。この点、本特徴によれば、当該連続するデータを用いて合成画像を作成する構成としたことにより、当該連続するデータを好適に利用することができ、表示演出全体に係るデータ量の削減を好適に行うことができる。 In particular, due to the characteristics of moving image data, the moving image data needs to hold continuous data at each update timing. In this regard, according to the present feature, since the composite image is created using the continuous data, the continuous data can be suitably used, and the data amount related to the entire display effect can be reduced. It can be suitably performed.
また、特徴F2との関係によれば、所定の画像のみで画像表示を行う構成と比較して、所定の画像の表示領域を小さくすることができるため、所定画像データのデータ量の削減を図ることができる。これにより、所定の画像を表示するのに要するデータ量を少なくすることができる。 In addition, according to the relationship with the feature F2, the display area of the predetermined image can be reduced as compared with the configuration in which the image display is performed only with the predetermined image, so that the data amount of the predetermined image data is reduced. be able to. Thereby, the amount of data required to display a predetermined image can be reduced.
特徴F5.仮想3次元空間内にオブジェクトの画像データを配置する配置手段(VDP135におけるラウンド演出用の設定処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記画像データを投影させることで作成された投影データを用いて生成データを生成するとともに、前記視点が向く方向に複数の前記画像データが並んでいる場合、その並んでいる各部分において前記視点が向く方向における当該視点からの距離が小さい側の部分を優先して前記生成データに反映させる描画用設定手段(VDP135における演出用の描画データ作成処理を実行する機能)と、によって生成された生成データ(描画データ)を記憶する記憶手段(フレームバッファ142)を備え、
前記表示制御手段は、前記記憶手段に記憶された生成データに対応した画像を前記表示部に表示させるものであり、
前記表示用記憶手段は、前記所定の画像を表示させるために用いられる画像データであって前記動画像データよりもデータ量が少ない所定画像データ(挿入画像データIPD0)を記憶しており、
前記オブジェクトには、
前記動画像データから生成される静止画像データがテクスチャとして貼り付けられる第1オブジェクト(動画用オブジェクト)と、
前記所定画像データがテクスチャとして貼り付けられる第2オブジェクト(挿入用オブジェクト)と、
が含まれており、
前記配置手段は、前記特定期間において、前記視点が向く方向における当該視点からの距離が、前記第1オブジェクトよりも前記第2オブジェクトの方が小さくなるように、前記各オブジェクトを配置するものであることを特徴とする特徴F3又は特徴F4に記載の遊技機。
Feature F5. Arranging means for arranging image data of an object in the virtual three-dimensional space (function for executing setting processing for round effect in the VDP 135) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (camera coordinate system in the VDP 135) Generating the generated data using the projection data created by projecting the image data onto the projection plane set based on the viewpoint, and the direction in which the viewpoint faces When a plurality of the image data are arranged in a line, a drawing setting unit that preferentially reflects the portion on the side where the distance from the viewpoint in the direction in which the viewpoint faces is reflected in the generated data. A drawing data creation process for rendering in the VDP 135) and generated data (drawing data) Comprising a storage unit (frame buffer 142) for storing the data),
The display control means displays an image corresponding to the generated data stored in the storage means on the display unit,
The display storage means stores predetermined image data (inserted image data IPD0) which is image data used to display the predetermined image and has a smaller data amount than the moving image data.
The object includes
A first object (moving object) to which still image data generated from the moving image data is pasted as a texture;
A second object (insertion object) to which the predetermined image data is pasted as a texture;
Is included,
The arrangement means arranges the objects so that the distance from the viewpoint in the direction in which the viewpoint is facing is smaller in the second object than in the first object in the specific period. The gaming machine according to Feature F3 or Feature F4.
特徴F5によれば、第1オブジェクトに対して、動画像データから生成される静止画像データがテクスチャとして貼り付けられ、当該静止画像データが更新タイミングとなる度に更新されることにより、1の動画が表示される。また、第2オブジェクトに対して、所定画像データがテクスチャとして貼り付けられることにより、所定の画像が表示される。この場合、所定の画像に係る第2オブジェクトが1の動画に係る第1オブジェクトよりも前面側に配置されるため、陰面消去の構成により1の動画に係る画像に対して重なるように所定の画像が表示される。これにより、3次元画像を表示するための陰面消去の構成を利用して、1の動画に係る画像に代えて所定の画像を表示させたり、1の動画に係る画像と所定の画像とを合成させたりすることができる。 According to the feature F5, the still image data generated from the moving image data is pasted as a texture on the first object, and is updated each time the still image data is updated. Is displayed. In addition, a predetermined image is displayed by pasting predetermined image data as a texture on the second object. In this case, since the second object related to the predetermined image is arranged on the front side of the first object related to the single moving image, the predetermined image is overlapped with the image related to the single moving image by the hidden surface removal configuration. Is displayed. This makes it possible to display a predetermined image instead of an image related to one moving image, or to synthesize an image related to one moving image and a predetermined image using a hidden surface erasing configuration for displaying a three-dimensional image. You can make it.
特徴F6.前記各オブジェクトは、少なくとも一方の面に前記各テクスチャが貼り付けられる板状オブジェクトであることを特徴とする特徴F5に記載の遊技機。 Feature F6. The gaming machine according to Feature F5, wherein each of the objects is a plate-like object in which each of the textures is pasted on at least one surface.
特徴F6によれば、各画像データの貼付対象として、比較的処理負荷が少ない板状オブジェクトを用いることにより、処理負荷の軽減を図ることができる。 According to the feature F6, it is possible to reduce the processing load by using a plate-like object with a relatively small processing load as a target to which each image data is pasted.
特徴F7.前記動画像データには、所定の単位で分割された第1単位動画像データ(第1ラウンド動画像データRMD0a)と第2単位動画像データ(第2ラウンド動画像データRMD0b)とが含まれており、
前記表示演出実行手段は、前記第1単位動画像データによる動画を表示させた後、前記特定期間が経過したことに基づいて前記第2単位動画像データによる動画を表示させることにより、前記1の動画を表示させるものであり、
前記表示演出実行手段は、前記特定期間に亘って前記所定の画像を表示させるものであることを特徴とする特徴F1又は特徴F2に記載の遊技機。
Feature F7. The moving image data includes first unit moving image data (first round moving image data RMD0a) and second unit moving image data (second round moving image data RMD0b) divided in predetermined units. And
The display effect execution means displays the moving image based on the first unit moving image data, and then displays the moving image based on the second unit moving image data based on the elapse of the specific period. Which displays a video,
The gaming machine according to Feature F1 or Feature F2, wherein the display effect executing means displays the predetermined image over the specific period.
特徴F7によれば、単一の動画像データを用いるのではなく、少なくとも第1単位動画像データ及び第2単位動画像データを用いて1の動画が表示される。これにより、例えば、上記1の動画表示の開始時に第1単位動画像データに対して展開用の処理を実行し、その後第2単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両動画像データ分の展開がまとめて行われる構成に比べ、上記1の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。 According to the feature F7, one moving image is displayed using at least the first unit moving image data and the second unit moving image data instead of using a single moving image data. Thereby, for example, it is possible to execute the development process on the first unit moving image data at the start of the above-described one moving image display and then execute the development process on the second unit moving image data. It becomes. In this case, it is possible to suppress a local increase in the processing load when starting the moving image display of 1 above, compared to a configuration in which development for both moving image data is performed collectively.
かかる構成において、所定の画像は、第1単位動画像データによる動画表示と、第2単位動画像データによる動画表示との間に設けられた所定の期間に亘って表示される。これにより、所定の画像を介して、分割した各動画像データに係る動画表示が連続して表示されることとなり、遊技者に1の動画として認識させることができる。 In this configuration, the predetermined image is displayed over a predetermined period provided between the moving image display by the first unit moving image data and the moving image display by the second unit moving image data. Thereby, the moving image display concerning each divided moving image data is continuously displayed via a predetermined image, and the player can be recognized as one moving image.
また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。 Further, according to such a configuration, it is not necessary to simultaneously perform the process related to the moving image display and the process related to the predetermined image display. Thereby, it is possible to reduce the processing load related to image display.
特徴F8.前記表示演出実行手段は、前記特定期間において表示対象となる前記所定の画像を変更可能であることを特徴とする特徴F1乃至F7のいずれか1に記載の遊技機。 Feature F8. The gaming machine according to any one of features F1 to F7, wherein the display effect executing means is capable of changing the predetermined image to be displayed in the specific period.
特徴F8によれば、表示演出が実行される度に特定期間において表示させる所定の画像を異ならせることにより、異なる表示演出であるように認識させることができる。これにより、表示演出の表示パターンの更なる多様化を図ることができる。 According to the feature F8, a different display effect can be recognized by changing a predetermined image to be displayed in a specific period every time a display effect is executed. Thereby, the further diversification of the display pattern of a display effect can be achieved.
なお、本特徴の具体的な構成としては、例えば「前記表示用記憶手段には、表示内容が相違する複数種類の所定画像データが記憶されており、前記表示演出実行手段は、前記複数種類の所定画像データのうちいずれかを選択する選択手段を備え、前記選択手段により選択された所定画像データを用いて前記特定期間において前記選択手段により選択された所定画像データに対応した画像を表示させるものである」構成が考えられる。 In addition, as a specific configuration of this feature, for example, “a plurality of types of predetermined image data with different display contents are stored in the display storage unit, and the display effect execution unit includes Selecting means for selecting one of the predetermined image data, and displaying the image corresponding to the predetermined image data selected by the selecting means during the specific period using the predetermined image data selected by the selecting means The configuration is “conceivable”.
特徴F9.前記表示演出実行手段は、予め定められた特定条件が成立した場合には、前記動画が複数回繰り返し表示されるようにするものであり、前記複数回の動画表示のうち所定回数目の動画表示における前記特定期間では前記所定の画像として第1所定画像を表示させ、前記所定回数目の動画表示とは異なる回数目の動画表示における前記特定期間では前記第1所定画像とは異なる第2所定画像を表示させるものであることを特徴とする特徴F8に記載の遊技機。 Feature F9. The display effect executing means is configured to repeatedly display the moving image a plurality of times when a predetermined specific condition is satisfied, and display a predetermined number of times of the moving images displayed a plurality of times. In the specific period, the first predetermined image is displayed as the predetermined image, and the second predetermined image is different from the first predetermined image in the specific period in the moving image display different from the predetermined number of moving image displays. The gaming machine according to Feature F8, wherein the game machine is displayed.
特徴F9によれば、動画表示が繰り返し実行される場合がある。この場合、所定回数目の動画表示と当該所定回数目とは異なる回数目の動画表示とで、表示される所定の画像が異なるため、全体としてはバリエーションが異なる表示演出が実行されることとなる。これにより、当該表示演出が繰り返し行われることに起因する当該表示演出への注目度の低下を抑制することができる。 According to the feature F9, the moving image display may be repeatedly executed. In this case, since the predetermined image to be displayed is different between the predetermined number of times of moving image display and the predetermined number of times of moving image display, display effects having different variations as a whole are executed. . Thereby, the fall of the attention degree to the said display effect resulting from the said display effect being repeatedly performed can be suppressed.
特徴F10.予め定められた抽選契機に基づいて、遊技状態を遊技者に有利な特定遊技状態に移行させるか否かを判定する判定手段(主制御装置50における当否判定処理を実行する機能)と、
前記判定手段の判定結果が、前記遊技状態を前記特定遊技状態に移行させることに対応した移行対応結果である場合に、前記特定遊技状態に移行させる移行手段(主制御装置50における遊技状態移行処理を実行する機能)と、
を備え、
特定遊技状態では、当該特定遊技状態の所定のタイミングにて開始され、予め定められた終了条件が成立するまで継続される特定単位遊技が複数回繰り返し行われ、
前記表示演出実行手段は、前記特定単位遊技が行われる度に実行されるものであり、1の特定遊技状態中における前記特定単位遊技の実行回数に応じて、異なる前記所定の画像を表示させることが可能であることを特徴とする特徴F8又は特徴F9に記載の遊技機。
Feature F10. Based on a predetermined lottery opportunity, determination means for determining whether or not to shift the gaming state to a specific gaming state advantageous to the player (a function for executing the determination processing in the main control device 50);
When the determination result of the determination means is a transition response result corresponding to the transition of the gaming state to the specific gaming state, the transitioning means for shifting to the specific gaming state (game state transition processing in the main control device 50) Function to execute)
With
In the specific game state, a specific unit game that is started at a predetermined timing of the specific game state and continued until a predetermined end condition is satisfied is repeated a plurality of times,
The display effect executing means is executed each time the specific unit game is performed, and displays the predetermined image different depending on the number of executions of the specific unit game in one specific game state. The gaming machine according to Feature F8 or Feature F9, wherein
特徴F10によれば、特定遊技状態中は、特定単位遊技が複数回繰り返し行われる。この場合、特定単位遊技が行われる度に1の動画を用いた表示演出が実行される。これにより、当該表示演出が繰り返し実行されることにより、特定単位遊技が繰り返し行われていることを遊技者が把握することができる。 According to the feature F10, the specific unit game is repeatedly performed a plurality of times during the specific game state. In this case, every time a specific unit game is played, a display effect using one moving image is executed. Thereby, the player can grasp that the specific unit game is repeatedly performed by repeatedly executing the display effect.
この場合、同一の表示演出が実行されると、遊技者の表示演出への注目度が低下する。かといって、全く異なる表示演出を実行する構成とすると、データ量の増大化という不都合が生じ得る。 In this case, when the same display effect is executed, the player's attention to the display effect decreases. However, if the configuration is such that a completely different display effect is executed, there may be a disadvantage that the amount of data increases.
これに対して、本特徴によれば、特定単位遊技の実行回数に応じて所定の画像を異ならせることにより、特定単位遊技が繰り返し行われる特定遊技状態において1の動画像データを用いてバリエーションの異なる表示演出を実行することが可能となり、上記不都合を回避することができる。 On the other hand, according to this feature, by changing the predetermined image according to the number of executions of the specific unit game, the variation of the variation using the single moving image data in the specific game state in which the specific unit game is repeatedly performed. Different display effects can be executed, and the above inconvenience can be avoided.
上記特徴F群は以下の課題に対して効果的である。 The feature F group is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. These gaming machines include a control board on which an element such as a memory in which a CPU is mounted and a control program relating to the game is stored is mounted, and a series of games are controlled by the control board. A configuration is also known in which the CPU and the memory are not individually mounted on the control board, but are mounted on the control board in an integrated state.
上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。 Among the above gaming machines, those equipped with a display device having a display unit, such as a liquid crystal display device, are known. Such a gaming machine is equipped with an image data memory in which image data is stored in advance, and a predetermined image is displayed on the display unit using the image data read from the memory.
また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。 A configuration including moving image data as image data is also known. Since the amount of moving image data is larger than that of still image data, it is stored in a compressed state in the image data memory. When playing back a moving image related to the compressed moving image data, the moving image data is expanded into a predetermined memory area by using a decoder to form a plurality of still image data, and the plurality of still image data is updated. It is necessary to use them in a predetermined order at each timing.
ここで、表示演出の多様化を図るべく、複数種類の動画を再生したい場合がある。この場合、動画像データを複数種類設け、当該複数種類の動画像データのうちいずれかをデコードして当該動画像データに係る動画を再生する構成が考えられる。しかしながら、かかる構成では、動画像データのデータ量の増大化が懸念される。 Here, there are cases where a plurality of types of moving images are desired to be reproduced in order to diversify display effects. In this case, a configuration is possible in which a plurality of types of moving image data are provided, and any one of the plurality of types of moving image data is decoded to reproduce a moving image related to the moving image data. However, with such a configuration, there is a concern about an increase in the amount of moving image data.
<特徴G群>
特徴G1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
画像データを予め記憶した表示用記憶手段(メモリモジュール133)と、
当該表示用記憶手段に記憶されている画像データを用いて前記表示部に画像を表示させる表示制御手段(表示CPU131、VDP135)と、
を備えている遊技機において、
前記表示用記憶手段は、動画像を再生させるために用いられる圧縮された動画像データを記憶しており、
前記表示制御手段は、
いずれかの動画像データを展開用領域に展開して、その動画像データに対応した画像について複数の更新タイミング分の静止画像データを作成する展開手段(動画デコーダ)と、
当該展開手段により展開された複数の更新タイミング分の静止画像データを、その動画像データにおいて定められている順番で用いることにより、その動画像データに対応した画像の動画を前記複数の更新タイミング分の表示期間に亘って表示させる動画像表示実行手段(VDP135における動画像用の設定処理を実行する機能)と、
を備え、
前記動画像データは、当該動画像データにより表示される動画の態様に応じて、複数の単位動画像データに分割されており、
前記動画像表示実行手段は、前記各単位動画像データによる動画を、予め定められた順序で順次表示することにより、一連の動画を表示させるものであり、
前記各単位動画像データは、当該各単位動画像データにより表示される各動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なるようにして圧縮されていることを特徴とする遊技機。
<Feature G group>
Feature G1. Display means (symbol display device 31) having a display unit (display surface G);
Display storage means (memory module 133) for storing image data in advance;
Display control means (
In gaming machines equipped with
The display storage means stores compressed moving image data used for reproducing a moving image,
The display control means includes
Development means (moving picture decoder) for developing any moving image data in a development area and creating still image data for a plurality of update timings for an image corresponding to the moving image data;
By using still image data for a plurality of update timings developed by the development means in the order determined in the moving image data, a moving image of the image corresponding to the moving image data is provided for the plurality of update timings. Moving image display executing means (function for executing moving image setting processing in the VDP 135) for displaying over a display period of
With
The moving image data is divided into a plurality of unit moving image data according to the mode of the moving image displayed by the moving image data,
The moving image display execution means displays a series of moving images by sequentially displaying moving images based on the unit moving image data in a predetermined order.
Each unit moving image data is compressed so that the amount of data allocated to each unit moving image data differs depending on the mode of each moving image displayed by each unit moving image data. To play.
特徴G1によれば、単一の動画像データを用いるのではなく、各単位動画像データを順次用いることにより一連の動画表示が行われる。これにより、例えば、上記一連の動画表示の開始時に1の単位動画像データに対して展開用の処理を実行し、その後、他の単位動画像データに対して展開用の処理を実行することが可能となる。この場合、両単位動画像データ分の展開がまとめて行われる構成に比べ、上記一連の動画表示を開始させる際の処理負荷の局所的な増大化を抑制することができる。 According to the feature G1, a series of moving image display is performed by sequentially using each unit moving image data instead of using a single moving image data. Thereby, for example, the development process is executed for one unit moving image data at the start of the series of moving image display, and then the development process is executed for other unit moving image data. It becomes possible. In this case, it is possible to suppress a local increase in processing load when starting the series of moving image display, compared to a configuration in which development for both unit moving image data is performed together.
かかる構成において、各単位動画像データにより表示される動画の態様に応じて、当該各単位動画像データに割り当てられるデータ量が異なる。これにより、動画の態様に応じて画質を調整することができるため、効率的な画質の調整を行うことができる。 In such a configuration, the amount of data allocated to each unit moving image data varies depending on the mode of the moving image displayed by each unit moving image data. Thereby, since the image quality can be adjusted according to the mode of the moving image, the image quality can be adjusted efficiently.
特徴G2.前記表示期間には、前記動画の態様が異なる第1区間及び第2区間が含まれており、
前記単位動画像データには、
前記第1区間に対応した第1単位動画像データ(第1ラウンド動画像データRMD0a)と、
前記第2区間に対応した第2単位動画像データ(第2ラウンド動画像データRMD0b)と、
が設けられており、
前記第1単位動画像データと前記第2単位動画像データとで、単位期間当たりにおける画像表示を行うためのデータ量が異なるよう設定されていることを特徴とする特徴G1に記載の遊技機。
Feature G2. The display period includes a first section and a second section having different modes of the moving image,
In the unit moving image data,
First unit moving image data (first round moving image data RMD0a) corresponding to the first section;
Second unit moving image data (second round moving image data RMD0b) corresponding to the second section;
Is provided,
The gaming machine according to Feature G1, wherein the first unit moving image data and the second unit moving image data are set to have different data amounts for displaying an image per unit period.
特徴G2によれば、各単位動画像データの単位期間当たりにおける画像表示を行うためのデータ量を異ならせることにより、各単位動画像データにより表示される動画の画質の低下を抑制しつつ、動画像データ全体のデータ量の削減を図ることができる。 According to the feature G2, the amount of data for performing image display per unit period of each unit moving image data is varied, thereby suppressing the deterioration of the image quality of the moving image displayed by each unit moving image data. The data amount of the entire image data can be reduced.
特徴G3.前記第1区間及び前記第2区間は、各更新タイミング間における画像の変化量が相対的に大小となる大変化区間及び小変化区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2に記載の遊技機。
Feature G3. The first section and the second section are a large change section and a small change section in which an image change amount between update timings is relatively large and small,
The gaming machine according to Feature G2, wherein the first unit moving image data has a larger amount of data for displaying an image per unit period than the second unit moving image data.
特徴G3によれば、画像の変化量が比較的大きい大変化区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。 According to the feature G3, since the first unit moving image data corresponding to the large change section in which the change amount of the image is relatively large is allocated a relatively large amount of data, block noise, mosquito noise, etc. are generated. Hard to do.
一方、画像の変化量が比較的小さい小変化区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。 On the other hand, since the second unit moving image data corresponding to the small change section in which the image change amount is relatively small is assigned a relatively small data amount, the data amount of the second unit moving image data can be reduced. Can be planned.
特徴G4.前記第1区間及び前記第2区間は、静止画像データに係る画像の精細さが相対的に高低となる高精細区間及び低精細区間であり、
前記第1単位動画像データは、前記第2単位動画像データよりも、単位期間当たりにおける画像表示を行うためのデータ量が多く設定されていることを特徴とする特徴G2又は特徴G3に記載の遊技機。
Feature G4. The first section and the second section are a high-definition section and a low-definition section in which the definition of an image related to still image data is relatively high and low,
The feature unit G2 or feature feature G3 is characterized in that the first unit moving image data has a larger amount of data for displaying an image per unit period than the second unit moving image data. Gaming machine.
特徴G4によれば、画像の精細さが比較的高い高精細区間に対応した第1単位動画像データについては、比較的大きいデータ量が割り当てられることとなるため、ブロックノイズやモスキートノイズ等が発生しにくい。 According to the feature G4, since a relatively large amount of data is allocated to the first unit moving image data corresponding to a high-definition section having a relatively high image definition, block noise, mosquito noise, etc. are generated. Hard to do.
一方、画像の細かさが比較的低い低精細区間に対応した第2単位動画像データについては、比較的小さいデータ量が割り当てられることとなるため、第2単位動画像データのデータ量の削減を図ることができる。 On the other hand, a relatively small amount of data is assigned to the second unit moving image data corresponding to the low-definition section having a relatively low image detail, so that the data amount of the second unit moving image data can be reduced. Can be planned.
特徴G5.前記更新タイミングの間隔は、各区間に関わらず同一に設定されていることを特徴とする特徴G2乃至G4のいずれか1に記載の遊技機。 Feature G5. The gaming machine according to any one of features G2 to G4, wherein the interval of the update timing is set to be the same regardless of each section.
特徴G5によれば、更新タイミングの間隔は各区間に関わらず同一に設定されているため、各区間に応じて更新タイミングの間隔の変更を行う構成と比較して、当該変更に係る処理分だけ、動画の表示に係る処理負荷の軽減を図ることができるとともに、その変更に係る処理を実行するプログラム分だけプログラム容量の削減を図ることができる。 According to the feature G5, the update timing interval is set to be the same regardless of each section. Therefore, compared to the configuration in which the update timing interval is changed according to each section, only the processing related to the change is performed. In addition, it is possible to reduce the processing load related to the moving image display, and it is possible to reduce the program capacity by the amount of the program that executes the processing related to the change.
また、この場合であっても、単位期間当たりにおける画像表示を行うためのデータ量を調整することにより、画質の低下を抑制しつつ、動画像データ全体のデータ量を所定量に圧縮することができる。 Even in this case, by adjusting the data amount for performing image display per unit period, it is possible to compress the data amount of the entire moving image data to a predetermined amount while suppressing deterioration in image quality. it can.
特徴G6.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記表示制御手段は、
前記所定画像データを用いて前記表示部に前記所定の画像を表示させる所定画像表示実行手段(表示CPU131のステップS3510〜ステップS3516の処理を実行する機能、VDP135のステップS3704〜ステップS3707、ステップS3804〜ステップS3807の処理を実行する機能)を備え、前記動画像表示実行手段及び前記所定画像表示実行手段の双方を同時に実行することにより、前記動画と前記所定の画像とを同時に表示させることが可能であることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Feature G6. The display storage means stores predetermined image data (inserted image data IPD0) corresponding to a predetermined image,
The display control means includes
Predetermined image display execution means for displaying the predetermined image on the display unit using the predetermined image data (a function of executing the processing of steps S3510 to S3516 of the
特徴G6によれば、動画と所定の画像とを組み合わせることにより、画像の表示態様の多様化を図ることができる。 According to the feature G6, it is possible to diversify the display mode of the image by combining the moving image and the predetermined image.
この場合、動画像及び所定の画像を同時に表示させるために、動画像表示及び所定の画像表示双方の表示制御に係る処理を実行する必要がある。このため、処理負荷の増大化が懸念される。 In this case, in order to display the moving image and the predetermined image at the same time, it is necessary to execute processing related to display control of both the moving image display and the predetermined image display. For this reason, there is a concern about an increase in processing load.
これに対して、特徴G5との関係によれば、更新タイミングの間隔の変更に係る処理負荷の分だけ、動画の表示中の処理負荷を軽減することができる。これにより、動画像及び所定の画像双方を同時に表示させる場合に処理落ちすることを抑制することができる。 On the other hand, according to the relationship with the feature G5, the processing load during the display of the moving image can be reduced by the processing load related to the change of the update timing interval. Thereby, it is possible to prevent the processing from being lost when both the moving image and the predetermined image are displayed simultaneously.
特徴G7.前記表示用記憶手段には、所定の画像に対応した所定画像データ(挿入画像データIPD0)が記憶されており、
前記動画像表示実行手段は、前記複数の単位動画像データのうち所定の単位動画像データによる動画を表示させた場合には、当該所定の単位動画像データによる動画表示から所定の期間が経過したことに基づいてその後の単位動画像データによる動画を表示させるものであり、
前記表示制御手段は、
前記所定の期間に亘って前記所定画像データを用いて前記表示部に前記所定の画像を表示させる手段(表示CPU131におけるステップS3912〜ステップS3915の処理を実行する機能)を備えていることを特徴とする特徴G1乃至G5のいずれか1に記載の遊技機。
Feature G7. The display storage means stores predetermined image data (inserted image data IPD0) corresponding to a predetermined image,
When the moving image display executing means displays a moving image based on predetermined unit moving image data among the plurality of unit moving image data, a predetermined period has elapsed since the moving image display based on the predetermined unit moving image data. Based on that, it will display a video with the subsequent unit video data,
The display control means includes
It has a means (function to perform processing of Step S3912-Step S3915 in display CPU131) to display the predetermined picture on the display part using the predetermined picture data over the predetermined period. The gaming machine according to any one of features G1 to G5.
特徴G7によれば、所定の単位動画像データによる動画表示とその後の単位動画像データによる動画表示との間に設けられた所定の期間に亘って所定の画像が表示される。これにより、所定の画像を介して、分割した両単位動画像データに係る動画表示が連続して表示されることとなり、遊技者に一連の動画として認識させることができる。 According to the characteristic G7, a predetermined image is displayed over a predetermined period provided between the moving image display by the predetermined unit moving image data and the moving image display by the subsequent unit moving image data. Thus, the moving image display related to the divided unit moving image data is continuously displayed via a predetermined image, and the player can be recognized as a series of moving images.
また、かかる構成によれば、動画表示に係る処理と、所定の画像表示に係る処理とを同時に行う必要がない。これにより、画像表示に係る処理負荷の軽減を図ることができる。 Further, according to such a configuration, it is not necessary to simultaneously perform the process related to the moving image display and the process related to the predetermined image display. Thereby, it is possible to reduce the processing load related to image display.
上記特徴G群は以下の課題に対して効果的である。 The feature group G is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機は、CPUが実装されているとともに遊技に係る制御プログラムが記憶されたメモリ等の素子が実装された制御基板を備えており、その制御基板によって一連の遊技が制御されている。なお、CPUやメモリが個別に制御基板に実装されているのではなく、それらが集積化された状態で制御基板に実装された構成も知られている。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. These gaming machines include a control board on which an element such as a memory in which a CPU is mounted and a control program relating to the game is stored is mounted, and a series of games are controlled by the control board. A configuration is also known in which the CPU and the memory are not individually mounted on the control board, but are mounted on the control board in an integrated state.
上記遊技機においては、例えば液晶表示装置といったように、表示部を有する表示装置が搭載されたものが知られている。かかる遊技機では、画像データが予め記憶された画像データ用のメモリが搭載されており、当該メモリから読み出された画像データを用いて表示部にて所定の画像が表示されることとなる。 Among the above gaming machines, those equipped with a display device having a display unit, such as a liquid crystal display device, are known. Such a gaming machine is equipped with an image data memory in which image data is stored in advance, and a predetermined image is displayed on the display unit using the image data read from the memory.
また、画像データとして、動画像データを備えている構成も知られている。動画像データのデータ量は静止画像データに比べて大きいため、画像データ用のメモリには圧縮された状態で記憶されている。当該圧縮された動画像データに係る動画を再生する場合には、デコーダを用いて所定のメモリ領域に動画像データを展開して複数の静止画像データとし、それら複数の静止画像データを画像の更新タイミングとなる度に予め定められた順番で用いる必要がある。 A configuration including moving image data as image data is also known. Since the amount of moving image data is larger than that of still image data, it is stored in a compressed state in the image data memory. When playing back a moving image related to the compressed moving image data, the moving image data is expanded into a predetermined memory area by using a decoder to form a plurality of still image data, and the plurality of still image data is updated. It is necessary to use them in a predetermined order at each timing.
ここで、画像データ用のメモリの記憶容量と他の画像データとの関係から、動画像データのデータ量を、予め定められた設定量となるように圧縮する必要が生じる場合がある。この場合、動画像データの圧縮態様によっては、動画像データを用いた動画の画質が低下し、当該動画への注目度が低下するという不都合が生じ得る。 Here, it may be necessary to compress the data amount of the moving image data so as to be a predetermined set amount from the relationship between the storage capacity of the image data memory and other image data. In this case, depending on the compression mode of the moving image data, there may be a disadvantage that the image quality of the moving image using the moving image data is deteriorated and the degree of attention to the moving image is decreased.
<特徴H群>
特徴H1.オブジェクトの画像データ及び当該オブジェクトに貼り付けられるテクスチャの画像データを含む各種画像データが記憶された画像データ記憶手段(メモリモジュール133)と、仮想3次元空間内に前記オブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、前記オブジェクトに対して前記テクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記テクスチャが貼り付けられたオブジェクトを投影し、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)と、を有するデータ生成手段(表示CPU131及びVDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記オブジェクトには、変形対象として設定された変形対象オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記データ生成手段は、当該変形対象オブジェクトを変形させることにより、前記画像の少なくとも一部を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)を備えていることを特徴とする遊技機。
<Characteristic H group>
Feature H1. Image data storage means (memory module 133) storing various image data including image data of the object and texture image data to be pasted on the object, and arrangement means (VDP135) for arranging the object in the virtual three-dimensional space In step S4602, the function of executing steps S4609 and S4610) and viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135). An execution function), pasting means for pasting the texture to the object (a function for executing color information setting processing in the VDP 135), and the texture is pasted on a projection plane set based on the viewpoint Project the object Data generation means having drawing setting means (function of creating a drawing list in the
Display control means (
In gaming machines equipped with
The object includes a deformation target object (a refraction object OB10) set as a deformation target,
The data generating means is a distortion forming means for deforming at least a part of the image by deforming the object to be deformed (a function for executing distortion effect calculation processing in the
特徴H1によれば、変形対象オブジェクトを変形させることにより、表示部に表示される画像の少なくとも一部を歪ませることができる。これにより、画像を歪ませるために専用のテクスチャを用意する必要がない。よって、データ量の増大化を抑制しつつ、画像の歪みを比較的容易に表現することができる。 According to the feature H1, at least a part of the image displayed on the display unit can be distorted by deforming the deformation target object. This eliminates the need to prepare a dedicated texture for distorting the image. Therefore, image distortion can be expressed relatively easily while suppressing an increase in the amount of data.
特徴H2.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴H1に記載の遊技機。 Feature H2. The distortion forming means is characterized in that the deformation target object is deformed by individually updating at least some of the coordinates of each vertex constituting the deformation target object. Gaming machine.
特徴H2によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像が歪んだように視認させることができる。 According to the feature H2, by updating the coordinates of at least some of the vertices constituting the deformation target object, the individual image based on the deformation target object can be visually recognized as distorted.
なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記歪み形成手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 "Coordinate mapping data for specifying coordinates at each vertex constituting the object to be deformed is provided, and the coordinate mapping data is set in a plurality of types with different designated coordinates. The strain forming means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referred to every time when a predetermined update timing is reached. It is good to say that it is deformed so as to fluctuate. According to such a configuration, when the fluctuation of the image can be expressed and the coordinates of each vertex of the object to be deformed are individually set as compared with the configuration in which the calculation formula of each coordinate is given and calculated from the calculation formula Can reduce the processing load required.
特徴H3.前記歪み形成手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴H2に記載の遊技機。 Feature H3. The distortion forming means does not change the coordinates of the vertices of the individual image based on the deformation target object among the vertices constituting the deformation target object, according to the feature H2. Gaming machine.
特徴H3によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、画像の一部を歪ませることができる。 According to the feature H3, since the coordinates of the vertices related to the outer edge of the individual image based on the deformation target object are not changed, the boundary between the individual image based on the deformation object and the surrounding image is not noticeable. Thereby, it is possible to distort a part of the image while making both familiar.
特徴H4.前記変形対象オブジェクトは、歪みの対象となる画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴H1乃至H3のいずれか1に記載の遊技機。 Feature H4. The gaming machine according to any one of features H1 to H3, wherein the deformation target object is a plate-like object having a plane set corresponding to an image to be distorted.
特徴H4によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、歪ませるための処理負荷の軽減を図ることができる。 According to the feature H4, the deformation target object can be easily deformed by using a relatively simple plate-like object as the deformation target object. Thereby, the processing load for distorting can be reduced.
特徴H5.前記歪み形成手段は、所定の画像を表示させるための所定のオブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記所定の画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴H1乃至H4のいずれか1に記載の遊技機。 Feature H5. The distortion forming unit arranges the deformation target object closer to the viewpoint than a predetermined object for displaying a predetermined image, and outputs image data corresponding to the predetermined image to the deformation target object. The gaming machine according to any one of features H1 to H4, wherein the gaming machine is pasted as
特徴H5によれば、変形対象オブジェクトを変形させることにより所定の画像が歪むこととなる。これにより、歪ませる場合と歪ませない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。 According to the feature H5, the predetermined image is distorted by deforming the deformation target object. Thereby, it is possible to make the processing common in that the processing for a predetermined object does not need to be different depending on whether the distortion is made or not.
また、歪ませる場合と歪ませない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、歪ませる場合と歪ませない場合との切換を比較的容易に行うことができる。 In addition, since it is possible to cope with the case where the object is distorted and the case where the object is not distorted, it is possible to switch between the case where the object is distorted and the case where the object is not distorted relatively easily. .
特徴H6.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記所定のオブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記所定のオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記所定の画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記所定の画像に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記歪み形成手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像を歪ませるものであることを特徴とする特徴H5に記載の遊技機。
Feature H6. The arrangement means includes means for arranging the predetermined object among a plurality of objects set as display targets (function to execute the process of step S4602 in the VDP 135),
The drawing setting means projects the predetermined object, and generates predetermined generation data corresponding to an image including the predetermined image based on the data projected on the projection plane (the process of step S4608 in the VDP 135) Function to execute)
The data generation unit generates a texture to be pasted on the object to be deformed by extracting image data corresponding to the predetermined image included in the predetermined generation data (steps S4801 and S4802 in the VDP 135). Function to execute the process of)
The distortion forming unit arranges at least the deformation target object in the virtual three-dimensional space, pastes the texture generated by the texture generation unit on the deformation target object, and further projects the deformation target object. Accordingly, the gaming machine according to Feature H5, wherein the predetermined image is distorted.
特徴H6によれば、所定のオブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、所定の画像を歪ませることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature H6, predetermined generation data is generated by performing a first projection on a predetermined object, and a texture to be pasted on the deformation target object is generated using the predetermined generation data. A predetermined image can be distorted by performing the second projection on the deformation target object to which the texture is pasted. As a result, the amount of data can be reduced in that it is not necessary to previously store the texture to be pasted on the deformation target object.
また、変形対象オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 In addition, since the texture to be pasted to the deformation target object is generated by projecting a predetermined object, an image related to the texture is actually displayed using the predetermined object. It can resemble a predetermined image. Thereby, the image based on the object to be deformed and the surrounding image can be made familiar.
特徴H7.前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴H6に記載の遊技機。
Feature H7. The predetermined image is configured to be able to be updated every time the update timing is reached,
The predetermined generation data is generated every time the update timing is reached,
The texture generation unit generates a texture to be pasted to the deformation target object using the predetermined generation data generated at the update timing every time the update timing is reached. A gaming machine according to H6.
特徴H7によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、所定の画像が更新された場合であっても、当該更新された所定の画像を歪ませることができる。 According to the feature H7, predetermined generation data is generated every time the update timing comes, and a texture to be pasted on the deformation target object is generated. Thereby, even if the predetermined image is updated, the updated predetermined image can be distorted.
なお、「前記所定の画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記所定のオブジェクトが配置される座標を更新することにより、前記所定の画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。 A specific configuration of “the predetermined image is configured to be able to be updated every time the update timing is reached” is, for example, “the placement unit is configured to execute the predetermined object every time the update timing is reached”. The configuration in which the predetermined image is scrolled in a predetermined direction by updating the coordinates at which the image is arranged ”, the configuration of“ moving the viewpoint in a predetermined direction every time the update timing is reached ”, and the like Conceivable.
特徴H8.前記歪み形成手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記所定の画像が歪んだ歪み画像に対応した歪み生成データ(演出及び図柄用の描画データ)を作成するものであり、
前記データ生成手段は、前記所定生成データと前記歪み生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴H6又は特徴H7に記載の遊技機。
Feature H8. The distortion forming unit arranges the deformation target object in the virtual three-dimensional space, pastes a corresponding texture on the deformation target object, and projects the deformation target object to thereby generate the predetermined image. Is used to create distortion generation data (drawing data for effects and symbols) corresponding to a distorted distortion image,
The data generation means includes synthesis means for generating one generation data by synthesizing the predetermined generation data and the distortion generation data (function to execute the process of step S4617 in the VDP 135). The gaming machine according to Feature H6 or Feature H7.
特徴H8によれば、所定の画像に係る所定生成データを生成する処理と、歪み生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。 According to the feature H8, the process of generating the predetermined generation data relating to the predetermined image and the process of generating the distortion generation data are divided, and the generation data of one is generated by synthesizing both. The process of generating the texture to be pasted on the deformation target object can be used as the process of generating one generation data. Thereby, the processing load can be reduced.
また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。 Further, according to the above feature, it is possible to reduce the number of objects arranged in duplicate in the two projections. As a result, it is possible to reduce processing load caused by overlapping arrangement, overlapping projection, and the like.
特徴H9.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴H1乃至H8のいずれか1に記載の遊技機。
Feature H9. The data generation means generates the generation data based on applying various parameter information that determines the display mode of an image by the object to the object,
In the various parameter information, individual reflection value information (individual α) that determines the degree to which the color information of the texture pasted on the object on the display unit is reflected for each predetermined unit area (pixel). Value)
The distortion forming means adjusts the individual reflection value information applied to the deformation target object so that the color information related to the individual image based on the deformation target object is less likely to be reflected toward the outer edge of the individual image. The gaming machine according to any one of features H1 to H8, characterized in that:
特徴H9によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、歪んだ画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。 According to the feature H9, the color information related to the individual image is less likely to be reflected toward the outer edge of the individual image based on the deformation target object. Thereby, an image familiar with other regions is displayed on the outer edge side of the individual image based on the deformation target object. Therefore, the boundary between the region where the distorted image is displayed and the other region can be made inconspicuous.
特徴H10.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記歪み形成手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴H1乃至H9のいずれか1に記載の遊技機。
Feature H10. The data generation means generates the generation data based on applying various parameter information that determines the display mode of an image by the object to the object,
The various parameter information includes reflection value information (a uniform α value) that determines the degree to which the color information of the texture pasted on the object is reflected on the display unit,
The distortion forming means adjusts the reflection value information applied to the deformation target object in a stepwise manner so as not to gradually reflect the color information related to the individual image based on the deformation target object ( The gaming machine according to any one of features H1 to H9, wherein the
特徴H10によれば、歪みを表現していた画像は徐々に消えていくため、歪みが消えていく過程が目立ちにくい。これにより、歪みが消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature H10, since the image expressing the distortion gradually disappears, the process of the distortion disappearing is not noticeable. Thereby, when the distortion disappears, it is possible to reduce a sense of discomfort given to the player.
特徴H11.前記歪ませる対象となる画像は、前記表示部全体に表示される背景画像の一部であることを特徴とする特徴H1乃至H10のいずれか1に記載の遊技機。 Feature H11. The gaming machine according to any one of features H1 to H10, wherein the image to be distorted is a part of a background image displayed on the entire display unit.
背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を歪ませるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the data amount of the image data tends to be larger than that of the individual image displayed on a part of the display unit. For this reason, if a plurality of types of background image data are prepared in order to distort a part of the background image, the amount of data tends to increase.
これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を歪ませることができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, since a part of the background image can be distorted without preparing a plurality of types of background image data, the amount of data can be suitably reduced.
上記特徴H群は以下の課題に対して効果的である。 The feature H group is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the polygon. Generated data is generated by projecting a texture-attached polygon onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the generated data.
ここで、遊技への注目度を高めるために、表示部に表示される画像をよりリアルに表現する演出が行われる場合がある。当該演出としては、例えば光の屈折に基づく空間の歪みを表現する演出がある。この場合、例えば光の屈折の反映度を演算により導出させる構成とすると、処理負荷の増大化が懸念される。一方、光の屈折を反映した画像データを予め記憶しておく構成とすると、データ量の増大化が懸念される。 Here, in order to increase the degree of attention to the game, there is a case where an effect of more realistically expressing the image displayed on the display unit is performed. As the said effect, there exists an effect which expresses distortion of the space based on refraction of light, for example. In this case, for example, if the reflection degree of light refraction is derived by calculation, there is a concern about an increase in processing load. On the other hand, if image data reflecting light refraction is stored in advance, there is a concern that the amount of data increases.
<特徴I群>
特徴I1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、複数種類の画像データを用いて所定の第1生成データ(背景用の描画データ)を生成し、少なくとも前記第1生成データを利用して前記第1生成データとは異なる第2生成データ(演出及び図柄用の描画データ、又は1の描画データ)を生成するものであり、
前記表示制御手段は、少なくとも前記第2生成データを用いて前記表示部に画像を表示させることを特徴とする遊技機。
<Feature I group>
Feature I1. Display means (symbol display device 31) having a display unit (display surface G);
An image is displayed on the display unit using generated data (drawing data) generated by data generation means (a function of creating a drawing list in the
In gaming machines equipped with
The data generation means generates predetermined first generation data (background drawing data) using a plurality of types of image data, and uses at least the first generation data to be different from the first generation data. 2 generation data (production and design drawing data, or 1 drawing data),
The display control means displays an image on the display unit using at least the second generation data.
特徴I1によれば、第1生成データが生成され、当該生成された第1生成データを用いて第2生成データが生成される。これにより、第2生成データを用いた画像表示を行うことにより、第1生成データに係る画像を用いた画像を表示させることができる。よって、表示演出の多様化を図ることができるとともに、第1生成データを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature I1, first generation data is generated, and second generation data is generated using the generated first generation data. As a result, by performing image display using the second generation data, it is possible to display an image using the image related to the first generation data. Therefore, the display effects can be diversified, and the data amount can be reduced in that the first generation data need not be stored in advance.
特徴I2.前記データ生成手段は、前記第1生成データの少なくとも一部を加工し、当該加工されたデータを用いて前記第2生成データを生成するものであることを特徴とする特徴I1に記載の遊技機。 Feature I2. The gaming machine according to claim I1, wherein the data generation means processes at least a part of the first generation data and generates the second generation data using the processed data. .
特徴I2によれば、第1生成データの少なくとも一部が加工されて第2生成データが生成される。これにより、第1生成データをそのまま用いる構成と比較して、表示される画像のバリエーションの多様化を図ることができる。 According to the feature I2, at least a part of the first generation data is processed to generate second generation data. Thereby, compared with the structure which uses 1st production | generation data as it is, the variation of the image displayed can be diversified.
特徴I3.前記データ生成手段は、予め定められた対象画像が複数の更新タイミングに亘って移り変わる表示演出が行われるように、前記対象画像に係る前記第1生成データを生成し、当該第1生成データの少なくとも一部を加工して前記対象画像の移り変わりに対応した前記第2生成データを生成可能であることを特徴とする特徴I2に記載の遊技機。 Feature I3. The data generation means generates the first generation data related to the target image so that a predetermined presentation image is changed over a plurality of update timings, and at least the first generation data is generated. The gaming machine according to the characteristic I2, wherein the second generation data corresponding to the transition of the target image can be generated by processing a part thereof.
特徴I3によれば、第1生成データ及び第2生成データを用いることにより複数の更新タイミングに亘って対象画像が移り変わる表示演出を実行することができる。これにより、表示演出の多様化を図ることができるとともに、上記移り変わりに対応した画像データを更新タイミング毎に用意しなくてよい点でデータ量の削減を図ることができる。 According to the feature I3, it is possible to execute a display effect in which the target image changes over a plurality of update timings by using the first generation data and the second generation data. As a result, the display effects can be diversified, and the amount of data can be reduced in that the image data corresponding to the transition need not be prepared at each update timing.
特徴I4.前記データ生成手段は、前記第1生成データと前記第2生成データとを合成することにより、1の更新タイミングに対応する前記生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴I1又は特徴I2に記載の遊技機。 Feature I4. The data generating means combines the first generated data and the second generated data to generate the generated data corresponding to one update timing (function to execute the process of step S4617 in the VDP 135). The gaming machine according to Feature I1 or Feature I2, characterized by comprising:
特徴I4によれば、第1生成データと第2生成データとを合成することにより1の更新タイミングに対応する生成データが生成されるため、第2生成データで用いられる第1生成データを生成するための処理を、上記生成データを生成するための処理に流用することができる。これにより、1の更新タイミングにて、第1生成データを生成しつつ上記生成データを生成する場合の処理負荷の軽減を図ることができる。 According to the feature I4, the first generation data used for the second generation data is generated because the generation data corresponding to the update timing of 1 is generated by combining the first generation data and the second generation data. Therefore, the processing for generating the generated data can be used for the processing for generating the generated data. Thereby, it is possible to reduce the processing load when generating the generated data while generating the first generated data at one update timing.
特徴I5.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135における各種描画データ生成処理を実行する機能)と、
を備え、
前記オブジェクトには、前記第2生成データを生成する場合に用いられる特定オブジェクト(屈折用オブジェクトOB10)が含まれており、
前記第2生成データは、少なくとも前記特定オブジェクトが配置され、当該特定オブジェクトが投影されることにより生成されるものであり、
前記貼付手段は、前記第2生成データを生成する場合には、前記特定オブジェクト(屈折用オブジェクトOB10)に貼り付けられるテクスチャとして、前記第1生成データの少なくとも一部を用いることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I5. The data generation means includes
Arranging means for arranging an object in the virtual three-dimensional space (a function for executing the processing of step S4602, step S4609, and step S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
Pasting means for pasting a texture to the object (function for executing color information setting processing in the VDP 135);
A drawing setting unit that projects the object onto a projection plane set based on the viewpoint and generates the generation data based on data projected on the projection plane (function for executing various drawing data generation processes in the VDP 135) )When,
With
The object includes a specific object (refractive object OB10) used when generating the second generation data.
The second generation data is generated by arranging at least the specific object and projecting the specific object,
The pasting means uses at least a part of the first generation data as a texture to be pasted to the specific object (refractive object OB10) when generating the second generation data. The gaming machine according to any one of I1 to I4.
特徴I5によれば、特定オブジェクトに対して貼り付けられるテクスチャとして、第1生成データの少なくとも一部が用いられる。これにより、特定オブジェクトに貼り付けるテクスチャを予め記憶しておく必要がない点でデータ量の削減を図ることができる。 According to the feature I5, at least a part of the first generation data is used as the texture pasted on the specific object. As a result, the amount of data can be reduced in that it is not necessary to previously store the texture to be pasted on the specific object.
特徴I6.前記データ生成手段は、
仮想3次元空間内において表示対象となっている複数のオブジェクトのうち所定のオブジェクトを配置する第1配置手段(VDP135におけるステップS4602の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
少なくとも前記所定のオブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第1配置手段により配置された前記所定のオブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記第1生成データを生成する第1描画用設定手段(VDP135におけるステップS4608の処理を実行する機能)と、
前記第1生成データを用いて、予め定められた特定オブジェクト(屈折用オブジェクトOB10)に対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)と、
前記仮想3次元空間内において少なくとも前記特定オブジェクトを配置する第2配置手段(VDP135におけるステップS4609及びステップS4610の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に対して前記第2配置手段により配置されたオブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記第2生成データを生成する第2描画用設定手段(VDP135におけるステップS4616の処理を実行する機能)と、
を備え、
前記貼付手段は、前記特定オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付けるものであることを特徴とする特徴I1乃至I4のいずれか1に記載の遊技機。
Feature I6. The data generation means includes
First arrangement means (a function for executing the process of step S4602 in the VDP 135) for arranging a predetermined object among a plurality of objects to be displayed in the virtual three-dimensional space;
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
Pasting means (function for executing color information setting processing in the VDP 135) for pasting a texture on at least the predetermined object;
Projecting the predetermined object arranged by the first arrangement means onto a projection plane set based on the viewpoint, and generating the first generation data based on the data projected on the
Using the first generation data, texture generation means for generating a texture to be pasted to a predetermined specific object (refractive object OB10) (function to execute the processing of steps S4801 and S4802 in the VDP 135);
Second arrangement means (a function for executing the processes of steps S4609 and S4610 in the VDP 135) that arranges at least the specific object in the virtual three-dimensional space;
Projecting the object placed by the second placement means onto the projection plane set based on the viewpoint, and generating the second generation data based on the data projected on the projection plane Setting means (function to execute the process of step S4616 in the VDP 135);
With
The gaming machine according to any one of features I1 to I4, wherein the pasting unit pastes the texture generated by the texture generating unit to the specific object.
特徴I6によれば、所定のオブジェクトに対して1回目の投影を行うことにより第1生成データが生成され、当該第1生成データを用いて特定オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた特定オブジェクトに対して2回目の投影を行うことにより、第2生成データを生成することができる。これにより、特定オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature I6, the first generation data is generated by performing the first projection on the predetermined object, and the texture to be pasted on the specific object is generated using the first generation data. Then, the second generation data can be generated by performing the second projection on the specific object to which the texture is pasted. Thereby, the amount of data can be reduced in that it is not necessary to store in advance the texture to be pasted to the specific object.
また、特定オブジェクトに対して貼り付けられるテクスチャは、所定のオブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に所定のオブジェクトを用いて表示される所定の画像と似せることができる。これにより、所定オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 In addition, since the texture to be pasted to the specific object is generated by projecting the predetermined object, the image related to the texture is displayed using the predetermined object. You can resemble the image. Thereby, the image based on a predetermined object and the surrounding image can be made familiar.
さらに、第2生成データを生成するための処理と同様の処理で、特定オブジェクトに対して貼り付けるテクスチャを生成することができるため、処理の流用を図ることができる。 Furthermore, since the texture to be pasted to the specific object can be generated by the same process as the process for generating the second generation data, the process can be diverted.
特徴I7.前記特定オブジェクトは、変形対象として設定された変形対象オブジェクトであり、
前記配置手段は、変化対象として設定された変化対象画像を表示させるためのオブジェクトに対して前記視点側から重なるように前記変形対象オブジェクトを配置する手段(VDP135における屈折用オブジェクトOB10を配置する機能)を備え、
前記データ生成手段は、前記変形対象オブジェクトを変形させることにより前記変化対象画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させるための機能)を備えていることを特徴とする特徴I5又は特徴I6に記載の遊技機。
Feature I7. The specific object is a deformation target object set as a deformation target,
The arrangement means arranges the deformation target object so as to overlap the object for displaying the change target image set as the change target from the viewpoint side (function of arranging the refraction object OB10 in the VDP 135). With
The data generation unit includes a changing unit (a function for displaying the distorted images CP15 and CP16 in the
特徴I7によれば、変形対象オブジェクトに対して貼り付けるテクスチャを記憶させておくことなく変化対象画像を変化させることができる。 According to the feature I7, the change target image can be changed without storing the texture to be pasted on the deformation target object.
特徴I8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴I7に記載の遊技機。 Feature I8. The game according to claim I7, wherein the changing means is configured to deform the deformation target object by individually updating at least some of the coordinates of the vertices constituting the deformation target object. Machine.
特徴I8によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。 According to the feature I8, the individual image based on the deformation target object can be changed by updating the coordinates of at least some of the vertices constituting the deformation target object.
なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 "Coordinate mapping data for specifying coordinates at each vertex constituting the object to be deformed is provided, and the coordinate mapping data is set in a plurality of types with different designated coordinates. The changing means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referenced at each predetermined update timing so that the object to be deformed is updated. It is good to say that it will be deformed so as to fluctuate. According to such a configuration, when the fluctuation of the image can be expressed and the coordinates of each vertex of the object to be deformed are individually set as compared with the configuration in which the calculation formula of each coordinate is given and calculated from the calculation formula Can reduce the processing load required.
特徴I9.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴I8に記載の遊技機。 Feature I9. The game according to Feature I8, wherein the changing means does not change coordinates of the vertices of the individual image based on the deformation target object among the vertices constituting the deformation target object. Machine.
特徴I9によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変形オブジェクトに基づく個別画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象画像を変化させることができる。 According to the feature I9, since the coordinates of the vertices related to the outer edge of the individual image based on the deformation target object are not changed, the boundary between the individual image based on the deformation object and the surrounding image is hardly noticeable. Thereby, a change object image can be changed, adjusting both.
特徴I10.前記変形対象オブジェクトは、前記変化対象画像に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴I7乃至I9のいずれか1に記載の遊技機。 Feature I10. The gaming machine according to any one of features I7 to I9, wherein the deformation target object is a plate-like object having a plane set corresponding to the change target image.
特徴I10によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象画像を変化させるための処理負荷の軽減を図ることができる。 According to the feature I10, the deformation target object can be easily deformed by using a relatively simple plate-shaped object as the deformation target object. Thereby, the processing load for changing the change target image can be reduced.
特徴I11.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴I7乃至I10のいずれか1に記載の遊技機。
Feature I11. The changing means deforms the deformation target object, thereby distorting the change target image (a function for executing distortion effect calculation processing in the
特徴I11によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。 According to the feature I11, distortion of the image can be expressed by deforming the deformation target object.
特徴I12.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記個別反映値情報を調整することにより、前記変形対象オブジェクトに基づく個別画像に係る前記色情報が当該個別画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴I7乃至I11のいずれか1に記載の遊技機。
Feature I12. The data generation means generates the generation data based on applying various parameter information that determines the display mode of an image by the object to the object,
In the various parameter information, individual reflection value information (individual α) that determines the degree to which the color information of the texture pasted on the object on the display unit is reflected for each predetermined unit area (pixel). Value)
The changing means adjusts the individual reflection value information applied to the deformation target object, so that the color information related to the individual image based on the deformation target object is less likely to be reflected toward the outer edge of the individual image. The gaming machine according to any one of features I7 to I11, characterized in that:
特徴I12によれば、変形対象オブジェクトに基づく個別画像の外縁に向かうに従って当該個別画像に係る色情報が反映されにくくなっている。これにより、変形対象オブジェクトに基づく個別画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化した画像が表示される領域とその他の領域との境界を目立ちにくくすることができる。 According to the feature I12, the color information related to the individual image is less likely to be reflected toward the outer edge of the individual image based on the deformation target object. Thereby, an image familiar with other regions is displayed on the outer edge side of the individual image based on the deformation target object. Therefore, the boundary between the area where the changed image is displayed and the other area can be made inconspicuous.
特徴I13.前記データ生成手段は、前記オブジェクトに対して、当該オブジェクトによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記オブジェクトに対して貼り付けられた前記テクスチャの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記変形対象オブジェクトに適用される前記反映値情報を段階的に調整することにより、徐々に前記変形対象オブジェクトに基づく個別画像に係る前記色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴I7乃至I12のいずれか1に記載の遊技機。
Feature I13. The data generation means generates the generation data based on applying various parameter information that determines the display mode of an image by the object to the object,
The various parameter information includes reflection value information (a uniform α value) that determines the degree to which the color information of the texture pasted on the object is reflected on the display unit,
The changing means adjusts the reflection value information applied to the deformation target object in a stepwise manner so as not to gradually reflect the color information related to the individual image based on the deformation target object (display). The gaming machine according to any one of features I7 to I12, characterized in that the
特徴I13によれば、変形対象オブジェクトに基づく画像は徐々に消えていくため、当該画像が消えていく過程が目立ちにくい。これにより、変形対象オブジェクトに基づく画像が消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature I13, since the image based on the deformation target object gradually disappears, the process of the image disappearing is not noticeable. Thereby, when the image based on the deformation target object disappears, it is possible to reduce the uncomfortable feeling given to the player.
特徴I14.前記第1生成データは、前記表示部全体に表示される背景画像に係る画像データであることを特徴とする特徴I1乃至I13のいずれか1に記載の遊技機。 Feature I14. The gaming machine according to any one of features I1 to I13, wherein the first generation data is image data relating to a background image displayed on the entire display unit.
背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を加工するために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the data amount of the image data tends to be larger than that of the individual image displayed on a part of the display unit. For this reason, if a plurality of types of background image data are prepared for processing a part of the background image, the amount of data tends to increase.
これに対して、本特徴によれば、背景画像データを複数種類用意することなく、背景画像の一部を用いた演出を行うことができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, it is possible to produce an effect using a part of the background image without preparing a plurality of types of background image data, so that the data amount can be suitably reduced.
上記特徴I群は以下の課題に対して効果的である。 The feature group I is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case where the image is displayed using the two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been. Further, by reading out the image data, generation data for displaying a character or the like in front of the background is generated in a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which characters and the like are arranged in front of the background is displayed on the display unit.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the polygon. Generated data is generated by projecting a texture-attached polygon onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the generated data.
ここで、表示演出への注目度を高めるには、表示演出の多様化を図ることが考えられる。しかしながら、当該表示演出の多様化を図るために画像データを複数設ける構成とすると、データ量の増大化が懸念される。 Here, it is conceivable to diversify the display effects in order to increase the degree of attention to the display effects. However, if a plurality of image data are provided in order to diversify the display effects, there is a concern about an increase in the data amount.
<特徴J群>
特徴J1.表示部(表示面G)を有する表示手段(図柄表示装置31)と、
データ生成手段(表示CPU131における描画リストを作成する機能及びVDP135における描画処理を実行する機能)によって生成された生成データ(描画データ)を用いて前記表示部に画像を表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(表示CPU131及びVDP135)と、
を備えている遊技機において、
前記データ生成手段は、前記表示部に表示される特定個別画像(背景画像、キャラクタ画像CP22)の一部である変化対象部位(歪み領域PE1、重ね合わせ領域PE2)を、特定画像データを用いて変化させることにより前記特定個別画像を変化させる変化手段(表示CPU131及びVDP135において各歪み画像CP15,CP16を表示させる機能、及び各部分画像CP23〜CP25を表示させる機能)を備えていることを特徴とする遊技機。
<Feature J group>
Feature J1. Display means (symbol display device 31) having a display unit (display surface G);
An image is displayed on the display unit using generated data (drawing data) generated by data generation means (a function of creating a drawing list in the
In gaming machines equipped with
The data generation means uses the specific image data to indicate a change target portion (distortion region PE1, overlap region PE2) that is a part of the specific individual image (background image, character image CP22) displayed on the display unit. It is characterized by comprising changing means for changing the specific individual image by changing it (a function for displaying the respective distortion images CP15 and CP16 in the
特徴J1によれば、特定画像データを用いることにより変化対象画像を変化させることで特定個別画像を変化させることができる。これにより、表示演出の多様化を図ることができる。この場合、特定画像データは変化対象部位を変化させるためのものであるため、特定個別画像全体に対応する画像データと比較して、特定画像データに係るデータ量を小さくすることができる。よって、表示演出の多様化を図りつつ、当該多様化に伴うデータ量の増大化を抑制することができる。 According to the feature J1, the specific individual image can be changed by changing the change target image by using the specific image data. Thereby, diversification of display effects can be achieved. In this case, since the specific image data is for changing the change target part, the amount of data related to the specific image data can be reduced as compared with the image data corresponding to the entire specific individual image. Therefore, an increase in the amount of data associated with the diversification can be suppressed while diversifying display effects.
特徴J2.前記データ生成手段は、前記特定個別画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記変化手段は、前記変化対象部位において前記所定生成データに係る画像に代えて前記特定画像データに基づく画像が表示されるようにするものであることを特徴とする特徴J1に記載の遊技機。
Feature J2. The data generation means includes means for generating predetermined generation data corresponding to the specific individual image (function to execute the process of step S4608 in the VDP 135),
The game machine according to Feature J1, wherein the changing means is configured to display an image based on the specific image data instead of an image related to the predetermined generation data at the change target portion.
特徴J2によれば、変化対象部位において所定生成データに係る画像に代えて特定画像データに基づく画像が表示されることにより、特定個別画像が変化する。これにより、所定生成データに係る画像と特定画像データに係る画像とを組み合わせる構成と比較して、変化対象部位の変化を容易に行うことができる。 According to the feature J2, the specific individual image is changed by displaying an image based on the specific image data instead of the image related to the predetermined generation data in the change target portion. Thereby, compared with the structure which combines the image which concerns on predetermined production | generation data, and the image which concerns on specific image data, a change object site | part can be changed easily.
特徴J3.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616及びステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、前記変化対象部位に対応させて設定された特定テクスチャであり、
前記変化手段は、前記特定テクスチャを用いて前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Feature J3. The data generation means includes
Arranging means for arranging an object in the virtual three-dimensional space (a function for executing the processing of step S4602, step S4609, and step S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
A pasting means for pasting a texture to the object (function to execute the processes of steps S4607 and S4615 in the VDP 135);
Drawing setting means for projecting the object onto a projection plane set based on the viewpoint and generating the generation data based on data projected on the projection plane (in steps S4608, S4616, and S4617 in the VDP 135) Processing function), and
With
The object includes a specific object that is used to display the specific individual image and in which the change target part is set,
The specific image data is a specific texture set corresponding to the change target part,
The game machine according to Feature J1 or Feature J2, wherein the changing means changes an image displayed on the change target portion using the specific texture.
特徴J3によれば、特定テクスチャを用いて変化対象部位に表示される画像を変化させることができる。この場合、特定テクスチャは変化対象部位に対応させて設定されているため、特定オブジェクト全体に係るテクスチャを用意する構成と比較して、特定テクスチャのデータ量が小さくなり易い。これにより、データ量の削減を図ることができる。 According to the feature J3, the image displayed on the change target portion can be changed using the specific texture. In this case, since the specific texture is set corresponding to the change target part, the data amount of the specific texture is likely to be small as compared with the configuration in which the texture relating to the entire specific object is prepared. Thereby, the amount of data can be reduced.
特徴J4.前記オブジェクトには、前記変化対象部位に対応させて形成された板状オブジェクトが含まれており、
前記変化手段は、前記変化対象部位に対して前記板状オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記板状オブジェクトを配置し、前記板状オブジェクトに対して前記特定テクスチャを貼り付けることにより、前記変化対象部位の画像を前記特定テクスチャに対応した画像に変化させるものであることを特徴とする特徴J3に記載の遊技機。
Feature J4. The object includes a plate-like object formed corresponding to the change target part,
The changing unit arranges the specific object and the plate-like object so that the plate-like object overlaps the change target portion from the viewpoint side, and pastes the specific texture on the plate-like object. The game machine according to Feature J3, characterized in that the image of the change target part is changed to an image corresponding to the specific texture.
特徴J4によれば、板状オブジェクトは比較的頂点が少ないポリゴンであるため、板状オブジェクトの頂点数が特定オブジェクトにおける変化対象部位に対応する頂点数よりも少なくない易い。これにより、特定オブジェクトの変化対象部位に対して特定テクスチャを貼り付ける構成と比較して、特定テクスチャを貼り付ける処理負荷を軽減することができる。 According to the feature J4, since the plate-like object is a polygon with relatively few vertices, the number of vertices of the plate-like object is not likely to be less than the number of vertices corresponding to the change target part in the specific object. Thereby, compared with the structure which pastes a specific texture with respect to the change object part of a specific object, the processing load which pastes a specific texture can be reduced.
また、変化させる場合と変化させない場合とを、板状オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。 Moreover, since the case where it changes and the case where it does not change can respond according to whether a plate-shaped object is arrange | positioned, switching with the case where it changes and the case where it does not change can be performed comparatively easily.
特徴J5.前記特定テクスチャは複数種類用意されており、
前記変化手段は、予め定められた更新タイミングとなる度に、前記複数種類の特定テクスチャを予め定められた順序で用いることにより、前記変化対象部位において一連の動作が行われるようにするものであることを特徴とする特徴J4に記載の遊技機。
Feature J5. A plurality of the specific textures are prepared,
The changing means uses the plurality of types of specific textures in a predetermined order each time a predetermined update timing is reached, so that a series of operations are performed in the change target portion. A gaming machine according to Feature J4.
特徴J5によれば、用いる特定テクスチャが予め定められた順序で用いられることにより、変化対象部位にて一連の動作が行われる。この場合、1の特定テクスチャのデータ量は特定オブジェクト全体のテクスチャのデータ量よりも小さくなっているため、一連の動作に係るデータ量を大幅に小さくすることができる。これにより、少ないデータ量で上記一連の動作に係る画像の表示を行うことができる。 According to the feature J5, the specific texture to be used is used in a predetermined order, whereby a series of operations are performed at the change target portion. In this case, since the data amount of one specific texture is smaller than the texture data amount of the entire specific object, the data amount related to a series of operations can be greatly reduced. Thereby, it is possible to display an image related to the series of operations with a small amount of data.
特徴J6.前記データ生成手段は、
仮想3次元空間内にオブジェクトを配置する配置手段(VDP135におけるステップS4602、ステップS4609、ステップS4610の処理を実行する機能)と、
前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるカメラ座標系への変換処理及び視野座標系への変換処理を実行する機能)と、
前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135におけるステップS4607及びステップS4615の処理を実行する機能)と、
前記視点に基づいて設定される投影平面に前記オブジェクトを投影し、当該投影平面に投影されたデータに基づいて前記生成データを生成する描画用設定手段(VDP135におけるステップS4608、ステップS4616、ステップS4617の処理を実行する機能)と、
を備え、
前記オブジェクトには、前記特定個別画像を表示するのに用いられるものであって前記変化対象部位が設定された特定オブジェクトが含まれており、
前記特定画像データは、変形対象として設定された変形対象オブジェクトであり、
前記変化手段は、前記変化対象部位に対して前記変形対象オブジェクトが前記視点側から重なるように前記特定オブジェクト及び前記変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、前記変化対象部位に表示される画像を変化させるものであることを特徴とする特徴J1又は特徴J2に記載の遊技機。
Feature J6. The data generation means includes
Arranging means for arranging an object in the virtual three-dimensional space (a function for executing the processing of step S4602, step S4609, and step S4610 in the VDP 135);
Viewpoint setting means for setting a viewpoint in the virtual three-dimensional space (function of executing conversion processing to the camera coordinate system and conversion processing to the visual field coordinate system in the VDP 135);
A pasting means for pasting a texture to the object (function to execute the processes of steps S4607 and S4615 in the VDP 135);
Drawing setting means for projecting the object onto a projection plane set based on the viewpoint and generating the generated data based on data projected on the projection plane (in steps S4608, S4616, and S4617 in the VDP 135) Processing function), and
With
The object includes a specific object that is used to display the specific individual image and in which the change target part is set,
The specific image data is a deformation target object set as a deformation target,
The changing unit arranges the specific object and the deformation target object so that the deformation target object overlaps the change target part from the viewpoint side, and deforms the deformation target object, thereby changing the change target part. The game machine according to Feature J1 or Feature J2, wherein an image displayed on the screen is changed.
特徴J6によれば、変化対象部位と重なるように変形対象オブジェクトを配置し、当該変形対象オブジェクトを変形させることにより、変形対象オブジェクトに基づく個別画像が変化し、変化対象部位に表示される画像が変化することとなる。これにより、画像を変化させるための画像データとしてテクスチャを複数用意する必要がない点でデータ量の削減を図ることができる。 According to the feature J6, by arranging the deformation target object so as to overlap the change target part and deforming the deformation target object, the individual image based on the deformation target object is changed, and an image displayed on the change target part is displayed. Will change. Thereby, the amount of data can be reduced in that it is not necessary to prepare a plurality of textures as image data for changing an image.
特徴J7.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち少なくとも一部の座標を個別に更新することにより、前記変形対象オブジェクトを変形させるものであることを特徴とする特徴J6に記載の遊技機。 Feature J7. The game according to Feature J6, wherein the changing means changes the object to be deformed by individually updating at least some of the coordinates of each vertex constituting the object to be deformed. Machine.
特徴J7によれば、変形対象オブジェクトを構成する各頂点における少なくとも一部の頂点の座標が更新されることにより、変形対象オブジェクトに基づく個別画像を変化させることができる。 According to the feature J7, the individual image based on the deformation target object can be changed by updating the coordinates of at least some of the vertices constituting the deformation target object.
なお、「前記変形対象オブジェクトを構成する各頂点における座標を指定する座標マッピングデータが設けられており、当該座標マッピングデータは、それぞれ指定されている座標が異ならせて複数種類設定されており、前記変化手段は、前記座標マッピングデータを参照することにより、各頂点の座標を更新するとともに、予め定められた更新タイミングとなる度に前記参照する座標マッピングデータを更新することにより、前記変形対象オブジェクトが揺らぐように変形させるものである」とするとよい。かかる構成によれば、画像の揺らぎを表現することができるとともに、各座標の計算式を与え当該計算式から算出する構成と比較して、変形対象オブジェクトの各頂点の座標を個別に設定する場合に要する処理負荷を軽減することができる。 "Coordinate mapping data for specifying coordinates at each vertex constituting the object to be deformed is provided, and the coordinate mapping data is set in a plurality of types with different designated coordinates. The changing means updates the coordinates of each vertex by referring to the coordinate mapping data, and updates the coordinate mapping data to be referenced at each predetermined update timing so that the object to be deformed is updated. It is good to say that it will be deformed so as to fluctuate. According to such a configuration, when the fluctuation of the image can be expressed and the coordinates of each vertex of the object to be deformed are individually set as compared with the configuration in which the calculation formula of each coordinate is given and calculated from the calculation formula Can reduce the processing load required.
特徴J8.前記変化手段は、前記変形対象オブジェクトを構成する各頂点のうち、当該変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標を変更しないものであることを特徴とする特徴J7に記載の遊技機。 Feature J8. The game according to Feature J7, wherein the changing means does not change the coordinates of the vertices of the individual image based on the deformation target object among the vertices constituting the deformation target object. Machine.
特徴J8によれば、変形対象オブジェクトに基づく個別画像の外縁に係る頂点については座標が変更されないため、変化対象部位に係る画像とその周囲の画像との境界が目立ちにくい。これにより、両者を馴染ませつつ、変化対象部位の画像を変化させることができる。 According to the feature J8, since the coordinates of the vertices related to the outer edge of the individual image based on the deformation target object are not changed, the boundary between the image related to the change target portion and the surrounding image is not noticeable. Thereby, the image of a change object part can be changed, adjusting both.
特徴J9.前記変形対象オブジェクトは、前記変化対象部位に対応させて設定された平面を有する板状オブジェクトであることを特徴とする特徴J6乃至J8のいずれか1に記載の遊技機。 Feature J9. The gaming machine according to any one of features J6 to J8, wherein the deformation target object is a plate-like object having a plane set corresponding to the change target portion.
特徴J9によれば、変形対象オブジェクトとして比較的簡素な板状オブジェクトを用いることにより、変形対象オブジェクトの変形を容易に行うことができる。これにより、変化対象部位を変化させるための処理負荷の軽減を図ることができる。 According to the feature J9, the deformation target object can be easily deformed by using a relatively simple plate-like object as the deformation target object. Thereby, reduction of the processing load for changing a change object part can be aimed at.
特徴J10.前記変化手段は、前記変形対象オブジェクトを変形させることにより、前記変化対象部位に係る画像を歪ませる歪み形成手段(表示CPU131において歪み演出演算処理を実行する機能、及びVDP135において歪み演出用の各種処理を実行する機能)であることを特徴とする特徴J6乃至J9のいずれか1に記載の遊技機。
Feature J10. The changing means deforms the deformation target object, thereby distorting the image related to the change target part (a function for executing distortion effect calculation processing in the
特徴J10によれば、変形対象オブジェクトが変形することにより、画像の歪みを表現することができる。 According to the feature J10, distortion of the image can be expressed by deforming the deformation target object.
特徴J11.前記変化手段は、前記特定オブジェクトよりも前記視点側に前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記変化対象部位に表示される画像に対応した画像データを前記テクスチャとして貼り付けるものであることを特徴とする特徴J6乃至J10のいずれか1に記載の遊技機。 Feature J11. The changing means arranges the deformation target object closer to the viewpoint than the specific object, and pastes image data corresponding to an image displayed on the change target portion to the deformation target object as the texture. The gaming machine according to any one of features J6 to J10, wherein:
特徴J11によれば、変形対象オブジェクトを変形させることにより変化対象部位の画像が変化することとなる。これにより、変化させる場合と変化させない場合とで、所定のオブジェクトに対する処理を異ならせる必要がない点で処理の共通化を図ることができる。 According to the feature J11, the image of the change target part is changed by changing the deformation target object. Thereby, it is possible to make the processing common in that there is no need to change the processing for a predetermined object depending on whether the change is made or not.
また、変化させる場合と変化させない場合とを、変形対象オブジェクトを配置するか否かで対応することができるため、変化させる場合と変化させない場合との切換を比較的容易に行うことができる。 Moreover, since the case where it changes and the case where it does not change can respond according to whether a deformation | transformation object is arrange | positioned, switching with the case where it changes and the case where it does not change can be performed comparatively easily.
特徴J12.前記配置手段は、表示対象として設定されている複数のオブジェクトのうち前記特定オブジェクトを配置する手段(VDP135におけるステップS4602の処理を実行する機能)を備え、
前記描画用設定手段は、前記特定オブジェクトを投影し、前記投影平面に投影されたデータに基づいて前記特定個別画像を含む画像に対応した所定生成データを生成する手段(VDP135におけるステップS4608の処理を実行する機能)を備え、
前記データ生成手段は、前記所定生成データに含まれる前記特定個別画像の前記変化対象部位に対応した画像データを抜き出すことにより前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するテクスチャ生成手段(VDP135におけるステップS4801及びステップS4802の処理を実行する機能)を備え、
前記変化手段は、前記仮想3次元空間内に少なくとも前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して前記テクスチャ生成手段により生成されたテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像を変化させるものであることを特徴とする特徴J11に記載の遊技機。
Feature J12. The arrangement means includes means for arranging the specific object among a plurality of objects set as display targets (function to execute the process of step S4602 in the VDP 135),
The drawing setting unit projects the specific object, and generates predetermined generation data corresponding to an image including the specific individual image based on the data projected on the projection plane (the process of step S4608 in the
The data generation unit generates a texture to be pasted on the deformation target object by extracting image data corresponding to the change target part of the specific individual image included in the predetermined generation data (in the VDP 135). A function of executing the processing of step S4801 and step S4802),
The changing unit arranges at least the deformation target object in the virtual three-dimensional space, pastes the texture generated by the texture generation unit on the deformation target object, and further projects the deformation target object. The gaming machine according to Feature J11, wherein the gaming machine changes an image of the change target part.
特徴J12によれば、特定オブジェクトに対して1回目の投影を行うことにより所定生成データが生成され、当該所定生成データを用いて変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。そして、当該テクスチャが貼り付けられた変形対象オブジェクトに対して2回目の投影を行うことにより、変化対象部位に係る画像を変化させることができる。これにより、変形対象オブジェクトに対して貼り付けられるテクスチャを予め記憶させておく必要がない点でデータ量の削減を図ることができる。 According to the feature J12, the predetermined generation data is generated by performing the first projection on the specific object, and the texture to be pasted on the deformation target object is generated using the predetermined generation data. Then, by performing the second projection on the deformation target object to which the texture is pasted, it is possible to change the image related to the change target portion. As a result, the amount of data can be reduced in that it is not necessary to previously store the texture to be pasted on the deformation target object.
また、変形対象オブジェクトに対して貼り付けられるテクスチャは、特定オブジェクトを投影することにより生成される構成となっているため、上記テクスチャに係る画像を、実際に特定オブジェクトを用いて表示される所定の画像と似せることができる。これにより、変形対象オブジェクトに基づく画像と、その周囲の画像とを馴染ませることができる。 In addition, since the texture to be pasted on the deformation target object is generated by projecting the specific object, an image related to the texture is actually displayed using the specific object. It can resemble an image. Thereby, the image based on the object to be deformed and the surrounding image can be made familiar.
さらに、特定オブジェクトに対して貼り付けるテクスチャを生成する処理と、変化対象部位の画像を変化させる処理とが投影するという点で共通しているため、両者の処理構成の共通化を図ることができる。 Furthermore, since the processing for generating the texture to be pasted on the specific object and the processing for changing the image of the change target part are common, the processing configurations of both can be shared. .
特徴J13.前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており、
前記所定生成データは、前記更新タイミングとなる度に生成されるものであり、
前記テクスチャ生成手段は、前記更新タイミングとなる度に当該更新タイミングにて生成された前記所定生成データを用いて前記変形対象オブジェクトに対して貼り付けるテクスチャを生成するものであることを特徴とする特徴J12に記載の遊技機。
Feature J13. The specific individual image is configured to be updateable every time the update timing is reached,
The predetermined generation data is generated every time the update timing is reached,
The texture generation means generates a texture to be pasted to the deformation target object using the predetermined generation data generated at the update timing every time the update timing is reached. A gaming machine described in J12.
特徴J13によれば、更新タイミングとなる度に所定生成データが生成され、変形対象オブジェクトに対して貼り付けられるテクスチャが生成される。これにより、特定個別画像が更新された場合であっても、当該更新された特定個別画像を変化させることができる。 According to the feature J13, the predetermined generation data is generated every time the update timing comes, and the texture to be pasted on the deformation target object is generated. Thereby, even if the specific individual image is updated, the updated specific individual image can be changed.
なお、「前記特定個別画像は、前記更新タイミングとなる度に更新可能に構成されており」の具体的な構成としては、例えば「前記配置手段は、前記更新タイミングとなる度に前記特定オブジェクトが配置される座標を更新することにより、前記特定個別画像を所定の方向にスクロールするものである」構成や、「前記更新タイミングとなる度に前記視点を所定の方向に移動させる」構成等が考えられる。 A specific configuration of “the specific individual image is configured to be able to be updated every time the update timing is reached” is, for example, “the arrangement means that the specific object is displayed every time the update timing is reached. A configuration in which the specific individual image is scrolled in a predetermined direction by updating the arranged coordinates, a configuration in which the viewpoint is moved in a predetermined direction every time the update timing is reached, etc. It is done.
特徴J14.前記変化手段は、前記仮想3次元空間内において前記変形対象オブジェクトを配置し、当該変形対象オブジェクトに対して対応するテクスチャを貼り付け、さらに前記変形対象オブジェクトを投影することにより、前記変化対象部位の画像が変化した変化生成データを作成するものであり、
前記データ生成手段は、前記所定生成データと前記変化生成データとを合成することにより1の生成データを生成する合成手段(VDP135におけるステップS4617の処理を実行する機能)を備えていることを特徴とする特徴J12又は特徴J13に記載の遊技機。
Feature J14. The changing means arranges the deformation target object in the virtual three-dimensional space, pastes a corresponding texture on the deformation target object, and projects the deformation target object to thereby change the change target part. It creates change generation data in which the image has changed,
The data generation means includes synthesis means for generating one generation data by synthesizing the predetermined generation data and the change generation data (function to execute the process of step S4617 in the VDP 135). The gaming machine according to feature J12 or feature J13.
特徴J14によれば、特定個別画像を含む画像に対応した所定生成データを生成する処理と、変化生成データを生成する処理とを区分けし、両者を合成することにより1の生成データを生成する構成としたことにより、変形対象オブジェクトに貼り付けるテクスチャを生成する処理を、1の生成データを生成する処理として用いることができる。これにより、処理負荷の軽減を図ることができる。 According to the feature J14, a process of generating predetermined generation data corresponding to an image including a specific individual image and a process of generating change generation data are generated, and one generation data is generated by synthesizing both. By doing so, the process of generating a texture to be pasted on the deformation target object can be used as a process of generating one generation data. Thereby, the processing load can be reduced.
また、上記特徴によれば、2回の投影において重複して配置されるオブジェクトを少なくすることができる。これにより、重複配置及び重複投影等に起因する処理負荷を軽減することができる。 Further, according to the above feature, it is possible to reduce the number of objects arranged in duplicate in the two projections. As a result, it is possible to reduce processing load caused by overlapping arrangement, overlapping projection, and the like.
特徴J15.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを所定の単位領域(ピクセル)毎に決定する個別反映値情報(個別α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記個別反映値情報を調整することにより、前記特定画像データに基づく画像に係る前記色情報が当該画像の外縁に向かうに従って反映されにくくなるようにするものであることを特徴とする特徴J1乃至J14のいずれか1に記載の遊技機。
Feature J15. The data generation means generates the generation data based on applying various parameter information that determines an image display mode based on the image data to the image data,
The various parameter information includes individual reflected value information (individual α value) that determines the degree of reflecting the color information of the image data on the display unit for each predetermined unit region (pixel),
The changing means adjusts the individual reflection value information applied to the specific image data so that the color information related to the image based on the specific image data is less likely to be reflected toward the outer edge of the image. The gaming machine according to any one of features J1 to J14, characterized in that:
特徴J15によれば、特定画像データに基づく画像の外縁に向かうに従って当該画像に係る色情報が反映されにくくなっている。これにより、特定画像データに基づく画像の外縁側ほど他の領域と馴染んだ画像が表示される。よって、変化対象部位の画像と他の領域の画像との境界を目立ちにくくすることができる。 According to the feature J15, the color information related to the image is less likely to be reflected toward the outer edge of the image based on the specific image data. Thereby, an image familiar with other regions is displayed on the outer edge side of the image based on the specific image data. Therefore, it is possible to make the boundary between the image of the change target part and the image of the other region less noticeable.
特徴J16.前記データ生成手段は、画像データに対して当該画像データによる画像の表示態様を決定付ける各種パラメータ情報を適用することに基づき前記生成データを生成するものであり、
前記各種パラメータ情報には、前記表示部に前記画像データの色情報を反映させる場合の度合いを決定する反映値情報(一律α値)が含まれており、
前記変化手段は、前記特定画像データに適用される前記反映値情報を段階的に調整することにより、徐々に前記特定画像データの色情報を反映させないようにする手段(表示CPU131にてステップS4519の処理を実行する機能)を備えていることを特徴とする特徴J1乃至J15のいずれか1に記載の遊技機。
Feature J16. The data generation means generates the generation data based on applying various parameter information that determines an image display mode based on the image data to the image data,
The various parameter information includes reflection value information (a uniform α value) that determines the degree to which the display unit reflects the color information of the image data.
The changing means adjusts the reflection value information applied to the specific image data in a stepwise manner so as not to gradually reflect the color information of the specific image data (in step S4519 in the display CPU 131). The gaming machine according to any one of features J1 to J15, wherein the gaming machine is provided with a function of executing processing.
特徴J16によれば、変化対象部位に表示される特定画像データに基づく画像は徐々に消えていくため、変化画像が消えていく過程が目立ちにくい。これにより、変化画像が消えていく場合に遊技者に与える違和感を軽減することができる。 According to the feature J16, since the image based on the specific image data displayed on the change target part gradually disappears, the process of the change image disappearing is not noticeable. As a result, it is possible to reduce the uncomfortable feeling given to the player when the change image disappears.
特徴J17.前記特定個別画像は、前記表示部に表示される背景画像の一部であることを特徴とする特徴J1乃至J16のいずれか1に記載の遊技機。 Feature J17. The gaming machine according to any one of features J1 to J16, wherein the specific individual image is a part of a background image displayed on the display unit.
背景画像は表示部全体に表示されるものであるため、表示部の一部に表示される個別画像と比較して画像データのデータ量が大きくなり易い。このため、背景画像の一部を変化させるために複数種類の背景画像データを用意すると、データ量が大きくなり易い。 Since the background image is displayed on the entire display unit, the data amount of the image data tends to be larger than that of the individual image displayed on a part of the display unit. For this reason, if a plurality of types of background image data are prepared to change a part of the background image, the amount of data tends to increase.
これに対して、本特徴によれば、背景画像データを複数種類用意することなく、当該背景画像の一部を変化させることができるため、データ量を好適に削減することができる。 On the other hand, according to this feature, since a part of the background image can be changed without preparing a plurality of types of background image data, the amount of data can be suitably reduced.
上記特徴J群は以下の課題に対して効果的である。 The feature J group is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
2次元画像データを用いて画像の表示が行われる場合についてより詳細に説明すると、画像データ用のメモリには背景を表示するための画像データと、キャラクタなどを表示するための画像データとが記憶されている。また、それら画像データを読み出すことで、背景の手前にてキャラクタなどを表示させるための生成データが、VRAMといった記憶手段に対して生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、上記背景の手前にキャラクタなどが配置された画像が表示部にて表示される。 The case where the image is displayed using the two-dimensional image data will be described in more detail. The image data memory stores image data for displaying a background and image data for displaying a character or the like. Has been. Further, by reading out the image data, generation data for displaying a character or the like in front of the background is generated in a storage unit such as a VRAM. Then, by outputting a signal to the display device based on the generated data, an image in which characters and the like are arranged in front of the background is displayed on the display unit.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the polygon. Generated data is generated by projecting a texture-attached polygon onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the generated data.
ここで、表示部に表示されている画像の一部を変化させる表示演出を行うことで、表示演出の多様化を図ることが可能となると考えられる。しかしながら、当該表示演出を行うために例えば表示部全体の画像データを設ける構成とすると、データ量の増大化が懸念される。 Here, it is considered that the display effect can be diversified by performing a display effect that changes a part of the image displayed on the display unit. However, for example, if the image data of the entire display unit is provided in order to perform the display effect, there is a concern about an increase in the data amount.
<特徴K群>
特徴K1.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる所定オブジェクト(各オブジェクトOB1〜OB4)が含まれており、さらに前記テクスチャには、前記所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記所定オブジェクトを見た場合の画像に対応した所定テクスチャ(各テクスチャTD1〜TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記所定オブジェクト及び前記所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
<Feature K group>
Feature K1. Arranging means (a function for executing the processing of steps S1002 to S1004 in the VDP 135) that arranges an object that is three-dimensional information in the virtual three-dimensional space, and viewpoint setting means (in the
Display control means (VDP135) for displaying an image corresponding to the generated data stored in the storage means on the display unit (display surface G) and updating the contents of the image when a predetermined update timing is reached; ,
In gaming machines equipped with
The objects include predetermined objects (respective objects OB1 to OB4) used when displaying a predetermined first predetermined image (sand beach background image BP10) on the display unit, and the texture further includes the texture A texture that is pasted to a predetermined object, and includes a predetermined texture (each texture TD1 to TD4) corresponding to an image when the predetermined object is viewed from a predetermined specific viewpoint,
The projection means includes perspective projection and parallel projection as a projection pattern for projecting the object onto the projection plane,
The data generation means includes
First generation means for generating generation data corresponding to the first predetermined image using the predetermined object and the predetermined texture by setting the viewpoint as the specific viewpoint and setting the projection pattern as the perspective projection. (Function for executing sand beach background arithmetic processing in the
A second predetermined image that is different from the first predetermined image by using the predetermined object and the predetermined texture by changing the viewpoint from the specific viewpoint to a predetermined changed viewpoint and setting the projection pattern to the parallel projection. A second generation means for generating generation data corresponding to the function (a function for executing the background arithmetic processing of the sand beach running effect in the
A gaming machine characterized by comprising:
特徴K1によれば、視点を特定視点に設定し且つ投影パターンとして透視投影を設定し、さらに所定テクスチャを所定オブジェクトに対して貼り付けることにより、所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。 According to the feature K1, the first predetermined image is set without complicating the predetermined object by setting the viewpoint as a specific viewpoint and setting perspective projection as a projection pattern and pasting the predetermined texture on the predetermined object. Can be made into a perspective image.
かかる構成において、所定テクスチャは、特定視点から所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間で遠近感が整合しない。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。 In such a configuration, the predetermined texture corresponds to an image when the predetermined object is viewed from a specific viewpoint. Therefore, when the viewpoint is changed from the specific viewpoint to the changed viewpoint, an image displayed by the predetermined object and the predetermined texture, and the like Perspective does not match with other images. For this reason, the second predetermined image becomes an uncomfortable image, which may give the player an uncomfortable feeling.
これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、所定オブジェクト及び所定テクスチャにより表示される画像と、他の画像との間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 On the other hand, according to this feature, since the second predetermined image is generated by performing perspective projection that does not consider the depth, between the image displayed by the predetermined object and the predetermined texture and another image The perspective can be matched. Thereby, two different predetermined images can be displayed while using the same texture. Therefore, it is possible to diversify display effects while suppressing an increase in data amount.
特徴K2.仮想3次元空間内に3次元情報であるオブジェクトを配置する配置手段(VDP135におけるステップS1002〜ステップS1004の処理を実行する機能)と、前記仮想3次元空間に視点を設定する視点設定手段(VDP135におけるステップS1005及びステップS1006の処理を実行する機能)と、前記オブジェクトに対してテクスチャを貼り付ける貼付手段(VDP135における色情報の設定処理を実行する機能)と、前記視点に基づいて設定される投影平面に前記オブジェクトを投影する投影手段(VDP135におけるステップS1010及びステップS1011の処理を実行する機能)と、当該投影平面に投影されたデータに基づいて生成データ(描画データ)を生成する描画用設定手段(VDP135におけるステップS1010〜ステップS1012の処理を実行する機能)と、を有するデータ生成手段(表示CPU131、VDP135)によって生成された生成データを記憶する記憶手段(フレームバッファ142)と、
当該記憶手段に記憶された生成データに対応した画像を表示部(表示面G)に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段(VDP135)と、
を備えている遊技機において、
前記オブジェクトには、前記表示部に所定の第1所定画像(砂浜背景画像BP10)を表示させる場合に用いられる複数の所定オブジェクト(各オブジェクトOB1〜OB4)が含まれており、さらに前記テクスチャには、前記各所定オブジェクトに対して貼り付けられるテクスチャであって、予め定められた特定視点から前記各所定オブジェクトを見た場合の画像に対応した複数の所定テクスチャ(各テクスチャTD1〜TD4)が含まれており、
前記投影手段は、前記オブジェクトを前記投影平面に対して投影する投影パターンとして透視投影及び平行投影を備え、
前記データ生成手段は、
前記視点を前記特定視点に設定し且つ前記投影パターンを前記透視投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像に対応した生成データを生成する第1生成手段(表示CPU131における砂浜背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
前記視点を前記特定視点から所定の変更視点に変更し且つ前記投影パターンを前記平行投影に設定することにより、前記各所定オブジェクト及び前記各所定テクスチャを用いて前記第1所定画像とは異なる第2所定画像(演出用背景画像BP20)に対応した生成データを生成する第2生成手段(表示CPU131における砂浜疾走演出の背景用演算処理を実行する機能、及びVDP135における描画処理を実行する機能)と、
を備えていることを特徴とする遊技機。
Feature K2. Arranging means (a function for executing the processing of steps S1002 to S1004 in the VDP 135) that arranges an object that is three-dimensional information in the virtual three-dimensional space, and viewpoint setting means (in the
Display control means (VDP135) for displaying an image corresponding to the generated data stored in the storage means on the display unit (display surface G) and updating the contents of the image when a predetermined update timing is reached; ,
In gaming machines equipped with
The object includes a plurality of predetermined objects (each object OB1 to OB4) used when a predetermined first predetermined image (sand beach background image BP10) is displayed on the display unit, and the texture further includes A plurality of predetermined textures (each of the textures TD1 to TD4) corresponding to an image when the predetermined object is viewed from a predetermined specific viewpoint. And
The projection means includes perspective projection and parallel projection as a projection pattern for projecting the object onto the projection plane,
The data generation means includes
First generating generation data corresponding to the first predetermined image using the predetermined objects and the predetermined textures by setting the viewpoint to the specific viewpoint and setting the projection pattern to the perspective projection. Generation means (function for executing arithmetic processing for sandy beach background in
By changing the viewpoint from the specific viewpoint to a predetermined change viewpoint and setting the projection pattern to the parallel projection, a second different from the first predetermined image using the predetermined objects and the predetermined textures. Second generation means for generating generation data corresponding to a predetermined image (effect background image BP20) (a function for executing a sand beach sprint effect background calculation process in the
A gaming machine characterized by comprising:
特徴K2によれば、投影パターンとして透視投影を設定するとともに、各所定オブジェクトを奥行き方向に異なる位置に配置し、さらに各所定テクスチャを各所定オブジェクトに対して貼り付けることにより、各所定オブジェクトを複雑にすることなく、第1所定画像を遠近感のある画像にすることができる。 According to the feature K2, each predetermined object is complicated by setting perspective projection as a projection pattern, arranging each predetermined object at a different position in the depth direction, and pasting each predetermined texture to each predetermined object. The first predetermined image can be made into a perspective image without having to.
かかる構成において、各所定テクスチャは、特定視点から各所定オブジェクトを見た場合の画像に対応したものであるため、視点を特定視点から変更視点に変更すると、ある所定オブジェクト及びそれに対応した所定テクスチャにより表示される画像と、他の所定オブジェクト及びそれに対応した所定テクスチャとにより表示される画像との間で遠近感が整合しなくなる。このため、第2所定画像が違和感のある画像となり、遊技者に対して違和感を与えるおそれがある。 In such a configuration, each predetermined texture corresponds to an image when each predetermined object is viewed from a specific viewpoint. Therefore, when the viewpoint is changed from the specific viewpoint to the changed viewpoint, a predetermined object and a predetermined texture corresponding thereto are used. Perspective does not match between the displayed image and an image displayed by another predetermined object and a predetermined texture corresponding thereto. For this reason, the second predetermined image becomes an uncomfortable image, which may give the player an uncomfortable feeling.
これに対して、本特徴によれば、奥行きを考慮しない透視投影を行うことで第2所定画像を生成する構成としたため、両者の間での遠近感の整合を図ることができる。これにより、同一のテクスチャを用いつつ、異なる2つの所定画像を表示させることができる。よって、データ量の増大化を抑制しつつ、表示演出の多様化を図ることができる。 On the other hand, according to this feature, since the second predetermined image is generated by performing perspective projection that does not consider the depth, it is possible to match the perspective between the two. Thereby, two different predetermined images can be displayed while using the same texture. Therefore, it is possible to diversify display effects while suppressing an increase in data amount.
特徴K3.前記第2生成手段は、前記各所定オブジェクトを用いて表示される各画像をそれぞれ同一方向に移動させることにより前記第2所定画像が移動するように前記生成データを生成するものであることを特徴とする特徴K2に記載の遊技機。 Feature K3. The second generation unit generates the generation data so that the second predetermined image moves by moving each image displayed using the predetermined object in the same direction. The gaming machine according to feature K2.
特徴K3によれば、各所定オブジェクトを用いて表示される各画像を同一方向に移動させることにより、第2所定画像を移動させることができ、表示演出の多様化を図ることができる。一方、各画像を同一方向に移動させると、各画像間の遠近感の不整合が目立ち易くなり、第2所定画像が移動する表示演出が違和感のあるものとなり易い。 According to the feature K3, the second predetermined image can be moved by moving each image displayed using each predetermined object in the same direction, and the display effects can be diversified. On the other hand, if the images are moved in the same direction, the perspective mismatch between the images tends to be noticeable, and the display effect in which the second predetermined image moves tends to be uncomfortable.
これに対して、特徴K2によれば、平行投影を行うことにより第2所定画像に対応した生成データを生成する構成としたことにより、上記不整合を目立ちにくくすることができるため、上記表示演出を好適に行うことができる。 On the other hand, according to the feature K2, since the generation data corresponding to the second predetermined image is generated by performing parallel projection, the inconsistency can be made inconspicuous. Can be suitably performed.
特徴K4.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記第2生成手段は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるほど、当該各所定オブジェクトに対して適用される前記倍率情報を小さく設定するものであることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Feature K4. The data generation means generates the generation data based on applying, to the object, parameter information that determines the display mode of the image by the object,
The parameter information includes magnification information of the object,
The second generation means is configured to set the magnification information applied to each predetermined object to a smaller value as the distance between the changed viewpoint and the predetermined object increases. A gaming machine according to Feature K3.
特徴K4によれば、変更視点を基準として遠い位置に配置されている所定オブジェクトに係る画像ほど小さく表示される。これにより、擬似的に遠近感が生じるため、平行投影において遠近感のある画像を表現することができる。 According to the feature K4, an image related to a predetermined object arranged at a far position with respect to the changed viewpoint is displayed smaller. As a result, a sense of perspective is generated in a pseudo manner, so that an image with a sense of perspective can be expressed in parallel projection.
特徴K5.前記データ生成手段は、前記オブジェクトによる画像の表示態様を決定付けるパラメータ情報を前記オブジェクトに対して適用することに基づき前記生成データを生成するものであり、
前記パラメータ情報には、前記オブジェクトの倍率情報が含まれており、
前記各所定オブジェクトを平行投影した場合の当該各所定オブジェクトが投影される領域が前記各所定オブジェクトを透視投影した場合の領域と同一となるように、前記各所定オブジェクトの倍率情報及び座標が設定されていることを特徴とする特徴K2又は特徴K3に記載の遊技機。
Feature K5. The data generation means generates the generation data based on applying, to the object, parameter information that determines the display mode of the image by the object,
The parameter information includes magnification information of the object,
The magnification information and coordinates of each predetermined object are set so that the area where the predetermined object is projected when the predetermined object is projected in parallel is the same as the area when the predetermined object is perspective-projected. The gaming machine according to Feature K2 or Feature K3, wherein:
特徴K5によれば、各所定オブジェクトを平行投影することにより得られる画像を、各所定オブジェクトを透視投影することにより得られる画像に似せることができる。これにより、平行投影により得られた画像を、あたかも透視投影により得られる遠近感のある画像のように見せることができる。 According to the feature K5, an image obtained by parallel projection of each predetermined object can be made to resemble an image obtained by perspective projection of each predetermined object. As a result, an image obtained by parallel projection can be seen as if it is a perspective image obtained by perspective projection.
特徴K6.前記第2生成手段は、少なくとも前記各所定オブジェクトを所定の速度で移動させる移動手段(表示CPU131におけるステップS4313の処理を実行する機能)を備え、
前記各所定オブジェクトの移動速度は、前記変更視点及び前記各所定オブジェクト間の距離が大きくなるに従って前記変更視点に対する前記各所定オブジェクトの相対速度が小さくなるように設定されていることを特徴とする特徴K2乃至K5のいずれか1に記載の遊技機。
Feature K6. The second generation unit includes at least a moving unit (a function of executing the process of step S4313 in the display CPU 131) that moves each predetermined object at a predetermined speed.
The moving speed of each predetermined object is set such that the relative speed of each predetermined object with respect to the changed viewpoint decreases as the distance between the changed viewpoint and each predetermined object increases. The gaming machine according to any one of K2 to K5.
特徴K6によれば、変更視点からの距離が大きい所定オブジェクトほどゆっくり移動するように見え、変更視点からの距離が小さい所定オブジェクトほど速く移動するように見える。これにより、平行投影を行う構成において擬似的に遠近感を発生させることができる。 According to the feature K6, it seems that the predetermined object having a larger distance from the changed viewpoint appears to move more slowly, and the predetermined object having a smaller distance from the changed viewpoint appears to move faster. Accordingly, it is possible to generate a sense of perspective in a configuration in which parallel projection is performed.
特徴K7.前記各所定オブジェクトはそれぞれ板状オブジェクトであり、
前記各板状オブジェクトは、前記投影平面に対して傾斜した状態で前記特定視点の奥行き方向に並べて配置されており、
前記各所定オブジェクトに対して貼り付けられるテクスチャは、前記特定視点から見た場合の画像に対応するように前記傾斜に対応させて設定されていることを特徴とする特徴K2乃至K6のいずれか1に記載の遊技機。
Feature K7. Each of the predetermined objects is a plate object,
Each of the plate-like objects is arranged side by side in the depth direction of the specific viewpoint while being inclined with respect to the projection plane,
Any one of the characteristics K2 to K6, wherein the texture pasted to each predetermined object is set corresponding to the inclination so as to correspond to an image viewed from the specific viewpoint. The gaming machine described in 1.
特徴K7によれば、透視投影を行うことにより比較的簡素な板状オブジェクトを用いて遠近感のある画像を生成することができるため、当該画像の表示に係る処理負荷を軽減することができる。一方、視点が変更することに起因する各個別画像間における遠近感のずれが目立ち易い。 According to the feature K7, it is possible to generate a perspective image using a relatively simple plate-like object by performing perspective projection, and thus it is possible to reduce the processing load related to the display of the image. On the other hand, a perspective shift between individual images due to a change in viewpoint is easily noticeable.
これに対して、上記特徴K2によれば、平行投影することにより、視点の変更に伴う遠近感のずれを抑制することができる。 On the other hand, according to the feature K2, by performing parallel projection, it is possible to suppress a shift in perspective due to a change in viewpoint.
上記特徴K群は以下の課題に対して効果的である。 The feature K group is effective for the following problems.
遊技機の一種として、パチンコ遊技機やスロットマシン等が知られている。これらの遊技機としては、例えば液晶表示装置といった表示装置を備えたものが知られている。当該遊技機では、画像用のデータが予め記憶されたメモリが搭載されており、当該メモリから読み出された画像用のデータを用いて表示装置の表示部にて所定の画像が表示されることとなる。 As a kind of gaming machine, a pachinko gaming machine, a slot machine, and the like are known. As these gaming machines, those equipped with a display device such as a liquid crystal display device are known. The gaming machine is equipped with a memory in which image data is stored in advance, and a predetermined image is displayed on the display unit of the display device using the image data read from the memory. It becomes.
また、近年では、2次元の画像を単純に表示するのではなく、3次元で規定された画像データを用いることで、より立体的な画像の表示を行おうとする試みがなされている。当該表示を行う場合には、仮想3次元空間上に3次元画像データであるポリゴンが設定されるとともに、そのポリゴンに対して文字や模様などの2次元画像データであるテクスチャが貼り付けられ、このテクスチャが貼り付けられたポリゴンを所望の視点から平面上に投影した生成データが生成される。そして、その生成データに基づいて表示装置に対して信号出力がなされることで、立体的な画像が表示されることとなる。 In recent years, an attempt has been made to display a more three-dimensional image by using image data defined in three dimensions rather than simply displaying a two-dimensional image. When performing the display, a polygon that is 3D image data is set in the virtual 3D space, and a texture that is 2D image data such as a character or a pattern is pasted on the polygon. Generated data is generated by projecting a texture-attached polygon onto a plane from a desired viewpoint. A three-dimensional image is displayed by outputting a signal to the display device based on the generated data.
ここで、表示演出への遊技者の興味を高めるためには、表示演出の多様化を図ることが好ましい。その一方、表示演出の多様化を図る上で、データ量の極端な増大化は好ましくない。 Here, in order to increase the player's interest in the display effect, it is preferable to diversify the display effect. On the other hand, when the display effects are diversified, it is not preferable to increase the amount of data extremely.
以下に、以上の各特徴を適用し得る各種遊技機の基本構成を示す。 The basic configuration of various gaming machines to which the above features can be applied is shown below.
パチンコ遊技機:遊技者が操作する操作手段と、その操作手段の操作に基づいて遊技球を発射する遊技球発射手段と、その発射された遊技球を所定の遊技領域に導く球通路と、遊技領域内に配置された各遊技部品とを備え、それら各遊技部品のうち所定の通過部を遊技球が通過した場合に遊技者に特典を付与する遊技機。 Pachinko gaming machine: operation means operated by a player, game ball launching means for launching a game ball based on the operation of the operation means, a ball path for guiding the launched game ball to a predetermined game area, and a game A gaming machine that includes each gaming component arranged in an area, and gives a bonus to a player when a gaming ball passes through a predetermined passing portion of each gaming component.
スロットマシン等の回胴式遊技機:複数の絵柄を可変表示させる絵柄表示装置を備え、始動操作手段の操作に起因して前記複数の絵柄の可変表示が開始され、停止操作手段の操作に起因して前記複数の絵柄の可変表示が停止され、その停止後の絵柄に応じて遊技者に特典を付与する遊技機。 Revolving type gaming machine such as a slot machine: equipped with a picture display device for variably displaying a plurality of pictures, variably starting display of the plurality of pictures due to the operation of the start operation means, and due to the operation of the stop operation means Then, the variable display of the plurality of patterns is stopped, and the gaming machine gives a privilege to the player according to the pattern after the stop.
10…パチンコ機、31…図柄表示装置、48…演出用操作装置、131…表示CPU、133…メモリモジュール、135…VDP、142…フレームバッファ、151…ジオメトリ演算部、152…レンダリング部、155…表示回路、AP1〜AP4…付属パーツ部、BP…本体パーツ部、CH15…教示用の個別画像、CH16…教示用の個別画像、KD1…第1キーデータ、KD2…第2キーデータ、ND1…第1法線マップデータ、ND2…第2法線マップデータ、PC17…粒子分散用オブジェクト、PC19…海面用オブジェクト、PC20…特別オブジェクト、PC21〜PC23…第1部分テクスチャ、PC24〜PC27…第2部分テクスチャ、PT1…粒子単体画像、PT2…粒子単体画像、SD…面データ、SD1…適用対象の面データ、SD2…緩衝用の面データ、RMD0…ラウンド動画像データ、IPD0…挿入画像データ、IP1…第1挿入キャラクタ画像、IP2…第2挿入キャラクタ画像、RMD0a…第1ラウンド動画像データ、RMD0b…第2ラウンド動画像データ、OB1…砂浜オブジェクト、OB2…波オブジェクト、OB3…海オブジェクト、OB4…空オブジェクト、TD1…砂浜テクスチャ、TD2…波テクスチャ、TD3…海テクスチャ、TD4…空テクスチャ、PV1…特定視点、PV2…別視点、BP10…砂浜背景画像、BP20…演出用背景画像、OB10…屈折用オブジェクト、SKD1…屈折用αデータ、MD1…第1座標マッピングデータ、MD2…第2座標マッピングデータ、CP13…膨張珊瑚画像、CP14…収縮珊瑚画像、CP15…第1歪み画像、CP16…第2歪み画像、PE1…歪み領域、OB21…ベースオブジェクト、OB22…部分オブジェクト、OB31…頭部オブジェクト、TD11…ベーステクスチャ、TD12…部分テクスチャ、TD21〜TD23…第1〜第3部分テクスチャ、CP21…ベース画像、CP23〜CP25…第1〜第3部分画像、PE2…重ね合わせ領域。
DESCRIPTION OF
Claims (1)
当該記憶手段に記憶された生成データに対応した画像を表示部に表示させ、且つ予め定められた更新タイミングとなった場合に画像の内容を更新させる表示制御手段と、
を備えている遊技機において、
前記オブジェクトには、背景画像が歪む演出を実行する場合に用いられ、かつ変形対象として設定された変形対象オブジェクトが含まれており、
前記データ生成手段は、当該変形対象オブジェクトを変形させることにより、前記画像の少なくとも一部を歪ませて、互いに歪み形状の異なる第1変形形態及び第2変形形態を形成する歪み形成手段を備え、
前記貼付手段は、前記第1変形形態とされた前記変形対象オブジェクトと、前記第2変形形態とされた前記変形対象オブジェクトに、共通の前記テクスチャを貼り付けるものであり、
前記表示制御手段は、前記第1変形形態とされた前記変形対象オブジェクトを利用した前記生成データに対応する第1変形画像と、前記第2変形形態とされた前記変形対象オブジェクトを利用した前記生成データに対応する第2変形画像とを、交互に前記表示部に表示させる手段を有し、
前記データ生成手段は、前記歪む演出中の所定のタイミングから、前記変形対象オブジェクトの透明度を、前記更新タイミング毎に所定値ずつ増加させる処理を実行することが可能な手段を有することを特徴とする遊技機。 Image data storage means for storing various image data including image data of an object and texture image data to be pasted on the object, arrangement means for arranging the object in a virtual three-dimensional space, and the virtual three-dimensional space A viewpoint setting means for setting a viewpoint to the object, a pasting means for pasting the texture to the object, an object having the texture pasted on a projection plane set based on the viewpoint, and the projection plane Drawing setting means for generating generated data based on the data projected onto the storage means, storage means for storing the generated data generated by the data generating means,
Display control means for displaying an image corresponding to the generated data stored in the storage means on the display unit, and updating the content of the image when a predetermined update timing is reached;
In gaming machines equipped with
The object includes a deformation target object that is used when performing an effect in which the background image is distorted and is set as a deformation target.
The data generation unit includes a distortion forming unit that deforms at least a part of the image by deforming the deformation target object to form a first deformation form and a second deformation form having different distortion shapes,
The sticking means, and wherein the deformable object which is a first variant, the second variant as has been said modified target object, which pasting the texture of common,
The display control means uses the first deformation image corresponding to the generation data using the deformation target object in the first deformation mode and the generation using the deformation target object in the second deformation mode. and a second modified image corresponding to the data, have a means for displaying on the display unit alternately,
The data generation means includes means capable of executing a process of increasing the transparency of the deformation target object by a predetermined value at each update timing from a predetermined timing during the distorted effect. Gaming machine.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015036599A JP6011659B2 (en) | 2015-02-26 | 2015-02-26 | Game machine |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015036599A JP6011659B2 (en) | 2015-02-26 | 2015-02-26 | Game machine |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010279911A Division JP5703733B2 (en) | 2010-12-15 | 2010-12-15 | Game machine |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016182597A Division JP6315047B2 (en) | 2016-09-20 | 2016-09-20 | Game machine |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015126902A JP2015126902A (en) | 2015-07-09 |
JP6011659B2 true JP6011659B2 (en) | 2016-10-19 |
Family
ID=53837185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015036599A Expired - Fee Related JP6011659B2 (en) | 2015-02-26 | 2015-02-26 | Game machine |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6011659B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016209719A (en) * | 2016-09-20 | 2016-12-15 | 株式会社三洋物産 | Game machine |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4105788B2 (en) * | 1997-11-14 | 2008-06-25 | 任天堂株式会社 | Video game apparatus and storage medium thereof |
JP4114029B2 (en) * | 1999-07-16 | 2008-07-09 | 株式会社セガ | Image processing apparatus, image processing method, and recording medium |
JP2007200110A (en) * | 2006-01-27 | 2007-08-09 | Samii Kk | Image processing device, image processing method, and computer program |
JP5703733B2 (en) * | 2010-12-15 | 2015-04-22 | 株式会社三洋物産 | Game machine |
-
2015
- 2015-02-26 JP JP2015036599A patent/JP6011659B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016209719A (en) * | 2016-09-20 | 2016-12-15 | 株式会社三洋物産 | Game machine |
Also Published As
Publication number | Publication date |
---|---|
JP2015126902A (en) | 2015-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5703736B2 (en) | Game machine | |
JP6131972B2 (en) | Game machine | |
JP5703735B2 (en) | Game machine | |
JP5565292B2 (en) | Game machine | |
JP5482642B2 (en) | Game machine | |
JP6015791B2 (en) | Game machine | |
JP5910672B2 (en) | Game machine | |
JP5783285B2 (en) | Game machine | |
JP6702403B2 (en) | Amusement machine | |
JP6311762B2 (en) | Game machine | |
JP6011659B2 (en) | Game machine | |
JP6015792B2 (en) | Game machine | |
JP5703733B2 (en) | Game machine | |
JP5703734B2 (en) | Game machine | |
JP2017121589A (en) | Game machine | |
JP6614262B2 (en) | Game machine | |
JP6614261B2 (en) | Game machine | |
JP6604394B2 (en) | Game machine | |
JP7120409B2 (en) | game machine | |
JP7120408B2 (en) | game machine | |
JP7283599B2 (en) | game machine | |
JP6311763B2 (en) | Game machine | |
JP6315047B2 (en) | Game machine | |
JP2018015579A (en) | Game machine | |
JP2017119203A (en) | Game machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20160301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6011659 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |