JP2008242619A - Image generation device and image generation program - Google Patents
Image generation device and image generation program Download PDFInfo
- Publication number
- JP2008242619A JP2008242619A JP2007079524A JP2007079524A JP2008242619A JP 2008242619 A JP2008242619 A JP 2008242619A JP 2007079524 A JP2007079524 A JP 2007079524A JP 2007079524 A JP2007079524 A JP 2007079524A JP 2008242619 A JP2008242619 A JP 2008242619A
- Authority
- JP
- Japan
- Prior art keywords
- color
- image
- change color
- image generation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Game Rules And Presentations Of Slot Machines (AREA)
- Image Generation (AREA)
- Slot Machines And Peripheral Devices (AREA)
Abstract
Description
本発明は、遊技機に適する画像生成装置に係り、特に、グラデーションフィルタ(濃淡フィルタ:gradation filter)のような効果を得る画像処理技術に関する。 The present invention relates to an image generation apparatus suitable for a game machine, and more particularly, to an image processing technique for obtaining an effect such as a gradation filter (gradation filter).
従来、コンピュータグラフィックス技術を適用して生成される画像に対し、環境光を設定しレンダリング処理する画像処理技術が知られている。例えば、特開2003−102995号公報には、予め設定された表面情報および三次元オブジェクトの周囲の環境情報から環境光を求め、三次元オブジェクトにいずれかに対する陰影付けを行うように構成した技術が開示されている。このような構成により、周囲の環境に合わせて陰影付けられた三次元画像表示を行うことで、よりリアルな画像表示が可能になっていた(特許文献1、段落0012、0011等)。
しかしながら、上記先行技術では、周囲のオブジェクトからの環境光の映り込みを勘案してリアルな画像表現を可能とするが、太陽光を光源として設定した場合、仮想三次元空間に配置するオブジェクト全体に一様に太陽光が照射されているという設定になるため、いずれのオブジェクトの特定方向に向いている面総てに太陽光が反射しているような画像が得られることになり、表示画面の一部分を明るくし、その他の部分を暗くするような画像が得られなかった。 However, in the above prior art, realistic image expression is possible considering the reflection of ambient light from surrounding objects, but when sunlight is set as a light source, the entire object placed in the virtual three-dimensional space Since the setting is such that the sunlight is uniformly applied, an image in which sunlight is reflected on all surfaces facing in a specific direction of any object is obtained. An image that brightens one part and darkens the other part was not obtained.
特定のオブジェクトのみに照明光を設定して一部分を明るくするスポットライトのような処理は、相対的に演算処理量が多く、複数のオブジェクトに対しスポットライトを設定するような処理は、ゲーム装置等の演算処理能力の比較的低い装置には重すぎる処理である。 A process such as a spotlight that sets illumination light only for a specific object and brightens a part thereof has a relatively large amount of calculation processing, and a process that sets a spotlight for a plurality of objects is a game device or the like. This processing is too heavy for an apparatus having a relatively low processing capacity.
すなわち、従来の技術では、カメラに用いるグラデーションフィルタのように表示画面の上半部分を明るくし、地面部分の画像が暗く沈んだような映像効果を得るための装置は提供されていなかったのである。 In other words, the conventional technology has not provided a device for brightening the upper half of the display screen like a gradation filter used in a camera and obtaining a video effect in which the image of the ground portion is darkened. .
そこで、本発明は、演算処理量を殆ど増やすことなく、グラデーションフィルタを用いたような画像を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image using a gradation filter without substantially increasing the amount of calculation processing.
上記目的を達成するために、本発明の画像生成装置は、仮想三次元空間に配置されたオブジェクトを透視投影変換した表示画像を生成する画像生成装置であって、該透視投影変換のための視点から所定距離に平面オブジェクトを配置する平面オブジェクト配置部と、該平面オブジェクトに所定の濃淡変化色を展開する濃淡変化色展開部と、該透視投影変換後の各ピクセルに対し、該濃淡変化色と該平面オブジェクトの背景に係る色との合成演算をする色合成部とを備えたことを特徴とする。 In order to achieve the above object, an image generation apparatus according to the present invention is an image generation apparatus that generates a display image obtained by perspective projection conversion of an object arranged in a virtual three-dimensional space, and a viewpoint for the perspective projection conversion. A plane object placement unit that arranges a plane object at a predetermined distance from the plane, a shade change color development unit that develops a predetermined shade change color on the plane object, and the shade change color for each pixel after the perspective projection conversion, And a color composition unit that performs a composition operation with a color related to the background of the planar object.
また同様に、本発明の画像生成プログラムは、コンピュータを、仮想三次元空間に配置されたオブジェクトを透視投影変換した表示画像を生成する画像生成装置として動作させる画像生成プログラムであって、該コンピュータに、該透視投影変換のための視点から所定距離に平面オブジェクトを配置する機能と、該平面オブジェクトに所定の濃淡変化色を展開する機能と、該透視投影変換後の各ピクセルに対し、該濃淡変化色と該平面オブジェクトの背景に係る色との合成演算をする機能と、を実行させるための画像生成プログラムである。 Similarly, the image generation program of the present invention is an image generation program that causes a computer to operate as an image generation apparatus that generates a display image obtained by perspective projection conversion of an object arranged in a virtual three-dimensional space. , A function of arranging a planar object at a predetermined distance from the viewpoint for the perspective projection conversion, a function of developing a predetermined shading change color on the planar object, and the shading change for each pixel after the perspective projection conversion An image generation program for executing a function of performing a composition operation of a color and a color related to the background of the planar object.
係る発明によれば、仮想三次元空間において視点から所定距離に平面オブジェクトが配置され、平面オブジェクトに濃淡変化色が展開され、背後のピクセルに係る色と当該濃淡変化色とが色合成されるので、表示画面全体に、濃淡変化色に設定した濃淡と同様の濃淡が付され、カメラにグラデーションフィルタを用いる場合と同じ効果が表示画像に付与されることになる。平面オブジェクトというオブジェクトを一つ追加するのに相当する処理が増えるのみであり、装置の演算処理量は殆ど増えない。 According to the invention, the planar object is arranged at a predetermined distance from the viewpoint in the virtual three-dimensional space, the shade change color is developed on the plane object, and the color related to the background pixel and the shade change color are color-synthesized. The entire display screen is provided with the same shade as the shade set for the shade change color, and the same effect as when the gradation filter is used in the camera is given to the display image. Only the processing equivalent to adding one object called a plane object is increased, and the amount of calculation processing of the apparatus is hardly increased.
なお、平面オブジェクトを設置する所定距離は、他のオブジェクトに比べて最も視点に近い距離とすることが考えられるが、平面オブジェクトを一部のオブジェクトの背後に配置してもよい。この場合、平面オブジェクトの背後に位置するオブジェクトのみに選択的にグラデーションをかけることができる、という効果を奏する。 The predetermined distance for installing the planar object may be the distance closest to the viewpoint compared to other objects, but the planar object may be arranged behind some objects. In this case, there is an effect that gradation can be selectively applied only to the object located behind the planar object.
また、平面オブジェクトは、表示画像領域の総てを占める必要はなく、視点から見て一部領域を覆うように配置してもよい。表示画像のうち一部のみにグラデーションを利用するような場合に適する。 Further, the planar object need not occupy the entire display image area, and may be arranged so as to cover a part of the area as viewed from the viewpoint. This is suitable for the case where gradation is used for only a part of the display image.
本発明の変形例に係る画像生成装置は、仮想三次元空間に配置されたオブジェクトを透視投影変換した表示画像を生成する画像生成装置であって、該透視投影変換後の各ピクセルに色を展開する際に、色が展開された該表示画像の少なくとも一部領域において、各ピクセルに対し所定の濃淡変化色との合成演算をする色合成部を備えたことを特徴とする。 An image generation apparatus according to a modification of the present invention is an image generation apparatus that generates a display image obtained by perspective projection conversion of an object arranged in a virtual three-dimensional space, and develops a color in each pixel after the perspective projection conversion In this case, at least a partial region of the display image in which the color is developed is provided with a color composition unit that performs a composition operation on each pixel with a predetermined shade change color.
同様に、本発明の変形例に係る画像生成プログラムは、コンピュータを、仮想三次元空間に配置されたオブジェクトを透視投影変換した表示画像を生成する画像生成装置として動作させる画像生成プログラムであって、該コンピュータに、該透視投影変換後の各ピクセルに色を展開する際に、色が展開された該表示画像の少なくとも一部領域において、各ピクセルに対し所定の濃淡変化色との合成演算をする機能を実行させるための画像生成プログラムである。 Similarly, an image generation program according to a modification of the present invention is an image generation program that causes a computer to operate as an image generation apparatus that generates a display image obtained by perspective projection conversion of an object arranged in a virtual three-dimensional space. When the computer develops a color for each pixel after the perspective projection conversion, the computer performs a composition operation with a predetermined shading change color for each pixel in at least a partial region of the display image in which the color is developed. It is an image generation program for executing a function.
係る発明によれば、透視投影返還後のレンダリング処理において、表示画面の少なくとも一部領域に対して、一様に濃淡変化色に基づいてピクセル毎の合成演算がされる。よって、仮想三次元空間でのモデリング変換とは切り離してグラデーションフィルタを使用するような効果を付与することが可能である。 According to such an invention, in the rendering process after the perspective projection return, at least a partial area of the display screen is uniformly subjected to the composition operation for each pixel based on the shade change color. Therefore, it is possible to provide an effect of using the gradation filter separately from the modeling conversion in the virtual three-dimensional space.
なお、濃淡変化色は、表示画像領域総てに適用する必要はなく一部領域のみに適用してもよい。表示画像のうち一部のみにグラデーションを利用するような場合に適する。 Note that the shade change color need not be applied to the entire display image area, and may be applied to only a partial area. This is suitable for the case where gradation is used for only a part of the display image.
ここで「濃淡変化色」は、グラデーションフィルタと同じように、表示画面の一端から他端にかけて色濃度が変わるように設定された所定色のテクスチャ、すなわちグラデーションパターンをいう。この濃淡変化色はピクセル毎に背景色と合成演算されるものである。 Here, the “light and shade change color” refers to a texture of a predetermined color, that is, a gradation pattern, set so that the color density changes from one end to the other end of the display screen, as in the gradation filter. This light and shade change color is combined with the background color for each pixel.
また濃淡変化色の変化特性の程度、色調、範囲に限定はない。例えば、濃淡変化色は、表示画像の一端から他端にかけて連続的に色濃度が変化していくように構成することが可能である。色濃度が連続的に変化していく、いわゆるグラデーションフィルタを利用した場合と同様の効果を付与するものである。この連続的とは、一次線形的に色濃度が変化しても多次線形的に色濃度が変化してもよく、演出内容に応じて適当な濃淡変化を設定すればよい。 Further, there is no limitation on the degree, color tone, and range of the change characteristics of the shade change color. For example, the light and shade change color can be configured such that the color density continuously changes from one end to the other end of the display image. This provides the same effect as when using a so-called gradation filter in which the color density changes continuously. The term “continuous” means that the color density may change linearly or may change in a multi-linear manner, and an appropriate shading change may be set according to the contents of the effect.
また濃淡変化色は、画像演出に応じて色濃淡変化色特性が変更されるように構成することは好ましい。画像演出が変われば視点や画像の構成が変わるところ、かかる構成によれば、画像演出の内容に応じて色濃淡変化色特性を変えることとなり、演出内容に適するグラデーションを付与可能である。 Further, it is preferable that the shade change color is configured such that the color shade change color characteristic is changed according to the image effect. When the image effect changes, the viewpoint and the image configuration change. According to such a configuration, the color density change color characteristic is changed according to the content of the image effect, and a gradation suitable for the effect content can be given.
また濃淡変化色は、画像演出に応じて色調が変更されるように構成することも好ましい。画像演出が変われば画像の色調が変わるところ、かかる構成によれば、画像演出の内容に応じて濃淡変化色の色調、すなわちグラデーションを付与する色が変わるので、演出内容に適するグラデーションを付与可能である。 Further, it is also preferable that the shade change color is configured so that the color tone is changed according to the image effect. When the image effect changes, the color tone of the image changes. According to such a configuration, the color tone of the shade change color, that is, the color to which the gradation is applied changes according to the content of the image effect, so that a gradation suitable for the effect content can be given. is there.
また色合成部は、視線方向に応じて各ピクセルに対する濃淡変化色の加算量を変更するように構成してもよい。仮想三次元空間で視線を上向きにすれば画面中で空が占める割合が多くなり、下向きにすれば画面中で地面が占める割合が多くなるところ、係る構成によれば、そのような視線方向に応じて濃淡変化色の加算量を変更するので、例えば視線が上向きの場合には加算量を少なくして全体を明るくし、視線が下向きの場合には加算量を多くして全体を暗くするような、変化に富んだグラデーション付与が可能となる。 In addition, the color composition unit may be configured to change the addition amount of the shade change color for each pixel according to the line-of-sight direction. If the line of sight is directed upward in the virtual three-dimensional space, the proportion of the sky in the screen increases, and if it is directed downward, the proportion of the ground in the screen increases, according to such a configuration, The amount of color change is changed accordingly.For example, when the line of sight is upward, the total amount is reduced by decreasing the amount of addition, and when the line of sight is downward, the amount of addition is increased to darken the whole. It is possible to add gradations that are rich in change.
なお、本発明の画像生成プログラムは、記憶媒体に格納されて流通されるものである。このような記憶媒体としては、コンピュータに読み取り可能な媒体であり、各種ROM、フラッシュメモリを備えたUSBメモリ、USBメモリ、SDメモリ、メモリスティック、メモリカードや、FD、CD−ROM、±R/W、RAM、DVD−ROM、±R/W、RAM、等の物理的な記憶媒体を含む。また広義の記録媒体として、プログラムを伝送可能なインターネット等の伝送媒体をも含むものとする。伝送媒体を通して伝送されたプログラム(ダウンロード)されたプログラムは、そのままメモリに記憶されて、コンピュータに実行されるものだからである。 The image generation program of the present invention is stored and distributed in a storage medium. Such a storage medium is a computer-readable medium, such as various types of ROM, USB memory with flash memory, USB memory, SD memory, memory stick, memory card, FD, CD-ROM, ± R / Physical storage media such as W, RAM, DVD-ROM, ± R / W, RAM, etc. are included. In addition, the broad recording medium includes a transmission medium such as the Internet capable of transmitting the program. This is because the program (downloaded) transmitted through the transmission medium is stored in the memory as it is and executed by the computer.
本発明によれば、仮想三次元空間において視点から所定距離に平面オブジェクトが配置され、平面オブジェクトに濃淡変化色が展開され、背後のピクセルに係る色と当該濃淡変化色とが色合成されるので、表示画面全体に、濃淡変化色に設定した濃淡と同様の濃淡が付され、カメラにグラデーションフィルタを用いる場合と同じ効果が表示画像に付与されることになる。そして装置の演算処理量は殆ど増えない。 According to the present invention, the planar object is arranged at a predetermined distance from the viewpoint in the virtual three-dimensional space, the shade change color is developed on the plane object, and the color relating to the pixel behind and the shade change color are color-synthesized. The entire display screen is provided with the same shade as the shade set for the shade change color, and the same effect as when the gradation filter is used in the camera is given to the display image. And the processing amount of the apparatus hardly increases.
以下、本発明の好適な実施形態として、遊技場等に設置される遊技機(スロットマシン)で、本発明の画像生成プログラムを実行することにより実現される画像生成装置を例示する。以下の実施形態は本発明の適応例に過ぎず、本発明は実施形態に限定されず種々に変更して適用することが可能である。 Hereinafter, as a preferred embodiment of the present invention, an image generation apparatus realized by executing an image generation program of the present invention on a gaming machine (slot machine) installed in a game hall or the like will be exemplified. The following embodiments are merely examples of application of the present invention, and the present invention is not limited to the embodiments and can be applied with various modifications.
(定義)
本明細書における用語を以下のように定義する。
「遊技」とはメダルの投入からストップスイッチの操作を経た次のメダルの投入前までの一連の動作をいう。
「通常遊技」とは、デフォルト状態のために設定された期待値で実行される「遊技」をいう。
「特別遊技」とは、「通常遊技」とは異なる「遊技」であって遊技者に有利な「遊技」をいう。
(Definition)
The terms used in this specification are defined as follows.
“Game” refers to a series of operations from the insertion of a medal to the operation of a stop switch before the next medal is inserted.
“Normal game” refers to a “game” executed with an expected value set for a default state.
The “special game” is a “game” that is different from the “normal game” and is advantageous to the player.
「抽選」とは、遊技機が所定の条件(スイッチの操作状態等)になった場合に、乱数等を用いて、予め定められた期待値でコンピュータがくじを引く処理をいう。
「当選」とは、「抽選」の結果、当たりになった場合をいい、特に、コンピュータによるくじ引きで当たりとなった場合をいう。本実施形態では機械的に定まる「入賞」と区別して用いる。
「入賞」とは、停止したリールにより示される有効ライン上の図柄の組合せが、特定の役を示す状態となっていることをいう。
“Lottery” refers to a process in which a computer draws a lottery with a predetermined expected value using a random number or the like when a gaming machine reaches a predetermined condition (switch operation state or the like).
“Winning” refers to a case where the result of the “lottery” is a win, in particular, a case where a win is obtained by a computer lottery. In the present embodiment, it is distinguished from “winning” determined mechanically.
“Winning” means that a combination of symbols on the active line indicated by the stopped reels is in a state indicating a specific combination.
「役」とは、抽選の結果が当選である場合に、その当選の種類を特定するものである。「当選役」または図柄が揃った場合には「入賞役」ともいう。
「特別役」とは、「特別遊技」に移行させるための役である。
「小役」とは、その小役の種類に応じた枚数のメダルを遊技者に払い出すための役である。
The “combination” is to specify the type of winning when the result of the lottery is winning. It is also called “winning role” when the “winning role” or the design is complete.
The “special role” is a role for shifting to “special game”.
The “small role” is a role for paying out to the player the number of medals corresponding to the type of the small role.
「リプレイ」とは、前回の遊技で投入されたメダル枚数を維持したまま再遊技を行う権利を与えるための役である。
「有効ライン」とは、停止した図柄の並びを便宜上示すもので、有効ライン上に並んだ図柄の組合せによって特定の「役」であるか「ハズレ」であるかを示すものである。複数の「有効ライン」が設定されている場合には、それらをまとめて「有効ライン群」という。
“Replay” is a role for giving the right to replay while maintaining the number of medals inserted in the previous game.
The “effective line” indicates the arrangement of the stopped symbols for the sake of convenience, and indicates whether the symbol is a specific “combination” or “losing” depending on the combination of symbols arranged on the effective line. When a plurality of “effective lines” are set, they are collectively referred to as “effective line group”.
(筐体構成)
まず実施形態共通の筐体構成から説明する。
図1は、本発明の実施形態に係るスロットマシンの外観を示す正面図である。
図1に示すように、本実施形態に係るスロットマシン10の筐体の前面部は、開閉自在にフロントパネル20が取り付けられている。フロントパネル20の上部に表示機能を有する演出表示装置40が設けられた表示領域となっており、中央部に操作部が設けられている。
(Case configuration)
First, the case configuration common to the embodiments will be described.
FIG. 1 is a front view showing an appearance of the slot machine according to the embodiment of the present invention.
As shown in FIG. 1, a front panel 20 is attached to a front surface portion of a housing of the slot machine 10 according to the present embodiment so as to be freely opened and closed. It is a display area in which an effect display device 40 having a display function is provided in the upper part of the front panel 20, and an operation unit is provided in the center.
筐体上部には、表示機能を有する演出表示装置40が設けられている。演出表示装置40は、例えば液晶パネルを含んで構成されており、種々の演出のための画像や遊技に必要な情報を表示画面に表示可能に構成されている。演出表示装置40には、1つの透明な表示窓21が設けられている。表示窓21の領域には、画像を表示するための液晶や液晶を構成する部材(偏光板など)や液晶を制御する回路などが設けられておらず、光を透過するようになっており、物理的に画像表示できない領域となっている。 An effect display device 40 having a display function is provided in the upper part of the housing. The effect display device 40 is configured to include, for example, a liquid crystal panel, and is configured to be able to display images for various effects and information necessary for the game on the display screen. The effect display device 40 is provided with one transparent display window 21. The area of the display window 21 is not provided with a liquid crystal for displaying an image, a member constituting the liquid crystal (such as a polarizing plate), or a circuit for controlling the liquid crystal, and transmits light. It is an area that cannot physically display an image.
筐体内部であって表示窓21を通して視認可能な位置には、3つのリール(回胴)が配置されている。正面から見て左側から、左リール31L、中リール31C、右リール31Rの順番で配置されている。 Three reels (rotating drums) are arranged in a position inside the housing and visible through the display window 21. From the left side when viewed from the front, the left reel 31L, the middle reel 31C, and the right reel 31R are arranged in this order.
リール31L、31C及び31Rは、リング状の中空構造に成形されている。リールの外周は、外周面に貼られるリールテープの幅に成形されており、外周面にはリールテープ上に印刷される図柄の形状に合わせて開口が複数設けられている。リールの内部は中空になっており、外周面から延びるフレームで回転軸が支持されている。 The reels 31L, 31C and 31R are formed in a ring-shaped hollow structure. The outer periphery of the reel is formed in the width of the reel tape that is affixed to the outer peripheral surface, and a plurality of openings are provided on the outer peripheral surface in accordance with the shape of the pattern printed on the reel tape. The inside of the reel is hollow, and the rotating shaft is supported by a frame extending from the outer peripheral surface.
リールの外周面には入賞図柄(入賞役を構成する図柄)を印刷したリールテープが各々貼られている。それぞれのリールテープには、例えば21個の図柄が等間隔で配列されて印刷されている。図柄の配列は、リールテープごとに異なるようになっている。リールテープの図柄が、リールの外周面に設けられた開口に対応するようになっている。表示窓21からは、この表示窓を通してリール31L、31C及び31Rが観察されるようになっており、各リール外周面の上下方向で連続する3つの図柄が見えるように表示窓21の大きさが設定されている。図1では、リール群31(リール31L、31C及び31Rのまとまりを意味する)上に示された円が、一つの図柄を示している。 Each reel tape on which a winning symbol (a symbol constituting a winning combination) is printed is affixed to the outer peripheral surface of the reel. On each reel tape, for example, 21 symbols are printed at regular intervals. The arrangement of the symbols is different for each reel tape. The design of the reel tape corresponds to the opening provided on the outer peripheral surface of the reel. From the display window 21, the reels 31L, 31C, and 31R are observed through the display window. The size of the display window 21 is such that three consecutive symbols in the vertical direction of the outer peripheral surface of each reel can be seen. Is set. In FIG. 1, a circle shown on the reel group 31 (meaning a group of reels 31L, 31C, and 31R) represents one symbol.
リール31L、31C及び31Rのそれぞれの回転軸には、ステッピングモータ(図示せず)が各々連結されている。このステッピングモータは、リール31L、31C及び31Rを任意の速度で回転させたり、任意の角度(位置)で停止させたりすることが可能になっている。各リールが回転する場合には、リール31L、31C及び31Rの図柄が表示窓21内で上下に移動しているように視認されるようになっている。 Stepping motors (not shown) are connected to the respective rotation shafts of the reels 31L, 31C, and 31R. This stepping motor is capable of rotating the reels 31L, 31C and 31R at an arbitrary speed or stopping at an arbitrary angle (position). When each reel rotates, the symbols of the reels 31L, 31C, and 31R are visually recognized as moving up and down in the display window 21.
リール31L、31C及び31Rの内側には、バックランプ(図示せず)が設けられている。バックランプはリールごとに3個ずつ配置されており、リールが停止した時に表示窓21から見える総計で9個の図柄に対して、リール外周面の開口を通して光を照射するようになっている。 A back lamp (not shown) is provided inside the reels 31L, 31C, and 31R. Three back lamps are arranged for each reel, and light is emitted through the openings on the outer peripheral surface of the reel for a total of nine symbols visible from the display window 21 when the reels are stopped.
図1に示す表示窓21上の破線は、有効ライン22a、22b及び22cからなる有効ライン群22を示すものである。有効ライン群22は、水平方向の中段の有効ライン22aと、水平方向の上段及び下段の2本の有効ライン22bと、右下がり及び左下がりの斜め方向の2本の有効ライン22cとから構成されている。そして、リール31L、31C及び31Rに付された図柄は、リール31L、31C及び31Rが停止した時に、表示窓21から見える9個の図柄が全てこれらの有効ライン群22上に位置するような間隔で配置されている。 A broken line on the display window 21 shown in FIG. 1 indicates an effective line group 22 including effective lines 22a, 22b, and 22c. The effective line group 22 includes a horizontal effective line 22a in the horizontal direction, two effective lines 22b in the upper and lower horizontal directions, and two effective lines 22c in the diagonally downward and leftward directions. ing. The symbols attached to the reels 31L, 31C and 31R are spaced so that all nine symbols visible from the display window 21 are positioned on these effective line groups 22 when the reels 31L, 31C and 31R are stopped. Is arranged in.
スロットマシン10の筐体の中央部において、演出表示装置40の右下側に当たる位置には、メダル投入口23が設けられている。メダル投入口23からメダルが投入されると、投入されたメダル枚数に応じて有効ライン22a、22b及び22cの1ライン乃至5ラインが有効になるように構成されている。すなわち、投入した枚数のメダルが掛け金として徴収される。投入されたメダルが1枚の場合には1つの有効ライン22aが有効になり、2枚のときは水平方向の3つの有効ライン22a及び22bが有効になり、3枚のときはさらに加えて斜め方向の2つの有効ライン22cを含む総計で5つの有効ライン22a〜22cが有効になる。これらの制御は、後述のメインCPU(中央演算装置)51(図2参照)により行われる。例えば、3枚のメダルが投入されている場合には、リール31L、31C及び31Rが停止した時に、少なくとも1つの有効ライン22a〜22cに特定の図柄の組み合わせが停止していれば、その組み合わせに応じた役に入賞したこととなる。 A medal slot 23 is provided at a position corresponding to the lower right side of the effect display device 40 in the center of the casing of the slot machine 10. When medals are inserted from the medal insertion slot 23, one to five lines of the effective lines 22a, 22b and 22c are activated according to the number of inserted medals. That is, the inserted number of medals is collected as a premium. When one medal is inserted, one effective line 22a is effective. When two medals are inserted, three horizontal effective lines 22a and 22b are effective. In total, including two effective lines 22c in the direction, five effective lines 22a to 22c become effective. These controls are performed by a later-described main CPU (central processing unit) 51 (see FIG. 2). For example, when three medals are inserted, if a combination of specific symbols is stopped on at least one of the effective lines 22a to 22c when the reels 31L, 31C, and 31R are stopped, the combination is selected. It will be a prize for the corresponding role.
また筐体の中央部には、遊技者によって操作される各種の操作スイッチが設けられている。例えば、本実施形態では、スタートスイッチ41、ストップスイッチ群42及びベットスイッチ群43が設けられている。 Various operation switches operated by the player are provided at the center of the housing. For example, in this embodiment, a start switch 41, a stop switch group 42, and a bet switch group 43 are provided.
スタートスイッチ41は、リール31L、31C及び31Rの回転をスタートさせるときに遊技者が操作するスイッチ、例えばボタンやレバーである。ストップスイッチ群42は、左リール31Lを停止させるときに操作する左ストップスイッチ42Lと、中リール31Cを停止させるときに操作する中ストップスイッチ42Cと、右リール31Rを停止させるときに操作する右ストップスイッチ42Rとから構成されている。これらのストップスイッチ42L、42C及び42Rは、例えばボタンとして並設されている。 The start switch 41 is a switch operated by the player when starting the rotation of the reels 31L, 31C, and 31R, for example, a button or a lever. The stop switch group 42 includes a left stop switch 42L that is operated when stopping the left reel 31L, a middle stop switch 42C that is operated when stopping the middle reel 31C, and a right stop that is operated when stopping the right reel 31R. Switch 42R. These stop switches 42L, 42C, and 42R are juxtaposed as buttons, for example.
ベットスイッチ群43は、遊技者がクレジット内のメダルを投入する際にベット数(賭数)を指定するスイッチ群であり、1ベット・2ベットスイッチ43a及びMAXベットスイッチ(3ベットスイッチ)43bから構成されている。これらのベットスイッチ43a及び43bも、例えばボタンとして配置されている。1ベット・2ベットスイッチ43aが操作されると、1枚又は2枚のメダルがベットされ(ゲームの掛け額として徴収され)、MAXベットスイッチ43bが操作されると、最大ベット数である3枚のメダルがベットされる。すなわち、ベットスイッチ群43の操作で指定されるベット数が、クレジットとなっているメダル数から徴収され、クレジットがベット数だけ減算される。 The bet switch group 43 is a switch group for designating the number of bets (the number of bets) when the player inserts a medal in the credit. The bet switch group 43 includes a 1-bet / 2-bet switch 43a and a MAX bet switch (3-bet switch) 43b. It is configured. These bet switches 43a and 43b are also arranged as buttons, for example. When the 1-bet / 2-bet switch 43a is operated, one or two medals are bet (collected as a game amount), and when the MAX bet switch 43b is operated, the maximum 3 bets Medals are bet. That is, the number of bets designated by operating the bet switch group 43 is collected from the number of medals that are credited, and the credit is subtracted by the number of bets.
さらに、筐体の下部の中央部には、メダル払出口90が設けられ、メダル払出口90の両側には、スピーカ71(左スピーカ71Lおよび右スピーカ71R)が設けられている。遊技(ゲーム)中には、種々の演出、例えばバックランプの点灯、演出表示装置40を用いた画像表示及びスピーカ71からの音声の出力等が行われる。さらに、このような演出として、入賞可能性の告知演出が行われることもある。 Further, a medal payout opening 90 is provided at the center of the lower part of the housing, and speakers 71 (left speaker 71L and right speaker 71R) are provided on both sides of the medal payout opening 90. During the game (game), various effects, for example, lighting of a back lamp, image display using the effect display device 40, output of sound from the speaker 71, and the like are performed. Further, as such an effect, there is a case where a notification effect of the possibility of winning is performed.
これらの構成を有するスロットマシンにおいて実施される通常遊技の概要を簡単に説明する。
スロットマシン10において、遊技者がメダル投入口23からメダルを投入するか、ベットスイッチ群43を操作すると、有効ライン22a〜22cがベット数に応じて有効化される。
An outline of the normal game executed in the slot machine having these configurations will be briefly described.
In the slot machine 10, when a player inserts a medal from the medal insertion slot 23 or operates the bet switch group 43, the effective lines 22a to 22c are activated according to the number of bets.
ベット数を指定した遊技者がスタートスイッチ41を操作すると、ベット数に応じた役の抽選が行われると共に、リール31L、31C及び31Rが回転し始める。そして、遊技者がストップスイッチ42L、42C及び42Rを操作すると、操作されたボタンに応じてリール31L、31C及び31Rの回転が停止する。このとき、スタートスイッチ41の操作と同時に行われている役の抽選結果が当選であった場合には、有効化されている有効ライン群22上に並ぶ図柄の組み合わせが、予め定められた何らかの役の図柄の組み合わせに一致するようにリールが停止制御され、その入賞役に応じたメダルの払い出し等が行われる。 When the player who has designated the bet number operates the start switch 41, a winning combination according to the bet number is performed and the reels 31L, 31C and 31R start to rotate. When the player operates the stop switches 42L, 42C, and 42R, the reels 31L, 31C, and 31R stop rotating according to the operated button. At this time, if the lottery result of the combination being performed simultaneously with the operation of the start switch 41 is a winning combination, the combination of symbols arranged on the activated effective line group 22 is a predetermined combination of combinations. The reels are controlled so as to match the combination of symbols, and medals are paid out according to the winning combination.
(システム構成)
次に、スロットマシン10の内部構成等のシステム構成について説明する。
図2は、本発明の実施形態に係るスロットマシン10のシステム構成を示すブロック図である。スロットマシン10の筐体内部には、メイン制御基板50、並びにこのメイン制御基板50に接続されたサブ制御基板60、リール基板11、中央表示基板12及び電源装置基板13が配置されている。
(System configuration)
Next, a system configuration such as an internal configuration of the slot machine 10 will be described.
FIG. 2 is a block diagram showing a system configuration of the slot machine 10 according to the embodiment of the present invention. Inside the casing of the slot machine 10, a main control board 50, a sub control board 60, a reel board 11, a central display board 12, and a power supply board 13 connected to the main control board 50 are arranged.
(メイン制御基板50)
メイン制御基板50には、メインCPU51、ROM52、RAM53及びインタフェース回路(I/F回路)54が設けられており、これらはバス55を介して互いに接続されている。
(Main control board 50)
The main control board 50 is provided with a main CPU 51, ROM 52, RAM 53, and interface circuit (I / F circuit) 54, which are connected to each other via a bus 55.
メインCPU51は、プログラムを構成する命令の読み出し(フェッチ)、解釈(デコード)及び実行を行う。そして、メインCPU51は、ROM52に記憶されているプログラム及びデータ等を読み出し、これらに基づいてスロットマシン10全体の制御を行う。 The main CPU 51 reads (fetches), interprets (decodes), and executes instructions constituting the program. The main CPU 51 reads out programs, data, and the like stored in the ROM 52, and controls the entire slot machine 10 based on these.
ROM52には、メインCPU51に、後述の図6のフローチャートに示すような操作に基づく抽選処理及びその他の遊技の制御に必要なソフトウェアプログラム及びデータ等が記憶されている。また、RAM53は、メインCPU51が各種の制御を行う時に用いられ、データ等を一時的に記憶可能に構成されている。 The ROM 52 stores software programs and data necessary for lottery processing and other game controls based on operations as shown in the flowchart of FIG. The RAM 53 is used when the main CPU 51 performs various controls, and is configured to be able to temporarily store data and the like.
I/F回路54は、メイン制御基板50と、サブ制御基板60、リール基板11、中央表示基板12及び電源装置基板13との間で行われる信号の送受信の際に、タイミングの制御等を行うようになっている。 The I / F circuit 54 performs timing control and the like when signals are transmitted and received between the main control board 50, the sub control board 60, the reel board 11, the central display board 12, and the power supply board 13. It is like that.
(サブ制御基板60)
サブ制御基板60には、サブCPU61、ROM62、制御用RAM63、画像制御プロセッサ64、ROM65、ビデオRAM66、画像データROM67、音源回路68、サウンドROM72、アンプ70及びインタフェース回路(I/F回路)69が設けられている。サブCPU61、ROM62、RAM63、画像制御プロセッサ64、及びI/F回路69はバス73を介して互いに接続されている。また、ROM65、ビデオRAM66、画像データROM67、および音源回路68は画像制御プロセッサ64に接続され、アンプ70およびサウンドROM72は音源回路68に接続されている。
(Sub control board 60)
The sub control board 60 includes a sub CPU 61, ROM 62, control RAM 63, image control processor 64, ROM 65, video RAM 66, image data ROM 67, sound source circuit 68, sound ROM 72, amplifier 70, and interface circuit (I / F circuit) 69. Is provided. The sub CPU 61, ROM 62, RAM 63, image control processor 64, and I / F circuit 69 are connected to each other via a bus 73. The ROM 65, the video RAM 66, the image data ROM 67, and the sound source circuit 68 are connected to the image control processor 64, and the amplifier 70 and the sound ROM 72 are connected to the sound source circuit 68.
サブ制御基板60は、大きく、演出制御基板60aと、画像音響生成基板60bとに分けられる。演出制御基板60aには、サブCPU61、ROM62、RAM63、I/F回路69が属し、画像音響生成基板60bには、画像制御プロセッサ64、ROM65,ビデオRAM66、画像データROM67、音源回路68、アンプ70、およびサウンドROM72が属している。演出制御基板60aはROM62に格納された演出制御プログラムに基づいて動作し、画像音響生成基板60bはROM65に格納された画像生成プログラムに基づいて動作するようになっている。 The sub-control board 60 is roughly divided into an effect control board 60a and an image sound generation board 60b. The effect control board 60a includes the sub CPU 61, ROM 62, RAM 63, and I / F circuit 69, and the image sound generation board 60b includes the image control processor 64, ROM 65, video RAM 66, image data ROM 67, sound source circuit 68, and amplifier 70. , And a sound ROM 72. The effect control board 60 a operates based on the effect control program stored in the ROM 62, and the image sound generation board 60 b operates based on the image generation program stored in the ROM 65.
サブCPU61は、演出制御基板60aの動作を司る演算素子であり、ROM62に記憶されている演出制御プログラムを構成する命令の読み出し(フェッチ)、解釈(デコード)し、ROM62に記憶されているデータを読み出し、演出制御を行うようになっている。なお、サブCPU61の処理能力や開発言語等には、何らの制約もない。 The sub CPU 61 is an arithmetic element that controls the operation of the effect control board 60a. The sub CPU 61 reads (fetches) and interprets (decodes) instructions constituting the effect control program stored in the ROM 62, and stores the data stored in the ROM 62. Reading and effect control are performed. Note that there are no restrictions on the processing capability or development language of the sub CPU 61.
ROM62には、サブCPU61に実行させるための、演出制御プログラム及びデータが記憶されている。また、RAM63は、サブCPU61が各種の制御を行う時に用いられ、データ等を一時的に記憶可能に構成されている。 The ROM 62 stores an effect control program and data to be executed by the sub CPU 61. The RAM 63 is used when the sub CPU 61 performs various controls, and is configured to be able to temporarily store data and the like.
これらのサブCPU61、ROM62及びRAM63は、夫々メイン制御基板50に設けられたメインCPU51、ROM52及びRAM53と同様の機能を有するものである。なお、ROM62及びRAM63は、夫々ROM52及びRAM53と同一のものを用いてもよいが、これらよりも容量の大きいものを用いてもよい。 The sub CPU 61, ROM 62, and RAM 63 have the same functions as the main CPU 51, ROM 52, and RAM 53 provided on the main control board 50, respectively. Note that the ROM 62 and the RAM 63 may be the same as the ROM 52 and the RAM 53, respectively, but those having a larger capacity may be used.
I/F回路69は、メイン制御基板50からの信号の受信の際に、タイミングの制御等を行う。なお、上述のように、メイン制御基板50からサブ制御基板60への信号の送信は行われるが、サブ制御基板60からメイン制御基板50への信号の送信は行われない。すなわち、一方向の送信のみが可能となっている。 The I / F circuit 69 performs timing control and the like when receiving a signal from the main control board 50. As described above, the signal is transmitted from the main control board 50 to the sub control board 60, but the signal is not transmitted from the sub control board 60 to the main control board 50. That is, only one-way transmission is possible.
画像制御プロセッサ64は、画像音響生成基板60bの動作を司る専用演算素子であり、ROM65に記憶されている画像生成プログラムを構成する命令の読み出し(フェッチ)、解釈(デコード)し、画像データROM67に記憶されているデータを読み出し、画像生成を行うようになっている。また音源回路68にコマンドを送出し、音響生成を行うようになっている。なお、画像制御プロセッサ64の処理能力や開発言語等には、何らの制約もない。 The image control processor 64 is a dedicated arithmetic element that controls the operation of the image sound generation board 60 b. The image control processor 64 reads (fetches) and interprets (decodes) instructions constituting the image generation program stored in the ROM 65, and stores them in the image data ROM 67. The stored data is read to generate an image. A command is sent to the sound source circuit 68 to generate sound. Note that there are no restrictions on the processing capability or development language of the image control processor 64.
ROM65には、画像制御プロセッサ64に実行させるための、後述のフローチャートに示すような画像生成プログラム及びデータが記憶されている。 The ROM 65 stores an image generation program and data as shown in a flowchart described below to be executed by the image control processor 64.
画像データROM67には、画像演出のためのキャラクタ、文字及び背景等の画像データを生成するための元画像データが記憶されている。ビデオRAM66は、画像制御プロセッサ64が演出表示装置40に表示しようとする画像データを生成する時に用いられ、画像データROM67から読み出した元画像データ等に基づき生成された画像データがフレーム画像データとして展開されるようになっている。演出表示装置40は、ビデオRAM66に記憶されたフレーム画像データを表示可能にサブ制御基板60に接続されている。 The image data ROM 67 stores original image data for generating image data such as characters, characters and backgrounds for image production. The video RAM 66 is used when the image control processor 64 generates image data to be displayed on the effect display device 40, and the image data generated based on the original image data read from the image data ROM 67 is developed as frame image data. It has come to be. The effect display device 40 is connected to the sub-control board 60 so that the frame image data stored in the video RAM 66 can be displayed.
音源回路68は、画像制御プロセッサ64の制御により音響生成を行うようになっている。具体的に、音源回路68は、所定のチャネル数、例えば8つの音響チャネルの発音回路を備えており、音響チャネル数分のフレーズの同時再生が可能になっている。音源回路68は、画像制御プロセッサ64からの音響演出情報に基づいてサウンドROM72から所定の音源データを読み出し音響信号を、右チャネル、左チャネル別に発生させる。そしてD/A変換してアナログ音響信号として出力する。アンプ70は、この左右のチャネルそれぞれのアナログ音響信号を増幅し、右スピーカ71R・左スピーカ71Rに、ステレオ音響を送出させる。 The sound source circuit 68 generates sound under the control of the image control processor 64. Specifically, the sound source circuit 68 includes a sound generation circuit for a predetermined number of channels, for example, eight acoustic channels, and can simultaneously reproduce phrases corresponding to the number of acoustic channels. The sound source circuit 68 reads predetermined sound source data from the sound ROM 72 based on the sound effect information from the image control processor 64 and generates sound signals for the right channel and the left channel. Then, it is D / A converted and output as an analog sound signal. The amplifier 70 amplifies the analog sound signals of the left and right channels, and sends the stereo sound to the right speaker 71R and the left speaker 71R.
(リール基板11)
リール基板11には、左リール31L、中リール31C及び右リール31Rを駆動するためのステッピングモータ(図示せず)が接続されている。各ステッピングモータは、さらに、これらのリール31L、31C及び31Rの回転軸に接続されていく。これらのリール31L、31C及び31Rの動作を制御するための制御信号は、メインCPU51からリール基板11に供給されるようになっている。
(Reel board 11)
A stepping motor (not shown) for driving the left reel 31L, the middle reel 31C, and the right reel 31R is connected to the reel substrate 11. Each stepping motor is further connected to the rotation shafts of these reels 31L, 31C and 31R. Control signals for controlling the operations of the reels 31L, 31C and 31R are supplied from the main CPU 51 to the reel substrate 11.
(中央表示基板12)
中央表示基板12は、例えばフロントパネル20の裏側の中央部に取り付けられる。
中央表示基板12には、セレクタ81、1ベット・2ベットスイッチ43a、MAXベットスイッチ(3ベットスイッチ)43b、スタートスイッチ(レバー)41、左ストップスイッチ(ボタン)42L、中ストップスイッチ(ボタン)42C、右ストップスイッチ(ボタン)42R、設定表示部82及び設定変更スイッチ83が接続されている。
(Central display board 12)
The central display substrate 12 is attached to, for example, a central portion on the back side of the front panel 20.
The central display board 12 includes a selector 81, a 1-bet / 2-bet switch 43a, a MAX bet switch (3-bet switch) 43b, a start switch (lever) 41, a left stop switch (button) 42L, and a middle stop switch (button) 42C. A right stop switch (button) 42R, a setting display section 82, and a setting change switch 83 are connected.
セレクタ81は、メダル投入口23から投入されたメダルが正規のものであるか識別し、不正なメダルを排除するように構成されている。設定表示部82は、フロントパネル20の裏側から見えるように配置されており、確率や払い出しに関する設定(例えば、設定1〜設定6)等が表示される。設定変更スイッチ83は、確率や払い出しに関する設定等を変更する際に操作されるスイッチである。 The selector 81 is configured to identify whether or not the medal inserted from the medal insertion slot 23 is a genuine one, and to eliminate an illegal medal. The setting display unit 82 is arranged so as to be visible from the back side of the front panel 20, and displays settings relating to probability and payout (for example, settings 1 to 6). The setting change switch 83 is a switch operated when changing the setting related to the probability and the payout.
(電源装置基板13)
電源装置基板13には、設定変更有効化スイッチ91、電源スイッチ92、ホッパ装置93及び電源装置94が接続されている。
設定変更有効化スイッチ91は、設定変更スイッチ83を用いた設定の変更を可能な状態にする際に操作するスイッチである。すなわち、設定変更有効化スイッチ91がオンの状態になっているときに限り、設定変更スイッチ83を用いた設定の変更が可能になる。電源スイッチ92は、電源装置94のオン/オフを切り替えるためのスイッチである。ホッパ装置93は、メダルの貯蔵及び払い出しを行う装置であり、電源装置基板13を介したメインCPU51からの指示に基づいて、予め貯蔵しておいたメダルから所定枚数のメダルをメダル払出口90に払い出すようになっている。
(Power supply board 13)
A setting change enabling switch 91, a power switch 92, a hopper device 93, and a power device 94 are connected to the power device board 13.
The setting change enable switch 91 is a switch that is operated when a setting change using the setting change switch 83 is enabled. That is, the setting change using the setting change switch 83 can be performed only when the setting change enable switch 91 is in the ON state. The power switch 92 is a switch for switching on / off the power supply device 94. The hopper device 93 is a device for storing and paying out medals. Based on an instruction from the main CPU 51 via the power supply device board 13, a predetermined number of medals are stored in the medal payout opening 90 from medals stored in advance. It comes to pay out.
(メイン制御基板における機能ブロック)
図3は、メイン制御基板50の機能的な構成を示す機能ブロック図である。
図3に示すように、本実施形態においては、例えばメインCPU51がROM52内に記録される演出制御プログラムを実行することにより、以下の制御部101、役抽選部103、リール制御部106、入賞判定部107、遊技状態制御部108及び払出制御部109が機能的に実現される。また、例えばRAM53が、以下のフラグ情報記憶部105として機能し、例えばROM52に、以下の抽選テーブル102のデータが記憶されている。
(Function block on main control board)
FIG. 3 is a functional block diagram showing a functional configuration of the main control board 50.
As shown in FIG. 3, in the present embodiment, for example, the main CPU 51 executes an effect control program recorded in the ROM 52, whereby the following control unit 101, role lottery unit 103, reel control unit 106, winning determination The unit 107, the gaming state control unit 108, and the payout control unit 109 are functionally realized. For example, the RAM 53 functions as the following flag information storage unit 105, and the following lottery table 102 data is stored in the ROM 52, for example.
(役抽選部103)
役抽選部103は、役(特別役、小役、リプレイ等)の抽選を行う機能ブロックである。役抽選部103は、遊技毎に、内部で乱数を発生させた後に一の乱数を取得し、ROM52に記憶されている抽選テーブル102を参照し、取得した乱数が属する領域に基づいて、役の当選の有無及び当選役を判定するようになっている。
(Role lottery section 103)
The role lottery unit 103 is a functional block for performing lottery of a role (special role, small role, replay, etc.). The combination lottery unit 103 obtains one random number after generating a random number internally for each game, refers to the lottery table 102 stored in the ROM 52, and determines the combination of the combination based on the area to which the acquired random number belongs. The presence / absence of winning and the winning combination are determined.
例えば、役抽選部103は、スタートスイッチ41が操作された場合に抽選を行い、この「遊技」が「当選」であるか「ハズレ」であるか及び「当選」である場合の「役」を決定する。すなわち、役抽選部103は、スタートスイッチ41の押下があった場合に、所定の範囲の乱数(例えば、10進法で0〜65535)を発生させ、所定の条件が満たされたときに一の乱数値を取得する。抽選テーブル102には、役抽選部103が取得可能な乱数値に対して、特別役当選領域、小役当選領域、リプレイ当選領域、及び非当選(ハズレ)領域等が、所定の割合で設定されている。 For example, the role lottery unit 103 performs a lottery when the start switch 41 is operated, and determines whether the “game” is “winning” or “losing” and “winning” when it is “winning”. decide. That is, the role lottery unit 103 generates a random number within a predetermined range (for example, 0 to 65535 in decimal notation) when the start switch 41 is pressed, and the predetermined lot is selected when the predetermined condition is satisfied. Get a random value. In the lottery table 102, a special role winning area, a small role winning area, a replay winning area, a non-winning (losing) area, and the like are set at a predetermined ratio with respect to random numbers that can be acquired by the role lottery unit 103. ing.
さらに役抽選部103は、リール31L、31C、及び31Rは、ストップスイッチ42L、42C、及び42Rのそれぞれが押下された後に、「当選」していた場合にはその当選の役を表す図柄の並びとなるように停止制御され、当選役と同じ役に入賞させる。また、抽選の結果が「ハズレ」(非当選)ていた場合には図柄の並びがいずれかの役を表さないように停止制御される。いずれの場合でも、ストップスイッチ42L,42C,及び42Rの押下タイミングが前後しても、停止図柄が変わることはない。 Furthermore, if the reels 31L, 31C, and 31R are “winned” after each of the stop switches 42L, 42C, and 42R is pressed, the winning lottery unit 103 arranges symbols representing the winning combination. The stop is controlled so that the winning combination is won. Further, when the lottery result is “losing” (non-winning), stop control is performed so that the symbol arrangement does not represent any combination. In any case, the stop symbol does not change even if the pressing timing of the stop switches 42L, 42C, and 42R is changed.
なお、役抽選部103が実施する抽選は、一つの遊技当たりに一回のみ実施して役までを決定してしまってもよいが、複数回の抽選を実施するように構成してもよい。
また、スタートスイッチ41の押下やストップスイッチ42L、42C、及び42Rの押下タイミングで抽選を実施して抽選結果を定めるという役抽選部103主導の構成にする他、特別な引き込み動作をせずにリール群31を停止させ、結果的にリール31L、31C、及び31Rが停止した位置を入賞判定部107が検出して入賞の有無や、入賞役を判定するように構成してもよい。この場合、抽選や当選役という概念は無く、役抽選部103は存在しなくてもよい。また、遊技の種類に応じて、役抽選部103主導か否かを、つまり抽選をするか、リールによる入賞判定をするかを切り替えてもよい。
The lottery performed by the combination lottery unit 103 may be performed only once per game and may be determined up to the combination, but may be configured to perform a plurality of lotteries.
In addition to the configuration led by the role lottery unit 103 in which a lottery is performed at the timing of pressing the start switch 41 or the stop switches 42L, 42C, and 42R and the lottery result is determined, the reels can be operated without any special pull-in operation. The group 31 may be stopped, and as a result, the winning determination unit 107 may detect the positions where the reels 31L, 31C, and 31R are stopped, and determine whether there is a winning or a winning combination. In this case, there is no concept of lottery or winning combination, and the combination lottery unit 103 may not exist. Further, depending on the type of game, whether or not the role lottery unit 103 is led, that is, whether to make a lottery or make a winning determination by reel may be switched.
(制御部101)
制御部101は、役抽選部103や、後述のリール制御部106及び入賞判定部107等の動作タイミングを制御する中心的機能ブロックである。
例えば、制御部101は、スタートスイッチ41が操作されたことを条件として、役抽選部103に役の抽選を行わせると共に、リール制御部106にリール群31の回転を開始させ、また、ストップスイッチ群42が操作されたことを条件として、リール制御部106にリール群31の停止制御を行わせ、さらに、リール群31が停止したことを条件として、入賞判定部107に入賞判定を行わせるものである。
なお、制御部101の動作はこれらに限定されるものではなく、メイン制御基板50に必要とされる制御一般を司るものである。
(Control unit 101)
The control unit 101 is a central functional block that controls the operation timing of the combination lottery unit 103, the reel control unit 106 and the winning determination unit 107, which will be described later.
For example, on the condition that the start switch 41 is operated, the control unit 101 causes the combination lottery unit 103 to perform combination lottery, causes the reel control unit 106 to start the rotation of the reel group 31, and the stop switch. The reel control unit 106 is controlled to stop the reel group 31 on the condition that the group 42 has been operated, and further, the winning determination unit 107 performs the winning determination on the condition that the reel group 31 has stopped. It is.
Note that the operation of the control unit 101 is not limited to these, and governs general control required for the main control board 50.
(フラグ情報記憶部105)
フラグ情報記憶部105は、役抽選部103の抽選結果によって何らかの役に対するフラグがオンされた場合に、当選した役の種類及びそのフラグがオンになったことを記憶可能に構成されている。
(Flag information storage unit 105)
The flag information storage unit 105 is configured to be able to store the type of the winning combination and the fact that the flag is turned on when a flag for a certain combination is turned on by the lottery result of the combination lottery unit 103.
(リール制御部106)
リール制御部106は、制御部101からの指示に基づいて、リール群31(リール31L、31C及び31R)の回転及び停止の制御を行う機能ブロックである。
より詳細には、リール制御部106は、遊技状態(例えば、通常遊技状態、特別遊技状態等)、役抽選部103による抽選の結果、及びストップスイッチ群42(ストップスイッチ42L、42C及び42R)が操作されたタイミング等に基づいて、リール31L、31C及び31Rの停止位置を決定すると共に、ステッピングモータの駆動を制御して、その決定した位置でリール31L、31C及び31Rの回転を停止させるようになっている。
(Reel control unit 106)
The reel control unit 106 is a functional block that controls the rotation and stop of the reel group 31 (reels 31L, 31C, and 31R) based on an instruction from the control unit 101.
More specifically, the reel control unit 106 has a gaming state (for example, a normal gaming state, a special gaming state, etc.), a lottery result by the combination lottery unit 103, and a stop switch group 42 (stop switches 42L, 42C, and 42R). Based on the operated timing, etc., the stop positions of the reels 31L, 31C and 31R are determined, and the driving of the stepping motor is controlled to stop the rotation of the reels 31L, 31C and 31R at the determined positions. It has become.
例えば、役抽選部103による抽選の結果「ハズレ」となり、いずれの役にも当選していないときは、有効になっている有効ライン上にどの役の図柄の組合せも停止しないように、各リール31L、31C及び31Rの停止位置を定め、定められた位置で各リールを停止させる。一方、何らかの役に「当選」している場合には、有効になっている有効ライン上に当選した役の図柄の組合せが停止するように図柄の組合せを定め、その図柄の組合せがその時に有効になっている有効ラインに表れるように各リール31L、31C及び31Rの停止位置を定め、定められた位置で各リールを停止させる。 For example, if the winning lottery unit 103 results in “losing” and no winning combination is won, each reel is set so that the combination of symbols of any winning combination is not stopped on the activated effective line. The stop positions of 31L, 31C and 31R are determined, and each reel is stopped at the determined position. On the other hand, if a winning combination is selected for a certain role, the symbol combination is determined so that the winning symbol combination is stopped on the active line that is active, and the symbol combination is valid at that time. The stop positions of the reels 31L, 31C, and 31R are determined so as to appear in the effective lines, and each reel is stopped at the determined position.
特に、特別役に「当選」している場合には、有効になっている有効ライン上に特別役の図柄の組合せが停止するように、リール31L、31C及び31Rの停止制御の範囲内(例えば、4図柄以内)でできる限り特別役に係る図柄が揃うような引き込み制御を行う。但し、特別役が「当選」している場合であっても、小役やリプレイに「当選」した場合には、有効化されている有効ライン上に特別役の図柄の組合せが停止しないように、リール31L、31C及び31Rの停止位置を定め、停止制御をする。
なお、このようなリール31L、31C及び31Rを停止させる際の制御は、リール制御用のテーブルを用いて行ってもよい。
In particular, when the special combination is “winned”, the stop combinations of the reels 31L, 31C, and 31R are controlled so that the combination of the special combination symbols is stopped on the active line that is enabled (for example, (Within 4 symbols), pull-in control is performed so that the symbols related to the special role are aligned as much as possible. However, even if the special role is “winned”, the combination of symbols of the special role will not stop on the activated active line when “winning” for a small role or replay. Then, stop positions of the reels 31L, 31C and 31R are determined, and stop control is performed.
Such control when stopping the reels 31L, 31C and 31R may be performed using a reel control table.
(入賞判定部107)
入賞判定部107は、最終的な入賞状態を判定するための機能ブロックである。
入賞判定部107は、有効ライン群22のうち、有効になっている有効ラインのいずれかに役の図柄の組合せが並んでいるか否かを判定し、並んでいるものがあれば当遊技でその役に入賞したと判定するものである。役の抽選は、役抽選部103によって予め決定されてはいるが、機械的なリールを用いる場合などにはリールが予定どおりに停止できない場合がるため、最終的に停止したリールの位置を検出しなければならないからである。
(Winning determination unit 107)
The winning determination unit 107 is a functional block for determining the final winning state.
The winning determination unit 107 determines whether or not a combination of symbols in the active line group 22 is arranged in any of the active lines that are active, and if there is an in-line combination, it is determined in the game. It is determined that the winning combination has been won. The lottery of the combination is determined in advance by the combination lottery unit 103. However, when a mechanical reel is used, the reel may not be stopped as scheduled, so the position of the finally stopped reel is detected. Because you have to do it.
入賞判定部107は、例えばステッピングモータの停止時の角度やステップ数等を検知することにより、有効ラインに位置する図柄を判定し、これに基づいて、役の入賞の有無を判定する。 The winning determination unit 107 determines a symbol positioned on the active line by detecting, for example, an angle at the time when the stepping motor is stopped, the number of steps, and the like, and based on this, determines the presence / absence of a winning combination.
なお、役抽選部103によって予め役を定めて、それに併せてリール31L、31C及び31Rを停止させる代わりに、引き込み可能な位置に各リールを次々停止させ、最終的に停止した実際のリール31L、31C及び31Rの位置を検出して、入賞判定部107が図柄の組合せを判定し、役を決定するように構成してもよい。 Instead of pre-determining a combination by the combination lottery unit 103 and stopping the reels 31L, 31C and 31R together, the reels are stopped one after another at a retractable position, and finally the actual reels 31L, The positions of 31C and 31R may be detected, and the winning determination unit 107 may determine the combination of symbols and determine the combination.
(遊技状態制御部108)
遊技状態制御部108は、入賞判定部107による判定の結果、特別役に入賞していた場合に、次遊技から所定の終了条件が満たされるまでの間、特別遊技の制御を行うための機能ブロックである。
(Game state control unit 108)
The gaming state control unit 108 is a functional block for controlling the special game from the next game until the predetermined end condition is satisfied when the winning determination unit 107 has won a special role as a result of the determination. It is.
例えば、遊技状態制御部108は、特別遊技中における役抽選部103の抽選結果に応じて、リール制御部106に特別遊技用のリール制御を行わせたり、サブ制御基板60に特別遊技用の演出を行わせたりする。 For example, the game state control unit 108 causes the reel control unit 106 to perform reel control for special games according to the lottery result of the role lottery unit 103 during the special game, or causes the sub control board 60 to perform special game effects. Or let it be done.
(払出制御部109)
払出制御部109は、入賞判定部107による判定の結果、入賞している役に応じたメダルの払い出しをホッパ装置93に行わせるための機能ブロックである。
(Payout control unit 109)
The payout control unit 109 is a functional block for causing the hopper device 93 to pay out medals according to the winning combination as a result of the determination by the winning determination unit 107.
(メイン制御基板(抽選実行部)における動作)
図5は、メイン制御基板50によるメイン制御処理を示すフローチャートである。
図5において、遊技者によってメダルが投入され、スタートスイッチ41が操作されると、制御部101は、ステップS101において、スタートスイッチ41がオンになったことを検知し、役抽選部103は役の抽選処理を行う(YES、ステップS102)。一方、ステップS101において、遊技者によりスタートスイッチ41が操作されず、スタートスイッチ41がオンとなったことを検知できなかった場合は(NO)、制御部101は、スタートスイッチ41がオンとなったことを検知するまでステップS101の処理を繰り返し実行する。
(Operation in main control board (lottery execution unit))
FIG. 5 is a flowchart showing main control processing by the main control board 50.
In FIG. 5, when a player inserts a medal and the start switch 41 is operated, the control unit 101 detects that the start switch 41 is turned on in step S101, and the combination lottery unit 103 determines that the combination is selected. A lottery process is performed (YES, step S102). On the other hand, in step S101, when the start switch 41 is not operated by the player and it is not detected that the start switch 41 is turned on (NO), the control unit 101 turns on the start switch 41. The process of step S101 is repeatedly executed until this is detected.
ステップS102の役抽選処理においては、役抽選部103は、乱数を取得し、取得した乱数と抽選テーブルとを照らし合わせて役の抽選処理を行う。抽選の結果、何らかの役の当選があった場合、フラグ情報記憶部105内において当役のフラグをオンにさせる。役抽選部103による抽選結果は、当選役情報としてI/F回路54を介してサブ制御基板60に送信される(ステップS103)。 In the combination lottery process in step S102, the combination lottery unit 103 acquires a random number and performs a combination lottery process by comparing the acquired random number with the lottery table. As a result of the lottery, when any winning combination is won, the winning combination flag is turned on in the flag information storage unit 105. The lottery result by the combination lottery unit 103 is transmitted as winning combination information to the sub-control board 60 via the I / F circuit 54 (step S103).
ステップS104において、リール制御部106は、ストップスイッチ群42の何れか1個が操作されたか否かを判断する。何れか1個のストップスイッチが操作されると(YES)、リール制御部106は、ステップS105に移行し、当選役が入賞可能となるようなリール制御を行って、操作されたストップスイッチに対応するリールの回転を停止させる。次いでステップS106に移行し、入賞判定部107は、ストップスイッチ群42のいずれかが操作される度に、ストップスイッチが押下された旨の情報をサブ制御基板60に送信する。 In step S104, the reel control unit 106 determines whether any one of the stop switch groups 42 has been operated. If any one of the stop switches is operated (YES), the reel control unit 106 proceeds to step S105, performs reel control so that the winning combination can be won, and corresponds to the operated stop switch. Stop the rotation of the reel. Next, the process proceeds to step S <b> 106, and the winning determination unit 107 transmits information indicating that the stop switch has been pressed to the sub-control board 60 every time one of the stop switch groups 42 is operated.
なお、ステップS102の役抽選処理において何れの役にも当選していなかった場合は(「ハズレ」に当選した場合)、リール制御部106は、ステップS105において何れの役にも当選しなかった場合に対応するリール制御を行う。 If no winning combination has been won in the winning lottery process in step S102 (when “losing” has been won), the reel control unit 106 has not won any winning combination in step S105. The reel control corresponding to is performed.
続いて、ステップS107において、リール制御部106は、全てのストップスイッチが操作され、全リールが停止したか否かを判断する。全リールが未だ停止していない場合には(NO)、ステップS104におけるストップスイッチ操作の有無の検出処理からの処理を繰り返す。 Subsequently, in step S107, the reel control unit 106 determines whether all the stop switches are operated and all the reels are stopped. When all the reels have not stopped yet (NO), the processing from the detection processing of presence / absence of the stop switch operation in step S104 is repeated.
ステップS107において全てのリールが停止すると(YES)、入賞判定部107は、ステップS108に移行し、有効化された有効ライン上に並んでいる図柄の組合せに基づいて入賞の有無を判断する。この結果、何らかの入賞がある場合には(YES)、入賞した役に対応する入賞処理が実行される(ステップS109)。またステップS110において、入賞判定部107は入賞内容を含む入賞情報をサブ制御基板60に送信する。 When all the reels are stopped in step S107 (YES), the winning determination unit 107 proceeds to step S108 and determines the presence / absence of winning based on the combination of symbols arranged on the activated effective line. As a result, if there is any winning (YES), winning processing corresponding to the winning combination is executed (step S109). In step S <b> 110, the winning determination unit 107 transmits winning information including winning details to the sub-control board 60.
入賞役が「特別役」である場合、次の遊技から所定の終了条件が満たされるまでの間「特別遊技」を実行するための移行処理を遊技状態制御部108が行う。
一方、ステップS108において、何も入賞がないと判断された場合には(NO)、処理はステップS101に戻る。
When the winning combination is a “special combination”, the game state control unit 108 performs a transition process for executing the “special game” from the next game until a predetermined end condition is satisfied.
On the other hand, if it is determined in step S108 that there is no winning (NO), the process returns to step S101.
入賞処理において、遊技状態制御部108は、「特別遊技」中において、「特別役」であるビッグボーナスゲーム又はレギュラーボーナスゲームに応じた遊技状態を遊技者に提供するよう、リール制御部106に「特別遊技」中のリール制御を行わせたり、サブ制御基板60に「特別遊技」用の演出を行わせたりする。ビックボーナスゲーム又はレギュラーボーナスゲームの規定回数の遊技を終えると、「通常遊技」に移行する処理を行う。 In the winning process, the game state control unit 108 provides the reel control unit 106 with a game state corresponding to the big bonus game or regular bonus game that is the “special role” during the “special game”. The reel control during “special game” is performed, or the sub-control board 60 is caused to perform the effect for “special game”. When the specified number of games of the big bonus game or the regular bonus game is finished, a process of shifting to the “normal game” is performed.
入賞役が「特別役」でない場合、フラグ情報記憶部105において特別役のフラグがオンの状態で記憶されていれば、フラグ情報記憶部105でのそのフラグの記憶状態は次の遊技に持ち越される。 If the winning combination is not “special combination”, if the flag of the special combination is stored in the flag information storage unit 105 in the on state, the storage state of the flag in the flag information storage unit 105 is carried over to the next game. .
また、入賞役が「リプレイ」である場合、入賞判定部107は、制御部101に対して当遊技でのベット(賭数)を次の遊技に持ち越させる。一方、入賞役が「特別役」でも「リプレイ」でもない場合には、払出制御部109が入賞役に応じた枚数のメダルの払い出しをホッパ装置93に行わせる。 When the winning combination is “replay”, the winning determination unit 107 causes the control unit 101 to carry over the bet (the number of bets) in the game to the next game. On the other hand, when the winning combination is neither “special combination” nor “replay”, the payout control unit 109 causes the hopper device 93 to pay out the number of medals corresponding to the winning combination.
(実施形態1)
次に本発明の実施形態1における画像生成装置の構成・動作を説明する。この画像生成装置は、画像音響生成基板60bにおいて本発明の画像生成プログラムが実行されることにより実現されるものである。
(Embodiment 1)
Next, the configuration and operation of the image generation apparatus according to Embodiment 1 of the present invention will be described. This image generation apparatus is realized by executing the image generation program of the present invention on the image sound generation board 60b.
まず実施形態1における発明原理を説明する。
図7Aに、仮想三次元空間において透視投影変換される範囲を斜視図として示す。
図7Aに示すように、当該画像生成装置は、仮想三次元空間に配置された所定の視点Cに対して一定の空間範囲内に入るオブジェクトのみを画像化の対象としている。この一定の空間範囲は、仮想三次元空間内に配置されたオブジェクトを二次元平面に透視投影変換する範囲を規定するもので、視体積(View Volume)500という。視体積500の横方向の幅(X軸方向)や縦方向の幅(Y軸方向)は、表示画面の大きさに対応している。余りに多数のオブジェクトが画像化の対象とされることを防止する後方クリッピング面501と、視点Cに対して余りに接近しているオブジェクトを画像化の対象から除外するための前方クリッピング面502とが視体積500に設けられている。画像制御プロセッサ64は、視点が与えられると、自らZ軸方向を中心とする視体積500を把握し、その体積内にモデリングされているオブジェクトに対しレンダリング処理を行う。
First, the principle of the invention in the first embodiment will be described.
FIG. 7A is a perspective view showing a range subjected to perspective projection conversion in the virtual three-dimensional space.
As shown in FIG. 7A, the image generation apparatus targets only objects that fall within a certain spatial range with respect to a predetermined viewpoint C arranged in a virtual three-dimensional space. This fixed space range defines a range in which an object arranged in the virtual three-dimensional space is subjected to perspective projection conversion to a two-dimensional plane, and is referred to as a view volume (View Volume) 500. The horizontal width (X-axis direction) and the vertical width (Y-axis direction) of the viewing volume 500 correspond to the size of the display screen. A rear clipping plane 501 that prevents too many objects from being imaged and a front clipping plane 502 that excludes objects that are too close to the viewpoint C from being imaged are viewed. The volume 500 is provided. When a viewpoint is given, the image control processor 64 grasps the visual volume 500 centered on the Z-axis direction and performs rendering processing on the object modeled in the volume.
本発明では、表示画面全体に濃淡を付すため、平面オブジェクトという特殊なオブジェクトを仮想三次元空間の視体積より視点よりに配置する。平面オブジェクトには、濃淡変化色をあしらったテクスチャをマッピングする。別途、視体積内のオブジェクトについては、透視投影変換後に必要なテクスチャがマッピングされシェーディングされ各ピクセルの色が付与される。そして透視投影変換後に濃淡変化色がマッピングされた平面オブジェクトの色と、透視投影変換後に視体積内のオブジェクトに付与された色とが、ピクセル毎に合成される。この処理によって、表示画像には、スチールカメラやビデオカメラにグラデーションフィルタを用いる場合と同じ映像効果が付与される。 In the present invention, in order to add light and shade to the entire display screen, a special object called a planar object is arranged from the viewpoint from the visual volume of the virtual three-dimensional space. A texture with a shade change color is mapped to the planar object. Separately, for an object in the viewing volume, a necessary texture is mapped and shaded after perspective projection conversion, and a color of each pixel is given. Then, the color of the planar object to which the shade change color is mapped after the perspective projection conversion and the color given to the object in the viewing volume after the perspective projection conversion are combined for each pixel. By this processing, the same image effect as that when the gradation filter is used for the still camera or the video camera is given to the display image.
図7Aでは、平面オブジェクト504が前方クリッピング面502の視点C側に配置されている。平面オブジェクト504の形状は任意であるが、表示画面全体に濃淡を付与するなら、視野角を覆う面積と形状を有していればよい。表示画面が通常の表示装置のように所定の縦横比率の矩形であるなら、平面オブジェクト504も同比率の矩形とする。 In FIG. 7A, the plane object 504 is arranged on the viewpoint C side of the front clipping plane 502. The shape of the planar object 504 is arbitrary, but if the entire display screen is to be shaded, it may have an area and shape that covers the viewing angle. If the display screen is a rectangle having a predetermined aspect ratio as in a normal display device, the plane object 504 is also a rectangle having the same ratio.
また、視点から平面オブジェクトまでの距離も任意であるが、表示画面のいずれのオブジェクトに対しても一様に濃淡を付与するなら、前方クリッピング面の位置かそれより視点寄りに配置する。このような配置であれば、画像化される仮想三次元空間の総てのオブジェクト・背景に対して濃淡変化色が合成される。 Also, the distance from the viewpoint to the planar object is arbitrary, but if the shade is to be uniformly applied to any object on the display screen, it is arranged at the position of the front clipping plane or closer to the viewpoint. With such an arrangement, shade change colors are synthesized for all objects and backgrounds in the virtual three-dimensional space to be imaged.
また、平面オブジェクトを前方クリッピング面より奥の視体積内に配置してもよい。このような配置にすると、視点から見て平面オブジェクトより近くに配置されたオブジェクトには濃淡色が付されず、平面オブジェクトより遠くに配置されたオブジェクトには濃淡色が付される。例えば図7Bでは、平面オブジェクト504が視体積500の中程に配置されている。オブジェクト402は視点からの距離が平面オブジェクト504より大きく、オブジェクト403は視点からの距離が平面オブジェクト504より小さい。この場合、オブジェクト402は平面オブジェクト504の濃淡変化色506と合成されてグラデーションが付与されるのに対し、オブジェクト403は平面オブジェクト504の濃淡変化色506と重なることが無く、グラデーションは付与されない。このような配置は、背景的なオブジェクト、例えば岩や山にグラデーションを付与し、手前のオブジェクト、例えばキャラクタにはグラデーションを付与したくない場合に適する。 In addition, the planar object may be arranged in the visual volume behind the front clipping plane. With such an arrangement, the object arranged closer to the plane object as viewed from the viewpoint is not colored, and the object arranged farther than the plane object is colored. For example, in FIG. 7B, the planar object 504 is arranged in the middle of the viewing volume 500. The object 402 has a larger distance from the viewpoint than the planar object 504, and the object 403 has a smaller distance from the viewpoint than the planar object 504. In this case, the object 402 is combined with the shade change color 506 of the plane object 504 and given gradation, whereas the object 403 does not overlap with the shade change color 506 of the plane object 504 and no gradation is given. Such an arrangement is suitable when a background object, such as a rock or a mountain, is given a gradation, and a preceding object, such as a character, is not desired to be given a gradation.
なお、平面オブジェクトは、視点からの視線方向が法線と平行になるように視線に対して直角に配置することを基本とするが、これに限定されない。平面オブジェクトを視線方向(Z軸方向)から直角以外の所定角に維持すると、濃淡変化色のパターンを斜めに観察したようになる。意図的に濃淡変化色を斜視したようなグラデーションを付与する場合には、平面オブジェクトを上記所定角に配置することになる。この場合、平面オブジェクトは、視線に対し斜めに配置されてもその輪郭が表示画面で認識されないような大きさと形状に設定すべきである。 The planar object is basically arranged at right angles to the line of sight so that the line of sight from the viewpoint is parallel to the normal, but the present invention is not limited to this. If the planar object is maintained at a predetermined angle other than a right angle from the line-of-sight direction (Z-axis direction), the pattern of shade change color is observed obliquely. In the case where a gradation in which the light and shade change color is intentionally given is given, the planar object is arranged at the predetermined angle. In this case, the planar object should be set to a size and shape so that its outline is not recognized on the display screen even if it is arranged obliquely with respect to the line of sight.
また、平面オブジェクトは表示画面の一部のみを覆うように面積と形状を変形させてもよい。このような平面オブジェクトを用いると、複数のオブジェクトに対し選択的に濃淡色を付与することが可能である。例えば図7Cでは、平面オブジェクト504が視体積500の上部のみを覆うように配置されている。オブジェクト404と405は視点Cからほぼ同様の距離に配置されているものの、視点Cから観察するとオブジェクト404は平面オブジェクト504と重ならないのに対し、オブジェクト405は平面オブジェクト504と重なる。このため、オブジェクト404にはグラデーションが付与されないのに対し、オブジェクト405にはグラデーションが付与される。このような配置は、表示画面の一部のみに一様にグラデーションを付与したい場合、例えば地平線より下にはグラデーションを付与せず、空部分のみにグラデーションを付与するような場合に適する。 Further, the area and shape of the planar object may be changed so as to cover only a part of the display screen. When such a planar object is used, it is possible to selectively give shade colors to a plurality of objects. For example, in FIG. 7C, the planar object 504 is disposed so as to cover only the upper part of the viewing volume 500. Although the objects 404 and 405 are arranged at substantially the same distance from the viewpoint C, when viewed from the viewpoint C, the object 404 does not overlap the plane object 504, whereas the object 405 overlaps the plane object 504. For this reason, the object 404 is not provided with gradation, whereas the object 405 is provided with gradation. Such an arrangement is suitable when it is desired to uniformly apply gradation to only a part of the display screen, for example, when gradation is not applied below the horizon but only to the sky.
ここで、平面オブジェクトに展開する濃淡変化色は任意に設定することが可能であるが、ここでは濃淡変化色の濃度が一次線形的に変化するものとする。図8に実施形態1で用いる濃淡変化色の特性例を示す。図8は正規化された座標系でY座標が示されており、正規化座標値において、視体積の範囲は±1.0で表される。正規化座標値が0は表示画面中央である。 Here, the shade change color developed on the planar object can be arbitrarily set. Here, it is assumed that the density of the shade change color changes linearly. FIG. 8 shows an example of the characteristics of the shade change color used in the first embodiment. FIG. 8 shows the Y coordinate in the normalized coordinate system, and the range of the visual volume is represented by ± 1.0 in the normalized coordinate value. A normalized coordinate value of 0 is the center of the display screen.
図8に示すように、本実施形態1では、Y軸方向の下側(座標値が小さい方)が濃く、上側(座標値が大きい方)が薄くなるように、連続的に、かつ、直線的に色濃度が変化する濃淡変化色特性f1が設定されている。このようなY軸方向であって画面上部に行く程色濃度が薄くなる特性は、地面が暗く空が明るく見える、グラデーションフィルタにより一般的に付される濃淡パターンであり、最も頻繁に用いられる特性である。 As shown in FIG. 8, in the first embodiment, the lower side (the smaller coordinate value) in the Y-axis direction is darker and the upper side (the larger coordinate value) is lighter, continuously and linearly. In particular, a color changing color characteristic f1 in which the color density changes is set. The characteristic that the color density becomes lighter toward the top of the screen in the Y-axis direction is a shading pattern that is generally given by a gradation filter, in which the ground is dark and the sky looks bright, and is the most frequently used characteristic. It is.
また、濃淡変化色の色調は任意に設定可能であり、画像の演出内容に適合した色調とすることが好ましい。例えば彩度の無いモノトーンの濃淡変化色とすることができる。また夕方等の雰囲気を出すためには、赤色を帯びた濃淡変化色としたり、朝方や霧の雰囲気を出すためには白色を帯びた濃淡変化色としたり、未明の雰囲気や海中の雰囲気を出すためには青色を帯びた濃淡変化色としたりすることができる。 Moreover, the color tone of the light and shade change color can be arbitrarily set, and it is preferable that the color tone is suitable for the content of the image. For example, it can be a monotone light and dark color with no saturation. Also, in order to create an atmosphere such as evening, a reddish tint color is used. In order to create a morning or foggy atmosphere, a white tint color is used. In order to achieve this, it is possible to make the color change shades of blue.
図9に上記濃淡変化色特性のテクスチャを平面オブジェクトにマッピングし、背景画像との合成を行わない場合の表示例を示す。図9に示すように、平面オブジェクト504のみを画像化した場合には、濃淡変化色506のパターンのみが観察される。この濃淡変化色は、モノトーン表現をしたパターンであり、画面上部のピクセルの色濃度が0%、画面下部のピクセルの色濃度が100%となるように設定されている。この濃淡変化色のように、黒色を積極的なソリッドな色として表現するためには補色同士が加えられるようにする。例えば図9のような濃淡変化色506では、各ピクセルのRGBの各値を、例えば赤色Rが100%、緑色Gが100%、青色Bが0%となるように設定する。 FIG. 9 shows a display example when the texture having the above-described color change color characteristics is mapped to a planar object and is not synthesized with the background image. As shown in FIG. 9, when only the plane object 504 is imaged, only the pattern of the light and shade change color 506 is observed. This light and shade change color is a pattern expressing monotone, and is set so that the color density of the pixel at the top of the screen is 0% and the color density of the pixel at the bottom of the screen is 100%. In order to express black as a positive solid color like this shade change color, complementary colors are added. For example, in the shade change color 506 as shown in FIG. 9, the RGB values of each pixel are set so that, for example, red R is 100%, green G is 100%, and blue B is 0%.
逆に同じモノトーン表現であっても、黒部分を背後の色が見えるように無色、白部分を霧が沸いているように積極的な白色とするには、各ピクセルのRGB値を、画面下方では各色とも0%、画面上部では各色とも100%となるように設定する。 Conversely, even with the same monotone expression, to make the black part colorless so that the background color can be seen and the white part to be aggressive white like fog is boiling, the RGB value of each pixel is Is set to 0% for each color and 100% for each color at the top of the screen.
その他の色を設定する場合、上記と同様にグラデーションの色を濃くしたい部分の色を濃くし、背後画像をそのまま見せたい部分を無色となるように、連続的に濃度が変化するグラデーションパターンを設ければよい。 When setting other colors, provide a gradation pattern that continuously changes the density so that the color of the part where you want to darken the gradation color is darkened and the part where you want to see the background image is colorless, as above. Just do it.
図10Aは視体積内に配置したキャラクタオブジェクト602の透視投影変換後の表示画面600の例である。図10Bに、このキャラクタオブジェクト602に対して、図9に示したような濃淡変化色506を展開した平面オブジェクト504を重ね、ピクセル毎の合成演算をした表示例を示す。 FIG. 10A is an example of a display screen 600 after the perspective projection conversion of the character object 602 arranged in the view volume. FIG. 10B shows a display example in which the plane object 504 in which the shade change color 506 as shown in FIG.
図10Aおよび図10Bに示すように、平面オブジェクト504に展開した濃淡変化色がグラデーションフィルタのように画面全体を覆い、画像に独特の陰影を与えている。なお、平面オブジェクトに展開された濃淡変化色と背景画像とは、通常のピクセルの合成演算(例えば加算)を行えばよいが、濃淡変化色の強さは、演算のパラメータとして任意に設定する。例えば、濃淡変化色の透明度を0%として合成演算すれば、濃淡変化色の濃度が100%である部分については、全く背景画像が消えてしまうし、濃淡変化色の透明度を100%として合成演算すれば、濃淡変化色が表示画像に全く反映されなくなってしまう。よって、通常は、固定の値、例えば50%の透明度で濃淡変化色を背景画像と合成する。この透明度は、演出内容や濃淡変化色の内容に応じて変更してもよい。 As shown in FIGS. 10A and 10B, the shade change color developed on the plane object 504 covers the entire screen like a gradation filter and gives a unique shadow to the image. It should be noted that the shade change color and the background image developed on the planar object may be subjected to normal pixel synthesis calculation (for example, addition), but the intensity of the shade change color is arbitrarily set as a calculation parameter. For example, if the transparency of the light and shade change color is set to 0%, the background image is completely erased for the portion where the density of the light and shade change color is 100%, and the transparency of the light and shade change color is set to 100%. As a result, the shade change color is not reflected in the display image at all. Therefore, normally, the shade change color is synthesized with the background image with a fixed value, for example, 50% transparency. This transparency may be changed according to the contents of the effect and the contents of the shade change color.
上記のように平面オブジェクトの視点からの距離やその形状・面積はグラデーションを付与したい部分・領域に応じて任意に変更して適用することが可能である。このような画像生成方法によれば、他のオブジェクトに加え、平面オブジェクトを一つ配置して濃淡変化色のテクスチャをマッピングするだけなので、装置の演算処理量は殆ど増やすことなくグラデーションフィルタを用いたような効果を付与することができる。 As described above, the distance from the viewpoint of the planar object and the shape / area thereof can be arbitrarily changed and applied according to the portion / region to which the gradation is desired. According to such an image generation method, in addition to other objects, only one plane object is arranged and the texture of the color change color is mapped. Therefore, the gradation filter is used without increasing the calculation processing amount of the apparatus. Such effects can be imparted.
(サブ基板60の機能ブロック図)
以下、本実施形態1におけるサブ基板60の機能ブロックを説明する。
図4は、実施形態1に係るサブ制御基板60の機能的な構成を示す機能ブロック図である。
サブ制御基板60は、演出制御基板60aと画像音響生成基板60bとに分離している。
演出制御基板60aには、演出制御部201が含まれている。演出制御部201は、サブCPU61がROM62内に記録されたコンピュータに読み取り可能な演出制御プログラムを実行することにより機能的に実現されるものである。
(Functional block diagram of sub-board 60)
Hereinafter, functional blocks of the sub-board 60 in the first embodiment will be described.
FIG. 4 is a functional block diagram illustrating a functional configuration of the sub-control board 60 according to the first embodiment.
The sub control board 60 is separated into an effect control board 60a and an image sound generation board 60b.
The effect control unit 201 is included in the effect control board 60a. The effect control unit 201 is functionally realized by the sub CPU 61 executing an effect control program readable by the computer recorded in the ROM 62.
画像音響生成基板60bには、オブジェクトデータ記憶部301、モデリング部302、平面オブジェクトデータ記憶部303、平面オブジェクト配置部304、座標変換部305、透視投影変換部306、テクスチャデータ記憶部307、色展開部308、濃淡変化色記憶部309、濃淡変化色展開部310、および色合成部311を備えている。このうち、オブジェクトデータ記憶部301、平面オブジェクトデータ記憶部303、テクスチャデータ記憶部307、および濃淡変化色記憶部309は画像データROM67が相当している。その他の機能ブロックは、画像制御プロセッサ64がROM65に記憶された画像生成プログラムを実行することにより機能的に実現される。 The image sound generation board 60b includes an object data storage unit 301, a modeling unit 302, a planar object data storage unit 303, a planar object placement unit 304, a coordinate conversion unit 305, a perspective projection conversion unit 306, a texture data storage unit 307, a color development. A color change color storage unit 309, a color change color development unit 310, and a color synthesis unit 311. Among these, the image data ROM 67 corresponds to the object data storage unit 301, the planar object data storage unit 303, the texture data storage unit 307, and the shade change color storage unit 309. Other functional blocks are functionally realized by the image control processor 64 executing the image generation program stored in the ROM 65.
(演出制御部201)
演出制御部201は、メイン制御基板50の抽選結果に応じた演出パターンを抽選によって決定する機能ブロックである。
具体的には、演出制御部201は、メイン制御基板50の役抽選部103からの抽選結果情報を受けて、当選した役等に応じて乱数に基づく抽選を実施し、複数適用可能な演出パターンの中からいずれか一つを選択したり、メイン制御基板50の入賞判定部107及び特別役遊技制御部108からの抽選結果情報を受けて、入賞役や遊技状態に応じた演出パターンを抽選により決定したりする。
(Production control unit 201)
The effect control unit 201 is a functional block that determines an effect pattern according to the lottery result of the main control board 50 by lottery.
Specifically, the production control unit 201 receives lottery result information from the role lottery unit 103 of the main control board 50, performs a lottery based on a random number according to the winning combination, etc. Or a lottery effect pattern according to the winning combination or gaming state in response to the lottery result information from the winning determination unit 107 and the special role game control unit 108 of the main control board 50. To decide.
ここで演出パターンは、通常、スタートスイッチ41や各ストップスイッチ42の押下状態や、リール31L、31C、及び31Rの停止状態や、抽選の結果、決定した役の種類、通常遊技か特別遊技かといった遊技状態に応じて選択される。 Here, the production pattern is usually a state in which the start switch 41 or each stop switch 42 is pressed, a stop state of the reels 31L, 31C, and 31R, a lottery result, a type of determined role, a normal game or a special game, and the like. It is selected according to the gaming state.
演出制御部201は、画像の演出内容を定める画像演出情報を音響の演出内容を定める音響演出情報と共に出力する。これら演出情報は、所定のコマンド形式で送付してもよい。画像演出情報には、次の画像更新タイミングにどのオブジェクトを仮想三次元空間でどのような位置にどのような姿勢で配置するかを規定する情報や、本実施形態に係る平面オブジェクトの配置や濃淡変化色に関する情報を含んでいる。 The effect control unit 201 outputs the image effect information that determines the effect contents of the image together with the sound effect information that determines the sound effect contents. Such effect information may be sent in a predetermined command format. The image effect information includes information that specifies which object is to be arranged in what position and in what position in the virtual three-dimensional space at the next image update timing, and the arrangement and density of the planar object according to the present embodiment. Contains information about changing colors.
(モデリング部302)
モデリング部302は、オブジェクトデータ記憶部301に記憶されているオブジェクトデータを参照してオブジェクトを仮想三次元空間に配置するためのモデリング変換を行う機能ブロックである。
(Modeling unit 302)
The modeling unit 302 is a functional block that performs modeling conversion for placing an object in a virtual three-dimensional space with reference to the object data stored in the object data storage unit 301.
モデリング部302は、演出制御部201から出力された画像演出情報によって指定されたオブジェクトを仮想三次元空間に配置するための座標変換演算を実施する。オブジェクトデータ記憶部301に記憶されているオブジェクトデータは、個別のモデリング座標系(ローカル座標系、オブジェクト座標系、ボディ座標系)で定義されている。モデリング変換は、それぞれ独立した座標系で定義されたオブジェクトを同一の仮想三次元空間を定義するワールド座標系、すなわちワールド座標系(グローバル座標系)で定義するための座標変換処理である。 The modeling unit 302 performs a coordinate conversion operation for arranging the object specified by the image effect information output from the effect control unit 201 in the virtual three-dimensional space. Object data stored in the object data storage unit 301 is defined in an individual modeling coordinate system (local coordinate system, object coordinate system, body coordinate system). Modeling conversion is a coordinate conversion process for defining objects defined in independent coordinate systems in a world coordinate system that defines the same virtual three-dimensional space, that is, a world coordinate system (global coordinate system).
モデリング部302は、まず、画像演出情報を参照して次回の画像更新タイミングにおけるオブジェクトの姿勢をモデリング座標系で定める。次いで姿勢が定まったオブジェクトに対し座標変換処理を実施し、ワールド座標系における位置座標を演算する。オブジェクトの表面を構成するポリゴンの位置はその頂点座標を演算することで定まる。 First, the modeling unit 302 determines the posture of the object at the next image update timing in the modeling coordinate system with reference to the image effect information. Next, coordinate transformation processing is performed on the object whose posture is determined, and position coordinates in the world coordinate system are calculated. The position of the polygon that forms the surface of the object is determined by calculating its vertex coordinates.
(平面オブジェクト配置部304)
平面オブジェクト配置部304は、モデリング部302の特別な機能ブロックである。平面オブジェクト配置部304は、透視投影変換のための視点から所定距離に平面オブジェクトを配置する機能ブロックである。
(Plane object placement unit 304)
The planar object placement unit 304 is a special functional block of the modeling unit 302. The planar object placement unit 304 is a functional block that places a planar object at a predetermined distance from the viewpoint for perspective projection conversion.
すなわち平面オブジェクト配置部304は、平面オブジェクトデータ記憶部303に記憶されている平面オブジェクトをモデリング座標系で定義する平面オブジェクトデータを読み出し、演出に応じて定められる視点からの位置に配置する。平面オブジェクトは多数のオブジェクトの一つに過ぎないので、平面オブジェクトをどのタイミングで配置してもよく、他のオブジェクトに先立って配置しても他のオブジェクトの後に配置しても、オブジェクトの一つとして他のオブジェクトの配置と併行して配置してもよい。 That is, the planar object placement unit 304 reads planar object data that defines the planar object stored in the planar object data storage unit 303 in the modeling coordinate system, and places the planar object data at a position from the viewpoint determined according to the effect. A plane object is just one of many objects, so you can place a plane object at any time, whether it is placed before another object or after another object. As well as the arrangement of other objects.
(座標変換部305)
座標変換部305は、モデリング変換されたオブジェクトデータおよび平面オブジェクトデータに対し、視点を中心にした視点座標系(ビューイング座標系)に変換するビューイング変換、正規化座標系に変換する正規化変換を実施する機能ブロックである。この座標変換以降の処理は、二次元画像を生成するための描画処理であり、レンダリング処理に関する。
(Coordinate conversion unit 305)
The coordinate conversion unit 305 is a viewing conversion that converts the modeling-converted object data and planar object data into a viewpoint coordinate system (viewing coordinate system) centered on the viewpoint, and a normalization conversion that converts into a normalized coordinate system. Is a functional block that implements The processing after the coordinate conversion is a drawing process for generating a two-dimensional image and relates to the rendering process.
座標変換時、座標変換部305は、正規化された視体積に含まれないオブジェクトやオブジェクトの部分を座標変換対象から除外するクリッピング処理をする。すなわち、図7Aにおける視体積500において、前方クリッピング面502より視点側にあるオブジェクトは、平面オブジェクト504を除き排除される。また後方クリッピング面504より奥に配置されたオブジェクト、視体積500の外側に配置されたオブジェクトも、透視投影変換の対象から排除される。 At the time of coordinate conversion, the coordinate conversion unit 305 performs a clipping process to exclude an object or a part of the object that is not included in the normalized view volume from the coordinate conversion target. That is, in the view volume 500 in FIG. 7A, objects that are closer to the viewpoint than the front clipping plane 502 are excluded except for the plane object 504. Also, objects placed behind the rear clipping plane 504 and objects placed outside the viewing volume 500 are excluded from the perspective projection transformation targets.
(透視投影変換部306)
透視投影変換部306は、正規化座標系で定義されたオブジェクトに対して表示画面に対応する二次元投影面に投影するための投影変換を実施する機能ブロックである。
(Perspective projection conversion unit 306)
The perspective projection conversion unit 306 is a functional block that performs projection conversion for projecting an object defined in the normalized coordinate system onto a two-dimensional projection plane corresponding to the display screen.
透視投影変換には、1点透視投影、2点透視投影、3点透視投影等の透視投影変換と、並行投影とがあり、画像生成装置の目的に応じた投影変換が適用される。透視投影変換により、二次元投影面、すなわちビュースクリーンに視点から観察したオブジェクトが投影される。 The perspective projection conversion includes perspective projection conversion such as one-point perspective projection, two-point perspective projection, and three-point perspective projection, and parallel projection, and projection conversion suitable for the purpose of the image generation apparatus is applied. By perspective projection conversion, an object observed from the viewpoint is projected onto a two-dimensional projection plane, that is, a view screen.
なお、表示画面の物理的空間領域が、透視投影変換されるビュースクリーンとは異なる領域に設定されている場合には、表示画面の空間領域のみを切り出すビューポート変換が実施される。 In addition, when the physical space area of the display screen is set to an area different from the view screen subjected to the perspective projection conversion, the viewport conversion for cutting out only the space area of the display screen is performed.
(色展開部308)
色展開部308は、テクスチャデータ記憶部307に記憶されたテクスチャデータを読み出して、透視投影変換後のオブジェクト表面に模様をマッピング(展開)する機能ブロックである。
(Color development unit 308)
The color development unit 308 is a functional block that reads the texture data stored in the texture data storage unit 307 and maps (develops) a pattern on the object surface after perspective projection conversion.
色展開部308は、公知のイメージテクスチャマッピング手法を用いてテクスチャデータをポリゴンにマッピングする。テクスチャデータは所定面積の二次元画像として定義されているので、このテクスチャに対し変形、回転、拡大、縮小等の補間処理をしてポリゴン形状に適合させるラップマッピング方法を適用する。その他マッピング方式は目的に応じて種々に選択できる。イメージテクスチャマッピングの代わりにソリッドテクスチャマッピングを利用したり、ラップマッピングの代わりに、並行投影、UV、反復等のマッピングをしたりすることができる。また、カラー、バンプ、変位、透明度、環境等のマッピングを利用したり、多重、ミップ等のマッピングをしたりすることが可能である。 The color developing unit 308 maps the texture data to the polygon using a known image texture mapping method. Since the texture data is defined as a two-dimensional image having a predetermined area, a lap mapping method is applied to this texture by performing interpolation processing such as deformation, rotation, enlargement, reduction, etc. to match the polygon shape. Other mapping methods can be variously selected according to the purpose. Solid texture mapping can be used instead of image texture mapping, and parallel projection, UV, iteration, etc. can be mapped instead of lap mapping. In addition, it is possible to use mapping such as color, bump, displacement, transparency, environment, etc., and mapping such as multiplex and mip.
なお、色展開部308では、テクスチャマッピングにシェーディング処理やシャドウイング処理を併用してもよい。平面オブジェクトの背景となるピクセルデータを生成する、レンダリング処理に関する公知技術を種々適用して、各ピクセルデータを確定することができるものであればよい。 Note that the color development unit 308 may use shading processing or shadowing processing together with texture mapping. Any pixel data may be used as long as it can determine pixel data by applying various known techniques related to rendering processing for generating pixel data as a background of a planar object.
(濃淡変化色展開部310)
濃淡変化色展開部310および色合成部311は、色展開部308の特別な機能ブロックである。濃淡変化色展開部310は、平面オブジェクトに所定の濃淡変化色に関するテクスチャを展開する機能ブロックである。
(Tint change color development unit 310)
The light and shade change color development unit 310 and the color composition unit 311 are special functional blocks of the color development unit 308. The shade change color developing unit 310 is a functional block that develops a texture related to a predetermined shade change color on a planar object.
すなわち濃淡変化色展開部310は、濃淡変化色記憶部309に記憶された、本発明の濃淡変化色、すなわちグラデーションパターンを読み出して、平面オブジェクトの表面に通常のイメージテクスチャマッピング手法を用いてマッピングする。平面オブジェクトの形状・面積と濃淡変化色の元データの形状・面積が一致しない場合には、元データに対し、変形、回転、拡大、縮小等の補間処理を適用する。 That is, the shade change color developing unit 310 reads the shade change color of the present invention, that is, the gradation pattern, stored in the shade change color storage unit 309, and maps it on the surface of the planar object using a normal image texture mapping method. . When the shape / area of the planar object does not match the shape / area of the original data of the shade change color, interpolation processing such as deformation, rotation, enlargement, reduction, etc. is applied to the original data.
(色合成部311)
色合成部311は、透視投影変換後の各ピクセルに対し、濃淡変化色と平面オブジェクトの背景に係る色との合成演算をする機能ブロックである。
(Color composition unit 311)
The color synthesizing unit 311 is a functional block that performs a synthesizing operation on each pixel after the perspective projection conversion with the shade change color and the color related to the background of the planar object.
すなわち、色合成部311は、色展開部308が他のオブジェクトについてレンダリング処理して生成した画像と、濃淡変化色展開部310が平面オブジェクト表面に展開した濃淡変化色とを、ピクセル単位で合成演算する。この合成演算では、予め定められた透明度で濃淡変化色の各ピクセルが背景に係るピクセルと合成される。 In other words, the color composition unit 311 performs a composition operation on a pixel basis for the image generated by rendering processing for other objects by the color development unit 308 and the light and shade change color developed by the light and shade change color development unit 310 on the planar object surface. To do. In this synthesis operation, each pixel of a light and shade change color with a predetermined transparency is synthesized with a pixel related to the background.
なお、他のオブジェクトに対する色展開処理、平面オブジェクトに対する濃淡変化色展開処理、およびそれらのピクセル毎の合成演算処理は、別個に実行してもほぼ同時に実行してもよい。これらの処理を順番に行う場合には、生成した画像データを手順毎にフレームメモリ等に格納し、次の手順でフレームメモリ等から読み出して利用する。また、画像制御プロセッサの種類によっては、同時並行して上記総ての処理または一部の処理を行い、中間データをメモリに出力することなく、合成後のピクセルデータを直接生成することが可能である。また、色展開をしたオブジェクトの画像データをフレームメモリに出力後、そのフレームメモリの各ピクセルに対し、濃淡変化色の合成演算を直接実施して同じアドレスのピクセルを合成後のデータで書き換えるようにすることもできる。
以上のようなレンダリング処理により生成された二次元画像データは、演出表示装置40に転送され画像更新タイミングに表示画面に表示される。
It should be noted that the color development processing for other objects, the light and shade change color development processing for the planar object, and the composition calculation processing for each pixel may be executed separately or almost simultaneously. When these processes are performed sequentially, the generated image data is stored in a frame memory or the like for each procedure, and is read out from the frame memory or the like and used in the following procedure. Depending on the type of image control processor, all or some of the above processes can be performed in parallel, and the combined pixel data can be directly generated without outputting intermediate data to the memory. is there. Also, after outputting the image data of the color-expanded object to the frame memory, the pixel of the same address is rewritten with the synthesized data by directly performing the color-shading color composition operation on each pixel of the frame memory. You can also
The two-dimensional image data generated by the rendering process as described above is transferred to the effect display device 40 and displayed on the display screen at the image update timing.
(動作の説明)
次に、上記画像音響生成基板60bの機能ブロック画像生成処理を説明する。
図6は、サブ制御基板60の画像音響生成基板60bにて実行される画像生成処理を示すフローチャートである。当該処理は、画像の更新タイミングごとに実施される。
(Description of operation)
Next, the functional block image generation process of the image sound generation board 60b will be described.
FIG. 6 is a flowchart showing an image generation process executed by the image sound generation board 60b of the sub-control board 60. This process is performed at every image update timing.
ステップS201において、画像音響生成基板60bは、演出制御部201からの画像演出情報を読み取る。次いでステップS202に移行し、平面オブジェクト配置部304は、今回の演出に対しグラデーション効果を適用するか否かを判定する。グラデーション効果を適用する場合(YES)、ステップS203に移行し、平面オブジェクト配置部304は、平面オブジェクトデータ記憶部303から平面オブジェクトデータを読み取る。そしてステップS204において、視点から所定距離に平面オブジェクトを配置する。なお、ステップS202においてグラデーションを適用しない場合(NO)、ステップS205に移行し、モデリング部302によるオブジェクト配置処理に移行する。 In step S201, the image sound generation board 60b reads the image effect information from the effect control unit 201. Next, the process proceeds to step S202, where the planar object placement unit 304 determines whether to apply a gradation effect to the current effect. When the gradation effect is applied (YES), the process proceeds to step S203, and the planar object placement unit 304 reads planar object data from the planar object data storage unit 303. In step S204, a plane object is arranged at a predetermined distance from the viewpoint. When gradation is not applied in step S202 (NO), the process proceeds to step S205, and the object placement process by the modeling unit 302 is performed.
ステップS205において、モデリング部302は、平面オブジェクト以外のオブジェクトについてオブジェクトデータ記憶部301からオブジェクトデータを読み取る。次いでステップS206において、モデリング部302は、モデリング座標で表現されたオブジェクトデータ、すなわちサーフェスを構成するポリゴンの頂点座標のそれぞれをワールド座標系に変換する座標変換演算をする。この処理により、オブジェクトは仮想三次元空間に配置される。 In step S205, the modeling unit 302 reads object data from the object data storage unit 301 for objects other than planar objects. Next, in step S206, the modeling unit 302 performs a coordinate conversion operation for converting each of the object data expressed by the modeling coordinates, that is, the vertex coordinates of the polygons constituting the surface into the world coordinate system. By this processing, the object is arranged in the virtual three-dimensional space.
次いでステップS207に移行し、座標変換部305はワールド座標系で定義されていた平面オブジェクトを含んだオブジェクトに対し、ビューイング変換演算・正規化変換演算を実行する。 Next, the process proceeds to step S207, where the coordinate conversion unit 305 performs a viewing conversion operation / normalization conversion operation on an object including a planar object defined in the world coordinate system.
次いでステップS208に移行し、透視投影変換部306は正規化座標系で定義されたオブジェクトに対し、透視投影変換演算を実行し、ビュースクリーンに対する投影位置を算出する。 In step S208, the perspective projection conversion unit 306 performs a perspective projection conversion operation on the object defined in the normalized coordinate system to calculate a projection position on the view screen.
そしてステップS209に移行し、色展開部308はテクスチャデータ記憶部307に格納されていたテクスチャデータを参照しながら、透視投影変換されたオブジェクトのポリゴン表面にテクスチャをマッピングしていく。オブジェクトが重なっている場合にはZ値を参照して視点に近い方のピクセルの色情報を優先させる隠面消去処理等を実施する。 In step S209, the color developing unit 308 maps the texture onto the polygon surface of the perspective-transformed object while referring to the texture data stored in the texture data storage unit 307. When the objects are overlapped, a hidden surface removal process for prioritizing the color information of the pixel closer to the viewpoint is performed with reference to the Z value.
ステップS210において、濃淡変化色展開部310は、今回の演出に対しグラデーション効果を適用するか否かを判定する。グラデーション効果を適用する場合(YES)、ステップS211に移行し、濃淡変化色展開部310は濃淡変化色記憶部309からグラデーションパターンを読み取って透視投影変換後の平面オブジェクト表面に濃淡変化色を展開する。同時にステップS212において、色合成部311は、平面オブジェクトに展開される濃淡変化色とステップS209で展開された背景となるオブジェクト等の色とをピクセル毎に合成する。このとき所定の透明度で両者を合成する。 In step S <b> 210, the shading change color developing unit 310 determines whether to apply a gradation effect to the current effect. When the gradation effect is applied (YES), the process proceeds to step S211, where the light / dark change color development unit 310 reads the gradation pattern from the light / dark change color storage unit 309 and develops the light / dark change color on the surface of the planar object after the perspective projection conversion. . At the same time, in step S212, the color synthesizing unit 311 synthesizes, for each pixel, the shade change color developed on the planar object and the color of the object or the like developed in step S209. At this time, both are synthesized with a predetermined transparency.
以上の処理でグラデーションが付与されたピクセルデータの集合であるフレーム画像(データ)がビデオRAM66中のフレームバッファ中に出力される。最後にステップS213に移行し、演出表示装置40はフレームバッファ中のフレーム画像を表示画面に表示させる。ステップS210においてグラデーション効果を適用しない場合(NO)も同様にフレーム画像が表示される。 A frame image (data) which is a set of pixel data to which gradation is given by the above processing is output to a frame buffer in the video RAM 66. Finally, the process proceeds to step S213, where the effect display device 40 displays the frame image in the frame buffer on the display screen. When no gradation effect is applied in step S210 (NO), the frame image is displayed in the same manner.
(本実施形態の利点)
本実施形態によれば、次のような利点がある。
(1)上記実施形態1によれば、視点Cから所定距離に平面オブジェクト504が配置され、平面オブジェクト504に濃淡変化色(グラデーションパターン)506が展開され、背後のピクセルに係る色と当該濃淡変化色とが色合成されるので、表示画面全体に、濃淡変化色に設定した濃淡と同様の濃淡が付され、カメラにグラデーションフィルタを用いる場合と同じ効果を得ることができる。しかも平面オブジェクトというオブジェクトを一つ追加したのに相当する処理が増えるのみであり、装置の演算処理量は殆ど増えない。
(Advantages of this embodiment)
According to this embodiment, there are the following advantages.
(1) According to the first embodiment, the plane object 504 is arranged at a predetermined distance from the viewpoint C, and the shade change color (gradation pattern) 506 is developed on the plane object 504. The color relating to the pixel behind and the shade change Since the colors are color-synthesized, the entire display screen is provided with the same shade as the shade set for the shade change color, and the same effect as when the gradation filter is used in the camera can be obtained. In addition, the processing corresponding to the addition of one plane object is only increased, and the amount of calculation processing of the apparatus hardly increases.
(2)上記実施形態1において平面オブジェクト504を一部のオブジェクトの背後に配置する場合には、平面オブジェクトの背後に位置するオブジェクトのみに選択的にグラデーションをかけることができる。 (2) In the first embodiment, when the planar object 504 is arranged behind some objects, gradation can be selectively applied only to the object located behind the planar object.
(3)上記実施形態1において平面オブジェクト504を視点Cから見て視体積500の一部領域のみを覆うように配置する場合には、表示画像のうち一部のみにグラデーションが付与されたような画像を提供可能である。 (3) In the first embodiment, when the planar object 504 is arranged so as to cover only a partial region of the visual volume 500 when viewed from the viewpoint C, gradation is given to only a part of the display image. An image can be provided.
(実施形態2)
本実施形態2は、演出内容に応じて適用する濃淡変化色特性を変更する実施例に関する。
本実施形態2についての機能ブロック図は、図4で説明した前記実施形態1の機能ブロック図とほぼ同じである。但し、濃淡変化色展開部310が参照する濃淡変化色記憶部309に記憶されている濃淡変化色、すなわちグラデーションパターンが異なる。
(Embodiment 2)
The second embodiment relates to an example in which the shade color characteristic to be applied is changed according to the contents of the effect.
The functional block diagram of the second embodiment is almost the same as the functional block diagram of the first embodiment described in FIG. However, the shade change color stored in the shade change color storage unit 309 referred to by the shade change color developing unit 310, that is, the gradation pattern is different.
図11に本実施形態2における画像生成処理を示すフローチャートを示す。
本実施形態2における画像音響生成基板60bの処理は上記実施形態1と殆ど同じである。但し、演出内容に応じて適用される濃淡変化色特性を毎回変更可能に構成されている点で異なる。
FIG. 11 is a flowchart showing image generation processing in the second embodiment.
The processing of the image sound generation substrate 60b in the second embodiment is almost the same as that in the first embodiment. However, it differs in that it is configured to be able to change the light and shade change color characteristics applied according to the contents of the production each time.
すなわち、ステップS210においてグラデーション効果を適用する場合(YES)、濃淡変化色展開部310は濃淡変化色記憶部309から毎回同じ濃淡変化色特性のデータを読み出すのではなく、画像演出内容に応じて異なる濃淡変化色特性のデータを読み出して、展開する(ステップS220)。 That is, when the gradation effect is applied in step S210 (YES), the shade change color developing unit 310 does not read the same shade change color characteristic data from the shade change color storage unit 309 every time, but differs depending on the contents of the image effect. The data of the density change color characteristic is read and developed (step S220).
図12にこのような複数種類の濃淡変化色特性の一例を示す。図12は正規化された座標系でY座標が示されており、正規化座標値において、視体積の範囲は±1.0で表される。正規化座標値が0は表示画面中央である。 FIG. 12 shows an example of such a plurality of types of shade change color characteristics. FIG. 12 shows the Y coordinate in the normalized coordinate system, and the range of the visual volume is represented by ± 1.0 in the normalized coordinate value. A normalized coordinate value of 0 is the center of the display screen.
図12に示すように、本実施形態2における濃淡変化色特性f2およびf3は、Y軸方向の下側(座標値が小さい方)が濃く、上側(座標値が大きい方)が薄くなり、連続的に変化する濃淡変化である点は実施形態1の濃淡変化特性f1と同じであるが、変化特性が一次線形的(直線的)ではなく、多次線形的な変化特性である点で異なる。例えば、濃淡変化色特性f2では、Y座標が+1.0に近づくまでは色濃度が高く、Y座標が+1.0に近づくと急激に色濃度が落ちている。
図13に濃淡変化色特性f2のテクスチャを平面オブジェクトにマッピングし、背景画像との合成を行わない場合の濃淡変化色508の表示例を示す。図13に示すように、f2のような濃淡変化色特性では、表示画面の多くの領域で濃淡変化色の色が付与され、少ない領域で背後の色が出るようになる。夕闇近く暗い画像を演出可能なグラデーションパターンである。
As shown in FIG. 12, the color change characteristics f2 and f3 in the second embodiment are darker on the lower side (smaller coordinate value) in the Y-axis direction and lighter on the upper side (larger coordinate value). However, the difference is that the change characteristic is not linear (linear), but multi-linear change characteristics. For example, in the light and shade change color characteristic f2, the color density is high until the Y coordinate approaches +1.0, and the color density rapidly decreases when the Y coordinate approaches +1.0.
FIG. 13 shows a display example of the light and shade change color 508 when the texture having the light and shade change color characteristic f2 is mapped to the planar object and is not synthesized with the background image. As shown in FIG. 13, with the density change color characteristic such as f2, the color of the density change color is given in many areas of the display screen, and the background color appears in a small area. It is a gradation pattern that can produce dark images near dusk.
図14は、図10Aに示したキャラクタオブジェクト602の透視投影変換後の表示画面600に対し、図13に示したような特性f2の濃淡変化色508を展開した平面オブジェクト504を重ね、ピクセル毎の合成演算をした表示例を示す。図14に示すように、濃淡変化色特性f2では、表示画面の殆どのピクセルにおいて色濃度が高くなっているため、全体に暗く沈んだような画像となっている。 14 overlaps the display screen 600 after the perspective projection conversion of the character object 602 shown in FIG. 10A with the planar object 504 in which the density change color 508 of the characteristic f2 as shown in FIG. 13 is developed, for each pixel. The example of a display which carried out the synthetic | combination calculation is shown. As shown in FIG. 14, in the light / dark change color characteristic f2, since the color density is high in almost all pixels of the display screen, the image looks dark and sunk.
また図12の濃淡変化色特性f3は、特性f2と対照的なグラデーションパターンである。図12に示すように、濃淡変化色特性f3では、Y座標が−1.0〜0になるに連れて色濃度が落ち、Y座標が0以上の領域では殆ど色濃度が0%である。 Also, the light / dark change color characteristic f3 in FIG. 12 is a gradation pattern contrasting with the characteristic f2. As shown in FIG. 12, in the light / dark change color characteristic f3, the color density decreases as the Y coordinate becomes −1.0 to 0, and the color density is almost 0% in the region where the Y coordinate is 0 or more.
図15に濃淡変化色特性f3のテクスチャを平面オブジェクトにマッピングし、背景画像との合成を行わない場合の濃淡変化色510の表示例を示す。図15に示すように、f3のような濃淡変化色特性では、表示画面の下半分で濃淡変化色の色が付与されるものの、上半分では殆ど濃淡変化色の色が付与されていない。 FIG. 15 shows a display example of the light and shade change color 510 when the texture having the light and shade change color characteristic f3 is mapped to the planar object and is not synthesized with the background image. As shown in FIG. 15, in the shade change color characteristic such as f3, although the shade change color is given in the lower half of the display screen, the shade change color is hardly given in the upper half.
図16は、図10Aに示したキャラクタオブジェクト602の透視投影変換後の表示画面600に対し、図15に示したような特性f3の濃淡変化色510を展開した平面オブジェクト504を重ね、ピクセル毎の合成演算をした表示例を示す。図16に示すように、濃淡変化色特性f3では、表示画面の下半分の領域にうっすら濃淡変化色の色が付され、上半分は殆ど色が付されず背景画像の色が出る。昼間など全体的に明るい画像を演出可能なグラデーションパターンである。 16 overlaps the display screen 600 after the perspective projection conversion of the character object 602 shown in FIG. 10A with the planar object 504 in which the density change color 510 of the characteristic f3 as shown in FIG. 15 is developed, for each pixel. The example of a display which carried out the synthetic | combination calculation is shown. As shown in FIG. 16, in the light and shade change color characteristic f3, the color of the light and shade change color is slightly added to the lower half area of the display screen, and the color of the background image appears with almost no color added to the upper half. It is a gradation pattern that can produce an overall bright image such as daytime.
以上実施形態2によれば、画像演出内容に応じて、濃淡変化色特性、すなわちグラデーションパターンを種々に変更するので、演出内容に適合したグラデーションパターンにより多彩な画像表現をすることが可能となる。 As described above, according to the second embodiment, the shade change color characteristic, that is, the gradation pattern is variously changed according to the contents of the image effect, so that it is possible to express various images with the gradation pattern suitable for the effect content.
(実施形態3)
本実施形態3は、演出内容に応じて適用する色調を変更する実施例に関する。
本実施形態3についての機能ブロック図は、図4で説明した前記実施形態1の機能ブロック図とほぼ同じである。但し、濃淡変化色展開部310が参照する濃淡変化色記憶部309に記憶されている濃淡変化色の設定色調が異なる。
(Embodiment 3)
This Embodiment 3 is related with the Example which changes the color tone applied according to production content.
The functional block diagram of the third embodiment is almost the same as the functional block diagram of the first embodiment described with reference to FIG. However, the set tone of the shade change color stored in the shade change color storage unit 309 referred to by the shade change color development unit 310 is different.
図17に本実施形態3における画像生成処理を示すフローチャートを示す。
本実施形態3における画像音響生成基板60bの処理は上記実施形態1と殆ど同じである。但し、演出内容に応じて適用される濃淡変化色の色調を毎回変更可能に構成されている点で異なる。
FIG. 17 is a flowchart showing image generation processing in the third embodiment.
The processing of the image sound generation board 60b in the third embodiment is almost the same as that in the first embodiment. However, it differs in that it is configured to be able to change the color tone of the shade change color applied in accordance with the contents of the production each time.
すなわち、ステップS210においてグラデーション効果を適用する場合(YES)、濃淡変化色展開部310は濃淡変化色記憶部309から毎回同じ色調の濃淡変化色データを読み出すのではなく、画像演出情報によって定まる演出パターンに応じて異なる色調で濃淡変化色を展開する(ステップS222)。適用する色調に限定はないが、画像演出の内容に合致したものとする。例えば彩度の無いモノトーンとすることの他に、赤色を帯びた濃淡変化色の色調とすることで夕方等の雰囲気を出すことができる。また白色を帯びた濃淡変化色の色調とすることで朝方や霧の雰囲気を出すことができる。さらに青色を帯びた濃淡変化色とすることで未明の雰囲気や海中の雰囲気を出すことができる。演出内容が変わるたびにその画像内容に応じた色調となるようプログラムしておけばよい。 That is, when the gradation effect is applied in step S210 (YES), the shade change color developing unit 310 does not read the shade change color data of the same color tone from the shade change color storage unit 309 every time, but produces an effect pattern determined by the image effect information. The shade change color is developed with a different color tone in accordance with (step S222). Although there is no limitation on the color tone to be applied, it is assumed that it matches the content of the image effect. For example, in addition to a monotone with no saturation, an atmosphere such as evening can be produced by setting the color tone of a light and shade change color in red. In addition, the morning or fog atmosphere can be obtained by setting the color tone of the shaded color to be white. Furthermore, by setting the color to change in shades of blue, an unclear atmosphere or an underwater atmosphere can be produced. What is necessary is just to program so that it may become a color tone according to the image content whenever the production content changes.
以上実施形態3によれば、画像演出の内容に応じて濃淡変化色の色調を変えるので、演出内容にさらに合致させたグラデーション効果を付与可能である。 As described above, according to the third embodiment, since the color tone of the shade change color is changed according to the content of the image effect, it is possible to provide a gradation effect that further matches the effect content.
(実施形態4)
本実施形態4は、視線方向に応じて濃淡変化特性の適用を変更する実施例に関する。
本実施形態4についての機能ブロック図は、図4で説明した前記実施形態1の機能ブロック図とほぼ同じであり、図6で説明した前記実施形態1における画像生成処理とほぼ同じである。但し、ステップS212において、濃淡変化色と背景画像の色とをピクセル毎に合成する際に、色合成部311は、毎回同じ透明度で濃淡変化色を合成するのではなく、視線の方向に応じて合成のための透明度を変更するよう動作する。
(Embodiment 4)
The fourth embodiment relates to an example in which application of the density change characteristic is changed according to the line-of-sight direction.
The functional block diagram of the fourth embodiment is substantially the same as the functional block diagram of the first embodiment described with reference to FIG. 4, and is substantially the same as the image generation process in the first embodiment described with reference to FIG. However, in step S212, when the color changing color and the color of the background image are combined for each pixel, the color combining unit 311 does not combine the color changing color with the same transparency every time, but according to the direction of the line of sight. Works to change transparency for compositing.
図18に本実施形態4における視線の角度と合成に係る色濃度、すなわち透明度との設定例を示す。図18では、視線の仰角が±30°で変化する場合を例示してある。この例では、視線の仰角が30°に近い場合には合成色濃度はほぼ0%であるのに対し、仰角が−30°に近くなると合成色濃度がほぼ100%に近くなるよう設定されている。 FIG. 18 shows a setting example of the line-of-sight angle and the color density related to synthesis, that is, transparency in the fourth embodiment. FIG. 18 illustrates the case where the elevation angle of the line of sight changes by ± 30 °. In this example, when the elevation angle of the line of sight is close to 30 °, the composite color density is approximately 0%, whereas when the elevation angle is close to −30 °, the composite color density is set to be approximately 100%. Yes.
色合成部311は色合成をする際に視線の仰角を検出し、その仰角を参照値として図18のような関係が割り付けられているテーブルを参照する。参照の結果得られた合成色濃度で、濃淡変化色と背景画像の色とを合成していく。図18のような割り付けに従えば、視線が上向きになる程、濃淡変化色の透明度が上がりグラデーションパターンの色が薄くなる。逆に視線が下向きになる程、濃淡変化色の透明度が下がってグラデーションパターンの色が濃くなっていく。よって、空を見上げたような場合には表示画面を明るく、地面を見下ろした場合には表示画面を暗くするような演出が可能となる。 When the color composition unit 311 performs color composition, the color composition unit 311 detects the elevation angle of the line of sight and refers to the table to which the relationship shown in FIG. 18 is assigned with the elevation angle as a reference value. With the combined color density obtained as a result of the reference, the light and shade change color and the color of the background image are combined. According to the assignment as shown in FIG. 18, as the line of sight is directed upward, the transparency of the shade change color increases and the color of the gradation pattern becomes lighter. Conversely, as the line of sight goes downward, the transparency of the shade change color decreases and the color of the gradation pattern becomes darker. Therefore, it is possible to produce an effect that brightens the display screen when looking up at the sky and darkens the display screen when looking down at the ground.
以上実施形態4によれば、視線の方向に応じてグラデーションパターンの適用度合いを変更するので、視線方向に応じて自然に生じる全体的な明るさの変化を容易に演出可能となる。 As described above, according to the fourth embodiment, the application degree of the gradation pattern is changed according to the line-of-sight direction, so that it is possible to easily produce the overall brightness change that naturally occurs according to the line-of-sight direction.
(実施形態5)
本実施形態5は、上記実施形態と同様のグラデーション効果を奏する機能ブロック構成の変形例に関する。
(Embodiment 5)
The fifth embodiment relates to a modification of the functional block configuration that provides the same gradation effect as the above-described embodiment.
図19に本実施形態5に係るサブ制御基板60の機能的な構成を示す機能ブロック図を示す。図19に示すように、画像音響生成基板60bには、オブジェクトデータ記憶部301、モデリング部302、座標変換部305、透視投影変換部306、テクスチャデータ記憶部307、色展開部308、濃淡変化色記憶部309、および色合成部320を備えている。 FIG. 19 is a functional block diagram showing a functional configuration of the sub control board 60 according to the fifth embodiment. As shown in FIG. 19, the image sound generation board 60 b includes an object data storage unit 301, a modeling unit 302, a coordinate conversion unit 305, a perspective projection conversion unit 306, a texture data storage unit 307, a color development unit 308, a shade change color. A storage unit 309 and a color composition unit 320 are provided.
本実施形態5では、モデリング部302は、平面オブジェクト配置部304を備えず、また、色展開部308は、濃淡変化色展開部310を備えていない。つまり、本実施形態では、グラデーションパターンのためのオブジェクトを配置する構成、すなわち仮想三次元空間に平面オブジェクトを配置し、濃淡変化色を展開し、それを含めてレンダリングする構成を備えていない。 In the fifth embodiment, the modeling unit 302 does not include the planar object arrangement unit 304, and the color development unit 308 does not include the light and shade change color development unit 310. In other words, the present embodiment does not have a configuration in which an object for a gradation pattern is arranged, that is, a configuration in which a planar object is arranged in a virtual three-dimensional space, a light and shade change color is developed, and rendering is included.
その代わり、本実施形態では、色合成部320が、レンダリング処理された透視投影変換後の画像全体に対し、直接濃淡変化色を合成するよう動作する。よって濃淡変化色は、仮想三次元空間でモデリングされるものではなく、最終的な立体画像に対するスクリーン合成のような形態で付与される。例えば色合成部320は、フレームバッファに出力された背景画像に対し直接濃淡変化色データに基づくピクセル単位の合成演算・ピクセルデータの置換を実行する。
以上実施形態5によれば、オブジェクトの追加をすることなく全体的な濃淡変化色の付与が可能である。
Instead, in this embodiment, the color synthesizing unit 320 operates so as to directly synthesize the shade-change color with respect to the entire image after the perspective projection conversion that has been rendered. Therefore, the shade change color is not modeled in a virtual three-dimensional space, but is given in a form such as a screen composition for a final stereoscopic image. For example, the color synthesizing unit 320 performs a pixel-unit synthesis operation and pixel data replacement on the background image output to the frame buffer directly based on the color change color data.
As described above, according to the fifth embodiment, it is possible to give the entire shade change color without adding an object.
(変形例)
本発明は、上記に限定されることなく種々に変形して実施することが可能である。
例えば、上記実施形態で示した濃淡変化色は例示に過ぎず、これらに限定されない。画像演出の内容に応じて濃淡変化色は種々に変更して適用することが可能である。
(Modification)
The present invention is not limited to the above and can be implemented with various modifications.
For example, the shade change colors shown in the above embodiment are merely examples, and the present invention is not limited to these. The shade change color can be variously changed and applied according to the contents of the image effect.
また、上記実施形態では、遊技機に本発明を適用したが、これに限定されず、この画像処理装置・方法に関するプログラムを実行する可能なコンピュータを備える装置一般に適用することが可能である。例えば、ゲーム装置やシミュレーション装置などに本発明を適用可能である。 In the above embodiment, the present invention is applied to a gaming machine. However, the present invention is not limited to this, and the present invention can be applied to a general apparatus including a computer capable of executing a program related to the image processing apparatus / method. For example, the present invention can be applied to a game device or a simulation device.
図20〜図23に、本実施形態を適用して作成した濃淡変化色と背景画像との合成画像例を示す。
図20では、キャラクタオブジェクト(人物)706、その背後の静物オブジェクト(岩)704、および背景画像(空)702により表示画像700が構成されている。静物オブジェクト704の上辺付近から下部の色濃度を濃くする濃淡変化色が適用されている。
20 to 23 show examples of combined images of shade change colors and background images created by applying this embodiment.
In FIG. 20, a display image 700 is configured by a character object (person) 706, a still-life object (rock) 704 behind it, and a background image (sky) 702. A shading change color that darkens the color density of the lower part from the vicinity of the upper side of the still object 704 is applied.
図21では、キャラクタオブジェクト(人物)706、サブキャラクタオブジェクト(馬)708、その背後の静物オブジェクト(岩)704、および背景画像(空)702により表示画像700が構成されている。静物オブジェクト704の中間付近から下部の色濃度を濃くする濃淡変化色が適用されている。 In FIG. 21, a display image 700 is constituted by a character object (person) 706, a sub-character object (horse) 708, a still-life object (rock) 704 behind it, and a background image (sky) 702. A shading change color that darkens the color density of the lower part from the middle of the still object 704 is applied.
図22では、キャラクタオブジェクト(人物)706、その背後の静物オブジェクト(建物)704、および背景画像(空)702により表示画像700が構成されている。背景画像702付近の上部のみが明るくそれ以外が暗くなるような濃淡変化色が適用されている。 In FIG. 22, a display image 700 is constituted by a character object (person) 706, a still-life object (building) 704 behind the character object (person) 706, and a background image (sky) 702. A shade change color is applied such that only the upper part in the vicinity of the background image 702 is bright and the others are dark.
図23では、キャラクタオブジェクト(人物)706、静物オブジェクト(地面)710により表示画像700が構成されている。下を向いた画像であり、上部を除き全体的に暗くなるような濃淡変化色が適用されている。 In FIG. 23, a display image 700 is composed of a character object (person) 706 and a still life object (ground) 710. It is an image facing downward, and a shade change color is applied so that the entire image except the upper part becomes dark.
以上の実施例に示すように、画像演出の内容に合わせて適用する濃淡変化色を適宜変更して用いることが好ましい。 As shown in the above embodiments, it is preferable to change and use the shade change color to be applied according to the contents of the image effect.
10 スロットマシン
21 表示窓
31 リール
31L 左リール
31C 中リール
31R 右リール
40 演出表示装置
50 メイン制御基板
51 メインCPU
52、62 ROM
53、63 RAM
54、69 I/F回路
60 サブ制御基板
60a 演出制御基板
60b 画像音響生成基板
101 制御部
102 抽選テーブル
103 役抽選部
105 フラグ情報記憶部
106 リール制御部
107 入賞判定部
108 遊技状態制御部
201 演出制御部
301 オブジェクトデータ記憶部
302 モデリング部
303 平面オブジェクトデータ記憶部
304 平面オブジェクト配置部
305 座標変換部
306 透視投影変換部
307 テクスチャデータ記憶部
308 色展開部
309 濃淡変化色展開部
310、320 色合成部
10 slot machine 21 display window 31 reel 31L left reel 31C middle reel 31R right reel 40 effect display device 50 main control board 51 main CPU
52, 62 ROM
53, 63 RAM
54, 69 I / F circuit 60 Sub control board 60a Production control board 60b Image sound generation board 101 Control section 102 Lottery table 103 Role lottery section 105 Flag information storage section 106 Reel control section 107 Winning determination section 108 Game state control section 201 Production Control unit 301 Object data storage unit 302 Modeling unit 303 Plane object data storage unit 304 Plane object placement unit 305 Coordinate conversion unit 306 Perspective projection conversion unit 307 Texture data storage unit 308 Color development unit 309 Shading change color development unit 310, 320 Color composition Part
Claims (8)
該透視投影変換のための視点から所定距離に平面オブジェクトを配置する平面オブジェクト配置部と、
該平面オブジェクトに所定の濃淡変化色を展開する濃淡変化色展開部と、
該透視投影変換後の各ピクセルに対し、該濃淡変化色と該平面オブジェクトの背景に係る色との合成演算をする色合成部と、を備えたことを特徴とする画像生成装置。 An image generation device that generates a display image obtained by perspective projection conversion of an object arranged in a virtual three-dimensional space,
A planar object placement unit that places a planar object at a predetermined distance from the viewpoint for perspective projection conversion;
A shading change color developing section for developing a predetermined shading change color on the planar object;
An image generation apparatus, comprising: a color composition unit that performs a composition operation of the shade change color and a color related to the background of the planar object for each pixel after the perspective projection conversion.
該透視投影変換後の各ピクセルに色を展開する際に、色が展開された該表示画像の少なくとも一部領域において、各ピクセルに対し所定の濃淡変化色との合成演算をする色合成部を備えたことを特徴とする画像生成装置。 An image generation device that generates a display image obtained by perspective projection conversion of an object arranged in a virtual three-dimensional space,
A color synthesizing unit that performs a synthesizing operation on each pixel with a predetermined shade change color in at least a partial region of the display image in which the color is developed when the color is developed on each pixel after the perspective projection conversion; An image generation apparatus comprising:
該コンピュータに、
該透視投影変換のための視点から所定距離に平面オブジェクトを配置する機能と、
該平面オブジェクトに所定の濃淡変化色を展開する機能と、
該透視投影変換後の各ピクセルに対し、該濃淡変化色と該平面オブジェクトの背景に係る色との合成演算をする機能と、を実行させるための画像生成プログラム。 An image generation program that causes a computer to operate as an image generation apparatus that generates a display image obtained by perspective projection conversion of an object arranged in a virtual three-dimensional space,
To the computer,
A function of arranging a planar object at a predetermined distance from the viewpoint for perspective projection conversion;
A function of developing a predetermined shading change color on the planar object;
An image generation program for executing, for each pixel after the perspective projection conversion, a function of performing a composition operation of the shade change color and a color related to the background of the planar object.
該コンピュータに、
該透視投影変換後の各ピクセルに色を展開する際に、色が展開された該表示画像の少なくとも一部領域において、各ピクセルに対し所定の濃淡変化色との合成演算をする機能を実行させるための画像生成プログラム。 An image generation program that causes a computer to operate as an image generation apparatus that generates a display image obtained by perspective projection conversion of an object arranged in a virtual three-dimensional space,
To the computer,
When a color is developed on each pixel after the perspective projection conversion, a function for performing a composition operation with a predetermined shading change color on each pixel is executed in at least a partial region of the display image where the color is developed. Image generation program for
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007079524A JP2008242619A (en) | 2007-03-26 | 2007-03-26 | Image generation device and image generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007079524A JP2008242619A (en) | 2007-03-26 | 2007-03-26 | Image generation device and image generation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008242619A true JP2008242619A (en) | 2008-10-09 |
Family
ID=39913924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007079524A Pending JP2008242619A (en) | 2007-03-26 | 2007-03-26 | Image generation device and image generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008242619A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011036544A (en) * | 2009-08-17 | 2011-02-24 | Sanyo Product Co Ltd | Game machine |
JP2011096076A (en) * | 2009-10-30 | 2011-05-12 | Fujifilm Corp | Page description data processing apparatus, method, and program |
JP2011215737A (en) * | 2010-03-31 | 2011-10-27 | Copcom Co Ltd | Image processing program, recording medium, and computer device |
JP2017038717A (en) * | 2015-08-18 | 2017-02-23 | 株式会社ユニバーサルエンターテインメント | Game machine |
JP2017086647A (en) * | 2015-11-13 | 2017-05-25 | 株式会社平和 | Game machine |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004334661A (en) * | 2003-05-09 | 2004-11-25 | Namco Ltd | Image generating system, program, and information storage medium |
JP2006318389A (en) * | 2005-05-16 | 2006-11-24 | Namco Bandai Games Inc | Program, information storage medium, and image generation system |
-
2007
- 2007-03-26 JP JP2007079524A patent/JP2008242619A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004334661A (en) * | 2003-05-09 | 2004-11-25 | Namco Ltd | Image generating system, program, and information storage medium |
JP2006318389A (en) * | 2005-05-16 | 2006-11-24 | Namco Bandai Games Inc | Program, information storage medium, and image generation system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011036544A (en) * | 2009-08-17 | 2011-02-24 | Sanyo Product Co Ltd | Game machine |
JP2011096076A (en) * | 2009-10-30 | 2011-05-12 | Fujifilm Corp | Page description data processing apparatus, method, and program |
JP2011215737A (en) * | 2010-03-31 | 2011-10-27 | Copcom Co Ltd | Image processing program, recording medium, and computer device |
JP2017038717A (en) * | 2015-08-18 | 2017-02-23 | 株式会社ユニバーサルエンターテインメント | Game machine |
JP2017086647A (en) * | 2015-11-13 | 2017-05-25 | 株式会社平和 | Game machine |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4895381B2 (en) | Image generating apparatus and image generating program | |
JP4941934B2 (en) | Image generating apparatus and image generating program | |
JP4761537B2 (en) | Image generating apparatus, game machine, and image generating program | |
JP4753252B2 (en) | Image generating apparatus, game machine, image generating method, image generating program, and recording medium | |
JP2008242619A (en) | Image generation device and image generation program | |
JP2007135819A (en) | Image processor, game machine, image processing method and program | |
JP2009110362A (en) | Image generation device and image generation program | |
JP4753198B2 (en) | Image generating apparatus, game machine, image generating method, and program | |
JP4702798B2 (en) | Image generating apparatus, game machine, image generating method, and program | |
JP4831569B2 (en) | Image generating apparatus, game machine, and image generating program | |
JP4771525B2 (en) | Image generating apparatus, game machine, image generating method, and program | |
JP2010026903A (en) | Image generation device, game machine and image generation program | |
JP5062632B2 (en) | Image generating apparatus, game machine, and program | |
JP2007098051A (en) | Game machine | |
JP4761372B2 (en) | Image generating apparatus, game machine, image generating program, and recording medium | |
JP5322092B2 (en) | Gaming machines and games programs | |
JP4726671B2 (en) | Image generating apparatus, game machine, image generating program, and recording medium | |
JP2005218591A (en) | Image display device and game machine | |
JP4771417B2 (en) | Image generating apparatus, game machine, image generating program, and recording medium | |
JP2005216106A (en) | Image processing apparatus and method and program thereof | |
JP7210422B2 (en) | game machine | |
JP7248561B2 (en) | game machine | |
JP2007140817A (en) | Image generation device, game machine, image generation method and program | |
JP5004134B2 (en) | Image generating apparatus, game machine, image generating method, and image generating program | |
JP2007264708A (en) | Image generation device, game machine, and image generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091203 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100528 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110812 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111006 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111206 |