JP2019213781A - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP2019213781A
JP2019213781A JP2018113738A JP2018113738A JP2019213781A JP 2019213781 A JP2019213781 A JP 2019213781A JP 2018113738 A JP2018113738 A JP 2018113738A JP 2018113738 A JP2018113738 A JP 2018113738A JP 2019213781 A JP2019213781 A JP 2019213781A
Authority
JP
Japan
Prior art keywords
sound
volume
data
image
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018113738A
Other languages
Japanese (ja)
Inventor
伊藤 裕之
Hiroyuki Ito
裕之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
Universal Entertainment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal Entertainment Corp filed Critical Universal Entertainment Corp
Priority to JP2018113738A priority Critical patent/JP2019213781A/en
Publication of JP2019213781A publication Critical patent/JP2019213781A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Slot Machines And Peripheral Devices (AREA)

Abstract

To make it possible to cope with diversification of the contents of sound presentations and to improve the efficiency of sound data creation.SOLUTION: A game machine comprises sound control means capable of performing control relating to sound, and sound output means capable of outputting sound. When a predetermined condition is satisfied, the sound control means can perform processing in which reproduction of a first sound associated with a first channel is started at a first volume via the sound output means and reproduction of a second sound associated with a second channel is started at a second volume smaller than the first sound volume, in addition, at a substantially the same or a certain-time delayed reproduction start timing relative to the reproduction start timing of the first sound. When a shift condition is satisfied, the sound control means can perform processing in which the sound volume of the first sound is reduced from the first sound volume to a third sound volume or the reproduction of the first sound is stopped and the sound volume of the second sound is increased from the second sound volume to a fourth sound volume. The first sound outputted via the sound output means at the first sound volume and the second sound outputted via the sound output means at the fourth sound volume form a series of sound presentations.SELECTED DRAWING: Figure 35

Description

本発明は、遊技機に関する。 The present invention relates to a gaming machine.

従来、複数の図柄がそれぞれの表面に設けられた複数のリールと、スタートスイッチと、ストップスイッチと、各リールに対応して設けられたステッピングモータと、制御部とを備えた、パチスロと呼ばれる遊技機が知られている。スタートスイッチは、メダルやコインなどの遊技媒体が遊技機に投入された後、スタートレバーが遊技者により操作されたこと(以下、「開始操作」ともいう)を検出し、全てのリールの回転の開始を要求する信号を出力する。ストップスイッチは、各リールに対応して設けられたストップボタンが遊技者により押されたこと(以下、「停止操作」ともいう)を検出し、該当するリールの回転の停止を要求する信号を出力する。ステッピングモータは、その駆動力を対応するリールに伝達する。また、制御部は、スタートスイッチ及びストップスイッチにより出力された信号に基づいて、ステッピングモータの動作を制御し、各リールの回転動作及び停止動作を行う。 Conventionally, a game called pachi-slot, comprising a plurality of reels each having a plurality of symbols provided on the surface, a start switch, a stop switch, a stepping motor provided for each reel, and a control unit. The machine is known. The start switch detects that the start lever has been operated by the player (hereinafter also referred to as “start operation”) after a game medium such as a medal or coin has been inserted into the gaming machine, and the rotation of all reels is detected. Outputs a signal requesting start. The stop switch detects that a stop button provided for each reel has been pressed by the player (hereinafter also referred to as “stop operation”), and outputs a signal requesting the rotation of the corresponding reel to stop. To do. The stepping motor transmits the driving force to the corresponding reel. Further, the control unit controls the operation of the stepping motor based on the signals output from the start switch and the stop switch, and performs the rotation operation and stop operation of each reel.

このような遊技機では、開始操作が検出されると、プログラム上で乱数を用いた抽籤処理(以下、「内部抽籤処理」という)が行われ、その抽籤の結果(以下、「内部当籤役」という)と停止操作のタイミングとに基づいてリールの回転の停止を行う。そして、全てのリールの回転が停止され、入賞の成立に係る図柄の組合せ(表示役)が表示されると、その図柄の組合せに対応する特典が遊技者に付与される。なお、遊技者に付与される特典の例としては、遊技媒体(メダル等)の払い出し、遊技媒体を消費することなく再度、内部抽籤処理を行う再遊技(以下、「リプレイ」ともいう)の作動、遊技媒体の払い出し機会が増加するボーナスゲームの作動等を挙げることができる。 In such a gaming machine, when a start operation is detected, lottery processing using random numbers (hereinafter referred to as “internal lottery processing”) is performed on the program, and the result of the lottery (hereinafter referred to as “internal winning combination”). And the rotation of the reel is stopped based on the timing of the stop operation. When the rotation of all reels is stopped and a symbol combination (display combination) related to winning is displayed, a bonus corresponding to the symbol combination is given to the player. As an example of a privilege granted to a player, a replay (hereinafter also referred to as “replay”) in which an internal lottery process is performed again without paying out game media (medals, etc.) or consuming the game media. An operation of a bonus game in which a game medium payout opportunity increases can be cited.

また、従来、上記構成の遊技機において、特定の小役(遊技媒体の払い出しに係る役)の成立をランプ等でナビゲートする機能(以下、省略して「ナビ」ともいう)、すなわち、アシストタイム(以下、「AT」という)の機能を備える遊技機が開発されている。また、従来、特定の図柄組合せが表示された場合にリプレイの当籤確率が通常時より高い遊技状態が作動する機能、すなわち、リプレイタイム(以下、「RT」という)の機能を備える遊技機も開発されている。さらに、従来、ATとRTとが同時に作動するアシストリプレイタイム(以下、「ART」という)の機能を備えたパチスロが開発されている。 Conventionally, in a gaming machine having the above configuration, a function of navigating the formation of a specific small role (role related to the payout of game media) by a lamp or the like (hereinafter, also referred to as “navi” for short), Gaming machines having a function of time (hereinafter referred to as "AT") have been developed. Conventionally, a gaming machine having a function of operating a gaming state in which a winning probability of replay is higher than usual when a specific symbol combination is displayed, that is, a function of a replay time (hereinafter, referred to as “RT”) has also been developed. Have been. Further, conventionally, a pachi-slot having an assist replay time (hereinafter, referred to as "ART") function in which the AT and the RT operate simultaneously has been developed.

上述した遊技機は、通常、内部当籤役の決定、各リールの回転及び停止、入賞の有無の判定等の遊技機の主な遊技動作を制御する回路(主制御回路)が実装された主制御基板と、映像の表示等による演出動作を制御する回路(副制御回路)が実装された副制御基板とを備える。そして、遊技動作は、主制御回路に搭載されたCPU(Central Processing Unit)により制御される。この際、CPUの制御により、主制御回路のROM(Read Only Memory)に記憶されたプログラム及び各種テーブルデータ等が主制御回路のRAM(Random Access Memory)に展開され、各種遊技動作に関する処理が実行される。 The above-described gaming machine usually has a main control circuit mounted with a circuit (main control circuit) for controlling main gaming operations of the gaming machine, such as determination of an internal winning combination, rotation and stop of each reel, determination of presence or absence of a prize, and the like. The board includes a board and a sub-control board on which a circuit (sub-control circuit) for controlling an effect operation for displaying an image or the like is mounted. The game operation is controlled by a CPU (Central Processing Unit) mounted on the main control circuit. At this time, under the control of the CPU, the programs and various table data stored in the ROM (Read Only Memory) of the main control circuit are developed in the RAM (Random Access Memory) of the main control circuit, and processing relating to various game operations is executed. Is done.

また、従来、上述した構成の遊技機において、第1のチャンネルから出力されているBGMをフェードアウトさせるとともに第2のチャンネルから1ゲーム演出の効果音を出力し、1ゲーム演出の効果音の出力後に第1のチャンネルから出力されるBGMをフェードインさせることでBGMを継続出力させる遊技機が提案されている(例えば特許文献1参照)。 Conventionally, in a gaming machine having the above-described configuration, the BGM output from the first channel is faded out, the sound effect of one game effect is output from the second channel, and after the sound effect of the one game effect is output. A gaming machine that continuously outputs BGM by fading in BGM output from a first channel has been proposed (for example, see Patent Document 1).

特開2014−209939号公報JP 2014-209939 A

ところで、近年、遊技機では、音声の演出内容が多様化し、サウンドデータの作成(制作)においても効率化が求められている。例えば、2つ以上のシーンが切り替わりながら一連の演出を形成する場合、切り替わるタイミングが不定となると、切り替わるタイミングのバリエーションに応じて多くのサウンドデータを作成する必要がある。多くのサウンドデータが必要となると、その分だけ多くの実装の記憶領域が必要となるという問題もある。 By the way, in recent years, the staging contents of sound have been diversified in gaming machines, and there has been a demand for more efficient creation (production) of sound data. For example, in the case where a series of effects is formed while two or more scenes are switched, if the switching timing is uncertain, it is necessary to create a large amount of sound data in accordance with the variation of the switching timing. When a large amount of sound data is required, there is a problem that a storage area of a large amount of mounting is required.

本発明は、上記課題を解決するためになされたものであり、本発明の目的は、音声の演出内容の多様化に対応でき、かつ、サウンドデータの作成の効率化を図ることができる遊技機を提供することである。 SUMMARY An advantage of some aspects of the invention is to provide a gaming machine capable of responding to diversification of sound effects and improving the efficiency of sound data creation. It is to provide.

上記課題を解決するために、本発明では、以下のような構成の遊技機を提供する。 In order to solve the above problems, the present invention provides a gaming machine having the following configuration.

[1] 音に関する制御を実行可能な音制御手段(例えば第1サウンド演出処理部1500、1500B、1500C)と、音を出力可能な音出力手段(例えばスピーカ64L、64R)とを備える遊技機(1)であって、
前記音制御手段(例えば第1サウンド演出処理部1500、1500B、1500C)は、
所定条件(例えばコマンド番号“541”、“542”、“641”、及び“642”が登録かつスタートスイッチオン)が成立すると、前記音出力手段(例えばスピーカ64L、64R)を介して、第1チャンネル(例えばCH5)に対応付けられた第1の音(例えば電話ボイスのサウンドデータ)を第1の音量(例えばボリューム“255”の通常音量)で再生開始し、かつ、第2チャンネル(例えばCH6)に対応付けられた第2の音(例えば通常ボイスのサウンドデータ)を、前記第1の音量(例えばボリューム“255”の通常音量)よりも小さい第2の音量(例えばボリューム“0”のミュート音量)でかつ前記第1の音の再生開始タイミングに対して略同時に又は一定時間(例えば図58の一定時間T7)だけ遅れた再生開始タイミングで再生開始する処理(例えば図32のステップS322:第1音声再生処理)と、
切替条件(例えば“第3停止操作”)が成立すると、前記第1の音(例えば電話ボイスのサウンドデータ)の音量を前記第1の音量(例えばボリューム“255”の通常音量)から第3の音量(例えばボリューム“0”のミュート音量)に減少させ又は前記第1の音(例えば電話ボイスのサウンドデータ)の再生を停止し、かつ、前記第2の音(例えば通常ボイスのサウンドデータ)の音量を前記第2の音量(例えばボリューム“0”のミュート音量)から第4の音量(例えばボリューム“255”の通常音量)に増加させる処理(例えば図32のステップS326:第2音声再生処理)とを、
実行可能であり、
前記音出力手段(例えばスピーカ64L、64R)を介して前記第1の音量(例えばボリューム“255”の通常音量)で出力された前記第1の音(例えば電話ボイスのサウンドデータ)と、前記音出力手段(例えばスピーカ64L、64R)を介して前記第4の音量(例えばボリューム“255”の通常音量)で出力された前記第2の音(例えば通常ボイスのサウンドデータ)とは、一連の音演出(例えば台詞音“聞こえていますか?私の声が”)を形成する、遊技機(1)。
[1] A game machine including sound control means (for example, first sound effect processing units 1500, 1500B, 1500C) capable of executing control related to sound, and sound output means (for example, speakers 64L and 64R) capable of outputting sound. 1)
The sound control means (for example, the first sound effect processing units 1500, 1500B, 1500C)
When predetermined conditions (for example, command numbers “541”, “542”, “641”, and “642” are registered and the start switch is turned on) are satisfied, the first sound is output via the sound output means (for example, speakers 64L and 64R). A first sound (for example, sound data of telephone voice) associated with a channel (for example, CH5) is started to be reproduced at a first volume (for example, a normal volume of volume “255”), and a second channel (for example, CH6) ) Is associated with a second volume (for example, mute of volume “0”) lower than the first volume (for example, normal volume of volume “255”). Volume) and at the same time as the reproduction start timing of the first sound or at a time delayed by a certain time (for example, a certain time T7 in FIG. 58). Processing of starting playback timing (e.g. step of FIG. 32 S322: first audio reproduction process) and,
When the switching condition (for example, “third stop operation”) is satisfied, the volume of the first sound (for example, telephone voice sound data) is changed from the first volume (for example, the normal volume of volume “255”) to the third volume. Volume (e.g., mute volume of volume "0") or stop reproducing the first sound (e.g., telephone voice sound data), and reduce the second sound (e.g., normal voice sound data). A process of increasing the volume from the second volume (for example, mute volume of volume “0”) to a fourth volume (for example, normal volume of volume “255”) (for example, step S326 in FIG. 32: second audio reproduction process) And
Executable,
The first sound (for example, telephone voice sound data) output at the first volume (for example, a normal volume of volume “255”) via the sound output means (for example, speakers 64L and 64R); The second sound (for example, normal voice sound data) output at the fourth volume (for example, the normal volume of the volume “255”) via output means (for example, speakers 64L and 64R) is a series of sounds. A gaming machine (1) that forms an effect (eg, a dialogue sound "Do you hear? My voice").

上記の[1]の遊技機によれば、所定条件が成立すると、第1の音が第1の音量で出力され、かつ、第2の音が第2の音量で出力される。このとき、第2の音量は第1の音量よりも小さいので、遊技者には第1の音の方が聞こえやすくなる。また、切替条件が成立すると、第1の音が第3の音量で出力され、かつ、第2の音が第4の音量で出力される。このとき、第3の音量は第4の音量よりも小さいので、遊技者には第2の音の方が聞こえやすくなる。このようにして、切替条件が成立すると、音量を変更するだけで、第1の音が聞こえやすい状態から、第2の音が聞こえやすい状態に変化させることができる。この結果、第1の音及び第2の音に係る2種類のサウンドデータを用いて、音量を変更するタイミングを変化させるだけで、多様な演出内容を実現することが可能となる。 According to the gaming machine of [1], when the predetermined condition is satisfied, the first sound is output at the first volume and the second sound is output at the second volume. At this time, since the second sound volume is lower than the first sound volume, the player can more easily hear the first sound. When the switching condition is satisfied, the first sound is output at the third volume and the second sound is output at the fourth volume. At this time, since the third sound volume is lower than the fourth sound volume, the player can more easily hear the second sound. In this way, when the switching condition is satisfied, it is possible to change from a state in which the first sound is easy to hear to a state in which the second sound is easy to hear only by changing the volume. As a result, various effect contents can be realized only by changing the timing of changing the volume using two types of sound data relating to the first sound and the second sound.

[2] 前記第1の音量(例えばボリューム“255”の通常音量)及び前記第4の音量(例えばボリューム“255”の通常音量)は、遊技者が可聴な音量であり、
前記第2の音量(例えばボリューム“0”のミュート音量)及び前記第3の音量(例えばボリューム“0”のミュート音量)は、遊技者が聴くことが困難又は不能な音量である、[1]の遊技機(1)。
[2] The first volume (for example, the normal volume of the volume “255”) and the fourth volume (for example, the normal volume of the volume “255”) are volumes that are audible to the player,
The second volume (e.g., mute volume of volume "0") and the third volume (e.g., mute volume of volume "0") are volumes that are difficult or impossible for a player to listen to, [1]. Gaming machine (1).

上記の[2]の遊技機によれば、所定条件が成立すると、第1の音が、遊技者が可聴な音量(第1の音量)で出力され、かつ、第2の音が、遊技者が聴くことが困難又は不能な音量(第2の音量)で出力される。このとき、遊技者には第1の音だけが聞こえやすくなる。また、切替条件が成立すると、第1の音が、遊技者が聴くことが困難又は不能な音量(第3の音量)で出力され、かつ、第2の音が、遊技者が可聴な音量(第4の音量)で出力される。このとき、遊技者には第2の音だけが聞こえやすくなる。このようにして、切替条件が成立すると、音量を変更するだけで、第1の音だけが聞こえやすい状態から、第2の音だけが聞こえやすい状態に変化させることができる。この結果、第1の音及び第2の音に係る2種類のサウンドデータを用いて、音量を変更するタイミングを変化させるだけで、多様な演出内容を実現することが可能となる。 According to the gaming machine of the above [2], when the predetermined condition is satisfied, the first sound is output at a volume (first volume) audible to the player, and the second sound is output at the player. Is output at a volume (second volume) that is difficult or impossible to hear. At this time, the player can easily hear only the first sound. When the switching condition is satisfied, the first sound is output at a volume (third volume) that is difficult or impossible for the player to listen to, and the second sound is output at a volume that is audible to the player ( (The fourth volume). At this time, the player can easily hear only the second sound. In this way, when the switching condition is satisfied, it is possible to change from a state in which only the first sound is easy to hear to a state in which only the second sound is easy to hear only by changing the volume. As a result, various effect contents can be realized only by changing the timing of changing the volume using two types of sound data relating to the first sound and the second sound.

[3] 前記切替条件(例えば“第3停止操作”)は、前記所定条件(例えばコマンド番号“541”、“542”、“641”、及び“642”が登録かつスタートスイッチオン)が成立してから前記切替条件(例えば“第3停止操作”)が成立するまでの時間(ΔT1)が不定となる態様で、成立可能である、[1]の遊技機(1)。 [3] The switching condition (for example, “third stop operation”) satisfies the predetermined condition (for example, command numbers “541”, “542”, “641”, and “642” are registered and the start switch is turned on). The gaming machine (1) according to [1], wherein the time (ΔT1) until the switching condition (for example, the “third stop operation”) is satisfied is undefined.

上記の[3]の遊技機によれば、切替条件が不定なタイミングで成立可能である場合でも、考えられるタイミングごとに第1の音及び第2の音に係るサウンドデータを用意する必要がなく、第1の音及び第2の音に係る2種類のサウンドデータを用いて効率的に対応できる。 According to the gaming machine of the above [3], even when the switching condition can be satisfied at an indefinite timing, there is no need to prepare sound data relating to the first sound and the second sound at each possible timing. , The first sound and the second sound can be efficiently handled.

[4] 遊技者が操作可能な操作手段(例えばメダル投入口14、MAXベットボタン15a、1ベットボタン15b、スタートレバー16、3つのストップボタン17L,17C,17R、精算ボタン、演出ボタン)を備え、
前記切替条件(例えば“第3停止操作”)は、前記操作手段(例えばメダル投入口14、MAXベットボタン15a、1ベットボタン15b、スタートレバー16、3つのストップボタン17L,17C,17R、精算ボタン、演出ボタン)を遊技者が操作したことに基づいて成立する、[3]の遊技機(1)。
[4] Equipped with operation means (for example, a medal slot 14, MAX bet button 15a, 1 bet button 15b, start lever 16, three stop buttons 17L, 17C, 17R, a settlement button, a production button) which can be operated by the player. ,
The switching condition (for example, “third stop operation”) includes the operation means (for example, the medal slot 14, MAX bet button 15a, 1 bet button 15b, start lever 16, three stop buttons 17L, 17C, 17R, and settlement button , The effect button), which is established based on the player's operation of the gaming machine (1) of [3].

上記の[4]の遊技機によれば、切替条件が、遊技者による操作に起因して不定なタイミングで成立可能である場合でも、考えられるタイミングごとに第1の音及び第2の音に係るサウンドデータを用意する必要がなく、第1の音及び第2の音に係る2種類のサウンドデータを用いて効率的に対応できる。 According to the gaming machine of the above [4], even when the switching condition can be satisfied at an indefinite timing due to the operation by the player, the first sound and the second sound are generated at each possible timing. There is no need to prepare such sound data, and it is possible to efficiently cope with the two kinds of sound data relating to the first sound and the second sound.

上記構成の本発明の遊技機によれば、音声の演出内容の多様化に対応でき、かつ、サウンドデータの作成の効率化を図ることができる。 According to the gaming machine of the present invention having the above-described configuration, it is possible to cope with diversification of the contents of sound effects, and to increase the efficiency of sound data creation.

本発明の一実施形態における遊技機の機能フローを説明するための図である。It is a figure for demonstrating the function flow of the game machine in one Embodiment of this invention. 本発明の一実施形態における遊技機の外観構造を示す斜視図である。It is a perspective view which shows the external appearance structure of the game machine in one Embodiment of this invention. 本発明の一実施形態における遊技機の内部構造を示す図である。It is a figure which shows the internal structure of the game machine in one Embodiment of this invention. 本発明の一実施形態における遊技機の内部構造を示す図である。It is a figure which shows the internal structure of the game machine in one Embodiment of this invention. 本発明の一実施形態の遊技機における表示装置の斜視図である。It is a perspective view of a display in a game machine of one embodiment of the present invention. 本発明の一実施形態の遊技機における投影ブロックの分解斜視図である。It is an exploded perspective view of the projection block in the gaming machine of one embodiment of the present invention. 本発明の一実施形態の遊技機における投影ブロックの縦断面図である。It is a longitudinal section of a projection block in a game machine of one embodiment of the present invention. 本発明の一実施形態の遊技機における被投影ブロックの分解斜視図である。It is an exploded perspective view of a projection block in the gaming machine of one embodiment of the present invention. 本発明の一実施形態の遊技機における被投影部材移動機構の分解斜視図である。It is an exploded perspective view of a projection target member moving mechanism in the gaming machine of one embodiment of the present invention. 本発明の一実施形態の遊技機において台形部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。FIG. 3 is a vertical cross-sectional view of a projection target block when a trapezoidal member is a projection target of image light in the gaming machine according to one embodiment of the present invention. 本発明の一実施形態の遊技機において擬似リール部材を映像光の投影対象としたときの被投影ブロックの状態を示す図である。It is a figure showing a state of a projection target block when a false reel member is made into a projection object of image light in a game machine of one embodiment of the present invention. 本発明の一実施形態の遊技機において擬似リール部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。It is a longitudinal cross-sectional view of a projection target block when a pseudo reel member is a projection target of image light in the gaming machine of one embodiment of the present invention. 本発明の一実施形態の遊技機において平面スクリーン部材を映像光の投影対象としたときの被投影ブロックの状態を示す図である。It is a figure showing a state of a projection target block when a plane screen member is made into a projection object of image light in a game machine of one embodiment of the present invention. 本発明の一実施形態の遊技機において平面スクリーン部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。FIG. 2 is a vertical cross-sectional view of a projection target block when a flat screen member is a projection target of image light in the gaming machine of one embodiment of the present invention. 本発明の一実施形態の遊技機が備える回路の全体構成を示すブロック図である。It is a block diagram which shows the whole circuit structure with which the game machine of one Embodiment of this invention is provided. 本発明の一実施形態における主制御回路の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the main control circuit in one Embodiment of this invention. 本発明の一実施形態におけるマイクロプロセッサの内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of a microprocessor according to the embodiment of the present invention. 本発明の一実施形態における副制御回路の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the sub control circuit in one Embodiment of this invention. 本発明の一実施形態において、サブCPUにより実行される演出登録タスクの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the effect registration task performed by sub CPU in one Embodiment of this invention. 本発明の一実施形態において、各種被投影部材に投影される映像光の画像データ(PJ対応画像データ)の作成手法の概要を説明するための図である。FIG. 4 is a diagram for describing an outline of a method of creating image data (PJ-compatible image data) of video light projected onto various projection members according to an embodiment of the present invention. 本発明の一実施形態における仮想投影撮影法によるPJ対応画像データの生成手法の概要を説明するための図である。FIG. 4 is a diagram for describing an outline of a technique for generating PJ-compatible image data by virtual projection imaging in one embodiment of the present invention. 本発明の一実施形態において、仮想投影動作により生成される仮想投影画像データの具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of virtual projection image data generated by a virtual projection operation in one embodiment of the present invention. 本発明の一実施形態において、仮想撮影画像データからPJ対応画像データを生成する際の処理概要を示す図である。FIG. 5 is a diagram illustrating an outline of processing when generating PJ-compatible image data from virtual captured image data in one embodiment of the present invention. 本発明の一実施形態において、投影対象の被投影部材に可動被投影部材が含まれる場合のPJ対応画像データの生成概要を説明するための図である。FIG. 5 is a diagram for explaining an outline of generating PJ-compatible image data when a projection target member to be projected includes a movable projection target member in one embodiment of the present invention. 本発明の一実施形態において実行される画像データ生成処理の手順を示すフローチャートである。9 is a flowchart illustrating a procedure of image data generation processing executed in an embodiment of the present invention. 本発明の一実施形態における副制御回路におけるサウンド演出に関するハードウェア構成図である。It is a hardware block diagram regarding sound production in the sub control circuit in one embodiment of the present invention. 本発明の一実施形態におけるサウンドデータテーブルの一例を示す図である。FIG. 4 is a diagram illustrating an example of a sound data table according to an embodiment of the present invention. 本発明の一実施形態におけるアニメーションデータテーブルの一例を示す図である。FIG. 4 is a diagram illustrating an example of an animation data table according to an embodiment of the present invention. 本発明の一実施形態におけるアニメーションデータに従って生成される映像の説明図である。FIG. 3 is an explanatory diagram of a video generated according to animation data according to an embodiment of the present invention. 本発明の一実施形態における演出処理に関連した機能の一例を示すブロック図である。It is a block diagram showing an example of a function related to production processing in one embodiment of the present invention. 本発明の一実施形態における電話シーン(聞き手側)の映像の説明図である。It is explanatory drawing of the image of the telephone scene (listener side) in one Embodiment of this invention. 本発明の一実施形態における電話シーン(話し手側)の映像の説明図である。It is explanatory drawing of the image of the telephone scene (speaker side) in one Embodiment of this invention. 本発明の一実施形態における第1サウンド演出処理部により実現されるサウンド演出処理の一例の概略フローチャートである。It is a general | schematic flowchart of an example of the sound effect process implement | achieved by the 1st sound effect processing part in one Embodiment of this invention. 本発明の一実施形態における第2音声再生処理の一例を示す概略フローチャートである。6 is a schematic flowchart illustrating an example of a second audio reproduction process according to an embodiment of the present invention. 本発明の一実施形態における第1画像演出処理部により実現される画像演出処理の一例の概略フローチャートである。It is a schematic flow chart of an example of image production processing realized by a 1st image production processing part in one embodiment of the present invention. 本発明の一実施形態における演出処理の説明図である。It is explanatory drawing of the production process in one Embodiment of this invention. 本発明の一実施形態における演出処理の説明図である。It is explanatory drawing of the production process in one Embodiment of this invention. 本発明の一実施形態における第2サウンド演出処理部により実現されるサウンド演出処理(CH6)の一例の概略フローチャートである。It is an outline flow chart of an example of sound production processing (CH6) realized by the 2nd sound production processing part in one embodiment of the present invention. 本発明の一実施形態における第2サウンド演出処理部により実現されるサウンド演出処理(CH5)の一例の概略フローチャートである。It is a general | schematic flowchart of an example of the sound effect process (CH5) implement | achieved by the 2nd sound effect process part in one Embodiment of this invention. 本発明の一実施形態における第2画像演出処理部により実現される画像演出処理の一例の概略フローチャートである。It is a schematic flowchart of an example of the image effect processing realized by the second image effect processing unit in one embodiment of the present invention. 本発明の一実施形態における演出処理の説明図である。It is explanatory drawing of the production process in one Embodiment of this invention. 本発明の一実施形態における演出処理の説明図である。It is explanatory drawing of the production process in one Embodiment of this invention. 第3比較例による演出処理の説明図である。It is explanatory drawing of the production process by a 3rd comparative example. 本発明の一実施形態におけるサウンドデータテーブルの他の一例を示す図である。FIG. 8 is a diagram illustrating another example of the sound data table according to the embodiment of the present invention. 本発明の一実施形態における通常サウンドデータと割込み用サウンドデータとの相違の説明図である。FIG. 7 is an explanatory diagram of a difference between normal sound data and interrupt sound data according to an embodiment of the present invention. 本発明の一実施形態における演出処理に関連した機能の他の一例を示すブロック図である。It is a block diagram showing other examples of the function related to production processing in one embodiment of the present invention. 本発明の一実施形態における第2サウンド演出処理部により実現されるサウンド演出処理(CH6)の他の一例の概略フローチャートである。It is a schematic flow chart of another example of sound production processing (CH6) realized by the second sound production processing unit in one embodiment of the present invention. 本発明の一実施形態におけるサウンドデータテーブルの他の一例を示す図である。FIG. 8 is a diagram illustrating another example of the sound data table according to the embodiment of the present invention. 本発明の一実施形態における演出処理に関連した機能の他の一例を示すブロック図である。It is a block diagram showing other examples of the function related to production processing in one embodiment of the present invention. 本発明の一実施形態における第1サウンド演出処理部により実現されるサウンド演出処理の他の一例の概略フローチャートである。It is a general | schematic flowchart of another example of the sound effect process implement | achieved by the 1st sound effect process part in one Embodiment of this invention. 本発明の一実施形態におけるサウンドデータテーブルの他の一例を示す図である。FIG. 8 is a diagram illustrating another example of the sound data table according to the embodiment of the present invention. 本発明の一実施形態における演出処理に関連した機能の他の一例を示すブロック図である。It is a block diagram showing other examples of the function related to production processing in one embodiment of the present invention. 本発明の一実施形態における第1サウンド演出処理部により実現されるサウンド演出処理の他の一例の概略フローチャートである。It is a general | schematic flowchart of another example of the sound effect process implement | achieved by the 1st sound effect process part in one Embodiment of this invention. 本発明の変形例1におけるPJ対応画像データの生成手法の概要を説明するための図である。FIG. 11 is a diagram for describing an outline of a method for generating PJ-compatible image data according to a first modification of the present invention. 本発明の変形例2におけるPJ対応画像データの生成手法の概要を説明するための図である。FIG. 11 is a diagram for describing an outline of a method for generating PJ-compatible image data according to Modification 2 of the present invention. 本発明の変形例2におけるPJ対応画像データの生成処理で使用されるプロジェクション行列及びオフセット行列を示す図である。FIG. 14 is a diagram illustrating a projection matrix and an offset matrix used in a process of generating PJ-compatible image data according to Modification 2 of the present invention. 本発明の変形例3におけるテクスチャマッピング法によるPJ対応画像データの生成手法の概要を説明するための図である。FIG. 13 is a diagram for describing an outline of a technique for generating PJ-compatible image data by a texture mapping method according to Modification 3 of the present invention. 本発明の変形例3において実行される画像データ生成処理の手順を示すフローチャートである。13 is a flowchart illustrating a procedure of image data generation processing executed in Modification 3 of the present invention. 本発明の他の変形例の説明図である。It is an explanatory view of another modification of the present invention.

以下、本発明の一実施形態に係る遊技機としてパチスロを例に挙げ、図面を参照しながら、その構成及び動作について説明する。なお、本実施形態では、ボーナス作動機能及びART機能を備えたパチスロについて説明する。 Hereinafter, a pachislot machine will be described as an example of a gaming machine according to an embodiment of the present invention, and its configuration and operation will be described with reference to the drawings. In this embodiment, a pachislot having a bonus operation function and an ART function will be described.

<機能フロー>
まず、図1を参照して、パチスロの機能フローについて説明する。本実施形態のパチスロでは、遊技を行うための遊技媒体としてメダルを用いる。なお、遊技媒体としては、メダル以外にも、例えば、コイン、遊技球、遊技用のポイントデータ又はトークン等を適用することもできる。
<Function flow>
First, the functional flow of the pachislot will be described with reference to FIG. In the pachislot machine of this embodiment, medals are used as game media for playing games. In addition to medals, for example, coins, game balls, game point data, tokens, or the like can be applied as game media.

遊技者によりパチスロにメダルが投入され、スタートレバーが操作されると、予め定められた数値範囲(例えば、0〜65535)の乱数から1つの値(以下、乱数値という)が抽出される。 When a player inserts a medal into the pachislot and operates the start lever, one value (hereinafter referred to as a random value) is extracted from random numbers in a predetermined numerical range (for example, 0 to 65535).

内部抽籤手段は、抽出された乱数値に基づいて抽籤を行い、内部当籤役を決定する。この内部抽籤手段は、後述の主制御回路が備える各種処理手段(処理機能)の一つである。内部当籤役の決定により、後述の有効ライン(入賞判定ライン)に沿って表示を行うことを許可する図柄の組合せが決定される。なお、図柄の組合せの種別としては、メダルの払い出し、再遊技(リプレイ)の作動、ボーナスの作動等といった特典が遊技者に与えられる「入賞」に係るものと、それ以外のいわゆる「はずれ」に係るものとが設けられる。 The internal lottery means performs lottery based on the extracted random number value and determines an internal winning combination. This internal lottery means is one of various processing means (processing functions) provided in a main control circuit described later. By determining the internal winning combination, a combination of symbols that permits display along an after-mentioned effective line (winning determination line) is determined. The types of symbol combinations include those related to “winning” in which benefits such as payout of medals, replay (replay) operation, bonus operation, etc. are given to the player, and so-called “out of” other than that. Such a thing is provided.

また、スタートレバーが操作されると、複数のリールの回転が行われる。その後、遊技者により所定のリールに対応するストップボタンが押されると、リール停止制御手段は、内部当籤役とストップボタンが押されたタイミングとに基づいて、該当するリールの回転を停止する制御を行う。このリール停止制御手段は、後述の主制御回路が備える各種処理手段(処理機能)の一つである。 Further, when the start lever is operated, a plurality of reels are rotated. Thereafter, when the player presses the stop button corresponding to the predetermined reel, the reel stop control means performs control to stop the rotation of the corresponding reel based on the internal winning combination and the timing when the stop button is pressed. Do. The reel stop control means is one of various processing means (processing functions) provided in a main control circuit described later.

パチスロでは、基本的に、ストップボタンが押されたときから規定時間(190msec)内に、該当するリールの回転を停止する制御が行われる。本実施形態では、この規定時間内にリールの回転に伴って移動する図柄の数を「滑り駒数」という。そして、本実施形態では、規定期間が190msecである場合には、滑り駒数の最大数(最大滑り駒数)を図柄4個分に定める。 In the pachi-slot, basically, control for stopping the rotation of the corresponding reel is performed within a specified time (190 msec) from when the stop button is pressed. In the present embodiment, the number of symbols that move with the rotation of the reel within the specified time is referred to as “the number of sliding pieces”. In the present embodiment, when the specified period is 190 msec, the maximum number of sliding symbols (maximum number of sliding symbols) is determined for four symbols.

リール停止制御手段は、入賞に係る図柄の組合せ表示を許可する内部当籤役が決定されているときは、通常、190msec(図柄4駒分)の規定時間内に、その図柄の組合せが有効ラインに沿って極力表示されるようにリールの回転を停止させる。また、リール停止制御手段は、規定時間を利用して、内部当籤役によってその表示が許可されていない図柄の組合せが有効ラインに沿って表示されないようにリールの回転を停止させる。 The reel stop control means, when the internal winning combination permitting the symbol combination display related to the winning is determined, normally, the symbol combination is placed on the active line within the specified time of 190 msec (four symbols). The rotation of the reel is stopped so as to display as much as possible. Further, the reel stop control means stops the rotation of the reels using the specified time so that a combination of symbols whose display is not permitted by the internal winning combination is not displayed along the activated line.

このようにして、複数のリールの回転がすべて停止されると、入賞判定手段は、有効ラインに沿って表示された図柄の組合せが、入賞に係るものであるか否かの判定を行う。この入賞判定手段もまた、後述の主制御回路が備える各種処理手段(処理機能)の一つである。そして、表示された図柄の組合せが、入賞判定手段により入賞に係るものであると判定されると、メダルの払い出し等の特典が遊技者に与えられる。パチスロでは、以上のような一連の流れが1回の遊技(単位遊技)として行われる。 In this way, when all the rotations of the plurality of reels are stopped, the winning determination means determines whether or not the combination of symbols displayed along the active line relates to winning. This winning determination means is also one of various processing means (processing functions) provided in the main control circuit described later. Then, when the displayed combination of symbols is determined by the winning determination means to be a winning combination, a bonus such as a medal payout is given to the player. In the pachislot, a series of flows as described above is performed as one game (unit game).

また、パチスロでは、前述した一連の遊技動作の流れの中で、表示装置などによる映像の表示、各種ランプによる光の出力、スピーカによる音の出力、或いは、これらの組合せを利用して様々な演出が行われる。 Also, in the pachislot, in the flow of the above-described game operation, various effects are displayed by using a display device or the like to display an image, output light from various lamps, output sound from a speaker, or a combination thereof. Is performed.

具体的には、スタートレバーが操作されると、上述した内部当籤役の決定に用いられた乱数値とは別に、演出用の乱数値が抽出される。演出用の乱数値が抽出されると、演出内容決定手段は、内部当籤役に対応づけられた複数種類の演出内容の中から今回実行する演出を抽籤により決定する。この演出内容決定手段は、後述の副制御回路が備える各種処理手段(処理機能)の一つである。 Specifically, when the start lever is operated, a random number value for performance is extracted separately from the random number value used for determining the internal winning combination described above. When the effect random number is extracted, the effect content determination means determines the effect to be executed this time from lots of effects related to the internal winning combination by lottery. This effect content determination means is one of various processing means (processing functions) provided in a sub-control circuit described later.

次いで、演出内容決定手段により演出内容が決定されると、演出実行手段は、リールの回転開始時、各リールの回転停止時、入賞の有無の判定時等の各契機に連動させて対応する演出を実行する。このように、パチスロでは、例えば、内部当籤役に対応づけられた演出内容を実行することによって、決定された内部当籤役(言い換えると、狙うべき図柄の組合せ)を知る機会又は予想する機会が遊技者に提供され、遊技者の興味の向上を図ることができる。 Next, when the content of the effect is determined by the effect content determination means, the effect execution means responds in conjunction with each opportunity such as when the rotation of the reel starts, when the rotation of each reel stops, or when the presence or absence of a prize is determined. Execute. In this way, in the pachislot, for example, by executing the production contents associated with the internal winning combination, there is an opportunity to know or predict the determined internal winning combination (in other words, the combination of symbols to be aimed at) It is provided to the player and the player's interest can be improved.

<パチスロの構造>
次に、図2〜図4を参照して、本発明の一実施形態に係るパチスロの構造について説明する。
<Pachislot structure>
Next, the structure of a pachislot according to an embodiment of the present invention will be described with reference to FIGS.

[外観構造]
図2は、パチスロ1の外部構造を示す斜視図である。
[Appearance structure]
FIG. 2 is a perspective view showing the external structure of the pachi-slot 1.

パチスロ1は、図2に示すように、外装体2(遊技機本体)を備える。外装体2は、リールや回路基板等を収容するキャビネット2aと、キャビネット2aの開口を開閉可能に取り付けられるフロントドア2bとを有する。 As shown in FIG. 2, the pachislot 1 includes an exterior body 2 (game machine main body). The exterior body 2 includes a cabinet 2a that accommodates reels, circuit boards, and the like, and a front door 2b that is mounted to open and close an opening of the cabinet 2a.

キャビネット2aの内部には、3つのリール3L,3C,3R(変動表示手段、表示列)が横一列に並べて設けられている。以下、各リール3L,3C,3R(メインリール)を、それぞれ左リール3L、中リール3C、右リール3Rともいう。各リール3L,3C,3Rは、円筒状に形成されたリール本体と、リール本体の周面に装着された透光性のシート材を有する。そして、シート材の表面には、複数(例えば20個)の図柄が周方向(リールの回転方向)に沿って所定の間隔をあけて描かれている。 Inside the cabinet 2a, three reels 3L, 3C, 3R (variable display means, display columns) are provided side by side in a row. Hereinafter, each of the reels 3L, 3C, 3R (main reel) is also referred to as a left reel 3L, a middle reel 3C, and a right reel 3R, respectively. Each of the reels 3L, 3C, 3R has a reel body formed in a cylindrical shape, and a translucent sheet material mounted on a peripheral surface of the reel body. Then, on the surface of the sheet material, a plurality of (for example, 20) symbols are drawn at predetermined intervals along the circumferential direction (the rotation direction of the reel).

フロントドア2bは、ドア本体9と、フロントパネル10と、腰部パネル12と、台座部13とを備える。ドア本体9は、ヒンジ(不図示)を用いてキャビネット2aに開閉可能に取り付けられる。ヒンジは、パチスロ1の前方側(遊技者側)から見て、ドア本体9の左側の側端部に設けられる。 The front door 2b includes a door body 9, a front panel 10, a waist panel 12, and a pedestal 13. The door body 9 is attached to the cabinet 2a so as to be openable and closable using a hinge (not shown). The hinge is provided at the left side end of the door body 9 when viewed from the front side (player side) of the pachislot 1.

フロントパネル10は、ドア本体9の上部に設けられている。このフロントパネル10は、開口10aを有する枠状部材で構成される。フロントパネル10の開口10aは、表示装置カバー30によって塞がれ、表示装置カバー30は、キャビネット2aの内部に配置された後述の表示装置11と対向して配置される。 The front panel 10 is provided on the upper part of the door body 9. The front panel 10 is formed of a frame-shaped member having an opening 10a. The opening 10a of the front panel 10 is closed by a display device cover 30, and the display device cover 30 is disposed so as to face a display device 11 described later disposed inside the cabinet 2a.

表示装置カバー30は、黒色の半透明な合成樹脂により形成される。それゆえ、遊技者は、後述の表示装置11により表示された映像(画像)を、表示装置カバー30を介して視認することができる。また、本実施形態では、表示装置カバー30を黒色の半透明な合成樹脂で形成することにより、キャビネット2a内への外光の入り込みを抑制して、表示装置11により表示された映像(画像)を鮮明に視認できるようにしている。 The display device cover 30 is formed of a black translucent synthetic resin. Therefore, the player can visually recognize the video (image) displayed by the display device 11 described later via the display device cover 30. Further, in the present embodiment, the display device cover 30 is formed of a translucent black synthetic resin, thereby suppressing the entry of external light into the cabinet 2a, and displaying an image (image) displayed by the display device 11. Is clearly visible.

フロントパネル10には、ランプ群21が設けられている。ランプ群21は、例えば、遊技者側から見て、フロントパネル10の上部に設けられたランプ21a、21bを含む。ランプ群21を構成する各ランプは、LED(Light Emitting Diode)等で構成され(後述の図15中のLED群85参照)、演出内容に対応するパターンで、光を点灯及び消灯する。 A lamp group 21 is provided on the front panel 10. The lamp group 21 includes, for example, lamps 21a and 21b provided above the front panel 10 when viewed from the player side. Each lamp constituting the lamp group 21 is configured by an LED (Light Emitting Diode) or the like (see the LED group 85 in FIG. 15 described later), and turns on and off the light in a pattern corresponding to the effect contents.

腰部パネル12は、ドア本体9の略中央部に設けられる。腰部パネル12は、任意の画像が描かれた装飾パネルと、この装飾パネルを背面側から照明するための光を出射する光源(後述のLED群85に含まれるLED)とを有する。 The waist panel 12 is provided substantially at the center of the door body 9. The waist panel 12 includes a decorative panel on which an arbitrary image is drawn, and a light source (LED included in an LED group 85 described later) that emits light for illuminating the decorative panel from the back side.

台座部13は、フロントパネル10と腰部パネル12との間に設けられる。台座部13には、図柄表示領域4と、遊技者による操作の対象となる各種装置(メダル投入口14、MAXベットボタン15a、1ベットボタン15b、スタートレバー16、3つのストップボタン17L,17C,17R、精算ボタン(不図示)、特別な演出の際に押し下げ可能な演出用ボタン(不図示)等)とが設けられる。なお、メダル投入口14に係る操作は、メダルの投入である。 The pedestal 13 is provided between the front panel 10 and the waist panel 12. The pedestal section 13 includes a symbol display area 4 and various devices to be operated by the player (medal slot 14, MAX bet button 15a, 1 bet button 15b, start lever 16, three stop buttons 17L, 17C, 17R, an adjustment button (not shown), an effect button (not shown) that can be pressed down for a special effect, and the like. The operation related to the medal insertion slot 14 is the insertion of a medal.

図柄表示領域4は、正面から見て、3つのリール3L,3C,3Rに重畳する領域で、且つ、3つのリール3L,3C,3Rより遊技者側の位置に配置されており、3つのリール3L,3C,3Rを視認可能にするサイズを有する。この図柄表示領域4は、表示窓としての機能を果たすものであり、その背後に設けられた各リール3L,3C,3Rを視認することが可能な構成になっている。以下、図柄表示領域4を、リール表示窓4という。 The symbol display area 4 is an area that overlaps with the three reels 3L, 3C, and 3R when viewed from the front, and is arranged at a position closer to the player than the three reels 3L, 3C, and 3R. It has a size that allows 3L, 3C, and 3R to be viewed. The symbol display area 4 functions as a display window, and has a configuration in which the reels 3L, 3C, and 3R provided behind the symbol display area 4 can be visually recognized. Hereinafter, the symbol display area 4 is referred to as a reel display window 4.

リール表示窓4は、その背後に設けられた3つのリール3L,3C,3Rの回転が停止されたとき、各リールの周面に設けられた複数の図柄のうち、連続して配置された3つの図柄がその枠内に表示されるように構成されている。すなわち、3つのリール3L,3C,3Rの回転が停止されたとき、リール表示窓4の枠内には、リール毎に上段、中段及び下段の各領域にそれぞれ1個の図柄(合計で3個)が表示される(リール表示窓4の枠内には、3行×3列の態様で図柄が表示される)。そして、本実施形態では、リール表示窓4の枠内において、左リール3Lの中段領域、中リール3Cの中段領域、及び、右リール3Rの中段領域を結ぶ擬似的なライン(センターライン)を、入賞か否かの判定を行う有効ラインとして定義する。 When the rotation of the three reels 3L, 3C, 3R provided behind the reel display window 4 is stopped, among the plurality of symbols provided on the peripheral surface of each reel, three reels 3 One symbol is displayed in the frame. That is, when the rotation of the three reels 3L, 3C, and 3R is stopped, one symbol is provided in each of the upper, middle, and lower regions for each reel in the frame of the reel display window 4 (three symbols in total). ) Is displayed (in the frame of the reel display window 4, symbols are displayed in a form of 3 rows × 3 columns). In the present embodiment, a pseudo line (center line) connecting the middle stage area of the left reel 3L, the middle stage area of the middle reel 3C, and the middle stage area of the right reel 3R within the frame of the reel display window 4, It is defined as an effective line for determining whether or not a prize is won.

リール表示窓4は、台座部13に設けられた枠部材31の開口により形成される。また、リール表示窓4を画成する枠部材31の下方には、略水平面の台座領域が設けられる。そして、遊技者側から見て、台座領域の右側にはメダル投入口14が設けられ、左側にはMAXベットボタン15a及び1ベットボタン15bが設けられる。 The reel display window 4 is formed by an opening of a frame member 31 provided on the pedestal portion 13. A substantially horizontal pedestal region is provided below the frame member 31 that defines the reel display window 4. When viewed from the player's side, a medal insertion slot 14 is provided on the right side of the pedestal area, and a MAX bet button 15a and a 1-bet button 15b are provided on the left side.

メダル投入口14は、遊技者によって外部からパチスロ1に投下されるメダルを受け入れるために設けられる。メダル投入口14から受け入れられたメダルは、予め設定された所定枚数(例えば3枚)を上限として1回の遊技に使用され、所定枚数を超えたメダルの枚数分は、パチスロ1の内部に預けることができる(いわゆるクレジット機能(遊技媒体貯留手段))。 The medal slot 14 is provided to accept a medal dropped on the pachislot 1 from the outside by the player. The medals received from the medal slot 14 are used for one game with a predetermined number (for example, three) set as an upper limit, and the number of medals exceeding the predetermined number is deposited in the pachislot 1. (So-called credit function (game medium storage means)).

MAXベットボタン15a及び1ベットボタン15bは、キャビネット2aの内部に預けられているメダルから1回の遊技に使用する枚数を決定するために設けられる。なお、MAXベットボタン15aの内部には、メダル投入が可能な時に点灯するベットボタンLED(不図示)が設けられている。また、精算ボタンは、パチスロ1の内部に預けられているメダルを外部に引き出す(排出する)ために設けられる。 The MAX bet button 15a and the 1-bet button 15b are provided for determining the number of medals stored in the cabinet 2a to be used in one game. A bet button LED (not shown) is provided inside the MAX bet button 15a, which lights up when a medal can be inserted. The settlement button is provided for pulling out (discharging) medals stored in the pachislot 1 to the outside.

なお、遊技者がMAXベットボタン15aを押下操作すると、単位遊技のベット枚数(3枚)のメダルが投入され、有効ラインが有効化される。一方、1ベットボタン15bが1回、押下操作される度に1枚のメダルが投入される。1ベットボタン15bが3回操作されると、単位遊技のベット枚数(3枚)のメダルが投入され、有効ラインが有効化される。以下では、MAXベットボタン15aの操作、1ベットボタン15bの操作及びメダル投入口14にメダルを投入する操作(遊技を行うためにメダルを投入する操作)をいずれも「投入操作」という。 When the player presses the MAX bet button 15a, medals corresponding to the number of bets (three) per unit game are inserted, and the activated line is activated. On the other hand, one medal is inserted each time the 1-bet button 15b is pressed once. When the one bet button 15b is operated three times, medals corresponding to the number of bets (three) per unit game are inserted, and the activated line is activated. Hereinafter, the operation of the MAX bet button 15a, the operation of the 1-bet button 15b, and the operation of inserting medals into the medal insertion slot 14 (the operation of inserting medals for performing a game) are all referred to as “insertion operations”.

スタートレバー16は、全てのリール(3L,3C,3R)の回転を開始するために設けられる。ストップボタン17L,17C,17Rは、それぞれ、左リール3L、中リール3C、右リール3Rに対応づけて設けられ、各ストップボタンは対応するリールの回転を停止するために設けられる。以下、ストップボタン17L,17C,17Rを、それぞれ左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rともいう。 The start lever 16 is provided to start rotation of all reels (3L, 3C, 3R). The stop buttons 17L, 17C, and 17R are provided in association with the left reel 3L, the middle reel 3C, and the right reel 3R, respectively, and each stop button is provided to stop the rotation of the corresponding reel. Hereinafter, the stop buttons 17L, 17C, and 17R are also referred to as a left stop button 17L, a middle stop button 17C, and a right stop button 17R, respectively.

また、リール表示窓4の下方の略水平面の台座領域の略中央には、情報表示器6が設けられる。なお、情報表示器6は、透明の窓カバー(不図示)によって覆われている。 An information display 6 is provided substantially at the center of the pedestal area in a substantially horizontal plane below the reel display window 4. The information display 6 is covered with a transparent window cover (not shown).

情報表示器6には、特典として遊技者に対して払い出されるメダルの枚数(以下、「払出枚数」という)の情報を遊技者に対してデジタル表示(報知)するための2桁の7セグメントLED(以下、「7セグLED」という)や、パチスロ1の内部に預けられているメダルの枚数(以下、「クレジット枚数」という)などの情報を遊技者に対してデジタル表示(報知)するための2桁の7セグLEDが設けられる。なお、本実施形態では、メダルの払出枚数表示用の2桁の7セグLEDは、エラー発生及びエラー種別の情報を遊技者に対してデジタル表示(報知)するための2桁の7セグLEDとしても用いられる。それゆえ、エラー発生時には、メダルの払出枚数表示用の2桁の7セグLEDの表示態様は、払出枚数の表示態様からエラー種別の情報の表示態様に切り替わる。 The information display 6 has a 2-digit 7-segment LED for digitally displaying (notifying) information of the number of medals to be paid out to the player as a privilege (hereinafter referred to as “payout number”) to the player. (Hereinafter referred to as “7-segment LED”) and information such as the number of medals deposited in the pachislot 1 (hereinafter referred to as “credit number”) for digitally displaying (notifying) to the player. A 2-digit 7-segment LED is provided. In the present embodiment, the two-digit seven-segment LED for displaying the number of medals to be paid out is a two-digit seven-segment LED for digitally displaying (notifying) information of error occurrence and error type to the player. Is also used. Therefore, when an error occurs, the display mode of the 2-digit 7-segment LED for displaying the number of medals to be paid is switched from the display mode of the number of medals to the display mode of the information of the error type.

さらに、情報表示器6には、内部当籤役として決定された役に応じた図柄組合せを有効ラインに沿って表示するために必要な停止操作の情報を報知する指示モニタ(不図示)が設けられている。指示モニタ(指示表示器)は、例えば、2桁の7セグメントLEDにより構成される。そして、指示モニタでは、報知する停止操作の情報と一義的に対応する態様で、2桁の7セグLEDが点灯、点滅又は消灯することにより、遊技者に対して必要な停止操作の情報を報知する。 Further, the information display 6 is provided with an instruction monitor (not shown) for notifying information of a stop operation necessary for displaying a symbol combination corresponding to a combination determined as an internal winning combination along an activated line. ing. The instruction monitor (instruction display) is composed of, for example, a 2-digit 7-segment LED. Then, the instruction monitor informs the player of necessary stop operation information by turning on, blinking or extinguishing the two-digit 7-segment LED in a manner that uniquely corresponds to the information of the stop operation to be notified. I do.

なお、ここでいう、報知する停止操作の情報と一義的に対応する態様とは、例えば、押し順「1st(第1停止操作を左リール3Lに対して行うこと)」を報知する場合には指示モニタに数値「1」を表示し、押し順「2nd(第1停止操作を中リール3Cに対して行うこと)」を報知する場合には指示モニタに数値「2」を表示し、押し順「3rd(第1停止操作を右リール3Rに対して行うこと)」を報知する場合には指示モニタに数値「3」を表示するなどの態様のことである。 Here, the mode that uniquely corresponds to the information of the stop operation to be notified is, for example, a case where the push order “1st (the first stop operation is performed on the left reel 3L)” is notified. When the numerical value "1" is displayed on the instruction monitor and the pressing order "2nd (the first stop operation is performed on the middle reel 3C)" is displayed, the numerical value "2" is displayed on the instruction monitor and the pressing order is displayed. When notifying "3rd (performing the first stop operation to the right reel 3R)", this means a mode such as displaying a numerical value "3" on the instruction monitor.

情報表示器6は、後述の図15に示すように、ドア中継端子板68及び遊技動作表示基板81を介して主制御基板71に電気的に接続され、情報表示器6の表示動作は、主制御基板71内の後述の主制御回路90により制御される。また、上述した各種7セグLEDの制御方式は、ダイナミック点灯制御である。 The information display 6 is electrically connected to a main control board 71 via a door relay terminal plate 68 and a game operation display board 81, as shown in FIG. It is controlled by a main control circuit 90 described later in the control board 71. The above-described control method for the various 7-segment LEDs is dynamic lighting control.

なお、本実施形態のパチスロ1では、主制御基板71により制御される指示モニタに加えて、副制御基板72により制御される他の手段を用いて停止操作の情報を報知する構成を設ける。具体的には、後述のプロジェクタ213を含む投影ブロック201及び各種被投影部材を含む被投影ブロック202(図3及び後述の図5〜図8参照)により構成される後述の表示装置11により停止操作の情報を報知する。 In the pachislo 1 of the present embodiment, in addition to the instruction monitor controlled by the main control board 71, a configuration for notifying the information of the stop operation using other means controlled by the sub-control board 72 is provided. Specifically, a stop operation is performed by a later-described display device 11 including a projection block 201 including a later-described projector 213 and a projection block 202 including various projected members (see FIGS. 3 and 5 to 8 described later). Information.

このような構成を適用した場合、指示モニタにおける報知の態様と、副制御基板72により制御されるその他の手段における報知の態様とは、互いに異なる態様であってもよい。すなわち、指示モニタでは、報知する停止操作の情報と一義的に対応する態様で報知すればよく、必ずしも、停止操作の情報を直接的に報知する必要はない(例えば、指示モニタにおいて数値「1」が表示されたとしても、遊技者によっては報知内容を特定できない可能性もあり、直接的な報知とは言えない)。一方、後述の表示装置11等のその他の手段によるサブ側(副制御基板側)での報知では、停止操作の情報を直接的に報知してもよい。例えば、押し順「1st」を報知する場合、指示モニタでは報知する押し順と一義的に対応する数値「1」を表示するが、その他の手段(例えば、表示装置11等)では、左リール3Lに対して第1停止操作を行わせるための指示情報を直接的に報知してもよい。 When such a configuration is applied, the mode of notification on the instruction monitor and the mode of notification on other units controlled by the sub-control board 72 may be different from each other. In other words, the instruction monitor only needs to notify in a form that uniquely corresponds to the information of the stop operation to be notified, and it is not always necessary to directly notify the information of the stop operation (for example, the numerical value “1” in the instruction monitor). Is displayed, there is a possibility that the content of the notification may not be specified depending on the player, and it cannot be said that the notification is direct.) On the other hand, in the notification on the sub side (sub control board side) by other means such as the display device 11 described later, the information of the stop operation may be directly notified. For example, when the push order “1st” is notified, the instruction monitor displays a numerical value “1” that uniquely corresponds to the notified push order, but other means (for example, the display device 11 and the like) use the left reel 3L. May be directly notified of instruction information for causing the first stop operation to be performed.

このような構成のパチスロ1では、副制御基板72の制御だけでなく、主制御基板71の制御によっても、内部当籤役に応じた必要な停止操作の情報を報知することができる。また、このような停止操作の情報の報知の有無は、遊技状態に応じて制御されるようにしてもよい。例えば、ナビが発生しない一般遊技状態(例えば非ART遊技状態等)では停止操作の情報を報知せずに、ナビが発生する報知遊技状態(例えばART遊技状態等)において停止操作の情報を報知するようにしてもよい。 In the pachislot 1 having such a configuration, not only the control of the sub-control board 72 but also the control of the main control board 71 can notify the information of the necessary stop operation according to the internal winning combination. Further, whether or not to notify the information of such a stop operation may be controlled according to the game state. For example, in a general game state in which navigation does not occur (for example, a non-ART game state), information of a stop operation is not reported in a notification game state in which navigation occurs (for example, an ART game state). You may do so.

また、遊技者側から見て、リール表示窓4の左方には、サブ表示装置18が設けられる。サブ表示装置18は、図2に示すように、ドア本体9の前面部のうち、台座部13の略水平面の台座領域から略垂直に立設するように設けられる。サブ表示装置18は、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイで構成され、各種情報を表示する。 Further, a sub display device 18 is provided on the left side of the reel display window 4 when viewed from the player side. As shown in FIG. 2, the sub-display device 18 is provided to stand substantially vertically from a pedestal region of a substantially horizontal plane of the pedestal portion 13 in the front surface of the door body 9. The sub display device 18 is configured by a liquid crystal display or an organic EL (Electro-Luminescence) display, and displays various information.

また、サブ表示装置18の表示面上には、タッチセンサ19が設けられている(後述の図15参照)。タッチセンサ19は、静電容量方式などの所定の動作原理に従い動作し、遊技者の操作を受け付けると、タッチ入力情報として当該操作に応じた信号を出力する。そして、本実施形態のパチスロ1は、タッチセンサ19を介して受け付けた遊技者の操作(タッチセンサ19から出力されるタッチ入力情報)に応じて、サブ表示装置18の表示を切り替え可能にする機能を有する。なお、サブ表示装置18は、タッチセンサ19から出力されるタッチ入力情報に基づいて後述の副制御基板72(後述の図15参照)により制御される。 A touch sensor 19 is provided on the display surface of the sub display device 18 (see FIG. 15 described later). The touch sensor 19 operates according to a predetermined operation principle such as a capacitance method, and when receiving an operation of a player, outputs a signal corresponding to the operation as touch input information. The pachislo 1 of the present embodiment has a function of enabling the display of the sub-display device 18 to be switched in accordance with a player operation (touch input information output from the touch sensor 19) received via the touch sensor 19. Having. The sub display device 18 is controlled by a later-described sub control board 72 (see FIG. 15 described later) based on touch input information output from the touch sensor 19.

ドア本体9の下部には、メダル払出口24、メダル受皿25、2つのスピーカ用孔20L,20R等が設けられる。メダル払出口24は、後述のメダル払出装置51の駆動により排出されるメダルを外部に導く。メダル受皿25は、メダル払出口24から排出されたメダルを貯める。また、2つのスピーカ用孔20L,20Rからは、演出内容に対応する効果音や楽曲等の音声が出力される。 A medal payout port 24, a medal tray 25, two speaker holes 20L, 20R, and the like are provided at a lower portion of the door body 9. The medal payout exit 24 guides medals discharged by driving a medal payout device 51 described below to the outside. The medal tray 25 stores medals discharged from the medal payout opening 24. From the two speaker holes 20L and 20R, sound such as sound effects and music corresponding to the effect contents is output.

[内部構造]
次に、パチスロ1の内部構造を、図3及び図4を参照しながら説明する。図3は、キャビネット2aの内部構造を示す図であり、図4は、フロントドア2bの裏面側の内部構造を示す図である。
[Internal structure]
Next, the internal structure of the pachislot machine 1 will be described with reference to FIGS. FIG. 3 is a diagram showing the internal structure of the cabinet 2a, and FIG. 4 is a diagram showing the internal structure of the back side of the front door 2b.

キャビネット2aは、図3に示すように、上面板27aと、底面板27bと、左右の側面板27c,27dと、背面板27eとを有する。そして、キャビネット2a内の上部には、表示装置11が配設される。 As shown in FIG. 3, the cabinet 2a has a top plate 27a, a bottom plate 27b, left and right side plates 27c and 27d, and a back plate 27e. Then, a display device 11 is provided in an upper part in the cabinet 2a.

表示装置11は、後述のプロジェクタ213を含む投影ブロック201と、後述のプロジェクタ213から出射された映像光が投影される後述の複数種の被投影部材を含む被投影ブロック202とを有する。また、被投影ブロック202内には、遊技状態に応じて、被投影部材を切り換えるための機能(後述の被投影部材移動機構305)も設けられる。 The display device 11 includes a projection block 201 including a projector 213 described below, and a projection block 202 including a plurality of types of projection members described below onto which image light emitted from the projector 213 described below is projected. In the projection target block 202, a function (projection target member moving mechanism 305 described later) for switching the projection target member according to the game state is also provided.

表示装置11では、後述する仮想空間上での画像合成処理により生成された画像データ(後述のPJ対応画像データ)に対応する映像光が所定の被投影部材に投影され、映像表示演出等が行われる。具体的には、表示装置11では、投影対象となる被投影部材(オブジェクト)の形状や、後述のプロジェクタ213と被投影部材との位置関係(投影距離や角度など)に基づいて映像光を生成し、その映像光が、後述のプロジェクタ213から被投影部材の表面に投影される。このような演出機能を設けることにより、高度で且つ迫力のある演出を行うことができる。なお、表示装置11の具体的な構成及び動作については、後で図面を参照しながら詳述する。 In the display device 11, video light corresponding to image data (PJ-compatible image data described later) generated by image synthesis processing in a virtual space described later is projected onto a predetermined projection target member, and video display effects and the like are performed. Is Specifically, the display device 11 generates image light based on the shape of the projection target (object) to be projected and the positional relationship (projection distance, angle, and the like) between the projector 213 and the projection target described later. Then, the image light is projected from a projector 213 described later on the surface of the projection target member. By providing such an effect function, an advanced and powerful effect can be performed. The specific configuration and operation of the display device 11 will be described later in detail with reference to the drawings.

キャビネット2a内の下部には、メダル払出装置51(以下、ホッパー装置という)と、メダル補助収納庫52と、電源装置53とが配設される。 A medal payout device 51 (hereinafter, referred to as a hopper device), a medal auxiliary storage 52, and a power supply device 53 are provided in a lower portion in the cabinet 2a.

ホッパー装置51は、キャビネット2aにおける底面板27bの中央部に取り付けられる。このホッパー装置51は、多量のメダルを収容可能で、それらを1枚ずつ排出可能な構造を有する。ホッパー装置51は、貯留されたメダルが例えば50枚を超えたとき、又は、精算ボタンが押下されてメダルの精算が実行されるときに、メダルを払い出す。そして、ホッパー装置51によって払い出されたメダルは、メダル払出口24(図2参照)から排出される。 The hopper device 51 is attached to the center of the bottom plate 27b in the cabinet 2a. The hopper device 51 can store a large amount of medals and can discharge them one by one. The hopper device 51 pays out medals when the number of stored medals exceeds, for example, 50, or when the settlement button is pressed to execute the settlement of medals. Then, the medals paid out by the hopper device 51 are discharged from the medal payout exit 24 (see FIG. 2).

メダル補助収納庫52は、ホッパー装置51から溢れ出たメダルを収納する。このメダル補助収納庫52は、キャビネット2a内部を正面から見て、ホッパー装置51の右側に配置される。また、メダル補助収納庫52は、キャビネット2aの底面板27bに対して着脱可能に取り付けられている。 The medal auxiliary storage 52 stores medals overflowing from the hopper device 51. The medal auxiliary storage 52 is disposed on the right side of the hopper device 51 when the inside of the cabinet 2a is viewed from the front. The medal auxiliary storage 52 is detachably attached to the bottom plate 27b of the cabinet 2a.

電源装置53は、電源スイッチ53aと、電源基板53b(電源供給手段)とを有している(後述の図15参照)。この電源装置53は、キャビネット2a内部を正面から見て、ホッパー装置51の左側に配置されており、左側面板27cに取り付けられている。電源装置53は、サブ電源装置(不図示)から供給された交流電圧100Vの電力を各部で必要な直流電圧の電力に変換して、変換した電力を各部へ供給する。 The power supply device 53 has a power switch 53a and a power supply board 53b (power supply means) (see FIG. 15 described later). The power supply device 53 is disposed on the left side of the hopper device 51 when the inside of the cabinet 2a is viewed from the front, and is attached to the left side plate 27c. The power supply unit 53 converts the AC power of 100 V supplied from the sub power supply unit (not shown) into DC voltage power required in each unit, and supplies the converted power to each unit.

また、キャビネット2a内の電源装置53の上方には、副制御基板72(後述の図15参照)を収容する副制御基板ケース57が配設される。副制御基板ケース57に収納された副制御基板72には、後述の副制御回路150(後述の図18参照)が搭載されている。この副制御回路150は、映像の表示等による演出の実行を制御する回路である。なお、副制御基板72は、本発明に係る制御部の一具体例を示すものである。副制御回路150の具体的な構成については後述する。 A sub-control board case 57 that accommodates a sub-control board 72 (see FIG. 15 described later) is provided above the power supply device 53 in the cabinet 2a. The sub-control board 72 accommodated in the sub-control board case 57 is mounted with a sub-control circuit 150 (to be described later, see FIG. 18). The sub control circuit 150 is a circuit that controls execution of an effect by displaying an image or the like. The sub-control board 72 is a specific example of the control unit according to the present invention. The specific configuration of the sub control circuit 150 will be described later.

キャビネット2a内の副制御基板ケース57の上方には、副中継基板61が配設される。この副中継基板61は、副制御基板72と後述の主制御基板71とを接続する配線が実装された中継基板である。また、副中継基板61は、副制御基板72と副制御基板72の周辺に配設された基板や各種装置部(ユニット)などとを接続する配線が実装された中継基板である。 A sub relay board 61 is disposed above the sub control board case 57 in the cabinet 2a. The sub relay board 61 is a relay board on which wiring for connecting the sub control board 72 and a main control board 71 described later is mounted. The sub-relay board 61 is a relay board on which wiring for connecting the sub-control board 72 to a board disposed around the sub-control board 72 and various devices (units) is mounted.

また、図3には示さないが、キャビネット2a内には、キャビネット側中継基板44(後述の図15参照)が配設される。このキャビネット側中継基板44は、主制御基板71(後述の図15参照)と、ホッパー装置51、メダル補助収納庫スイッチ75(後述の図15参照)及びメダル払出カウントスイッチ(不図示)のそれぞれとを接続する配線が実装された中継基板である。 Although not shown in FIG. 3, a cabinet-side relay board 44 (see FIG. 15 described later) is provided in the cabinet 2a. The cabinet-side relay board 44 includes a main control board 71 (see FIG. 15 described later), a hopper device 51, a medal auxiliary storage switch 75 (see FIG. 15 described later), and a medal payout count switch (not shown). Is a relay board on which wiring for connecting the relay boards is mounted.

フロントドア2bの裏面側の中央部には、図4に示すように、ミドルドア41が、配設され、リール表示窓4(図2参照)を裏側から開閉可能に取り付けられている。また、図4には示さないが、ミドルドア41のリール表示窓4側には、3つのリール3L,3C,3Rが取り付けられ、ミドルドア41のリール表示窓4側とは反対側には、主制御基板71(後述の図15参照)が収納された主制御基板ケース55が取り付けられている。なお、3つのリール3L,3C,3Rには、所定の減速比をもったギアを介してステッピングモータ(不図示)が接続されている。 As shown in FIG. 4, a middle door 41 is provided at a central portion on the back side of the front door 2b, and the reel display window 4 (see FIG. 2) is attached to be openable and closable from the back side. Although not shown in FIG. 4, three reels 3L, 3C and 3R are attached to the reel display window 4 side of the middle door 41, and main control is provided on the opposite side of the middle door 41 to the reel display window 4 side. A main control board case 55 accommodating a board 71 (see FIG. 15 described later) is attached. A stepping motor (not shown) is connected to the three reels 3L, 3C, 3R via gears having a predetermined reduction ratio.

主制御基板ケース55に収納された主制御基板71は、後述する主制御回路90(後述の図16参照)を有する。主制御回路90(主制御手段)は、内部当籤役の決定、各リール3L,3C,3Rの回転及び停止、入賞の有無の判定といった、パチスロ1における遊技の主な流れを制御する回路である。また、本実施形態では、例えば、報知遊技(ART等)の決定の有無の抽籤処理、ナビ情報の指示モニタへの表示処理、各種試験信号の送信処理などの制御も主制御回路90により行われる。なお、主制御回路90の具体的な構成は後述する。 The main control board 71 housed in the main control board case 55 has a main control circuit 90 described later (see FIG. 16 described later). The main control circuit 90 (main control means) is a circuit for controlling a main flow of the game in the pachislot 1 such as determination of an internal winning combination, rotation and stop of each of the reels 3L, 3C, 3R, and determination of presence or absence of a prize. . In the present embodiment, the main control circuit 90 also controls, for example, a lottery process for determining whether or not a notification game (such as an ART) is determined, a process of displaying navigation information on an instruction monitor, and a process of transmitting various test signals. . The specific configuration of the main control circuit 90 will be described later.

フロントドア2bの裏面側において、ミドルドア41の下方には、スピーカ65L,65Rが配設される。スピーカ65L,65Rは、それぞれスピーカ用孔20L,20R(図2参照)と対向する位置に配置されている。 Speakers 65L and 65R are provided below the middle door 41 on the back side of the front door 2b. The speakers 65L and 65R are arranged at positions facing the speaker holes 20L and 20R (see FIG. 2), respectively.

また、スピーカ65Rの上方には、セレクタ66と、ドア開閉監視スイッチ67とが配設される。セレクタ66は、メダルの材質や形状等が適正であるか否かを選別する装置であり、メダル投入口14に投入された適正なメダルをホッパー装置51へ案内する。セレクタ66内においてメダルが通過する経路上には、適正なメダルが通過したことを検出するメダルセンサ(遊技媒体検出手段:不図示)が設けられている。 A selector 66 and a door open / close monitoring switch 67 are provided above the speaker 65R. The selector 66 is a device that determines whether or not the material, shape, and the like of the medal are appropriate. The selector 66 guides an appropriate medal inserted into the medal insertion slot 14 to the hopper device 51. A medal sensor (game medium detecting means: not shown) for detecting that a proper medal has passed is provided on a path through which the medal passes in the selector 66.

ドア開閉監視スイッチ67は、フロントドア2bを裏面側から見て、セレクタ66の左斜め下に配置される。このドア開閉監視スイッチ67は、フロントドア2bの開閉を報知するためのセキュリティ信号をパチスロ1の外部に出力する。 The door opening / closing monitoring switch 67 is disposed diagonally below and to the left of the selector 66 when the front door 2b is viewed from the back side. The door opening / closing monitoring switch 67 outputs a security signal for notifying the opening / closing of the front door 2b to the outside of the pachislot 1.

また、図4には示さないが、フロントドア2bを裏面において、ミドルドア41により開閉された領域であり且つリール表示窓4の下方には、ドア中継端子板68が配設される(後述の図15参照)。このドア中継端子板68は、主制御基板ケース55内の主制御基板71と、各種のボタンやスイッチ、副中継基板61、セレクタ66、遊技動作表示基板81、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402のそれぞれとを接続する配線が実装された中継基板である。なお、各種のボタン及びスイッチとしては、例えば、MAXベットボタン15a、1ベットボタン15b、ドア開閉監視スイッチ67、後述のBETスイッチ77、スタートスイッチ79等が挙げられる。 Although not shown in FIG. 4, a door relay terminal plate 68 is disposed below the reel display window 4 in an area opened and closed by the middle door 41 on the back surface of the front door 2 b. 15). The door relay terminal plate 68 includes a main control board 71 in the main control board case 55, various buttons and switches, a sub relay board 61, a selector 66, a game operation display board 81, a first interface board 401 for a testing machine, This is a relay board on which wiring for connecting to each of the tester second interface boards 402 is mounted. The various buttons and switches include, for example, a MAX bet button 15a, a bet button 15b, a door open / close monitor switch 67, a BET switch 77, a start switch 79, and the like, which will be described later.

<表示装置の構成>
次に、表示装置11の構成について、図5を参照して説明する。図5は、表示装置11の外観斜視図である。
<Configuration of display device>
Next, the configuration of the display device 11 will be described with reference to FIG. FIG. 5 is an external perspective view of the display device 11.

表示装置11は、図5に示すように、投影ブロック201と、投影ブロック201の下方に配置された被投影ブロック202とを備える。この表示装置11は、投影ブロック201に設置された後述のプロジェクタ213によって映像光を生成し、該映像光を被投影ブロック202に設けられた被投影部材(後述の台形部材302等)の投影面に投射する。 As shown in FIG. 5, the display device 11 includes a projection block 201, and a projection block 202 disposed below the projection block 201. The display device 11 generates image light by a projector 213 described later installed in the projection block 201 and applies the image light to a projection surface of a projection target member (such as a trapezoidal member 302 described later) provided in the projection target block 202. To project.

[投影ブロック]
次に、投影ブロック201の構成について、図6及び図7を参照して説明する。図6は、投影ブロック201の分解斜視図である。図7は、投影ブロック201の縦断面図である。なお、後述のプロジェクタ213を含む投影ブロック201は、本発明に係る投影部の一具体例を示すものである。
[Projection block]
Next, the configuration of the projection block 201 will be described with reference to FIGS. FIG. 6 is an exploded perspective view of the projection block 201. FIG. 7 is a vertical sectional view of the projection block 201. Note that a projection block 201 including a projector 213 described later shows a specific example of a projection unit according to the present invention.

投影ブロック201は、図6に示すように、ベース部材211と、反射部材212と、プロジェクタ213とを有する。ベース部材211は、下面が開口された中空の略箱状部材で構成され、上板部221と、前板部222と、後板部223と、左側板部224と、右側板部225とを有する。 The projection block 201 has a base member 211, a reflection member 212, and a projector 213, as shown in FIG. The base member 211 is formed of a hollow substantially box-shaped member having an open lower surface, and includes an upper plate 221, a front plate 222, a rear plate 223, a left plate 224, and a right plate 225. Have.

上板部221の裏面(被投影ブロック202側の面)には、プロジェクタ213が取り付けられている。また、前板部222には、反射部材取付け部227が設けられ、この反射部材取付け部227は、前板部222よりも前方(遊技者側)に突出した突状部材で構成される。 A projector 213 is attached to the back surface (the surface on the side of the projection block 202) of the upper plate portion 221. In addition, the front plate portion 222 is provided with a reflection member attachment portion 227, and the reflection member attachment portion 227 is configured by a projecting member projecting forward (toward the player) from the front plate portion 222.

反射部材取付け部227の前部片234は、板状部材で構成され、前部片234の表面(反射部材取付け部227の突面)の面方向が斜め上方となり且つ裏面の面方向が斜め下方となるように傾斜している。そして、前部片234の裏面(プロジェクタ213及び被投影ブロック202側の面)には、反射部材212が取り付けられている。 The front piece 234 of the reflection member mounting portion 227 is formed of a plate-like member, and the surface direction of the front surface (the protruding surface of the reflection member mounting portion 227) of the front piece 234 is obliquely upward and the rear surface is obliquely downward. It is inclined to become. A reflection member 212 is attached to the back surface of the front piece 234 (the surface on the side of the projector 213 and the projection target block 202).

反射部材212は、図7に示すように、前部片234と略同じサイズ(大きさ)を有し且つ表面が長方形である板状部材で構成されたミラーホルダ236と、ミラーホルダ236に固定された反射ミラー237とを有する。なお、ミラーホルダ236は、前部片234の裏面にねじ等の固定部材を用いて固定されている。 As shown in FIG. 7, the reflection member 212 has the same size (size) as the front piece 234 and is formed of a plate-like member having a rectangular surface, and is fixed to the mirror holder 236. Reflection mirror 237. The mirror holder 236 is fixed to the back surface of the front piece 234 using a fixing member such as a screw.

反射ミラー237は、ミラーホルダ236のプロジェクタ213及び被投影ブロック202側の面に固定されている。この反射ミラー237は、反射面の面方向が斜め下方となるように傾斜し、プロジェクタ213から出射された映像光を、被投影ブロック202の被投影部材(後述の台形部材302等)に向けて反射する。 The reflection mirror 237 is fixed to a surface of the mirror holder 236 on the side of the projector 213 and the projection target block 202. The reflection mirror 237 is inclined so that the surface direction of the reflection surface is obliquely downward, and directs the image light emitted from the projector 213 to a projection target member (a trapezoidal member 302 described later) of the projection target block 202. reflect.

プロジェクタ213は、図7に示すように、プロジェクタ本体241と、取付ブラケット242とを有する。取付ブラケット242は、表面が略長方形の板状部材で構成され、取付ブラケット242の裏面(被投影ブロック202側の面)にプロジェクタ本体241が取り付けられている。なお、取付ブラケット242は、ベース部材211の上板部221の裏面にねじ等の固定部材を用いて固定されている。 The projector 213 has a projector main body 241 and a mounting bracket 242, as shown in FIG. The mounting bracket 242 has a substantially rectangular plate-like surface, and the projector main body 241 is mounted on the back surface (the surface on the projection block 202 side) of the mounting bracket 242. The mounting bracket 242 is fixed to the back surface of the upper plate portion 221 of the base member 211 using a fixing member such as a screw.

プロジェクタ本体241は、ケース251(図6参照)と、照明ユニット252と、液晶プリズムユニット253と、投射レンズ254と、複数のヒートシンク255と、複数のファン256とを有する。なお、図7では、1つのヒートシンク255及び1つのファン256のみを示す。 The projector main body 241 includes a case 251 (see FIG. 6), an illumination unit 252, a liquid crystal prism unit 253, a projection lens 254, a plurality of heat sinks 255, and a plurality of fans 256. In FIG. 7, only one heat sink 255 and one fan 256 are shown.

ケース251は、中空の筐体で構成される。ケース251の内部には、照明ユニット252、液晶プリズムユニット253、投射レンズ254、ヒートシンク255及びファン256が収納されている。また、ケース251の前面(反射部材212側)には、投射レンズ254によって塞がれる開口部が設けられている。 The case 251 is formed of a hollow housing. An illumination unit 252, a liquid crystal prism unit 253, a projection lens 254, a heat sink 255, and a fan 256 are housed inside the case 251. In addition, an opening that is closed by the projection lens 254 is provided on the front surface of the case 251 (on the reflection member 212 side).

ケース251の内部において、投射レンズ254の後方(ミラーホルダ236側とは反対方向)には、液晶プリズムユニット253が配置され、液晶プリズムユニット253の後方には、照明ユニット252が配置されている。そして、照明ユニット252の周囲には、複数のヒートシンク255が配置され、複数のファン256は、複数のヒートシンク255に隣接して配置されている。 Inside the case 251, a liquid crystal prism unit 253 is disposed behind the projection lens 254 (in a direction opposite to the mirror holder 236), and an illumination unit 252 is disposed behind the liquid crystal prism unit 253. A plurality of heat sinks 255 are arranged around the lighting unit 252, and the plurality of fans 256 are arranged adjacent to the plurality of heat sinks 255.

照明ユニット252は、例えば、複数の光源を有する。複数の光源は、赤色の光を出射する光源R(不図示)と、緑色の光を出射する光源G(不図示)と、青色の光を出射する光源B(不図示)とで構成される。したがって、液晶プリズムユニット253には、赤(R)、緑(G)、青(B)の3色の光がそれぞれ入射される。 The lighting unit 252 has, for example, a plurality of light sources. The plurality of light sources include a light source R (not shown) that emits red light, a light source G (not shown) that emits green light, and a light source B (not shown) that emits blue light. . Therefore, light of three colors of red (R), green (G), and blue (B) enters the liquid crystal prism unit 253, respectively.

なお、本発明はこれに限定されず、光源としては、例えば、1つの高輝度放電ランプを使用してもよい。この場合は、色分解ミラー(ダイクロイックミラー)を使用して、高輝度放電ランプから出射された光を赤(R)、緑(G)、青(B)の3色の光に分解する。 The present invention is not limited to this. For example, one high-intensity discharge lamp may be used as the light source. In this case, the light emitted from the high-intensity discharge lamp is separated into three colors of red (R), green (G), and blue (B) using a color separation mirror (dichroic mirror).

液晶プリズムユニット253は、例えば、3つの液晶パネルと、色合成用のクロスプリズム(ダイクロイックプリズム)とを有する。3つの液晶パネルは、赤色の光が入射する液晶パネルR(不図示)と、緑色の光が入射する液晶パネルG(不図示)と、青色の光が入射する液晶パネルB(不図示)とで構成される。クロスプリズムは、各液晶パネルによって生成された3つの映像光を1つの映像光として合成する。 The liquid crystal prism unit 253 has, for example, three liquid crystal panels and a cross prism (dichroic prism) for color synthesis. The three liquid crystal panels include a liquid crystal panel R (not shown) on which red light is incident, a liquid crystal panel G (not shown) on which green light is incident, and a liquid crystal panel B (not shown) on which blue light is incident. It consists of. The cross prism combines three image lights generated by each liquid crystal panel as one image light.

投射レンズ254は、反射部材212の反射ミラー237に対向して配置されている。それゆえ、液晶プリズムユニット253から出射された映像光は、投射レンズ254を通過して反射ミラー237に入射される。複数のヒートシンク255は、照明ユニット252によって発生した熱を放熱する。また、複数のファン256は、複数のヒートシンク255に空気を送風して、複数のヒートシンク255を冷却する。 The projection lens 254 is arranged to face the reflection mirror 237 of the reflection member 212. Therefore, the image light emitted from the liquid crystal prism unit 253 passes through the projection lens 254 and enters the reflection mirror 237. The plurality of heat sinks 255 radiate heat generated by the lighting unit 252. The plurality of fans 256 blow air to the plurality of heat sinks 255 to cool the plurality of heat sinks 255.

[被投影ブロック]
次に、被投影ブロック202の構成について、図8及び図9を参照して説明する。図8は、被投影ブロック202の分解斜視図である。図9は、被投影ブロック202に設けられた被投影部材の移動機構の分解斜視図である。
[Projected block]
Next, the configuration of the projection target block 202 will be described with reference to FIGS. FIG. 8 is an exploded perspective view of the projection target block 202. FIG. 9 is an exploded perspective view of a moving mechanism of the projection target member provided in the projection target block 202.

被投影ブロック202は、図8に示すように、収納ケース301と、台形部材302と、擬似リール部材303と、平面スクリーン部材304と、被投影部材移動機構305とを備える。なお、台形部材302、擬似リール部材303及び平面スクリーン部材304のそれぞれは、本発明に係る表示部の一具体例を示すものである。また、台形部材302は、本発明に係る第1の表示部の一具体例を示すものであり、擬似リール部材303及び平面スクリーン部材304のそれぞれは、本発明に係る第2の表示部の一具体例を示すものである。また、被投影部材移動機構305は、本発明に係る可動制御手段の一具体例を示すものである。 As shown in FIG. 8, the projected block 202 includes a storage case 301, a trapezoidal member 302, a pseudo reel member 303, a flat screen member 304, and a projected member moving mechanism 305. Each of the trapezoidal member 302, the pseudo reel member 303, and the flat screen member 304 is a specific example of the display unit according to the present invention. The trapezoidal member 302 is a specific example of the first display unit according to the present invention, and each of the pseudo reel member 303 and the flat screen member 304 is one of the second display units according to the present invention. It shows a specific example. The projection member moving mechanism 305 is a specific example of the movable control unit according to the present invention.

(1)収納ケース
収納ケース301は、前面及び上面が開口された中空の筐体であり、台座部311と、背面壁312と、左側壁313と、右側壁314とを有する。各壁は、表面が略長方形の板状部材で構成され、台座部311及び背面壁312は、それぞれ、収納ケース301の底部及び背面部を形成し、左側壁313及び右側壁314は、それぞれ、収納ケース301の左側面部及び右側面部を形成する。
(1) Storage Case The storage case 301 is a hollow housing whose front and top surfaces are open, and has a pedestal 311, a rear wall 312, a left wall 313, and a right wall 314. Each wall is formed of a plate-like member having a substantially rectangular surface, the pedestal 311 and the back wall 312 form the bottom and the back of the storage case 301, respectively, and the left side wall 313 and the right side wall 314 respectively The left side portion and the right side portion of the storage case 301 are formed.

(2)台形部材
台形部材302は、表面が台形状の床板部321と、3つの壁板部322,323,324とで構成され、収納ケース301の台座部311上にねじ等の固定部材により固定されている。
(2) Trapezoidal member The trapezoidal member 302 is composed of a floor plate portion 321 having a trapezoidal surface and three wall plate portions 322, 323, and 324, and is fixed on a pedestal portion 311 of the storage case 301 by a fixing member such as a screw. Fixed.

床板部321は、台座部311の載置面311aに載置されている。この際、床板部321の下辺(長辺)部が正面(遊技者側)に位置するように、床板部321が台座部311上に載置されている。なお、床板部321の台座部311の載置面311aに当接した面とは反対側の面321a(平面)は、投影面となる。床板部321の投影面321aには、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。 The floor plate portion 321 is mounted on the mounting surface 311a of the pedestal portion 311. At this time, the floor plate portion 321 is placed on the pedestal portion 311 such that the lower side (long side) of the floor plate portion 321 is located on the front side (the player side). In addition, the surface 321a (plane) on the opposite side to the surface in contact with the mounting surface 311a of the pedestal portion 311 of the floor plate portion 321 is a projection surface. The image light emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 321a of the floor panel portion 321.

壁板部322は、表面が略長方形状の板状部材で構成され、床板部321の上辺部に連続して形成されている。この際、壁板部322の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部322が床板部321の上辺部に連続して形成される。そして、壁板部322のフロントドア2b側(遊技者側)の平面が投影面322aとなる。壁板部322の投影面322aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。 The wall plate portion 322 is formed of a plate-like member having a substantially rectangular surface, and is formed continuously with the upper side portion of the floor plate portion 321. At this time, the wall plate portion 322 is formed continuously with the upper side of the floor plate portion 321 such that the angle between the surface of the wall plate portion 322 and the surface of the floor plate portion 321 is substantially perpendicular. The plane of the wall plate portion 322 on the front door 2b side (player side) becomes the projection surface 322a. Image light emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 322a of the wall plate portion 322, similarly to the projection surface 321a of the floor plate portion 321.

壁板部323は、板状部材で構成され、床板部321の左辺部及び壁板部322の左辺部に連続して形成されている。この際、壁板部323の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部323が床板部321の左辺部及び壁板部322の左辺部に連続して形成される。そして、壁板部323の壁板部324側の平面が投影面323aとなる。なお、壁板部323の投影面323aと壁板部322の投影面322aとの間の角度は、鈍角(90度より大きい角度)となるので、投影面323aは、フロントドア2bの開口10aを介して遊技者から視認可能となる。壁板部323の投影面323aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。 The wall plate portion 323 is formed of a plate-shaped member, and is formed continuously with the left side portion of the floor plate portion 321 and the left side portion of the wall plate portion 322. At this time, the wall plate portion 323 is continuous with the left side portion of the floor plate portion 321 and the left side portion of the wall plate portion 322 such that the angle between the surface of the wall plate portion 323 and the surface of the floor plate portion 321 is substantially perpendicular. Formed. Then, a plane on the wall plate portion 324 side of the wall plate portion 323 becomes the projection surface 323a. Since the angle between the projection surface 323a of the wall plate portion 323 and the projection surface 322a of the wall plate portion 322 is an obtuse angle (an angle larger than 90 degrees), the projection surface 323a extends through the opening 10a of the front door 2b. Through the player. Image light emitted from the projector 213 and then reflected by the reflection member 212 is projected on the projection surface 323a of the wall plate portion 323, similarly to the projection surface 321a of the floor plate portion 321.

壁板部324は、板状部材で構成され、床板部321の右辺部及び壁板部322の右辺部に連続して形成されている。この際、壁板部324の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部324が床板部321の右辺部及び壁板部322の右辺部に連続して形成される。そして、壁板部324の壁板部323側の平面が投影面324aとなる。なお、壁板部324の投影面324aと壁板部322の投影面322aとの間の角度は、鈍角(90度より大きい角度)となるので、投影面324aは、フロントドア2bの開口10aを介して遊技者から視認可能となる。壁板部324の投影面324aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。 The wall plate portion 324 is formed of a plate-like member, and is formed continuously with the right side portion of the floor plate portion 321 and the right side portion of the wall plate portion 322. At this time, the wall plate 324 is continuously connected to the right side of the floor plate 321 and the right side of the wall plate 322 such that the angle between the surface of the wall plate 324 and the surface of the floor plate 321 is substantially perpendicular. Formed. Then, a plane of the wall plate portion 324 on the side of the wall plate portion 323 becomes a projection surface 324a. Since the angle between the projection surface 324a of the wall plate portion 324 and the projection surface 322a of the wall plate portion 322 is an obtuse angle (an angle larger than 90 degrees), the projection surface 324a extends through the opening 10a of the front door 2b. Through the player. Image light emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 324a of the wall plate portion 324, similarly to the projection surface 321a of the floor plate portion 321.

本実施形態では、台形部材302の投影面321a,322a,323a,324aの一部の領域に映像光が投影される。そして、投影面321a,322a,323a,324aは、映像光が投影される投影領域と、映像光が投影されない非投影領域を有する。なお、投影面321a,322a,323a,324aの投影領域には、銀色(灰色)の塗料が塗布されている。一方、投影面321a,322a,323a,324aの非投影領域には、黒色の塗料が塗布されている。 In the present embodiment, image light is projected onto a partial area of the projection surfaces 321a, 322a, 323a, and 324a of the trapezoidal member 302. The projection surfaces 321a, 322a, 323a, and 324a have a projection area where the image light is projected and a non-projection area where the image light is not projected. Note that silver (gray) paint is applied to the projection areas of the projection surfaces 321a, 322a, 323a, and 324a. On the other hand, black paint is applied to the non-projection areas of the projection surfaces 321a, 322a, 323a, and 324a.

このように、投影面321a,322a,323a,324aの非投影領域に黒色の塗料を塗布することにより、非投影領域で光が反射することを抑制して、キャビネット2a内における光の乱反射を抑制することができる。また、非投影領域に黒色の塗料を塗布することにより、被投影部材の振動、回転、崩壊、形状変化、彩色変化、一部分の強調表現等が可能になる。 As described above, by applying black paint to the non-projection areas of the projection surfaces 321a, 322a, 323a, and 324a, it is possible to suppress light from being reflected in the non-projection areas and to suppress irregular reflection of light in the cabinet 2a. can do. In addition, by applying black paint to the non-projection area, vibration, rotation, collapse, shape change, color change, and partial emphasis expression of the projection target member can be performed.

(3)擬似リール部材
擬似リール部材303は、図8及び図9に示すように、円弧板部331と、一対の回動腕332A,332B(回動腕332Bは、後述の図11参照)とを備える。
(3) Pseudo-reel member As shown in FIGS. 8 and 9, the pseudo-reel member 303 includes an arc-shaped plate portion 331, a pair of rotating arms 332A and 332B (for a rotating arm 332B, see FIG. 11 described later). Is provided.

円弧板部331は、円弧状に延在した板体(側面の延在形状が円弧状である板体)で構成される。それゆえ、円弧板部331には、内周面331aと、外周面331bとが形成される。円弧板部331の内周面331aには、パチスロ1の機種に関連した装飾が設けられている。一方、外周面331bは、滑らかな曲面で構成され、プロジェクタ213から出射された映像光が投影される投影面となる(後述の図11参照)。また、円弧板部331の内周面331a及び外周面331bには、シルバー(又は灰色)の塗料が塗布されている。 The arc plate portion 331 is formed of a plate extending in an arc shape (a plate whose side surface extends in an arc shape). Therefore, the inner peripheral surface 331a and the outer peripheral surface 331b are formed in the circular arc plate portion 331. On the inner peripheral surface 331a of the arc plate portion 331, decorations related to the type of the pachislot 1 are provided. On the other hand, the outer peripheral surface 331b is formed of a smooth curved surface, and serves as a projection surface on which the image light emitted from the projector 213 is projected (see FIG. 11 described later). Further, silver (or gray) paint is applied to the inner peripheral surface 331a and the outer peripheral surface 331b of the arc plate portion 331.

一対の回動腕332A,332Bは、円弧板部331の円弧状の一対の側面部にそれぞれ連続して形成され、表面が略扇状の板体で構成される。一対の回動腕332A,332Bは、被投影部材移動機構305の後述する支持板351A,351Bにそれぞれ回動可能に支持されている。擬似リール部材303は、内周面331aが前方(遊技者側)に向く待機位置と、外周面331bが前方に向く露出位置との間で回動する。擬似リール部材303の動作については、後述の図11及び図12を参照して後で説明する。 The pair of rotating arms 332A and 332B are formed continuously on a pair of arc-shaped side surfaces of the arc-shaped plate portion 331, respectively, and have a substantially fan-shaped plate. The pair of rotating arms 332A, 332B are rotatably supported by support plates 351A, 351B of the projected member moving mechanism 305, which will be described later. The pseudo reel member 303 rotates between a standby position in which the inner peripheral surface 331a faces forward (toward the player) and an exposed position in which the outer peripheral surface 331b faces forward. The operation of the pseudo reel member 303 will be described later with reference to FIGS.

(4)平面スクリーン部材
平面スクリーン部材304は、図8に示すように、表面が略長方形の板状部材で構成され、第1平面304a(図8上では下面)と、第2平面304b(図8上では上面)とを有する。平面スクリーン部材304の第1平面304aには、シルバー(又は灰色)の塗料が塗布されている。一方、第2平面304bには、白色の塗料が塗布され、第2平面304bは、プロジェクタ213から反射部材212を介して投射される映像光の投影面となる。
(4) Flat Screen Member As shown in FIG. 8, the flat screen member 304 is formed of a plate-like member having a substantially rectangular surface, and includes a first flat surface 304a (a lower surface in FIG. 8) and a second flat surface 304b (see FIG. 8). 8 on the upper surface). Silver (or gray) paint is applied to the first flat surface 304 a of the flat screen member 304. On the other hand, a white paint is applied to the second plane 304b, and the second plane 304b serves as a projection surface of image light projected from the projector 213 via the reflection member 212.

平面スクリーン部材304は、第1平面304aの面方向が斜め下方となる待機位置と、第2平面(投影面)304bの面方向が前方(遊技者側)となる露出位置との間を回動する。そして、平面スクリーン部材304が露出位置に配置されると、第2平面(投影面)304bに映像光が投影される。 The plane screen member 304 rotates between a standby position where the plane direction of the first plane 304a is obliquely downward and an exposure position where the plane direction of the second plane (projection plane) 304b is forward (the player side). I do. Then, when the flat screen member 304 is arranged at the exposure position, the image light is projected on the second plane (projection plane) 304b.

平面スクリーン部材304は、被投影部材移動機構305の後述する一対のクランクアーム378A,378Bに支持され、この一対のクランクアーム378A,378Bの回動により、平面スクリーン部材304が回動する。なお、クランクアーム378A,378Bは、それぞれ、支持板351A,351Bに回動可能に支持されている。 The flat screen member 304 is supported by a pair of crank arms 378A and 378B of the projected member moving mechanism 305, which will be described later. The flat screen member 304 is rotated by the rotation of the pair of crank arms 378A and 378B. The crank arms 378A and 378B are rotatably supported by support plates 351A and 351B, respectively.

(5)被投影部材移動機構
被投影部材移動機構305は、図8及び図9に示すように、支持板351A,351Bと、擬似リール部材移動機構352と、平面スクリーン部材移動機構353とを備える。
(5) Projected Member Moving Mechanism The projected member moving mechanism 305 includes support plates 351A and 351B, a pseudo reel member moving mechanism 352, and a flat screen member moving mechanism 353, as shown in FIGS. .

支持板351A,351Bは、ともに、表面が縦長の略長方形の板状部材に構成され、支持板351A,351Bは互いに、左右方向(擬似リール部材303の長辺方向)に、適当な距離(台形部材302の幅より大きい間隔)をあけて対向して配置されている。また、支持板351A,351Bは、収納ケース301の台座部311の載置面311aに、ねじ等の固定部材を用いて固定されている。そして、支持板351Aと支持板351Bとの間には、擬似リール部材303が配置されている。 Each of the support plates 351A and 351B is configured as a substantially rectangular plate member having a vertically long surface, and the support plates 351A and 351B are spaced apart from each other by an appropriate distance (trapezoid) in the left and right direction (the long side direction of the pseudo reel member 303). The gap is larger than the width of the member 302). The support plates 351A and 351B are fixed to the mounting surface 311a of the pedestal 311 of the storage case 301 by using fixing members such as screws. The pseudo reel member 303 is arranged between the support plate 351A and the support plate 351B.

また、支持板351A,351Bは、それぞれ、擬似リール部材303の回動腕332A,332Bを回動可能に支持している。そして、支持板351A,351Bには、平面スクリーン部材移動機構353の後述するシャフト374が貫通する貫通孔と、擬似リール部材303における回動腕332A,332Bの回動軸335が貫通する貫通孔が設けられている。 Further, the support plates 351A and 351B rotatably support the rotating arms 332A and 332B of the pseudo reel member 303, respectively. In the support plates 351A and 351B, a through hole through which a shaft 374 of the flat screen member moving mechanism 353 described later penetrates, and a through hole through which the rotating shaft 335 of the rotating arms 332A and 332B in the pseudo reel member 303 penetrates. Is provided.

さらに、支持板351Bには、ストッパ355と、第1センサ356と、第2センサ357とが設けられている。ストッパ355は、擬似リール部材移動機構352の後述する駆動ギア362の回転範囲を制限するための部材である。第1センサ356は、平面スクリーン部材304を待機位置に移動させた場合に、平面スクリーン部材移動機構353の後述するクランクアーム378Bを検出する。第2センサ357は、平面スクリーン部材304を露出位置に移動させた場合に、平面スクリーン部材移動機構353の後述するクランクアーム378Bを検出する。 Further, a stopper 355, a first sensor 356, and a second sensor 357 are provided on the support plate 351B. The stopper 355 is a member for limiting a rotation range of a drive gear 362 described later of the pseudo reel member moving mechanism 352. The first sensor 356 detects a later-described crank arm 378B of the flat screen member moving mechanism 353 when the flat screen member 304 is moved to the standby position. The second sensor 357 detects a later-described crank arm 378B of the flat screen member moving mechanism 353 when the flat screen member 304 is moved to the exposure position.

擬似リール部材移動機構352は、駆動モータ361と、駆動ギア362とを有する。駆動モータ361は、収納ケース301における右側壁314のモータ固定部314bに、ねじ等の固定部材を用いて固定されている。この際、駆動モータ361の回転軸(不図示)が、駆動ギア362と噛み合うように、駆動モータ361が右側壁314に取り付けられる。 The pseudo reel member moving mechanism 352 includes a drive motor 361 and a drive gear 362. The drive motor 361 is fixed to a motor fixing portion 314b of the right side wall 314 of the storage case 301 using a fixing member such as a screw. At this time, the drive motor 361 is attached to the right side wall 314 such that a rotation shaft (not shown) of the drive motor 361 meshes with the drive gear 362.

駆動ギア362は、表面が略半円状の歯車部材で構成され、支持板351Bに回転可能に支持されている。この駆動ギア362は、支持板351Bの収納ケース301の右側壁314に対向する面に配置されている。また、駆動ギア362の中心部には、擬似リール部材303の回動腕332B(後述の図11参照)の回動軸335が接続されている。 The drive gear 362 is formed of a gear member having a substantially semicircular surface, and is rotatably supported by the support plate 351B. The drive gear 362 is disposed on a surface of the support plate 351B facing the right side wall 314 of the storage case 301. Further, a rotation shaft 335 of a rotation arm 332B (see FIG. 11 described later) of the pseudo reel member 303 is connected to the center of the drive gear 362.

平面スクリーン部材移動機構353は、駆動モータ371と、中間ギア372,373と、シャフト374と、クランクギア375,376と、クランクアーム378A,378Bとを有する。駆動モータ371は、支持板351Bに、ねじ等の固定部材を用いて固定されている。この際、駆動モータ371の回転軸371aが、中間ギア372に噛み合うように、駆動モータ371が支持板351Bに取り付けられている。 The flat screen member moving mechanism 353 includes a drive motor 371, intermediate gears 372 and 373, a shaft 374, crank gears 375 and 376, and crank arms 378A and 378B. The drive motor 371 is fixed to the support plate 351B using a fixing member such as a screw. At this time, the drive motor 371 is attached to the support plate 351B such that the rotation shaft 371a of the drive motor 371 meshes with the intermediate gear 372.

中間ギア372は、支持板351Bと、収納ケース301の右側壁314との間に配置されている。中間ギア372の中心部には、収納ケース301の右側壁314に設けられた貫通孔314a(図8参照)を貫通して突出したシャフト374の一方の端部が接続されている。 The intermediate gear 372 is disposed between the support plate 351B and the right side wall 314 of the storage case 301. One end of a shaft 374 protruding through a through hole 314a (see FIG. 8) provided in the right side wall 314 of the storage case 301 is connected to the center of the intermediate gear 372.

中間ギア373は、支持板351Aと、収納ケース301の左側壁313との間に配置されている。中間ギア373の中心部には、収納ケース301の左側壁313に設けられた貫通孔313a(図8参照)を貫通して突出したシャフト374の他方の端部が接続されている。 The intermediate gear 373 is disposed between the support plate 351A and the left side wall 313 of the storage case 301. The other end of the shaft 374 that projects through a through hole 313a (see FIG. 8) provided in the left side wall 313 of the storage case 301 is connected to the center of the intermediate gear 373.

シャフト374は、支持板351A,351Bを貫通して設けられ、支持板351A,351Bを回転可能に支持している。なお、中間ギア373は、上述のように、シャフト374を介して中間ギア372と接続されているので、中間ギア373は、中間ギア372と一緒に回転する。 The shaft 374 is provided to penetrate the support plates 351A and 351B, and rotatably supports the support plates 351A and 351B. Since the intermediate gear 373 is connected to the intermediate gear 372 via the shaft 374 as described above, the intermediate gear 373 rotates together with the intermediate gear 372.

クランクギア375は、支持板351Bと、収納ケース301の右側壁314との間に配置されており、右側壁314に回転可能に支持されている。この際、クランクギア375は、中間ギア372と噛み合うように配置されている。また、中間ギア372の支持板351Bに対向する面には、クランクピン375aが形成されている。 The crank gear 375 is disposed between the support plate 351B and the right side wall 314 of the storage case 301, and is rotatably supported by the right side wall 314. At this time, the crank gear 375 is arranged to mesh with the intermediate gear 372. Further, a crank pin 375a is formed on a surface of the intermediate gear 372 facing the support plate 351B.

クランクギア376は、支持板351Aと、収納ケース301の左側壁313との間に配置されており、左側壁313に回転可能に支持されている。この際、クランクギア376は、中間ギア373と噛み合うように配置されている。また、中間ギア373の支持板351Aに対向する面には、クランクピン376aが形成されている。 The crank gear 376 is disposed between the support plate 351A and the left side wall 313 of the storage case 301, and is rotatably supported by the left side wall 313. At this time, the crank gear 376 is arranged so as to mesh with the intermediate gear 373. A crank pin 376a is formed on a surface of the intermediate gear 373 facing the support plate 351A.

クランクアーム378Aは、支持板351Aと、収納ケース301の左側壁313との間に配置されており、支持板351Aに回転可能に支持されている。クランクアーム378Aは、略L字状に延在した板状部材で構成されたアーム部381と、アーム部381の一方の端部に設けられた接続部382とを有する。 The crank arm 378A is disposed between the support plate 351A and the left side wall 313 of the storage case 301, and is rotatably supported by the support plate 351A. The crank arm 378A has an arm portion 381 formed of a plate-like member extending in a substantially L-shape, and a connecting portion 382 provided at one end of the arm portion 381.

アーム部381には、支持板351Aに回転可能に係合する回動軸384と、直線状に延在した係合溝385とが設けられている。係合溝385は、アーム部381における収納ケース301の左側壁313と対向する面に設けられている。この係合溝385には、クランクギア376のクランクピン376aが摺動可能に係合している。 The arm 381 is provided with a rotation shaft 384 rotatably engaged with the support plate 351A and an engagement groove 385 extending linearly. The engagement groove 385 is provided on a surface of the arm portion 381 facing the left side wall 313 of the storage case 301. The crank pin 376a of the crank gear 376 is slidably engaged with the engagement groove 385.

接続部382は、表面が長方形の板状部材で構成される。接続部382の一方の表面は、アーム部381に連続しており、他方の表面(平面)は、平面スクリーン部材304の第1平面304aに当接している(図8参照)。この接続部382は、平面スクリーン部材304の第1平面304aにねじ等の固定部材を用いて固定されている。 The connection portion 382 is formed of a plate-like member having a rectangular surface. One surface of the connecting portion 382 is continuous with the arm portion 381, and the other surface (flat surface) is in contact with the first flat surface 304a of the flat screen member 304 (see FIG. 8). The connecting portion 382 is fixed to the first flat surface 304a of the flat screen member 304 using a fixing member such as a screw.

クランクアーム378Bは、支持板351Bと、収納ケース301の右側壁314との間に配置されており、支持板351Bに回転可能に支持されている。クランクアーム378Bは、略L字状に延在した板状部材で構成されたアーム部391と、アーム部391の一方の端部に設けられた接続部392とを有する。 The crank arm 378B is disposed between the support plate 351B and the right side wall 314 of the storage case 301, and is rotatably supported by the support plate 351B. The crank arm 378B has an arm portion 391 formed of a plate-like member extending in a substantially L shape, and a connection portion 392 provided at one end of the arm portion 391.

アーム部391には、支持板351Aに回転可能に係合する回動軸(不図示)と、直線状に延在した係合溝395と、第1検出片396と、第2検出片397とが設けられている。係合溝395は、アーム部391における収納ケース301の右側壁314と対向する面に設けられている。この係合溝395には、クランクギア375のクランクピン375aが摺動可能に係合している。 The arm 391 includes a rotation shaft (not shown) rotatably engaged with the support plate 351A, an engagement groove 395 extending linearly, a first detection piece 396, and a second detection piece 397. Is provided. The engagement groove 395 is provided on a surface of the arm portion 391 facing the right side wall 314 of the storage case 301. The crank pin 375a of the crank gear 375 is slidably engaged with the engagement groove 395.

第1検出片396は、接続部392と係合溝395との間の位置に設けられ、アーム部391の一方(図9上では、裏面側)の側部から外側に突出している。平面スクリーン部材移動機構353が平面スクリーン部材304を待機位置に移動させると、第1検出片396は、支持板351Bに設けられた第1センサ356により検出される。 The first detection piece 396 is provided at a position between the connection part 392 and the engagement groove 395, and protrudes outward from one side (the back side in FIG. 9) of the arm part 391. When the flat screen member moving mechanism 353 moves the flat screen member 304 to the standby position, the first detection piece 396 is detected by the first sensor 356 provided on the support plate 351B.

第2検出片397は、第1検出片396の下方に設けられており、アーム部391の一方の側部から外側に突出している。平面スクリーン部材移動機構353が平面スクリーン部材304を露出位置に移動させると、第2検出片397は、支持板351Bに設けられた第2センサ357により検出される。 The second detection piece 397 is provided below the first detection piece 396, and protrudes outward from one side of the arm 391. When the flat screen member moving mechanism 353 moves the flat screen member 304 to the exposed position, the second detection piece 397 is detected by the second sensor 357 provided on the support plate 351B.

接続部392は、表面が長方形の板状部材で構成される。接続部392の一方の表面は、アーム部391に連続しており、他方の表面(平面)は、平面スクリーン部材304の第1平面304aに当接している(図8参照)。この接続部392は、平面スクリーン部材304の第1平面304aにねじ等の固定部材を用いて固定されている。 The connection portion 392 is formed of a rectangular plate-shaped member. One surface of the connecting portion 392 is continuous with the arm portion 391, and the other surface (flat surface) is in contact with the first flat surface 304a of the flat screen member 304 (see FIG. 8). The connecting portion 392 is fixed to the first flat surface 304a of the flat screen member 304 using a fixing member such as a screw.

[台形部材の使用時状態]
次に、台形部材302を映像光の投影対象としたときの状態について、図10を参照して説明する。図10は、台形部材302が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。なお、図5が、台形部材302が映像光の投影対象となっているときの被投影ブロック202の斜視図になる。
[State when using trapezoid members]
Next, a state where the trapezoidal member 302 is a projection target of the image light will be described with reference to FIG. FIG. 10 is a vertical cross-sectional view of the projection target block 202 when the trapezoidal member 302 is a projection target of image light. FIG. 5 is a perspective view of the projection target block 202 when the trapezoidal member 302 is a projection target of the image light.

台形部材302を映像光の投影対象とした状態では、図10に示すように、擬似リール部材303及び平面スクリーン部材304がそれぞれの待機位置に配置される。 In a state where the trapezoidal member 302 is a projection target of the image light, as shown in FIG. 10, the pseudo reel member 303 and the flat screen member 304 are arranged at the respective standby positions.

擬似リール部材303が待機位置に配置されると、擬似リール部材303は、台形部材302の後方に位置し、円弧板部331の内周面331aが前方を向いた状態となる。このとき、駆動ギア362の一方の半径部(一方の径方向側部)がストッパ355に当接する(図9参照)。そのため、被投影ブロック202を右側方(右側壁314側)から見た場合、駆動ギア362の右回り(時計回り)への回動がストッパ355によって係止されている。 When the pseudo reel member 303 is located at the standby position, the pseudo reel member 303 is located behind the trapezoidal member 302, and the inner peripheral surface 331a of the arcuate plate 331 faces forward. At this time, one radial portion (one radial side portion) of the drive gear 362 contacts the stopper 355 (see FIG. 9). Therefore, when the projection target block 202 is viewed from the right side (the right wall 314 side), the rotation of the drive gear 362 clockwise (clockwise) is locked by the stopper 355.

また、平面スクリーン部材304が待機位置に配置されると、平面スクリーン部材304は、台形部材302の上方に位置し、第1平面304aが下方を向いた状態となる。このとき、第1センサ356は、平面スクリーン部材移動機構353のクランクアーム378Bに設けられた第1検出片396を検出する。これにより、副制御回路150は、平面スクリーン部材304が待機位置に配置されたことを検知する。 When the flat screen member 304 is located at the standby position, the flat screen member 304 is located above the trapezoidal member 302, and the first flat surface 304a faces downward. At this time, the first sensor 356 detects the first detection piece 396 provided on the crank arm 378B of the flat screen member moving mechanism 353. Thereby, the sub-control circuit 150 detects that the flat screen member 304 is located at the standby position.

待機位置に配置された擬似リール部材303及び平面スクリーン部材304(被投影部材)は、台形部材302とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、台形部材302が、フロントパネル10の開口10aに露出した状態となり、映像光の投影対象となる。 The pseudo reel member 303 and the flat screen member 304 (projected member) arranged at the standby position do not intervene between the trapezoidal member 302 and the opening 10a of the front panel 10 (see FIG. 2). Therefore, in this state, the trapezoidal member 302 is exposed from the opening 10a of the front panel 10 when viewed from the player side, and becomes a projection target of image light.

投影対象となった台形部材302の投影面321a,322a,323a,324a(投影面324aは図8参照)には、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である台形部材302の各投影面に表示され、遊技者に視認可能となる。 The projection light 321a, 322a, 323a, 324a (see FIG. 8 for the projection surface 324a) of the trapezoidal member 302 to be projected is projected with the image light incident from the projector 213 of the projection block 201 via the reflection mirror 237. Is done. Thereby, the image used for the effect is displayed on each projection surface of the trapezoidal member 302 to be projected, and can be visually recognized by the player.

本実施形態では、台形部材302の床板部321及び3つの壁板部322,323,324(壁板部324は図8参照)の投影面321a,322a,323a,324aに映像光を投影して、演出に用いる映像を表示する。これにより、コストを上昇させることなく、且つ、簡易な構成で映像に立体感や奥行きが感じられる斬新な演出を行うことができる。その結果、映像表示演出に対する遊技者の興趣を高めることができる。 In the present embodiment, image light is projected onto the projection surfaces 321a, 322a, 323a, and 324a of the floor plate portion 321 of the trapezoidal member 302 and the three wall plate portions 322, 323, and 324 (see FIG. 8 for the wall plate portion 324). , Display the video used for the effect. This makes it possible to perform a novel effect in which a three-dimensional effect and depth can be felt in an image with a simple configuration without increasing the cost. As a result, the player's interest in the video display effect can be increased.

本実施形態では、被投影部材として適用した台形部材302は、投影される映像光の光軸に対して異なる角度で交差する4つの投影面を有する。しかしながら、本発明はこれに限定されず、本発明に係る被投影部材として、例えば、映像光の光軸に対して異なる角度で交差する2つ又は3つの投影面を有する被投影部材を用いてもよいし、映像光の光軸に対して異なる角度で交差する5つ以上の投影面を有する被投影部材を用いてもよい。 In the present embodiment, the trapezoidal member 302 applied as the projection target member has four projection surfaces that intersect at different angles with respect to the optical axis of the image light to be projected. However, the present invention is not limited to this. For example, a projected member having two or three projection surfaces intersecting at different angles with respect to the optical axis of the image light is used as the projected member according to the present invention. Alternatively, a projection target member having five or more projection surfaces intersecting at different angles with respect to the optical axis of the image light may be used.

また、本実施形態では、台形部材302を所定の位置に固定する構成例を示したが、本発明はこれに限定されない。本発明に係る台形部材として、例えば、プロジェクタから出射された映像光が投影されない待機位置と、プロジェクタから出射された映像光が投影される露出位置との間で移動可能な台形部材を用いてもよい。また、この場合、台形部材の移動態様としては、例えば、適当な軸を中心に回動する態様であってもよいし、直線移動する態様であってもよい。 Further, in the present embodiment, the configuration example in which the trapezoidal member 302 is fixed at a predetermined position has been described, but the present invention is not limited to this. As the trapezoid member according to the present invention, for example, a trapezoid member movable between a standby position where the image light emitted from the projector is not projected and an exposure position where the image light emitted from the projector is projected may be used. Good. In this case, the trapezoidal member may be moved in a mode in which the trapezoidal member is rotated about an appropriate axis, or in a straight line.

[擬似リール部材の動作]
次に、擬似リール部材303の動作について、図11及び図12を参照して説明する。図11は、擬似リール部材303が映像光の投影対象となっているときの被投影ブロック202の状態を示す図である。図12は、擬似リール部材303が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。
[Operation of pseudo reel member]
Next, the operation of the pseudo reel member 303 will be described with reference to FIGS. FIG. 11 is a diagram illustrating a state of the projection target block 202 when the pseudo reel member 303 is a projection target of video light. FIG. 12 is a longitudinal sectional view of the projection target block 202 when the pseudo reel member 303 is a projection target of image light.

擬似リール部材303を映像光の投影対象とする場合には、擬似リール部材303を待機位置(図10に示す状態)から露出位置(図11及び図12に示す状態)へ移動させる。なお、この際、平面スクリーン部材304は、待機位置に配置された状態に維持される。 When the pseudo reel member 303 is a projection target of the image light, the pseudo reel member 303 is moved from the standby position (the state shown in FIG. 10) to the exposure position (the state shown in FIGS. 11 and 12). At this time, the flat screen member 304 is maintained in a state of being arranged at the standby position.

擬似リール部材303を露出位置へ移動させるには、擬似リール部材移動機構352の駆動モータ361を駆動し、図面上において被投影ブロック202を右側方(右側壁314側)から見て、駆動ギア362を左回り(反時計回り)に回転させる(図11中の太矢印参照)。 To move the pseudo reel member 303 to the exposure position, the drive motor 361 of the pseudo reel member moving mechanism 352 is driven, and the projection block 202 is viewed from the right side (the right wall 314 side) in the drawing, and the driving gear 362 is driven. Is rotated left (counterclockwise) (see the thick arrow in FIG. 11).

駆動ギア362には、擬似リール部材303の回動腕332Bに設けられた回動軸335が接続されているので、駆動ギア362を左回りに回転させると、擬似リール部材303が待機位置から左回りに回動する。そして、駆動ギア362の他方の半径部がストッパ355に当接すると、駆動ギア362の左回りの回転がストッパ355によって係止される。その結果、図11及び図12に示すように、擬似リール部材303は、露出位置に配置される。 Since the rotating shaft 335 provided on the rotating arm 332B of the pseudo reel member 303 is connected to the driving gear 362, when the driving gear 362 is rotated counterclockwise, the pseudo reel member 303 moves leftward from the standby position. Rotate around. Then, when the other radial portion of the drive gear 362 contacts the stopper 355, the counterclockwise rotation of the drive gear 362 is locked by the stopper 355. As a result, as shown in FIGS. 11 and 12, the pseudo reel member 303 is located at the exposed position.

擬似リール部材303が露出位置に配置されると、擬似リール部材303により台形部材302の前方が覆われた状態となる。また、この際、待機位置に配置された平面スクリーン部材304は、擬似リール部材303とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、擬似リール部材303が、フロントパネル10の開口10aに露出した状態となり、映像光の投影対象となる。 When the pseudo reel member 303 is disposed at the exposed position, the front of the trapezoidal member 302 is covered by the pseudo reel member 303. At this time, the flat screen member 304 arranged at the standby position does not intervene between the pseudo reel member 303 and the opening 10a of the front panel 10 (see FIG. 2). Therefore, in this state, as viewed from the player side, the pseudo reel member 303 is exposed to the opening 10a of the front panel 10, and becomes a projection target of image light.

投影対象となった擬似リール部材303の外周面331b(以下、「投影面331b」という)には、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である擬似リール部材303に表示され、遊技者に視認可能となる。 Image light incident from the projector 213 of the projection block 201 via the reflection mirror 237 is projected on the outer peripheral surface 331b (hereinafter, referred to as “projection surface 331b”) of the pseudo reel member 303 to be projected. Thereby, the image used for the effect is displayed on the pseudo reel member 303 to be projected, and can be visually recognized by the player.

なお、擬似リール部材303を露出位置から待機位置へ移動させるには、擬似リール部材移動機構352の駆動モータ361を駆動して、図面上において被投影ブロック202を右側方から見て、駆動ギア362を右回り(時計回り)に回転させる。 In order to move the pseudo reel member 303 from the exposure position to the standby position, the drive motor 361 of the pseudo reel member moving mechanism 352 is driven, and the projection block 202 is viewed from the right side in FIG. Rotate clockwise (clockwise).

駆動ギア362が右回りに回転すると、擬似リール部材303が露出位置から右回りに回動する。そして、駆動ギア362の一方の半径部がストッパ355に当接すると(図9の状態)、駆動ギア362の右回りの回転がストッパ355によって係止される。その結果、図10に示すように、擬似リール部材303は、待機位置に配置される。 When the drive gear 362 rotates clockwise, the pseudo reel member 303 rotates clockwise from the exposed position. When one radial portion of the drive gear 362 comes into contact with the stopper 355 (the state shown in FIG. 9), the clockwise rotation of the drive gear 362 is locked by the stopper 355. As a result, as shown in FIG. 10, the pseudo reel member 303 is located at the standby position.

本実施形態では、擬似リール部材303の湾曲する投影面331bにリールを表す映像光を投影する。これにより、フロントパネル10(フロントドア2b)の開口10aに対向するキャビネット2a内に、リールが物理的に存在しているように見せることができる。その結果、コストを上昇させることなく、且つ、簡易な構成で映像に立体感や奥行きが感じられる斬新な演出を行うことができ、映像を表示する演出の興趣を高めることができる。 In the present embodiment, video light representing a reel is projected onto the curved projection surface 331b of the pseudo reel member 303. Thereby, it is possible to make it appear that the reels physically exist in the cabinet 2a facing the opening 10a of the front panel 10 (the front door 2b). As a result, it is possible to perform a novel effect in which a three-dimensional effect and depth are felt in the image with a simple configuration without increasing the cost, and it is possible to enhance the interest in the effect of displaying the image.

[平面スクリーン部材の動作]
次に、平面スクリーン部材304の動作について、図13及び図14を参照して説明する。図13は、平面スクリーン部材304が映像光の投影対象となっているときの被投影ブロック202の状態を示す図である。図14は、平面スクリーン部材304が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。
[Operation of flat screen member]
Next, the operation of the flat screen member 304 will be described with reference to FIGS. FIG. 13 is a diagram illustrating a state of the projection target block 202 when the flat screen member 304 is a projection target of image light. FIG. 14 is a vertical sectional view of the projection target block 202 when the flat screen member 304 is a projection target of image light.

平面スクリーン部材304を映像光の投影対象とする場合には、平面スクリーン部材304を待機位置(図10に示す状態)から露出位置(図13及び図14に示す状態)へ移動させる。なお、この際、擬似リール部材303は、待機位置に配置された状態に維持される。 When the flat screen member 304 is to be projected with the image light, the flat screen member 304 is moved from the standby position (the state shown in FIG. 10) to the exposure position (the state shown in FIGS. 13 and 14). At this time, the pseudo reel member 303 is maintained in a state where it is arranged at the standby position.

平面スクリーン部材304を露出位置へ移動させるには、平面スクリーン部材移動機構353の駆動モータ371を駆動し、図面上において被投影ブロック202を右側方(右側壁314側)から見て、中間ギア372を右回り(時計回り)に回転させる(図13中の太矢印参照)。 To move the flat screen member 304 to the exposure position, the drive motor 371 of the flat screen member moving mechanism 353 is driven, and the projected block 202 is viewed from the right side (the right wall 314 side) in the drawing, and the intermediate gear 372 is seen. Is rotated clockwise (see the thick arrow in FIG. 13).

中間ギア372には、シャフト374の一方の端部が接続されており、シャフト374の他方の端部には、中間ギア373(図9参照)が接続されている。そのため、図面上において被投影ブロック202を右側方から見て、中間ギア372が右回りに回転すると、中間ギア373も右回りに回転する。 One end of a shaft 374 is connected to the intermediate gear 372, and an intermediate gear 373 (see FIG. 9) is connected to the other end of the shaft 374. Therefore, when the intermediate gear 372 rotates clockwise when the projection target block 202 is viewed from the right side in the drawing, the intermediate gear 373 also rotates clockwise.

中間ギア372,373が右回りに回転すると、図面上において被投影ブロック202を右側方から見て、クランクギア375,376(図9参照)が左回り(反時計回り)に回転する。また、クランクギア375のクランクピン375aは、クランクアーム378Bの係合溝395に係合しており、クランクギア376のクランクピン376aは、クランクアーム378Aの係合溝385に係合している。 When the intermediate gears 372 and 373 rotate clockwise, the crank gears 375 and 376 (see FIG. 9) rotate counterclockwise (see FIG. 9) when the projected block 202 is viewed from the right side in the drawing. The crank pin 375a of the crank gear 375 is engaged with the engagement groove 395 of the crank arm 378B, and the crank pin 376a of the crank gear 376 is engaged with the engagement groove 385 of the crank arm 378A.

したがって、クランクギア375,376(図9参照)が左回りに回転すると、クランクピン375a,376がそれぞれクランクアーム378A,378Bを左回り(反時計方向)に回転させるように押圧する。その結果、図面上において被投影ブロック202を右側方から見て、クランクアーム378A,378Bに接続された平面スクリーン部材304が待機位置から左回りに回動する。 Therefore, when the crank gears 375 and 376 (see FIG. 9) rotate counterclockwise, the crank pins 375a and 376 press the crank arms 378A and 378B to rotate counterclockwise (counterclockwise), respectively. As a result, the planar screen member 304 connected to the crank arms 378A and 378B rotates counterclockwise from the standby position when the projection block 202 is viewed from the right side in the drawing.

そして、第2センサ357が、クランクアーム378Bの第2検出片397を検出すると、駆動モータ371の駆動が停止し、平面スクリーン部材304の回動が停止する。その結果、図13及び図14に示すように、平面スクリーン部材304は、露出位置に配置される。 When the second sensor 357 detects the second detection piece 397 of the crank arm 378B, the driving of the drive motor 371 stops, and the rotation of the flat screen member 304 stops. As a result, as shown in FIGS. 13 and 14, the flat screen member 304 is disposed at the exposed position.

平面スクリーン部材304が露出位置に配置されると、平面スクリーン部材304により台形部材302の前方が覆われた状態となる。また、この際、待機位置に配置された擬似リール部材303は、平面スクリーン部材304とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、平面スクリーン部材304が、フロントパネル10の開口10aに露出した状態となり、投影対象となる。 When the flat screen member 304 is located at the exposed position, the front of the trapezoid member 302 is covered by the flat screen member 304. At this time, the pseudo reel member 303 arranged at the standby position does not intervene between the flat screen member 304 and the opening 10a of the front panel 10 (see FIG. 2). Therefore, in this state, when viewed from the player side, the flat screen member 304 is exposed to the opening 10a of the front panel 10 and becomes a projection target.

投影対象となった平面スクリーン部材304の投影面304bには、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である平面スクリーン部材304に表示され、遊技者に視認可能となる。例えば、平面スクリーン部材304の平面である投影面304bに、2次元の映像を表す映像光を投影することにより、液晶表示装置などのフラットパネルを用いた表示装置で映像を表示したときと同様の映像を遊技者に見せることができる。 The image light that has entered from the projector 213 of the projection block 201 via the reflection mirror 237 is projected onto the projection surface 304b of the flat screen member 304 to be projected. Thereby, the image used for the effect is displayed on the flat screen member 304 to be projected, and can be visually recognized by the player. For example, by projecting image light representing a two-dimensional image onto a projection surface 304b, which is a plane of the flat screen member 304, the same as when an image is displayed on a display device using a flat panel such as a liquid crystal display device. The video can be shown to the player.

なお、平面スクリーン部材304を露出位置から待機位置へ移動させるには、平面スクリーン部材移動機構353の駆動モータ371を駆動し、図面上において被投影ブロック202を右側方から見て、中間ギア372,373を左回り(反時計回り)に回転させる。 To move the flat screen member 304 from the exposure position to the standby position, the drive motor 371 of the flat screen member moving mechanism 353 is driven, and the projection block 202 is viewed from the right side in the drawing, and the intermediate gear 372, Rotate 373 counterclockwise (counterclockwise).

中間ギア372,373が左回りに回転すると、図面上において被投影ブロック202を右側方から見て、クランクギア375,376(図9参照)が右回りに回転する。そして、クランクギア375,376が右回りに回転すると、クランクピン375a,376がそれぞれクランクアーム378A,378Bを右回りに回転させるように押圧する。その結果、図面上において被投影ブロック202を右側方から見て、クランクアーム378A,378Bに接続された平面スクリーン部材304が露出位置から右回りに回動する。 When the intermediate gears 372 and 373 rotate counterclockwise, the crank gears 375 and 376 (see FIG. 9) rotate clockwise when the projected block 202 is viewed from the right side in the drawing. When the crank gears 375 and 376 rotate clockwise, the crank pins 375a and 376 press the crank arms 378A and 378B to rotate clockwise, respectively. As a result, the planar screen member 304 connected to the crank arms 378A and 378B rotates clockwise from the exposed position when the projection target block 202 is viewed from the right side in the drawing.

その後、第1センサ356が、クランクアーム378Bの第1検出片396を検出すると、駆動モータ371の駆動が停止し、平面スクリーン部材304の回動が停止する。その結果、図10に示すように、平面スクリーン部材304は、待機位置に配置される。 Thereafter, when the first sensor 356 detects the first detection piece 396 of the crank arm 378B, the driving of the drive motor 371 stops, and the rotation of the flat screen member 304 stops. As a result, as shown in FIG. 10, the flat screen member 304 is arranged at the standby position.

なお、本実施形態では、上述のように、平面スクリーン部材304の投影面304bに白色の塗料が塗布されている。そして、平面スクリーン部材304の投影面304bに2次元の映像を表す映像光を投影する。白色及び銀色(灰色)は、少なくとも可視光線の反射率が約一定であり、白色は、銀色よりも光の反射率が高い。それゆえ、白色の投影面304bに投影された2次元の映像を、例えば、銀色の塗料を塗布した投影面304bに投影した2次元の映像よりも見えやすくすることができる。 In the present embodiment, as described above, the white paint is applied to the projection surface 304b of the flat screen member 304. Then, image light representing a two-dimensional image is projected on the projection surface 304 b of the flat screen member 304. White and silver (gray) have at least a substantially constant reflectance of visible light, and white has a higher reflectance of light than silver. Therefore, it is possible to make the two-dimensional image projected on the white projection surface 304b more visible than the two-dimensional image projected on the projection surface 304b coated with silver paint, for example.

一方、台形部材302の投影面321a,322a,323a,324a、及び、擬似リール部材303の投影面331bに、銀色(灰色)の塗料が塗布されている。それゆえ、台形部材302の投影面321a,322a,323a,324a、及び、擬似リール部材303の投影面331bでは、これらの投影面に白色の塗料を塗布した場合よりも、3次元の映像をより立体的に見えるようにすることができる。 On the other hand, silver (gray) paint is applied to the projection surfaces 321a, 322a, 323a, 324a of the trapezoid member 302 and the projection surface 331b of the pseudo reel member 303. Therefore, the projection surfaces 321a, 322a, 323a, and 324a of the trapezoidal member 302 and the projection surface 331b of the pseudo reel member 303 produce a three-dimensional image more than the case where a white paint is applied to these projection surfaces. It can be made to look three-dimensional.

<パチスロが備える制御系>
次に、パチスロ1が備える制御系について、図15を参照して説明する。図15は、パチスロ1の制御系の構成を示す回路ブロック図である。
<Control system for pachislot>
Next, a control system provided in the pachislo 1 will be described with reference to FIG. FIG. 15 is a circuit block diagram illustrating a configuration of a control system of the pachislo 1.

パチスロ1は、ミドルドア41に設けられた主制御基板71と、フロントドア2bに設けられた副制御基板72とを有する。また、パチスロ1は、主制御基板71に接続された、リール中継端子板74、設定用鍵型スイッチ54(設定スイッチ)及びキャビネット側中継基板44を有する。さらに、パチスロ1は、キャビネット側中継基板44を介して主制御基板71に接続された外部集中端子板47、ホッパー装置51、メダル補助収納庫スイッチ75、リセットスイッチ76及び電源装置53を有する。なお、ホッパー装置51の構成については上述したので、ここでは、その説明を省略する。 The pachi-slot 1 includes a main control board 71 provided on the middle door 41 and a sub-control board 72 provided on the front door 2b. Further, the pachislot 1 has a reel relay terminal plate 74, a setting key-type switch 54 (setting switch), and a cabinet side relay board 44, which are connected to the main control board 71. Further, the pachislot 1 has an external centralized terminal board 47, a hopper device 51, a medal auxiliary storage switch 75, a reset switch 76, and a power supply device 53 connected to the main control board 71 via the cabinet side relay board 44. Since the configuration of the hopper device 51 has been described above, the description thereof is omitted here.

リール中継端子板74は、各リール3L,3C,3Rのリール本体の内側に配設されている。リール中継端子板74は、各リール3L,3C,3Rのステッピングモータ(不図示)に電気的に接続されており、主制御基板71からステッピングモータに出力される信号を中継する。 The reel relay terminal plate 74 is disposed inside the reel body of each reel 3L, 3C, 3R. The reel relay terminal plate 74 is electrically connected to a stepping motor (not shown) of each of the reels 3L, 3C, 3R, and relays a signal output from the main control board 71 to the stepping motor.

設定用鍵型スイッチ54は、主制御基板ケース55に設けられる。設定用鍵型スイッチ54は、パチスロ1の設定(設定1〜設定6)を変更するとき、もしくは、パチスロ1の設定を確認するときに使用される。 The setting key type switch 54 is provided on the main control board case 55. The setting key type switch 54 is used when changing the setting of the pachislot 1 (setting 1 to setting 6) or when confirming the setting of the pachislot 1.

キャビネット側中継基板44は、主制御基板71と、外部集中端子板47、ホッパー装置51、メダル補助収納庫スイッチ75、リセットスイッチ76及び電源装置53のそれぞれとを接続する配線が実装された中継基板である。外部集中端子板47は、メダル投入信号、メダル払出信号及びセキュリティ信号などの信号をパチスロ1の外部へ出力するために設けられる。メダル補助収納庫スイッチ75は、メダル補助収納庫52に設けられ、メダル補助収納庫52がメダルで満杯になっているか否かを検出する。リセットスイッチ76は、例えば、パチスロ1の設定を変更する際に用いられる。 The cabinet-side relay board 44 is a relay board on which wiring for connecting the main control board 71, the external centralized terminal board 47, the hopper device 51, the medal auxiliary storage switch 75, the reset switch 76, and the power supply device 53 is mounted. It is. The external concentrated terminal board 47 is provided for outputting signals such as a medal insertion signal, a medal payout signal, and a security signal to the outside of the pachislot 1. The medal auxiliary storage switch 75 is provided in the medal auxiliary storage 52 and detects whether or not the medal auxiliary storage 52 is full of medals. The reset switch 76 is used, for example, when changing the setting of the pachislot 1.

電源装置53は、電源基板53bと、電源基板53bに接続された電源スイッチ53aとを有する。電源スイッチ53aは、パチスロ1に必要な電源を供給するときに押下される。電源基板53bは、キャビネット側中継基板44を介して主制御基板71に接続されるとともに、副中継基板61を介して副制御基板72にも接続される。 The power supply device 53 has a power supply board 53b and a power switch 53a connected to the power supply board 53b. The power switch 53a is pressed when supplying the necessary power to the pachi-slot 1. The power supply board 53b is connected to the main control board 71 via the cabinet-side relay board 44, and is also connected to the sub-control board 72 via the sub-relay board 61.

また、パチスロ1は、ドア中継端子板68、並びに、該ドア中継端子板68を介して、主制御基板71に接続された、セレクタ66、ドア開閉監視スイッチ67、BETスイッチ77、精算スイッチ78、スタートスイッチ79、ストップスイッチ基板80、遊技動作表示基板81、副中継基板61、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402を有する。なお、セレクタ66、ドア開閉監視スイッチ67及び副中継基板61については、上述したので、ここでは、それらの説明を省略する。 The pachislot 1 has a door relay terminal plate 68 and a selector 66, a door open / close monitoring switch 67, a BET switch 77, a settlement switch 78, which is connected to the main control board 71 via the door relay terminal plate 68. It has a start switch 79, a stop switch board 80, a game operation display board 81, a sub relay board 61, a first interface board 401 for a testing machine, and a second interface board 402 for a testing machine. Since the selector 66, the door open / close monitoring switch 67, and the sub relay board 61 have been described above, the description thereof is omitted here.

BETスイッチ77(投入操作検出手段)は、MAXベットボタン15a又は1ベットボタン15bが遊技者により押下されたことを検出する。精算スイッチ78は、精算ボタン(不図示)が遊技者により押下されたことを検出する。スタートスイッチ79(開始操作検出手段)は、スタートレバー16が遊技者により操作されたこと(開始操作)を検出する。 The BET switch 77 (insertion operation detecting means) detects that the MAX bet button 15a or the 1-bet button 15b has been pressed by the player. The settlement switch 78 detects that a settlement button (not shown) has been pressed by the player. The start switch 79 (start operation detecting means) detects that the start lever 16 has been operated by the player (start operation).

ストップスイッチ基板80(停止操作検出手段)は、回転しているメインリールを停止させるための回路と、停止可能なメインリールをLEDなどにより表示するための回路とを備える。また、ストップスイッチ基板80には、ストップスイッチ(不図示)が設けられる。ストップスイッチは、各ストップボタン17L,17C,17Rが遊技者により押下されたこと(停止操作)を検出する。 The stop switch substrate 80 (stop operation detecting means) includes a circuit for stopping the rotating main reel and a circuit for displaying the stopable main reel by an LED or the like. Further, a stop switch (not shown) is provided on the stop switch substrate 80. The stop switch detects that each of the stop buttons 17L, 17C, 17R has been pressed by the player (stop operation).

遊技動作表示基板81は、情報表示器6(7セグ表示器)及びLED82に接続される。LED82には、例えば、今回の遊技に投入されたメダルの枚数(以下、「投入枚数」という)に対応して点灯する、メダル投入枚数表示用の3つのLED(以下、「第1LED」〜「第3LED」という)や、遊技動作表示基板81から入力される信号に基づいて、メダル投入が可能であることを表示するマーク、遊技開始を表示するマーク、再遊技を行うマークなどを点灯させるLEDなどが含まれる。第1LED〜第3LED(表示手段)では、メダルが1枚投入されると、第1LEDが点灯し、メダルが2枚投入されると、第1及び第2LEDが点灯し、メダルが3枚(遊技開始可能枚数)投入されると、第1LED〜第3LEDが点灯する。なお、情報表示器6については、上述したので、ここでは、それらの説明を省略する。 The game operation display board 81 is connected to the information display 6 (7-segment display) and the LED 82. The LEDs 82 are, for example, three LEDs for displaying the number of inserted medals (hereinafter, referred to as “first LEDs” to “first LEDs”) that are lit in accordance with the number of medals inserted in the current game (hereinafter, referred to as “inserted number”). An LED for lighting a mark indicating that medals can be inserted, a mark indicating start of a game, a mark for performing a re-game, and the like based on a signal input from the game operation display board 81). And so on. In the first to third LEDs (display means), when one medal is inserted, the first LED is turned on, and when two medals are inserted, the first and second LEDs are turned on, and three medals (game When the (startable number) is input, the first to third LEDs are turned on. Since the information display 6 has been described above, the description thereof is omitted here.

試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402はともに、パチスロ1の検定試験(試射試験)において、遊技に関する各種信号を試験機に出力する際に用いられる中継基板である(なお、販売用のリリース製品としてのパチスロ1にはこれらの中継基板は搭載されていないので、販売用の主制御基板71の主制御回路90には、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402に接続するために必要な各種電子部品もまた実装されていない)。例えば、遊技に係る主要な動作(例えば、内部抽籤、リール停止制御等)を制御するための試験信号は、試験機用第1インターフェースボード401を介して出力され、例えば、主制御基板71で決定された押し順ナビに係る試験信号などは、試験機用第2インターフェースボード402を介して出力される。 Both the first interface board 401 for the testing machine and the second interface board 402 for the testing machine are relay boards used when outputting various signals related to the game to the testing machine in the pachislot 1 verification test (test shooting test) ( These relay boards are not mounted on the pachislot 1 as a release product for sale. Therefore, the main control circuit 90 of the main control board 71 for sale includes the first interface board 401 for test machine and the test machine. Various electronic components necessary for connection to the second interface board 402 are not mounted.) For example, a test signal for controlling main operations related to the game (for example, internal lottery, reel stop control, and the like) is output via the first interface board 401 for a testing machine, and is determined by the main control board 71, for example. The test signal related to the pressed order navigation is output via the tester second interface board 402.

副制御基板72は、ドア中継端子板68及び副中継基板61を介して主制御基板71に接続される。また、パチスロ1は、副中継基板61を介して副制御基板72に接続された、スピーカ群84、LED群85、24hドア開閉監視ユニット63、タッチセンサ19及び被投影部材移動機構305(表示ユニット)を有する。なお、タッチセンサ19及び被投影部材移動機構305については、上述したので、ここでは、その説明を省略する。 The sub control board 72 is connected to the main control board 71 via the door relay terminal board 68 and the sub relay board 61. The pachislot 1 includes a speaker group 84, an LED group 85, a 24h door opening / closing monitoring unit 63, a touch sensor 19, and a projected member moving mechanism 305 (display unit) connected to the sub control board 72 via the sub relay board 61. ). Since the touch sensor 19 and the projection member moving mechanism 305 have been described above, the description thereof is omitted here.

スピーカ群84は、左上のスピーカ64L、右上のスピーカ64R、左下のスピーカ65L及び右下のスピーカ65Rのような、各種スピーカを含んで構成される。LED群85は、フロントパネル10に設けられたランプ群21や、腰部パネル12の装飾パネルを背面側から照明するための光を出射する光源などを含んで構成される。24hドア開閉監視ユニット63は、ミドルドア41の開閉の履歴情報を保存する。また、24hドア開閉監視ユニット63は、ミドルドア41が開放されたときに、表示装置11によりエラー表示を行うための信号を副制御基板72(副制御回路150)に出力する。 The speaker group 84 includes various speakers, such as an upper left speaker 64L, an upper right speaker 64R, a lower left speaker 65L, and a lower right speaker 65R. The LED group 85 includes a lamp group 21 provided on the front panel 10 and a light source that emits light for illuminating the decorative panel of the waist panel 12 from the back side. The 24h door opening / closing monitoring unit 63 stores opening / closing history information of the middle door 41. When the middle door 41 is opened, the 24h door opening / closing monitoring unit 63 outputs a signal for performing an error display on the display device 11 to the sub-control board 72 (sub-control circuit 150).

また、パチスロ1は、副制御基板72に接続された、ロムカートリッジ基板86及び表示装置中継基板87を有する。なお、ロムカートリッジ基板86及び表示装置中継基板87は、副制御基板72とともに副制御基板ケース57に収納されている。 The pachislo 1 has a ROM cartridge substrate 86 and a display device relay substrate 87 connected to the sub control substrate 72. The ROM cartridge board 86 and the display device relay board 87 are housed in the sub control board case 57 together with the sub control board 72.

ロムカートリッジ基板86は、サブCPU151により実行される各種制御プログラムと、演出用の画像(映像)、音声(スピーカ群84)、光(LED群85)及び通信のデータを管理するための基板である。なお、ロムカートリッジ基板86は、本発明に係る不揮発性記憶部(記憶部)の一具体例を示すものである。 The ROM cartridge substrate 86 is a substrate for managing various control programs executed by the sub CPU 151, and images (videos), sound (speaker group 84), light (LED group 85), and communication data for effects. . The ROM cartridge substrate 86 is a specific example of the nonvolatile storage unit (storage unit) according to the present invention.

表示装置中継基板87は、副制御基板72と、表示装置11に含まれるプロジェクタ213、及び、サブ表示装置18との間の接続配線を中継する基板である。なお、プロジェクタ213及びサブ表示装置18については、上述したので、ここでは、それらの説明を省略する。 The display device relay board 87 is a board that relays connection wiring between the sub-control board 72, the projector 213 included in the display device 11, and the sub-display device 18. Since the projector 213 and the sub display device 18 have been described above, the description thereof will be omitted here.

<主制御回路>
次に、図16を参照して、主制御基板71に実装される主制御回路90の構成について説明する。図16は、パチスロ1の主制御回路90の構成例を示すブロック図である。
<Main control circuit>
Next, the configuration of the main control circuit 90 mounted on the main control board 71 will be described with reference to FIG. FIG. 16 is a block diagram illustrating a configuration example of the main control circuit 90 of the pachislo 1.

主制御回路90は、マイクロプロセッサ91と、クロックパルス発生回路92と、電源管理回路93と、スイッチングレギュレータ94(電源供給手段)とを備える。 The main control circuit 90 includes a microprocessor 91, a clock pulse generation circuit 92, a power management circuit 93, and a switching regulator 94 (power supply means).

マイクロプロセッサ91は、遊技機用のセキュリティ機能付きマイクロプロセッサである。なお、本実施形態のマイクロプロセッサ91では、ソースプログラム上で規定可能な該マイクロプロセッサ91に特有の様々な命令コード(メインCPU101専用命令コード)が設けられている。本実施形態では、このメインCPU101専用命令コードを用いることにより、処理の効率化やプログラム容量の削減などを実現している。マイクロプロセッサ91の内部構成については、後述の図17を参照して詳述する。 The microprocessor 91 is a microprocessor with a security function for gaming machines. In the microprocessor 91 of the present embodiment, various instruction codes (instruction codes dedicated to the main CPU 101) specific to the microprocessor 91 that can be defined in a source program are provided. In the present embodiment, by using the instruction code dedicated to the main CPU 101, the processing efficiency and the program capacity are reduced. The internal configuration of the microprocessor 91 will be described in detail with reference to FIG.

クロックパルス発生回路92は、メインCPU作動用のクロックパルス信号を生成し、該生成したクロックパルス信号をマイクロプロセッサ91に出力する。マイクロプロセッサ91は、入力されたクロックパルス信号に基づいて、制御プログラムを実行する。 The clock pulse generation circuit 92 generates a clock pulse signal for operating the main CPU, and outputs the generated clock pulse signal to the microprocessor 91. The microprocessor 91 executes a control program based on the input clock pulse signal.

電源管理回路93は、電源基板53b(図15参照)から供給される直流12Vの電源電圧の変動を管理する。そして、電源管理回路93は、例えば、電源が投入された際(電源電圧が0Vから起動電圧値(10V)を上回った際)には、リセット信号をマイクロプロセッサ91の「XSRST」端子に出力し、電断が発生した際(電源電圧が12Vから停電電圧値(10.5V)を下回った際)には、電断検知信号をマイクロプロセッサ91の「XINT」端子に出力する。すなわち、電源管理回路93は、電源投入時に、マイクロプロセッサ91にリセット信号(起動信号)を出力する手段(起動手段)、及び、電断発生時に、マイクロプロセッサ91に電断検知信号(停電信号)を出力する手段(停電手段)も兼ねる。 The power supply management circuit 93 manages the fluctuation of the power supply voltage of DC 12V supplied from the power supply board 53b (see FIG. 15). Then, for example, when the power is turned on (when the power supply voltage exceeds the starting voltage value (10 V) from 0 V), the power management circuit 93 outputs a reset signal to the “XSRST” terminal of the microprocessor 91. When a power failure occurs (when the power supply voltage falls below the power failure voltage value (10.5 V) from 12 V), a power failure detection signal is output to the “XINT” terminal of the microprocessor 91. That is, the power management circuit 93 outputs a reset signal (start signal) to the microprocessor 91 when the power is turned on (start unit), and sends a power cut detection signal (power cut signal) to the microprocessor 91 when a power cut occurs. (Power failure means).

スイッチングレギュレータ94は、DC/DC変換回路であり、マイクロプロセッサ91の直流駆動電圧(直流5Vの電源電圧)を生成し、該生成した直流駆動電圧をマイクロプロセッサ91の「VCC」端子に出力する。 The switching regulator 94 is a DC / DC conversion circuit, generates a DC drive voltage (power supply voltage of 5 V DC) of the microprocessor 91, and outputs the generated DC drive voltage to a “VCC” terminal of the microprocessor 91.

<マイクロプロセッサ>
次に、図17を参照して、マイクロプロセッサ91の内部構成について説明する。図17は、マイクロプロセッサ91の内部構成を示すブロック図である。
<Microprocessor>
Next, an internal configuration of the microprocessor 91 will be described with reference to FIG. FIG. 17 is a block diagram showing the internal configuration of the microprocessor 91.

マイクロプロセッサ91は、メインCPU101と、メインROM102(第1記憶手段)と、メインRAM103(第2記憶手段)と、外部バスインターフェース104と、クロック回路105と、リセットコントローラ106と、演算回路107と、乱数回路110と、パラレルポート111と、割込みコントローラ112と、タイマ回路113と、第1シリアル通信回路114と、第2シリアル通信回路115と、を有する。そして、マイクロプロセッサ91を構成するこれらの各部は信号バス116を介して互いに接続されている。 The microprocessor 91 includes a main CPU 101, a main ROM 102 (first storage unit), a main RAM 103 (second storage unit), an external bus interface 104, a clock circuit 105, a reset controller 106, an arithmetic circuit 107, It has a random number circuit 110, a parallel port 111, an interrupt controller 112, a timer circuit 113, a first serial communication circuit 114, and a second serial communication circuit 115. These components constituting the microprocessor 91 are connected to each other via a signal bus 116.

メインCPU101は、クロック回路105で生成されたクロックパルスに基づいて、各種制御プログラムを実行して、遊技動作全般に係る制御を行う。ここで、メインCPU101の制御動作の一例としてリール停止制御について説明する。 The main CPU 101 executes various control programs based on the clock pulse generated by the clock circuit 105, and controls the entire game operation. Here, reel stop control will be described as an example of the control operation of the main CPU 101.

メインCPU101は、リールインデックスを検出してから各リール3L,3C,3L(メインリール)のステッピングモータに対してパルスを出力した回数をカウントする。これにより、メインCPU101は、各リールの回転角度(主に、リールが図柄何個分だけ回転したか)を管理する。なお、リールインデックスとは、リールが一回転したことを示す情報である。このリールインデックスは、例えば、発光部及び受光部を有する光センサと、各リールの所定の位置に設けられ、各メインリールの回転により発光部と受光部との間に介在される検知片とを備えたリール位置検出部(不図示)により検出される。 After detecting the reel index, the main CPU 101 counts the number of times a pulse is output to the stepping motor of each of the reels 3L, 3C, 3L (main reel). Thus, the main CPU 101 manages the rotation angle of each reel (mainly, how many symbols the reel has rotated). The reel index is information indicating that the reel has made one revolution. The reel index includes, for example, an optical sensor having a light emitting unit and a light receiving unit, and a detection piece provided at a predetermined position on each reel and interposed between the light emitting unit and the light receiving unit by rotation of each main reel. It is detected by a provided reel position detection unit (not shown).

ここで、各リール3L,3C,3L(メインリール)の回転角度の管理について、具体的に説明する。ステッピングモータに対して出力されたパルスの数は、メインRAM103に設けられたパルスカウンタによって計数される。そして、図柄1個分の回転に必要な所定回数のパルスの出力がパルスカウンタで計数される毎に、メインRAM103に設けられた図柄カウンタが1ずつ加算される。図柄カウンタは、各リールに応じて設けられている。図柄カウンタの値は、リール位置検出部(不図示)によってリールインデックスが検出されるとクリアされる。 Here, the management of the rotation angle of each of the reels 3L, 3C, 3L (main reel) will be specifically described. The number of pulses output to the stepping motor is counted by a pulse counter provided in the main RAM 103. The symbol counter provided in the main RAM 103 is incremented by one each time a pulse counter outputs a predetermined number of pulses required for rotation of one symbol. The symbol counter is provided for each reel. The value of the symbol counter is cleared when a reel index is detected by a reel position detector (not shown).

すなわち、本実施形態では、図柄カウンタを管理することにより、リールインデックスが検出されてから図柄何個分の回転が行われたのかを管理する。したがって、各リールの各図柄の位置は、リールインデックスが検出される位置を基準として検出される。 In other words, in the present embodiment, by managing the symbol counter, it is managed how many symbols have been rotated since the reel index was detected. Therefore, the position of each symbol on each reel is detected based on the position where the reel index is detected.

メインROM102には、メインCPU101により実行される各種制御プログラム、各種データテーブル、副制御回路150に対して各種制御指令(コマンド)を送信するためのデータ等が記憶される。メインRAM103には、制御プログラムの実行により決定された内部当籤役等の各種データを格納する格納領域が設けられる。 The main ROM 102 stores various control programs executed by the main CPU 101, various data tables, data for transmitting various control commands (commands) to the sub control circuit 150, and the like. The main RAM 103 is provided with a storage area for storing various data such as an internal winning combination determined by executing the control program.

外部バスインターフェース104は、マイクロプロセッサ91の外部に設けられた各種構成部(例えば、各リール等)が接続された外部信号バス(不図示)と、マイクロプロセッサ91とを電気的に接続するためのインターフェース回路である。クロック回路105は、例えば分周器(不図示)等を含んで構成され、クロックパルス発生回路92から入力されたCPU作動用のクロックパルス信号を、その他の構成部(例えば、タイマ回路113)で使用される周波数のクロックパルス信号に変換する。なお、クロック回路105で生成されたクロックパルス信号は、リセットコントローラ106にも出力される。 The external bus interface 104 is for electrically connecting the microprocessor 91 to an external signal bus (not shown) to which various components (for example, respective reels) provided outside the microprocessor 91 are connected. An interface circuit. The clock circuit 105 includes, for example, a frequency divider (not shown) and the like. The clock circuit 105 receives the clock pulse signal for operating the CPU, which is input from the clock pulse generation circuit 92, by another component (for example, the timer circuit 113). Convert to a clock pulse signal of the frequency used. Note that the clock pulse signal generated by the clock circuit 105 is also output to the reset controller 106.

リセットコントローラ106は、電源管理回路93から入力されたリセット信号に基づいて、IAT(Illegal Address Trap)やWDT(watchdog timer)のリセットを行う。演算回路107は、乗算回路及び除算回路を含んで構成される。例えば、ソースプログラム上において、乗算命令(「MUL」命令)を実行するときには、演算回路107がこの命令に基づく乗算処理を実行する。 The reset controller 106 resets an IAT (Illegal Address Trap) or a WDT (watchdog timer) based on a reset signal input from the power management circuit 93. The arithmetic circuit 107 includes a multiplication circuit and a division circuit. For example, when executing a multiplication instruction (“MUL” instruction) on the source program, the arithmetic circuit 107 executes a multiplication process based on this instruction.

乱数回路110は、予め定められた範囲の乱数(例えば、0〜65535又は0〜255)を発生させる。また、図示しないが、乱数回路110は、2バイトのハードラッチ乱数を得るための乱数レジスタ0と、2バイトのソフトラッチ乱数を得るための乱数レジスタ1〜3と、1バイトのソフトラッチ乱数を得るための乱数レジスタ4〜7とで構成されている。なお、メインCPU101は、乱数回路110で発生させた所定範囲の乱数の中から1つの値を、例えば内部抽籤用の乱数値として抽出する。パラレルポート111は、マイクロプロセッサ91と、マイクロプロセッサ91の外部に設けられた各種回路(例えば、電源管理回路93等)との間で入出力される信号のポート(メモリーマップI/O)である。また、パラレルポート111は、乱数回路110及び割込みコントローラ112にも接続される。スタートスイッチ79はパラレルポート111のPI0〜PI4のいずれかの入力ポートに接続され、スタートスイッチ79がオン状態になったタイミング(オンエッジ)で、パラレルポート111から乱数回路110の乱数レジスタ0へラッチ信号が出力される。そして、乱数回路110では、ラッチ信号が入力されることにより乱数レジスタ0がラッチされ、2バイトのハードラッチ乱数が取得される。 The random number circuit 110 generates a random number in a predetermined range (for example, 0 to 65535 or 0 to 255). Although not shown, the random number circuit 110 stores a random number register 0 for obtaining a 2-byte hard latch random number, random number registers 1 to 3 for obtaining a 2-byte soft latch random number, and a 1-byte soft latch random number. It comprises random number registers 4 to 7 for obtaining. The main CPU 101 extracts one value from random numbers in a predetermined range generated by the random number circuit 110, for example, as a random number value for internal lottery. The parallel port 111 is a port (memory map I / O) for signals input and output between the microprocessor 91 and various circuits (for example, the power management circuit 93) provided outside the microprocessor 91. . The parallel port 111 is also connected to a random number circuit 110 and an interrupt controller 112. The start switch 79 is connected to any one of the input ports PI0 to PI4 of the parallel port 111, and the latch signal is sent from the parallel port 111 to the random number register 0 of the random number circuit 110 at the timing when the start switch 79 is turned on (on edge). Is output. Then, in the random number circuit 110, the random number register 0 is latched by the input of the latch signal, and a 2-byte hard latch random number is obtained.

割込みコントローラ112は、パラレルポート111を介して電源管理回路93から入力される電断検知信号、又は、タイマ回路113から1.1172ms周期で入力されるタイムアウト信号に基づいて、メインCPU101による割込処理の実行タイミングを制御する。電源管理回路93から電断検知信号が入力された場合、又は、タイマ回路113からタイムアウト信号が入力された場合には、割込みコントローラ112は、割込処理開始指令を示す割込要求信号をメインCPU101に出力する。メインCPU101は、タイマ回路113からのタイムアウト信号に応じて割込みコントローラ112から入力される割込要求信号に基づいて、入力ポートチェック処理、リール制御処理、通信データ送信処理、7セグLED駆動処理、タイマ更新処理等の各種割込処理を行う。 The interrupt controller 112 performs an interrupt process by the main CPU 101 based on a power failure detection signal input from the power management circuit 93 via the parallel port 111 or a timeout signal input at a period of 1.1172 ms from the timer circuit 113. Control the execution timing. When a power interruption detection signal is input from the power management circuit 93 or a time-out signal is input from the timer circuit 113, the interrupt controller 112 sends an interrupt request signal indicating an interrupt processing start command to the main CPU 101. Output to The main CPU 101 performs an input port check process, a reel control process, a communication data transmission process, a 7-segment LED drive process, a timer, based on an interrupt request signal input from the interrupt controller 112 in response to a timeout signal from the timer circuit 113. Various interrupt processing such as update processing is performed.

タイマ回路113(PTC)は、クロック回路105で生成されたクロックパルス信号(メインCPU作動用のクロックパルス信号を分周器(不図示)で分周された周波数のクロックパルス信号)で動作する(経過時間をカウントする)。そして、タイマ回路113は、1.1172msecの周期で割込みコントローラ112にタイムアウト信号(トリガー信号)を出力する。 The timer circuit 113 (PTC) operates with a clock pulse signal generated by the clock circuit 105 (a clock pulse signal having a frequency obtained by dividing the clock pulse signal for operating the main CPU by a frequency divider (not shown)) ( Count elapsed time). Then, the timer circuit 113 outputs a time-out signal (trigger signal) to the interrupt controller 112 at a period of 1.1172 msec.

第1シリアル通信回路114は、主制御基板71から副制御基板72にデータ(各種制御指令(コマンド))を送信する際のシリアル送信動作を制御する回路である。第2シリアル通信回路115は、主制御基板71から試験機用第2インターフェースボード402にデータを送信する際のシリアル送信動作を制御する回路である。 The first serial communication circuit 114 is a circuit that controls a serial transmission operation when transmitting data (various control commands (commands)) from the main control board 71 to the sub control board 72. The second serial communication circuit 115 is a circuit that controls a serial transmission operation when data is transmitted from the main control board 71 to the second interface board for a tester 402.

<副制御回路> <Sub-control circuit>

[副制御回路の構成]
次に、図18を参照して、副制御基板72に実装される副制御回路150(副制御手段)の構成について説明する。図18は、パチスロ1の副制御回路150の構成例を示すブロック図である。
[Configuration of sub-control circuit]
Next, the configuration of the sub-control circuit 150 (sub-control unit) mounted on the sub-control board 72 will be described with reference to FIG. FIG. 18 is a block diagram illustrating a configuration example of the sub-control circuit 150 of the pachislo 1.

副制御回路150は、主制御回路90と電気的に接続されており、主制御回路90から送信されるコマンドに基づいて演出内容の決定や実行等の処理を行う。副制御回路150は、基本的に、サブCPU151、サブRAM152、GPU(Graphics Processing Unit)153、VRAM(Video RAM)154、ドライバ155、サウンドチップ157、及びデジタルアンプ158を含んで構成される。なお、VRAM154(描画用RAM)には、後述のフレームバッファ及びスクリーンバッファが含まれる。なお、サブCPU151は、本発明に係る制御処理部の一具体例を示すものであり、GPU153は、本発明に係る画像処理部の一具体例を示すものであり、VRAM154は、揮発性記憶部の一具体例を示すものである。 The sub-control circuit 150 is electrically connected to the main control circuit 90, and performs processing such as determination and execution of effect contents based on a command transmitted from the main control circuit 90. The sub control circuit 150 basically includes a sub CPU 151, a sub RAM 152, a GPU (Graphics Processing Unit) 153, a VRAM (Video RAM) 154, a driver 155, a sound chip 157, and a digital amplifier 158. Note that the VRAM 154 (rendering RAM) includes a frame buffer and a screen buffer described later. The sub CPU 151 is a specific example of a control processing unit according to the present invention, the GPU 153 is a specific example of an image processing unit according to the present invention, and the VRAM 154 is a volatile storage unit. 1 shows a specific example.

サブCPU151は、ロムカートリッジ基板86に接続される。また、ドライバ155は、表示装置中継基板87に接続される。すなわち、ドライバ155は、表示装置中継基板87を介してプロジェクタ213及びサブ表示装置18に接続される。 The sub CPU 151 is connected to the ROM cartridge substrate 86. The driver 155 is connected to the display device relay board 87. That is, the driver 155 is connected to the projector 213 and the sub-display device 18 via the display device relay board 87.

サブCPU151は、主制御回路90から送信されたコマンドに応じて、ロムカートリッジ基板86に記憶されている制御プログラムに従い、映像、音、光の出力の制御を行う。ロムカートリッジ基板86は、基本的に、プログラム記憶領域とデータ記憶領域とによって構成される。 The sub CPU 151 controls output of video, sound, and light in accordance with a control program stored in the ROM cartridge substrate 86 in response to a command transmitted from the main control circuit 90. The ROM cartridge substrate 86 basically includes a program storage area and a data storage area.

プログラム記憶領域には、サブCPU151が実行する制御プログラムが記憶される。例えば、制御プログラムには、主制御回路90との通信を制御するための主基板通信タスクや、演出用の乱数値を抽出し、演出内容(演出データ)の決定及び登録を行うための演出登録タスクを実行するための各種プログラムが含まれる。また、制御プログラムには、決定した演出内容に基づいて表示装置11による映像の表示を制御する描画制御タスク、LED群85等の光源による光の出力を制御するランプ制御タスク、スピーカ群84による音の出力を制御する音声制御タスク等を実行するための各種プログラムも含まれる。 A control program executed by the sub CPU 151 is stored in the program storage area. For example, the control program includes a main board communication task for controlling communication with the main control circuit 90 and an effect registration for extracting a random number value for effect, determining and registering effect contents (effect data). Various programs for executing tasks are included. Further, the control program includes a drawing control task for controlling display of an image on the display device 11 based on the determined effect contents, a lamp control task for controlling light output by a light source such as the LED group 85, and a sound from the speaker group 84. Various programs for executing a voice control task or the like for controlling the output of the program are also included.

データ記憶領域には、各種データテーブルを記憶する記憶領域、各演出内容を構成する演出データを記憶する記憶領域、映像の作成に関するアニメーションデータ(後述の画像データ及び仮想オブジェクトデータ等を含む)を記憶する記憶領域が含まれる。また、データ記憶領域には、BGMや効果音に関するサウンドデータを記憶する記憶領域、光の点消灯のパターンに関するランプデータを記憶する記憶領域等も含まれる。 In the data storage area, a storage area for storing various data tables, a storage area for storing effect data constituting each effect content, and animation data (including image data and virtual object data to be described later) related to video creation are stored. Storage area. Further, the data storage area includes a storage area for storing sound data related to BGM and sound effects, a storage area for storing lamp data related to a light on / off pattern, and the like.

サブRAM152には、決定された演出内容や演出データを登録する格納領域や、主制御回路90から送信されるサブフラグ(内部当籤役)等の各種データを格納する格納領域が設けられる。 The sub RAM 152 is provided with a storage area for registering the determined effect contents and effect data, and a storage area for storing various data such as a sub flag (internal winning combination) transmitted from the main control circuit 90.

サブCPU151、GPU153(レンダリングプロセッサ)、VRAM154及びドライバ155は、演出内容により指定されたアニメーションデータに従って映像を作成し、作成した映像を表示装置11(プロジェクタ213)及び/又はサブ表示装置18で表示させる。なお、表示装置11(プロジェクタ213)及びサブ表示装置18は、副制御基板72により、それぞれ個別に制御される。 The sub CPU 151, the GPU 153 (rendering processor), the VRAM 154, and the driver 155 create a video in accordance with the animation data specified by the effect contents, and display the created video on the display device 11 (the projector 213) and / or the sub display device 18. . The display device 11 (projector 213) and the sub-display device 18 are individually controlled by the sub-control board 72.

また、サブCPU151は、サウンドチップ157及びデジタルアンプ158と協動して、演出内容により指定されたサウンドデータに従ってBGMなどの音を、サウンドチップ157及びデジタルアンプ158を介して接続されるスピーカ群84により出力させる。また、サブCPU151は、演出内容により指定されたランプデータに従ってLED群85の点灯及び消灯を制御する。 In addition, the sub CPU 151 cooperates with the sound chip 157 and the digital amplifier 158 to output a sound such as BGM according to the sound data specified by the contents of the effect, through the sound chip 157 and the digital amplifier 158. Output. Further, the sub CPU 151 controls turning on and off of the LED group 85 according to the lamp data specified by the effect contents.

[演出登録タスク]
本実施形態のパチスロ1では、主制御回路90から送信されたコマンドデータを副制御回路150で受信した際に、副制御回路150は、受信したコマンドデータに基づいて、該コマンドデータの種別に対応する演出を決定し、表示装置11(プロジェクタ213)、サブ表示装置18、スピーカ群84、LED群85を駆動して演出制御を行う。
[Direction registration task]
In the pachislo 1 of the present embodiment, when the sub-control circuit 150 receives the command data transmitted from the main control circuit 90, the sub-control circuit 150 responds to the type of the command data based on the received command data. Then, the display device 11 (projector 213), the sub-display device 18, the speaker group 84, and the LED group 85 are driven to perform the effect control.

ここで、図19を参照して、副制御回路150(サブCPU151)により実行される、コマンドデータの種別に対応する演出の決定タスク(演出登録タスク)について説明する。なお、図19は、本実施形態における演出登録タスクの処理手順を示すフローチャートである。 Here, with reference to FIG. 19, the effect determination task (effect registration task) corresponding to the type of command data, which is executed by the sub control circuit 150 (sub CPU 151), will be described. FIG. 19 is a flowchart showing the processing procedure of the effect registration task in the present embodiment.

まず、サブCPU151は、メッセージキューからメッセージを取り出す(S1)。次いで、サブCPU151は、メッセージキューにメッセージが有るか否かを判別する(S2)。S2において、サブCPU151が、メッセージキューにメッセージが無いと判別したとき(S2がNO判定の場合)、サブCPU151は、後述のS5の処理を行う。 First, the sub CPU 151 extracts a message from the message queue (S1). Next, the sub CPU 151 determines whether there is a message in the message queue (S2). In S2, when the sub CPU 151 determines that there is no message in the message queue (when S2 is NO), the sub CPU 151 performs the process of S5 described later.

一方、S2において、サブCPU151が、メッセージキューにメッセージが有ると判別したとき(S2がYES判定の場合)、サブCPU151は、メッセージから遊技情報を複写する(S3)。この処理では、例えば、パラメータによって特定される、内部当籤役に関する情報(メイン抽籤フラグ等)、回転が停止したリールの種別、表示役、遊技状態フラグ等の各種データがサブRAM152に設けられた格納領域(不図示)に複写される。 On the other hand, in S2, when the sub CPU 151 determines that there is a message in the message queue (YES in S2), the sub CPU 151 copies game information from the message (S3). In this process, for example, various data such as information on the internal winning combination (main lottery flag and the like) specified by the parameter, the type of the reel stopped rotating, the display combination, and the game state flag are stored in the sub RAM 152. Copied to an area (not shown).

次いで、サブCPU151は、演出内容決定処理を行う(S4)。この処理では、サブCPU151は、受信したコマンドの種別に応じて、演出内容の決定や演出データの登録等を行う。 Next, the sub CPU 151 performs an effect content determination process (S4). In this processing, the sub CPU 151 determines the contents of the effect, registers the effect data, and the like according to the type of the received command.

S4の処理後又はS2がNO判定の場合、サブCPU151は、アニメーションデータの生成及び登録処理を行う(S5)。なお、アニメーションデータの生成及び登録処理は、S4の演出内容決定処理において登録された演出データ(演出内容)に基づいて行われる。本実施形態では、この処理の中で、各種被投影部材に投影される映像光の画像データの作成処理を行う。なお、各種被投影部材に投影される映像光の画像データ(後述のPJ対応画像データ)の作成処理については、後で詳述する。また、本実施形態では、S5の処理中に各種被投影部材に投影される映像光の画像データ(プロジェクタ213から出射される映像光に対応する映像信号)を生成する例を説明するが、本発明はこれに限定されず、例えば、S4の演出内容決定処理の中で実行してもよいし、アニメーションデータの生成処理と登録処理とを別個に実施してもよい。 After the processing in S4 or when the determination in S2 is NO, the sub CPU 151 performs the generation and registration processing of the animation data (S5). Note that the generation and registration processing of the animation data is performed based on the effect data (effect contents) registered in the effect content determination process in S4. In the present embodiment, in this process, a process of creating image data of video light projected on various projected members is performed. The process of creating image data of image light (PJ-compatible image data to be described later) projected onto various projection members will be described later in detail. Further, in the present embodiment, an example will be described in which image data (a video signal corresponding to the video light emitted from the projector 213) of the video light to be projected on various projection target members during the processing of S5 is described. The invention is not limited to this. For example, the invention may be executed in the effect content determination processing in S4, or the animation data generation processing and the registration processing may be performed separately.

次いで、サブCPU151は、サウンドデータの登録処理を行う(S6)。次いで、サブCPU151は、ランプデータの登録を行う(S7)。なお、これらの登録処理は、S4の演出内容決定処理において登録された演出データ(演出内容)に基づいて行われる。そして、S7の処理後、サブCPU151は、処理をS1に戻し、S1以降の処理を繰り返す。 Next, the sub CPU 151 performs a sound data registration process (S6). Next, the sub CPU 151 registers the lamp data (S7). Note that these registration processes are performed based on the effect data (effect contents) registered in the effect content determination process in S4. Then, after the processing in S7, the sub CPU 151 returns the processing to S1, and repeats the processing from S1.

<画像データの作成手法>
次に、本実施形態のパチスロ1で実行される各種演出において、各種被投影部材(台形部材302、擬似リール部材303及び平面スクリーン部材304)の投影面に投影される映像光の画像データ(プロジェクタ213から出射される映像光に対応する映像信号)の作成手法について説明する。
<Image data creation method>
Next, in various effects performed in the pachislo 1 of the present embodiment, image data of image light (projector) projected on the projection surface of various projection target members (trapezoidal member 302, pseudo reel member 303, and flat screen member 304). A method for creating a video signal corresponding to the video light emitted from the 213 will be described.

[画像データの作成手法の概要]
図20A及び20Bを参照して、各種被投影部材に投影される映像光の画像データの作成手法の概要を説明する。なお、図20Aは、画像データの作成処理における画像データの変換過程を示す図であり、図20Bは、画像データの変換過程において実行される主な処理のフローを示す図である。
[Overview of Image Data Creation Method]
With reference to FIGS. 20A and 20B, an outline of a method for creating image data of video light projected onto various projection target members will be described. FIG. 20A is a diagram illustrating a process of converting image data in the process of creating image data, and FIG. 20B is a diagram illustrating a flow of a main process executed in the process of converting image data.

本実施形態における、各種被投影部材に投影される映像光の画像データ(後述のPJ対応画像データ)の作成手法では、図20Bに示すように、リソース画像・オブジェクト合成処理、視点変更画像データ取得・設定処理及びSB画像データ設定処理がこの順で実行される。以下、各処理の内容を説明する。 According to the method of creating image data (PJ-compatible image data to be described later) of video light projected onto various projection members according to the present embodiment, as shown in FIG. 20B, resource image / object combining processing, viewpoint change image data acquisition The setting process and the SB image data setting process are executed in this order. Hereinafter, the contents of each process will be described.

(1)リソース画像・オブジェクト合成処理
リソース画像・オブジェクト合成処理では、まず、ロムカートリッジ基板86に格納された投影対象となる被投影部材(台形部材302、擬似リール部材303、平面スクリーン部材304)の仮想オブジェクトデータ(3次元データ)が選択(取得)される。なお、仮想オブジェクトデータは、例えば、被投影部材の3次元CADデータから生成(変換)されたデータであり、被投影部材の3次元構造(座標)を示すデータである。なお、仮想オブジェクトデータは、本発明に係る表示部に画像を表示するための情報の一具体例を示すものである。
(1) Resource Image / Object Synthesizing Process In the resource image / object synthesizing process, first, the projection target members (the trapezoidal member 302, the pseudo reel member 303, and the flat screen member 304) stored in the ROM cartridge substrate 86 to be projected. Virtual object data (three-dimensional data) is selected (acquired). The virtual object data is, for example, data generated (converted) from the three-dimensional CAD data of the projection target member, and is data indicating the three-dimensional structure (coordinates) of the projection target member. The virtual object data indicates a specific example of information for displaying an image on the display unit according to the present invention.

また、リソース画像・オブジェクト合成処理では、被投影部材に投影する画像データのリソース画像データ(2次元データ)が、ロムカートリッジ基板86から選択(取得)される。なお、リソース画像データは、本発明に係る原画像データの一具体例を示すものである。 In the resource image / object synthesizing process, resource image data (two-dimensional data) of image data to be projected on the projection target member is selected (acquired) from the ROM cartridge substrate 86. The resource image data is a specific example of the original image data according to the present invention.

仮想オブジェクトデータ及びリソース画像データの選択処理は、サブCPU151により制御され、サブCPU151は、ロムカートリッジ基板86に格納されている複数種の画像データ及び複数種の仮想オブジェクトデータの中から、決定されている演出内容に対応するリソース画像データ及び仮想オブジェクトデータをそれぞれ選択する。また、選択されたリソース画像データ及び仮想オブジェクトデータは、VRAM154内において、後述のフレームバッファ(FB)及びスクリーンバッファ(SB)以外のバッファ領域(仮想バッファ)に展開される。なお、仮想バッファは、本発明に係る第1のバッファの一具体例を示すものであり、フレームバッファは、本発明に係る第2のバッファ(所定のバッファ)の一具体例を示すものであり、スクリーンバッファは、本発明に係る第3のバッファ(特定のバッファ)の一具体例を示すものである。 The selection processing of the virtual object data and the resource image data is controlled by the sub CPU 151, and the sub CPU 151 is determined from the plurality of types of image data and the plurality of types of virtual object data stored in the ROM cartridge 86. The resource image data and the virtual object data corresponding to the effect contents are selected. Further, the selected resource image data and virtual object data are developed in the VRAM 154 in a buffer area (virtual buffer) other than a frame buffer (FB) and a screen buffer (SB), which will be described later. Note that the virtual buffer is a specific example of the first buffer according to the present invention, and the frame buffer is a specific example of the second buffer (predetermined buffer) according to the present invention. The screen buffer is a specific example of the third buffer (specific buffer) according to the present invention.

次いで、サブ側の演算処理上の仮想空間(VRAM154)において、選択された仮想オブジェクトを配置する。具体的には、選択された仮想オブジェクトデータをVRAM154上に展開する。次いで、仮想空間上において、遊技者側から仮想オブジェクトに向かう方向(以下、「遊技者の目線方向」と称す:実際の遊技機では、表示装置カバー30及び表示装置11(図2、図3参照)と対向する遊技者側の位置からの方向)に、選択したリソース画像データの映像光が仮想オブジェクトの投影面に仮想的(擬似的)に照射(投影)された場合に、仮想オブジェクトの投影面に投影される(映し出される)画像の画像データ(以下、「仮想投影画像データ」と称す)を演算処理により算出(生成)する。この仮想投影画像データは、GPU153が仮想オブジェクトデータ及びリソース画像データに対して3次元CG処理(3次元座標計算等を含む)を施して両データを合成することにより生成される。この合成演算処理は、従来の3次元画像プログラミング等で使用されているアルゴリズムを用いて実行することができる。なお、仮想投影画像データは、本発明に係る第1の視点画像(所定の視点画像)のデータの一具体例を示すものであり、遊技者の目線方向は、本発明に係る第1の方向(所定の方向)の一具体例を示すものである。 Next, the selected virtual object is arranged in the virtual space (VRAM 154) in the sub-processing. Specifically, the selected virtual object data is developed on the VRAM 154. Next, in the virtual space, a direction from the player side to the virtual object (hereinafter referred to as “the player's eye direction”): In an actual gaming machine, the display device cover 30 and the display device 11 (see FIGS. 2 and 3) ), The video light of the selected resource image data is virtually (pseudo) illuminated (projected) on the projection surface of the virtual object in the direction from the position on the player side facing the virtual object). Image data (hereinafter, referred to as “virtual projected image data”) of an image projected (projected) on a surface is calculated (generated) by arithmetic processing. This virtual projection image data is generated by the GPU 153 performing three-dimensional CG processing (including three-dimensional coordinate calculation) on the virtual object data and the resource image data to combine the two data. This combining operation can be performed using an algorithm used in conventional three-dimensional image programming or the like. The virtual projection image data indicates a specific example of data of the first viewpoint image (predetermined viewpoint image) according to the present invention, and the line of sight of the player is the first direction according to the present invention. It shows a specific example of (predetermined direction).

なお、上述した仮想オブジェクトデータ及びリソース画像データの取得(展開)処理から両データの合成処理(仮想投影画像データの生成処理)までの一連の処理は、図20Bに示すリソース画像・オブジェクト合成処理で行われ、この処理は、サブCPU151の指令に基づいて、GPU153により実行される。また、このリソース画像・オブジェクト合成処理は、VRAM154上で行われる。 A series of processes from the above-described process of acquiring (developing) the virtual object data and the resource image data to the process of synthesizing both data (the process of generating virtual projection image data) is a resource image / object combining process shown in FIG. 20B. This processing is performed by the GPU 153 based on a command from the sub CPU 151. This resource image / object synthesis processing is performed on the VRAM 154.

GPU153により3次元空間座標を有する仮想オブジェクトデータと2次元空間座標を有するリソース画像データとを合成する際、リソース画像データの2次元座標を3次元座標に変換するが、この変換処理では、例えば、リソース画像データの全ての座標に対して順次、座標変換処理を施してもよいし、全座標数のうちの所定の基準数(例えば、全座標数のうちの半分等)の座標に対して座標変換処理を施してもよい。なお、後者の手法を採用する場合、例えば、1以上の座標を間に挟む所定の間隔で配置された座標に対して座標変換処理を施す。そして、座標変換処理が施された座標間に位置する座標の値は、例えば線形補間等の処理により算出される。また、後者の手法を採用する場合には、変換の基準数(座標数)を、GPU153の処理性能に応じた数(変換量)に設定することが望ましい。なお、GPU153の処理性能は、GPU153の処理速度と、GPU153が内包するコアの数(一般的なGPUのコア数は64〜2048程度である)とに応じて決定され、GPU153の処理性能が低い場合には、変換の基準数(座標数)を小さくし、GPU153の処理性能が十分高い低い場合には、変換の基準数(座標数)を大きくする。 When the GPU 153 combines virtual object data having three-dimensional space coordinates and resource image data having two-dimensional space coordinates, the two-dimensional coordinates of the resource image data are converted into three-dimensional coordinates. In this conversion process, for example, All the coordinates of the resource image data may be sequentially subjected to a coordinate conversion process, or a predetermined reference number (for example, half of the total number of coordinates) of the total number of coordinates may be subjected to coordinate conversion. Conversion processing may be performed. When the latter method is adopted, for example, coordinate conversion processing is performed on coordinates arranged at predetermined intervals sandwiching one or more coordinates. Then, the values of the coordinates located between the coordinates subjected to the coordinate conversion processing are calculated by processing such as linear interpolation. When the latter method is adopted, it is desirable to set the reference number of conversion (the number of coordinates) to a number (the amount of conversion) according to the processing performance of the GPU 153. The processing performance of the GPU 153 is determined according to the processing speed of the GPU 153 and the number of cores included in the GPU 153 (the number of cores of a general GPU is about 64 to 2048), and the processing performance of the GPU 153 is low. In such a case, the reference number (coordinate number) of the conversion is reduced, and when the processing performance of the GPU 153 is sufficiently low, the reference number (coordinate number) of the conversion is increased.

上述のように、本実施形態の仮想投影画像データの生成処理(リソース画像データと仮想オブジェクトデータとの合成処理)では、リソース画像内の所定数(全座標数又は所定の基準数)の2次元座標を、3次元CG処理により、直接、3次元座標に変換するので、例えば、仮想オブジェクト302pの4つの投影面321p,322p,323p,324p間の各境界部分(例えば、投影面322pの下辺部分と、投影面321pの上辺部分との間の境界部分等)における画像の歪みを最小限に抑えることができる。 As described above, in the process of generating virtual projection image data (the process of synthesizing resource image data and virtual object data) according to the present embodiment, a two-dimensional predetermined number (the total number of coordinates or a predetermined reference number) in the resource image is used. Since the coordinates are directly converted into three-dimensional coordinates by three-dimensional CG processing, for example, each boundary portion between the four projection surfaces 321p, 322p, 323p, and 324p of the virtual object 302p (for example, a lower side portion of the projection surface 322p) And the upper portion of the projection plane 321p) can minimize image distortion.

なお、本実施形態では、仮想オブジェクトデータ及びリソース画像データをロムカートリッジ基板86から選択して取得し、該取得した両データをVRAM154上で合成する例を説明したが、本発明はこれに限定されない。例えば、まず、複数種の仮想オブジェクトデータ及び複数種のリソース画像データをロムカートリッジ基板86からVRAM154上の上述した仮想バッファ、フレームバッファ及びスクリーンバッファ以外の領域にローディングする(読み出する)。そして、ローディングされた複数種の仮想オブジェクトデータ及び複数種のリソース画像データの中から、所定の仮想オブジェクトデータ及び所定のリソース画像データを選択し、その後、該選択された両データを本実施形態と同様にして、仮想バッファ、フレームバッファ及びスクリーンバッファに展開して合成してもよい。また、この場合、ロムカートリッジ基板86に格納されている複数種のリソース画像データのうち、例えば、遊技状態や演出状態などに基づいて、対応する演出グループに属する複数のリソース画像データのみをローディングしてもよい。 In the present embodiment, an example has been described in which virtual object data and resource image data are selected and obtained from the ROM cartridge substrate 86, and the obtained data is combined on the VRAM 154. However, the present invention is not limited to this. . For example, first, a plurality of types of virtual object data and a plurality of types of resource image data are loaded (read) from the ROM cartridge substrate 86 to an area other than the above-described virtual buffer, frame buffer, and screen buffer on the VRAM 154. Then, a predetermined virtual object data and a predetermined resource image data are selected from among the plurality of types of loaded virtual object data and the plurality of types of resource image data. Similarly, it may be developed into a virtual buffer, a frame buffer, and a screen buffer and synthesized. Further, in this case, of the plurality of types of resource image data stored in the ROM cartridge substrate 86, only a plurality of resource image data belonging to a corresponding effect group are loaded based on, for example, a game state or an effect state. May be.

(2)視点変更画像データ取得・設定処理
視点変更画像データ取得・設定処理では、まず、仮想空間上で仮想オブジェクトの投影面に対して遊技者の目線方向からリソース画像データの映像光(投影光)が仮想投影された状態(仮想投影画像データが生成された状態)において、被投影部材の投影面に実際に入射される映像光の入射方向(以下、「実際の映像光の入射方向」と称す)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的(擬似的)に撮影したときの画像データ(以下、「仮想撮影画像データ」と称す)を演算処理により生成する。すなわち、仮想オブジェクトの投影面に対して遊技者の目線方向からリソース画像データの映像光が仮想投影された状態において、視点を変更して、仮想オブジェクトの投影面に仮想投影された画像のデータを算出する。なお、仮想撮影画像データは、本発明に係る第2の視点画像のデータの一具体例を示すものであり、実際の映像光の入射方向は、本発明に係る第2の方向の一具体例を示すものである。
(2) Viewpoint Change Image Data Acquisition / Setting Process In the viewpoint change image data acquisition / setting process, first, the image light (projection light) of the resource image data from the direction of the player's line of sight to the projection plane of the virtual object in the virtual space ) Is virtually projected (a state in which virtual projection image data is generated), the incident direction of the image light actually incident on the projection surface of the projection target member (hereinafter referred to as “the actual incident direction of the image light”). ), Image data (hereinafter, referred to as “virtual photographed image data”) when a virtual projection image projected on the projection plane of the virtual object is photographed virtually (pseudo) is generated by arithmetic processing. That is, in a state where the image light of the resource image data is virtually projected from the player's line of sight to the projection plane of the virtual object, the viewpoint is changed and the data of the image virtually projected on the projection plane of the virtual object is changed. calculate. The virtual captured image data indicates a specific example of the data of the second viewpoint image according to the present invention, and the actual incident direction of the video light is a specific example of the second direction according to the present invention. It is shown.

この仮想撮影処理では、まず、仮想空間において仮想オブジェクトに対する実際の映像光の入射方向が設定(セット)される。本実施形態では、実際の映像光の入射方向として、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に入射される映像光の入射方向、すなわち、反射ミラー237から被投影部材の投影面に向かう方向が設定される。 In this virtual photographing process, first, the incident direction of the actual image light on the virtual object in the virtual space is set (set). In the present embodiment, as the actual incident direction of the image light, the incident direction of the image light incident on the projection surface of the projection target member from the projector 213 via the reflection mirror 237, that is, the projection direction of the projection target member from the reflection mirror 237 A direction toward the surface is set.

次いで、GPU153の3次元CG処理(実際の映像光の入射方向(仮想カメラの位置)からの座標計算等を含む)により、仮想オブジェクトの投影面に投影された仮想投影画像を、実際の映像光の入射方向側から仮想的に撮影した場合に得られる仮想撮像画像に変換する(VRAM154上に展開された仮想投影画像データを仮想撮像画像データに変換する)。なお、この仮想撮影画像データの生成処理(仮想投影画像データから仮想撮像画像データへの変換処理)は、従来の3次元画像プログラミング等で使用されているアルゴリズムを用いて実行することができる。 Next, the virtual projection image projected on the projection surface of the virtual object is converted into the actual video light by the three-dimensional CG processing (including the coordinate calculation from the incident direction (the position of the virtual camera) of the actual video light) of the GPU 153. Is converted to a virtual captured image obtained when the virtual image is captured from the incident direction side (the virtual projected image data developed on the VRAM 154 is converted to the virtual captured image data). The process of generating the virtual captured image data (the process of converting the virtual projected image data to the virtual captured image data) can be executed using an algorithm used in conventional three-dimensional image programming or the like.

なお、本実施形態では、上述した仮想撮像画像データ生成時の視点変更処理及び仮想撮影画像データの生成処理は、図20Bに示す視点変更画像データ取得・設定処理で行われ、この処理は、サブCPU151の指令に基づいて、GPU153により実行される。また、この視点変更画像データ取得・設定処理は、VRAM154上で行われる。 In the present embodiment, the viewpoint change processing and the virtual captured image data generation processing at the time of generating the virtual captured image data described above are performed in the viewpoint changed image data acquisition / setting processing illustrated in FIG. 20B. The processing is executed by the GPU 153 based on a command from the CPU 151. This viewpoint change image data acquisition / setting processing is performed on the VRAM 154.

ここで、図21に、仮想空間において、被投影部材の仮想オブジェクトの投影面に対して遊技者の目線方向から、リソース画像の映像光を仮想投影した場合の様子、及び、実際の映像光の入射方向から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影した場合の様子を示す。また、図22に、仮想空間上におけるリソース画像の仮想投影動作により生成される仮想投影画像の一具体例を示す。なお、図21及び図22では、映像光の投影対象の被投影部材が台形部材302である場合の例を示す。 Here, FIG. 21 shows a state in which the image light of the resource image is virtually projected from the player's line of sight to the projection plane of the virtual object of the projection target member in the virtual space, and the actual image light 5 shows a state in which a virtual projection image projected on a projection surface of a virtual object is virtually shot from the incident direction. FIG. 22 shows a specific example of the virtual projection image generated by the virtual projection operation of the resource image in the virtual space. FIGS. 21 and 22 show an example in which the projection target member to which the image light is projected is the trapezoidal member 302.

仮想空間上に配置された台形部材302の仮想オブジェクト302pに対して遊技者の目線方向(図21中の矢印A2方向)からリソース画像データの映像光を仮想投影すると、図21に示すように、仮想オブジェクト302pの4つの投影面321p,322p,323p,324pのそれぞれにリソース画像が仮想的に映し出された状態となり、仮想投影画像が生成される。この結果、リソース画像は、図22に示すように、台形部材302の投影面の形状が反映された奥行きのある3次元的な画像(仮想投影画像)に変換される。この仮想投影画像は、実空間において、遊技者側から台形部材302の投影面を見た場合に視認される実際の画像と同様の画像となる。なお、この際、映像光の投影対象が台形部材302や擬似リール部材303である場合には、その投影面の形状が3次元形状であるので、奥行きのある3次元的な仮想投影画像が得られるが、映像光の投影対象が平面スクリーン部材304である場合には、平面的な仮想投影画像が得られる。 When the image light of the resource image data is virtually projected onto the virtual object 302p of the trapezoidal member 302 arranged in the virtual space from the player's line of sight (the direction of arrow A2 in FIG. 21), as shown in FIG. A resource image is virtually projected on each of the four projection planes 321p, 322p, 323p, and 324p of the virtual object 302p, and a virtual projection image is generated. As a result, the resource image is converted into a three-dimensional image (virtual projection image) having a depth reflecting the shape of the projection surface of the trapezoidal member 302 as shown in FIG. The virtual projection image is an image similar to an actual image visually recognized when the projection surface of the trapezoid member 302 is viewed from the player side in the real space. At this time, when the projection target of the image light is the trapezoidal member 302 or the pseudo reel member 303, since the shape of the projection surface is a three-dimensional shape, a three-dimensional virtual projection image with depth is obtained. However, when the projection target of the image light is the flat screen member 304, a planar virtual projection image is obtained.

そして、台形部材302の仮想オブジェクト302pの4つの投影面321p,322p,323p,324pのそれぞれにリソース画像が仮想的に映し出された状態において、実際の映像光の入射方向(図21中の矢印A1方向)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影すると、仮想投影画像が矢印A1方向からの仮想撮影画像に変換される。 Then, in a state where the resource image is virtually projected on each of the four projection surfaces 321p, 322p, 323p, and 324p of the virtual object 302p of the trapezoidal member 302, the incident direction of the actual video light (arrow A1 in FIG. 21) Direction), when the virtual projection image projected on the projection surface of the virtual object is virtually photographed, the virtual projection image is converted into a virtual photographed image from the arrow A1 direction.

上述のように生成された仮想撮影画像に対応する映像光(投影光)を、実際に、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に投影した場合、実際の映像光の入射方向(反射ミラー237側)から被投影部材の投影面を見ると、該投影面に映し出されている画像は、仮想空間上で生成された仮想撮影画像と同様の画像になる。そして、この状況において、遊技者側から台形部材302の投影面を見た場合に見える実際の画像は、仮想空間上で生成された仮想投影画像と同様の画像になる。すなわち、仮想撮影画像データに対応する映像光(投影光)を、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に実際に投影すると、遊技者側からは、被投影部材の投影面の形状が反映された仮想投影画像と同様の投影画像(奥行きのある3次元画像)を見ることができる。 When the image light (projection light) corresponding to the virtual photographed image generated as described above is actually projected from the projector 213 to the projection surface of the projection target member via the reflection mirror 237, the actual image light is incident. When the projection surface of the projection target member is viewed from the direction (the side of the reflection mirror 237), the image projected on the projection surface becomes an image similar to the virtual photographed image generated in the virtual space. Then, in this situation, the actual image seen when the projection surface of the trapezoidal member 302 is viewed from the player side is an image similar to the virtual projection image generated in the virtual space. That is, when the image light (projection light) corresponding to the virtual photographed image data is actually projected from the projector 213 to the projection surface of the projection target member via the reflection mirror 237, the player side will project the projection surface of the projection target member. A projection image (three-dimensional image with depth) similar to the virtual projection image in which the shape of the image is reflected can be seen.

なお、本実施形態において、上述したリソース画像データから仮想撮影画像データまでの一連の画像データ変換処理では、被投影部材の投影面のサイズ(スクリーンサイズ)に対応する画像データでなく、被投影部材の投影面のサイズの2倍のサイズの画像データが処理対象の画像データとして用いられる。 In the present embodiment, in the above-described series of image data conversion processing from the resource image data to the virtual photographed image data, the image data corresponding to the size (screen size) of the projection surface of the projection target member is not used. Is used as the image data to be processed.

具体的には、処理対象の画像データとして、被投影部材の投影面に投影される画像(投影対象画像)の画像データの上端部に投影面のサイズと同じサイズのダミー画像データを付加した画像データ(仮想空間上において画像の高さ(上下)方向のサイズが投影対象画像のそれの2倍となる画像データ)を用いる。すなわち、上述したリソース画像データから仮想撮影画像データまでの一連の画像データ変換処理において処理対象となる画像データは、映像光の高さ方向の投影画角(視野角)を2倍にしたときのサイズの画像データ(以下、「2倍画角データ」ともいう)となる。それゆえ、例えば、スクリーン(投影面)のサイズ(投影される画像サイズ)が1280ピクセル(横)×800ピクセル(縦)である場合には、処理対象の画像データ(2倍画角データ)のサイズは、1280ピクセル(横)×1600ピクセル(縦)となる。 Specifically, as image data to be processed, an image obtained by adding dummy image data of the same size as the size of the projection surface to the upper end of the image data of the image (projection target image) projected on the projection surface of the projection target member Data (image data whose size in the height (vertical) direction of the image in the virtual space is twice that of the projection target image) is used. That is, image data to be processed in a series of image data conversion processing from the above-described resource image data to virtual captured image data is performed when the projection angle of view (viewing angle) in the height direction of video light is doubled. Size image data (hereinafter, also referred to as “double view angle data”). Therefore, for example, when the size of the screen (projection plane) (projected image size) is 1280 pixels (horizontal) × 800 pixels (vertical), the size of the image data to be processed (double field angle data) The size is 1280 pixels (horizontal) × 1600 pixels (vertical).

また、本実施形態では、ロムカートリッジ基板86に格納されているリソース画像データを予め2倍画角データで構成している。それゆえ、リソース画像・オブジェクト合成処理でリソース画像データを読み出す時点において、処理対象の画像データの態様は2倍画角データとなっている。ただし、本発明はこれに限定されず、ロムカートリッジ基板86に格納されているリソース画像データを投影対象画像のみを含む画像データ(スクリーン(投影面)サイズの画像データ)とし、リソース画像・オブジェクト合成処理において、読み出されたリソース画像データに、ダミー画像データを付加して2倍画角データを生成してもよい。 Further, in the present embodiment, the resource image data stored in the ROM cartridge substrate 86 is configured in advance with double angle-of-view data. Therefore, at the time of reading out the resource image data in the resource image / object synthesizing process, the mode of the image data to be processed is the double view angle data. However, the present invention is not limited to this. The resource image data stored in the ROM cartridge substrate 86 is assumed to be image data (image data of a screen (projection plane) size) including only an image to be projected, and the resource image / object synthesis is performed. In the processing, the double image angle data may be generated by adding dummy image data to the read resource image data.

本実施形態において、処理対象の画像データとして上述した構成の2倍画角データを用いる理由は、次の通りである。通常、プロジェクタ213からの出射光を被投影部材の投影面に投影すると、プロジェクタ213の光学特性上、投影面に投影された映像の上端部又は下端部の中心に画像の歪みが発生する。これは、一般的なプロジェクタでは、予め、映像光を変則的な角度(短長辺が存在する台形状の画角)でスクリーンに投射することを前提として、投射用レンズが設計されているためである。なお、画像の歪みの発生位置(映像の上端部又は下端部の中心)は、例えば、筐体内部におけるプロジェクタ213の取り付け態様(プロジェクタ213の上(天井)面を上に向けて取り付けるか、下に向けて取り付けるか(逆さ付けか))や投射用レンズの使用領域(上半分又は下半分)などに応じて変化する。本実施形態のパチスロ1では、投影面に投影された映像の上端部中心に画像の歪みが発生するように投影ブロック201が構成されている例を説明する。 In the present embodiment, the reason why the double field angle data having the above-described configuration is used as the image data to be processed is as follows. Normally, when the light emitted from the projector 213 is projected onto the projection surface of the projection target member, an image distortion occurs at the center of the upper end or the lower end of the image projected on the projection surface due to the optical characteristics of the projector 213. This is because a projection lens is designed in advance in a general projector on the assumption that image light is projected onto a screen at an irregular angle (a trapezoidal angle of view in which short and long sides exist). It is. The position where the image distortion occurs (the center of the upper end or lower end of the image) may be determined, for example, by the mounting mode of the projector 213 inside the housing (the top (ceiling) surface of the projector 213 is mounted upward or downward). (Upside down) or the area of use of the projection lens (upper half or lower half). In the pachislo 1 of the present embodiment, an example will be described in which the projection block 201 is configured so that image distortion occurs at the center of the upper end of the image projected on the projection surface.

また、リソース画像データは、一般的には、液晶表示装置用のデータとして生成されていることが多く、本実施形態においてもリソース画像データは、液晶表示装置用のデータとして生成されている。そして、液晶表示装置では、画像の歪みは画面に中心位置に発生するので、GPU153(又はVDP)は、リソース画像データに対して画像の中心の歪みを抑制(補正)する処理を行っている。 Further, the resource image data is generally generated as data for a liquid crystal display device in many cases, and also in this embodiment, the resource image data is generated as data for a liquid crystal display device. Then, in the liquid crystal display device, since the image distortion occurs at the center position on the screen, the GPU 153 (or VDP) performs processing for suppressing (correcting) the distortion at the center of the image on the resource image data.

そこで、本実施形態のように、GPU153の処理対象データとして、仮想投影及び仮想撮影の対象となる画像(投影対象画像)の上部にダミー画像を設けた2倍画角データを用いた場合には、GPU153により、2倍画角データの画像の中心において画像の歪みを抑制(補正)するための処理が行われる。この場合、2倍画角データの画像の中心は、ダミー画像と投影対象画像との境界線上の中心になるので、投影対象画像の上端部の中心位置の画像の歪みが抑制(補正)される。この結果、プロジェクタ213により被投影部材の投影面に実際に映像が投影された際に映像の歪みが発生する位置の画像が補正される。なお、本実施形態では、この画像の歪みの補正処理を、フレームバッファに展開(格納)された2倍画角データに対して行うが、本発明はこれに限定されず、例えば、仮想バッファに展開された2倍画角データに対して画像の歪みの補正処理を行ってもよい。 Therefore, as in the present embodiment, when the double object angle data in which a dummy image is provided above an image (projection target image) to be subjected to virtual projection and virtual shooting is used as processing target data of the GPU 153, The GPU 153 performs processing for suppressing (correcting) image distortion at the center of the image of the double angle of view data. In this case, since the center of the image of the double angle-of-view data is the center on the boundary between the dummy image and the projection target image, distortion of the image at the center position of the upper end of the projection target image is suppressed (corrected). . As a result, the image at the position where the image distortion occurs when the image is actually projected on the projection surface of the projection target member by the projector 213 is corrected. In the present embodiment, the image distortion correction processing is performed on the double field angle data expanded (stored) in the frame buffer. However, the present invention is not limited to this. An image distortion correction process may be performed on the expanded double field angle data.

すなわち、本実施形態では、GPU153の処理対象データとして、上述した構成の2倍画角データを用いることにより、液晶表示装置用に生成されたリソース画像データ(2倍画角データ)における画像の歪みの発生位置(2倍画角データの中心)と、プロジェクタ213により実際に投射される画像において発生する歪みの位置(投影対象画像の上端部中心)とが一致するように調整されている。その結果、PJ対応画像データの生成処理の段階において、プロジェクタ213により被投影部材の投影面に実際に映像が投影された場合に発生する画像の歪みを予め抑制(補正)することが可能になり、高画質の演出映像を遊技者に提供することができる。 That is, in the present embodiment, by using the double view angle data having the above-described configuration as the processing target data of the GPU 153, the distortion of the image in the resource image data (double view angle data) generated for the liquid crystal display device is obtained. Is adjusted so that the position (center of the double view angle data) and the position of the distortion generated in the image actually projected by the projector 213 (the center of the upper end of the image to be projected) coincide with each other. As a result, in the stage of the process of generating the PJ-compatible image data, it is possible to suppress (correct) the image distortion that occurs when the projector 213 actually projects the image on the projection surface of the projection target member. In addition, it is possible to provide a high-quality effect video to the player.

なお、リソース画像データとして、例えば、プロジェクタ用のデータ(映像の上端部又は下端部の中心に歪みが発生する画像データ)を予め用意した場合には、リソース画像データから仮想撮影画像データまでの一連の画像データ変換処理において、ダミー画像を設けない等倍画角データを処理対象データとして用いてもよい。この場合には、GPU153により、等倍画角データの画像の上端部又は下端部の中心において画像の歪みを抑制(補正)するための処理が行われる。 Note that, for example, in the case where data for a projector (image data in which distortion occurs at the center of the upper end or lower end of an image) is prepared in advance as resource image data, a series of data from the resource image data to the virtual photographed image data is prepared. In the image data conversion processing, the same-magnification angle-of-view data without a dummy image may be used as processing target data. In this case, the GPU 153 performs processing for suppressing (correcting) image distortion at the center of the upper end or lower end of the image of the same-magnification field-of-view data.

また、図20Bに示す視点変更画像データ取得・設定処理において生成された仮想撮影画像データは、VRAM154(描画用RAM)に設けられたフレームバッファ(FB)にセットされ、このセット処理は、GPU153(レンダリングプロセッサ)により制御される。なお、上述のように、フレームバッファ(FB)にセットされる画像データは、2倍画角データ(仮想撮影画像データ+ダミー画像データ)であるので、VRAM154に設定されるフレームバッファ(FB)のサイズ(仮想撮影画像データの格納領域のサイズ)もまた、被投影部材の投影面のサイズ(スクリーンサイズ)の2倍になる。 The virtual captured image data generated in the viewpoint change image data acquisition / setting processing shown in FIG. 20B is set in a frame buffer (FB) provided in the VRAM 154 (rendering RAM). Rendering processor). As described above, since the image data set in the frame buffer (FB) is double angle-of-view data (virtual image data + dummy image data), the image data set in the VRAM 154 is stored in the frame buffer (FB). The size (the size of the storage area of the virtual photographed image data) is also twice the size of the projection surface of the projection target member (screen size).

(3)SB画像データ設定処理
SB画像データ設定処理では、VRAM154のフレームバッファ(FB)にセットされた2倍画角データ(仮想撮影画像データ+ダミー画像データ)のうち、投影対象画像の画像データ、すなわち、仮想撮影画像データのみが、VRAM154に設けられたスクリーンバッファ(SB)に転送される。具体的には、フレームバッファの格納領域内において仮想撮影画像データが格納された領域の画像データがスクリーンバッファにコピーされる(ダミー画像データはスクリーンバッファに転送されない)。
(3) SB image data setting process In the SB image data setting process, the image data of the projection target image out of the double field angle data (virtual photographed image data + dummy image data) set in the frame buffer (FB) of the VRAM 154 That is, only the virtual photographed image data is transferred to the screen buffer (SB) provided in the VRAM 154. Specifically, the image data of the area where the virtual captured image data is stored in the storage area of the frame buffer is copied to the screen buffer (the dummy image data is not transferred to the screen buffer).

これにより、被投影部材の投影面に実際に投影される映像光の画像データ(以下、「PJ対応画像データ」という)が生成されて、PJ対応画像データがVRAM154のスクリーンバッファに格納される。なお、このPJ対応画像データを生成するための処理(仮想撮影画像データのスクリーンバッファへの転送処理)は、GPU153により制御される。また、PJ対応画像データは処理対象の画像データの1/2のサイズとなるので、PJ対応画像データがセットされるVRAM154のスクリーンバッファのサイズを、フレームバッファのサイズの1/2にすることができる。 As a result, image data (hereinafter, referred to as “PJ-compatible image data”) of video light actually projected on the projection surface of the projection target member is generated, and the PJ-compatible image data is stored in the screen buffer of the VRAM 154. The processing for generating the PJ-compatible image data (the processing of transferring the virtual captured image data to the screen buffer) is controlled by the GPU 153. Further, since the size of the PJ-compatible image data is の of the size of the image data to be processed, the size of the screen buffer of the VRAM 154 in which the PJ-compatible image data is set is set to の of the size of the frame buffer. it can.

ここで、図23に、SB画像データ設定処理の概要を示す。図20Bに示す視点変更画像データ取得・設定処理において、仮想撮影画像データがVRAM154のフレームバッファ(FB)にセットされると、図23面上において、フレームバッファ(FB)の上半分の領域にダミー画像データが格納され、下半分の領域に仮想撮影画像データが格納される。次いで、図20B中のSB画像データ設定処理が行われると、フレームバッファ内の仮想撮影画像データが格納されている領域のデータのみが、VRAM154のスクリーンバッファ(SB)に転送(コピー)され、該転送された画像データがPJ対応画像データとしてセットされる。 Here, FIG. 23 shows an outline of the SB image data setting processing. When the virtual captured image data is set in the frame buffer (FB) of the VRAM 154 in the viewpoint change image data acquisition / setting processing shown in FIG. 20B, the dummy is placed in the upper half area of the frame buffer (FB) on the surface of FIG. Image data is stored, and virtual captured image data is stored in a lower half area. Next, when the SB image data setting process in FIG. 20B is performed, only the data in the area where the virtual captured image data in the frame buffer is stored is transferred (copied) to the screen buffer (SB) of the VRAM 154, and The transferred image data is set as PJ-compatible image data.

その後、スクリーンバッファにセットされたPJ対応画像データは、映像信号(例えば、「V−by−one(登録商標)」、「Display Port(登録商標)」、「LVDS」、「Clockless Link(登録商標)」、アナログRGBコンポーネント映像信号等のインターフェース仕様の映像信号)に変換され、該映像信号がプロジェクタ213に出力される。そして、プロジェクタ213は、入力された映像信号に基づいて、PJ対応画像データに対応する映像光を出射する。本実施形態では、上述のようにして、被投影部材の投影面に実際に投影される映像光の画像データ(PJ対応画像データ)を生成する。なお、以下では、上述した本実施形態のPJ対応画像データ(及びその映像信号)の生成手法を「仮想投影撮影法」と称す。 After that, the PJ-compatible image data set in the screen buffer is converted into a video signal (for example, “V-by-one (registered trademark)”, “Display Port (registered trademark)”, “LVDS”, “Clockless Link (registered trademark)”. )), An analog RGB component video signal, etc.), and the video signal is output to the projector 213. Then, the projector 213 emits video light corresponding to the PJ-compatible image data based on the input video signal. In the present embodiment, as described above, image data (PJ-compatible image data) of video light actually projected on the projection surface of the projection target member is generated. Hereinafter, the above-described method of generating PJ-compatible image data (and its video signal) according to the present embodiment is referred to as “virtual projection imaging method”.

[被投影部材の可動時のPJ対応画像データの生成概要]
上記図21〜図23では、PJ対応画像データの生成例として、映像光の投影対象の被投影部材が台形部材302(単一で被可動の被投影部材)のみである例を説明したが、本発明はこれに限定されない。例えば、上述した仮想投影撮影法によるPJ対応画像データの生成手法は、例えば、投影対象の被投影部材が切り替わる過程の演出において映像光を投影する場合にも適用することができる。
[Outline of Generation of PJ-Compatible Image Data When Projected Member is Moving]
In FIGS. 21 to 23, as an example of generating the PJ-compatible image data, an example has been described in which the projection member to be projected with the video light is only the trapezoidal member 302 (single movable target member). The present invention is not limited to this. For example, the above-described method of generating PJ-compatible image data by the virtual projection imaging method can be applied to, for example, a case where video light is projected in an effect of a process in which a projection target to be projected is switched.

ここで、図24A〜24Eを参照して、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる過程におけるPJ対応画像データの生成概要を説明する。図24A〜24Eは、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる過程において、仮想空間上で配置される、台形部材302の仮想オブジェクト302pと擬似リール部材303の仮想オブジェクト303pとの間の位置関係の時間変化(時系列変化)を示す図である。 Here, with reference to FIGS. 24A to 24E, an outline of generation of PJ-compatible image data in the process of switching the projection target member to be projected from the trapezoid member 302 to the pseudo reel member 303 will be described. 24A to 24E illustrate a virtual object 302p of the trapezoidal member 302 and a virtual object 303p of the pseudo-reel member 303 that are arranged in the virtual space in the process of switching the projection target member to be projected from the trapezoidal member 302 to the pseudo reel member 303. FIG. 7 is a diagram showing a time change (time-series change) of the positional relationship between the two.

なお、図24A〜24Eでは、台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を明確にするため、擬似リール部材303の仮想オブジェクト303pを簡略化して示す。具体的には、擬似リール部材303の仮想オブジェクト303pのサイズを実際のサイズ(図11及び図12参照)より小さくして示している。 24A to 24E, in order to clarify the positional relationship between the virtual object 302p of the trapezoidal member 302 and the virtual object 303p of the pseudo reel member 303, the virtual object 303p of the pseudo reel member 303 is simplified. Specifically, the size of the virtual object 303p of the pseudo reel member 303 is shown smaller than the actual size (see FIGS. 11 and 12).

図24Aは、台形部材302から擬似リール部材303への切り替え開始後(擬似リール部材303の駆動開始後)、遊技者側から見て擬似リール部材303が台形部材302の上部に見え始めるような位置まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Bは、擬似リール部材303が台形部材302の上部まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Cは、擬似リール部材303が台形部材302の上方前面部付近まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Dは、擬似リール部材303が台形部材302の前面に移動開始したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。そして、図24Eは、擬似リール部材303が台形部材302の前面(投影面)を覆うような位置に移動し、台形部材302から擬似リール部材303への被投影部材の切り替え動作が終了したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。 FIG. 24A shows a position where after switching from the trapezoid member 302 to the pseudo reel member 303 (after starting driving of the pseudo reel member 303), the pseudo reel member 303 starts to be seen above the trapezoid member 302 when viewed from the player side. FIG. 8 is a diagram showing a positional relationship between a virtual object 302p of a trapezoidal member 302 and a virtual object 303p of a pseudo reel member 303 when the virtual object 302p has moved to a position. FIG. 24B is a diagram illustrating a positional relationship between the virtual object 302p of the trapezoid member 302 and the virtual object 303p of the pseudo reel member 303 when the pseudo reel member 303 moves to the upper part of the trapezoid member 302. FIG. 24C is a diagram illustrating a positional relationship between the virtual object 302p of the trapezoid member 302 and the virtual object 303p of the pseudo reel member 303 when the pseudo reel member 303 has moved to the vicinity of the upper front part of the trapezoid member 302. FIG. 24D is a diagram illustrating a positional relationship between the virtual object 302p of the trapezoid member 302 and the virtual object 303p of the pseudo reel member 303 when the pseudo reel member 303 starts moving to the front of the trapezoid member 302. FIG. 24E shows a state in which the pseudo reel member 303 moves to a position covering the front surface (projection surface) of the trapezoid member 302 and the operation of switching the projection target member from the trapezoid member 302 to the pseudo reel member 303 ends. FIG. 8 is a diagram illustrating a positional relationship between a virtual object 302p of a trapezoid member 302 and a virtual object 303p of a pseudo reel member 303.

このように、擬似リール部材303(可動被投影部材)が台形部材302の前面に移動する場合には、まず、所定間隔のタイミング毎(時系列毎)に、対応する位置に移動した擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとを合成した仮想オブジェクト(以下、「合成仮想オブジェクト」という)の仮想オブジェクトデータ(以下、「合成仮想オブジェクトデータ」という)を取得する。例えば、図24A〜24Eのそれぞれにおいて、対応する位置に移動した動作中の擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとの合成仮想オブジェクトデータを取得する。 As described above, when the pseudo reel member 303 (movable projected member) moves to the front of the trapezoidal member 302, first, the pseudo reel member that has moved to the corresponding position at predetermined intervals of timing (every time series). Virtual object data (hereinafter, referred to as “synthesized virtual object data”) of a virtual object (hereinafter, referred to as “synthesized virtual object”) obtained by synthesizing the virtual object 303p of 303 and the virtual object 302p of the trapezoidal member 302 is acquired. For example, in each of FIGS. 24A to 24E, composite virtual object data of the virtual object 303 p of the operating pseudo reel member 303 and the virtual object 302 p of the trapezoidal member 302 that has moved to the corresponding position is acquired.

なお、仮想空間上において、仮想オブジェクト303pを、対応する位置に移動させるための制御手法は次の通りである。まず、擬似リール部材303を図24Aの状態から図24Eの状態まで移動させる際に駆動される駆動モータ361のパルス出力データ(不図示)に基づいて生成され、かつ、映像を表示するためのフレームレート(本実施形態では30fps)に対応した擬似リール部材303の移動角の時系列データ(以下、「移動角データ」)を取得する。次いで、取得された移動角データを用いて、GPU153の3次元CG処理(3次元座標計算等を含む)により、所定間隔のタイミング毎(例えばフレーム毎)に、対応する位置に仮想オブジェクト303pを移動させ、該移動した仮想オブジェクト303pのデータ(仮想オブジェクトデータ)を生成する。 A control method for moving the virtual object 303p to a corresponding position in the virtual space is as follows. First, a frame generated based on pulse output data (not shown) of the drive motor 361 driven when the pseudo reel member 303 is moved from the state of FIG. 24A to the state of FIG. 24E, and for displaying an image. Time series data (hereinafter, “moving angle data”) of the moving angle of the pseudo reel member 303 corresponding to the rate (30 fps in the present embodiment) is acquired. Next, the virtual object 303p is moved to a corresponding position at predetermined timing intervals (for example, for each frame) by three-dimensional CG processing (including three-dimensional coordinate calculation and the like) of the GPU 153 using the acquired movement angle data. Then, data (virtual object data) of the moved virtual object 303p is generated.

本実施形態では、可動被投影部材が動作中である場合に取得する所定間隔のタイミング毎(例えばフレーム毎)の移動角データは、予め用意され、ロムカートリッジ基板86に格納されている。なお、本実施形態では、これに限定されず、例えば、所定間隔のタイミング毎に対応する位置に移動した仮想オブジェクト303pのデータ(仮想オブジェクトデータ)を予め生成してロムカートリッジ基板86に格納しておき、所定間隔のタイミング毎に、対応する位置に移動した擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとを合成して、合成仮想オブジェクトデータを生成してもよい。さらに、例えば、所定間隔のタイミング毎の合成仮想オブジェクトデータを予め生成してロムカートリッジ基板86に格納しておき、所定間隔のタイミング毎に、対応する合成仮想オブジェクトデータを読み出して用いてもよい。また、合成仮想オブジェクトデータが取得される所定間隔は、例えば、映像(動画)のフレームレート、映像表示演出の内容等に応じて任意に設定することができる。 In the present embodiment, the movement angle data at predetermined timing intervals (for example, for each frame) acquired when the movable projection member is operating is prepared in advance and stored in the ROM cartridge substrate 86. In the present embodiment, the present invention is not limited to this. For example, data (virtual object data) of the virtual object 303p moved to a position corresponding to each predetermined time interval is generated in advance and stored in the ROM cartridge substrate 86. At each predetermined interval, the virtual object 303p of the pseudo reel member 303 and the virtual object 302p of the trapezoidal member 302 that have moved to the corresponding position may be combined to generate combined virtual object data. Further, for example, the synthesized virtual object data may be generated in advance at predetermined intervals and stored in the ROM cartridge substrate 86, and the corresponding synthesized virtual object data may be read and used at predetermined intervals. The predetermined interval at which the synthesized virtual object data is acquired can be arbitrarily set according to, for example, the frame rate of a video (moving image), the content of a video display effect, and the like.

次いで、仮想空間に配置された合成仮想オブジェクトに対して遊技者の目線方向(図21中の矢印A2方向)からリソース画像データ(ダミー画像を含む2倍画角データ)の映像光を仮想投影し、リソース画像と合成仮想オブジェクトとを合成した仮想投影画像を生成する。そして、合成仮想オブジェクトの投影面にリソース画像が仮想的に映し出された状態において、実際の映像光の入射方向(図21中の矢印A1方向)から合成仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影し、仮想撮影画像データ(ダミー画像を含む2倍画角データ)を取得する。 Next, video light of resource image data (double field angle data including a dummy image) is virtually projected from the player's line of sight (the direction of the arrow A2 in FIG. 21) onto the synthesized virtual object arranged in the virtual space. And generates a virtual projection image obtained by synthesizing the resource image and the synthesized virtual object. Then, in a state where the resource image is virtually projected on the projection plane of the composite virtual object, the virtual image projected on the projection plane of the composite virtual object from the incident direction of the actual video light (the direction of the arrow A1 in FIG. 21). The projection image is virtually photographed, and virtual photographed image data (double-angle data including a dummy image) is obtained.

すなわち、本実施形態において、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合には、擬似リール部材303(可動被投影部材)の仮想オブジェクト303pと台形部材302の仮想オブジェクト302pとの合成仮想オブジェクトデータを所定間隔のタイミング毎に生成すること以外の処理は、上記図21〜図23で説明した映像光の投影対象の被投影部材が台形部材302(単一で被可動の被投影部材)のみである場合の処理と同様となる。 That is, in the present embodiment, when the projection target member to be projected is switched from the trapezoid member 302 to the pseudo reel member 303, the virtual object 303p of the pseudo reel member 303 (movable projection member) and the virtual object 302p of the trapezoid member 302 The processing other than the generation of the synthesized virtual object data at every predetermined time interval is performed by using the trapezoidal member 302 (single movable object) as the projection target of the image light projection described with reference to FIGS. This is the same as the process for the case of only the (projected member).

なお、ここでは、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合に、仮想投影撮影法によるPJ対応画像データの生成手法を適用する例を説明したが、本発明はこれに限定されない。例えば、投影対象の被投影部材が台形部材302から平面スクリーン部材304に切り替わる場合にも、所定間隔のタイミング毎に生成された平面スクリーン部材304と台形部材302との合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。また、例えば、可動被投影部材と非可動投影部材とを使用して連動した映像表示演出を実行する場合にも、所定間隔のタイミング毎に生成された可動被投影部材と非可動投影部材との合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。さらに、例えば、3つ以上の被投影部材を使用して連動した映像表示演出を実行する機能を備えるような遊技機においても、3つ以上の被投影部材の合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。 Here, an example has been described in which, when the projection target member to be projected is switched from the trapezoidal member 302 to the pseudo reel member 303, the generation method of the PJ-compatible image data by the virtual projection imaging method is applied. It is not limited to. For example, even when the projection target member to be projected is switched from the trapezoidal member 302 to the flat screen member 304, by using the composite virtual object data of the flat screen member 304 and the trapezoidal member 302 generated at every predetermined interval timing. In addition, the method of generating PJ-compatible image data by the virtual projection imaging method described above can be applied as it is. Further, for example, even when performing an image display effect linked using a movable projection member and a non-movable projection member, the movable projection member and the non-movable projection member generated at predetermined intervals of timing are used. By using the synthesized virtual object data, the above-described method of generating PJ-compatible image data by the virtual projection imaging method can be applied as it is. Further, for example, even in a gaming machine having a function of executing an interlocked video display effect using three or more projected members, by using composite virtual object data of three or more projected members, The method of generating the PJ-compatible image data by the virtual projection imaging method described above can be applied as it is.

[PJ対応画像データの生成手順]
次に、図25を参照して、副制御回路150において行われる、仮想投影撮影法によるPJ対応画像データの生成処理(リソース画像・オブジェクト合成処理から映像信号の出力処理までの一連の処理)の具体的な処理手順を説明する。なお、図25は、仮想投影撮影法による、PJ対応画像データ及びそれに対応する映像信号の生成処理の手順を示すフローチャートである。
[Procedure for generating PJ-compatible image data]
Next, with reference to FIG. 25, a process of generating PJ-compatible image data (a series of processes from a resource image / object synthesis process to a video signal output process) performed by the virtual projection imaging method, which is performed in the sub control circuit 150. A specific processing procedure will be described. FIG. 25 is a flowchart illustrating a procedure of a process of generating PJ-compatible image data and a video signal corresponding thereto according to the virtual projection imaging method.

まず、サブCPU151は、ロムカートリッジ基板86に格納された各種リソース画像データの中から、今回、映像表示するリソース画像データを選択する(S11)。なお、S11の処理で選択する画像データは、リソース画像の上端部に、リソース画像と同サイズのダミー画像が付加された2倍画角データである。また、この処理では、GPU153(レンダリングプロセッサ153)は、サブCPU151の指令に基づいて、選択されたリソース画像データ(2倍画角データ)をVRAM154(描画用RAM)に展開する。 First, the sub CPU 151 selects resource image data to be displayed this time from various resource image data stored in the ROM cartridge substrate 86 (S11). The image data selected in the processing of S11 is double field angle data in which a dummy image having the same size as the resource image is added to the upper end of the resource image. In this process, the GPU 153 (rendering processor 153) develops the selected resource image data (double-angle data) into the VRAM 154 (rendering RAM) based on a command from the sub CPU 151.

次いで、サブCPU151は、ロムカートリッジ基板86に格納された各種仮想オブジェクトデータの中から、今回、投影対象となる被投影部材の仮想オブジェクトデータを選択する(S12)。この処理において、投影対象となる被投影部材が、一つの被投影部材である場合には、当該被投影部材の仮想オブジェクトデータのみが選択される。また、この処理において、投影対象となる被投影部材が複数である場合には、現タイミングに対応する合成仮想オブジェクトデータが選択される。そして、この処理では、GPU153は、サブCPU151の指令に基づいて、選択された仮想オブジェクトデータをVRAM154に展開する。 Next, the sub CPU 151 selects the virtual object data of the projection target to be projected this time from the various virtual object data stored in the ROM cartridge substrate 86 (S12). In this process, when the projection target to be projected is one projection target, only the virtual object data of the projection target is selected. Further, in this processing, when there are a plurality of projection target members to be projected, the synthetic virtual object data corresponding to the current timing is selected. Then, in this process, the GPU 153 expands the selected virtual object data in the VRAM 154 based on a command from the sub CPU 151.

なお、S11及びS12の処理において、選択されたリソース画像データ及び仮想オブジェクトデータは、VRAM154内において、フレームバッファ(FB)及びスクリーンバッファ(SB)以外のバッファ領域(仮想バッファ)に展開される。また、S11及びS12の処理順序は、任意であり、S12の処理の後にS11の処理を行ってもよい。 In the processing of S11 and S12, the selected resource image data and virtual object data are developed in the VRAM 154 in a buffer area (virtual buffer) other than the frame buffer (FB) and the screen buffer (SB). The processing order of S11 and S12 is arbitrary, and the processing of S11 may be performed after the processing of S12.

次いで、GPU153は、仮想空間(VRAM154)上において、選択された仮想オブジェクトを配置し、該仮想オブジェクトの投影面に対して、遊技者側から仮想オブジェクトに向かう方向(遊技者の目線方向)に、選択されたリソース画像データの映像光を仮想的に投影(照射)し、仮想オブジェクトの投影面に映し出される仮想投影画像の画像データ(仮想投影画像データ)を生成(算出)する(S13)。この処理では、GPU153の3次元CG処理(3次元座標計算等を含む)により、S11でVRAM154上に展開されたリソース画像データ(ダミー画像データを含む2倍画角データ)が、S12でVRAM154上に展開された仮想オブジェクトデータと合成されて仮想投影画像データ(ダミー画像データを含む2倍画角データ)が生成(算出)される。 Next, the GPU 153 arranges the selected virtual object in the virtual space (VRAM 154), and, with respect to the projection plane of the virtual object, in the direction from the player to the virtual object (the direction of the player's eyes). The image light of the selected resource image data is virtually projected (irradiated) to generate (calculate) image data (virtual projected image data) of a virtual projected image projected on the projection surface of the virtual object (S13). In this process, the resource image data (double-angle data including the dummy image data) expanded on the VRAM 154 in S11 by the three-dimensional CG process (including the three-dimensional coordinate calculation) of the GPU 153 is stored in the VRAM 154 in S12. Is combined with the virtual object data developed in the step (a) to generate (calculate) virtual projection image data (double view angle data including dummy image data).

次いで、GPU153は、仮想空間上において、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に入射される投影光の入射方向(実際の映像光の入射方向)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影したときの仮想撮影画像データ(ダミー画像データを含む2倍画角データ)を生成(算出)する(S14)。この処理では、GPU153の3次元CG処理(座標計算等を含む)により、視点変更処理が行われ、仮想撮影画像データ(ダミー画像データを含む2倍画角データ)が生成(算出)される。 Next, in the virtual space, the GPU 153 changes the projection surface of the virtual object from the incident direction (the actual image light incident direction) of the projection light incident on the projection surface of the projection target member via the reflection mirror 237 from the projector 213. Then, virtual photographed image data (double view angle data including dummy image data) when virtually photographing the virtual projection image projected on the screen is generated (calculated) (S14). In this process, a viewpoint change process is performed by a three-dimensional CG process (including coordinate calculation and the like) of the GPU 153, and virtual photographed image data (double view angle data including dummy image data) is generated (calculated).

次いで、GPU153は、S14で生成された仮想撮影画像データ(ダミー画像データを含む2倍画角データ)をVRAM154のフレームバッファ(FB)に展開(セット)する(S15)。次いで、GPU153は、フレームバッファ(FB)に展開された2倍画角データのうち、仮想撮影画像データが格納されている領域(図23中では、フレームバッファの下半分の領域)の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)する(S16)。 Next, the GPU 153 develops (sets) the virtual photographed image data (double-view angle data including the dummy image data) generated in S14 in the frame buffer (FB) of the VRAM 154 (S15). Next, the GPU 153 converts the image data of the area where the virtual captured image data is stored (in FIG. 23, the lower half area of the frame buffer) out of the double angle of view data expanded in the frame buffer (FB). It is copied (transferred) to the screen buffer (SB) of the VRAM 154 as PJ-compatible image data (S16).

そして、GPU153は、S16でスクリーンバッファ(SB)にコピーされたPJ対応画像データを映像信号に変換して、該映像信号をプロジェクタ213に出力する(S17)。本実施形態では、上述のようにして、プロジェクタ213に出力するPJ対応画像データ(映像信号)を生成する。 Then, the GPU 153 converts the PJ-compatible image data copied to the screen buffer (SB) in S16 into a video signal, and outputs the video signal to the projector 213 (S17). In the present embodiment, PJ-compatible image data (video signal) to be output to the projector 213 is generated as described above.

[各種効果]
上述のように、本実施形態では、仮想空間上に配置された被投影部材の仮想オブジェクトに映像光を仮想的に投影したときに仮想オブジェクトの投影面に映し出される画像の画像データ(仮想投影画像データ及び仮想撮像画像データ)を用いて、実際に、被投影部材に投影する映像光の画像データ(PJ対応画像データ)を生成する。それゆえ、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理を行う必要が無くなる。この結果、本実施形態では、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。
[Effects]
As described above, in the present embodiment, when the image light is virtually projected on the virtual object of the projection target member arranged in the virtual space, the image data of the image projected on the projection surface of the virtual object (virtual projection image The image data (PJ-compatible image data) of the video light actually projected onto the projection target member is generated using the data and the virtual captured image data. Therefore, when the projector 213 actually projects the image light onto the projection target member, it is not necessary to perform a correction process for associating the projection image data with the shape of the projection surface (screen) of the projection target member. As a result, in the present embodiment, it is possible to execute a high-quality, versatile video display effect utilizing the three-dimensional CG technology while suppressing an increase in cost associated with CG creation.

また、上述のように、本実施形態では、リソース画像データから仮想撮影画像データを生成するまでの画像データ変換処理において処理対象とする画像データは、被投影部材の投影面のサイズ(スクリーンサイズ)に対応する画像データではなく、投影対象画像の上部に該画像と同じサイズのダミー画像を付加した画像データ(2倍画角データ)である。この場合、投影対象画像の上端部中心に歪みが発生するが、上述のように、本実施形態ではPJ対応画像データの生成処理の段階において、投影対象画像の上端部中心の歪みが予め抑制(補正)されている。それゆえ、本実施形態では、被投影部材の投影面(スクリーン)に実際に映し出される映像の歪みを抑制することができ、高画質の演出映像を遊技者に提供することができる。 Further, as described above, in the present embodiment, the image data to be processed in the image data conversion processing from generation of the resource image data to generation of the virtual captured image data is the size (screen size) of the projection surface of the projection target member. Is image data (double field angle data) obtained by adding a dummy image of the same size as the image to the upper part of the projection target image instead of the image data corresponding to. In this case, distortion occurs at the center of the upper end of the projection target image. As described above, in the present embodiment, in the stage of the PJ-compatible image data generation processing, the distortion of the center of the upper end of the projection target image is suppressed in advance ( Correction). Therefore, in the present embodiment, it is possible to suppress distortion of an image actually projected on the projection surface (screen) of the projection target member, and to provide a high-quality effect image to a player.

また、本実施形態では、映像光が照射される被投影部材が複数存在しても、複数の被投影部材の合成仮想オブジェクトに対して上述した仮想投影撮影法(映像光の仮想投影処理及び仮想撮影処理)によるPJ対応画像データの生成手法を適用することにより、実際に、被投影部材に投影する映像光の画像データを生成することができる。それゆえ、本実施形態では、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合であっても、オブジェクトに対する投影画像のズレを最小限に抑制することができる。 Further, in the present embodiment, even if there are a plurality of projection members to which the image light is irradiated, the above-described virtual projection imaging method (the virtual projection processing of the image light and the virtual projection By applying the method of generating the PJ-compatible image data by the photographing process, it is possible to actually generate the image data of the video light to be projected on the projection target member. Therefore, in the present embodiment, even when an image is projected on an object such as a three-dimensional object (three-dimensional screen) using a projector, it is possible to minimize the deviation of the projected image with respect to the object.

さらに、本実施形態では、複数の被投影部材に可動被投影部材(擬似リール部材303等)が含まれ、且つ、該可動被投影部材が動作中であっても、所定間隔のタイミング毎の合成仮想オブジェクトに対して上述した仮想投影撮影法によるPJ対応画像データの生成手法を適用することにより、実際に、被投影部材に投影する画像データを生成することができる。それゆえ、本実施形態では、例えば、被投影部材の構成(数、形状、配置関係)や連動性などが複雑になっても容易に、高画質で多彩な映像表示演出を実行することができる。 Further, in the present embodiment, even when the plurality of projected members include the movable projected member (such as the pseudo reel member 303) and the movable projected member is in operation, the composition is performed at predetermined intervals of timing. By applying the above-described method of generating the PJ-compatible image data by the virtual projection photography method to the virtual object, it is possible to actually generate the image data to be projected on the projection target member. Therefore, in the present embodiment, for example, even if the configuration (number, shape, arrangement relationship), interlocking, and the like of the member to be projected becomes complicated, it is possible to easily perform a high-quality and various image display effects. .

<演出処理>
まず、演出処理に先立って、再度、図4及び図18を参照して、サウンド演出に関する構成について説明する。
<Direction processing>
First, prior to the effect processing, the configuration relating to the sound effect will be described with reference to FIGS. 4 and 18 again.

本実施形態のパチスロ1は、図4に示すように、左上のスピーカ64L、右上のスピーカ64R、左下のスピーカ65L及び右下のスピーカ65Rの合計4つのスピーカを有している。左上のスピーカ64L、右上のスピーカ64R、左下のスピーカ65L及び右下のスピーカ65Rから、それぞれ異なる内容の音を出力することが可能となっている。例えば左上のスピーカ64Lからはナビボイス音を出力しているときに、左下のスピーカ65Lからは楽曲を出力することができる。なお、左上のスピーカ64L、右上のスピーカ64R、左下のスピーカ65L及び右下のスピーカ65Rから、同じ内容の音を出力することも可能である。 As shown in FIG. 4, the pachislot 1 of the present embodiment has a total of four speakers: an upper left speaker 64L, an upper right speaker 64R, a lower left speaker 65L, and a lower right speaker 65R. It is possible to output different sounds from the upper left speaker 64L, the upper right speaker 64R, the lower left speaker 65L, and the lower right speaker 65R. For example, while a navigation voice sound is being output from the upper left speaker 64L, music can be output from the lower left speaker 65L. Note that it is also possible to output the same sound from the upper left speaker 64L, the upper right speaker 64R, the lower left speaker 65L, and the lower right speaker 65R.

本実施形態の場合、左下のスピーカ65L及び右下のスピーカ65Rからは、BGMを常時出力するように構成されており、複数ゲーム期間に亘って連続した一連のBGMを、ループ再生により繰り返し出力する。すなわち、一連のBGMの再生がその先頭から終端まで再生完了すると、再度先頭からの再生が行われる構成となっている。また、BGMとは異なる1ゲーム単位で出力される演出効果音が連続した複数ゲームに亘って出力される場合には、この演出効果音を左下のスピーカ65L及び右下のスピーカ65Rから出力するように構成されている。これに対して、BGMとは異なる1ゲーム単位で出力される演出効果音が1ゲームのみ出力される場合には、この演出効果音を左上のスピーカ64L及び右上のスピーカ64Rから出力するように構成されている。また、ベット操作が行われた際に出力されるベット音等も、左上のスピーカ64L、右上のスピーカ64Rから出力されるようになっている。なお、左下のスピーカ65L及び右下のスピーカ65Rから出力されるBGMは、必ずしも音楽である必要はなく、所定の連続する効果音であってもよい。 In the case of the present embodiment, the lower left speaker 65L and the lower right speaker 65R are configured to always output BGM, and repeatedly output a series of BGM continuous over a plurality of game periods by loop reproduction. . That is, when the reproduction of a series of BGMs is completed from the beginning to the end, the reproduction from the beginning is performed again. When the effect sound output in one game unit different from the BGM is output over a plurality of continuous games, the effect sound is output from the lower left speaker 65L and the lower right speaker 65R. Is configured. On the other hand, when the effect sound output in one game unit different from the BGM is output only in one game, the effect sound is output from the upper left speaker 64L and the upper right speaker 64R. Have been. Further, a betting sound or the like output when a betting operation is performed is also output from the upper left speaker 64L and the upper right speaker 64R. The BGM output from the lower left speaker 65L and the lower right speaker 65R does not necessarily need to be music, but may be predetermined continuous sound effects.

また、本実施形態において、図18に示すロムカートリッジ基板86のデータ記憶領域に記憶されているサウンドデータには、楽曲音のサウンドデータ、ナビボイス音のサウンドデータ、台詞音のサウンドデータ、SE音のサウンドデータが含まれる。楽曲音のサウンドデータは、ボーカル音のサウンドデータと伴奏音のサウンドデータから構成される。ボーカル音は、歌唱された音声であり、伴奏音は、楽器等の演奏音である。 In the present embodiment, the sound data stored in the data storage area of the ROM cartridge substrate 86 shown in FIG. 18 includes sound data of music sound, sound data of navigation voice sound, sound data of speech sound, and sound data of SE sound. Includes sound data. The sound data of the music sound is composed of the sound data of the vocal sound and the sound data of the accompaniment sound. The vocal sound is a sung voice, and the accompaniment sound is a performance sound of a musical instrument or the like.

台詞音は、遊技の演出において表示装置11に表示されるキャラクタの台詞を内容とする音声である。SE(Sound Effect)音は、遊技の演出において適宜出力される効果音であり、例えば所定の小役や所定の内部当籤役が当籤した際に出力される効果音が含まれる。なお、データ記憶領域には、複数種類の楽曲音のサウンドデータ及び台詞音のサウンドデータが記憶されている。 The dialogue sound is a voice containing the dialogue of the character displayed on the display device 11 in the effect of the game. The SE (Sound Effect) sound is an effect sound that is appropriately output in the production of a game, and includes, for example, an effect sound that is output when a predetermined small winning combination or a predetermined internal winning combination is won. In the data storage area, sound data of a plurality of types of music sounds and sound data of speech sounds are stored.

[演出処理の第1実施形態]
次に、演出処理の第1実施形態について説明する。
[First Embodiment of Effect Processing]
Next, a first embodiment of the effect processing will be described.

図26は、本実施形態で使用されるのが好適な、副制御回路150におけるサウンド演出に関するハードウェア構成図である。 FIG. 26 is a hardware configuration diagram regarding sound effects in the sub-control circuit 150, which is preferably used in the present embodiment.

図26に示すように、サウンドチップ157は、DSP(Digital Signal Processor)1571及びオーディオRAM1572を備える。 As shown in FIG. 26, the sound chip 157 includes a DSP (Digital Signal Processor) 1571 and an audio RAM 1572.

サブCPU151、DSP1571、オーディオRAM1572、及びデジタルアンプ158は、演出内容により指定されたサウンドデータをアナログ信号に変換し、音として左上のスピーカ64L、右上のスピーカ64R、左下のスピーカ65L及び右下のスピーカ65Rに出力させる。すなわち、DSP1571は、サブCPU151から転送されたサウンドデータを、デジタルアンプ158を介して増幅した後にスピーカ64L、64R、65L、65Rから出力するよう構成されている。 The sub CPU 151, the DSP 1571, the audio RAM 1572, and the digital amplifier 158 convert sound data designated by the effect contents into analog signals, and use the upper left speaker 64L, the upper right speaker 64R, the lower left speaker 65L, and the lower right speaker as sounds. Output to 65R. That is, the DSP 1571 is configured to amplify the sound data transferred from the sub CPU 151 via the digital amplifier 158, and then output the amplified sound data from the speakers 64L, 64R, 65L, 65R.

図27は、本実施形態で使用されるのが好適なサウンドデータテーブルの一例を示す図である。サウンドデータテーブルは、各種演出内容に対応するサウンド演出を実現する際に参照されるテーブルである。図27において、表記“−”は、対応する条件等が定義されていない状態を表す。 FIG. 27 is a diagram illustrating an example of a sound data table suitable for use in the present embodiment. The sound data table is a table that is referred to when realizing a sound effect corresponding to various effect contents. In FIG. 27, the notation “-” indicates a state in which the corresponding condition or the like is not defined.

サブCPU151は、図27に示すサウンドデータテーブルを用いて、決定した演出内容に対応するコマンド番号(図27に示すcmd No)に対応付けられたサウンドデータをロムカートリッジ基板86からDSP1571に転送し、サウンド演出を実行する。 Using the sound data table shown in FIG. 27, the sub CPU 151 transfers the sound data associated with the command number (cmd No shown in FIG. 27) corresponding to the determined effect content from the ROM cartridge substrate 86 to the DSP 1571, Perform sound effects.

図27に示すように、各コマンド番号には、コマンド内容と、ロムカートリッジ基板86に保存されているサウンドデータのファイル名と、各サウンドデータに係る各パラメータと、各サウンドデータの実行時におけるボリュームと、各サウンドデータの再生開始条件と、各サウンドデータの切替条件と、各サウンドデータの割込み条件とが対応付けられている。 As shown in FIG. 27, each command number includes a command content, a file name of sound data stored in the ROM cartridge 86, each parameter relating to each sound data, and a volume at the time of execution of each sound data. And the reproduction start condition of each sound data, the switching condition of each sound data, and the interruption condition of each sound data.

ファイル名は、ロムカートリッジ基板86に保存されているサウンドデータのファイル名である。サブCPU151は、各サウンド演出を実行する場合に、各コマンド番号に対応付けられたファイル名のサウンドデータを、ロムカートリッジ基板86からDSP1571に転送し、スピーカ64L、64R、65L、65Rによって再生することで実行する。なお、本実施形態において、サウンドデータは、例えば、wav形式で保存されるが、他の形式であってもよい。 The file name is the file name of the sound data stored in the ROM cartridge substrate 86. When executing each sound effect, the sub CPU 151 transfers the sound data of the file name associated with each command number from the ROM cartridge substrate 86 to the DSP 1571, and reproduces the sound data with the speakers 64L, 64R, 65L, 65R. Run with In the present embodiment, the sound data is stored in, for example, a wav format, but may be in another format.

図27では、コマンド番号“541”に係るコマンドは、キャラクタC2が電話で聞いている声(電話相手であるキャラクタC1が電話で話している声)を再生するためのコマンドである。すなわち、コマンド番号“541”は、電話相手であるキャラクタC1が電話で話している声を電話越しで聞いたときの声(電話越しに聞こえるキャラクタC1の声)を再生するためのコマンドである。ここでは、一例として、コマンド番号“541”は、“聞こえていますか?私の声が”という台詞音を再生するためのコマンドである。 In FIG. 27, the command related to the command number “541” is a command for reproducing the voice heard by the character C2 on the phone (the voice spoken by the character C1 as the other party on the phone). That is, the command number “541” is a command for reproducing a voice (voice of the character C1 that can be heard over the telephone) when the voice of the character C1 being the other party is heard over the telephone. Here, as an example, the command number “541” is a command for reproducing a speech sound “Do you hear? My voice is”.

図27では、コマンド番号“542”に係るコマンドは、キャラクタC1が電話で話している声を再生するためのコマンドである。ここでは、一例として、コマンド番号“542”は、“聞こえていますか?私の声が”という台詞音を再生するためのコマンドである。 In FIG. 27, the command related to the command number “542” is a command for reproducing the voice of the character C1 talking on the phone. Here, as an example, the command number “542” is a command for reproducing a dialogue sound “Do you hear? My voice is”.

すなわち、コマンド番号“541”及びコマンド番号“542”に係る各コマンドは、“聞こえていますか?私の声が”という同じ台詞音を再生するためのコマンドであるが、コマンド番号“541”の方は電話越しに聞こえる声(以下、「電話ボイス」と称する)であり、コマンド番号“542”の方は通常の声(以下、「通常ボイス」と称する)であり、両者のサウンドデータは相違する。 That is, the commands related to the command number “541” and the command number “542” are commands for reproducing the same dialogue sound “Do you hear? My voice is”, but the command number “541” Is a voice that can be heard over the telephone (hereinafter, referred to as “telephone voice”), the command number “542” is a normal voice (hereinafter, referred to as “normal voice”), and the sound data of both are different. I do.

なお、台詞の内容自体は、“聞こえていますか?私の声が”という内容に限られず、任意である。以下では、コマンド番号“541”に係るサウンドデータを、「電話ボイスに係るサウンドデータ」と称し、コマンド番号“542”に係るサウンドデータを、「通常ボイスに係るサウンドデータ」とも称する。 In addition, the content of the dialogue itself is not limited to the content "Do you hear? My voice", and is arbitrary. Hereinafter, the sound data corresponding to the command number “541” is referred to as “sound data related to telephone voice”, and the sound data corresponding to the command number “542” is also referred to as “sound data related to normal voice”.

なお、通常ボイスに係るサウンドデータ及び電話ボイスに係るサウンドデータは、同時に再生し始めると、“聞こえていますか?私の声が”というそれぞれの台詞音が重なるように形成される。例えば、電話ボイスに係るサウンドデータは、通常ボイスに係るサウンドデータを加工することで生成されてもよいし、逆であってもよい。ただし、通常ボイスに係るサウンドデータ及び電話ボイスに係るサウンドデータは、同時に再生し始めると、それぞれの台詞音にわずかなずれがある態様で形成されてもよい。台詞音のわずかなずれとは、遊技者がずれとして認識できない範囲又は遊技者に違和感を与えない範囲のものであってよい。 It should be noted that the sound data of the normal voice and the sound data of the telephone voice are formed such that, when they are simultaneously reproduced, the dialogue sounds “Do you hear? My voice” overlap. For example, sound data relating to a telephone voice may be generated by processing sound data relating to a normal voice, or vice versa. However, the sound data relating to the normal voice and the sound data relating to the telephone voice may be formed in such a manner that, when the reproduction is started at the same time, the respective speech sounds have a slight deviation. The slight deviation of the dialogue sound may be a range in which the player cannot recognize the deviation or a range in which the player does not feel uncomfortable.

また、電話ボイスに係るサウンドデータは、台詞音以外の音として、キャラクタC2の背景で発生する音(例えばキャラクタC2が音楽を聞いている場合は、音楽の音)を含んでもよいし、通常ボイスに係るサウンドデータは、台詞音以外の音として、キャラクタC1の背景で発生する音(例えば外の車の音)を含んでもよい。 Further, the sound data relating to the telephone voice may include a sound generated in the background of the character C2 (for example, a sound of music when the character C2 is listening to music) as a sound other than the speech sound, or a normal voice. May include a sound (for example, a sound of an outside car) generated in the background of the character C1 as a sound other than the speech sound.

図27では、コマンド番号“550”、コマンド番号“551”及びコマンド番号“552”は、互いに関連するコマンドに関する。図27では、コマンド番号“550”、コマンド番号“551”及びコマンド番号“552”に係る各コマンドは、特定のキャラクタC3が有する各種の必殺技に関する。具体的には、コマンド番号“550”は、“必殺技A”が対応付けられ、この場合、必殺技Aファイルは、キャラクタC3が台詞“必殺技A(技名)”を叫ぶ声(台詞音)を出力するためのサウンドデータである。コマンド番号“551”は、“必殺技B”が対応付けられ、この場合、必殺技Bファイルは、キャラクタC3が台詞“必殺技B(技名)”を叫ぶ声を出力するためのサウンドデータである。コマンド番号“552”は、“必殺技C”が対応付けられ、この場合、必殺技Cファイルは、キャラクタC3が台詞“必殺技C(技名)”を叫ぶ声を出力するためのサウンドデータである。 In FIG. 27, the command number “550”, the command number “551”, and the command number “552” relate to commands related to each other. In FIG. 27, the commands related to the command number “550”, the command number “551”, and the command number “552” relate to various types of special moves possessed by the specific character C3. Specifically, the command number “550” is associated with “special technique A”. In this case, in the special technique A file, the character C3 screams the line “special technique A (technical name)” (speech sound). ) Is the sound data for output. The command number “551” is associated with “special technique B”. In this case, the special technique B file is sound data for outputting a voice of the character C3 screaming the line “special technique B (technical name)”. is there. The command number “552” is associated with “special technique C”. In this case, the special technique C file is sound data for outputting a voice of the character C3 screaming the line “special technique C (technical name)”. is there.

図27では、コマンド番号“571”、“572”、コマンド番号“573”、“574”及びコマンド番号“575”、“576”は、互いに関連するコマンドである。図27では、コマンド番号“571”、“572”、コマンド番号“573”、“574”及びコマンド番号“575”、“576”に係る各コマンドは、特定のキャラクタC3が、敵と戦うシーンに関し、特定のキャラクタC3が有する各種の必殺技を、再生開始から約3秒後に、繰り出すシーンに係る音声を再生するためのコマンドである。コマンド番号“571”、“572”は、“必殺技A”が対応付けられ、この場合、必殺技A勝利音声ファイル及び必殺技A敗北音声ファイルは、キャラクタC3が必殺技Aを繰り出すシーンに係るサウンドデータである。コマンド番号“573”、“574”は、“必殺技B”が対応付けられ、この場合、必殺技B勝利音声ファイル及び必殺技B敗北音声ファイルは、キャラクタC3が必殺技Bを繰り出すシーンに係るサウンドデータである。コマンド番号“575”、“576”は、“必殺技C”が対応付けられ、この場合、必殺技C勝利音声ファイル及び必殺技C敗北音声ファイルは、キャラクタC3が必殺技Cを繰り出すシーンに係るサウンドデータである。 In FIG. 27, command numbers “571” and “572”, command numbers “573” and “574”, and command numbers “575” and “576” are commands related to each other. In FIG. 27, the commands related to the command numbers “571” and “572”, the command numbers “573” and “574”, and the command numbers “575” and “576” are related to the scene where the specific character C3 fights the enemy. This is a command for reproducing a sound relating to a scene in which various kinds of special moves possessed by the specific character C3 are advanced approximately three seconds after the start of reproduction. The command numbers “571” and “572” are associated with “special technique A”. In this case, the special technique A victory audio file and the special technique A defeat audio file relate to a scene in which the character C3 advances the special technique A. Sound data. Command numbers “573” and “574” are associated with “special technique B”. In this case, the special technique B victory audio file and the special technique B defeat audio file relate to a scene in which the character C3 advances the special technique B. Sound data. The command numbers “575” and “576” are associated with “special technique C”. In this case, the special technique C victory audio file and the special technique C defeat audio file relate to a scene in which the character C3 advances the special technique C. Sound data.

ここで、コマンド番号“571”、“572”、コマンド番号“573”、“574”及びコマンド番号“575”、“576”に対応付けられた各サウンドデータは、対応する必殺技を叫ぶ台詞音を含まない。必殺技を叫ぶ台詞音の出力は、コマンド番号“571”、“572”、“573”、“574”、“575”又は“576”のコマンドとともに実行されるコマンド番号“550”、コマンド番号“551”又はコマンド番号“552”のコマンドにより実現される。 Here, the sound data associated with the command numbers “571” and “572”, the command numbers “573” and “574”, and the command numbers “575” and “576” are speech sounds that call out the corresponding deadly technique. Not included. The output of the speech sound that screams the special technique is command number “550”, command number “550” executed together with the command of command number “571”, “572”, “573”, “574”, “575” or “576”. 551 ”or a command of command number“ 552 ”.

コマンド番号“571”とコマンド番号“572”との間の相違は、キャラクタC3が必殺技Aを繰り出した後の勝敗の相違である。具体的には、コマンド番号“571”に対応付けられる必殺技A勝利音声ファイルは、特定のキャラクタC3が有する必殺技Aを繰り出することで、敵に勝利するシーンに関する。コマンド番号“572”に対応付けられる必殺技A敗北音声ファイルは、特定のキャラクタC3が有する必殺技Aを繰り出したものの、敵に敗北するシーンに関する。コマンド番号“573”とコマンド番号“574”との間の相違も同様であり、コマンド番号“575”とコマンド番号“576”との間の相違も同様である。なお、敵に勝利すると、所定の特典(後述)が付与されることが遊技者に伝わり、敵に敗北すると、所定の特典(後述)が付与されないことが遊技者に伝わる。なお、変形例では、勝敗結果は、次の遊技以降に判明する仕様であってもよい。 The difference between the command number “571” and the command number “572” is a difference in winning or losing after the character C3 has advanced the special technique A. Specifically, the deathblow A victory audio file associated with the command number “571” relates to a scene in which the deathblow A possessed by the specific character C3 is paid out to win the enemy. The deathblow A defeat audio file associated with the command number “572” relates to a scene in which the deathblow A possessed by the specific character C3 has been delivered but is defeated by an enemy. The difference between the command number “573” and the command number “574” is the same, and the difference between the command number “575” and the command number “576” is also the same. Note that if the enemy is won, the player is notified that a predetermined privilege (described later) is given, and if the enemy is defeated, the player is notified that the predetermined privilege (described later) is not given. In the modified example, the winning / losing result may be a specification that becomes clear after the next game.

コマンド番号に対応付けられたパラメータは、デジタルアンプ158のチャンネル(CH)を含む。なお、図示していないが、他のパラメータとして、サウンドデータの転送レート(kbps)や、サウンドデータの再生パターン(ループ再生を行うか否かなど)、タイプ等が含まれてもよい。なお、サウンドデータの転送レート(kbps)は、各コマンド番号に対応付けられたサウンドデータを再生する場合に、DSP1571からデジタルアンプ158に1秒間に転送することができるファイル容量を示すパラメータである。タイプは、サウンドデータの転送方法を規定するパラメータであり、例えばロムカートリッジ基板86からオーディオRAM1572を介してDSP1571に転送される方式や、ロムカートリッジ基板86からDSP1571に直接的に転送される方式等を規定する。なお、ロムカートリッジ基板86からオーディオRAM1572を介してDSP1571に転送される方式は、ロムカートリッジ基板86からDSP1571に直接的に転送される方式よりも応答性の観点から有利であるので、使用頻度の高いサウンドデータに対応付けられることが好ましい。 The parameter associated with the command number includes the channel (CH) of the digital amplifier 158. Although not shown, other parameters may include a sound data transfer rate (kbps), a sound data reproduction pattern (whether or not to perform loop reproduction), a type, and the like. The transfer rate (kbps) of the sound data is a parameter indicating a file capacity that can be transferred from the DSP 1571 to the digital amplifier 158 in one second when reproducing the sound data associated with each command number. The type is a parameter that defines a method of transferring sound data. For example, a type that is transferred from the ROM cartridge substrate 86 to the DSP 1571 via the audio RAM 1572, a method that is directly transferred from the ROM cartridge substrate 86 to the DSP 1571, or the like is used. Stipulate. The method of transferring data from the ROM cartridge substrate 86 to the DSP 1571 via the audio RAM 1572 is more advantageous than the method of transferring data directly from the ROM cartridge substrate 86 to the DSP 1571 from the viewpoint of responsiveness. Preferably, it is associated with sound data.

チャンネル(CH)は、デジタルアンプ158への出力チャンネルを示すパラメータである。ここで、本実施形態に係るパチスロ1において、デジタルアンプ158は、6つのチャンネルを有しており、それぞれ、CH1〜CH6と設定されている。 The channel (CH) is a parameter indicating an output channel to the digital amplifier 158. Here, in the pachislo 1 according to the present embodiment, the digital amplifier 158 has six channels, and is set as CH1 to CH6, respectively.

サブCPU151は、例えば、CH1が対応付けられたコマンド番号に基づくサウンド演出及びCH2が対応付けられたコマンド番号に基づくサウンド演出を実行する場合、デジタルアンプ158のCH1、CH2に、各チャンネルに対応するサウンドデータを入力し、CH1に入力されたサウンドデータ及びCH2に入力されたサウンドデータを合成した音声を、デジタルアンプ158から再生するサウンド演出を実行するよう構成されている。 For example, when executing the sound effect based on the command number associated with CH1 and the sound effect based on the command number associated with CH2, the sub CPU 151 corresponds to each of the channels CH1 and CH2 of the digital amplifier 158. It is configured to execute a sound effect in which sound data is input and a sound obtained by synthesizing the sound data input to CH1 and the sound data input to CH2 is reproduced from the digital amplifier 158.

なお、サブCPU151は、同一チャンネルに連続したサウンドデータを入力した場合、最初に所定のチャンネルに入力したサウンドデータを出力している最中であっても、後から所定のチャンネルに入力したサウンドデータによって、最初に入力したサウンドデータを上書きし、後から入力したサウンドデータをスピーカ64L、64R、65L、65Rから再生するよう構成されている。 Note that, when continuous sound data is input to the same channel, the sub CPU 151 outputs the sound data input to the predetermined channel later even while the sound data input to the predetermined channel is being output first. Thus, the sound data input first is overwritten, and the sound data input later is reproduced from the speakers 64L, 64R, 65L, 65R.

図27では、電話ボイスに係るコマンド番号“541”及び通常ボイスに係るコマンド番号“542”は、同時の再生が可能なように、異なるCHに対応付けられる。具体的には、図27に示すように、コマンド番号“541”は、CH5が対応付けられ、コマンド番号“542”は、CH6が対応付けられている。 In FIG. 27, the command number “541” relating to the telephone voice and the command number “542” relating to the normal voice are associated with different CHs so that simultaneous reproduction is possible. Specifically, as shown in FIG. 27, the command number "541" is associated with CH5, and the command number "542" is associated with CH6.

また、図27では、コマンド番号“550”、“551”及び“552”は、それぞれ、コマンド番号“571”、“572”、“573”、“574”、“575”、“576”のいずれかと同時の再生が可能なように、コマンド番号“571”、“572”、“573”、“574”、“575”、“576”とは異なるCHが対応付けられる。具体的には、図27に示すように、コマンド番号“550”、“551”及び“552”は、CH6が対応付けられ、コマンド番号“571”、“572”、“573”、“574”、“575”、“576”は、CH5が対応付けられている。 In FIG. 27, the command numbers “550”, “551”, and “552” are any of the command numbers “571”, “572”, “573”, “574”, “575”, and “576”, respectively. CHs different from the command numbers “571”, “572”, “573”, “574”, “575”, and “576” are associated with each other so that simultaneous playback is possible. Specifically, as shown in FIG. 27, the command numbers “550”, “551”, and “552” are associated with CH6, and the command numbers “571”, “572”, “573”, “574” , “575”, and “576” are associated with CH5.

ボリュームは、各コマンド番号に対応付けられたサウンドデータを出力する場合の音量の指示値に対応する。サブCPU151は、各コマンド番号に対応付けられたサウンドデータを実行する場合に、各コマンド番号に対応付けられたボリュームの指示値をデジタルアンプ158に転送する。 The volume corresponds to an instruction value of the volume when outputting sound data associated with each command number. When executing the sound data associated with each command number, the sub CPU 151 transfers the indicated value of the volume associated with each command number to the digital amplifier 158.

本実施形態では、後述のように、サブCPU151は、特定のコマンド番号に対応付けられたサウンドデータを出力する場合に、途中からボリュームの指示値を変更してデジタルアンプ158に転送する場合がある。 In the present embodiment, as described later, when outputting the sound data associated with a specific command number, the sub CPU 151 may change the indicated value of the volume in the middle and transfer it to the digital amplifier 158. .

具体的には、図27では、電話ボイスに係るコマンド番号“541”は、2種類のボリューム“255”及び“0”が対応付けられている。また、通常ボイスに係るコマンド番号“542”は、2種類のボリューム“0”及び“255”が対応付けられている。ここでは、ボリュームは0〜255の値で規定され、数値が大きいほど大きい音量である。なお、“0”は、ミュート音量に対応する。ボリューム“255”は、遊技者が可聴な音量であり、例えば、設定可能な最大音量である。したがって、ボリューム“255”に係る音量は、ミュート音量よりもはるかに大きい。2種類のボリューム“0”及び“255”が対応付けられていることは、後述の切替条件が成立した際にボリューム“0”及び“255”間で切り替えられることを表す。 Specifically, in FIG. 27, the command number “541” related to the telephone voice is associated with two types of volumes “255” and “0”. The command number “542” for the normal voice is associated with two types of volumes “0” and “255”. Here, the volume is defined by a value from 0 to 255, and the larger the numerical value, the louder the volume. “0” corresponds to the mute volume. The volume “255” is a volume that can be heard by the player, for example, a settable maximum volume. Therefore, the volume of the volume “255” is much higher than the mute volume. The association of the two types of volumes “0” and “255” indicates that the volume can be switched between “0” and “255” when a switching condition described later is satisfied.

例えば、電話ボイスに係るコマンド番号“541”は、切替条件が成立する前はボリューム“255”が対応付けられ、切替条件が成立した後はボリューム“0”が対応付けられている。この場合、サブCPU151は、電話ボイスに係るコマンド番号“541”に対応付けられたサウンドデータをデジタルアンプ158に転送する場合に、切替条件が成立する前は、ボリュームの指示値を“255”に設定し、切替条件が成立すると、ボリュームの指示値を“0”に設定(変更)する。 For example, the command number “541” related to the telephone voice is associated with the volume “255” before the switching condition is satisfied, and is associated with the volume “0” after the switching condition is satisfied. In this case, when transferring the sound data associated with the command number “541” relating to the telephone voice to the digital amplifier 158, the sub CPU 151 sets the indicated value of the volume to “255” before the switching condition is satisfied. When the switching condition is satisfied, the indicated value of the volume is set (changed) to “0”.

同様に、通常ボイスに係るコマンド番号“542”は、切替条件が成立する前はボリューム“0”が対応付けられ、切替条件が成立した後はボリューム“255”が対応付けられている。この場合、サブCPU151は、通常ボイスに係るコマンド番号“542”に対応付けられたサウンドデータをデジタルアンプ158に転送する場合に、切替条件が成立する前は、ボリュームの指示値を“0”に設定し、切替条件が成立すると、ボリュームの指示値を“255”に設定(変更)する。 Similarly, the command number “542” for the normal voice is associated with the volume “0” before the switching condition is satisfied, and is associated with the volume “255” after the switching condition is satisfied. In this case, when transferring the sound data associated with the command number “542” relating to the normal voice to the digital amplifier 158, the sub CPU 151 sets the indicated value of the volume to “0” before the switching condition is satisfied. When the switching condition is satisfied, the indicated value of the volume is set (changed) to “255”.

他のコマンド番号“550”、“551”、“552”、“571”、“572”、“573”、“574”、“575”、及び“576”は、ボリューム“255”だけが対応付けられている。 The other command numbers “550”, “551”, “552”, “571”, “572”, “573”, “574”, “575”, and “576” are associated only with the volume “255”. Has been.

サウンドデータに係る再生開始条件は、各コマンド番号に対応付けられたサウンドデータの出力を開始させる際に満たされる条件である。再生開始条件は、コマンド番号ごとに設定される。例えば、図27では、電話ボイスに係るコマンド番号“541”は、再生開始条件が“スタートスイッチオン”である。これは、コマンド番号“541”に対応付けられたサウンドデータの出力が、スタートスイッチ79がオンするイベントを契機(トリガ)として開始されることを表す。通常ボイスに係るコマンド番号“542”も同様である。再生開始条件“スタートスイッチオン”は、スタートスイッチ79がオンしてから微小時間経過したことや、リールの回転が開始されること等の他の条件で置換されてもよい。 The reproduction start condition relating to the sound data is a condition that is satisfied when the output of the sound data associated with each command number is started. The reproduction start condition is set for each command number. For example, in FIG. 27, the playback start condition of the command number “541” related to the telephone voice is “start switch on”. This means that the output of the sound data associated with the command number “541” is started with an event that the start switch 79 is turned on as a trigger. The same applies to the command number “542” for the normal voice. The reproduction start condition “start switch on” may be replaced with another condition such as a lapse of a minute time after the start switch 79 is turned on or the start of reel rotation.

また、図27では、各種の必殺技に関するコマンド番号“550”、“551”、及び“552”は、再生開始条件が“スタートスイッチオン(第1条件の一例)からの3秒経過”である。これは、コマンド番号“550”に対応付けられたサウンドデータの出力が、スタートスイッチ79がオンしてから3秒が経過したイベントを契機(トリガ)として開始されることを表す。なお、コマンド番号“550”、“551”、及び“552”に係る再生開始条件のうちの、“スタートスイッチオン”は、リールの回転が開始されること等の他の条件で置換されてもよい。 In FIG. 27, the command numbers “550”, “551”, and “552” related to various types of deathblows have a playback start condition “3 seconds after the start switch is turned on (an example of the first condition)”. . This means that the output of the sound data associated with the command number “550” is started by an event in which three seconds have passed since the start switch 79 was turned on (trigger). Note that among the reproduction start conditions relating to the command numbers “550”, “551”, and “552”, “start switch on” may be replaced by another condition such as the start of reel rotation. Good.

切替条件は、特定のコマンド番号に対応付けられた2種類のボリュームを切り替える際の条件である。切替条件は、特定のコマンド番号に対してのみ対応付けられる。図27では、切替条件は、電話ボイスに係るコマンド番号“541”及び通常ボイスに係るコマンド番号“542”に対応付けられている。電話ボイスに係るコマンド番号“541”及び通常ボイスに係るコマンド番号“542”は、後述する特定のコマンド番号の組み合わせであり、セットで登録される。コマンド番号“541”及びコマンド番号“542”に対応付けられる切替条件は、同じである。図27では、コマンド番号“541”及びコマンド番号“542”に対応付けられる切替条件は、“第3停止操作”である。これは、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第3停止に係るストップボタンがオンするイベントが切替条件を満たさせることを表す。 The switching condition is a condition for switching between two types of volumes associated with a specific command number. The switching condition is associated only with a specific command number. In FIG. 27, the switching condition is associated with the command number “541” related to the telephone voice and the command number “542” related to the normal voice. The command number “541” related to the telephone voice and the command number “542” related to the normal voice are a combination of specific command numbers described later, and are registered as a set. The switching conditions associated with the command number “541” and the command number “542” are the same. In FIG. 27, the switching condition associated with the command number “541” and the command number “542” is “third stop operation”. This indicates that the event that the stop button of the third stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is turned on satisfies the switching condition.

なお、変形例では、切替条件は、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第1停止に係るストップボタンがオンすると満たされてもよいし、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第2停止に係るストップボタンがオンすると満たされてもよい。あるいは、切替条件は、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第3停止に係るストップボタンが押された状態から離されると(オンした後にオフすると)、満たされてもよい。 In the modification, the switching condition may be satisfied when a stop button related to the first stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is turned on, or the left stop button 17L, When the stop button related to the second stop of the middle stop button 17C and the right stop button 17R is turned on, the condition may be satisfied. Alternatively, the switching condition is satisfied when the stop button related to the third stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is released (turned off after being turned on). You may.

また、他の変形例では、切替条件は、所定の操作から所定の時間経過した場合に満たされてもよい。例えば、切替条件は、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第1停止に係るストップボタンがオンしてから所定時間ΔT2が経過すると、満たされてもよい。また、切替条件は、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第2停止に係るストップボタンがオンしてから所定時間ΔT3が経過すると、満たされてもよい。また、切替条件は、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第3停止に係るストップボタンがオンしてから所定時間ΔT4が経過すると、満たされてもよい。 In another modification, the switching condition may be satisfied when a predetermined time has elapsed from a predetermined operation. For example, the switching condition may be satisfied when a predetermined time ΔT2 has elapsed since the stop button related to the first stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is turned on. Further, the switching condition may be satisfied when a predetermined time ΔT3 has elapsed since the stop button related to the second stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is turned on. Further, the switching condition may be satisfied when a predetermined time ΔT4 has elapsed since the stop button related to the third stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is turned on.

割込み条件は、所定のコマンド番号に対応付けられたサウンドデータの出力を強制的に実行する際の条件に対応する。割込み条件は、所定のコマンド番号に対してのみ対応付けられる。図27では、割込み条件は、各種の必殺技に関するコマンド番号“550”、コマンド番号“551”及びコマンド番号“552”に対応付けられている。コマンド番号“550”、コマンド番号“551”及びコマンド番号“552”に対応付けられる割込み条件は、“スタートスイッチオンから3秒経過前の第3停止操作”である。すなわち、スタートスイッチ79がオンしてから3秒経過前に、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第3停止に係るストップボタンがオンすると、割込み条件が満たされる。なお、割込み条件のうちの、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第3停止に係るストップボタンがオンする条件(第2条件の一例)は、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第2停止に係るストップボタンがオンするという条件や、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第1停止に係るストップボタンがオンするという条件、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第3停止に係るストップボタンが押された状態から離されるという条件等により置換されてもよい。 The interrupt condition corresponds to a condition for forcibly executing the output of sound data associated with a predetermined command number. The interrupt condition is associated only with a predetermined command number. In FIG. 27, the interrupt condition is associated with a command number “550”, a command number “551”, and a command number “552” relating to various types of special moves. The interrupt condition associated with the command number “550”, the command number “551”, and the command number “552” is “third stop operation three seconds before the start switch is turned on”. That is, if three of the left stop button 17L, the middle stop button 17C, and the right stop button 17R are turned on three seconds before the start switch 79 is turned on before the lapse of three seconds, the interrupt condition is satisfied. . The condition (an example of the second condition) that the stop button related to the third stop of the left stop button 17L, the middle stop button 17C, and the right stop button 17R among the interrupt conditions is turned on is the left stop button 17L. Among the middle stop button 17C and the right stop button 17R, the first stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R. It may be replaced by the condition that the stop button is turned on, the condition that the stop button related to the third stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is released from the pressed state, or the like. Good.

なお、図27に示したサウンドデータテーブルは、あくまで一例であり、多種多様な態様で変形可能である。例えば、図27に示したサウンドデータテーブルは、2つ以上の別々のテーブルにより実現されてもよい。また、再生開始条件や割込み条件は、テーブル形式ではなく、サブCPU151が実行するプログラムにより実現されてもよい。 Note that the sound data table shown in FIG. 27 is merely an example, and can be modified in various forms. For example, the sound data table shown in FIG. 27 may be realized by two or more separate tables. Further, the reproduction start condition and the interruption condition may be realized by a program executed by the sub CPU 151 instead of the table format.

図28Aは、アニメーションデータテーブルの一例を示す図である。アニメーションデータテーブルは、各種演出内容に対応する映像演出を実現する際に参照されるテーブルである。図28Bは、コマンド番号に対応付けられるアニメーションデータに従って生成される映像の説明図である。 FIG. 28A is a diagram illustrating an example of the animation data table. The animation data table is a table that is referred to when realizing a video effect corresponding to various effect contents. FIG. 28B is an explanatory diagram of a video generated according to animation data associated with a command number.

サブCPU151は、図28Aに示すアニメーションデータテーブルを用いて、決定した演出内容に対応するコマンド番号(図28Aに示すcmd No)に対応付けられたアニメーションデータをロムカートリッジ基板86からDSP1571に転送し、映像演出を実行する。 The sub CPU 151 transfers the animation data associated with the command number (cmd No shown in FIG. 28A) corresponding to the determined effect content from the ROM cartridge substrate 86 to the DSP 1571 using the animation data table shown in FIG. Perform video effects.

図28Aに示すように、各コマンド番号には、ロムカートリッジ基板86に保存されているアニメーションデータのファイル名と、各アニメーションデータの再生開始条件とが対応付けられている。 As shown in FIG. 28A, each command number is associated with a file name of animation data stored in the ROM cartridge 86 and a reproduction start condition of each animation data.

ファイル名は、ロムカートリッジ基板86に保存されているアニメーションデータのファイル名である。サブCPU151は、各映像演出を実行する場合に、各コマンド番号に対応付けられたファイル名のアニメーションデータに従って映像を作成し、作成した映像を表示装置11(プロジェクタ213)及び/又はサブ表示装置18で表示させる。 The file name is the file name of the animation data stored in the ROM cartridge substrate 86. When executing each video effect, the sub CPU 151 creates a video according to the animation data of the file name associated with each command number, and displays the created video on the display device 11 (projector 213) and / or the sub display device 18 To display.

図28Aでは、コマンド番号“641”は、キャラクタC2が電話で話を聞いているシーン(図30参照)のアニメーションデータに従って映像を作成するためのコマンドである。図28Aでは、コマンド番号“642”は、キャラクタC1が電話で話しているシーン(図31参照)のアニメーションデータに従って映像を作成するためのコマンドである。コマンド番号“641”は、上述した電話ボイスに係るコマンド番号“541”との組み合わせで使用され、コマンド番号“642”は、上述した通常ボイスに係るコマンド番号“542”との組み合わせで使用される。 In FIG. 28A, the command number “641” is a command for creating a video in accordance with animation data of a scene (see FIG. 30) in which the character C2 is listening to a telephone call. In FIG. 28A, the command number “642” is a command for creating a video according to animation data of a scene (see FIG. 31) in which the character C1 is talking on the phone. The command number “641” is used in combination with the above-mentioned command number “541” related to the telephone voice, and the command number “642” is used in combination with the above-mentioned command number “542” related to the normal voice. .

コマンド番号“642”及びコマンド番号“641”は、電話で話すキャラクタC1と話を聞くキャラクタC2の一連のシーンに関するコマンドであるが、コマンド番号“641”の方はキャラクタC2側のシーンであり、コマンド番号“642”の方はキャラクタC1側のシーンであり、両者のアニメーションデータは相違する。コマンド番号“642”に対応付けられるアニメーションデータ及びコマンド番号“641”に対応付けられるアニメーションデータは、協動して一連の画像演出を形成する。 The command number “642” and the command number “641” are commands relating to a series of scenes of the character C1 speaking on the telephone and the character C2 listening to the telephone. The command number “641” is a scene on the character C2 side. The command number “642” is the scene on the character C1 side, and the animation data of both are different. The animation data associated with the command number “642” and the animation data associated with the command number “641” cooperate to form a series of image effects.

図28Aでは、コマンド番号“6501”、“6502”、コマンド番号“6511”、“6512”及びコマンド番号“6521”、“6522”は、互いに関連するコマンドである。また、コマンド番号“6501”、“6502”、“6511”、“6512”“6521”、“6522”は、上述したサウンドデータに係るコマンド番号“571”、“572”、“573”、“574”、“575”、“576”にそれぞれ対応する。例えば、コマンド番号“6501”は、上述したサウンドデータに係るコマンド番号“571”との組み合わせで使用され、コマンド番号“6502”は、上述したサウンドデータに係るコマンド番号“572”との組み合わせで使用される。換言すると、コマンド番号“571”、“572”、“573”、“574”、“575”、“576”に対応付けられるサウンドデータは、それぞれ、コマンド番号“6501”、“6502”、“6511”、“6512”“6521”、“6522”のうちの、対応するコマンド番号に対応付けて生成される映像に同期するように、生成される。 In FIG. 28A, command numbers “6501” and “6502”, command numbers “6511” and “6512”, and command numbers “6521” and “6522” are commands related to each other. The command numbers “6501”, “6502”, “6511”, “6512”, “6521”, and “6522” correspond to the command numbers “571”, “572”, “573”, and “574” related to the above-described sound data. , "575", and "576". For example, the command number “6501” is used in combination with the command number “571” related to the above-described sound data, and the command number “6502” is used in combination with the command number “572” related to the above-described sound data. Is done. In other words, sound data associated with command numbers “571”, “572”, “573”, “574”, “575”, and “576” are command numbers “6501”, “6502”, and “6511”, respectively. , "6512", "6521", and "6522" are generated so as to be synchronized with the video generated in association with the corresponding command number.

図28Aでは、コマンド番号“6501”、“6502”、コマンド番号“6511”、“6512”及びコマンド番号“6521”、“6522”に係る各コマンドは、特定のキャラクタC3が、敵と戦うシーンに関する。具体的には、コマンド番号“6501”、“6502”、コマンド番号“6511”、“6512”及びコマンド番号“6521”、“6522”に係るコマンドは、特定のキャラクタC3が有する各種の必殺技を、再生開始から約3秒後に、繰り出すシーンを含むアニメーションデータに従って映像を作成するためのコマンドである。コマンド番号“6501”、“6502”は、“必殺技A”が対応付けられ、この場合、必殺技A勝利映像ファイル及び必殺技A敗北映像ファイルは、キャラクタC3が必殺技Aを繰り出すアニメーションデータ部分(図28BのフレームM1からフレームM2までの部分に対応)を含む。コマンド番号“6511”、“6512”は、“必殺技B”が対応付けられ、この場合、必殺技B勝利映像ファイル及び必殺技B敗北映像ファイルは、キャラクタC3が必殺技Bを繰り出すアニメーションデータ部分(図28BのフレームM1からフレームM2までの部分に対応)を含む。コマンド番号“6521”、“6522”は、“必殺技C”が対応付けられ、この場合、必殺技C勝利映像ファイル及び必殺技C敗北映像ファイルは、キャラクタC3が必殺技Cを繰り出すアニメーションデータ部分(図28BのフレームM1からフレームM2までの部分に対応)を含む。なお、キャラクタC3は、キャラクタC1又はキャラクタC2と同じであってもよいし、キャラクタC1及びキャラクタC2とは異なってもよい。 In FIG. 28A, the commands related to the command numbers “6501” and “6502”, the command numbers “6511” and “6512”, and the command numbers “6521” and “6522” relate to a scene in which a specific character C3 fights an enemy. . Specifically, the commands related to the command numbers “6501” and “6502”, the command numbers “6511” and “6512” and the command numbers “6521” and “6522” indicate various types of special moves possessed by the specific character C3. This command is used to create a video according to animation data including a scene to be advanced about three seconds after the start of reproduction. Command numbers “6501” and “6502” are associated with “special technique A”. In this case, the special technique A victory video file and the special technique A defeat video file are animation data portions in which the character C3 performs the special technique A. (Corresponding to the portion from frame M1 to frame M2 in FIG. 28B). The command numbers “6511” and “6512” are associated with “special technique B”. In this case, the special technique B victory video file and the special technique B defeat video file are animation data portions in which the character C3 performs the special technique B. (Corresponding to the portion from frame M1 to frame M2 in FIG. 28B). The command numbers “6521” and “6522” are associated with “special technique C”. In this case, the special technique C victory video file and the special technique C defeat image file are animation data portions in which the character C3 performs the special technique C. (Corresponding to the portion from frame M1 to frame M2 in FIG. 28B). Note that the character C3 may be the same as the character C1 or the character C2, or may be different from the character C1 and the character C2.

なお、コマンド番号“6501”、“6502”、コマンド番号“6511”、“6512”及びコマンド番号“6521”、“6522”に対応付けて生成される各映像は、対応する必殺技を繰り出すまでのシーンは共通の映像(例えば攻撃のモーションに係る映像)(図28Bのフレーム1からフレームM1までの再生時間が3秒間の部分)であってよい。この場合、遊技者は、必殺技を繰り出すシーンまでは、必殺技の種類が判別できないので、必殺技の種類を知りたい遊技者は、遊技テンポを遅らせる傾向となる。この結果、射幸性を抑制できる。 Each video generated in association with the command numbers “6501” and “6502”, the command numbers “6511” and “6512”, and the command numbers “6521” and “6522” is used until the corresponding deadly technique is executed. The scene may be a common video (for example, a video related to the motion of the attack) (a portion where the reproduction time from frame 1 to frame M1 in FIG. 28B is 3 seconds). In this case, the player cannot determine the type of the special move until the scene where the special move is advanced, so that the player who wants to know the type of the special move tends to delay the game tempo. As a result, gambling can be suppressed.

コマンド番号“6501”とコマンド番号“6502”との間の相違は、キャラクタC3が必殺技Aを繰り出した後の勝敗の相違である。具体的には、コマンド番号“6501”に対応付けられる必殺技A勝利映像ファイルは、特定のキャラクタC3が有する必殺技Aを繰り出したことで、敵に勝利するアニメーションデータ部分(図28BのフレームM2から最終フレームまでの部分に対応)を含む。コマンド番号“6502”に対応付けられる必殺技A敗北映像ファイルは、特定のキャラクタC3が有する必殺技Aを繰り出したにもかかわらず、(敵に跳ね返される、かわされる等により)敵に敗北するアニメーションデータ部分(図28BのフレームM2から最終フレームまでの部分に対応)を含む。 The difference between the command number “6501” and the command number “6502” is a difference in winning or losing after the character C3 has advanced the special attack A. Specifically, the deathblow technique A victory video file associated with the command number “6501” includes an animation data portion (frame M2 in FIG. 28B) that defeats the enemy by executing the special technique A possessed by the specific character C3. To the last frame). The animation file in which the deathblow A defeat image file associated with the command number “6502” is defeated by the enemy (due to being bounced off by the enemy, being dodged, etc.) even though the deathblow A of the specific character C3 is advanced. A data portion (corresponding to a portion from the frame M2 to the last frame in FIG. 28B) is included.

コマンド番号“6511”とコマンド番号“6512”との間の相違も同様であり、コマンド番号“6521”とコマンド番号“6522”との間の相違も同様である。すなわち、コマンド番号“6511”、“6512”及びコマンド番号“6521”、“6522”に対応付けて生成される各映像は、必殺技を繰り出した後の結果シーンが、それぞれの結果(勝利又は敗北)に応じた異なる映像(図28BのフレームM2から最終フレームまでの部分)であってよい。なお、敵に勝利すると、所定の特典(後述)が付与されることが遊技者に伝わり、敵に敗北すると、所定の特典(後述)が付与されないことが遊技者に伝わる。 The difference between the command number “6511” and the command number “6512” is the same, and the difference between the command number “6521” and the command number “6522” is also the same. That is, in each of the videos generated in association with the command numbers “6511” and “6512” and the command numbers “6521” and “6522”, the result scene after executing the deadly technique has the respective result (victory or defeat). ) May be different (the part from the frame M2 to the last frame in FIG. 28B). Note that if the enemy is won, the player is notified that a predetermined privilege (described later) is given, and if the enemy is defeated, the player is notified that the predetermined privilege (described later) is not given.

コマンド番号“6501”、“6502”は、サウンドデータに係るコマンド番号“550”との組み合わせで使用され、コマンド番号“6511”、“6512”は、サウンドデータに係るコマンド番号“551”との組み合わせで使用され、コマンド番号“6521”、“6522”は、サウンドデータに係るコマンド番号“552”との組み合わせで使用される。 The command numbers “6501” and “6502” are used in combination with the command number “550” related to the sound data, and the command numbers “6511” and “6512” are combined with the command number “551” related to the sound data. And the command numbers “6521” and “6522” are used in combination with the command number “552” related to the sound data.

また、コマンド番号“6501”、“6502”は、それぞれ、サウンドデータに係るコマンド番号“571”、“572”との組み合わせで使用され、コマンド番号“6511”、“6512”は、それぞれ、サウンドデータに係るコマンド番号“573”、“574”との組み合わせで使用され、コマンド番号“6521”、“6522”は、それぞれ、サウンドデータに係るコマンド番号“575”、“576”との組み合わせで使用される。例えば、コマンド番号“6501”は、コマンド番号“571”との組み合わせで使用される。 Command numbers “6501” and “6502” are used in combination with command numbers “571” and “572” related to sound data, respectively, and command numbers “6511” and “6512” are used as sound data Are used in combination with the command numbers “573” and “574” of the sound data, and the command numbers “6521” and “6522” are used in combination with the command numbers “575” and “576” of the sound data, respectively. You. For example, the command number “6501” is used in combination with the command number “571”.

アニメーションデータに係る再生開始条件は、各コマンド番号に対応付けられた映像の出力を開始させる際に満たされる条件である。コマンド番号に対応付けられた映像とは、当該コマンド番号に対応付けられたアニメーションデータに従って生成された映像を意味する。再生開始条件は、コマンド番号ごとに設定される。図28Aでは、コマンド番号“642”を除くすべてのコマンド番号に対して、再生開始条件が“スタートスイッチオン”が対応付けられている。これは、コマンド番号“642”を除くすべてのコマンド番号に対応付けられた映像の出力が、スタートスイッチ79がオンするイベントを契機(トリガ)として開始されることを表す。なお、“スタートスイッチオン”は、スタートスイッチ79がオンしてから微小時間経過したことや、リールの回転が開始されること等の他の条件で置換されてもよい。 The reproduction start condition related to the animation data is a condition that is satisfied when starting the output of the video associated with each command number. The video associated with the command number means a video generated according to the animation data associated with the command number. The reproduction start condition is set for each command number. In FIG. 28A, the playback start condition is associated with “start switch on” for all command numbers except the command number “642”. This means that the output of the video associated with all the command numbers except the command number “642” is started by an event that the start switch 79 is turned on (trigger). The “start switch on” may be replaced by other conditions such as a lapse of a minute time after the start switch 79 is turned on or the start of reel rotation.

コマンド番号“642”には、第3停止操作が対応付けられている。これは、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第3停止に係るストップボタンがオンするイベントが、コマンド番号“642”に係る映像の再生開始条件(切替条件)を満たさせることを表す。コマンド番号“642”に係る映像の再生開始条件は、上述した切替条件と一致する。コマンド番号“642”に対応付けられた映像は、コマンド番号“641”に対応付けられた映像と切り替わる態様で出力される。 The command number “642” is associated with a third stop operation. This is because the event that the stop button of the third stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is turned on is the video reproduction start condition (switch condition) of the command number “642”. Is satisfied. The playback start condition of the video associated with the command number “642” matches the above-described switching condition. The video associated with the command number “642” is output in a manner that switches from the video associated with the command number “641”.

なお、図28Aでは、必殺技Aに対して2種類の映像(すなわち勝利用と敗北用)が生成可能であるが、3つ以上の映像が生成可能とされてもよい。必殺技B及び必殺技Cについても同様である。また、キャラクタC1が電話で話しているシーンのアニメーションデータや、キャラクタC2が電話で話を聞いているシーンのアニメーションデータも複数種類用意されてもよい。この場合、バリエーションに富んだ演出を実現できる。 In FIG. 28A, two types of images (that is, for victory and for defeat) can be generated for the special technique A, but three or more images may be generated. The same applies to the special moves B and C. Also, a plurality of types of animation data of a scene in which the character C1 is talking on the phone and a plurality of types of animation data of a scene in which the character C2 is talking on the phone may be prepared. In this case, a variety of effects can be realized.

次に、副制御回路150により実行される演出処理について説明する。演出処理は、サウンド演出処理と、画像演出処理とを含む。副制御回路150では、上述したように、受信したコマンドデータに基づいて、該コマンドデータの種別に対応する演出を決定し、表示装置11(プロジェクタ213)、サブ表示装置18、スピーカ群84、LED群85を駆動して演出制御を行う。その際、図19を参照して上述したように、副制御回路150は、コマンドデータの種別に対応する演出の決定タスク(演出登録タスク)を実行する。 Next, the rendering process executed by the sub control circuit 150 will be described. The rendering process includes a sound rendering process and an image rendering process. As described above, the sub-control circuit 150 determines an effect corresponding to the type of the command data based on the received command data, and displays the display device 11 (projector 213), the sub-display device 18, the speaker group 84, and the LED. The group 85 is driven to effect control. At that time, as described above with reference to FIG. 19, the sub-control circuit 150 executes an effect determination task (effect registration task) corresponding to the type of command data.

副制御回路150のサブCPU151は、演出登録タスクの結果に基づいて、演出処理を行う。例えば、サブCPU151は、登録処理で登録されたアニメーションデータやサウンドデータを出力することで、決定された演出内容を実現する。 The sub CPU 151 of the sub-control circuit 150 performs the effect processing based on the result of the effect registration task. For example, the sub CPU 151 implements the determined effect contents by outputting the animation data and the sound data registered in the registration processing.

図29は、第1実施形態による演出処理に関連した機能の一例を示すブロック図である。 FIG. 29 is a block diagram illustrating an example of functions related to the effect processing according to the first embodiment.

副制御回路150は、図29に示すように、第1サウンド演出処理部1500と、第2サウンド演出処理部1502と、第1画像演出処理部1504と、第2画像演出処理部1506とを含む。第1サウンド演出処理部1500、第2サウンド演出処理部1502、第1画像演出処理部1504、及び第2画像演出処理部1506は、サブCPU151が記憶部(例えばロムカートリッジ基板86)に記憶されたプログラムを実行することで実現できる。 As shown in FIG. 29, the sub-control circuit 150 includes a first sound effect processing unit 1500, a second sound effect processing unit 1502, a first image effect processing unit 1504, and a second image effect processing unit 1506. . In the first sound effect processing unit 1500, the second sound effect processing unit 1502, the first image effect processing unit 1504, and the second image effect processing unit 1506, the sub CPU 151 is stored in the storage unit (for example, the ROM cartridge substrate 86). This can be achieved by executing a program.

第1サウンド演出処理部1500は、切替条件が対応付けられる特定のコマンド番号の組み合わせに係る処理を実行する場合に機能する。第1サウンド演出処理部1500は、組み合わせに係る各特定のコマンド番号に対応付けられたサウンドデータを出力(再生)する。具体的には、第1サウンド演出処理部1500は、DSP1571、オーディオRAM1572、及びデジタルアンプ158と協動して、組み合わせに係る各特定のコマンド番号に対応付けられたサウンドデータに係る音をスピーカ64L、64Rを介して出力する。 The first sound effect processing unit 1500 functions when executing a process related to a combination of specific command numbers associated with a switching condition. The first sound effect processing unit 1500 outputs (reproduces) sound data associated with each specific command number related to the combination. Specifically, the first sound effect processing unit 1500 cooperates with the DSP 1571, the audio RAM 1572, and the digital amplifier 158, and outputs the sound related to the sound data associated with each specific command number related to the combination to the speaker 64L. , 64R.

特定のコマンド番号の組み合わせは、協動又は連携してサウンド演出を実現するための組み合わせである。本実施形態では、特定のコマンド番号の組み合わせは、図27に示すコマンド番号“541”とコマンド番号“542”との組み合わせである。なお、特定のコマンド番号の組み合わせは、1つに限らず、複数存在してもよい。 The combination of specific command numbers is a combination for realizing a sound effect in cooperation or cooperation. In the present embodiment, the specific command number combination is a combination of the command number “541” and the command number “542” shown in FIG. Note that the combination of specific command numbers is not limited to one, and a plurality of combinations may exist.

第1サウンド演出処理部1500は、CH5(第1チャンネルの一例)において、電話ボイスに係るサウンドデータ(第1の音の一例)を、コマンド番号“541”に対応付けられた2種類のボリュームである通常音量(第1の音量の一例)とミュート音量(音量=0)(第3の音量の一例)とで選択的に再生する。なお、コマンド番号“541”に対応付けられた通常音量は、図27に示すように、ボリューム“255”である。 The first sound effect processing unit 1500 converts the sound data (an example of the first sound) relating to the telephone voice into two types of volumes associated with the command number “541” in CH5 (an example of the first channel). Reproduction is selectively performed at a certain normal volume (an example of a first volume) and a mute volume (a volume = 0) (an example of a third volume). The normal volume associated with the command number “541” is a volume “255” as shown in FIG.

第1サウンド演出処理部1500は、CH6(第2チャンネルの一例)において、通常ボイスに係るサウンドデータ(第2の音の一例)を、コマンド番号“542”に対応付けられた2種類のボリュームである通常音量(第4の音量の一例)とミュート音量(音量=0)(第2の音量の一例)とで選択的に再生する。なお、コマンド番号“542”に対応付けられた通常音量は、図27に示すように、ボリューム“255”である。 The first sound effect processing unit 1500 converts the sound data (an example of the second sound) related to the normal voice into two types of volumes associated with the command number “542” in CH6 (an example of the second channel). Reproduction is selectively performed at a certain normal volume (an example of a fourth volume) and a mute volume (a volume = 0) (an example of a second volume). The normal volume associated with the command number “542” is a volume “255” as shown in FIG.

なお、本実施形態では、通常ボイスに係るサウンドデータに対応付けられた通常音量と、電話ボイスに係るサウンドデータに対応付けられた通常音量とは、同じであるが、異なってもよい。 In the present embodiment, the normal sound volume associated with the sound data related to the normal voice and the normal sound volume associated with the sound data related to the telephone voice are the same, but may be different.

第1サウンド演出処理部1500は、再生開始条件が成立すると、スピーカ64L、64R(音出力手段の一例)を介して、電話ボイスに係るサウンドデータを通常音量で、通常ボイスに係るサウンドデータをミュート音量で、それぞれ略同時に再生開始する処理(以下、「第1音声再生処理」と称する)を行う。“略同時”とは、ソフトウェアによるタイムラグのような微小な時間を許容する概念である。なお、変形例では、第1音声再生処理は、通常ボイスに係るサウンドデータを、ミュート音量に代えて、微小な音量(ボリューム“255”よりも有意に小さい音量)で再生してもよい。 When the reproduction start condition is satisfied, the first sound effect processing unit 1500 mutes the sound data related to the telephone voice at the normal volume and the sound data related to the normal voice via the speakers 64L and 64R (an example of a sound output unit). Processing for starting reproduction at substantially the same time at each volume (hereinafter, referred to as “first sound reproduction processing”) is performed. “Almost at the same time” is a concept that allows a minute time such as a time lag by software. In the modification, in the first audio reproduction process, the sound data relating to the normal voice may be reproduced at a small volume (a volume significantly smaller than the volume “255”) instead of the mute volume.

再生開始条件は、任意であるが、本実施形態では、一例として、図27に示しかつ上述したように、コマンド番号“541”及びコマンド番号“542”に対応付けられている再生開始条件である。本実施形態では、一例として、再生開始条件は、スタートスイッチ79がオンになると満たされる。 The reproduction start condition is arbitrary, but in the present embodiment, as an example, as shown in FIG. 27 and described above, the reproduction start condition is associated with the command number “541” and the command number “542”. . In the present embodiment, as an example, the reproduction start condition is satisfied when the start switch 79 is turned on.

具体的には、第1音声再生処理では、第1サウンド演出処理部1500は、DSP1571に対して、電話ボイスファイルをCH5かつボリューム“255”の指示値で入力するとともに、通常ボイスファイルをCH6かつボリューム“0”の指示値で入力する。この結果、DSP1571は、サブCPU151から入力されたサウンドデータをそれぞれのボリュームの指示値が実現されるように加工した上で、デジタルアンプ158の対応するチャンネルに入力する。デジタルアンプ158は、入力された各サウンドデータを増幅した後に、例えば、スピーカ64L、64R、65L、65Rのうちの、スピーカ64L、64Rから出力する。なお、ボリュームの調整機能は、デジタルアンプ158で実現されてもよい。 Specifically, in the first sound reproduction process, the first sound effect processing unit 1500 inputs the telephone voice file to the DSP 1571 with the instruction value of CH5 and volume “255”, and also converts the normal voice file to CH6 and CH6. Input with the indicated value of volume “0”. As a result, the DSP 1571 processes the sound data input from the sub CPU 151 so that the indicated value of each volume is realized, and inputs the processed data to the corresponding channel of the digital amplifier 158. After amplifying each input sound data, the digital amplifier 158 outputs the sound data from, for example, the speakers 64L and 64R among the speakers 64L, 64R, 65L and 65R. Note that the volume adjustment function may be realized by the digital amplifier 158.

第1サウンド演出処理部1500は、第1音声再生処理中に、切替条件が成立すると、電話ボイスに係るサウンドデータの音量を通常音量からミュート音量に減少させ、かつ、通常ボイスに係るサウンドデータの音量をミュート音量から通常音量に増加させて、再生を継続する処理(以下、「第2音声再生処理」と称する)を実行する。なお、変形例では、第2音声再生処理は、電話ボイスに係るサウンドデータを、ミュート音量に代えて、微小な音量(ボリューム“255”よりも有意に小さい音量)で再生してもよい。あるいは、他の変形例では、第2音声再生処理は、電話ボイスに係るサウンドデータの再生を停止してもよい。この場合、DSP1571への電話ボイスに係るサウンドデータの転送が停止されてもよいし、デジタルアンプ158への電話ボイスに係るサウンドデータの入力が停止されてもよい。 When the switching condition is satisfied during the first sound reproduction process, the first sound effect processing unit 1500 reduces the volume of the sound data related to the telephone voice from the normal volume to the mute volume, and sets the sound data related to the normal voice. A process of increasing the volume from the mute volume to the normal volume and continuing reproduction (hereinafter, referred to as “second audio reproduction process”) is executed. In the modification, in the second audio reproduction process, sound data relating to the telephone voice may be reproduced at a small volume (a volume significantly smaller than the volume “255”) instead of the mute volume. Alternatively, in another modification, the second audio reproduction process may stop reproduction of sound data related to the telephone voice. In this case, the transfer of the sound data related to the telephone voice to the DSP 1571 may be stopped, or the input of the sound data related to the telephone voice to the digital amplifier 158 may be stopped.

具体的には、第2音声再生処理では、第1サウンド演出処理部1500は、通常音量で再生中の電話ボイスファイルのボリュームの指示値を“255”から“0”に減少させるとともに、ミュート音量で再生中の通常ボイスファイルのボリュームの指示値を“0”から“255”に増加させる。この結果、DSP1571は、それぞれボリュームが変更された通常ボイスに係るサウンドデータ及び電話ボイスに係るサウンドデータを、例えば、スピーカ64L、64R、65L、65Rのうちの、スピーカ64L、64Rから出力する。 Specifically, in the second sound reproduction process, the first sound effect processing unit 1500 decreases the volume indication value of the telephone voice file being reproduced at the normal volume from “255” to “0”, and sets the mute volume. Increases the indicated value of the volume of the normal voice file being reproduced from "0" to "255". As a result, the DSP 1571 outputs the sound data of the normal voice and the sound data of the telephone voice whose volume has been changed, for example, from the speakers 64L and 64R among the speakers 64L, 64R, 65L and 65R.

第2音声再生処理は、所定の再生終了条件が成立するまで継続される。所定の再生終了条件は、例えば通常ボイスファイルの再生及び電話ボイスファイルの再生が終了した場合や、次の遊技に係るスタートスイッチ79がオンになった場合等であってよい。あるいは、所定の再生終了条件は、例えば、メダルが投入された場合や、MAXベットボタン15a又は1ベットボタン15bが遊技者により押下された場合に満たされてよい。 The second audio reproduction process is continued until a predetermined reproduction end condition is satisfied. The predetermined reproduction end condition may be, for example, when the reproduction of the normal voice file and the reproduction of the telephone voice file are completed, or when the start switch 79 for the next game is turned on. Alternatively, the predetermined reproduction end condition may be satisfied, for example, when a medal is inserted or when the MAX bet button 15a or the 1-bet button 15b is pressed by the player.

ここで、本実施形態では、切替条件は、再生開始条件が成立してから切替条件が成立するまでの時間が不定となる態様で、成立可能である。例えば、再生開始条件が成立してから切替条件が成立するまでの時間ΔT1、すなわちスタートスイッチ79がオンになってから第3停止操作が行われるまでの時間ΔT1は、遊技者ごとに又は遊技ごとに異なりうる。 Here, in the present embodiment, the switching condition can be satisfied in such a manner that the time from when the reproduction start condition is satisfied to when the switching condition is satisfied is indefinite. For example, the time ΔT1 from when the reproduction start condition is satisfied to when the switching condition is satisfied, that is, the time ΔT1 from when the start switch 79 is turned on to when the third stop operation is performed, is determined for each player or for each game. Can be different.

この点、対比として第1比較例では、再生開始条件が成立してから切替条件が成立するまでの時間ΔT1が変化しうることを考慮して、異なるΔT1ごとに用意された通常ボイスファイルと電話ボイスファイルとの組み合わせが使用される。しかしながら、第1比較例では、ΔT1ごとに、異なる通常ボイスファイルと電話ボイスファイルとの組み合わせを作成し選択する必要がある。例えば、50種類のΔT1がある場合、長さの異なる50個の通常ボイスファイルと、長さの異なる50個の電話ボイスファイルとを作成し選択する必要がある。この場合、設計工数が増加しかつ必要な記憶領域が増加するという不都合が生じる。 In contrast to this, in the first comparative example, in consideration of the fact that the time ΔT1 from when the reproduction start condition is satisfied to when the switching condition is satisfied may be changed, the normal voice file prepared for each different ΔT1 and the telephone A combination with a voice file is used. However, in the first comparative example, it is necessary to create and select a combination of different normal voice files and telephone voice files for each ΔT1. For example, if there are 50 types of ΔT1, it is necessary to create and select 50 normal voice files having different lengths and 50 telephone voice files having different lengths. In this case, there is a disadvantage that the number of design steps and the necessary storage area increase.

これに対して、本実施形態では、第1サウンド演出処理部1500を備えることで、上述した第1比較例で生じる不都合を低減できる。すなわち、本実施形態では、再生開始条件が成立してから切替条件が成立するまで(時間ΔT1)は、通常ボイスファイルと電話ボイスファイルとの一の組み合わせに基づいて第1音声再生処理が実行され、切替条件が成立すると、通常ボイスファイルと電話ボイスファイルとの同じ一の組み合わせに基づいて第2音声再生処理が実行される。したがって、本実施形態では、通常ボイスファイルと電話ボイスファイルの組み合わせを複数用意することを要せずに、再生開始条件が成立してから切替条件が成立するまでの時間ΔT1が変化することに対応できる。 On the other hand, in the present embodiment, by providing the first sound effect processing unit 1500, the inconvenience caused in the first comparative example can be reduced. That is, in the present embodiment, from when the reproduction start condition is satisfied to when the switching condition is satisfied (time ΔT1), the first audio reproduction process is executed based on one combination of the normal voice file and the telephone voice file. When the switching condition is satisfied, the second sound reproduction process is executed based on the same combination of the normal voice file and the telephone voice file. Therefore, in the present embodiment, it is not necessary to prepare a plurality of combinations of the normal voice file and the telephone voice file, and the time ΔT1 from when the reproduction start condition is satisfied to when the switching condition is satisfied changes. it can.

第2サウンド演出処理部1502は、割込み条件が対応付けられる所定のコマンド番号に係る処理を実行する場合に機能する。第2サウンド演出処理部1502は、所定のコマンド番号に対応付けられたサウンドデータを出力(再生)する。具体的には、第2サウンド演出処理部1502は、DSP1571、オーディオRAM1572、及びデジタルアンプ158と協動して、所定のコマンド番号に対応付けられたサウンドデータに係る音をスピーカ64L、64Rを介して出力する。 The second sound effect processing unit 1502 functions when executing a process related to a predetermined command number associated with an interrupt condition. The second sound effect processing unit 1502 outputs (reproduces) sound data associated with a predetermined command number. Specifically, the second sound effect processing unit 1502 cooperates with the DSP 1571, the audio RAM 1572, and the digital amplifier 158 to output a sound related to sound data associated with a predetermined command number via the speakers 64L and 64R. Output.

本実施形態では、所定のコマンド番号は、図27に示すコマンド番号“550”、コマンド番号“551”及びコマンド番号“552”である。なお、所定のコマンド番号は、3つに限らず、1つ、2つ、又は4つ以上存在してもよい。また、第2サウンド演出処理部1502は、コマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”に対応付けられたサウンドデータを出力(再生)する。 In the present embodiment, the predetermined command numbers are the command number “550”, the command number “551”, and the command number “552” shown in FIG. The number of predetermined commands is not limited to three, but may be one, two, or four or more. Further, the second sound effect processing unit 1502 outputs (reproduces) sound data associated with the command numbers “571”, “572”, “573”, “574”, “575”, and “576”. .

第2サウンド演出処理部1502は、CH5において、再生開始条件が成立すると、コマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”のいずれかに係るサウンドデータを出力するベース音声出力処理を実行する。ベース音声出力処理は、所定の終了条件が成立するまで継続される。所定の終了条件は、例えば、メダルが投入された場合や、MAXベットボタン15a又は1ベットボタン15bが遊技者により押下された場合に満たされる。 When the reproduction start condition is satisfied in CH5, the second sound effect processing unit 1502 relates to one of the command numbers “571”, “572”, “573”, “574”, “575”, and “576”. A base sound output process for outputting sound data is executed. The base voice output process is continued until a predetermined end condition is satisfied. The predetermined end condition is satisfied, for example, when a medal is inserted or when the MAX bet button 15a or the 1-bet button 15b is pressed by the player.

また、第2サウンド演出処理部1502は、CH6において、再生開始条件の成立からの所定時間ΔTの経過に基づいて特定演出音を出力する通常出力処理(第1処理の一例)を実行する。再生開始条件は、上述したとおりである。なお、所定時間ΔTは、任意であるが、本実施形態では、3秒である。所定時間ΔTは、遊技者による遊技テンポ(1回の遊技に要する時間)を遅らせるように適合されてよく、また、3秒以外の他の秒数であってもよい。 In addition, the second sound effect processing unit 1502 executes a normal output process (an example of a first process) that outputs a specific effect sound based on a lapse of a predetermined time ΔT from the establishment of the reproduction start condition in CH6. The reproduction start condition is as described above. The predetermined time ΔT is arbitrary, but is 3 seconds in the present embodiment. The predetermined time ΔT may be adapted to delay the game tempo (the time required for one game) by the player, and may be other seconds than 3 seconds.

特定演出音は、所定の特典が付与される期待度を示唆可能である。特典の例としては、遊技媒体(メダル等)の払い出し、遊技媒体を消費することなく再度、内部抽籤処理を行う再遊技(リプレイ)の作動、遊技媒体の払い出し機会が増加するボーナスゲームの作動、ART等を挙げることができる。所定の特典は、これらの各種特典のうちの、ボーナスゲームの作動やARTのような、遊技媒体の払い出し機会が比較的大きく増加する特典である。 The specific effect sound can indicate the degree of expectation that a predetermined privilege is given. Examples of benefits include payout of game media (medals and the like), operation of replay (replay) in which internal lottery processing is performed again without consuming game media, operation of a bonus game in which the chance of paying out game media increases, ART and the like. The predetermined privilege is a privilege, such as the operation of a bonus game or an ART, of which the opportunity of paying out game media is relatively large among these various privileges.

特定演出音は、好ましくは、期待度に応じて複数種類出力可能である。これにより、遊技者は、特定演出音の種類の相違に応じて、所定の特典が付与される期待度を判断できるので、遊技の興趣を高めることができる。図27では、特定演出音は、必殺技Aファイル、必殺技Bファイル、及び必殺技Cファイルの各サウンドデータに対応する。例えば、必殺技Aの方が必殺技Bよりも期待度が高く、必殺技Bの方が必殺技Cよりも期待度が高い。この場合、遊技者は、所定時間ΔTが経過するまで第3停止操作を行わずに、必殺技A〜必殺技Cのうちのどの必殺技になるかを楽しみにして特定演出音の出力を待つことができる。この結果、遊技者による遊技テンポ(1回の遊技に要する時間)が長くなりやすくなり、射幸性を抑制できる。 Preferably, a plurality of specific effect sounds can be output according to the degree of expectation. Thereby, the player can determine the degree of expectation that the predetermined privilege is provided according to the difference in the type of the specific effect sound, and thus can enhance the interest of the game. In FIG. 27, the specific effect sound corresponds to each sound data of the special technique A file, the special technique B file, and the special technique C file. For example, the special skill A has a higher degree of expectation than the special technique B, and the special technique B has a higher degree of expectation than the special technique C. In this case, the player does not perform the third stop operation until the predetermined time ΔT elapses, and waits for the output of the specific effect sound while looking forward to which of the special moves from the special moves A to C. be able to. As a result, the game tempo (time required for one game) by the player is likely to be long, and gambling can be suppressed.

また、第2サウンド演出処理部1502は、CH6において、割込み条件(再生開始条件から3秒経過前に成立する条件)の成立に基づいて、通常出力処理を禁止しかつ特定演出音を出力する後出力処理(第2処理の一例)を実行する。後出力処理は、通常出力処理により出力されない特定演出音を、出力されるはずの特定演出音の種類を知りたい遊技者のために、出力する処理である。後出力処理において通常出力処理を禁止するのは、後出力処理は、通常出力処理に代えて特定演出音を出力する処理であるためである。すなわち、後出力処理が通常出力処理ともに実行される場合は、特定演出音が重複して出力されうり、かかる重複した特定演出音の出力は違和感を遊技者に与えるおそれがあるためである。 Further, the second sound effect processing unit 1502 prohibits the normal output process and outputs the specific effect sound in CH6 based on the establishment of the interrupt condition (the condition established before the lapse of three seconds from the reproduction start condition). An output process (an example of a second process) is executed. The post-output process is a process of outputting a specific effect sound not output by the normal output process for a player who wants to know the type of the specific effect sound that should be output. The reason why the normal output process is prohibited in the post-output process is that the post-output process is a process of outputting a specific effect sound instead of the normal output process. That is, when the post-output process is performed together with the normal output process, the specific effect sound may be output in duplicate, and the output of the duplicated specific effect sound may give a sense of incongruity to the player.

ここで、本実施形態では、割込み条件のうちの、第3停止操作が検出されるという条件は、再生開始条件が成立してから当該条件が成立するまでの時間が不定となる態様で、成立可能である。例えば、再生開始条件が成立してから、第3停止操作が検出されるまでの時間ΔT1、すなわちスタートスイッチ79がオンになってから第3停止操作が行われるまでの時間ΔT1は、遊技者ごとに又は遊技ごとに異なりうる。したがって、第3停止操作が検出されるまでの時間ΔT1が、3秒(所定時間ΔT)未満となる場合や、第3停止操作が検出されるまでの時間ΔT1が、3秒(所定時間ΔT)以上となる場合がある。 Here, in the present embodiment, the condition that the third stop operation is detected among the interrupt conditions is satisfied in a mode in which the time from when the regeneration start condition is satisfied to when the condition is satisfied is undefined. It is possible. For example, the time ΔT1 from when the reproduction start condition is satisfied to when the third stop operation is detected, that is, the time ΔT1 from when the start switch 79 is turned on to when the third stop operation is performed is determined for each player. Or from game to game. Therefore, the time ΔT1 until the third stop operation is detected is less than 3 seconds (predetermined time ΔT), or the time ΔT1 until the third stop operation is detected is 3 seconds (predetermined time ΔT). This may be the case.

この点、対比として第2比較例では、再生開始条件が成立してから、第3停止操作が行われるまでの時間ΔT1が3秒(所定時間ΔT)以上である場合に限り、特定演出音が出力される。すなわち、第2比較例では、再生開始条件が成立してから、第3停止操作が行われるまでの時間ΔT1が3秒(所定時間ΔT)未満であると、特定演出音が出力されることなく、当該遊技が終了されることになる。かかる第2比較例では、遊技テンポを遅らせる観点を重視することで、遊技テンポを遅らせたくないが特定演出音の種類だけは知りたいという特定の遊技者に、不便を感じさせるという不都合が生じる。 In this regard, in the second comparative example, in contrast to this, in the second comparative example, only when the time ΔT1 from when the reproduction start condition is satisfied to when the third stop operation is performed is equal to or longer than 3 seconds (the predetermined time ΔT), the specific effect sound is Is output. That is, in the second comparative example, if the time ΔT1 from when the reproduction start condition is satisfied to when the third stop operation is performed is less than 3 seconds (the predetermined time ΔT), the specific effect sound is not output. , The game is terminated. In the second comparative example, by emphasizing the viewpoint of delaying the game tempo, there is an inconvenience that a specific player who does not want to delay the game tempo but wants to know only the type of the specific effect sound feels inconvenient.

これに対して、本実施形態では、第2サウンド演出処理部1502を備えることで、上述した第2比較例で生じる不都合を低減できる。すなわち、本実施形態では、再生開始条件が成立してから第3停止操作が行われるまでの時間ΔT1が3秒(所定時間ΔT)以上である場合は、再生開始条件が成立してから3秒の経過に基づいて、特定演出音が出力され、再生開始条件が成立してから第3停止操作が行われるまでの時間ΔT1が3秒(所定時間ΔT)未満である場合は、第3停止操作が行われること(すなわち割込み条件の成立)に基づいて、特定演出音が出力される。これにより、遊技テンポを遅らせることを誘発させることで射幸性を抑制できつつ、遊技テンポを遅らせたくないが特定演出音の種類(及び該種類により示唆される期待度)だけは知りたいという特定の遊技者のニーズに応えることができる。すなわち、演出をじっくりと楽しみたい遊技者は、再生開始条件が成立してから3秒以上後に第3停止操作を行うことで、通常のタイミングで特定演出音を聞くことができる。他方、遊技テンポを遅らせたくないが特定演出音の種類だけは知りたいという特定の遊技者は、再生開始条件が成立してから3秒未満内に第3停止操作を行うことで早い遊技テンポを維持しながら、第3停止操作後に特定演出音を聞くことができる。 On the other hand, in the present embodiment, by providing the second sound effect processing unit 1502, it is possible to reduce the inconvenience that occurs in the above-described second comparative example. That is, in the present embodiment, if the time ΔT1 from when the reproduction start condition is satisfied to when the third stop operation is performed is 3 seconds or more (the predetermined time ΔT), 3 seconds after the reproduction start condition is satisfied. If the time .DELTA.T1 from when the reproduction start condition is satisfied to when the third stop operation is performed is less than 3 seconds (the predetermined time .DELTA.T), the third stop operation is performed. Is performed (that is, the interruption condition is satisfied), a specific effect sound is output. Thereby, it is possible to suppress the gambling by inducing the delay of the game tempo, while not wanting to delay the game tempo, but to know only the type of the specific effect sound (and the degree of expectation suggested by the type). Can meet the needs of players. That is, a player who wants to thoroughly enjoy the effect can hear the specific effect sound at a normal timing by performing the third stop operation at least three seconds after the reproduction start condition is satisfied. On the other hand, a specific player who does not want to delay the game tempo but wants to know only the type of the specific sound effect can perform the third stop operation within 3 seconds after the reproduction start condition is satisfied, thereby increasing the game tempo. While maintaining the sound, the specific effect sound can be heard after the third stop operation.

第1画像演出処理部1504は、第1サウンド演出処理部1500により特定のコマンド番号の組み合わせに係る処理が実行される場合に機能する。本実施形態では、第1画像演出処理部1504は、第1サウンド演出処理部1500と並列で、コマンド番号“641”及びコマンド番号“642”に係る画像演出処理を実行する。 The first image effect processing unit 1504 functions when the first sound effect processing unit 1500 executes a process related to a specific command number combination. In the present embodiment, the first image effect processing unit 1504 executes an image effect process related to the command number “641” and the command number “642” in parallel with the first sound effect processing unit 1500.

第1画像演出処理部1504は、コマンド番号“641”に対応付けられた再生開始条件が成立すると、表示装置11(画像出力手段の一例)を介して、コマンド番号“641”に対応付けられた映像(第1の画像の一例)を出力する処理(以下、「聞き手側再生処理」と称する)を行う。コマンド番号“641”に対応付けられた映像は、上述のように、電話ボイスに係るシーンの映像であり、具体的には、図30に模式的に示すような、キャラクタC2が電話で話を聞いているシーンの映像である。 When the reproduction start condition associated with the command number “641” is satisfied, the first image effect processing unit 1504 associates the command number “641” via the display device 11 (an example of an image output unit). A process of outputting a video (an example of a first image) (hereinafter, referred to as “listener-side reproduction process”) is performed. The video associated with the command number “641” is a video of a scene related to the telephone voice as described above. Specifically, as shown in FIG. 30, the character C2 talks over the telephone. It is a video of the scene you are listening to.

具体的には、第1画像演出処理部1504は、コマンド番号“641”に対応付けられた再生開始条件が成立すると、図19のS5で生成された映像(コマンド番号“641”に対応付けられた映像)を出力する。この際、第1画像演出処理部1504は、コマンド番号“641”に対応付けられた映像を、切替条件が成立するまで又は映像が最後のフレームに至るまで、休止等させることなく出力する。 More specifically, when the reproduction start condition associated with the command number “641” is satisfied, the first image effect processing unit 1504 associates the video (command number “641”) generated in S5 of FIG. Video). At this time, the first image effect processing unit 1504 outputs the video associated with the command number “641” without a pause or the like until the switching condition is satisfied or the video reaches the last frame.

第1画像演出処理部1504は、コマンド番号“642”に対応付けられた再生開始条件が成立すると、表示装置11を介して、コマンド番号“642”に対応付けられた映像(第2の画像の一例)を出力する処理(以下、「話し手側再生処理」と称する)を行う。コマンド番号“642”に対応付けられた映像は、上述のように、通常ボイスに係るシーンの映像であり、具体的には、図31に模式的に示すような、キャラクタC1が電話で話しているシーンの映像である。 When the reproduction start condition associated with the command number “642” is satisfied, the first image effect processing unit 1504 displays, via the display device 11, the video (the second image of the second image) associated with the command number “642”. Is performed (hereinafter, referred to as “speaker-side reproduction processing”). The video associated with the command number “642” is, as described above, a video of a scene related to a normal voice. Specifically, as shown in FIG. 31, the character C1 talks over the phone. It is a video of the scene that is.

具体的には、第1画像演出処理部1504は、コマンド番号“642”に対応付けられた再生開始条件が成立すると、図19のS5で生成された映像(コマンド番号“642”に対応付けられた映像)を出力する。この際、第1画像演出処理部1504は、コマンド番号“642”に対応付けられた映像を、映像が最後のフレームに至るまで又は所定の終了条件が成立するまで、休止等させることなく出力する。所定の終了条件は、上述の通りである。 Specifically, when the reproduction start condition associated with the command number “642” is satisfied, the first image effect processing unit 1504 associates the video (the command number “642”) generated in S5 of FIG. Video). At this time, the first image effect processing unit 1504 outputs the video associated with the command number “642” without pausing or the like until the video reaches the last frame or a predetermined end condition is satisfied. . The predetermined termination condition is as described above.

このように、本実施形態では、コマンド番号“641”及びコマンド番号“642”の組み合わせに対しては、最初にコマンド番号“641”に係る映像を出力している最中であっても、コマンド番号“642”の再生開始条件が成立すると、コマンド番号“642”に係る映像が出力される。すなわち、コマンド番号“641”に係る映像を出力している状態で、コマンド番号“642”の再生開始条件が成立すると、コマンド番号“641”に係る映像からコマンド番号“642”に係る映像に切り替えられる。なお、映像の切替に際しては、コマンド番号“641”に係る映像がフェードアウトしかつコマンド番号“642”に係る映像がフェードインする態様が実現されてもよい。また、映像の切替に際しては、コマンド番号“641”に係る映像の表示枠が縮小されながら背景側へ移動しかつコマンド番号“642”に係る映像の表示枠が拡大されながら前面側へ移動するアニメーションが実現されてもよい。 As described above, in the present embodiment, for the combination of the command number “641” and the command number “642”, even if the video related to the command number “641” is being output first, When the playback start condition of the number “642” is satisfied, the video related to the command number “642” is output. That is, when the playback start condition of the command number “642” is satisfied while the video of the command number “641” is being output, the video of the command number “641” is switched to the video of the command number “642”. Can be At the time of video switching, a mode in which the video associated with the command number “641” fades out and the video associated with the command number “642” fades in may be realized. Also, when switching the video, an animation in which the display frame of the video corresponding to the command number “641” moves to the background side while being reduced and the display frame of the video corresponding to the command number “642” moves to the front side while being enlarged. May be realized.

第2画像演出処理部1506は、割込み条件が対応付けられる所定のコマンド番号に係る処理が第2サウンド演出処理部1502によって実行される場合に機能する。本実施形態では、第2画像演出処理部1506は、第2サウンド演出処理部1502と並列で、コマンド番号“6501”、“6502”、“6511”、“6512”、“6521”、及び“6522”に係る画像演出処理を実行する。 The second image effect processing unit 1506 functions when the process related to the predetermined command number associated with the interrupt condition is executed by the second sound effect processing unit 1502. In the present embodiment, the second image effect processing unit 1506 is in parallel with the second sound effect processing unit 1502, and has the command numbers “6501”, “6502”, “6511”, “6512”, “6521”, and “6522”. Is performed.

第2画像演出処理部1506は、コマンド番号“6501”、“6502”、“6511”、“6512”、“6521”、及び“6522”のいずれかに対応付けられた再生開始条件が成立すると、表示装置11(画像出力手段の一例)を介して、対応する映像を出力する処理を行う。 The second image effect processing unit 1506 determines that the playback start condition associated with any of the command numbers “6501”, “6502”, “6511”, “6512”, “6521”, and “6522” is satisfied. A process of outputting a corresponding video via the display device 11 (an example of an image output unit) is performed.

具体的には、第2画像演出処理部1506は、コマンド番号“6501”、“6502”、“6511”、“6512”、“6521”、及び“6522”のいずれかに対応付けられた再生開始条件が成立すると、図19のS5で生成された映像(コマンド番号“6501”、“6502”、“6511”、“6512”、“6521”、及び“6522”のいずれかに対応付けられた映像)を出力する。例えば、第2画像演出処理部1506は、コマンド番号“6501”に対応付けられた再生開始条件が成立すると、図19のS5で生成された映像(コマンド番号“6501”に対応付けられた映像)を出力する。この際、第1画像演出処理部1504は、映像の最後のフレームまで休止等させることなく出力する。したがって、出力開始から約3秒後に、キャラクタC3が必殺技を繰り出すシーンが出力されることになる。 More specifically, the second image effect processing unit 1506 starts the reproduction corresponding to one of the command numbers “6501”, “6502”, “6511”, “6512”, “6521”, and “6522”. When the condition is satisfied, the image generated in S5 of FIG. 19 (the image associated with any of the command numbers “6501”, “6502”, “6511”, “6512”, “6521”, and “6522”) ) Is output. For example, when the reproduction start condition associated with the command number “6501” is satisfied, the second image effect processing unit 1506 generates the image generated in S5 of FIG. 19 (the image associated with the command number “6501”). Is output. At this time, the first image effect processing unit 1504 outputs the video without stopping until the last frame of the video. Therefore, approximately three seconds after the start of the output, a scene in which the character C3 performs the deadly technique is output.

次に、図32〜図36を参照して、第1サウンド演出処理部1500及び第1画像演出処理部1504により協動して実現される演出処理の一例を説明する。 Next, with reference to FIG. 32 to FIG. 36, an example of the rendering process realized in cooperation by the first sound rendering processor 1500 and the first image rendering processor 1504 will be described.

図32は、第1サウンド演出処理部1500により実現されるサウンド演出処理の一例の概略フローチャートである。図32に示す処理は、図19のS6でコマンド番号“541”及び“542”に係るサウンドデータが登録された場合に実行される。 FIG. 32 is a schematic flowchart of an example of the sound effect processing realized by the first sound effect processing unit 1500. The process shown in FIG. 32 is executed when the sound data corresponding to the command numbers “541” and “542” is registered in S6 of FIG.

ステップS320では、第1サウンド演出処理部1500は、コマンド番号“541”及び“542”に係る再生開始条件が満たされたか否かを判定する。コマンド番号“541”及び“542”に係る再生開始条件は、同じであり、“スタートスイッチオン”である。コマンド番号“541”及び“542”に係る再生開始条件が満たされた場合は、ステップS322に進み、それ以外の場合は、再生開始条件の成立待ち状態となる。 In step S320, the first sound effect processing unit 1500 determines whether or not the playback start conditions related to the command numbers “541” and “542” are satisfied. The playback start conditions relating to the command numbers “541” and “542” are the same and “start switch on”. If the playback start conditions related to the command numbers “541” and “542” are satisfied, the process proceeds to step S322; otherwise, the process waits for the satisfaction of the playback start conditions.

ステップS322では、第1サウンド演出処理部1500は、第1音声再生処理を実行する。第1音声再生処理は、上述のように、コマンド番号“541”に対応付けられた電話ボイスに係るサウンドデータを通常音量(指示値=“255”)で、コマンド番号“542”に対応付けられた通常ボイスに係るサウンドデータをミュート音量(指示値=“0”)で、それぞれ略同時に再生開始する処理である。この場合、電話ボイスに係るサウンドデータと通常ボイスに係るサウンドデータとの合成サウンドデータがスピーカ64L、64Rから出力される。この結果、遊技者にとっては、ミュート音量の通常ボイスは聞こえず、通常音量の電話ボイスだけが聞こえる。 In step S322, the first sound effect processing unit 1500 executes a first sound reproduction process. As described above, in the first audio reproduction process, the sound data relating to the telephone voice associated with the command number “541” is associated with the command number “542” at the normal volume (instruction value = “255”). In this process, the sound data relating to the normal voices is reproduced at substantially the same mute volume (instruction value = "0"). In this case, the synthesized sound data of the sound data related to the telephone voice and the sound data related to the normal voice is output from the speakers 64L and 64R. As a result, the player does not hear the mute volume normal voice, but only the normal volume telephone voice.

ステップS324では、第1サウンド演出処理部1500は、切替条件が成立したか否かを判定する。切替条件は、上述のように、第3停止操作が検出されると満たされる。切替条件が成立した場合は、ステップS326に進み、それ以外の場合は、ステップS322に戻る。 In step S324, the first sound effect processing unit 1500 determines whether the switching condition has been satisfied. The switching condition is satisfied when the third stop operation is detected, as described above. If the switching condition is satisfied, the process proceeds to step S326; otherwise, the process returns to step S322.

ステップS326では、第1サウンド演出処理部1500は、第2音声再生処理を実行する。第2音声再生処理の一例は図33を参照して後述する。 In step S326, the first sound effect processing unit 1500 performs a second sound reproduction process. An example of the second audio reproduction process will be described later with reference to FIG.

ステップS328では、第1サウンド演出処理部1500は、所定の終了条件が成立したか否かを判定する。所定の終了条件は、上述の通りである。所定の終了条件が成立した場合は、終了し、それ以外の場合は、ステップS326に戻る。このようにして所定の終了条件が成立するまで第2音声再生処理が継続される。 In step S328, first sound effect processing section 1500 determines whether or not a predetermined end condition has been satisfied. The predetermined termination condition is as described above. If the predetermined end condition is satisfied, the process ends. Otherwise, the process returns to step S326. In this way, the second sound reproduction processing is continued until the predetermined end condition is satisfied.

図33は、第2音声再生処理(図32のステップS326)の一例を示す概略フローチャートである。 FIG. 33 is a schematic flowchart showing an example of the second audio reproduction process (step S326 in FIG. 32).

ステップS3260では、第1サウンド演出処理部1500は、コマンド番号“541”に係るボリュームの指示値の前回値が“0”でありかつコマンド番号“542”に係るボリュームの指示値の前回値が“255”であるか否かを判定する。判定結果が“YES”の場合は、ステップS3262に進み、それ以外の場合は、ステップS3264に進む。 In step S3260, the first sound effect processing unit 1500 determines that the previous value of the command value of the volume related to the command number “541” is “0” and the previous value of the command value of the volume related to the command number “542” is “ 255 "is determined. If the determination is "YES", the flow proceeds to step S3262; otherwise, the flow proceeds to step S3264.

ステップS3262では、第1サウンド演出処理部1500は、コマンド番号“541”及びコマンド番号“542”に係るボリュームの指示値を変更せずに、コマンド番号“541”に対応付けられた電話ボイスに係るサウンドデータ及びコマンド番号“542”に対応付けられた通常ボイスに係るサウンドデータの再生を継続する。 In step S3262, the first sound effect processing unit 1500 does not change the command value of the volume related to the command number “541” and the command number “542”, and relates to the telephone voice associated with the command number “541”. The reproduction of the sound data and the sound data relating to the normal voice associated with the command number “542” is continued.

ステップS3264では、第1サウンド演出処理部1500は、コマンド番号“541”に係るボリュームの指示値を前回値から所定幅だけ減らし、かつ、コマンド番号“542”に係るボリュームの指示値を前回値から所定幅だけ増やす。なお、所定幅は、例えば10msec程度の時間をかけてボリュームの指示値が“0”から“255”へ又は“255”から“0”へと変化するように設定されてよい。 In step S3264, the first sound effect processing unit 1500 reduces the designated value of the volume related to the command number “541” by a predetermined width from the previous value, and decreases the designated value of the volume related to the command number “542” from the previous value. Increase by a predetermined width. The predetermined width may be set so that the indicated value of the volume changes from “0” to “255” or from “255” to “0” over a period of about 10 msec, for example.

例えば、音制御の処理周期が4msecであり、所定幅が16段階に対応する幅であるとすると、コマンド番号“541”に係るボリュームの指示値は、4msecごとに、255、239、223、・・・、15、0といった具合に、16段階ずつ徐々に減少される。他方、コマンド番号“542”に係るボリュームの指示値は、4msecごとに、0、15、31、・・・、239、255といった具合に、16段階ずつ徐々に増加される。この場合、4msec×16=64msecの時間をかけてボリュームの指示値が“0”から“255”へ又は“255”から“0”へと変化するように設定されることになる。 For example, assuming that the processing cycle of the sound control is 4 msec and the predetermined width is a width corresponding to 16 steps, the indicated value of the volume related to the command number “541” is 255, 239, 223,. .., 15, 0, etc., are gradually reduced in 16 steps. On the other hand, the indicated value of the volume related to the command number “542” is gradually increased every 16 ms, such as 0, 15, 31,. In this case, the volume indication value is set to change from "0" to "255" or from "255" to "0" over a period of 4 msec x 16 = 64 msec.

また、処理周期が4msecであり、所定幅が64段階に対応する幅であるとすると、コマンド番号“541”に係るボリュームの指示値は、4msecごとに、255、191、127、63、0といった具合に、64段階ずつ徐々に減少される。他方、コマンド番号“542”に係るボリュームの指示値は、4msecごとに、0、63、127、191、255といった具合に、64段階ずつ徐々に増加される。この場合、4msec×4=16msecの時間をかけてボリュームの指示値が“0”から“255”へ又は“255”から“0”へと変化するように設定されることになる。 Assuming that the processing cycle is 4 msec and the predetermined width is a width corresponding to 64 steps, the indicated value of the volume related to the command number “541” is 255, 191, 127, 63, 0 every 4 msec. Specifically, it is gradually reduced by 64 steps. On the other hand, the indicated value of the volume related to the command number “542” is gradually increased by 64 steps, such as 0, 63, 127, 191, 255 every 4 msec. In this case, the indication value of the volume is set to change from “0” to “255” or from “255” to “0” over a period of 4 msec × 4 = 16 msec.

なお、ここでは、音制御の処理周期ごとに、ボリュームの指示値を所定幅だけ変化させているが、これに限られない。例えば、音制御の所定数Nsの処理周期ごとに、ボリュームの指示値を所定幅だけ変化させてもよい。 Here, the indicated value of the volume is changed by a predetermined width in each processing cycle of the sound control, but is not limited to this. For example, the designated value of the volume may be changed by a predetermined width every predetermined number Ns of processing cycles of the sound control.

一般的に、電話ボイスから通常ボイスへの切り替わりの際のフェード時間を、Tfとすると、Tfは、以下のとおりである。
Tf=m/k×Ns×Ts
ここで、mは、ボリュームの指示値の段階数(分解能)であり、例えば256であるが、これに限られない。kは、所定幅に対応する段階数(1回当たりに変化する段階数)である。Tsは音制御の処理周期であり、例えば4msecであるが、これに限られず、例えば8msecであってもよい。
Generally, assuming that the fade time at the time of switching from the telephone voice to the normal voice is Tf, Tf is as follows.
Tf = m / k × Ns × Ts
Here, m is the number of steps (resolution) of the indicated value of the volume, and is, for example, 256, but is not limited thereto. k is the number of steps corresponding to the predetermined width (the number of steps that change each time). Ts is a processing cycle of the sound control, and is, for example, 4 msec, but is not limited thereto, and may be, for example, 8 msec.

ステップS3266では、第1サウンド演出処理部1500は、ステップS3264で変更したボリュームの各指示値に基づいて、コマンド番号“541”に対応付けられた電話ボイスに係るサウンドデータ及びコマンド番号“542”に対応付けられた通常ボイスに係るサウンドデータの再生を継続する。この場合、電話ボイスに係るサウンドデータと通常ボイスに係るサウンドデータとの合成サウンドデータがスピーカ64L、64Rから出力される。最終的に、コマンド番号“541”に係るボリュームの指示値が“0”となると(同時にコマンド番号“542”に係るボリュームの指示値が“255”となる)、遊技者にとっては、ミュート音量の電話ボイスは聞こえず、通常音量の通常ボイスだけが聞こえる。 In step S3266, the first sound effect processing unit 1500 converts the sound data and the command number “542” relating to the telephone voice associated with the command number “541” based on the respective indicated values of the volume changed in step S3264. The reproduction of the sound data relating to the associated normal voice is continued. In this case, the synthesized sound data of the sound data related to the telephone voice and the sound data related to the normal voice is output from the speakers 64L and 64R. Finally, when the indication value of the volume related to the command number “541” becomes “0” (at the same time, the indication value of the volume related to the command number “542” becomes “255”), for the player, the mute volume You cannot hear the telephone voice, only the normal voice at normal volume.

図33に示す処理によれば、通常ボイスに係るサウンドデータの音量を通常音量からミュート音量に徐々に減少させ、かつ、電話ボイスに係るサウンドデータの音量をミュート音量から通常音量に徐々に増加させることができる。すなわち、通常ボイスをフェードアウトさせながら、電話ボイスをフェードインさせることができる。これにより、通常ボイスから電話ボイスへの切替の際の違和感(急な音声の変化による違和感)を抑制できる。なお、変形例では、かかる徐変を行わずに、“0”から“255”へ又は“255”から“0”へ一周期で切り替えてもよい。この場合、急に音声が変化することで、遊技者にシーンが変わったことを印象付けることができ、演出効果を高めることができる。また、フェードイン/フェードアウトを伴う切替と、フェードイン/フェードアウトを伴わない切替とは、演出の目的に応じて選択的に使用されてもよい。例えば、所定の特典が付与される期待度に応じて、フェードイン/フェードアウトを伴う切替と、フェードイン/フェードアウトを伴わない切替とが選択的に使用されてもよい。また、フェードイン/フェードアウトのためのフェード時間についても、演出の目的に応じて多段階に変化されてもよい。 According to the processing shown in FIG. 33, the volume of the sound data relating to the normal voice is gradually reduced from the normal volume to the mute volume, and the volume of the sound data relating to the telephone voice is gradually increased from the mute volume to the normal volume. be able to. That is, the telephone voice can be faded in while the normal voice is faded out. Thereby, it is possible to suppress a sense of discomfort (a sense of discomfort due to a sudden change in voice) when switching from the normal voice to the telephone voice. Note that, in the modification, without performing such a gradual change, switching from “0” to “255” or “255” to “0” may be performed in one cycle. In this case, the sudden change of the sound can give the player an impression that the scene has changed, and the effect of the effect can be enhanced. Switching with fade-in / fade-out and switching without fade-in / fade-out may be selectively used depending on the purpose of the effect. For example, switching with fade-in / fade-out and switching without fade-in / fade-out may be selectively used according to the degree of expectation that a predetermined privilege is given. Also, the fade time for fade-in / fade-out may be changed in multiple stages according to the purpose of the effect.

図34は、第1画像演出処理部1504により実現される画像演出処理の一例の概略フローチャートである。図34に示す処理は、図9のS5でコマンド番号“641”及び“642”に係るアニメーションデータが登録された場合に実行される。 FIG. 34 is a schematic flowchart of an example of the image effect processing realized by the first image effect processing unit 1504. The process shown in FIG. 34 is executed when the animation data related to the command numbers “641” and “642” is registered in S5 of FIG.

ステップS340では、第1画像演出処理部1504は、コマンド番号“641”に対応付けられた再生開始条件が満たされたか否かを判定する。コマンド番号“641”に係る再生開始条件は、“スタートスイッチオン”である。コマンド番号“641”に係る再生開始条件が満たされた場合は、ステップS342に進み、それ以外の場合は、再生開始条件の成立待ち状態となる。 In step S340, first image effect processing section 1504 determines whether or not the reproduction start condition associated with command number “641” has been satisfied. The playback start condition for the command number “641” is “start switch on”. If the playback start condition related to the command number “641” is satisfied, the process proceeds to step S342; otherwise, the process waits for the playback start condition to be satisfied.

ステップS342では、第1画像演出処理部1504は、コマンド番号“641”に対応付けられたアニメーションデータに基づいて、聞き手側再生処理を行う。聞き手側再生処理は、上述のように、表示装置11を介して、コマンド番号“641”に対応付けられた映像(以下、「聞き手側映像」と称する)を出力する処理である。 In step S342, the first image effect processing unit 1504 performs a listener-side reproduction process based on the animation data associated with the command number “641”. The listener-side reproduction process is a process of outputting a video (hereinafter, referred to as a “listener-side video”) associated with the command number “641” via the display device 11 as described above.

ステップS344では、第1画像演出処理部1504は、切替条件が成立したか否かを判定する。切替条件は、コマンド番号“641”に対応付けられた再生開始条件と同じであり(及び上述のステップS324と同じであり)、上述のように、第3停止操作が検出されると満たされる。切替条件が成立した場合は、ステップS346に進み、それ以外の場合は、ステップS342に戻る。 In step S344, first image effect processing section 1504 determines whether or not the switching condition has been satisfied. The switching condition is the same as the playback start condition associated with the command number “641” (and the same as in step S324), and is satisfied when the third stop operation is detected as described above. If the switching condition is satisfied, the process proceeds to step S346; otherwise, the process returns to step S342.

ステップS346では、第1画像演出処理部1504は、コマンド番号“642”に対応付けられたアニメーションデータに基づいて、話し手側再生処理を行う。話し手側再生処理は、上述のように、表示装置11を介して、コマンド番号“642”に対応付けられた映像「(以下、「話し手側映像」と称する)」を出力する処理である。 In step S346, first image effect processing section 1504 performs speaker-side reproduction processing based on the animation data associated with command number "642". As described above, the speaker-side reproduction process is a process of outputting a video “(hereinafter, referred to as“ speaker-side video ”) associated with the command number“ 642 ”via the display device 11.

ステップS348では、第1画像演出処理部1504は、所定の終了条件が成立したか否かを判定する。所定の終了条件は、上述のステップS328と同じである。所定の終了条件が成立した場合は、終了し、それ以外の場合は、ステップS346に戻る。このようにして所定の終了条件が成立するまで話し手側再生処理が継続される。 In step S348, first image effect processing section 1504 determines whether or not a predetermined end condition has been satisfied. The predetermined termination condition is the same as that in step S328 described above. If the predetermined end condition is satisfied, the process ends. Otherwise, the process returns to step S346. In this way, the speaker-side reproduction process is continued until the predetermined end condition is satisfied.

図35及び図36は、図32〜図34に係る演出処理の説明図であり、図35及び図36は、異なるタイミングで切替条件が成立した場合をそれぞれ示す。図35及び図36は、横軸方向が時間の経過を示し、上段から、第1画像演出処理部1504により実現される映像出力のイメージ図、シーンの変化態様、台詞、電話ボイスの音量の変化態様、及び通常ボイスの音量の変化態様が示される。 FIGS. 35 and 36 are explanatory diagrams of the effect processing according to FIGS. 32 to 34. FIGS. 35 and 36 show the case where the switching condition is satisfied at different timings, respectively. 35 and 36, the horizontal axis indicates the passage of time, and from the top, an image diagram of a video output realized by the first image effect processing unit 1504, a changing mode of a scene, a dialogue, and a changing mode of a volume of a telephone voice. , And how the volume of the normal voice changes.

図35及び図36では、時点T1で再生開始条件が成立する。再生開始条件が成立すると、第1音声再生処理が実行されることで電話ボイスに係るサウンドデータの音量が通常音量となり、通常ボイスに係るサウンドデータの音量がミュート音量となる。また、再生開始条件が成立すると、聞き手側再生処理が実行されることで聞き手側映像が出力される。これにより、再生開始条件が成立すると、聞き手側のシーンの演出が実現される。 In FIGS. 35 and 36, the reproduction start condition is satisfied at time T1. When the reproduction start condition is satisfied, the volume of the sound data related to the telephone voice becomes the normal volume and the volume of the sound data related to the normal voice becomes the mute volume by executing the first voice reproduction process. When the reproduction start condition is satisfied, the listener-side reproduction processing is executed to output the listener-side video. Thus, when the reproduction start condition is satisfied, the effect of the scene on the listener side is realized.

図35では、時点T2−1で切替条件が成立する。切替条件が成立すると、第2音声再生処理が実行されることで通常ボイスに係るサウンドデータの音量が通常音量となり、電話ボイスに係るサウンドデータの音量がミュート音量となる。また、再生開始条件が成立すると、話し手側再生処理が実行されることで話し手側映像が出力される。これにより、再生開始条件が成立すると、話し手側のシーンの演出が実現される。 In FIG. 35, the switching condition is satisfied at time T2-1. When the switching condition is satisfied, the volume of the sound data relating to the normal voice becomes the normal volume by executing the second sound reproduction process, and the volume of the sound data relating to the telephone voice becomes the mute volume. When the reproduction start condition is satisfied, the speaker-side reproduction processing is executed to output the speaker-side video. Thus, when the reproduction start condition is satisfied, the effect of the scene on the speaker side is realized.

これに対して、図36では、時点T2−1よりも前の時点T2−2で切替条件が成立する。切替条件が成立すると、第2音声再生処理が実行されることで通常ボイスに係るサウンドデータの音量が通常音量となり、電話ボイスに係るサウンドデータの音量がミュート音量となる。また、再生開始条件が成立すると、聞き手側再生処理が実行されることで聞き手側映像が出力される。これにより、再生開始条件が成立すると、聞き手側のシーンの演出が実現される。 On the other hand, in FIG. 36, the switching condition is satisfied at a time T2-2 before the time T2-1. When the switching condition is satisfied, the volume of the sound data relating to the normal voice becomes the normal volume by executing the second sound reproduction process, and the volume of the sound data relating to the telephone voice becomes the mute volume. When the reproduction start condition is satisfied, the listener-side reproduction processing is executed to output the listener-side video. Thus, when the reproduction start condition is satisfied, the effect of the scene on the listener side is realized.

図35では、台詞音“聞こえていますか?私の声が”のうちの、“聞こえていますか?”の部分が聞き手側のシーンの演出で再生され、“私の声が”の部分が話し手側のシーンの演出で再生されている。 In FIG. 35, the part of the dialogue sound “Do you hear? My voice” is reproduced in the direction of the scene on the listener's side, and the part of “My voice is” is reproduced. It is reproduced in the direction of the scene on the speaker's side.

これに対して、図36では、台詞音“聞こえていますか?私の声が”のうちの、“聞こえて”の部分が聞き手側のシーンの演出で再生され、“いますか?私の声が”の部分が話し手側のシーンの演出で再生されている。 On the other hand, in FIG. 36, in the dialogue sound “Do you hear? My voice is”, “Hear” is reproduced in the direction of the listener's scene, and “Do you hear my voice”? The "" part is reproduced in the production of the scene on the speaker's side.

このように、再生開始条件が成立してから切替条件が成立するまでの時間ΔT1の相違に応じて、台詞音“聞こえていますか?私の声が”のうちの、切り替わる位置が変化する。本実施形態では、上述のように、通常ボイスに係るサウンドデータの音量と電話ボイスに係るサウンドデータの音量とを変化させることで、かかる切り替わる位置を起点として、遊技者に聞こえる音声を変化させることができる。これにより、映像のシーンの切り替わりに同期して異なる音声が出力されるので、遊技者は、違和感なく演出を楽しむことができる。 As described above, the switching position of the dialogue sound “Do you hear? My voice” changes according to the difference in the time ΔT1 from when the reproduction start condition is satisfied to when the switching condition is satisfied. In the present embodiment, as described above, by changing the volume of the sound data related to the normal voice and the volume of the sound data related to the telephone voice, the sound that can be heard by the player is changed starting from the switching position. Can be. This allows different sounds to be output in synchronization with the switching of the video scene, so that the player can enjoy the effect without discomfort.

また、上述のように、台詞音“聞こえていますか?私の声が”のうちの、切り替わる位置は、時間ΔT1に応じて多様に変化しうるが、本実施形態では、電話ボイス及び通常ボイスに係る各音量を変化させるタイミングを、時間ΔT1に応じて変化させるだけで、多様な時間ΔT1に対応したサウンド演出を実現できる。 Further, as described above, the switching position of the dialogue sound “Do you hear? My voice” can vary in accordance with the time ΔT1, but in the present embodiment, the telephone voice and the normal voice are used. The sound effects corresponding to various times ΔT1 can be realized only by changing the timing of changing each volume according to the time ΔT1.

なお、本実施形態では、一例として、サウンドデータとは異なり、話し手側映像の出力は、時間ΔT1とは無関係に、同じフレームに係る映像から開始される。ただし、聞き手側映像は、時間ΔT1に応じた開始位置から再生が開始されてもよい。また、話し手側映像及び聞き手側映像が、台詞の吹き出し(字幕)を含む場合、話し手側映像は、吹き出しが切替後の台詞部分だけを含むように生成されてもよい。 In the present embodiment, as an example, unlike the sound data, the output of the speaker-side image starts from the image related to the same frame regardless of the time ΔT1. However, the reproduction of the listener-side video may be started from a start position corresponding to the time ΔT1. When the speaker-side video and the listener-side video include speech balloons (captions), the speaker-side video may be generated such that the speech balloon includes only the switched speech part.

このような台詞の吹き出しは、遊技店の環境を考慮すると有用となり得る。遊技店では、他の遊技機からの音や店内放送の音声、遊技媒体の払い出し音などに起因して、通常ボイスや電話ボイスが聞き取り難くなる場合があるためである。 Such speech balloons can be useful in consideration of the gaming environment. This is because, in a game arcade, normal voices and telephone voices may be difficult to hear due to sounds from other game machines, in-store broadcast sounds, game media payout sounds, and the like.

ここで、話し手側映像及び聞き手側映像が、台詞の一部又は全部の吹き出し(字幕)を含む場合、吹き出しの文字の色やフォント等により、所定の特典が付与される期待度が示唆可能とされてもよい。例えば、所定の特典が付与される期待度が高い場合に、聞き手側映像では比較的低い期待度を示唆する文字の色(例えば白色)とされるが、話し手側映像に切り替わると、話し手側映像では比較的高い期待度を示唆する文字の色(例えば赤色)に変化されてもよい。この場合、遊技者は、話し手側映像での文字の色を楽しみにしながら聞き手側映像から話し手側映像への切替を楽しむことができる。このように、期待度示唆を分かりやすく関連付けることでサウンド演出の興趣を高めることができる。 Here, when the speaker-side image and the listener-side image include a part or all of a speech balloon (caption), it is possible to suggest the degree of expectation that a predetermined privilege is given by the color or font of the speech balloon. May be done. For example, when the degree of expectation that a predetermined privilege is given is high, the color of a character (for example, white) suggesting a relatively low degree of expectation is set in the listener's side image. Then, the color of the character (for example, red) suggesting a relatively high degree of expectation may be changed. In this case, the player can enjoy switching from the listener's side image to the speaker's side image while enjoying the character color in the speaker's side image. In this way, by associating the expected degree suggestion in an easy-to-understand manner, it is possible to enhance the interest in sound production.

また、上述の吹き出しの文字の色やフォント等に代えて又は加えて、他の要素を用いて、聞き手側映像から話し手側映像への切替の前後で期待度を変化させたり、切替後に期待度示唆演出が発生させてたりしてもよい。例えば、話し手側映像及び/又は聞き手側映像が複数種類用意され、所定の特典が付与される期待度に応じて再生される話し手側映像及び/又は聞き手側映像の種類が変更されてもよい。具体的には、一例として、背景が昼夜の2種類の話し手側映像及び聞き手側映像がそれぞれ用意されてもよい。この場合、例えば背景が昼の話し手側映像が再生されたときと、背景が夜の話し手側映像が再生されたときとで期待度が異なり、例えば背景が夜の話し手側映像が再生されたときの方が期待度が高い。また、背景以外にも、キャラクタC1及び/又はキャラクタC2の表情や服装などが異なるような各種の話し手側映像及び聞き手側映像が用意されてもよい。このようにすることで、切替演出への注目を高めることができる。 In addition, instead of or in addition to the above-described character color and font of the balloon, other elements are used to change the degree of expectation before and after switching from the listener's side video to the speaker's side video, or to change the degree of expectation after switching. A suggested effect may be generated. For example, a plurality of types of speaker-side images and / or listener-side images may be prepared, and the types of speaker-side images and / or listener-side images to be reproduced may be changed according to the degree of expectation that a predetermined privilege is given. Specifically, as an example, two types of speaker-side images and listener-side images with a background of day and night may be prepared. In this case, for example, the degree of expectation is different between when the speaker side video with the background is reproduced at the day and when the speaker side video with the background at the night is reproduced, for example, when the speaker side video with the background at the night is reproduced Has higher expectations. In addition to the background, various kinds of speaker-side images and listener-side images in which the expressions and clothes of the character C1 and / or the character C2 are different may be prepared. By doing so, attention to the switching effect can be increased.

また、同様の観点から、通常ボイス及び/又は電話ボイスについても2種類以上用意され、所定の特典が付与される期待度に応じて通常ボイスの種類が変更されてもよい。例えば、通常ボイス及び/又は電話ボイスは、種類に応じて声のトーンやスピードなどが異なってもよい。 Further, from the same viewpoint, two or more types of normal voices and / or telephone voices may be prepared, and the types of the normal voices may be changed according to the degree of expectation that a predetermined privilege is given. For example, the normal voice and / or the telephone voice may have different voice tones or speeds depending on the type.

また、本実施形態では、一例として、電話シーンにおいて聞き手側のシーンが話し手側のシーンよりも先に設定されているが、逆であってもよい。 Further, in the present embodiment, as an example, in the telephone scene, the listener's side scene is set before the speaker's side scene, but may be reversed.

次に、図37〜図41を参照して、第2サウンド演出処理部1502及び第2画像演出処理部1506により協動して実現される演出処理の一例を説明する。 Next, with reference to FIG. 37 to FIG. 41, an example of an effect process realized in cooperation by the second sound effect processing unit 1502 and the second image effect process unit 1506 will be described.

図37は、第2サウンド演出処理部1502により実現されるサウンド演出処理(CH6に係るサウンド演出処理)の一例の概略フローチャートである。図37に示す処理は、図19のS6でコマンド番号“550”、“551”、及び“552”のいずれかに係るサウンドデータが登録された場合に実行される。 FIG. 37 is a schematic flowchart of an example of a sound effect process (sound effect process related to CH6) realized by the second sound effect processing unit 1502. The processing shown in FIG. 37 is executed when sound data relating to any of the command numbers “550”, “551”, and “552” has been registered in S6 of FIG.

ステップS370では、第2サウンド演出処理部1502は、スタートスイッチ79がオンとなったか否かを判定する。スタートスイッチ79がオンとなった場合は、ステップS372に進み、それ以外の場合は、スタートスイッチ79がオンとなるのを待つ状態となる。 In step S370, second sound effect processing section 1502 determines whether or not start switch 79 has been turned on. If the start switch 79 has been turned on, the process proceeds to step S372; otherwise, the process waits for the start switch 79 to be turned on.

ステップS372では、第2サウンド演出処理部1502は、3秒でタイムアウトするタイマを起動する。 In step S372, the second sound effect processing unit 1502 starts a timer that times out in three seconds.

ステップS374では、第2サウンド演出処理部1502は、タイマがタイムアウトしたか否かを判定する。タイマがタイムアウトすると、ステップS378に進み、それ以外の場合は、ステップS376に進む。 In step S374, the second sound effect processing unit 1502 determines whether the timer has timed out. When the timer times out, the process proceeds to step S378; otherwise, the process proceeds to step S376.

ステップS376では、第2サウンド演出処理部1502は、第3停止操作が検出されたか否かを判定する。第3停止操作が検出された場合は、ステップS378に進み、それ以外の場合は、ステップS374に戻る。すなわち、ステップS374及びステップS376では、タイマがタイムアウトするか、第3停止操作が検出されるか、いずれかを待つ状態となる。そして、第3停止操作が検出されるか、又は、タイマがタイムアウトすると、ステップS378に進む。なお、タイマがタイムアウトする場合も、第3停止操作が検出される場合も、ステップS378に進むが、タイマがタイムアウトする前に第3停止操作が検出された場合は、ステップS374に戻ることなくステップS378に進むことになるので、通常出力処理(タイマがタイムアウトすることに基づいて特定演出音を出力する処理)が禁止されていることになる。 In step S376, second sound effect processing section 1502 determines whether or not a third stop operation has been detected. If the third stop operation has been detected, the process proceeds to step S378; otherwise, the process returns to step S374. That is, in steps S374 and S376, a state is reached in which the timer times out or the third stop operation is detected. Then, when the third stop operation is detected or when the timer times out, the process proceeds to step S378. The process proceeds to step S378 both when the timer times out and when the third stop operation is detected. However, when the third stop operation is detected before the timer times out, the process proceeds to step S374 without returning to step S374. Since the process proceeds to S378, the normal output process (the process of outputting the specific effect sound based on the timeout of the timer) is prohibited.

ステップS378では、第2サウンド演出処理部1502は、特定演出音を出力する処理を実行する。この際、出力する特定演出音は、コマンド番号“550”、“551”、及び“552”のうちの、図19のS6で登録されたコマンド番号に対応付けられている。すなわち、第2サウンド演出処理部1502は、必殺技Aファイル、必殺技Bファイル、及び必殺技Cファイルのうちの、図19のS6で登録されたコマンド番号に係るファイルを出力する。なお、ステップS374で“YES”となってステップS378に至った場合のステップS378の処理は、上述した通常出力処理に対応し、ステップS376で“YES”となってステップS378に至った場合のステップS378の処理は、上述した後出力処理に対応する。 In step S378, the second sound effect processing unit 1502 executes a process of outputting a specific effect sound. At this time, the specific effect sound to be output is associated with the command number registered in S6 of FIG. 19 among the command numbers “550”, “551”, and “552”. That is, the second sound effect processing unit 1502 outputs a file related to the command number registered in S6 of FIG. 19 among the special technique A file, the special technique B file, and the special technique C file. Note that the process of step S378 when “YES” is determined in step S374 and the process proceeds to step S378 corresponds to the above-described normal output process, and is performed when “YES” is determined in step S376 and the process proceeds to step S378. The process of S378 corresponds to the post-output process described above.

ステップS380では、第2サウンド演出処理部1502は、特定演出音の出力が完了したか否かを判定する。特定演出音の出力が完了した場合は、終了し、それ以外の場合は、ステップS378に戻る。このようにして特定演出音の出力が完了するまで特定演出音の出力処理(通常出力処理又は後出力処理)が継続される。 In step S380, the second sound effect processing unit 1502 determines whether the output of the specific effect sound has been completed. If the output of the specific effect sound has been completed, the process ends; otherwise, the process returns to step S378. In this way, the output processing of the specific effect sound (normal output processing or post-output processing) is continued until the output of the specific effect sound is completed.

図37に示す処理によれば、第3停止操作が検出されることなくタイマがタイムアウトすると通常出力処理が実行され、タイマがタイムアウトする前に第3停止操作が検出されると後出力処理が実行される。これにより、上述したように、遊技者による遊技テンポを遅らせることを誘発させることで射幸性を抑制しつつ、遊技テンポを遅らせたくないが特定演出音の種類だけは知りたいという特定の遊技者のニーズに応えることができる。 According to the processing shown in FIG. 37, the normal output processing is executed when the timer times out without detecting the third stop operation, and the post-output processing is executed when the third stop operation is detected before the timer times out. Is done. Thus, as described above, while suppressing gambling by inducing the player to delay the game tempo, the specific player who does not want to delay the game tempo but wants to know only the type of the specific production sound We can meet your needs.

なお、図37では、一旦、特定演出音の出力処理(通常出力処理又は後出力処理)が開始されると、特定演出音の出力が完了するまで、特定演出音の出力処理が継続される。これにより、通常出力処理及び後出力処理のいずれの場合でも、遊技者に特定演出音を最後まで聞いてもらうことで、特定演出音による演出効果を高めることができる。ただし、変形例では、特定演出音の出力処理が開始された後に、特定演出音の出力が完了するまでに所定の終了条件が成立すると、特定演出音の出力処理が終了されてもよい。所定の終了条件は、上述のとおり、例えば、メダルが投入された場合や、MAXベットボタン15a又は1ベットボタン15bが遊技者により押下された場合であるが、特定演出音の出力処理に係る所定の終了条件は、上述とは異なる条件であってもよい。
例えば、特定演出音の出力処理に係る所定の終了条件は、ボーナス入賞によるボーナス作動時に満たされてもよい。具体的には、特定演出音の出力処理に係る所定の終了条件は、ボーナスに係る図柄組み合わせが有効ライン上に停止表示され、ボーナスが作動した場合に満たされてよい。この場合、ボーナス入賞に係る効果音(ファンファーレ等)が出力され、当該効果音の出力開始以降には、特定演出音は出力されない(途中で停止される)。特定演出音は、上述のように、所定の特典が付与される期待度を示唆可能であるが、ボーナスが作動した時点で、かかる示唆は不要となるためである。すなわち、ボーナスが既に作動している場合は、期待度示唆の観点からは示唆を行うまでもなく有利な状態が確定的に報知されている状況であるので、ボーナス作動に係る演出を優先的に実行する方が、興趣が高まるからである。
In FIG. 37, once the output process of the specific effect sound (normal output process or post-output process) is started, the output process of the specific effect sound is continued until the output of the specific effect sound is completed. Thus, in any case of the normal output processing and the post-output processing, the effect of the specific effect sound can be enhanced by having the player hear the specific effect sound to the end. However, in the modified example, if the predetermined end condition is satisfied before the output of the specific effect sound is completed after the output process of the specific effect sound is started, the output process of the specific effect sound may be ended. As described above, the predetermined ending condition is, for example, when a medal is inserted or when the MAX bet button 15a or the 1-bet button 15b is pressed by the player. May be different from the above.
For example, the predetermined end condition relating to the output processing of the specific effect sound may be satisfied at the time of the bonus operation by the bonus prize. Specifically, the predetermined end condition relating to the output processing of the specific effect sound may be satisfied when the symbol combination relating to the bonus is stopped and displayed on the activated line and the bonus is activated. In this case, a sound effect (such as a fanfare) relating to the bonus prize is output, and the specific effect sound is not output (stopped halfway) after the output of the sound effect starts. As described above, the specific effect sound can indicate the degree of expectation that a predetermined privilege is provided, but such suggestion becomes unnecessary when the bonus is activated. In other words, if the bonus has already been activated, it is a situation in which an advantageous state is definitely reported without any suggestion from the perspective of expectation degree suggestion. It is because the more interesting it is to execute.

また、特定演出音の出力処理に係る所定の終了条件は、ボーナス確定演出の発生時に満たされてもよい。例えば、特定演出音の出力処理に係る所定の終了条件は、「ボーナス確定!」や「当たり確定!」等の音声など、所定の特典が付与されることを特定演出音よりも高い信頼度で示唆できるサウンド演出が実行される場合は、その時点で、特定演出音による示唆は不要となるためである。すなわち、所定の特典が付与される状態の確定報知演出が発生した際にも、これ以上の期待度示唆演出は行わなくてもよいとの観点から、特定演出音は出力されないこととしてもよい(途中で停止されてもよい)。 Further, the predetermined end condition relating to the output processing of the specific effect sound may be satisfied when the bonus confirmed effect is generated. For example, the predetermined end condition relating to the output processing of the specific effect sound is that the predetermined privilege such as a voice such as “bonus determined!” Or “hit determined!” Is given with higher reliability than the specific effect sound. This is because when a sound effect that can be suggested is executed, no suggestion by a specific effect sound is required at that time. That is, the specific effect sound may not be output from the viewpoint that even when the final notification effect of the state in which the predetermined privilege is given occurs, the effect indicating the degree of expectation need not be performed any more. May be stopped halfway).

また、特定演出音の出力処理に係る所定の終了条件は、パチスロ1における所定のエラーの発生時に満たされてもよい。所定のエラーは、任意であるが、例えば、注意喚起度が高いエラーであり、より具体的には、想定されない挙動により遊技者に損害が生じる可能性があるようなエラーや、不正な行為(いわゆるゴト行為)を防止するためのエラーである。かかる所定のエラーが発生した場合に出力されるエラー報知音(例えば、「エラーが発生しましたので、係員をお呼びください」といった趣旨の音声や他の警報音)は、他の音声よりも優先して出力されることが望ましい。このような観点から、エラー報知音が出力されると、特定演出音は出力されないこととしてもよい(途中で停止されてもよい)。なお、所定のエラーとしては、その他、ドア開放エラー、遊技媒体の詰まり、ホッパーエンプティ、ホッパージャム、オーバーフロー等のエラーや、主制御回路90や副制御回路150での通信異常や設定値異常、RAM異常等のような各種エラーであってもよい。 Further, the predetermined end condition relating to the output processing of the specific effect sound may be satisfied when a predetermined error occurs in the pachislo 1. The predetermined error is arbitrary, but is, for example, an error with a high degree of alertness, and more specifically, an error that may cause damage to the player due to unexpected behavior, or an illegal action ( This is an error for preventing the so-called goto action. An error notification sound that is output when such a predetermined error occurs (for example, a sound such as "An error has occurred, please call a staff member" or another warning sound) has priority over other sounds. Output. From such a viewpoint, when the error notification sound is output, the specific effect sound may not be output (may be stopped midway). In addition, as the predetermined error, there are other errors such as a door opening error, a jam of a game medium, an error such as a hopper empty, a hopper jam, an overflow, a communication abnormality or a set value abnormality in the main control circuit 90 or the sub control circuit 150, and a RAM. Various errors such as abnormalities may be used.

図38は、第2サウンド演出処理部1502により実現されるサウンド演出処理(CH5に係るサウンド演出処理)の一例の概略フローチャートである。図38に示す処理は、図19のS6でコマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”のいずれかに係るサウンドデータが登録された場合に、図37の処理と並列的に実行される。以下の図38の説明では、コマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”のうちの、登録されたコマンド番号を、単に「登録音声コマンド番号」と称する。 FIG. 38 is a schematic flowchart of an example of a sound effect process (sound effect process related to CH5) realized by the second sound effect processing unit 1502. The processing shown in FIG. 38 is performed when the sound data related to any of the command numbers “571”, “572”, “573”, “574”, “575”, and “576” is registered in S6 of FIG. Then, it is executed in parallel with the processing of FIG. In the following description of FIG. 38, among the command numbers “571”, “572”, “573”, “574”, “575”, and “576”, the registered command number is simply referred to as “registered voice command”. Number ".

ステップS382では、第2サウンド演出処理部1502は、登録音声コマンド番号に対応付けられた再生開始条件が満たされたか否かを判定する。ここでは、コマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”のいずれも、再生開始条件は、上述のように、“スタートスイッチオン”である。再生開始条件が満たされた場合は、ステップS384に進み、それ以外の場合は、再生開始条件が満たされるのを待つ状態となる。 In step S382, the second sound effect processing unit 1502 determines whether or not the playback start condition associated with the registered voice command number has been satisfied. Here, as for the command numbers “571”, “572”, “573”, “574”, “575”, and “576”, the reproduction start condition is “start switch on” as described above. . If the reproduction start condition is satisfied, the process proceeds to step S384; otherwise, the process waits for the reproduction start condition to be satisfied.

ステップS384では、第2サウンド演出処理部1502は、登録音声コマンド番号に対応付けられたサウンドデータを出力する(ベース音声出力処理)。 In step S384, the second sound effect processing unit 1502 outputs sound data associated with the registered voice command number (base sound output processing).

ステップS386では、第2サウンド演出処理部1502は、所定の終了条件が成立したか否かを判定する。所定の終了条件は、上述の通りである。所定の終了条件が成立した場合は、終了し、それ以外の場合は、ステップS384に戻る。 In step S386, the second sound effect processing unit 1502 determines whether a predetermined end condition has been satisfied. The predetermined termination condition is as described above. If the predetermined end condition is satisfied, the process ends. Otherwise, the process returns to step S384.

図39は、第2画像演出処理部1506により実現される画像演出処理の一例の概略フローチャートである。図39に示す処理は、図9のS5でコマンド番号“6501”、“6502”、“6511”、“6512”、“6521”、及び“6522”のいずれかに係るアニメーションデータが登録された場合に、図37及び図38の各処理と並列的に実行される。以下の図39の説明では、コマンド番号“6501”、“6502”、“6511”、“6512”、“6521”、及び“6522”のうちの、登録されたコマンド番号を、単に「登録映像コマンド番号」と称する。 FIG. 39 is a schematic flowchart of an example of the image effect processing realized by the second image effect processing unit 1506. The processing shown in FIG. 39 is performed when the animation data related to any of the command numbers “6501”, “6502”, “6511”, “6512”, “6521”, and “6522” is registered in S5 of FIG. Then, it is executed in parallel with each processing of FIGS. 37 and 38. In the following description of FIG. 39, among the command numbers “6501”, “6502”, “6511”, “6512”, “6521”, and “6522”, the registered command number is simply referred to as “registered video command”. Number ".

ステップS390では、第2画像演出処理部1506は、登録映像コマンド番号に対応付けられた再生開始条件が満たされたか否かを判定する。ここでは、コマンド番号“6501”、“6502”、“6511”、“6512”、“6521”、及び“6522”のいずれも、再生開始条件は、上述のように、“スタートスイッチオン”である。再生開始条件が満たされた場合は、ステップS392に進み、それ以外の場合は、再生開始条件が満たされるのを待つ状態となる。 In step S390, second image effect processing section 1506 determines whether or not the reproduction start condition associated with the registered video command number has been satisfied. Here, as for the command numbers “6501”, “6502”, “6511”, “6512”, “6521”, and “6522”, the reproduction start condition is “start switch on” as described above. . If the reproduction start condition is satisfied, the process proceeds to step S392; otherwise, the process waits for the reproduction start condition to be satisfied.

ステップS392では、第2画像演出処理部1506は、登録映像コマンド番号に対応付けられたアニメーションデータに基づいて、映像の再生処理を行う。 In step S392, the second image effect processing unit 1506 performs a video reproduction process based on the animation data associated with the registered video command number.

ステップS394では、第2画像演出処理部1506は、所定の終了条件が成立したか否かを判定する。所定の終了条件は、上述したとおりである。所定の終了条件が成立した場合は、終了し、それ以外の場合は、ステップS392に戻る。このようにして、所定の終了条件が成立するまで、登録映像コマンド番号に対応付けられたアニメーションデータに基づく映像の再生処理が継続される。 In step S394, the second image effect processing unit 1506 determines whether a predetermined end condition has been satisfied. The predetermined termination condition is as described above. If the predetermined end condition is satisfied, the process ends. Otherwise, the process returns to step S392. In this way, the video reproduction process based on the animation data associated with the registered video command number is continued until the predetermined end condition is satisfied.

なお、図39では、登録映像コマンド番号に対応付けられたアニメーションデータに基づいて生成される映像の出力態様は、第2サウンド演出処理部1502による特定演出音の出力処理が通常出力処理及び後出力処理のいずれの場合でも同じであるが、異なってもよい。例えば、第2サウンド演出処理部1502による特定演出音の出力処理が後出力処理である場合は、再生中の映像が、対応する必殺技が繰り出されるシーンの開始位置までスキップされてもよい。この場合、再生中の音声(図38の登録音声コマンド番号に対応付けられたサウンドデータ)についても、対応する必殺技が繰り出されるシーンの開始位置までスキップされてもよい。 In FIG. 39, the output mode of the video generated based on the animation data associated with the registered video command number is such that the output processing of the specific effect sound by the second sound effect processing unit 1502 is the normal output processing and the post-output. The processing is the same in any case, but may be different. For example, when the output processing of the specific effect sound by the second sound effect processing unit 1502 is the post-output processing, the video being reproduced may be skipped to the start position of the scene where the corresponding deadly technique is performed. In this case, the sound being reproduced (the sound data associated with the registered voice command number in FIG. 38) may be skipped to the start position of the scene where the corresponding deadly technique is to be executed.

図40及び図41は、図37〜図39に係る演出処理の説明図であり、図40及び図41は、異なるタイミングで第3停止操作が検出された場合をそれぞれ示す。図42は、第3比較例による演出処理の説明図である。図40〜図41は、横軸方向が時間の経過を示し、上段から、第3停止操作の検出状態及び特定演出音の出力状態が示される。図40及び図41において、第3停止操作の検出状態において、表記“ON”は、左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rのうちの、第3停止に係るストップボタンがオンしていることを表し、特定演出音の出力状態において、表記“再生”は特定演出音が出力されている状態を表す。 FIGS. 40 and 41 are illustrations of the rendering process according to FIGS. 37 to 39. FIGS. 40 and 41 show the case where the third stop operation is detected at different timings, respectively. FIG. 42 is an explanatory diagram of the rendering process according to the third comparative example. 40 to 41, the horizontal axis indicates the passage of time, and from the top, the detection state of the third stop operation and the output state of the specific effect sound are shown. In FIGS. 40 and 41, in the detection state of the third stop operation, the notation “ON” indicates that the stop button related to the third stop among the left stop button 17L, the middle stop button 17C, and the right stop button 17R is turned on. In the output state of the specific effect sound, the notation “play” indicates a state in which the specific effect sound is being output.

図40及び図41では、時点T11で再生開始条件が成立する。再生開始条件が成立すると、登録映像コマンド番号に対応付けられた映像が出力される。なお、この際、登録映像コマンド番号とセットとなるサウンド演出に係る登録音声コマンド番号(コマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”のうちの1つ)に対応付けられたサウンドデータが、同期して再生される(図38参照)。 40 and 41, the reproduction start condition is satisfied at time T11. When the reproduction start condition is satisfied, a video corresponding to the registered video command number is output. At this time, a registered voice command number (command numbers “571”, “572”, “573”, “574”, “575”, and “576”) related to the sound effect to be set as the registered video command number Is reproduced synchronously (see FIG. 38).

図40では、時点T22−1でタイマがタイムアウトする(再生開始条件が成立してから3秒経過する)。タイマがタイムアウトすると、特定演出音が出力され始める。そして、図40では、特定演出音の出力が完了した後の時点T33−1で第3停止操作が検出される。なお、時点T33−1で第3停止操作が検出されても、それに応じて特定演出音が(重複的に)出力されることはない。その後、時点T44−1で所定の終了条件が満たされ、今回の遊技が終了となる。この場合、第3停止操作が時点T22−1よりも後に検出されるので、後出の図41に比べて遊技テンポが遅くなる。 In FIG. 40, the timer times out at time T22-1 (three seconds elapse after the reproduction start condition is satisfied). When the timer times out, a specific effect sound starts to be output. In FIG. 40, the third stop operation is detected at time T33-1 after the output of the specific effect sound is completed. In addition, even if the third stop operation is detected at the time T33-1, the specific effect sound is not output (duplicately) in response thereto. Thereafter, at time T44-1, the predetermined ending condition is satisfied, and the current game is ended. In this case, since the third stop operation is detected after the time point T22-1, the game tempo is slower than that in FIG. 41 described later.

これに対して、図41では、時点T22−1でタイマがタイムアウトする(再生開始条件が成立してから3秒経過する)前の時点T33−2で第3停止操作が検出される。この場合、第3停止操作が検出されると、特定演出音が出力され始める(時点T22−2)。そして、図41では、特定演出音の出力が完了する前(かつタイマがタイムアウトする前)の時点T44−2で所定の終了条件が満たされ、今回の遊技が終了となる。なお、この場合、今回の遊技が終了しても、特定演出音の出力が継続されることになる。なお、変形例では、上述のように、所定の終了条件が満たされると、特定演出音の出力が終了されてもよい。 In contrast, in FIG. 41, the third stop operation is detected at time T33-2 before the timer times out at time T22-1 (three seconds elapse after the reproduction start condition is satisfied). In this case, when the third stop operation is detected, the specific effect sound starts to be output (time T22-2). Then, in FIG. 41, at time T44-2 before the output of the specific effect sound is completed (and before the timer times out), a predetermined end condition is satisfied, and the current game is ended. In this case, the output of the specific effect sound is continued even after the current game is over. In the modified example, as described above, when the predetermined end condition is satisfied, the output of the specific effect sound may be ended.

このように、再生開始条件が成立してから3秒経過する前に第3停止操作が検出されるか否かに応じて、特定演出音が出力され始めるタイミングが変化する。すなわち、再生開始条件が成立してから3秒経過する前に第3停止操作が検出される場合は、特定演出音が出力され始めるタイミングが、再生開始条件が成立してから3秒後よりも早められる。 As described above, the timing at which the specific effect sound starts to be output changes depending on whether or not the third stop operation is detected three seconds after the reproduction start condition is satisfied. That is, when the third stop operation is detected before the lapse of three seconds after the reproduction start condition is satisfied, the timing at which the specific effect sound starts to be output is longer than the time three seconds after the reproduction start condition is satisfied. Can be hastened.

なお、図42に示す第3比較例は、再生開始条件が成立してから3秒経過する場合に限り特定演出音が出力される構成である。第3比較例では、時点T22−1でタイマがタイムアウトする前の時点T33−2で第3停止操作が検出されると、図42に示すように、特定演出音が出力されることなく所定の終了条件が満たされる可能性が高くなる。この結果、遊技テンポの速い遊技者は、特定演出音を聞けずに遊技を続けることになり、興趣が低下する。 Note that the third comparative example shown in FIG. 42 has a configuration in which a specific effect sound is output only when three seconds have elapsed since the reproduction start condition was satisfied. In the third comparative example, when the third stop operation is detected at time T33-2 before the timer times out at time T22-1 as shown in FIG. The possibility that the termination condition is satisfied is increased. As a result, the player with a fast game tempo continues the game without hearing the specific effect sound, and the interest is reduced.

なお、本実施形態では、電話ボイスのサウンドデータと通常ボイスのサウンドデータとが合成された上で同じスピーカ64L、64Rから出力されているが、変形例では、電話ボイスのサウンドデータと通常ボイスのサウンドデータとは、それぞれ別々のスピーカ64L、64Rから出力されてもよい。例えば、電話ボイスのサウンドデータは、スピーカ64Lから出力され、通常ボイスのサウンドデータは、スピーカ64Rから出力されてもよい。 In the present embodiment, the sound data of the telephone voice and the sound data of the normal voice are synthesized and output from the same speakers 64L and 64R. However, in a modified example, the sound data of the telephone voice and the sound data of the normal voice are output. The sound data may be output from separate speakers 64L and 64R, respectively. For example, sound data of telephone voice may be output from the speaker 64L, and sound data of normal voice may be output from the speaker 64R.

また、本実施形態では、電話ボイスのサウンドデータ及び通常ボイスのサウンドデータに対する音量変更処理(ミュート音量から通常音量への変更やその逆の変更)はDSP1571が実現するが、サブCPU151側で実現してもよい。 In this embodiment, the DSP 1571 implements the volume change processing (change from the mute volume to the normal volume and vice versa) for the sound data of the telephone voice and the sound data of the normal voice, but the sub CPU 151 implements the process. May be.

また、本実施形態は、電話シーンにおいて、聞き手側のシーンと話し手側のシーンの2つのシーンの切替に関するものであるが、本発明は、3つ以上のシーンの切替にも適用できる。 Also, the present embodiment relates to switching between two scenes, a listener's side scene and a speaker's side scene, in the telephone scene, but the present invention can also be applied to switching of three or more scenes.

また、本実施形態は、電話シーンにおいて、聞き手側のシーンが話し手側のシーンに切り替わるが、聞き手側のシーンが話し手側のシーンに切り替わり、その後、再び話し手側のシーンから聞き手側のシーンに切り替わるような態様に対しても、本発明は適用可能である。 Further, in the present embodiment, in the telephone scene, the scene on the listener side is switched to the scene on the speaker side, but the scene on the listener side is switched to the scene on the speaker side, and thereafter, the scene on the speaker side is switched again to the scene on the listener side. The present invention is applicable to such an embodiment.

また、本実施形態は、電話ボイスと通常ボイスとの間の音声の切り替わりに関するが、音声でない音(例えばSE音や楽曲音)の切り替わりにも適用可能である。例えば、楽曲音に関しては、伴奏音のみを含むサウンドデータと、伴奏音及びボーカル音を含むサウンドデータとを切り替える際や、伴奏音のみを含むサウンドデータと、ボーカル音のみを含むサウンドデータとを切り替える際等に、本発明が適用されてもよい。 Further, the present embodiment relates to switching of voice between telephone voice and normal voice, but is also applicable to switching of non-voice sound (for example, SE sound or music sound). For example, regarding music sounds, when switching between sound data containing only accompaniment sounds and sound data containing accompaniment sounds and vocal sounds, switching between sound data containing only accompaniment sounds and sound data containing only vocal sounds In such cases, the present invention may be applied.

また、本実施形態は、電話ボイスと通常ボイスとの間の切替条件は、遊技者の操作に関連した条件であるが、本発明は、これに限られない。例えば、電話ボイスと通常ボイスとの間の切替条件は、遊技者の操作が影響しない条件(ただし、好ましくは、再生開始条件が成立してから不定のタイミングで成立する条件)であってもよい。 In the present embodiment, the switching condition between the telephone voice and the normal voice is a condition related to the operation of the player, but the present invention is not limited to this. For example, the switching condition between the telephone voice and the normal voice may be a condition that does not affect the operation of the player (however, preferably, a condition that is satisfied at an undefined timing after the reproduction start condition is satisfied). .

[演出処理の第2実施形態]
次に、演出処理の第2実施形態について説明する。演出処理の第2実施形態は、上述した演出処理の第1実施形態に対して、特定演出音の出力のためのチャンネルの使用の仕方が異なる。以下では、主に、上述した演出処理の第1実施形態に対して異なる部分について説明する。演出処理の第2実施形態では、図28Aに示したアニメーションデータテーブルが使用される。
[Second Embodiment of Effect Processing]
Next, a second embodiment of the effect processing will be described. The second embodiment of the effect processing differs from the first embodiment of the effect processing in the way of using the channel for outputting the specific effect sound. In the following, mainly different parts from the first embodiment of the above-described effect processing will be described. In the second embodiment of the effect processing, the animation data table shown in FIG. 28A is used.

図43は、本実施形態で使用されるのが好適なサウンドデータテーブルの一例を示す図である。サウンドデータテーブルは、各種演出内容に対応するサウンド演出を実現する際に参照されるテーブルである。図43において、表記“−”は、対応する条件等が定義されていない状態を表す。図44は、コマンド番号“5500”に係るサウンドデータ(割込み用サウンドデータ)とコマンド番号“5710”に係るサウンドデータ(通常サウンドデータ)との相違の説明図である。 FIG. 43 is a diagram showing an example of a sound data table suitable for use in the present embodiment. The sound data table is a table that is referred to when realizing a sound effect corresponding to various effect contents. In FIG. 43, the notation “−” indicates a state in which the corresponding condition or the like is not defined. FIG. 44 is an explanatory diagram of a difference between the sound data (interruption sound data) related to the command number “5500” and the sound data (normal sound data) related to the command number “5710”.

図43に示すサウンドデータテーブルは、図27に示したサウンドデータテーブルに対して、割込み条件が無くなり、コマンド番号“550”、“551”、“552”が、コマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、“5521”で置換され、かつ、コマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”が、コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”で置換された点が異なる。 The sound data table shown in FIG. 43 is different from the sound data table shown in FIG. 27 in that the interrupt conditions are eliminated, and the command numbers “550”, “551”, and “552” are replaced with the command numbers “5500” and “5501”. , “5510”, “5511”, “5520”, and “5521”, and the command numbers “571”, “572”, “573”, “574”, “575”, and “576” are replaced with The difference is that command numbers “5710”, “5720”, “5730”, “5740”, “5750”, and “5760” have been substituted.

コマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、及び“5521”には、コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”と同じチャンネル(ここでは、CH6)が対応付けられる。 Command numbers “5500”, “5501”, “5510”, “5511”, “5520”, and “5521” have command numbers “5710”, “5720”, “5730”, “5740”, “5750”. , And “5760” (here, CH6).

コマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、及び“5521”は、再生開始条件“スタートスイッチオンから3秒経過前の第3停止操作”が対応付けられる。以下では、コマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、及び“5521”に対応付けられるサウンドデータを、「割込み用サウンドデータ」とも称する。 The command numbers “5500”, “5501”, “5510”, “5511”, “5520”, and “5521” are associated with the reproduction start condition “third stop operation three seconds before the start switch is turned on”. . Hereinafter, the sound data associated with the command numbers “5500”, “5501”, “5510”, “5511”, “5520”, and “5521” are also referred to as “interruption sound data”.

コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”は、再生開始条件“スタートスイッチオン”が対応付けられる。以下では、コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”に対応付けられるサウンドデータを、「通常サウンドデータ」とも称する。 The command numbers “5710”, “5720”, “5730”, “5740”, “5750”, and “5760” are associated with the reproduction start condition “start switch on”. Hereinafter, the sound data associated with the command numbers “5710”, “5720”, “5730”, “5740”, “5750”, and “5760” are also referred to as “normal sound data”.

通常サウンドデータは、上述した演出処理の第1実施形態におけるコマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”に対応付けられるサウンドデータに対して、必殺技を叫ぶ台詞音を含む点が異なる。すなわち、上述した演出処理の第1実施形態におけるコマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”に対応付けられるサウンドデータは、必殺技を叫ぶ台詞音(特定演出音)を含まないのに対して、演出処理の第2実施形態における通常サウンドデータは、必殺技を叫ぶ台詞音(特定演出音)を含む。それ以外については同じである。具体的には、コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”に対応付けられるサウンドデータ(通常サウンドデータ)は、それぞれ、上述した演出処理の第1実施形態におけるコマンド番号“571”、“572”、“573”、“574”、“575”、及び“576”に対応付けられるサウンドデータと、必殺技を叫ぶ台詞音(特定演出音)を含む点以外は、同じである。例えば、コマンド番号“5710”は、必殺技Aを叫ぶ台詞音を含む点以外は、上述した演出処理の第1実施形態におけるコマンド番号“571”と同じであり、コマンド番号“5720”は、必殺技Aを叫ぶ台詞音を含む点以外は、上述した演出処理の第1実施形態におけるコマンド番号“572”と同じである。 The normal sound data corresponds to the sound data associated with the command numbers “571”, “572”, “573”, “574”, “575”, and “576” in the first embodiment of the above-described effect processing. The difference is that it includes a dialogue sound that screams a special move. That is, the sound data associated with the command numbers “571”, “572”, “573”, “574”, “575”, and “576” in the first embodiment of the above-described effect processing screams a deadly technique. While the speech sound (specific production sound) is not included, the normal sound data in the second embodiment of the production process includes a speech sound (specific production sound) that screams a deadly technique. Otherwise, it is the same. More specifically, the sound data (normal sound data) associated with the command numbers “5710”, “5720”, “5730”, “5740”, “5750”, and “5760” respectively correspond to the above-described effect processing. And sound data associated with the command numbers “571”, “572”, “573”, “574”, “575”, and “576” in the first embodiment of the present invention, and a dialogue sound (special production sound) ) Is the same except for the point including). For example, the command number "5710" is the same as the command number "571" in the first embodiment of the above-described effect processing except that the command number "5710" includes a speech sound that screams the special technique A. It is the same as the command number “572” in the first embodiment of the above-described effect processing except that it includes a speech sound that screams the technique A.

ここで、通常サウンドデータと割込み用サウンドデータとの間の相違は、必殺技を繰り出すシーンまでのサウンドデータ部分を含むか否かである。具体的には、通常サウンドデータは、図44に模式的に示すように、必殺技を繰り出すシーンまでのサウンドデータ部分A1と、必殺技を繰り出すシーン(すなわち必殺技を叫ぶシーン)のサウンドデータ部分A2と、必殺技を繰り出した後の結果シーンのサウンドデータ部分A3とを含む。他方、割込み用サウンドデータは、サウンドデータ部分A2と、サウンドデータ部分A3だけを含む。なお、サウンドデータ部分A1は、再生時の長さが約3秒(所定時間ΔTに対応する長さ)である。 Here, the difference between the normal sound data and the interrupt sound data is whether or not the sound data portion up to the scene where the deadly technique is performed is included. More specifically, the normal sound data includes, as schematically shown in FIG. 44, a sound data portion A1 up to a scene in which a special move is performed, and a sound data portion of a scene in which a special move is performed (that is, a scene in which a special move is shouted). A2 and a sound data portion A3 of the result scene after the special technique has been executed. On the other hand, the interrupt sound data includes only the sound data portion A2 and the sound data portion A3. The sound data portion A1 has a reproduction length of about 3 seconds (a length corresponding to the predetermined time ΔT).

コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”は、アニメーションデータに係るコマンド番号“6501”、“6502”、“6511”、“6512”“6521”、“6522”とそれぞれセットで使用される。例えば、コマンド番号“5710”は、アニメーションデータに係るコマンド番号“6501”とセットで使用され、コマンド番号“5720”は、アニメーションデータに係るコマンド番号“6502”とセットで使用され、以下同様である。 The command numbers “5710”, “5720”, “5730”, “5740”, “5750”, and “5760” correspond to the command numbers “6501”, “6502”, “6511”, “6512” “of the animation data. 6521 "and" 6522 ". For example, the command number “5710” is used in combination with the command number “6501” related to animation data, the command number “5720” is used in combination with the command number “6502” related to animation data, and so on. .

また、コマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、及び“5521”は、アニメーションデータに係るコマンド番号“6501”、“6502”、“6511”、“6512”“6521”、“6522”とそれぞれセットで使用される。例えば、コマンド番号“5500”は、アニメーションデータに係るコマンド番号“6501”とセットで使用され、コマンド番号“5501”は、アニメーションデータに係るコマンド番号“6502”とセットで使用され、以下同様である。 The command numbers “5500”, “5501”, “5510”, “5511”, “5520”, and “5521” are the command numbers “6501”, “6502”, “6511”, and “6512” related to the animation data. "6521" and "6522" are used as a set. For example, the command number “5500” is used in combination with the command number “6501” related to animation data, the command number “5501” is used in combination with the command number “6502” related to animation data, and so on. .

図45は、第2実施形態による演出処理に関連した機能の一例を示すブロック図である。第2実施形態による演出処理に関連した機能は、上述した第1実施形態による演出処理に関連した機能(図29参照)に対して、第2サウンド演出処理部1502が第2サウンド演出処理部1502Aで置換された点が異なる。第1サウンド演出処理部1500、第1画像演出処理部1504、及び第2画像演出処理部1506は、上述した第1実施形態と同様であってよい。 FIG. 45 is a block diagram illustrating an example of a function related to the rendering process according to the second embodiment. The function related to the effect processing according to the second embodiment is different from the function related to the effect processing according to the first embodiment (see FIG. 29) in that the second sound effect processing unit 1502A is used by the second sound effect processing unit 1502A. Is different. The first sound effect processor 1500, the first image effect processor 1504, and the second image effect processor 1506 may be the same as in the first embodiment.

第2サウンド演出処理部1502Aは、割込み用サウンドデータが対応付けられる所定のコマンド番号に係る処理を実行する場合に機能する。本実施形態では、所定のコマンド番号は、図43に示すコマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、及び“5521”である。コマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、及び“5521”は、上述のように、コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”とそれぞれセットで使用される。例えば、コマンド番号“5500”は、コマンド番号“5710”とセットで使用され、コマンド番号“5501”は、コマンド番号“5720”とセットで使用され、以下同様である。 The second sound effect processing unit 1502A functions when executing a process related to a predetermined command number associated with the interrupt sound data. In the present embodiment, the predetermined command numbers are the command numbers “5500”, “5501”, “5510”, “5511”, “5520”, and “5521” shown in FIG. As described above, the command numbers “5500”, “5501”, “5510”, “5511”, “5520”, and “5521” correspond to the command numbers “5710”, “5720”, “5730”, “5740”. , “5750”, and “5760”, respectively. For example, the command number "5500" is used in combination with the command number "5710", the command number "5501" is used in combination with the command number "5720", and so on.

第2サウンド演出処理部1502Aは、CH6において、再生開始条件が成立すると、音声出力処理を実行する。 When the reproduction start condition is satisfied in CH6, the second sound effect processing unit 1502A executes a sound output process.

ここで、通常サウンドデータの再生開始条件は、“スタートスイッチオン”であるのに対して、割込み用サウンドデータの再生開始条件は“スタートスイッチオンから3秒経過前の第3停止操作”であるので、通常サウンドデータの再生開始条件の方が、割込み用サウンドデータの再生開始条件よりも早く満たされる。 Here, the reproduction start condition of the normal sound data is “start switch on”, whereas the reproduction start condition of the interrupt sound data is “third stop operation three seconds before the start switch is turned on”. Therefore, the reproduction start condition of the normal sound data is satisfied earlier than the reproduction start condition of the interrupt sound data.

第2サウンド演出処理部1502Aは、CH6において、通常サウンドデータの再生開始条件が満たされると、通常サウンドデータを出力する通常音声出力処理を実行する。通常音声出力処理は、所定の終了条件が成立するまで継続される。所定の終了条件は上述したとおりである。ただし、通常音声出力処理は、後述の割込み音声出力処理によって置換(割込み)される場合がある。この場合、通常音声出力処理は、後述の割込み音声出力処理によって置換された時点で実質的に終了となる。 When the reproduction start condition of the normal sound data is satisfied in CH6, the second sound effect processing unit 1502A executes a normal sound output process of outputting the normal sound data. The normal sound output process is continued until a predetermined end condition is satisfied. The predetermined termination condition is as described above. However, the normal audio output process may be replaced (interrupted) by an interrupt audio output process described later. In this case, the normal audio output processing substantially ends when replaced by the interrupt audio output processing described later.

第2サウンド演出処理部1502Aは、CH6において、割込み用サウンドデータの再生開始条件が満たされると、割込み用サウンドデータを出力する通常音声出力処理を実行する。割込み音声出力処理は、所定の終了条件が成立するまで継続される。所定の終了条件は上述したとおりである。 The second sound effect processing unit 1502A executes a normal sound output process for outputting the interrupt sound data when the reproduction start condition of the interrupt sound data is satisfied in CH6. The interrupt sound output process is continued until a predetermined end condition is satisfied. The predetermined termination condition is as described above.

ここで、割込み用サウンドデータの再生開始条件は“スタートスイッチオンから3秒経過前の第3停止操作”である。通常サウンドデータの再生開始条件が成立してから、第3停止操作が検出されるまでの時間ΔT1、すなわちスタートスイッチ79がオンになってから第3停止操作が行われるまでの時間ΔT1は、遊技者ごとに又は遊技ごとに異なりうる。したがって、第3停止操作が検出されるまでの時間ΔT1が、3秒(所定時間ΔT)未満となる場合や、第3停止操作が検出されるまでの時間ΔT1が、3秒(所定時間ΔT)以上となる場合がある。 Here, the reproduction start condition of the interrupt sound data is “third stop operation three seconds before the start switch is turned on”. The time ΔT1 from when the reproduction start condition of the normal sound data is satisfied to when the third stop operation is detected, that is, the time ΔT1 from when the start switch 79 is turned on to when the third stop operation is performed is a game time. It can be different for each player or for each game. Therefore, the time ΔT1 until the third stop operation is detected is less than 3 seconds (predetermined time ΔT), or the time ΔT1 until the third stop operation is detected is 3 seconds (predetermined time ΔT). This may be the case.

本実施形態では、上述した第1実施形態と同様の効果が得られる。すなわち、本実施形態では、第2サウンド演出処理部1502Aを備えることで、通常サウンドデータの再生開始条件が成立してから第3停止操作が行われるまでの時間ΔT1が3秒(所定時間ΔT)以上である場合は、通常サウンドデータの再生により特定演出音が出力され、再生開始条件が成立してから第3停止操作が行われるまでの時間ΔT1が3秒(所定時間ΔT)未満である場合は、割込み用サウンドデータの再生により特定演出音が出力される。これにより、遊技テンポを遅らせることを誘発させることで射幸性を抑制できつつ、遊技テンポを遅らせたくないが特定演出音の種類(及び該種類により示唆される期待度)だけは知りたいという特定の遊技者のニーズに応えることができる。 In the present embodiment, effects similar to those of the above-described first embodiment can be obtained. That is, in the present embodiment, by providing the second sound effect processing unit 1502A, the time ΔT1 from when the reproduction start condition of the normal sound data is satisfied to when the third stop operation is performed is 3 seconds (the predetermined time ΔT). If the above is the case, the specific effect sound is output by the normal sound data reproduction, and the time ΔT1 from when the reproduction start condition is satisfied to when the third stop operation is performed is less than 3 seconds (the predetermined time ΔT). Outputs a specific effect sound by reproducing the sound data for interruption. Thereby, it is possible to suppress the gambling by inducing the delay of the game tempo, while not wanting to delay the game tempo, but to know only the type of the specific effect sound (and the degree of expectation suggested by the type). Can meet the needs of players.

次に、図46を参照して、第2サウンド演出処理部1502Aにより実行される音声出力処理について更に説明する。 Next, the sound output processing executed by the second sound effect processing unit 1502A will be further described with reference to FIG.

図46は、CH6において第2サウンド演出処理部1502Aにより実現されるサウンド演出処理の一例の概略フローチャートである。図46に示す処理は、図19のS6でコマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、“5521”、“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”のうちの、一のセットに係るサウンドデータ(例えば、コマンド番号“5500”と“5710”のセット)が登録された場合に実行される。以下の図46の説明では、コマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、及び“5521”のうちの、登録されたコマンド番号を、単に「登録音声割込みコマンド番号」と称する。また、コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”のうちの、登録されたコマンド番号を、単に「登録音声通常コマンド番号」と称する。 FIG. 46 is a schematic flowchart of an example of sound effect processing realized by the second sound effect processing unit 1502A in CH6. The processing shown in FIG. 46 is performed by using the command numbers “5500”, “5501”, “5510”, “5511”, “5520”, “5521”, “5710”, “5720”, “5730”, This is executed when sound data (for example, a set of command numbers “5500” and “5710”) related to one set of “5740”, “5750”, and “5760” is registered. In the following description of FIG. 46, of the command numbers “5500”, “5501”, “5510”, “5511”, “5520”, and “5521”, the registered command number is simply referred to as “registered voice interrupt”. Command number ". The registered command number of the command numbers “5710”, “5720”, “5730”, “5740”, “5750”, and “5760” is simply referred to as “registered voice normal command number”.

ステップS460では、第2サウンド演出処理部1502Aは、登録音声通常コマンド番号に対応付けられた再生開始条件が満たされたか否かを判定する。ここでは、コマンド番号“5710”、“5720”、“5730”、“5740”、“5750”、及び“5760”のいずれも、再生開始条件は、上述のように、“スタートスイッチオン”である。登録音声通常コマンド番号に対応付けられた再生開始条件が満たされた場合は、ステップS462に進み、それ以外の場合は、登録音声通常コマンド番号に対応付けられた再生開始条件が満たされるのを待つ状態となる。 In step S460, second sound effect processing section 1502A determines whether or not the reproduction start condition associated with the registered voice normal command number has been satisfied. Here, as for the command numbers “5710”, “5720”, “5730”, “5740”, “5750”, and “5760”, the reproduction start condition is “start switch on” as described above. . If the playback start condition associated with the registered voice normal command number is satisfied, the process proceeds to step S462; otherwise, the process waits until the playback start condition associated with the registered voice normal command number is satisfied. State.

ステップS462では、第2サウンド演出処理部1502Aは、登録音声通常コマンド番号に対応付けられた通常サウンドデータを出力する。すなわち、第2サウンド演出処理部1502Aは、DSP1571、オーディオRAM1572、及びデジタルアンプ158と協動して、通常サウンドデータに係る音をスピーカ64L、64Rを介して出力する。 In step S462, second sound effect processing section 1502A outputs normal sound data associated with the registered voice normal command number. That is, the second sound effect processing unit 1502A cooperates with the DSP 1571, the audio RAM 1572, and the digital amplifier 158 to output sounds related to normal sound data via the speakers 64L and 64R.

ステップS464では、第2サウンド演出処理部1502Aは、所定の終了条件が成立したか否かを判定する。所定の終了条件は、上述の通りである。所定の終了条件が成立した場合は、終了し、それ以外の場合は、ステップS466に進む。 In step S464, second sound effect processing section 1502A determines whether or not a predetermined end condition has been satisfied. The predetermined termination condition is as described above. If the predetermined end condition is satisfied, the process ends. Otherwise, the process proceeds to step S466.

ステップS466では、第2サウンド演出処理部1502Aは、登録音声割込みコマンド番号に対応付けられた再生開始条件が満たされたか否かを判定する。ここでは、コマンド番号“5500”、“5501”、“5510”、“5511”、“5520”、“5521”のいずれも、再生開始条件は、上述のように、“スタートスイッチオンから3秒経過前の第3停止操作”である。登録音声割込みコマンド番号に対応付けられた再生開始条件が満たされた場合は、ステップS468に進み、それ以外の場合は、ステップS462に戻る。 In step S466, the second sound effect processing unit 1502A determines whether the reproduction start condition associated with the registered voice interruption command number has been satisfied. Here, as for the command numbers “5500”, “5501”, “5510”, “5511”, “5520”, and “5521”, the reproduction start condition is “3 seconds after the start switch is turned on,” as described above. The previous third stop operation ". If the reproduction start condition associated with the registered voice interruption command number is satisfied, the process proceeds to step S468; otherwise, the process returns to step S462.

ステップS468では、第2サウンド演出処理部1502Aは、登録音声割込みコマンド番号に対応付けられた割込み用サウンドデータを出力する。すなわち、第2サウンド演出処理部1502Aは、DSP1571、オーディオRAM1572、及びデジタルアンプ158と協動して、割込み用サウンドデータに係る音をスピーカ64L、64Rを介して出力する。 In step S468, the second sound effect processing unit 1502A outputs the sound data for interruption associated with the registered voice interruption command number. That is, the second sound effect processing unit 1502A cooperates with the DSP 1571, the audio RAM 1572, and the digital amplifier 158 to output the sound related to the interrupt sound data via the speakers 64L and 64R.

ステップS470では、第2サウンド演出処理部1502Aは、所定の終了条件が成立したか否かを判定する。所定の終了条件は、上述の通りである。所定の終了条件が成立した場合は、終了し、それ以外の場合は、ステップS468に戻る。 In step S470, the second sound effect processing unit 1502A determines whether a predetermined end condition has been satisfied. The predetermined termination condition is as described above. If the predetermined end condition is satisfied, the process ends. Otherwise, the process returns to step S468.

図46に示す処理によれば、スタートスイッチ79がオンとなってから第3停止操作が検出されることなく3秒が経過すると、通常サウンドデータに含まれる特定演出音が出力され、スタートスイッチ79がオンとなってから3秒が経過する前に第3停止操作が検出されると、割込み用サウンドデータに含まれる特定演出音が出力される。これにより、上述したように、遊技者による遊技テンポを遅らせることを誘発させることで射幸性を抑制しつつ、遊技テンポを遅らせたくないが特定演出音の種類だけは知りたいという特定の遊技者のニーズに応えることができる。 According to the processing shown in FIG. 46, when three seconds have elapsed without the third stop operation being detected since the start switch 79 was turned on, the specific effect sound included in the normal sound data is output. If the third stop operation is detected before three seconds have elapsed since the is turned on, the specific effect sound included in the interrupt sound data is output. Thus, as described above, while suppressing gambling by inducing the player to delay the game tempo, the specific player who does not want to delay the game tempo but wants to know only the type of the specific production sound We can meet your needs.

[演出処理の第3実施形態]
次に、演出処理の第3実施形態について説明する。演出処理の第3実施形態は、上述した演出処理の第1実施形態に対して、電話ボイスと通常ボイスとで音像位置(音を聞いたときの遊技者が感じる音源方向)を変化させる点が異なる。なお、この種の音像定位に関する技術は広く知られており、ここでは詳説しない。以下では、主に、上述した演出処理の第1実施形態に対して異なる部分について説明する。演出処理の第3実施形態では、図28Aに示したアニメーションデータテーブルが使用される。
[Third Embodiment of Effect Processing]
Next, a third embodiment of the effect processing will be described. The third embodiment of the effect processing differs from the first embodiment of the effect processing described above in that the sound image position (the sound source direction felt by the player when hearing the sound) is changed between the telephone voice and the normal voice. different. It should be noted that techniques relating to this type of sound image localization are widely known and will not be described in detail here. In the following, mainly different parts from the first embodiment of the above-described effect processing will be described. In the third embodiment of the effect processing, the animation data table shown in FIG. 28A is used.

図47は、本実施形態で使用されるのが好適なサウンドデータテーブルの一例を示す図である。サウンドデータテーブルは、各種演出内容に対応するサウンド演出を実現する際に参照されるテーブルである。 FIG. 47 is a diagram illustrating an example of a sound data table suitable for use in the present embodiment. The sound data table is a table that is referred to when realizing a sound effect corresponding to various effect contents.

図47に示すサウンドデータテーブルは、図27に示したサウンドデータテーブルに対して、コマンド番号“541”、“542”がコマンド番号“541B”、“542B”で置換され、かつ、各コマンド番号に音像位置が対応付けられる点が異なる。 The sound data table shown in FIG. 47 differs from the sound data table shown in FIG. 27 in that command numbers “541” and “542” are replaced with command numbers “541B” and “542B”, and The difference is that sound image positions are associated.

コマンド番号“541B”、“542B”に対応付けられるサウンドデータは、コマンド番号“541”、“542”に対応付けられる上述したサウンドデータに対して、音像位置が対応付けられる点が異なり、音像位置に関連する処理以外は、使用方法等も同様である。 The sound data associated with the command numbers “541B” and “542B” is different from the sound data associated with the command numbers “541” and “542” in that the sound image position is associated with the sound data. Except for the processing related to, the usage method is the same.

コマンド番号“541B”、“542B”には、それぞれ異なる音像位置が対応付けられる。図47では、コマンド番号“541B”には、“遊技者の左側”が対応付けられ、コマンド番号“542B”には、“遊技者の右側”が対応付けられる。 Different sound image positions are respectively associated with the command numbers “541B” and “542B”. In FIG. 47, the command number “541B” is associated with “the left side of the player”, and the command number “542B” is associated with the “right side of the player”.

図48は、第3実施形態による演出処理に関連した機能の一例を示すブロック図である。第3実施形態による演出処理に関連した機能は、上述した第1実施形態による演出処理に関連した機能(図29参照)に対して、第1サウンド演出処理部1500が第1サウンド演出処理部1500Bで置換された点が異なる。第2サウンド演出処理部1502、第1画像演出処理部1504、及び第2画像演出処理部1506は、上述した第1実施形態と同様であってよい。 FIG. 48 is a block diagram illustrating an example of a function related to the rendering process according to the third embodiment. The function related to the effect processing according to the third embodiment is different from the function related to the effect processing according to the above-described first embodiment (see FIG. 29) in that the first sound effect processing unit 1500 has the first sound effect processing unit 1500B. Is different. The second sound effect processing unit 1502, the first image effect processing unit 1504, and the second image effect processing unit 1506 may be the same as in the above-described first embodiment.

第1サウンド演出処理部1500Bは、切替条件が対応付けられる特定のコマンド番号の組み合わせに係る処理を実行する場合に機能する。本実施形態では、特定のコマンド番号の組み合わせは、図47に示すコマンド番号“541B”とコマンド番号“542B”との組み合わせである。なお、特定のコマンド番号の組み合わせは、1つに限らず、複数存在してもよい。 The first sound effect processing unit 1500B functions when performing a process related to a combination of specific command numbers associated with a switching condition. In the present embodiment, the specific command number combination is a combination of the command number “541B” and the command number “542B” shown in FIG. Note that the combination of specific command numbers is not limited to one, and a plurality of combinations may exist.

第1サウンド演出処理部1500Bは、CH5(第1チャンネルの一例)において、電話ボイスに係るサウンドデータ(第1の音の一例)を、コマンド番号“541B”に対応付けられた2種類のボリュームである通常音量(第1の音量の一例)とミュート音量(音量=0)(第3の音量の一例)とで選択的に再生する。コマンド番号“541B”に対応付けられた通常音量は、図47に示すように、ボリューム“255”である。 The first sound effect processing unit 1500B converts the sound data (an example of the first sound) related to the telephone voice into two types of volumes associated with the command number “541B” in CH5 (an example of the first channel). Reproduction is selectively performed at a certain normal volume (an example of a first volume) and a mute volume (a volume = 0) (an example of a third volume). The normal volume associated with the command number “541B” is the volume “255” as shown in FIG.

また、第1サウンド演出処理部1500Bは、CH5において、電話ボイスの音像位置が遊技者の左側になるように、音像位置の指示値を、DSP1571に与える。DSP1571は、電話ボイスが遊技者の左側から聞こえるように、スピーカ64L、64Rからの出力態様を制御する。すなわち、DSP1571は、スピーカ64L、64R(又はスピーカ64L、64R、65L、65R)に出力するサウンドデータの音量及び位相等を制御することにより、遊技者の左側に音像が形成されるような音像定位でスピーカ64L、64R(又はスピーカ64L、64R、65L、65R)から電話ボイスに係る音声を出力させる。なお、第1サウンド演出処理部1500Bは、CH5において、電話ボイスの音量として通常音量を指示する間だけ、出力される音が遊技者の左側から聞こえるように音像位置を指示する。 Further, the first sound effect processing unit 1500B gives the DSP1571 an instruction value of the sound image position so that the sound image position of the telephone voice is on the left side of the player in CH5. The DSP 1571 controls the output mode from the speakers 64L and 64R so that the telephone voice can be heard from the left side of the player. That is, the DSP 1571 controls the sound volume and phase of the sound data output to the speakers 64L, 64R (or the speakers 64L, 64R, 65L, 65R), so that the sound image localization such that a sound image is formed on the left side of the player. Causes the speakers 64L, 64R (or the speakers 64L, 64R, 65L, 65R) to output voice related to the telephone voice. Note that the first sound effect processing unit 1500B instructs the sound image position so that the output sound can be heard from the left side of the player only while instructing the normal volume as the volume of the telephone voice in CH5.

なお、上記のような3次元空間内の指定位置(遊技者の左側等)に音像を定位させる方法は、頭部伝達関数に基づく演算により実現されてもよい。頭部伝達関数とは、パチスロ1前方にいる遊技者がパチスロ1を臨む方向に3次元空間を仮想的に設定し、この3次元空間内の特定の位置で発生したと想定された音声が、遊技者の両耳のそれぞれに到達するまでの音響特性を求める関数である。頭部伝達関数は、例えば、パチスロ1の前方に、遊技者の頭部に見立てた剛球のモデルを配置した場合に、ある位置で発生する音声が、この剛球の両耳の相当位置に到達するまで音圧を、時間および座標位置の関数である近似式として算出するといった、公知の手法を用いることができる(例えば、浜田、「2チャンネルスピーカによる3D再生〜原理から応用まで」JAS journal 1998年4月号臨時増刊)。より具体的には、例えば、3次元空間内の指定位置に音源を設定し、この3次元空間と遊技者の位置を含む空間をセル状に細分化する。そして、セルごとの圧力伝達関数を解くことにより、音源からインパルス波形の音声が出力された場合の、剛球の両耳相当位置に到達する音声をシミュレーションしたインパルス応答を、頭部伝達関数として求める。このようにして求められたインパルス応答特性は、指定位置ごとに、あらかじめ記憶される。DSP1571は、転送されるサウンドデータに対し、指定位置に応じたインパルス応答特性の畳み込み演算を行う。その際、再生する音場(音源はスピーカ64L、64R)におけるクロストーク成分を除去するディジタルフィルタによる信号処理が実行されてよい。このようにして加工されたサウンドデータがスピーカ64L、64Rから出力されると、その音を聞いた遊技者には、音源が指定位置にあるように聞こえる。すなわち、音像処理手段201の処理により、3次元空間内の指定位置に音像を定位させることができる。 Note that the method of localizing a sound image at a specified position (such as the left side of a player) in a three-dimensional space as described above may be realized by an operation based on a head-related transfer function. The head related transfer function is a sound that is assumed to be generated at a specific position in the three-dimensional space by virtually setting a three-dimensional space in a direction in which a player in front of the pachislot 1 faces the pachislot 1. It is a function for obtaining acoustic characteristics until reaching each of both ears of the player. The head-related transfer function is such that, for example, in the case where a model of a hard sphere resembling the head of a player is arranged in front of the pachislot 1, a sound generated at a certain position reaches the corresponding positions of both ears of the hard sphere. A known method such as calculating the sound pressure as an approximate expression that is a function of time and coordinate position can be used (for example, Hamada, “3D Reproduction with Two-Channel Speakers—From Principle to Application”, JAS journal 1998). April issue extra edition). More specifically, for example, a sound source is set at a designated position in a three-dimensional space, and the space including the position of the player and the three-dimensional space is subdivided into cells. Then, by solving the pressure transfer function for each cell, an impulse response obtained by simulating the sound reaching the binaural equivalent position of the hard sphere when the sound having the impulse waveform is output from the sound source is obtained as the head-related transfer function. The impulse response characteristics thus obtained are stored in advance for each designated position. The DSP 1571 performs a convolution operation of the impulse response characteristics corresponding to the designated position on the transferred sound data. At this time, signal processing by a digital filter for removing a crosstalk component in a sound field to be reproduced (the sound source is speakers 64L and 64R) may be executed. When the sound data processed in this manner is output from the speakers 64L and 64R, the player who has heard the sound sounds as if the sound source is at the specified position. That is, the sound image can be localized at the designated position in the three-dimensional space by the processing of the sound image processing means 201.

第1サウンド演出処理部1500Bは、CH6(第2チャンネルの一例)において、通常ボイスに係るサウンドデータ(第2の音の一例)を、コマンド番号“542B”に対応付けられた2種類のボリュームである通常音量(第4の音量の一例)とミュート音量(音量=0)(第2の音量の一例)とで選択的に再生する。コマンド番号“542B”に対応付けられた通常音量は、図47に示すように、ボリューム“255”である。 The first sound effect processing unit 1500B converts the sound data (an example of the second sound) related to the normal voice into two types of volumes associated with the command number “542B” in CH6 (an example of the second channel). Reproduction is selectively performed at a certain normal volume (an example of a fourth volume) and a mute volume (a volume = 0) (an example of a second volume). The normal volume associated with the command number “542B” is the volume “255” as shown in FIG.

また、第1サウンド演出処理部1500Bは、CH6において、通常ボイスの音像位置が遊技者の右側になるように、音像位置の指示値を、DSP1571に与える。DSP1571は、通常ボイスが遊技者の右側から聞こえるように、スピーカ64L、64Rからの出力態様を制御する。すなわち、DSP1571は、スピーカ64L、64R(又はスピーカ64L、64R、65L、65R)に出力するサウンドデータの音量及び位相等を制御することにより、遊技者の右側に音像が形成されるような音像定位でスピーカ64L、64R(又はスピーカ64L、64R、65L、65R)から通常ボイスに係る音声を出力させる。なお、第1サウンド演出処理部1500Bは、CH6において、通常ボイスの音量として通常音量を指示する間だけ、出力される音が遊技者の右側から聞こえるように音像位置を指示する。 In addition, the first sound effect processing unit 1500B gives the DSP1571 an indication value of the sound image position so that the sound image position of the normal voice is on the right side of the player in CH6. The DSP 1571 controls the output mode from the speakers 64L and 64R so that the normal voice can be heard from the right side of the player. That is, the DSP 1571 controls the sound volume and the phase of the sound data output to the speakers 64L, 64R (or the speakers 64L, 64R, 65L, 65R), so that the sound image localization such that a sound image is formed on the right side of the player. Causes the speakers 64L, 64R (or the speakers 64L, 64R, 65L, 65R) to output sounds related to the normal voice. Note that the first sound effect processing unit 1500B instructs the sound image position so that the output sound can be heard from the right side of the player only while instructing the normal volume as the volume of the normal voice in CH6.

第1サウンド演出処理部1500Bは、再生開始条件が成立すると、スピーカ64L、64Rを介して、電話ボイスに係るサウンドデータを通常音量で、通常ボイスに係るサウンドデータをミュート音量で、それぞれ略同時に再生開始する処理(第1音声再生処理)を行う。なお、変形例では、第1音声再生処理は、通常ボイスに係るサウンドデータを、ミュート音量に代えて、微小な音量(ボリューム“255”よりも有意に小さい音量)で再生してもよい。 When the reproduction start condition is satisfied, the first sound effect processing unit 1500B reproduces the sound data related to the telephone voice at the normal volume and the sound data related to the normal voice at the mute volume almost simultaneously via the speakers 64L and 64R. A process for starting (first audio reproduction process) is performed. In the modification, in the first audio reproduction process, the sound data relating to the normal voice may be reproduced at a small volume (a volume significantly smaller than the volume “255”) instead of the mute volume.

第1サウンド演出処理部1500Bは、第1音声再生処理中に、切替条件が成立すると、電話ボイスに係るサウンドデータの音量を通常音量からミュート音量に減少させ、かつ、通常ボイスに係るサウンドデータの音量をミュート音量から通常音量に増加させて、再生を継続する処理(第2音声再生処理)を実行する。なお、変形例では、第2音声再生処理は、電話ボイスに係るサウンドデータを、ミュート音量に代えて、微小な音量(ボリューム“255”よりも有意に小さい音量)で再生してもよい。他の変形例では、第2音声再生処理は、電話ボイスに係るサウンドデータの再生を停止してもよい。 When the switching condition is satisfied during the first sound reproduction process, the first sound effect processing unit 1500B reduces the volume of the sound data related to the telephone voice from the normal volume to the mute volume, and sets the sound data related to the normal voice. A process of increasing the volume from the mute volume to the normal volume and continuing reproduction (second audio reproduction process) is executed. In the modification, in the second audio reproduction process, sound data relating to the telephone voice may be reproduced at a small volume (a volume significantly smaller than the volume “255”) instead of the mute volume. In another modification, the second sound reproduction process may stop reproduction of sound data related to the telephone voice.

次に、図49を参照して、第1サウンド演出処理部1500Bにより実行される音声出力処理について更に説明する。 Next, the audio output processing executed by the first sound effect processing unit 1500B will be further described with reference to FIG.

図49は、CH6において第1サウンド演出処理部1500Bにより実現されるサウンド演出処理の一例の概略フローチャートである。図49に示す処理は、図19のS6でコマンド番号“541B”及び“542B”に係るサウンドデータが登録された場合に実行される。 FIG. 49 is a schematic flowchart of an example of the sound effect processing realized by the first sound effect processing unit 1500B in CH6. The process shown in FIG. 49 is executed when the sound data corresponding to the command numbers “541B” and “542B” has been registered in S6 of FIG.

ステップS491では、第1サウンド演出処理部1500Bは、コマンド番号“541B”及び“542B”に係る再生開始条件が満たされたか否かを判定する。コマンド番号“541B”及び“542B”に係る再生開始条件は、同じであり、“スタートスイッチオン”である。コマンド番号“541B”及び“542B”に係る再生開始条件が満たされた場合は、ステップS492に進み、それ以外の場合は、再生開始条件の成立待ち状態となる。 In step S491, the first sound effect processing unit 1500B determines whether or not the playback start conditions related to the command numbers “541B” and “542B” are satisfied. The playback start conditions for the command numbers “541B” and “542B” are the same, and are “start switch on”. If the playback start conditions relating to the command numbers “541B” and “542B” are satisfied, the process proceeds to step S492; otherwise, the process waits for the satisfaction of the playback start conditions.

ステップS492では、第1サウンド演出処理部1500Bは、音像位置の指示値を、“遊技者の左側”に設定する。 In step S492, the first sound effect processing unit 1500B sets the designated value of the sound image position to “left side of the player”.

ステップS493では、第1サウンド演出処理部1500Bは、第1音声再生処理を実行する。第1音声再生処理は、上述のように、コマンド番号“541B”に対応付けられた電話ボイスに係るサウンドデータを通常音量(指示値=“255”)で、コマンド番号“542B”に対応付けられた通常ボイスに係るサウンドデータをミュート音量(指示値=“0”)で、それぞれ略同時に再生する処理である。この場合、電話ボイスに係るサウンドデータと通常ボイスに係るサウンドデータとの合成サウンドデータは、音像位置の指示値“遊技者の左側”に従って、遊技者の左側から聞こえるように、スピーカ64L、64Rから出力される。この結果、遊技者にとっては、通常音量の電話ボイスだけが左側から聞こえるように感じやすくなる。 In step S493, the first sound effect processing unit 1500B executes a first sound reproduction process. As described above, in the first audio reproduction process, the sound data relating to the telephone voice associated with the command number “541B” is associated with the command number “542B” at the normal volume (instruction value = “255”). In this process, the sound data relating to the normal voices are reproduced at substantially the same mute volume (instruction value = "0"). In this case, the synthesized sound data of the sound data related to the telephone voice and the sound data related to the normal voice is transmitted from the speakers 64L and 64R so as to be heard from the left side of the player according to the instruction value of the sound image position “left side of the player”. Is output. As a result, it becomes easier for the player to feel that only the normal volume telephone voice is heard from the left side.

ステップS494では、第1サウンド演出処理部1500Bは、切替条件が成立したか否かを判定する。切替条件は、上述のように、第3停止操作が検出されると満たされる。切替条件が成立した場合は、ステップS495に進み、それ以外の場合は、ステップS493に戻る。 In step S494, the first sound effect processing unit 1500B determines whether the switching condition has been satisfied. The switching condition is satisfied when the third stop operation is detected, as described above. If the switching condition is satisfied, the process proceeds to step S495; otherwise, the process returns to step S493.

ステップS495では、第1サウンド演出処理部1500Bは、音像位置の指示値を、“遊技者の右側”に設定する。 In step S495, the first sound effect processing unit 1500B sets the designated value of the sound image position to “right side of the player”.

ステップS496では、第1サウンド演出処理部1500Bは、第2音声再生処理を実行する。第2音声再生処理は、上述のように、コマンド番号“541B”に対応付けられた電話ボイスに係るサウンドデータの音量をミュート音量(指示値=“0”)に変更し、コマンド番号“542B”に対応付けられた通常ボイスに係るサウンドデータの音量を通常音量(指示値=“255”)に変更した上で、それぞれの再生を継続する処理である。この場合、電話ボイスに係るサウンドデータと通常ボイスに係るサウンドデータとの合成サウンドデータは、音像位置の指示値“遊技者の右側”に従って、遊技者の右側から聞こえるように、スピーカ64L、64Rから出力される。この結果、遊技者にとっては、通常音量の通常ボイスだけが右側から聞こえるように感じやすくなる。なお、第2音声再生処理は、上述した第1実施形態のようにフェードインとフェードアウトを伴う態様で実現されてもよい(図33参照)。 In step S496, the first sound effect processing unit 1500B executes a second sound reproduction process. As described above, the second audio reproduction process changes the volume of the sound data relating to the telephone voice associated with the command number “541B” to the mute volume (instruction value = “0”), and changes the command number “542B”. This is a process of changing the volume of the sound data relating to the normal voice associated with the normal voice to the normal volume (instruction value = “255”), and continuing the respective reproductions. In this case, the synthesized sound data of the sound data related to the telephone voice and the sound data related to the normal voice is transmitted from the speakers 64L and 64R so as to be heard from the right side of the player according to the instruction value of the sound image position “right side of the player”. Is output. As a result, the player can easily feel that only the normal voice having the normal volume can be heard from the right side. Note that the second audio reproduction process may be realized in a mode involving fade-in and fade-out as in the first embodiment described above (see FIG. 33).

ステップS497では、第1サウンド演出処理部1500Bは、所定の終了条件が成立したか否かを判定する。所定の終了条件は、上述の通りである。所定の終了条件が成立した場合は、終了し、それ以外の場合は、ステップS496に戻る。このようにして所定の終了条件が成立するまで第2音声再生処理が継続される。 In step S497, the first sound effect processing unit 1500B determines whether a predetermined end condition has been satisfied. The predetermined termination condition is as described above. If the predetermined ending condition is satisfied, the process ends. Otherwise, the process returns to step S496. In this way, the second sound reproduction processing is continued until the predetermined end condition is satisfied.

本実施形態によれば、上述した第1実施形態と同様の効果が得られる。すなわち、本実施形態では、再生開始条件が成立してから切替条件が成立するまでの時間ΔT1は、通常ボイスファイルと電話ボイスファイルとの一の組み合わせに基づいて第1音声再生処理が実行され、切替条件が成立すると、通常ボイスファイルと電話ボイスファイルとの同じ一の組み合わせに基づいて第2音声再生処理が実行される。これにより、通常ボイスファイルと電話ボイスファイルの組み合わせを複数用意することを要せずに、再生開始条件が成立してから切替条件が成立するまでの時間ΔT1が変化することに対応できる。 According to this embodiment, the same effects as those of the above-described first embodiment can be obtained. That is, in the present embodiment, the time ΔT1 from when the reproduction start condition is satisfied to when the switching condition is satisfied, the first audio reproduction process is performed based on one combination of the normal voice file and the telephone voice file, When the switching condition is satisfied, the second audio reproduction process is executed based on the same one combination of the normal voice file and the telephone voice file. This makes it possible to cope with a change in the time ΔT1 from when the reproduction start condition is satisfied to when the switching condition is satisfied, without having to prepare a plurality of combinations of the normal voice file and the telephone voice file.

また、本実施形態では、通常ボイスと電話ボイスとが異なる音像位置となるように出力されるので、遊技者は、通常ボイスと電話ボイスとの間の切り替わりを、より直感的に理解できるので、演出効果を高めることができる。 Further, in the present embodiment, since the normal voice and the telephone voice are output so as to be at different sound image positions, the player can more intuitively understand the switching between the normal voice and the telephone voice. The effect can be enhanced.

なお、本実施形態では、通常ボイスファイルと電話ボイスファイルとは異なるサウンドデータであるが、変形例では、通常ボイスファイルと電話ボイスファイルとは同じであってもよい。この場合でも、通常ボイスと電話ボイスとは遊技者にとって聞こえる方向が違うため、異なる態様で聞こえることになり、違和感のない演出(シーンの切り替わり)を実現できる。また、同様の変形例では、通常ボイスファイルと電話ボイスファイルのうちの、いずれか一方、例えば、CH6に係るコマンド番号“542B”が省略されてもよい。この場合、コマンド番号“541B”には、ボリューム“255”のみが対応付けられ、音像位置の指示が切替条件の成立に応じて変化される。具体的には、切替条件が成立するまでは遊技者の左側に音像位置が指示されるが、切替条件が成立すると遊技者の右側に音像位置が指示される。かかる構成によっても、同様の効果が得られる。 In the present embodiment, the normal voice file and the telephone voice file are different sound data, but in a modified example, the normal voice file and the telephone voice file may be the same. Even in this case, the normal voice and the telephone voice are heard in different directions by the player, so that they can be heard in different modes, and it is possible to realize an effect (switching scenes) without a sense of incongruity. In a similar modification, one of the normal voice file and the telephone voice file, for example, the command number “542B” related to CH6 may be omitted. In this case, only the volume “255” is associated with the command number “541B”, and the instruction of the sound image position is changed according to the satisfaction of the switching condition. Specifically, the sound image position is indicated on the left side of the player until the switching condition is satisfied, but the sound image position is indicated on the right side of the player when the switching condition is satisfied. With this configuration, a similar effect can be obtained.

なお、本実施形態では、上述した第1実施形態をベースとして、音像位置の制御が付加されているが、上述した第2実施形態をベースとして、音像位置の制御が付加されてもよい。すなわち、図43に示すサウンドデータテーブルにおいても、コマンド番号“541”、“542”がコマンド番号“541B”、“542B”で置換され、かつ、各コマンド番号に音像位置が対応付けられてもよい。 In the present embodiment, control of the sound image position is added based on the first embodiment described above, but control of the sound image position may be added based on the second embodiment. That is, also in the sound data table shown in FIG. 43, the command numbers “541” and “542” may be replaced with the command numbers “541B” and “542B”, and the sound image position may be associated with each command number. .

[演出処理の第4実施形態]
次に、演出処理の第4実施形態について説明する。演出処理の第4実施形態は、上述した演出処理の第1実施形態に対して、DSP1571が通常ボイスのサウンドデータを加工して電話ボイスのサウンドデータを生成した上で、出力する点が異なる。以下では、主に、上述した演出処理の第1実施形態に対して異なる部分について説明する。演出処理の第4実施形態では、図28Aに示したアニメーションデータテーブルが使用される。
[Fourth Embodiment of Effect Processing]
Next, a fourth embodiment of the effect processing will be described. The fourth embodiment of the effect processing differs from the first embodiment of the effect processing described above in that the DSP 1571 generates sound data of the telephone voice by processing sound data of the normal voice, and then outputs the sound data. In the following, mainly different parts from the first embodiment of the above-described effect processing will be described. In the fourth embodiment of the effect processing, the animation data table shown in FIG. 28A is used.

図50は、本実施形態で使用されるのが好適なサウンドデータテーブルの一例を示す図である。サウンドデータテーブルは、各種演出内容に対応するサウンド演出を実現する際に参照されるテーブルである。 FIG. 50 is a diagram illustrating an example of a sound data table suitable for use in the present embodiment. The sound data table is a table that is referred to when realizing a sound effect corresponding to various effect contents.

図50に示すサウンドデータテーブルは、図27に示したサウンドデータテーブルに対して、コマンド番号“541”がコマンド番号“541C”で置換され、かつ、コマンド番号“541C”に加工内容が対応付けられる点が異なる。 The sound data table shown in FIG. 50 differs from the sound data table shown in FIG. 27 in that the command number “541” is replaced with the command number “541C”, and the processing content is associated with the command number “541C”. The points are different.

コマンド番号“541C”に対応付けられるサウンドデータは、コマンド番号“542”に対応付けられる上述したサウンドデータと全く同じである。すなわち、図50に示すように、コマンド番号“541C”及びコマンド番号“542”に対応付けられるファイル名は、ともに“通常ボイスファイル”である。 The sound data associated with the command number “541C” is exactly the same as the above-described sound data associated with the command number “542”. That is, as shown in FIG. 50, the file names associated with the command number “541C” and the command number “542” are both “normal voice files”.

コマンド番号“541C”には、加工処理の内容を規定した加工内容が対応付けられる。図50では、コマンド番号“541C”には、加工内容“通常ボイスから電話ボイスへの加工”が対応付けられる。 The command number “541C” is associated with the processing content that defines the content of the processing. In FIG. 50, the processing content “processing from normal voice to telephone voice” is associated with the command number “541C”.

図51は、第4実施形態による演出処理に関連した機能の一例を示すブロック図である。第4実施形態による演出処理に関連した機能は、上述した第1実施形態による演出処理に関連した機能(図29参照)に対して、第1サウンド演出処理部1500が第1サウンド演出処理部1500Cで置換された点が異なる。第2サウンド演出処理部1502、第1画像演出処理部1504、及び第2画像演出処理部1506は、上述した第1実施形態と同様であってよい。 FIG. 51 is a block diagram illustrating an example of a function related to the rendering process according to the fourth embodiment. The function related to the effect processing according to the fourth embodiment is different from the function related to the effect processing according to the first embodiment (see FIG. 29) in that the first sound effect processing unit 1500 has a first sound effect processing unit 1500C. Is different. The second sound effect processing unit 1502, the first image effect processing unit 1504, and the second image effect processing unit 1506 may be the same as in the above-described first embodiment.

第1サウンド演出処理部1500Cは、切替条件が対応付けられる特定のコマンド番号の組み合わせに係る処理を実行する場合に機能する。本実施形態では、特定のコマンド番号の組み合わせは、図50に示すコマンド番号“541C”とコマンド番号“542”との組み合わせである。なお、特定のコマンド番号の組み合わせは、1つに限らず、複数存在してもよい。 The first sound effect processing unit 1500C functions when executing a process related to a combination of specific command numbers associated with a switching condition. In the present embodiment, the specific command number combination is a combination of the command number “541C” and the command number “542” shown in FIG. Note that the combination of specific command numbers is not limited to one, and a plurality of combinations may exist.

第1サウンド演出処理部1500Cは、CH5(第1チャンネルの一例)において、電話ボイスに加工されることになるサウンドデータ(通常ボイスに係るサウンドデータ)を、コマンド番号“541C”に対応付けられた2種類のボリュームである通常音量(第1の音量の一例)とミュート音量(音量=0)(第3の音量の一例)とで選択的に再生する。コマンド番号“541C”に対応付けられた通常音量は、図50に示すように、ボリューム“255”である。 The first sound effect processing unit 1500C associates sound data to be processed into a telephone voice (sound data relating to a normal voice) with a command number “541C” in CH5 (an example of a first channel). Two types of volumes, ie, a normal volume (an example of a first volume) and a mute volume (a volume = 0) (an example of a third volume), are selectively reproduced. The normal volume associated with the command number “541C” is the volume “255” as shown in FIG.

また、第1サウンド演出処理部1500Cは、CH5において、通常ボイスが電話ボイスに加工されるように加工指示を、DSP1571に与える。DSP1571は、通常ボイスが電話ボイスに変換されるように通常ボイスに係るサウンドデータを加工し、加工したサウンドデータ(第1の音の一例)を、スピーカ64L、64Rから電話ボイスに係る音声を出力させる。なお、DSP1571における加工処理の内容はあらかじめ規定される。DSP1571は、加工指示が与えられると、入力されたサウンドデータに対して、あらかじめ規定された加工処理を行う。なお、加工処理により加工されたサウンドデータは、上述した第1実施形態によるコマンド番号“541”に対応付けられたサウンドデータと同様であってよい。 Further, the first sound effect processing unit 1500C gives a processing instruction to the DSP 1571 so that the normal voice is processed into the telephone voice in CH5. The DSP 1571 processes the sound data of the normal voice so that the normal voice is converted to the telephone voice, and outputs the processed sound data (an example of the first sound) from the speakers 64L and 64R to the voice of the telephone voice. Let it. The contents of the processing in the DSP 1571 are prescribed in advance. Upon receiving a processing instruction, the DSP 1571 performs predetermined processing on the input sound data. The sound data processed by the processing may be the same as the sound data associated with the command number “541” according to the above-described first embodiment.

第1サウンド演出処理部1500Cは、CH6(第2チャンネルの一例)において、通常ボイスに係るサウンドデータ(第2の音の一例)を、コマンド番号“542”に対応付けられた2種類のボリュームである通常音量(第4の音量の一例)とミュート音量(音量=0)(第2の音量の一例)とで選択的に再生する。コマンド番号“542”に対応付けられた通常音量は、図50に示すように、ボリューム“255”である。 The first sound effect processing unit 1500C converts the sound data (an example of the second sound) related to the normal voice into two types of volumes associated with the command number “542” in CH6 (an example of the second channel). Reproduction is selectively performed at a certain normal volume (an example of a fourth volume) and a mute volume (a volume = 0) (an example of a second volume). The normal volume associated with the command number “542” is the volume “255” as shown in FIG.

第1サウンド演出処理部1500Cは、再生開始条件が成立すると、スピーカ64L、64Rを介して、電話ボイスに加工されたサウンドデータを通常音量で、通常ボイスに係るサウンドデータをミュート音量で、それぞれ略同時に再生開始する処理(以下、「加工指示を伴う第1音声再生処理」と称する)を行う。なお、変形例では、第1音声再生処理は、通常ボイスに係るサウンドデータを、ミュート音量に代えて、微小な音量(ボリューム“255”よりも有意に小さい音量)で再生してもよい。 When the reproduction start condition is satisfied, the first sound effect processing unit 1500C outputs the sound data processed into the telephone voice at the normal volume and the sound data related to the normal voice at the mute volume through the speakers 64L and 64R. At the same time, processing for starting reproduction (hereinafter, referred to as "first audio reproduction processing accompanied with a processing instruction") is performed. In the modification, in the first audio reproduction process, the sound data relating to the normal voice may be reproduced at a small volume (a volume significantly smaller than the volume “255”) instead of the mute volume.

第1サウンド演出処理部1500Cは、第1音声再生処理中に、切替条件が成立すると、電話ボイスに加工されたサウンドデータの音量を通常音量からミュート音量に減少させ、かつ、通常ボイスに係るサウンドデータの音量をミュート音量から通常音量に増加させて、再生を継続する処理(第2音声再生処理)を実行する。なお、変形例では、第2音声再生処理は、電話ボイスに加工されたサウンドデータを、ミュート音量に代えて、微小な音量(ボリューム“255”よりも有意に小さい音量)で再生してもよい。他の変形例では、第2音声再生処理は、電話ボイスに係るサウンドデータの再生を停止してもよい。また、更なる他の変形例では、第2音声再生処理においては、電話ボイスへの加工処理は省略されてもよい。CH5からのサウンドデータはミュート音量で出力されるので、どのようなサウンドデータであっても、遊技者に聞こえる音に影響しないためである。 When the switching condition is satisfied during the first sound reproduction process, the first sound effect processing unit 1500C reduces the volume of the sound data processed into the telephone voice from the normal volume to the mute volume, and outputs the sound related to the normal voice. A process of increasing the data volume from the mute volume to the normal volume and continuing the reproduction (second audio reproduction process) is executed. In the modification, in the second audio reproduction process, the sound data processed into the telephone voice may be reproduced at a small volume (a volume significantly smaller than the volume “255”) instead of the mute volume. . In another modification, the second sound reproduction process may stop reproduction of sound data related to the telephone voice. Further, in still another modified example, in the second audio reproduction processing, the processing for processing into a telephone voice may be omitted. This is because the sound data from CH5 is output at a mute volume, and any sound data does not affect the sound heard by the player.

次に、図52を参照して、第1サウンド演出処理部1500Cにより実行される音声出力処理について更に説明する。 Next, the audio output processing executed by the first sound effect processing unit 1500C will be further described with reference to FIG.

図52は、CH6において第1サウンド演出処理部1500Cにより実現されるサウンド演出処理の一例の概略フローチャートである。図52に示す処理は、図19のS6でコマンド番号“541C”及び“542”に係るサウンドデータが登録された場合に実行される。 FIG. 52 is a schematic flowchart of an example of the sound effect processing realized by the first sound effect processing unit 1500C in CH6. The process shown in FIG. 52 is executed when the sound data corresponding to the command numbers “541C” and “542” is registered in S6 of FIG.

ステップS520では、第1サウンド演出処理部1500Cは、コマンド番号“541C”及び“542”に係る再生開始条件が満たされたか否かを判定する。コマンド番号“541C”及び“542”に係る再生開始条件は、同じであり、“スタートスイッチオン”である。コマンド番号“541C”及び“542”に係る再生開始条件が満たされた場合は、ステップS522に進み、それ以外の場合は、再生開始条件の成立待ち状態となる。 In step S520, the first sound effect processing unit 1500C determines whether or not the reproduction start conditions related to the command numbers “541C” and “542” are satisfied. The playback start conditions relating to the command numbers “541C” and “542” are the same and “start switch on”. If the playback start conditions related to the command numbers “541C” and “542” are satisfied, the process proceeds to step S522; otherwise, the process waits for the satisfaction of the playback start conditions.

ステップS522では、第1サウンド演出処理部1500Cは、加工指示を伴う第1音声再生処理を実行する。加工指示を伴う第1音声再生処理は、上述のように、コマンド番号“541C”に対応付けられた通常ボイスに係るサウンドデータを、電話ボイスに係るサウンドデータに加工した上で通常音量(指示値=“255”)で、コマンド番号“542”に対応付けられた通常ボイスに係るサウンドデータをミュート音量(指示値=“0”)で、それぞれ略同時に再生開始する処理である。この場合、加工されたサウンドデータ(電話ボイスに係るサウンドデータ)と通常ボイスに係るサウンドデータとの合成サウンドデータがスピーカ64L、64Rから出力される。この結果、遊技者にとっては、通常音量の電話ボイスだけが聞こえる。 In step S522, the first sound effect processing unit 1500C executes a first sound reproduction process accompanied by a processing instruction. As described above, the first sound reproduction process accompanied by the processing instruction is performed by processing the sound data related to the normal voice associated with the command number “541C” into the sound data related to the telephone voice, and then setting the normal sound volume (instruction value). = "255"), and the sound data relating to the normal voice associated with the command number "542" is reproduced at substantially the same mute volume (instruction value = "0"). In this case, synthesized sound data of the processed sound data (sound data related to telephone voice) and sound data related to normal voice is output from the speakers 64L and 64R. As a result, the player hears only the normal volume telephone voice.

ステップS524では、第1サウンド演出処理部1500Cは、切替条件が成立したか否かを判定する。切替条件は、上述のように、第3停止操作が検出されると満たされる。切替条件が成立した場合は、ステップS526に進み、それ以外の場合は、ステップS522に戻る。 In step S524, first sound effect processing section 1500C determines whether or not the switching condition has been satisfied. The switching condition is satisfied when the third stop operation is detected, as described above. If the switching condition is satisfied, the process proceeds to step S526; otherwise, the process returns to step S522.

ステップS526では、第1サウンド演出処理部1500Cは、第2音声再生処理を実行する。第2音声再生処理は、上述のように、コマンド番号“541C”に対応付けられたサウンドデータ(加工されたサウンドデータ)の音量をミュート音量(指示値=“0”)に変更し、コマンド番号“542”に対応付けられた通常ボイスに係るサウンドデータの音量を通常音量(指示値=“255”)に変更した上で、それぞれの再生を継続する処理である。この場合、加工されたサウンドデータ(電話ボイスに係るサウンドデータ)と通常ボイスに係るサウンドデータとの合成サウンドデータがスピーカ64L、64Rから出力される。この結果、遊技者にとっては、通常音量の通常ボイスだけが聞こえる。なお、第2音声再生処理は、上述した第1実施形態のようにフェードインとフェードアウトを伴う態様で実現されてもよい(図33参照)。 In step S526, the first sound effect processing unit 1500C executes a second sound reproduction process. As described above, the second sound reproduction process changes the volume of the sound data (processed sound data) associated with the command number “541C” to the mute volume (instruction value = “0”), and This is processing for changing the volume of the sound data associated with the normal voice associated with “542” to the normal volume (instruction value = “255”), and then continuing the respective reproductions. In this case, synthesized sound data of the processed sound data (sound data related to telephone voice) and sound data related to normal voice is output from the speakers 64L and 64R. As a result, the player hears only the normal voice of the normal volume. Note that the second audio reproduction process may be realized in a mode involving fade-in and fade-out as in the first embodiment described above (see FIG. 33).

ステップS528では、第1サウンド演出処理部1500Cは、所定の終了条件が成立したか否かを判定する。所定の終了条件は、上述の通りである。所定の終了条件が成立した場合は、終了し、それ以外の場合は、ステップS526に戻る。このようにして所定の終了条件が成立するまで第2音声再生処理が継続される。 In step S528, first sound effect processing section 1500C determines whether or not a predetermined end condition has been satisfied. The predetermined termination condition is as described above. If the predetermined end condition is satisfied, the process ends; otherwise, the process returns to step S526. In this way, the second sound reproduction processing is continued until the predetermined end condition is satisfied.

本実施形態によれば、上述した第1実施形態と同様の効果が得られる。すなわち、本実施形態では、再生開始条件が成立してから切替条件が成立するまでの時間ΔT1は、通常ボイスファイルに基づいて第1音声再生処理が実行され、切替条件が成立すると、同じ通常ボイスファイルに基づいて第2音声再生処理が実行される。これにより、通常ボイスファイルと電話ボイスファイルの組み合わせを複数用意することを要せずに、再生開始条件が成立してから切替条件が成立するまでの時間ΔT1が変化することに対応できる。 According to this embodiment, the same effects as those of the above-described first embodiment can be obtained. That is, in the present embodiment, the time ΔT1 from when the reproduction start condition is satisfied to when the switching condition is satisfied is equal to the time when the first voice reproduction process is executed based on the normal voice file. A second audio reproduction process is performed based on the file. This makes it possible to cope with a change in the time ΔT1 from when the reproduction start condition is satisfied to when the switching condition is satisfied, without having to prepare a plurality of combinations of the normal voice file and the telephone voice file.

なお、本実施形態では、CH5及びCH6を用いているが、変形例では、いずれか一方、例えば、CH6に係るコマンド番号“542”が省略されてもよい。この場合、コマンド番号“541C”には、ボリューム“255”のみが対応付けられ、加工指示の有無が切替条件の成立に応じて変化される。具体的には、切替条件が成立するまでは加工指示に基づき通常ボイスから電話ボイスへの加工が実現されるが、切替条件が成立すると加工指示が送信されず通常ボイスがそのまま出力される。かかる構成によっても、同様の効果が得られる。 Note that, in the present embodiment, CH5 and CH6 are used, but in a modified example, one of the commands, for example, the command number “542” related to CH6 may be omitted. In this case, only the volume “255” is associated with the command number “541C”, and the presence or absence of the processing instruction is changed according to the satisfaction of the switching condition. Specifically, the processing from the normal voice to the telephone voice is realized based on the processing instruction until the switching condition is satisfied. However, when the switching condition is satisfied, the processing instruction is not transmitted and the normal voice is output as it is. With this configuration, a similar effect can be obtained.

また、本実施形態では、通常ボイスに係るサウンドデータが用意され、加工指示により電話ボイスに係るサウンドデータへと加工されているが、逆であってもよい。すなわち、電話ボイスに係るサウンドデータが用意され、加工指示により通常ボイスに係るサウンドデータへと加工されてもよい。 Further, in the present embodiment, the sound data related to the normal voice is prepared and processed into the sound data related to the telephone voice according to the processing instruction, but may be reversed. That is, sound data relating to the telephone voice may be prepared and processed into sound data relating to the normal voice according to the processing instruction.

なお、本実施形態では、上述した第1実施形態をベースとして、加工指示の制御が付加されているが、上述した第2実施形態をベースとして、加工指示の制御が付加されてもよい。すなわち、図43に示すサウンドデータテーブルにおいても、コマンド番号“541”がコマンド番号“541C”で置換され、かつ、コマンド番号“541C”に加工内容が対応付けられてもよい。 In the present embodiment, control of a processing instruction is added based on the first embodiment described above, but control of a processing instruction may be added based on the second embodiment described above. That is, also in the sound data table shown in FIG. 43, the command number “541” may be replaced with the command number “541C”, and the processing content may be associated with the command number “541C”.

<各種変形例>
以上、本発明に係る一実施形態の遊技機の構成及びその動作について、その作用効果も含めて説明した。しかしながら、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限り、その他の種々の実施形態及び変形例が含まれる。
<Various modifications>
The configuration and operation of the gaming machine according to one embodiment of the present invention have been described above, including the operational effects thereof. However, the present invention is not limited to the above-described embodiment, and includes various other embodiments and modifications without departing from the gist of the present invention described in the claims.

[変形例1]
上記実施形態では、投影対象の被投影部材が複数存在する場合(例えば、図24参照)、仮想空間上において、複数の被投影部材の合成仮想オブジェクトに対して、上述した仮想投影撮影法(映像光の仮想投影処理及び仮想撮影処理)によるPJ対応画像データの生成手法を適用する例を説明したが、本発明はこれに限定されない。例えば、次のような手順で、PJ対応画像データを生成してもよい。
[Modification 1]
In the above embodiment, when there are a plurality of projection target members to be projected (see, for example, FIG. 24), the virtual projection imaging method (video The example in which the method of generating the PJ-compatible image data by the virtual projection process and the virtual shooting process of light is applied has been described. For example, PJ-compatible image data may be generated in the following procedure.

まず、合成仮想オブジェクトを各被投影部材の仮想オブジェクトを分解する。次いで、分解された各仮想オブジェクトに対して、上記実施形態と同様に、リソース画像の映像光の仮想投影処理を実行して仮想投影画像データを作成する。なお、合成仮想オブジェクトは、本発明に係る第1の仮想オブジェクトの一具体例を示すものであり、各被投影部材の仮想オブジェクトは、本発明に係る第2の仮想オブジェクトの一具体例を示すものである。また、各被投影部材の仮想撮影画像データは、本発明に係る第1の視点画像のデータの一具体例を示すものである。 First, a virtual object of each projected member is decomposed into a composite virtual object. Next, the virtual projection processing of the image light of the resource image is performed on each of the decomposed virtual objects in the same manner as in the above-described embodiment to create virtual projection image data. Note that the composite virtual object is a specific example of the first virtual object according to the present invention, and the virtual object of each projected member is a specific example of the second virtual object according to the present invention. Things. Further, the virtual captured image data of each projected member indicates a specific example of data of the first viewpoint image according to the present invention.

次いで、各仮想オブジェクトの仮想投影画像データを合成する。次いで、合成された仮想投影画像データに対して、上記実施形態と同様にして、仮想撮影処理(視点変更処理)を実行して仮想撮影画像データを作成し、該仮想撮影画像データをVRAM154のフレームバッファに記憶する。そして、フレームバッファに格納された仮想撮影画像データに対して、上記実施形態と同様に画像の転送(コピー)処理を実行して、PJ対応画像データを生成する。なお、合成された仮想投影画像データは、本発明に係る合成画像のデータの一具体例を示すものである。 Next, virtual projection image data of each virtual object is synthesized. Next, virtual shooting processing (viewpoint change processing) is performed on the synthesized virtual projection image data in the same manner as in the above embodiment to create virtual shooting image data, and the virtual shooting image data is stored in a frame of the VRAM 154. Store in buffer. Then, image transfer (copy) processing is performed on the virtual photographed image data stored in the frame buffer in the same manner as in the above embodiment, to generate PJ-compatible image data. Note that the synthesized virtual projection image data indicates a specific example of the data of the synthesized image according to the present invention.

ここで、図53を参照して、この例の手法の一例を説明する。なお、図53は、変形例1におけるPJ対応画像データの生成手法の概要を説明するための図である。 Here, an example of the method of this example will be described with reference to FIG. FIG. 53 is a diagram for describing an outline of a method for generating PJ-compatible image data in the first modification.

図53に示す例では、投影対象となる複数の被投影部材として、上記実施形態で説明した台形部材302と、一対の円柱状の被投影部材501,502(以下、「一対の円柱状部材501,502」という)と、楕円球状の被投影部材503(以下、「楕円球部材503」という)とが設けられている例を説明する(図53中の投射オブジェクト参照)。また、この例では、台形部材302の前面(遊技者側)に一対の円柱状部材501,502が配置され、一対の円柱状部材501,502の前面(遊技者側)に楕円球部材503が配置されている例を説明する。さらに、一対の円柱状部材501,502はそれぞれ、各円柱状部材の延在方向の中心軸を回転軸として回転駆動可能な可動被投影部材である。なお、円柱状部材501,502及び楕円球部材503のそれぞれもまた、本発明に係る表示部の一具体例を示すものである。 In the example shown in FIG. 53, as the plurality of projection target members to be projected, the trapezoid member 302 described in the above embodiment and a pair of columnar projection members 501 and 502 (hereinafter, “a pair of columnar members 501”) , 502 ") and an elliptical spherical projected member 503 (hereinafter, referred to as an" elliptical spherical member 503 ") will be described (see a projection object in FIG. 53). Further, in this example, a pair of columnar members 501 and 502 are arranged on the front surface (player side) of the trapezoidal member 302, and an elliptical sphere member 503 is disposed on the front surface (player side) of the pair of columnar members 501 and 502. An example of the arrangement will be described. Further, each of the pair of columnar members 501 and 502 is a movable projection member that can be rotationally driven with the central axis in the extending direction of each columnar member as a rotation axis. Note that each of the columnar members 501 and 502 and the elliptical sphere member 503 also shows a specific example of the display unit according to the present invention.

この例のPJ対応画像データを生成手法では、まず、仮想空間上において、投射オブジェクトの仮想オブジェクト(合成仮想オブジェクト)を、台形部材302の仮想オブジェクトAと、一対の円柱状の被投影部材501,502の仮想オブジェクトBと、楕円球状の被投影部材503の仮想オブジェクトCとに分解する。次いで、分解された各仮想オブジェクトに対して、遊技者の目線方向から、リソース画像の映像光を仮想投影して、各仮想オブジェクトデータと、リソース画像データとが合成された各仮想オブジェクトの仮想投影画像データを生成する。 In the method of generating PJ-compatible image data of this example, first, in a virtual space, a virtual object (composite virtual object) of a projection object is combined with a virtual object A of a trapezoidal member 302 and a pair of cylindrical projected members 501 and 501. The virtual object B of 502 and the virtual object C of the projected member 503 having an elliptical spherical shape are decomposed. Then, the image light of the resource image is virtually projected onto each of the decomposed virtual objects from the direction of the player's eyes, and the virtual projection of each virtual object in which the respective virtual object data and the resource image data are synthesized. Generate image data.

次いで、生成された各仮想オブジェクトの仮想投影画像データを合成する。なお、この際、各仮想オブジェクトの配置関係を考慮して複数の仮想オブジェクトの仮想投影画像データが合成される。具体的には、仮想空間上において、複数の仮想オブジェクトが重なる領域では、最前面(最も遊技者側)に位置する仮想オブジェクトの投影面に映し出された画像が表示されるように複数の仮想投影画像データが合成される。その結果、図53中の最下部に示す合成後の仮想投影画像データ(以下、「合成仮想投影画像データ」という)が生成される。その後、上記実施形態と同様にして、合成仮想投影画像データを仮想撮影画像データに変換し、該仮想撮影画像データに基づいて、PJ対応画像データを生成する。 Next, virtual projection image data of each generated virtual object is synthesized. At this time, virtual projection image data of a plurality of virtual objects is synthesized in consideration of the arrangement relationship of each virtual object. Specifically, in an area where a plurality of virtual objects overlap in the virtual space, a plurality of virtual projections are displayed such that an image projected on the projection surface of the virtual object located on the foreground (most player side) is displayed. Image data is synthesized. As a result, the synthesized virtual projection image data (hereinafter, referred to as “synthesized virtual projection image data”) shown at the bottom of FIG. 53 is generated. Thereafter, similarly to the above embodiment, the composite virtual projection image data is converted into virtual captured image data, and PJ-compatible image data is generated based on the virtual captured image data.

上述したこの例のPJ対応画像データの生成手法を用いた場合、投影対象となる被投影部材が複数存在し且つ複数の被投影部材で立体的なスクリーンが構成されていても、被投影部材の仮想オブジェクト毎に仮想撮影画像データを生成し、該生成された複数の仮想投影画像データを合成して、複数の被投影部材からなる立体スクリーンの合成仮想投影画像データを生成することができる。それゆえ、この例の手法でPJ対応画像データを作成した場合には、実際の映像光を複数の被投影部材からなる立体スクリーンに投影した際の映像の投影位置の理想位置からのズレを最小限に抑制することができる。すなわち、この例の手法では、複数の被投影部材からなる立体スクリーン(オブジェクト)に対する投影画像のズレを最小限に抑制することができる。 When the method of generating PJ-compatible image data of this example described above is used, even if there are a plurality of projection target members to be projected and a three-dimensional screen is configured by the plurality of projection target members, the projection member It is possible to generate virtual captured image data for each virtual object, combine the plurality of generated virtual projection image data, and generate combined virtual projection image data of a stereoscopic screen including a plurality of projection target members. Therefore, when the PJ-compatible image data is created by the method of this example, the deviation of the projected position of the image from the ideal position when the actual image light is projected on the three-dimensional screen including the plurality of projection members is minimized. Can be minimized. That is, in the method of this example, the deviation of the projected image with respect to the three-dimensional screen (object) including the plurality of projection target members can be suppressed to a minimum.

また、この例においても、上記実施形態と同様に、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理が不要となるので、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。 Also in this example, similarly to the above-described embodiment, when the projector 213 actually projects the image light on the projection target member, the projection image data is associated with the shape of the projection surface (screen) of the projection target member. Since the correction process is not required, it is possible to execute a high-quality, versatile video display effect utilizing the three-dimensional CG technology while suppressing an increase in cost associated with CG creation.

[変形例2]
上記実施形態では、仮想空間上における画像の仮想投影処理及び仮想撮影処理において、投影対象画像の上部に該画像と同サイズのダミー画像を付加した2倍画角データを処理(演算)対象の画像データとして用いた。そして、PJ対応画像データを生成するときには、VRAM154のフレームバッファ(FB)に展開された2倍画角データのうち、仮想撮影画像データが格納されている領域の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーする手法を用いた。しかしながら、2倍画角データをPJ対応画像データに変換する手法(2倍画角データからPJ対応画像データを抽出する手法)は、上記実施形態の例に限定されない。
[Modification 2]
In the above embodiment, in the virtual projection processing and the virtual shooting processing of an image in a virtual space, double view angle data obtained by adding a dummy image having the same size as the image to the upper part of the projection target image is processed (calculated). Used as data. When generating the PJ-compatible image data, the image data of the area in which the virtual photographed image data is stored, out of the double field angle data expanded in the frame buffer (FB) of the VRAM 154, is defined as the PJ-compatible image data. A method of copying to the screen buffer (SB) of the VRAM 154 was used. However, the method of converting the double view angle data to the PJ corresponding image data (the method of extracting the PJ corresponding image data from the double view angle data) is not limited to the example of the above embodiment.

例えば、仮想空間上における仮想撮影処理により生成された仮想撮影画像データを含む2倍画角データをフレームバッファ(FB)に展開する前に、2倍画角データから仮想撮影画像データを抽出する処理を設けてもよい。変形例2では、その一例として、仮想撮影画像データを含む2倍画角データに対して射影変換処理を施して、2倍画角データから仮想撮影画像データを抽出する例を説明する。 For example, a process of extracting the virtual captured image data from the double angle of view data before expanding the double angle of view data including the virtual captured image data generated by the virtual captured image processing in the virtual space into the frame buffer (FB) May be provided. In the second modification, as an example, an example will be described in which the double-angle-of-view data including the virtual captured image data is subjected to projection conversion processing, and virtual captured image data is extracted from the double-angled image data.

3次元CG技術において、射影変換処理は、通常、仮想空間上に配置された仮想立体物をスクリーン上に投影する際に用いられる演算処理である。まず、図54A及び27Bを参照して、一般的な射影変換処理の説明を行う。 In the three-dimensional CG technology, the projective transformation process is an arithmetic process that is generally used when projecting a virtual three-dimensional object arranged in a virtual space onto a screen. First, a general projective transformation process will be described with reference to FIGS. 54A and 27B.

図54Aは、プロジェクタ側(光源側)の所定位置(図54A中の「near」)に配置された長方形状のオブジェクトを、スクリーンの配置位置(図54A中の「far」)に拡大して投影したときの様子を示す図である。また、図54Bは、図54A中の「near」に配置された長方形状のオブジェクトの座標を、スクリーン上(図54A中の「far」)に投影した際の長方形状のオブジェクトの座標に変換するために用いられるプロジェクション行列P(射影変換行列)を示す図である。 FIG. 54A shows a rectangular object placed at a predetermined position (“near” in FIG. 54A) on the projector side (light source side) enlarged and projected to a screen placement position (“far” in FIG. 54A). It is a figure showing a situation when doing. FIG. 54B converts the coordinates of the rectangular object arranged at “near” in FIG. 54A into the coordinates of the rectangular object when projected on the screen (“far” in FIG. 54A). Is a diagram showing a projection matrix P (projection transformation matrix) used for this.

なお、プロジェクション行列Pは、4行4列の正方行列である。プロジェクション行列Pでは、[1(行),1(列)]成分の値は「x」であり、[2,2]成分の値は「y」であり、[3,1]成分の値は「a」であり、[3,2]成分の値は「b」であり、[3,3]成分の値は「c」であり、[3,4]成分の値は「−1」であり、[4,3]成分の値は「d」である。なお、他の成分の値は「0」である。 Note that the projection matrix P is a square matrix of 4 rows and 4 columns. In the projection matrix P, the value of the [1 (row), 1 (column)] component is “x”, the value of the [2, 2] component is “y”, and the value of the [3, 1] component is “A”, the value of the [3,2] component is “b”, the value of the [3,3] component is “c”, and the value of the [3,4] component is “−1”. Yes, and the value of the [4, 3] component is “d”. The values of the other components are “0”.

また、プロジェクション行列P内の各成分の値(x,y,a,b,c,d)は、図54A及び27Bに示すように、長方形状のオブジェクトの位置「near」、スクリーンの位置「far」、投影前(射影変換前)の長方形状のオブジェクトの高さ(縦)方向の座標を規定するパラメータ「top」及び「bottom」、投影前の長方形状のオブジェクトの幅(横)方向の座標を規定するパラメータ「left」及び「right」、投影後(射影変換後)の長方形状のオブジェクトの高さ方向の長さ(高さ)「height」及び幅方向の長さ(幅)「width」、プロジェクタ(光源)から出射される光(投影光)の視野角「fovy」(投影画角)、並びに、スクリーンのアスペクト比「aspect」に基づいて算出される。 The values (x, y, a, b, c, d) of each component in the projection matrix P are, as shown in FIGS. 54A and 27B, the position “near” of the rectangular object and the position “far” of the screen. ", Parameters" top "and" bottom "defining the coordinates of the rectangular object before projection (before projective transformation) in the height (vertical) direction, and the coordinates in the width (horizontal) direction of the rectangular object before projection. "Left" and "right" defining the height, the height (height) "height" and the width (width) "width" of the rectangular object after projection (projection transformation) in the height direction. Is calculated based on the viewing angle “fovy” (projection angle of view) of the light (projection light) emitted from the projector (light source) and the screen aspect ratio “aspect”.

そして、図54A中の位置「near」の長方形状のオブジェクトの座標に、図54Bのプロジェクション行列Pを乗算すると(プロジェクション行列Pにより座標変換を行うと)、スクリーン上(図54A中の位置「far」)に投影(拡大して表示)された長方形状のオブジェクトの座標が算出される。 Then, when the coordinates of the rectangular object at the position “near” in FIG. 54A are multiplied by the projection matrix P in FIG. 54B (by performing coordinate transformation using the projection matrix P), the coordinates on the screen (the position “far” in FIG. 54A) are obtained. ) Are calculated (the coordinates of the rectangular object projected (enlarged and displayed)).

この例では、図54Bのプロジェクション行列Pを変形して用い、仮想撮影画像データを含む2倍画角データから仮想撮影画像データを抽出する。すなわち、この例では、スクリーンサイズの2倍のサイズの画像データ(2倍画角データ)をスクリーンサイズの画像データ(等倍画角データ)に変換する。なお、この例で用いる2倍画角データは、上記実施形態と同様に、被投影部材の投影面に投影される画像(投影対象画像)の上端部に該画像と同じサイズのダミー画像を付加した画像データとする(図23参照)。 In this example, the projection matrix P in FIG. 54B is modified and used to extract virtual captured image data from double angle-of-view data including virtual captured image data. That is, in this example, the image data of twice the screen size (double angle of view data) is converted into image data of the screen size (same angle of view data). The double field angle data used in this example is obtained by adding a dummy image of the same size to the upper end of an image (projection target image) projected on the projection surface of the projection target member, as in the above-described embodiment. (See FIG. 23).

図55に、この例において、仮想撮影画像データを含む2倍画角データから仮想撮影画像データ(PJ対応画像データ)を抽出する際に用いるプロジェクション行列Peを示す。この例では、プロジェクション行列Peとして、図55に示すように、プロジェクション行列P′とオフセット行列Oとを乗算した行列を用いる。なお、プロジェクション行列Peは、本発明に係る特定の変換パラメータの一具体例を示すものである。 FIG. 55 shows a projection matrix Pe used in this example to extract virtual captured image data (PJ-compatible image data) from double angle-of-view data including virtual captured image data. In this example, as shown in FIG. 55, a matrix obtained by multiplying the projection matrix P ′ by the offset matrix O is used as the projection matrix Pe. Note that the projection matrix Pe shows a specific example of a specific conversion parameter according to the present invention.

プロジェクション行列P′は、4行4列の正方行列であり、図54Bで示す一般的なプロジェクション行列Pにおいて、視野角(fovy)を1/2(所定の角度)に設定した射影変換行列である。この例では、上述のように、2倍画角データが等倍画角データに変換されるので、視野角(投影画角)は、一般的なプロジェクション行列Pのそれの半分の値に設定される。また、オフセット行列Oは、[1(行),1(列)]成分、[2,2]成分、[3,3]成分、[4,4]成分及び[4,2]成分の値が「1」であり、他の成分の値が「0」である4行4列の正方行列で構成される。なお、プロジェクション行列P′は、本発明に係る所定の射影変換パラメータの一具体例を示すものであり、オフセット行列Oは、本発明に係る所定のオフセットパラメータの一具体例を示すものである。 The projection matrix P ′ is a square matrix of 4 rows and 4 columns, and is a projection transformation matrix in which the viewing angle (fovy) is set to ((predetermined angle) in the general projection matrix P shown in FIG. 54B. . In this example, as described above, the double angle of view data is converted to the same size angle of view data, so that the viewing angle (projection angle of view) is set to a half of that of the general projection matrix P. You. Further, the offset matrix O has values of [1 (row), 1 (column)] component, [2, 2] component, [3, 3] component, [4, 4] component, and [4, 2] component. It is composed of a square matrix of 4 rows and 4 columns, which is “1” and the values of other components are “0”. Note that the projection matrix P 'shows one specific example of the predetermined projective transformation parameter according to the present invention, and the offset matrix O shows one specific example of the predetermined offset parameter according to the present invention.

そして、この例では、仮想撮影画像データを含む2倍画角データをフレームバッファ(FB)に展開する前に、2倍角データの座標に対してプロジェクション行列Peを乗算する。これにより、仮想撮影画像データを含む2倍画角データから仮想撮影画像データのみが抽出される。なお、本明細書では、この抽出結果の具体例を示さないが、発明者の検証実験では、この例で処理対象とする構成の2倍角データに図55に示すプロジェクション行列Peを乗算(射影変換)することにより、仮想撮影画像データを含む2倍画角データから仮想撮影画像データが抽出されることを確認している。 In this example, the coordinates of the double-size data are multiplied by the projection matrix Pe before the double-angle data including the virtual captured image data is developed in the frame buffer (FB). Thereby, only the virtual captured image data is extracted from the double angle of view data including the virtual captured image data. In this specification, a specific example of the extraction result is not shown. However, in a verification experiment by the inventor, double-width data of a configuration to be processed in this example is multiplied by a projection matrix Pe shown in FIG. ), It is confirmed that the virtual photographed image data is extracted from the double angle of view data including the virtual photographed image data.

この例の手法により、抽出された仮想撮影画像データは、上記実施形態と同様に、VRAM154のフレームバッファ(FB)に展開される。そして、VRAM154のフレームバッファ(FB)に展開された仮想撮影画像データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーされる。 According to the method of this example, the extracted virtual captured image data is developed in the frame buffer (FB) of the VRAM 154, as in the above embodiment. Then, the virtual photographed image data developed in the frame buffer (FB) of the VRAM 154 is copied to the screen buffer (SB) of the VRAM 154 as PJ-compatible image data.

上述のように、この例では、フレームバッファ(FB)に展開される画像データのサイズは、上記実施形態のそれの半分となるので、フレームバッファ(FB)のサイズも上記実施形態のそれの半分にすることができる。それゆえ、この例では、スクリーンサイズと同サイズのフレームバッファ(FB)を使用して、上記実施形態と同様の3次元CG処理を行うことができるので、VRAM154の使用状況に無駄が発生せず、GPU153の処理効率を向上させることができる。 As described above, in this example, the size of the image data expanded in the frame buffer (FB) is half that of the above embodiment, so that the size of the frame buffer (FB) is also half that of the above embodiment. Can be Therefore, in this example, the same three-dimensional CG processing as in the above-described embodiment can be performed using a frame buffer (FB) having the same size as the screen size, so that the use state of the VRAM 154 is not wasted. , The processing efficiency of the GPU 153 can be improved.

また、この例においても、上記実施形態と同様に、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理が不要となるので、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。 Also in this example, similarly to the above-described embodiment, when the projector 213 actually projects the image light on the projection target member, the projection image data is associated with the shape of the projection surface (screen) of the projection target member. Since the correction process is not required, it is possible to execute a high-quality, versatile video display effect utilizing the three-dimensional CG technology while suppressing an increase in cost associated with CG creation.

なお、この例の画像データの変換処理では、本発明に係る特定の変換パラメータ、所定の射影変換パラメータ及び所定のオフセットパラメータの一具体例として行列式(行列演算子)を用い、行列式による演算により、画像データを変換する例を説明したが、本発明はこれに限定されない。例えば、変換処理前後の画像データ(変換前データ及び変換後データ)を予め用意しておき、所定の変換指令等により直接、変換前データを変換後データに置き換えるような処理を行ってもよい。この場合には、所定の変換指令等が特定の変換パラメータ、所定の射影変換パラメータ及び所定のオフセットパラメータの一具体例となる。 In the image data conversion processing of this example, a determinant (matrix operator) is used as a specific example of a specific conversion parameter, a predetermined projective conversion parameter, and a predetermined offset parameter according to the present invention. Has been described, the present invention is not limited to this. For example, image data before and after the conversion process (data before conversion and data after conversion) may be prepared in advance, and a process of directly replacing the data before conversion with the data after conversion may be performed by a predetermined conversion command or the like. In this case, a predetermined conversion command or the like is a specific example of a specific conversion parameter, a predetermined projection conversion parameter, and a predetermined offset parameter.

[変形例3]
上記実施形態では、実際に、プロジェクタ213から被投影部材に投影する映像光のPJ対応画像データの作成手法として、仮想投影撮影法を用いた例を説明したが、本発明はこれに限定されない。例えば、PJ対応画像データの作成手法として、テクスチャマッピング(プロジェクションマッピング)法と称される手法を採用してもよい。
[Modification 3]
In the above-described embodiment, an example has been described in which the virtual projection imaging method is used as a method for creating PJ-compatible image data of video light actually projected from the projector 213 onto the projection target member. However, the present invention is not limited to this. For example, a technique referred to as a texture mapping (projection mapping) method may be employed as a technique for creating PJ-compatible image data.

変形例3では、テクスチャマッピング法によりPJ対応画像データを作成する手法について説明する。なお、テクスチャマッピング法は、2次元の画像を3次元状の物体(モデル)に仮想的に貼り付けることにより3次元的な画像を生成する手法である。 In Modification 3, a method of creating PJ-compatible image data by the texture mapping method will be described. The texture mapping method is a method of generating a three-dimensional image by virtually pasting a two-dimensional image on a three-dimensional object (model).

(1)テクスチャマッピング法の概要
図56は、テクスチャマッピング法によるPJ対応画像データの作成手法の概要を示す図である。なお、図56に示す例では、投影対象の被投影部材が台形部材302(図8参照)である場合の例を示すが、以下に説明する技術は、投影対象の被投影部材が擬似リール部材303又は平面スクリーン部材304である場合にも同様に適用可能である。
(1) Outline of Texture Mapping Method FIG. 56 is a diagram showing an outline of a method of creating PJ-compatible image data by the texture mapping method. In the example shown in FIG. 56, an example in which the projection target member to be projected is the trapezoidal member 302 (see FIG. 8) is shown. However, in the technology described below, the projection target member to be projected is a pseudo reel member. The same can be applied to the case of the 303 or the flat screen member 304.

図56には、リソース画像データ内の領域Aの画像データが台形部材302の投影面322a(図8参照)にマッピングされ、領域Bの画像データが台形部材302の投影面321aにマッピングされ、領域Cの画像データが台形部材302の投影面323aにマッピングされ、領域Dの画像データが台形部材302の投影面324aにマッピングされた例を示す。 56, the image data of the area A in the resource image data is mapped on the projection surface 322a (see FIG. 8) of the trapezoidal member 302, and the image data of the area B is mapped on the projection surface 321a of the trapezoidal member 302. An example is shown in which the image data of C is mapped on the projection surface 323a of the trapezoid member 302, and the image data of the area D is mapped on the projection surface 324a of the trapezoid member 302.

この例で用いられるリソース画像データは、上記実施形態のそれと同様に構成することができる。また、この例において、テクスチャマッピング法によるPJ対応画像データの作成処理の過程で処理対象となる画像データは、上記実施形態と同様に、投影対象の画像の上端部に該画像と同じサイズのダミー画像が付加された2倍画角データである。 The resource image data used in this example can be configured similarly to that of the above embodiment. In this example, the image data to be processed in the process of creating the PJ-compatible image data by the texture mapping method is, as in the above embodiment, a dummy having the same size as the image at the upper end of the image to be projected. This is double view angle data to which an image is added.

そして、テクスチャマッピング法では、2倍画角データ内のリソース画像データの各画素データを、各画素の座標に対応する台形部材302のテクスチャデータ(リソース画像の座標データ及び台形部材302の構造に関する座標データ)を使用してテクスチャ座標(UV座標)に貼り付ける演算を行うことにより、テクスチャマッピング後の画像データ(2次元の画像データ)が作成される。図56では、説明を簡略化するため、リソース画像データ内の領域A〜領域Dの各頂点の座標の画素データのみが台形部材302の対応する投影面の各頂点の座標(テクスチャ座標)に貼り付けられている様子を示す。なお、テクスチャデータは、本発明に係るテクスチャ情報又は表示部に画像を表示するための情報の一具体例を示すものであり、テクスチャマッピング後の画像データは、本発明に係る擬似3次元画像データの一具体例を示すものである。 In the texture mapping method, each pixel data of the resource image data in the double angle-of-view data is converted into the texture data of the trapezoid member 302 corresponding to the coordinates of each pixel (the coordinate data of the resource image and the coordinates related to the structure of the trapezoid member 302). The image data (two-dimensional image data) after texture mapping is created by performing an operation of pasting the texture coordinates (UV coordinates) using the data. In FIG. 56, for simplification of description, only the pixel data of the coordinates of each vertex of the areas A to D in the resource image data are pasted on the coordinates (texture coordinates) of each vertex of the corresponding projection surface of the trapezoidal member 302. Shows how it is attached. The texture data indicates a specific example of the texture information according to the present invention or information for displaying an image on the display unit. The image data after texture mapping is the pseudo three-dimensional image data according to the present invention. 1 shows a specific example.

なお、テクスチャデータのテクスチャ座標は、台形部材302の3次元CADデータから生成(変換)されたデータである。具体的には、テクスチャデータでは、リソース画像の領域A〜領域Dの各頂点座標のデータ(x1,y1)〜(x8,y8)、及び、該領域A〜領域Dの各頂点座標に対応する台形部材302の仮想オブジェクトデータ内の頂点座標(x1′,y1′)〜(x8′,y8′)が設定されている。そして、マッピング処理では、GPU153は、リソース画像の領域A〜領域Dの各頂点座標((x1,y1)〜(x8,y8))の各画素データを、台形部材302の仮想オブジェクトデータ内の対応する頂点座標((x1′,y1′)〜(x8′,y8′))にそれぞれマッピングする。また、このマッピング処理では、GPU153は、仮想オブジェクトデータ内の頂点座標間の座標をテクスチャデータの座標データ(頂点座標)に基づいて線形補間により算出し、リソース画像データの頂点座標以外の座標の各画素データを仮想オブジェクトデータ内の対応する座標にそれぞれマッピングする。 The texture coordinates of the texture data are data generated (converted) from the three-dimensional CAD data of the trapezoidal member 302. Specifically, in the texture data, the data (x1, y1) to (x8, y8) of the vertex coordinates of the regions A to D of the resource image and the vertex coordinates of the regions A to D correspond to the texture data. Vertex coordinates (x1 ', y1') to (x8 ', y8') in the virtual object data of the trapezoidal member 302 are set. Then, in the mapping process, the GPU 153 converts each pixel data of each vertex coordinate ((x1, y1) to (x8, y8)) of the area A to the area D of the resource image into a corresponding object in the virtual object data of the trapezoidal member 302. (X1 ', y1') to (x8 ', y8'). Further, in this mapping process, the GPU 153 calculates the coordinates between the vertex coordinates in the virtual object data by linear interpolation based on the coordinate data (vertex coordinates) of the texture data, and calculates each coordinate other than the vertex coordinates of the resource image data. The pixel data is mapped to the corresponding coordinates in the virtual object data.

次いで、テクスチャマッピング後の画像データが生成されると、該画像データを含む2倍画角データは、VRAM154のフレームバッファ(FB)に展開される。その後、フレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるテクスチャマッピング後の画像データが格納されている領域の画像データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)される。 Next, when the image data after the texture mapping is generated, the double angle of view data including the image data is developed in the frame buffer (FB) of the VRAM 154. After that, of the double angle-of-view data expanded in the frame buffer (FB), the image data of the area in which the image data after the texture mapping to be projected is stored is set as the PJ-compatible image data, and the screen buffer of the VRAM 154 is used. SB).

なお、テクスチャマッピング法によりPJ対応画像データを作成する手法は、例えば、図24で説明した、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合にも適用可能である。この場合、所定間隔のタイミング毎に生成された、動作中の擬似リール部材303(可動被投影部材)のテクスチャデータと台形部材302のテクスチャデータとの合成テクスチャデータにリソース画像データをマッピングする(貼り付ける)ことにより、PJ対応画像データを生成することができる。 Note that the technique of creating PJ-compatible image data by the texture mapping method can be applied to, for example, the case where the projection target member to be projected is switched from the trapezoidal member 302 to the pseudo reel member 303 described with reference to FIG. In this case, the resource image data is mapped to synthesized texture data of the texture data of the pseudo reel member 303 (movable projected member) in operation and the texture data of the trapezoidal member 302, which are generated at predetermined intervals. Attached), PJ-compatible image data can be generated.

また、この例のPJ対応画像データの作成手法は、例えば、図53に示すような、投影対象の被投影部材が複数の被投影部材からなる立体スクリーンである場合にも適用可能である。この場合には、複数の被投影部材の合成テクスチャデータ(立体スクリーンのテクスチャデータ)を取得し、該合成テクスチャデータにリソース画像データをマッピングする(貼り付ける)ことにより、PJ対応画像データを生成することができる。また、この場合、変形例1と同様に、複数の被投影部材の合成テクスチャデータを各被投影部材のテクスチャデータに分解し、該分解された各被投影部材のテクスチャデータに対応するリソース画像をマッピングし、各被投影部材のマッピング後の画像データを合成してPJ対応画像データを生成してもよい。 In addition, the method of creating PJ-compatible image data in this example is also applicable to a case where the projection target to be projected is a three-dimensional screen including a plurality of projection members, as shown in FIG. 53, for example. In this case, PJ-compatible image data is generated by acquiring composite texture data (texture data of a three-dimensional screen) of a plurality of projected members and mapping (pasting) resource image data to the composite texture data. be able to. Further, in this case, similarly to the first modification, the composite texture data of the plurality of projected members is decomposed into the texture data of each projected member, and the resource image corresponding to the decomposed texture data of each projected member is generated. PJ-compatible image data may be generated by performing mapping and synthesizing the mapped image data of each projection target member.

(2)テクスチャマッピング法によるPJ対応画像データの作成手順
次に、図57を参照して、副制御回路150において行われる、テクスチャマッピング法によるPJ対応画像データの生成処理の具体的な処理手順を説明する。なお、図57は、テクスチャマッピング法による、PJ対応画像データ及びそれに対応する映像信号の生成処理の手順を示すフローチャートである。
(2) Procedure for Creating PJ-Compatible Image Data Using Texture Mapping Method Next, referring to FIG. 57, a specific processing procedure for generating PJ-compatible image data using the texture mapping method, which is performed in the sub control circuit 150, will be described. explain. FIG. 57 is a flowchart illustrating a procedure of a process of generating PJ-compatible image data and a video signal corresponding to the PJ-compatible image data by the texture mapping method.

まず、サブCPU151は、ロムカートリッジ基板86に格納された各種リソース画像データの中から、今回、映像表示するリソース画像データを選択する(S21)。なお、S21の処理で選択する画像データは、リソース画像の上端部に、リソース画像と同サイズのダミー画像が付加された2倍画角データである。また、この処理では、GPU153(レンダリングプロセッサ153)は、サブCPU151の指令に基づいて、選択されたリソース画像データをVRAM154(描画用RAM)に展開する。 First, the sub CPU 151 selects resource image data to be displayed this time from various resource image data stored in the ROM cartridge substrate 86 (S21). The image data selected in the process of S21 is double field angle data in which a dummy image of the same size as the resource image is added to the upper end of the resource image. In this process, the GPU 153 (rendering processor 153) develops the selected resource image data in the VRAM 154 (rendering RAM) based on a command from the sub CPU 151.

次いで、サブCPU151は、ロムカートリッジ基板86に格納された各種被投影部材のテクスチャデータ(被投影部材の構造に関する3次元データ)の中から、今回、投影対象となる被投影部材のテクスチャデータを選択する(S22)。この処理において、投影対象となる被投影部材が、一つの被投影部材である場合には、当該被投影部材のテクスチャデータのみが選択される。また、この処理において、投影対象となる被投影部材が複数である場合には、現タイミングに対応する合成テクスチャデータが選択される。そして、この処理では、GPU153は、サブCPU151の指令に基づいて、選択されたテクスチャデータをVRAM154に展開する。 Next, the sub CPU 151 selects the texture data of the projection target to be projected this time from the texture data of the various projection targets (three-dimensional data relating to the structure of the projection target) stored in the ROM cartridge 86. (S22). In this process, when the projection target to be projected is one projection target, only the texture data of the projection target is selected. Also, in this processing, when there are a plurality of projection target members to be projected, the synthetic texture data corresponding to the current timing is selected. In this process, the GPU 153 develops the selected texture data in the VRAM 154 based on a command from the sub CPU 151.

なお、S21及びS22の処理において、選択されたリソース画像データ及びテクスチャデータは、VRAM154内において、フレームバッファ及びスクリーンバッファ以外のバッファ領域(仮想バッファ)に展開される。また、S21及びS22の処理順序は、任意であり、S22の処理の後にS21の処理を行ってもよい。 In the processing of S21 and S22, the selected resource image data and texture data are developed in the VRAM 154 in a buffer area (virtual buffer) other than the frame buffer and the screen buffer. Further, the processing order of S21 and S22 is arbitrary, and the processing of S21 may be performed after the processing of S22.

次いで、GPU153は、テクスチャマッピング処理を行う(S23)。この処理では、S21の処理で選択されたリソース画像データとS22の処理で選択された被投影部材のテクスチャデータとを用いて、リソース画像の各画素データを、対応する被投影部材の投影面の位置に貼り付ける処理(マッピング)を行う。 Next, the GPU 153 performs a texture mapping process (S23). In this process, using the resource image data selected in the process of S21 and the texture data of the projection target selected in the process of S22, each pixel data of the resource image is converted to the projection surface of the corresponding projection target. Perform processing (mapping) for pasting to the position.

次いで、GPU153は、S23で生成されたマッピング処理後の画像データを含む2倍画角データをVRAM154のフレームバッファ(FB)に展開(セット)する(S24)。次いで、GPU153は、フレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるマッピング処理後の画像データが格納されている領域(図23中では、フレームバッファの下半分の領域)の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)する(S25)。 Next, the GPU 153 develops (sets) the double view angle data including the image data after the mapping process generated in S23 in the frame buffer (FB) of the VRAM 154 (S24). Next, the GPU 153 stores an area (in FIG. 23, a lower half of the frame buffer in the frame buffer (FB)) in which the image data after the mapping process to be projected is stored in the double field angle data expanded in the frame buffer (FB). The image data of the area is copied (transferred) to the screen buffer (SB) of the VRAM 154 as PJ-compatible image data (S25).

そして、GPU153は、S25でスクリーンバッファ(SB)にコピーされたPJ対応画像データを映像信号に変換して、該映像信号をプロジェクタ213に出力する(S26)。この例では、上述のようにして、プロジェクタ213に出力するPJ対応画像データ(映像信号)を生成する。 Then, the GPU 153 converts the PJ-compatible image data copied to the screen buffer (SB) in S25 into a video signal, and outputs the video signal to the projector 213 (S26). In this example, PJ-compatible image data (video signal) to be output to the projector 213 is generated as described above.

(3)各種効果
この例のように、PJ対応画像データの作成手法としてテクスチャマッピング法を採用した場合、より簡易な処理でPJ対応画像データを作成することができるので、CG作成に係るコストの増大を抑制しつつ、3次元CGを駆使した高画質で多彩な演出を実行することができる。また、この例では、被投影部材に映像光を投影した後のムービーを用意することができるので、GPU(VDP(Video Display Processor))の処理性能が低くても、問題なくムービーを再生することができ、テクスチャマッピング(プロジェクションマッピング)を汎用的に使用することができる。
(3) Various effects When the texture mapping method is adopted as a method for creating PJ-compatible image data as in this example, the PJ-compatible image data can be created by simpler processing. A variety of effects with high image quality utilizing three-dimensional CG can be executed while suppressing an increase. Further, in this example, since the movie after projecting the image light on the projection target member can be prepared, the movie can be reproduced without any problem even if the processing performance of the GPU (VDP (Video Display Processor)) is low. And texture mapping (projection mapping) can be used for general purposes.

さらに、この例においてもPJ対応画像データの作成過程で処理対象となる画像データは、投影対象画像の上部に該画像と同じサイズのダミー画像を付加した画像データ(2倍画角データ)である。それゆえ、この例においても、上記実施形態と同様に、画像データの作成段階で、被投影部材の投影面(スクリーン)に実際に映し出される映像の歪みを抑制することができ、高画質の演出映像を遊技者に提供することができる。 Further, also in this example, the image data to be processed in the process of creating the PJ-compatible image data is image data (double field angle data) obtained by adding a dummy image having the same size as the image to the upper part of the projection target image. . Therefore, also in this example, similarly to the above-described embodiment, it is possible to suppress the distortion of the image actually projected on the projection surface (screen) of the projection target member at the stage of creating the image data, and to produce a high quality image. An image can be provided to the player.

なお、テクスチャマッピング法によるPJ対応画像データの作成手法では、リソース画像データの各画素データを、各画素の座標に対応する被投影部材のテクスチャデータの座標に貼り付けるだけの処理であるので、上記実施形態で説明した仮想投影撮影法を用いた手法に比べて簡易な手法である。しかしながら、テクスチャマッピングを用いた手法では、仮想投影撮影法を用いた手法に比べて、例えば、図56に示す台形部材302の投影面間の境界付近で画像の歪みが発生し易くなるので、高画質という観点では、上記実施形態で説明した仮想投影撮影法を用いた手法の方が優位となる。 Note that the method of creating PJ-compatible image data by the texture mapping method is a process of simply pasting each pixel data of the resource image data to the coordinates of the texture data of the projected member corresponding to the coordinates of each pixel. This is a simpler method than the method using the virtual projection imaging method described in the embodiment. However, in the method using texture mapping, image distortion is more likely to occur near the boundary between the projection surfaces of the trapezoidal member 302 shown in FIG. From the viewpoint of image quality, the method using the virtual projection imaging method described in the above embodiment is superior.

また、図56及び図57で説明した例では、GPU153を使用してリアルタイムでテクスチャマッピング処理を行う例を説明したが、本発明はこれに限定されず、例えば、次のような手法を用いてもよい。まず、3次元CGツール等で予めリソース画像を被投影部材にマッピングした画像データを作成し、該マッピング後の画像データをロムカートリッジ基板86に格納する。次いで、画像表示時には、サブCPU151が、ロムカートリッジ基板86に格納された各種マッピング後の画像データの中から所定の画像データを選択し、該画像データをPJ対応画像データとしてプロジェクタ213に出力する。 Further, in the examples described with reference to FIGS. 56 and 57, an example in which texture mapping processing is performed in real time using the GPU 153 has been described. However, the present invention is not limited to this. For example, the following method is used. Is also good. First, image data in which a resource image is mapped to a projection target member in advance using a three-dimensional CG tool or the like is created, and the mapped image data is stored in the ROM cartridge substrate 86. Next, at the time of displaying an image, the sub CPU 151 selects predetermined image data from various mapped image data stored in the ROM cartridge substrate 86 and outputs the selected image data to the projector 213 as PJ-compatible image data.

また、図56及び図57で説明した例では、PJ対応画像データを生成する際には、VRAM154のフレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるマッピング処理後の画像データが格納されている領域の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーする例を説明したが、本発明はこれに限定されない。例えば、上記変形例2で説明した手法と同様に、投影対象のマッピング処理後の画像データを含む2倍画角データに対して、図55に示したプロジェクション行列Peを乗算(射影変換)して、2倍画角データから投影対象となるマッピング処理後の画像データ(等倍画角データ)を抽出してもよい。この場合、抽出された投影対象のマッピング処理後の画像データ(等倍画角データ)は、VRAM154のフレームバッファ(FB)に展開され、該展開された等倍画角データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)される。 In the example described with reference to FIGS. 56 and 57, when generating the PJ-compatible image data, of the double view angle data expanded in the frame buffer (FB) of the VRAM 154, Although the example in which the image data of the area where the image data is stored is copied to the screen buffer (SB) of the VRAM 154 as the PJ-compatible image data has been described, the present invention is not limited to this. For example, similarly to the method described in the second modification, the double-view angle data including the image data of the projection target after the mapping processing is multiplied (projection transformation) by the projection matrix Pe shown in FIG. Alternatively, image data (actual-magnification angle-of-view data) subjected to mapping processing to be projected may be extracted from the double angle-of-view data. In this case, the extracted image data (actual-magnification angle-of-view data) of the projection target after the mapping process is expanded in the frame buffer (FB) of the VRAM 154, and the expanded equal-magnification angle-of-view data is used as PJ-compatible image data. , Is copied (transferred) to the screen buffer (SB) of the VRAM 154.

[その他の各種変形例]
上記実施形態では、平面スクリーン部材304の投影面304bを平面で構成し、その投影面に白色の塗料を塗布した例を説明したが、本発明はこれに限定されない。例えば、平面スクリーン部材304の投影面304b(第2平面)に印刷シートを貼り付けてもよい。また、この場合、例えば、印刷シートを複数の領域に分けて、それぞれの領域に異なる絵画や記号を形成してもよい。そして、プロジェクタ213から出射される映像光により、異なる絵画や記号に所定の順番で照明を当てるような映像(画像)を表示してもよい。この場合、いずれかの絵画(記号)が選択される、所謂、ルーレット演出を行うことができる。
[Other variations]
In the above-described embodiment, an example is described in which the projection surface 304b of the flat screen member 304 is configured as a plane, and a white paint is applied to the projection surface. However, the present invention is not limited to this. For example, a print sheet may be attached to the projection surface 304b (second plane) of the flat screen member 304. In this case, for example, the print sheet may be divided into a plurality of areas, and different pictures and symbols may be formed in the respective areas. Then, an image (image) in which different pictures or symbols are illuminated in a predetermined order may be displayed by the image light emitted from the projector 213. In this case, a so-called roulette effect in which one of the pictures (symbols) is selected can be performed.

また、上記実施形態では、擬似リール部材303及び平面スクリーン部材304を移動させる構成例を説明したが、本発明はこれに限定されない。本発明に係る被投影部材としては、被投影部材全体が移動するものに限定されず、例えば、被投影部材に可動部を設け、被投影部材の一部(可動部)が移動する構成にしてもよい。この場合、可動部の動作に合わせた映像光を投影することにより、躍動感のある映像を表示することができ、映像を用いた演出の興趣を高めることができる。 Further, in the above embodiment, the configuration example in which the pseudo reel member 303 and the flat screen member 304 are moved has been described, but the present invention is not limited to this. The projection member according to the present invention is not limited to a member in which the entire projection member moves. For example, a movable member is provided in the projection member, and a part (movable portion) of the projection member moves. Is also good. In this case, by projecting image light in accordance with the operation of the movable unit, an image with a lively feeling can be displayed, and the interest of the effect using the image can be enhanced.

また、上記実施形態では、キャビネット2aの内部におけるフロントパネル10の開口10aに対向する位置に、プロジェクタ213を有する表示装置11を配置する例を説明したが、本発明はこれに限定されない。本発明に係る遊技機では、例えば、腰部パネル12に開口を設け、キャビネット2aの内部における腰部パネル12の開口に対向する位置に、プロジェクタを有する表示装置を配置してもよい。また、上記実施形態では、キャビネット2aの内部に表示装置11を配置する例を説明したが、本発明はこれに限定されない。本発明に係る遊技機では、例えば、フロントドア2bにプロジェクタを有する表示装置を配置してもよい。 Further, in the above embodiment, the example has been described in which the display device 11 having the projector 213 is disposed at a position facing the opening 10a of the front panel 10 inside the cabinet 2a, but the present invention is not limited to this. In the gaming machine according to the present invention, for example, an opening may be provided in the waist panel 12, and a display device having a projector may be arranged at a position facing the opening of the waist panel 12 inside the cabinet 2a. In the above embodiment, the example in which the display device 11 is arranged inside the cabinet 2a has been described, but the present invention is not limited to this. In the gaming machine according to the present invention, for example, a display device having a projector may be arranged on the front door 2b.

また、本発明に係る遊技機では、擬似リール部材303の投影面331bに投影する映像として、スタートレバー16の操作(開始操作)に応じて、図柄が変動する映像を採用してもよい。そして、この場合には、擬似リール部材303の投影面331bにおいて、ストップボタン17L,17C,17Rの押圧操作(停止操作)に合わせて、変動する図柄を停止する映像を表示してもよい。 Further, in the gaming machine according to the present invention, as the image to be projected on the projection surface 331b of the pseudo reel member 303, an image whose symbol fluctuates according to the operation (start operation) of the start lever 16 may be adopted. In this case, on the projection surface 331b of the pseudo reel member 303, an image for stopping the changing symbol may be displayed in accordance with the pressing operation (stop operation) of the stop buttons 17L, 17C, 17R.

また、上記実施形態では、被投影部材の投影面(スクリーン)に対して、その表面側からプロジェクタの光を投射して映像を表示する方式(フロントプロジェクション)を採用した例を説明したが、本発明はこれに限定されない。例えば、スクリーンに対して、その裏面(背面)側からプロジェクタの光を投射して映像を表示する方式(リアプロジェクション)を採用してもよく、この場合においても最適な効果を得ることができる。また、本発明に係る遊技機では、表示装置として、プロジェクタの代わりに、例えば、液晶表示装置や、有機・無機EL等の表示装置を用いることができる。 In the above-described embodiment, an example is described in which a method (front projection) of displaying an image by projecting light from a projector from the front surface side to the projection surface (screen) of the projection target member has been described. The invention is not limited to this. For example, a method (rear projection) of displaying an image by projecting light from a projector from the back surface (rear surface) side of the screen may be adopted. In this case, an optimal effect can be obtained. In the gaming machine according to the present invention, for example, instead of the projector, a display device such as a liquid crystal display device or an organic / inorganic EL device can be used as the display device.

また、上記実施形態では、本発明に係る遊技機として、パチスロ遊技機を例に挙げて説明したが、本発明はこれに限定されず、本発明に係る遊技機が、例えば、パチンコ遊技機であってもよい。 Further, in the above embodiment, as the gaming machine according to the present invention, a pachislot gaming machine has been described as an example, but the present invention is not limited to this, and the gaming machine according to the present invention is, for example, a pachinko gaming machine. There may be.

例えば、パチンコ遊技機においては、複数回の図柄の変動に対して連続演出(例えば先読み演出)を行う場合があるが、各図柄の変動時間は、保留玉の状態や、特図1と特図2の相違等に応じて変化しうる。例えば、電話シーンに関して、一の図柄の変動が聞き手側のシーンに関し、次の一の図柄の変動が話し手側のシーンに関する場合、聞き手側のシーンの長さが変化しうる。かかる場合に本発明を適用すれば、上記実施形態と同様の効果を得ることができる。具体的には、聞き手側のシーンに係る変動中は、電話ボイスのサウンドデータを通常音声で、かつ、通常ボイスのサウンドデータをミュート音声で略同時に再生開始し、次の変動に切り替わると、電話ボイスに係るサウンドデータをミュート音声に、かつ、通常ボイスに係るサウンドデータを通常音声にそれぞれ変更した上で、再生を継続する。なお、この場合、次の変動の開始(演出時間の経過)が切替条件を満たすことになる。 For example, in a pachinko gaming machine, a continuous effect (for example, a look-ahead effect) may be performed for a plurality of symbol variations, but the variation time of each symbol depends on the state of the reserved ball, the special figure 1 and the special figure. It may change according to the difference between the two. For example, with respect to the telephone scene, if one symbol change relates to the listener's scene and the next symbol change relates to the speaker's scene, the length of the listener's scene may change. If the present invention is applied in such a case, the same effect as the above embodiment can be obtained. Specifically, during the fluctuations related to the scene on the listener side, the sound data of the telephone voice is played back with the normal voice, and the sound data of the normal voice is started playing almost simultaneously with the mute voice. After changing the sound data related to the voice to the mute sound and the sound data related to the normal voice to the normal sound, the reproduction is continued. In this case, the start of the next change (elapse of the effect time) satisfies the switching condition.

また、パチンコ遊技機においては、特定演出音の出力処理に係る所定の終了条件は、図柄の変動終了時に当たり図柄が表示されたとき、あるいは、大当たり開始演出が開始されたときに満たされてよい。この場合、パチスロ1においてボーナスが作動した場合と同様、当たり図柄が表示された時点等で、特定演出音による期待度の示唆は不要となるためである。 Further, in the pachinko gaming machine, the predetermined end condition relating to the output processing of the specific effect sound may be satisfied when the hit symbol is displayed at the end of the change of the symbol, or when the big hit start effect is started. . In this case, as in the case where the bonus is activated in the pachislot 1, it is not necessary to suggest the degree of expectation by the specific effect sound at the time when the winning symbol is displayed or the like.

また、上記実施形態では、通常ボイスに係るサウンドデータと電話ボイスに係るサウンドデータとが略同時に再生開始されているが、これに限られない。例えば、図58に示すように、通常ボイスに係るサウンドデータ5802は、電話ボイスに係るサウンドデータ5800の再生開始タイミングt1から一定時間T7だけ遅れた再生開始タイミングt2に再生開始されてもよい。この場合、一定時間T7は、例えば、スタートスイッチオンのタイミングt1から第3停止操作のタイミングt3までの時間の取り得る範囲の最小時間(例えば図58の時間T8)よりも短く設定される。また、この場合、通常ボイスに係るサウンドデータ5802及び電話ボイスに係るサウンドデータ5800は、それぞれ、再生開始タイミングt2及び再生開始タイミングt1から再生開始された場合に、台詞音“聞こえていますか?私の声が”が略重なるように生成される。例えば、電話ボイスに係るサウンドデータ5800が、通常ボイスに係るサウンドデータの元データ(図示せず)を加工して生成される場合、再生開始タイミングt2から再生開始される通常ボイスに係るサウンドデータ5802は、通常ボイスに係るサウンドデータの元データのうち、最初の一定時間T7の部分を削除したものである。このような変形例によっても、上記実施形態と同様の効果を得ることができる。 In the above embodiment, the sound data of the normal voice and the sound data of the telephone voice are started to be reproduced almost simultaneously, but the present invention is not limited to this. For example, as shown in FIG. 58, the sound data 5802 for the normal voice may be started to be reproduced at a reproduction start timing t2 which is delayed by a certain time T7 from the reproduction start timing t1 of the sound data 5800 for the telephone voice. In this case, the fixed time T7 is set to be shorter than the minimum time (for example, time T8 in FIG. 58) in a range from the start switch on timing t1 to the third stop operation timing t3. Also, in this case, the sound data 5802 relating to the normal voice and the sound data 5800 relating to the telephone voice, when the reproduction is started from the reproduction start timing t2 and the reproduction start timing t1, respectively, the dialogue sound “Is it heard? Is generated such that "" substantially overlaps. For example, when the sound data 5800 relating to the telephone voice is generated by processing the original data (not shown) of the sound data relating to the normal voice, the sound data 5802 relating to the normal voice to be reproduced from the reproduction start timing t2. Is the original data of the sound data relating to the normal voice, in which the portion of the first fixed time T7 is deleted. According to such a modification, the same effect as in the above embodiment can be obtained.

また、上記実施形態では、電話ボイスに係るコマンド番号“541”及び通常ボイスに係るコマンド番号“542”に対応付けれた切替条件は、“第3停止操作”であるが、上述のように、切替条件はこれに限られず、多様な態様で実現可能である。例えば、演出用操作手段に対する操作の検出に関連付けた切替条件を用いる場合、当該演出用操作手段の操作有効期間を設定し、操作有効期間中に操作が検出された場合は、その時点で切替条件が成立することとしてよい。また、操作有効期間中に操作が検出されない場合は、操作有効期間が終了した時点で切替条件が成立することとしてよい。あるいは、操作有効期間中に操作が検出されない場合は、切替条件が不成立とされてもよい。この場合、通常ボイスから電話ボイスに切り替わることなく、当該演出を終了可能としてもよい(聞き手側再生処理の実行状態で当該演出を終了可能としてもよい)。このような変形例によれば、遊技者は、操作タイミングに応じて異なる演出パターンを楽しむことができる。
なお、本変形例において、切替条件を成立させる演出用操作手段の操作態様は、通常の操作態様に限られない。切替条件を成立させる演出用操作手段の操作態様は、多様であってよく、これにより、多彩な遊技性を実現してもよい。例えば、切替条件を成立させる演出用操作手段の操作態様は、所定回数の連続操作(例えばボタン等の連打)であってもよいし、所定時間以上の継続的な操作(例えばボタン等の長押し)であってもよい。
また、本変形例において、演出用操作手段としては、演出用ボタン、タッチパネル、遊技者の手の接近を検出可能な近接センサ(例えば赤外線センサ)、レバー、ジョグダイアル等を適宜採用できる。また、演出用操作手段自体を可動部として構成し、操作有効期間中だけ演出用操作手段が遊技者の操作により可動とされてもよい。この場合、可動部にボタン(演出用操作手段の一要素)が更に設けられてもよい。
In the above-described embodiment, the switching condition associated with the command number “541” related to the telephone voice and the command number “542” related to the normal voice is “third stop operation”. The condition is not limited to this, and can be realized in various modes. For example, when using a switching condition associated with the detection of an operation on a production operation means, an operation validity period of the production operation means is set, and if an operation is detected during the operation validity time, the switching condition is set at that time. May be established. If no operation is detected during the operation validity period, the switching condition may be satisfied at the end of the operation validity period. Alternatively, if no operation is detected during the operation validity period, the switching condition may not be satisfied. In this case, the effect may be terminated without switching from the normal voice to the telephone voice (the effect may be terminated in the state of execution of the listener-side reproduction process). According to such a modification, the player can enjoy different effect patterns depending on the operation timing.
In the present modification, the operation mode of the effect operating means for satisfying the switching condition is not limited to the normal operation mode. The operation mode of the effect operating means for satisfying the switching condition may be various, and thereby various game characteristics may be realized. For example, the operation mode of the effect operating means for satisfying the switching condition may be a predetermined number of continuous operations (for example, continuous hitting of a button or the like) or a continuous operation for a predetermined time or more (for example, long pressing of a button or the like). ).
Further, in the present modified example, as a production operation means, a production button, a touch panel, a proximity sensor (for example, an infrared sensor) capable of detecting approach of a player's hand, a lever, a jog dial, and the like can be appropriately adopted. Further, the effect operating means itself may be configured as a movable part, and the effect operating means may be movable by a player's operation only during the operation valid period. In this case, a button (one element of the effect operating means) may be further provided on the movable part.

[その他の本実施形態に係る遊技機の拡張性]
本実施形態のパチスロ1では、遊技者のメダルの投入操作(すなわち、手持ちのメダルをメダル投入口14に対して投入する操作、あるいは、クレジットされたメダルをMAXベットボタン15a、若しくは1ベットボタン15bを操作して投入する操作)により遊技が開始され、遊技が終了したときにメダルの払い出しがある場合には、ホッパー装置51が駆動してメダル払出口24からメダルが払い出され、あるいは、クレジットされる形態について説明したが、これに限られるものではない。
[Other expandability of the gaming machine according to the present embodiment]
In the pachislot 1 of the present embodiment, the player inserts medals (that is, inserts a medal in his / her hand into the medal slot 14 or inserts a credited medal into the MAX bet button 15a or the 1-bet button 15b). When the game is started by the operation of inputting and paying medals, and when the game is finished, if there is a payout of medals, the hopper device 51 is driven to pay out medals from the medal payout opening 24, or Although the above-described embodiment has been described, the present invention is not limited to this.

例えば、遊技者によって遊技に必要な遊技媒体が投入され、それに基づいて遊技が行われ、その遊技の結果に基づいて特典が付与(例えば、メダルが払い出される)形態全てについて、本発明を適用することができる。すなわち、物理的な遊技者の動作によって遊技媒体が投入され(掛けられ)、遊技媒体が払い出される形態のみならず、主制御回路90(主制御基板71)自体が、遊技者が保有する遊技媒体を電磁的に管理し、メダルレスで遊技を可能とするものであってもよい。また、遊技者が保有する遊技媒体を電磁的に管理するのは、主制御回路90(主制御基板71)に装着され(接続され)、遊技媒体を管理する遊技媒体管理装置であってもよい。 For example, the present invention is applied to all modes in which a player inputs a game medium necessary for a game, a game is performed based on the medium, and a privilege is provided (for example, a medal is paid out) based on a result of the game. be able to. That is, the main control circuit 90 (main control board 71) itself has the game medium held by the player as well as the form in which the game medium is inserted (hanged) by the physical player's operation and the game medium is paid out. May be managed electromagnetically to enable games without a medal. In addition, the game medium held by the player may be electromagnetically managed by a game medium management device mounted on (connected to) the main control circuit 90 (main control board 71) and managing the game medium. .

この場合、遊技媒体管理装置は、ROM及びRWM(あるいは、RAM)を有して、遊技機に設けられる装置であって、図示しない外部の遊技媒体取扱装置と所定のインターフェイスを介して双方向通信可能に接続されるものであり、遊技媒体の貸出動作(すなわち、遊技者が遊技媒体の投入操作を行う上で、必要な遊技媒体を提供する動作)若しくは遊技媒体の払出に係る役に入賞(当該役が成立)した場合の、遊技媒体の払出動作(すなわち、遊技者に対して遊技媒体の払出を行う上で、必要な遊技媒体を獲得させる動作)、又は遊技の用に供する遊技媒体を電磁的に記録する動作を行い得るものとすればよい。また、遊技媒体管理装置は、これら実際の遊技媒体数の管理のみならず、例えば、その遊技媒体数の管理結果に基づいて、パチスロ1の前面に、保有する遊技媒体数を表示する保有遊技媒体数表示装置(不図示)を設けることとし、この保有遊技媒体数表示装置に表示される遊技媒体数を管理するものであってもよい。すなわち、遊技媒体管理装置は、遊技者が遊技の用に供することができる遊技媒体の総数を電磁的方法により記録し、表示することができるものとすればよい。 In this case, the game medium management device has a ROM and RWM (or RAM) and is a device provided in the game machine. The game medium management device communicates with an external game medium handling device (not shown) via a predetermined interface. It is connected so as to be able to lend a game medium (that is, an operation of providing a required game medium when a player performs an operation of inserting a game medium) or a prize for a role related to a payout of a game medium ( When the combination is established), the payout operation of the game medium (that is, the operation of obtaining the required game medium in paying out the game medium to the player) or the game medium to be used for the game. What is necessary is just to be able to perform the operation of recording electromagnetically. In addition, the game medium management device not only manages the actual number of game media, but also displays the number of game media held on the front of the pachislot 1 based on the management result of the number of game media, for example. A number display device (not shown) may be provided, and the number of game media displayed on the retained game medium number display device may be managed. That is, the game medium management device may record and display the total number of game media that the player can use for the game by an electromagnetic method.

また、この場合、遊技媒体管理装置は、遊技者が、記録された遊技媒体数を示す信号を、外部の遊技媒体取扱装置に対して自由に送信させることができる性能を有し、また、遊技者が直接操作する場合のほか、記録された遊技媒体数を減ずることができない性能を有し、また、外部の遊技媒体取扱装置との間に外部接続端子板(不図示)が設けられる場合には、その外部接続端子板を介してでなければ、遊技者が、記録された遊技媒体数を示す信号を送信できない性能を有することが望ましい。 Further, in this case, the game medium management device has a function of allowing the player to freely transmit a signal indicating the number of recorded game media to an external game medium handling device. In addition to direct operation by the player, it has a performance that cannot reduce the number of recorded game media, and when an external connection terminal board (not shown) is provided between the player and an external game media handling device. It is desirable that the player has a performance that a player cannot transmit a signal indicating the number of recorded game media unless through the external connection terminal plate.

遊技機には上記の他、遊技者が操作可能な貸出操作手段、返却(清算)操作手段、外部接続端子板が設けられ、遊技媒体取扱装置には紙幣等の有価価値の投入口、記録媒体(例えばICカード)の挿入口、携帯端末から電子マネー等の入金を行うための非接触通信アンテナ等、その他貸出操作手段、返却操作手段等各種操作手段、遊技媒体取扱装置側外部接続端子板が設けられるようにしてもよい(いずれも不図示)。 In addition to the above, the gaming machine is provided with a lending operation means that can be operated by the player, a return (clearing) operation means, and an external connection terminal plate. (E.g., an IC card), a non-contact communication antenna for receiving electronic money or the like from a mobile terminal, various other operation means such as a lending operation means, a return operation means, and an external connection terminal board on a game medium handling device side. It may be provided (all are not shown).

その際の遊技の流れとしては、例えば、遊技者が遊技媒体取扱装置に対しいずれかの方法で有価価値を入金し、上記いずれかの貸出操作手段の操作に基づいて所定数の有価価値を減算し、遊技媒体取扱装置から遊技媒体管理装置に対し減算した有価価値に対応する遊技媒体を増加させる。そして遊技者は遊技を行い、さらに遊技媒体が必要な場合には上記操作を繰り返し行う。その後遊技の結果所定数の遊技媒体を獲得し、遊技を終了する際にはいずれかの返却操作手段を操作することにより遊技媒体管理装置から遊技媒体取扱装置に対し遊技媒体数を送信し、遊技媒体取扱装置はその遊技媒体数を記録した記録媒体を排出する。遊技媒体管理装置は遊技媒体数を送信したときに自信が記憶する遊技媒体数をクリアする。遊技者は排出された記録媒体を景品交換するために景品カウンター等に持っていくか、又は他の台で記録された遊技媒体に基づいて遊技を行うために遊技台を移動する。 As a flow of the game at that time, for example, a player deposits a valuable value into the game medium handling device by any method, and subtracts a predetermined number of valuable values based on the operation of any one of the lending operation means. Then, the number of game media corresponding to the value which is subtracted from the game medium handling device to the game medium management device is increased. Then, the player plays the game, and repeats the above operation when a further game medium is required. After that, a predetermined number of game media are obtained as a result of the game, and when the game is completed, any one of the return operation means is operated to transmit the number of game media from the game medium management device to the game medium handling device, The medium handling device discharges the recording medium on which the number of game media is recorded. The game medium management device clears the number of game media stored by itself when the number of game media is transmitted. The player takes the discharged recording medium to a prize counter or the like to exchange prizes, or moves the gaming table to play a game based on game media recorded on another table.

なお、上記例では全遊技媒体を遊技媒体取扱装置に対して送信したが、遊技機又は遊技媒体取扱装置側で遊技者が所望する遊技媒体数のみを送信し、遊技者が所持する遊技媒体を分割して処理することとしてもよい。また、記録媒体を排出するだけに限らず、現金又は現金等価物を排出するようにしてもよいし、携帯端末等に記憶させるようにしてもよい。また、遊技媒体取扱装置は遊技場の会員記録媒体を挿入可能とし、会員記録媒体に貯留して後日再遊技可能とするようにしてもよい。 In the above example, all the game media are transmitted to the game medium handling device, but only the number of game media desired by the player is transmitted on the gaming machine or the game medium handling device side, and the game media possessed by the player are transmitted. The processing may be performed in a divided manner. Further, the present invention is not limited to discharging the recording medium, but may discharge cash or cash equivalents, or may store it in a portable terminal or the like. Further, the game medium handling device may be configured such that a member recording medium of a game arcade can be inserted therein, stored in the member recording medium, and can be replayed at a later date.

また、遊技機又は遊技媒体取扱装置において、図示しない所定の操作手段を操作することにより遊技媒体取扱装置又は遊技媒体管理装置に対し遊技媒体又は有価価値のデータ通信をロックするロック操作を実行可能としてもよい。その際にはワンタイムパスワード等遊技者にしか知りえない情報を設定することや遊技機又は遊技媒体取扱装置に設けられた撮像手段により遊技者を記憶するようにしてもよい。 Further, in the gaming machine or the game medium handling device, by operating a predetermined operating means (not shown), a lock operation for locking the game medium or the valuable data communication to the game medium handling device or the game medium managing device can be performed. Is also good. At this time, information that can be known only to the player, such as a one-time password, may be set, or the player may be stored by an imaging unit provided in the gaming machine or the game medium handling device.

なお、この遊技媒体管理装置は、上述のように、メダルレスでのみ遊技を可能とするものであってもよいし、物理的な遊技者の動作によって遊技媒体が投入され(掛けられ)、遊技媒体が払い出される形態、及びメダルレスで遊技を可能とする形態、双方の形態で遊技を可能とするものであってもよい。この場合には、遊技媒体管理装置が、上述のセレクタ66やホッパー装置51を直接的に制御する方式を採用することもできるし、これらが主制御回路90(主制御基板71)によって制御され、その制御結果が送信されることに基づいて、遊技者が遊技の用に供することができる遊技媒体の総数を電磁的方法により記録し、表示する制御を行い得る制御を可能とする方式を採用することもできる。 Note that, as described above, the game medium management device may enable a game only without a medal, or a game medium is inserted (hanged) by a physical player's operation, and May be paid out, or the game may be performed without a medal, and the game may be performed in both forms. In this case, a system in which the game medium management device directly controls the selector 66 and the hopper device 51 described above can be adopted, and these can be controlled by the main control circuit 90 (main control board 71), Based on the transmission of the control result, a method is employed in which the total number of game media that the player can use for the game is recorded by an electromagnetic method, and a control capable of performing display control is adopted. You can also.

また、上記では、遊技媒体管理装置を、パチスロ1に適用する場合について説明しているが、上述した遊技球を用いるパチンコや封入式遊技機においても同様に遊技媒体管理装置を設け、遊技者の遊技媒体が管理されるようにすることもできる。 In the above description, the case where the game medium management device is applied to the pachislot 1 has been described. However, a game medium management device is similarly provided in a pachinko or an enclosed game machine using the above-mentioned game ball, and the player is provided with the game medium management device. Game media can also be managed.

このように、上述した遊技媒体管理装置を設けることにより、遊技媒体が物理的に遊技に供される場合と比べて、遊技機内部のセレクタ66やホッパー装置51等を減らすことができ、遊技機の原価及び製造コストを削減できるのみならず、遊技者が直接遊技媒体に接触しないようにすることもでき、遊技環境が改善し、騒音も減らすことができるとともに、装置を減らしたことにより遊技機の消費電力を減らすことにもなる。また、遊技媒体や遊技媒体の投入口や払出口を介した不正行為を防止することができる。すなわち、遊技機をとりまく種々の環境を改善することができる遊技機を提供することが可能となる。 As described above, by providing the above-described game medium management device, the number of selectors 66, hopper devices 51, and the like inside the game machine can be reduced as compared with the case where the game medium is physically provided for the game. Not only reduce the cost and manufacturing cost of the game, but also prevent the player from directly touching the game media, improve the gaming environment, reduce noise, and reduce the number of devices Power consumption is also reduced. In addition, it is possible to prevent an illegal act through a game medium or a game medium input port or payout port. That is, it is possible to provide a gaming machine capable of improving various environments surrounding the gaming machine.

<付記(本発明のまとめ)> <Supplementary note (Summary of the present invention)>

[第1〜第4の遊技機]
従来、CGROM(Character Generator ROM)に動画像データを読み込んで展開し、3次元動画像を液晶ディスプレイ等の表示装置に表示する機能を備えた遊技機が提案されている(例えば、特開平7―155438号公報参照)。
[First to fourth gaming machines]
Conventionally, there has been proposed a gaming machine having a function of reading moving image data into a CGROM (Character Generator ROM), developing the data, and displaying a three-dimensional moving image on a display device such as a liquid crystal display. 155438).

ところで、近年、液晶ディスプレイ等の表示装置が搭載された遊技機では、3次元CG(Computer Graphics)技術を駆使した高画質で多彩な演出が主流となっている。そして、その多彩な演出を行うためのCGデータを予め作成し、該作成したCGデータをCGROMに記憶しているため、CG作成に係るコストが、年々、増大している。 By the way, in recent years, in a gaming machine equipped with a display device such as a liquid crystal display, a variety of effects with high image quality utilizing a three-dimensional CG (Computer Graphics) technology have become mainstream. Since the CG data for performing the various effects is created in advance and the created CG data is stored in the CGROM, the cost of creating the CG is increasing year by year.

本発明は、上記第1の課題を解決するためになされたものであり、本発明の第1の目的は、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行可能にする遊技機を提供することである。 SUMMARY OF THE INVENTION The present invention has been made to solve the first problem, and a first object of the present invention is to provide a high-quality image utilizing three-dimensional CG technology while suppressing an increase in cost for CG production. And to provide a gaming machine capable of performing various effects.

上記第1の課題を解決するために、本発明では、以下のような構成の第1−1の遊技機を提供する。 In order to solve the first problem, the present invention provides a 1-1 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部に記憶し、
前記揮発性記憶部に記憶された前記第2の視点画像のデータを映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A control unit (for example, a sub-control board 72) for controlling the display operation of the image using the display unit,
Non-volatile storage of a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit A memory unit (for example, a ROM cartridge substrate 86).
The controller is
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit selects predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and selects data of the virtual object,
The image processing unit,
Using the volatile storage unit, virtually project an image corresponding to the predetermined original image data from a first direction (for example, the direction of a player's eyes) onto the virtual object arranged in a virtual space. Generating first viewpoint image data (for example, virtual projection image data) projected on the virtual object based on the predetermined original image data and the data of the virtual object;
In the virtual space, a second viewpoint acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, an incident direction of actual video light). Generating viewpoint image data (for example, virtual photographed image data) and storing the second viewpoint image data in the volatile storage unit;
A gaming machine, comprising: converting data of the second viewpoint image stored in the volatile storage unit into a video signal and outputting the video signal.

上記第1の課題を解決するために、本発明では、以下のような構成の第1−2の遊技機を提供する。 In order to solve the first problem, the present invention provides a 1-2 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
Storage in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit are stored. (For example, a ROM cartridge substrate 86);
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (e.g., GPU153) that performs a process related to the output of the image in accordance with the control by the control processing unit.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects data of the virtual object,
The image processing unit,
When a video corresponding to the predetermined original image data is virtually projected from the first direction (for example, the direction of the player's eyes) onto the virtual object arranged in the virtual space, the virtual object is projected on the virtual object. Generating first viewpoint image data (for example, virtual projection image data) based on the predetermined original image data and the data of the virtual object,
In the virtual space, a second viewpoint acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, an incident direction of actual video light). A gaming machine for generating viewpoint image data (for example, virtual photographed image data).

上記第1の課題を解決するために、本発明では、以下のような構成の第1−3の遊技機を提供する。 In order to solve the first problem, the present invention provides a 1-3 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image on the display unit,
Storage in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit are stored. (For example, a ROM cartridge substrate 86);
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (e.g., GPU153) that performs a process related to the output of the image in accordance with the control by the control processing unit.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects data of the virtual object,
The image processing unit,
When a video corresponding to the predetermined original image data is virtually projected from the first direction (for example, the direction of the player's eyes) onto the virtual object arranged in the virtual space, the virtual object is projected on the virtual object. Generating first viewpoint image data (for example, virtual projection image data) based on the predetermined original image data and the data of the virtual object,
In the virtual space, a second viewpoint acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, an incident direction of actual video light). Generate viewpoint image data (for example, virtual photographed image data),
The first direction is a player's line of sight to the image display surface of the display unit, and the second direction is an incident direction of the image light to the image display surface of the display unit. A gaming machine characterized by that:

上記第1の課題を解決するために、本発明では、以下のような構成の第2−1の遊技機を提供する。 In order to solve the first problem, the present invention provides a 2-1 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A control unit (for example, a sub-control board 72) for controlling the display operation of the image using the display unit,
Non-volatile storage of a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit A memory unit (for example, a ROM cartridge substrate 86).
The controller is
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit selects predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and selects data of the virtual object,
The image processing unit,
Using the volatile storage unit, virtually project an image corresponding to the predetermined original image data from a first direction (for example, the direction of a player's eyes) onto the virtual object arranged in a virtual space. Then, data of a first viewpoint image projected on the virtual object (for example, virtual projection image data) is generated based on the predetermined original image data and the data of the virtual object. Storing the viewpoint image data in a first buffer (for example, a virtual buffer) of the volatile storage unit;
In the virtual space, a second viewpoint acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, an incident direction of actual video light). Generating data of a viewpoint image (for example, virtual captured image data) and storing the data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the image data displayed on the display unit from the second buffer storing the data of the second viewpoint image to a third buffer (for example, a screen buffer) of the volatile storage unit; A game machine that converts data (for example, PJ-compatible image data) stored in the third buffer into a video signal and outputs the video signal.

上記第1の課題を解決するために、本発明では、以下のような構成の第2−2の遊技機を提供する。 In order to solve the first problem, the present invention provides a 2-2 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記第3のバッファのサイズが前記画像のサイズと同じであり、前記第2のバッファのサイズが前記第3のバッファのサイズより大きい
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
Non-volatile storage of a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit Storage unit (for example, ROM cartridge substrate 86);
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit selects predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and selects data of the virtual object,
The image processing unit,
Using the volatile storage unit, virtually project an image corresponding to the predetermined original image data from a first direction (for example, the direction of a player's eyes) onto the virtual object arranged in a virtual space. Then, data of a first viewpoint image projected on the virtual object (for example, virtual projection image data) is generated based on the predetermined original image data and the data of the virtual object. Storing the viewpoint image data in a first buffer (for example, a virtual buffer) of the volatile storage unit;
In the virtual space, a second viewpoint acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, an incident direction of actual video light). Generating data of a viewpoint image (for example, virtual captured image data) and storing the data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the image data displayed on the display unit from the second buffer storing the data of the second viewpoint image to a third buffer (for example, a screen buffer) of the volatile storage unit; Converting the data (eg, PJ-compatible image data) stored in the third buffer into a video signal and outputting the video signal;
A gaming machine, wherein the size of the third buffer is the same as the size of the image, and the size of the second buffer is larger than the size of the third buffer.

上記第1の課題を解決するために、本発明では、以下のような構成の第2−3の遊技機を提供する。 In order to solve the first problem, the present invention provides a 2-3 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image on the display unit,
Non-volatile storage of a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit Storage unit (for example, ROM cartridge substrate 86);
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit selects predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and selects data of the virtual object,
The image processing unit,
Using the volatile storage unit, virtually project an image corresponding to the predetermined original image data from a first direction (for example, the direction of a player's eyes) onto the virtual object arranged in a virtual space. Then, data of a first viewpoint image projected on the virtual object (for example, virtual projection image data) is generated based on the predetermined original image data and the data of the virtual object. Storing the viewpoint image data in a first buffer (for example, a virtual buffer) of the volatile storage unit;
In the virtual space, a second viewpoint acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, an incident direction of actual video light). Generating data of a viewpoint image (for example, virtual captured image data) and storing the data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the image data displayed on the display unit from the second buffer storing the data of the second viewpoint image to a third buffer (for example, a screen buffer) of the volatile storage unit; Converting the data (eg, PJ-compatible image data) stored in the third buffer into a video signal and outputting the video signal;
The first direction is a player's line of sight to the image display surface of the display unit, and the second direction is an incident direction of the image light to the image display surface of the display unit. A gaming machine characterized by that:

上記第1の課題を解決するために、本発明では、以下のような構成の第3−1の遊技機を提供する。 In order to solve the first problem, the present invention provides a 3-1st gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成し、
前記揮発性記憶部で生成された前記擬似3次元画像データを映像信号に変換して、該変換された映像信号を出力する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A control unit (for example, a sub-control board 72) for controlling the display operation of the image using the display unit,
A nonvolatile storage unit that stores a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and texture information (for example, texture data) relating to the structure of the display unit; (For example, a ROM cartridge substrate 86).
The controller is
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit selects predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and selects the texture information,
The image processing unit,
Using the volatile storage unit, pseudo three-dimensional image data (for example, image data after mapping) in which the texture information is reflected in the predetermined original image data is stored in the predetermined original image data and the texture information. Generated based on
A gaming machine, wherein the pseudo three-dimensional image data generated by the volatile storage unit is converted into a video signal, and the converted video signal is output.

上記第1の課題を解決するために、本発明では、以下のような構成の第3−2の遊技機を提供する。 In order to solve the first problem, the present invention provides a 3-2th gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A storage unit (e.g., a storage unit) that stores a plurality of original image data (e.g., resource image data) for generating the image to be displayed on the display unit, and texture information (e.g., texture data) related to the structure of the display unit. , A ROM cartridge substrate 86),
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (e.g., GPU153) that performs a process related to the output of the image in accordance with the control by the control processing unit.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects the texture information,
The image processing unit,
Pseudo three-dimensional image data (for example, image data after mapping) in which the texture information is reflected in the predetermined original image data is generated based on the predetermined original image data and the texture information. Gaming machine.

上記第1の課題を解決するために、本発明では、以下のような構成の第3−3の遊技機を提供する。 In order to solve the first problem, the present invention provides a third to third gaming machines having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成して、前記揮発性記憶部の所定のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記擬似3次元画像データが記憶された前記所定のバッファから前記揮発性記憶部の特定のバッファ(例えば、スクリーンバッファ)に転送し、該特定のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記特定のバッファのサイズが前記画像のサイズと同じであり、前記所定のバッファのサイズが前記特定のバッファのサイズより大きい
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image on the display unit,
A nonvolatile storage unit that stores a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and texture information (for example, texture data) relating to the structure of the display unit; (For example, a ROM cartridge substrate 86);
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit selects predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and selects the texture information,
The image processing unit,
Generating pseudo three-dimensional image data (for example, image data after mapping) in which the texture information is reflected in the predetermined original image data based on the predetermined original image data and the texture information; The data is stored in a predetermined buffer (for example, a frame buffer) of the storage unit,
Transferring the image data displayed on the display unit from the predetermined buffer in which the pseudo three-dimensional image data is stored to a specific buffer (for example, a screen buffer) of the volatile storage unit; Converting data (for example, PJ-compatible image data) stored in the buffer into a video signal, outputting the video signal,
A gaming machine, wherein the size of the specific buffer is the same as the size of the image, and the size of the predetermined buffer is larger than the size of the specific buffer.

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−1の遊技機を提供する。 In order to solve the first problem, the present invention provides a 4-1 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータを抽出し、該抽出された前記画像のデータを映像信号に変換して、該映像信号を出力し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータである
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A control unit (for example, a sub-control board 72) for controlling the display operation of the image using the display unit,
A plurality of image data for generating the image to be displayed on the display unit (for example, double angle of view data including resource image data), and information for displaying the image on the display unit (for example, virtual A non-volatile storage unit (for example, a ROM cartridge substrate 86) in which object data or texture data is stored,
The controller is
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit selects predetermined image data from the plurality of image data stored in the non-volatile storage unit, and, and selects information for displaying the image on the display unit,
The image processing unit,
Using a specific conversion parameter (for example, a projection matrix Pe) from image data obtained by performing predetermined processing on the predetermined image data based on information for displaying the image on the display unit, Extracting data of the image displayed by the display unit, converting the data of the extracted image into a video signal, outputting the video signal,
The specific conversion parameter is a predetermined projection conversion parameter (for example, a projection matrix P ′) for performing a projection conversion process on the image data that has been subjected to the predetermined processing and has a viewing angle set to a predetermined angle. ) And a predetermined offset parameter (for example, an offset matrix O).

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−2の遊技機を提供する。 In order to solve the first problem, the present invention provides a 4-2th gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータに変換し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータである
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A plurality of image data for generating the image to be displayed on the display unit (for example, double angle of view data including resource image data), and information for displaying the image on the display unit (for example, virtual A storage unit (for example, a ROM cartridge substrate 86) storing object data or texture data);
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (e.g., GPU153) that performs a process related to the output of the image in accordance with the control by the control processing unit.
The control processing unit selects predetermined image data from among the plurality of image data stored in the storage unit, and selects information for displaying the image on the display unit,
The image processing unit,
Using a specific conversion parameter (for example, a projection matrix Pe) from image data obtained by performing predetermined processing on the predetermined image data based on information for displaying the image on the display unit, Converting to the image data displayed by the display unit,
The specific conversion parameter is a predetermined projection conversion parameter (for example, a projection matrix P ′) for performing a projection conversion process on the image data that has been subjected to the predetermined processing and has a viewing angle set to a predetermined angle. ) And a predetermined offset parameter (for example, an offset matrix O).

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−3の遊技機を提供する。 In order to solve the first problem, the present invention provides a fourth to third gaming machines having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータを抽出し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータであり、
前記所定の処理が施された画像データのサイズが、前記特定の変換パラメータを用いて抽出された画像データのサイズより大きい
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A plurality of image data for generating the image to be displayed on the display unit (for example, double angle of view data including resource image data), and information for displaying the image on the display unit (for example, virtual A storage unit (for example, a ROM cartridge substrate 86) storing object data or texture data);
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (e.g., GPU153) that performs a process related to the output of the image in accordance with the control by the control processing unit.
The control processing unit selects predetermined image data from among the plurality of image data stored in the storage unit, and selects information for displaying the image on the display unit,
The image processing unit,
Using a specific conversion parameter (for example, a projection matrix Pe) from image data obtained by performing predetermined processing on the predetermined image data based on information for displaying the image on the display unit, Extracting the data of the image displayed by the display unit,
The specific conversion parameter is a predetermined projection conversion parameter (for example, a projection matrix P ′) for performing a projection conversion process on the image data that has been subjected to the predetermined processing and has a viewing angle set to a predetermined angle. ) And a predetermined offset parameter (for example, an offset matrix O).
A gaming machine, wherein the size of the image data subjected to the predetermined processing is larger than the size of the image data extracted using the specific conversion parameter.

上記構成の本発明の第1〜第4の遊技機によれば、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行することができる。 According to the first to fourth gaming machines of the present invention having the above-described configuration, it is possible to execute various effects with high image quality utilizing three-dimensional CG technology, while suppressing an increase in cost associated with CG creation.

[第5及び第6の遊技機]
従来、CGROM(Character Generator ROM)に動画像データを読み込んで展開し、3次元動画像を液晶ディスプレイ等の表示装置に表示する機能を備えた遊技機が提案されている(例えば、特開平7―155438号公報参照)。
[Fifth and sixth gaming machines]
Conventionally, there has been proposed a gaming machine having a function of reading moving image data into a CGROM (Character Generator ROM), developing the data, and displaying a three-dimensional moving image on a display device such as a liquid crystal display. 155438).

ところで、近年、液晶ディスプレイ等の表示装置が搭載された遊技機では、3次元CG(Computer Graphics)技術を駆使した高画質で多彩な演出が主流となっている。そして、その多彩な演出を行うためのCGデータを予め作成し、該作成したCGデータをCGROMに記憶しているため、CG作成に係るコストが、年々、増大している。また、従来、この技術分野では、プロジェクトマッピング(テクスチャマッピング)法と呼ばれる手法により、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する技術が提案されているが、この場合、オブジェクトに対する投影画像のズレを無くすための調整が最大の懸念材料となっている。 By the way, in recent years, in a gaming machine equipped with a display device such as a liquid crystal display, a variety of effects with high image quality utilizing a three-dimensional CG (Computer Graphics) technology have become mainstream. Since the CG data for performing the various effects is created in advance and the created CG data is stored in the CGROM, the cost of creating the CG is increasing year by year. Conventionally, in this technical field, a technique of projecting an image on an object such as a three-dimensional object (three-dimensional screen) using a projector by a technique called a project mapping (texture mapping) method has been proposed. Adjustment for eliminating the displacement of the projected image with respect to the object is the greatest concern.

本発明は、上記第2の課題を解決するためになされたものであり、本発明の第2の目的は、CG作成に係るコストの増大を抑制するとともに、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合に、オブジェクトに対する投影画像のズレを最小限に抑制することが可能な遊技機を提供することである。 The present invention has been made in order to solve the second problem, and a second object of the present invention is to suppress an increase in cost associated with CG creation and to convert an image using a projector into a three-dimensional object ( It is an object of the present invention to provide a gaming machine capable of minimizing a deviation of a projected image with respect to an object when projecting onto an object such as a three-dimensional screen.

上記第2の課題を解決するために、本発明では、以下のような構成の第5−1の遊技機を提供する。 In order to solve the second problem, the present invention provides a 5-1 gaming machine having the following configuration.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用いる
ことを特徴とする遊技機。
It includes a fixed first display unit (for example, trapezoidal member 302) and a movable second display unit (for example, pseudo reel member 303), and at least one of the first display unit and the second display unit. A display unit (for example, various projection target members), one of which can be an image display target;
A control unit (for example, a sub-control board 72) for controlling the display operation of the image using the display unit,
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a virtual object corresponding to the form of the display unit on which the image is to be displayed (for example, A non-volatile storage unit (for example, a ROM cartridge substrate 86) storing virtual object data),
Movable control means (for example, a projected member moving mechanism 305) for movably controlling the second display unit,
The controller is
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit is configured to select predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and to display the predetermined original image data on the display unit. Select data of a predetermined virtual object corresponding to the form,
The image processing unit,
By using the volatile storage unit, a video corresponding to the predetermined original image data is virtually stored in the predetermined virtual object arranged in the virtual space from a first direction (for example, a direction of a player's eyes). Generating first viewpoint image data (for example, virtual projection image data) projected onto the predetermined virtual object when projected onto the predetermined virtual object based on the predetermined original image data and the predetermined virtual object data Then, the data of the first viewpoint image is stored in a first buffer (for example, a virtual buffer) of the volatile storage unit,
In the virtual space, the first viewpoint image projected on the predetermined virtual object is obtained when the first viewpoint image is virtually photographed from a second direction (for example, an actual video light incident direction). Generating data of the second viewpoint image (for example, virtual photographed image data) and storing the data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the image data displayed on the display unit from the second buffer storing the data of the second viewpoint image to a third buffer (for example, a screen buffer) of the volatile storage unit; Converting the data (eg, PJ-compatible image data) stored in the third buffer into a video signal and outputting the video signal;
When the second display unit is movably controlled by the movable control unit, the data of the predetermined virtual object corresponds to a form of the display unit according to an operation state of the second display unit. A gaming machine characterized by using data of virtual objects.

上記第2の課題を解決するために、本発明では、以下のような構成の第5−2の遊技機を提供する。 In order to solve the second problem, the present invention provides a 5-2th gaming machine having the following configuration.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用い、
前記第3のバッファのサイズが前記画像のサイズと同じであり、前記第2のバッファのサイズが前記第3のバッファのサイズより大きい
ことを特徴とする遊技機。
It includes a fixed first display unit (for example, trapezoidal member 302) and a movable second display unit (for example, pseudo reel member 303), and at least one of the first display unit and the second display unit. A display unit (for example, various projection target members), one of which can be an image display target;
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a virtual object corresponding to the form of the display unit on which the image is to be displayed (for example, A non-volatile storage unit (for example, a ROM cartridge substrate 86) storing virtual object data),
A movable control unit (for example, a projected member moving mechanism 305) for movably controlling the second display unit;
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit is configured to select predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and to display the predetermined original image data on the display unit. Select data of a predetermined virtual object corresponding to the form,
The image processing unit,
By using the volatile storage unit, a video corresponding to the predetermined original image data is virtually stored in the predetermined virtual object arranged in the virtual space from a first direction (for example, a direction of a player's eyes). Generating first viewpoint image data (for example, virtual projection image data) projected onto the predetermined virtual object when projected onto the predetermined virtual object based on the predetermined original image data and the predetermined virtual object data Then, the data of the first viewpoint image is stored in a first buffer (for example, a virtual buffer) of the volatile storage unit,
In the virtual space, the first viewpoint image projected on the predetermined virtual object is obtained when the first viewpoint image is virtually photographed from a second direction (for example, an actual video light incident direction). Generating data of the second viewpoint image (for example, virtual photographed image data) and storing the data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the image data displayed on the display unit from the second buffer storing the data of the second viewpoint image to a third buffer (for example, a screen buffer) of the volatile storage unit; Converting the data (eg, PJ-compatible image data) stored in the third buffer into a video signal and outputting the video signal;
When the second display unit is movably controlled by the movable control unit, the data of the predetermined virtual object corresponds to a form of the display unit according to an operation state of the second display unit. Using virtual object data,
A gaming machine, wherein the size of the third buffer is the same as the size of the image, and the size of the second buffer is larger than the size of the third buffer.

上記第2の課題を解決するために、本発明では、以下のような構成の第5−3の遊技機を提供する。 In order to solve the second problem, the present invention provides a fifth to third gaming machines having the following configuration.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用い、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
It includes a fixed first display unit (for example, trapezoidal member 302) and a movable second display unit (for example, pseudo reel member 303), and at least one of the first display unit and the second display unit. A display unit (for example, various projection target members), one of which can be an image display target;
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image on the display unit,
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a virtual object corresponding to the form of the display unit on which the image is to be displayed (for example, A non-volatile storage unit (for example, a ROM cartridge substrate 86) storing virtual object data),
A movable control unit (for example, a projected member moving mechanism 305) for movably controlling the second display unit;
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit is configured to select predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and to display the predetermined original image data on the display unit. Select data of a predetermined virtual object corresponding to the form,
The image processing unit,
By using the volatile storage unit, a video corresponding to the predetermined original image data is virtually stored in the predetermined virtual object arranged in the virtual space from a first direction (for example, a direction of a player's eyes). Generating first viewpoint image data (for example, virtual projection image data) projected onto the predetermined virtual object when projected onto the predetermined virtual object based on the predetermined original image data and the predetermined virtual object data Then, the data of the first viewpoint image is stored in a first buffer (for example, a virtual buffer) of the volatile storage unit,
In the virtual space, the first viewpoint image projected on the predetermined virtual object is obtained when the first viewpoint image is virtually photographed from a second direction (for example, an actual video light incident direction). Generating data of the second viewpoint image (for example, virtual photographed image data) and storing the data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the image data displayed on the display unit from the second buffer storing the data of the second viewpoint image to a third buffer (for example, a screen buffer) of the volatile storage unit; Converting the data (eg, PJ-compatible image data) stored in the third buffer into a video signal and outputting the video signal;
When the second display unit is movably controlled by the movable control unit, the data of the predetermined virtual object corresponds to a form of the display unit according to an operation state of the second display unit. Using virtual object data,
The first direction is a player's line of sight to the image display surface of the display unit, and the second direction is an incident direction of the image light to the image display surface of the display unit. A gaming machine characterized by that:

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−1の遊技機を提供する。 In order to solve the second problem, the present invention provides a 6-1th gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
前記揮発性記憶部を使用して、仮想空間上に配置された各第2の仮想オブジェクトに対して、第1の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記第1の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成し、
前記仮想空間上において、前記第1の仮想オブジェクト上に投影された前記合成画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部に記憶し、
前記揮発性記憶部に記憶された前記第2の視点画像のデータを映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A control unit (for example, a sub-control board 72) for controlling the display operation of the image using the display unit,
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display mode configured by the display unit (for example, A non-volatile storage unit (for example, a ROM cartridge substrate 86) in which the composite virtual object data is stored;
The controller is
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (for example, GPU153) that performs a process related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154) used when the image processing unit executes the processing,
The control processing unit is configured to select predetermined original image data from the plurality of original image data stored in the nonvolatile storage unit, and to display the predetermined original image data on the display unit. Selecting data of the first virtual object corresponding to a display mode,
The image processing unit,
Using the volatile storage unit, decompose the first virtual object into a plurality of second virtual objects (for example, virtual objects of each projected member) corresponding to the display mode,
Using the volatile storage unit, the second virtual object placed in the virtual space corresponds to the predetermined original image data from a first direction (for example, the direction of the player's eyes). When the video to be projected is projected virtually on each second virtual object, the data of the first viewpoint image (for example, virtual projection image data of each projection target member) is converted into the predetermined original image data and Generated based on the data of each second virtual object,
The first viewpoint images generated for each of the second virtual objects are combined, and data of a combined image virtually projected on the first virtual object (for example, a combined virtual projection image Data)
In the virtual space, a second image acquired when the composite image projected on the first virtual object is virtually photographed from a second direction (for example, an actual video light incident direction). Generating viewpoint image data (for example, virtual photographed image data) and storing the second viewpoint image data in the volatile storage unit;
A gaming machine, comprising: converting data of the second viewpoint image stored in the volatile storage unit into a video signal and outputting the video signal.

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−2の遊技機を提供する。 In order to solve the second problem, the present invention provides a sixth to sixth gaming machines having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
仮想空間上に配置された各第2の仮想オブジェクトに対して、所定の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される所定の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記所定の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display mode configured by the display unit (for example, A storage unit (e.g., ROM cartridge substrate 86) in which data of the synthesized virtual object is stored;
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (e.g., GPU153) that performs a process related to the output of the image in accordance with the control by the control processing unit.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and displays a display form of the display unit as a display target of the predetermined original image data Selecting the data of the first virtual object corresponding to
The image processing unit,
Decomposing the first virtual object into a plurality of second virtual objects (for example, virtual objects of the respective projected members) corresponding to the display mode,
When a video corresponding to the predetermined original image data is virtually projected from a predetermined direction (for example, a player's eye direction) on each of the second virtual objects arranged in the virtual space, Generating data of a predetermined viewpoint image projected on the second virtual object (for example, virtual projection image data of each projection target member) based on the predetermined original image data and data of each second virtual object. And
The predetermined viewpoint images generated for each of the second virtual objects are combined, and data of a combined image virtually projected on the first virtual object (for example, combined virtual projection image data ).

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−3の遊技機を提供する。 In order to solve the second problem, the present invention provides a sixth to third gaming machines having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
仮想空間上に配置された各第2の仮想オブジェクトに対して、第1の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記第1の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成し、
前記仮想空間上において、前記第1の仮想オブジェクト上に投影された前記合成画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projection target members);
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image on the display unit,
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display mode configured by the display unit (for example, A storage unit (e.g., ROM cartridge substrate 86) in which data of the synthesized virtual object is stored;
A control processing unit (for example, a sub CPU 151) that controls a process of generating the image to be displayed on the display unit;
An image processing unit (e.g., GPU153) that performs a process related to the output of the image in accordance with the control by the control processing unit.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and displays a display form of the display unit as a display target of the predetermined original image data Selecting the data of the first virtual object corresponding to
The image processing unit,
Decomposing the first virtual object into a plurality of second virtual objects (for example, virtual objects of the respective projected members) corresponding to the display mode,
When a video corresponding to the predetermined original image data is virtually projected from a first direction (for example, the direction of a player's eyes) on each second virtual object arranged in the virtual space, Data of the first viewpoint image projected on each second virtual object (for example, virtual projection image data of each projection target member) is calculated based on the predetermined original image data and data of each second virtual object. Generate
The first viewpoint images generated for each of the second virtual objects are combined, and data of a combined image virtually projected on the first virtual object (for example, a combined virtual projection image Data)
In the virtual space, a second image acquired when the composite image projected on the first virtual object is virtually photographed from a second direction (for example, an actual video light incident direction). Generate viewpoint image data (for example, virtual photographed image data),
The first direction is a player's line of sight to the image display surface of the display unit, and the second direction is an incident direction of the image light to the image display surface of the display unit. A gaming machine characterized by that:

上記構成の本発明の第5及び第6の遊技機によれば、CG作成に係るコストの増大を抑制するとともに、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合に、オブジェクトに対する投影画像のズレを最小限に抑制することができる。 According to the fifth and sixth gaming machines of the present invention having the above-described configuration, it is possible to suppress an increase in cost related to CG creation and to project an image on an object such as a three-dimensional object (three-dimensional screen) using a projector. In addition, the displacement of the projection image with respect to the object can be minimized.

[第7の遊技機]
従来、上述した構成の遊技機において、第1のチャンネルから出力されているBGMをフェードアウトさせるとともに第2のチャンネルから1ゲーム演出の効果音を出力し、1ゲーム演出の効果音の出力後に第1のチャンネルから出力されるBGMをフェードインさせることでBGMを継続出力させる遊技機が提案されている(例えば特開2014−209939号公報参照)。
[Seventh gaming machine]
Conventionally, in the gaming machine having the above-described configuration, the BGM output from the first channel is faded out, the sound effect of one game effect is output from the second channel, and the first sound effect is output after the sound effect of the one game effect is output. A gaming machine that continuously outputs BGM by fading in BGM output from the channel No. has been proposed (for example, see Japanese Patent Application Laid-Open No. 2014-209939).

ところで、近年、遊技機では、音声の演出内容が多様化し、サウンドデータの作成(制作)においても効率化が求められている。例えば、2つ以上のシーンが切り替わりながら一連の演出を形成する場合、切り替わるタイミングが不定となると、切り替わるタイミングのバリエーションに応じて多くのサウンドデータを作成する必要がある。多くのサウンドデータが必要となると、その分だけ多くの実装の記憶領域が必要となるという問題もある(第3の課題)。 By the way, in recent years, the staging contents of sound have been diversified in gaming machines, and there has been a demand for more efficient creation (production) of sound data. For example, in the case where a series of effects is formed while two or more scenes are switched, if the switching timing is uncertain, it is necessary to create a large amount of sound data in accordance with the variation of the switching timing. When a large amount of sound data is required, there is also a problem that a large storage area for mounting is required (third problem).

本発明は、上記第3の課題を解決するためになされたものであり、本発明の第3の目的は、音声の演出内容の多様化に対応でき、かつ、サウンドデータの作成の効率化を図ることができる遊技機を提供することである。 SUMMARY OF THE INVENTION The present invention has been made to solve the third problem, and a third object of the present invention is to make it possible to cope with diversification of audio production contents and to improve the efficiency of sound data creation. It is to provide a gaming machine which can be achieved.

上記第3の課題を解決するために、本発明では、以下のような構成の第7−1〜第7−8の遊技機を提供する。 In order to solve the third problem, the present invention provides 7-1 to 7-8 gaming machines having the following configuration.

[第7−1の遊技機]
音に関する制御を実行可能な音制御手段(例えば第1サウンド演出処理部1500、1500B、1500C)と、音を出力可能な音出力手段(例えばスピーカ64L、64R)とを備える遊技機(1)であって、
前記音制御手段(例えば第1サウンド演出処理部1500、1500B、1500C)は、
所定条件(例えばコマンド番号“541”、“542”、“641”、及び“642”が登録かつスタートスイッチオン)が成立すると、前記音出力手段(例えばスピーカ64L、64R)を介して、第1チャンネル(例えばCH5)に対応付けられた第1の音(例えば電話ボイスのサウンドデータ)を第1の音量(例えばボリューム“255”の通常音量)で再生開始し、かつ、第2チャンネル(例えばCH6)に対応付けられた第2の音(例えば通常ボイスのサウンドデータ)を、前記第1の音量(例えばボリューム“255”の通常音量)よりも小さい第2の音量(例えばボリューム“0”のミュート音量)でかつ前記第1の音の再生開始タイミングに対して略同時に又は一定時間(例えば図58の一定時間T7)だけ遅れた再生開始タイミングで再生開始する処理(例えば図32のステップS322:第1音声再生処理)と、
切替条件(例えば“第3停止操作”)が成立すると、前記第1の音(例えば電話ボイスのサウンドデータ)の音量を前記第1の音量(例えばボリューム“255”の通常音量)から第3の音量(例えばボリューム“0”のミュート音量)に減少させ又は前記第1の音(例えば電話ボイスのサウンドデータ)の再生を停止し、かつ、前記第2の音(例えば通常ボイスのサウンドデータ)の音量を前記第2の音量(例えばボリューム“0”のミュート音量)から第4の音量(例えばボリューム“255”の通常音量)に増加させる処理(例えば図32のステップS326:第2音声再生処理)とを、
実行可能であり、
前記音出力手段(例えばスピーカ64L、64R)を介して前記第1の音量(例えばボリューム“255”の通常音量)で出力された前記第1の音(例えば電話ボイスのサウンドデータ)と、前記音出力手段(例えばスピーカ64L、64R)を介して前記第4の音量(例えばボリューム“255”の通常音量)で出力された前記第2の音(例えば通常ボイスのサウンドデータ)とは、一連の音演出(例えば台詞音“聞こえていますか?私の声が”)を形成する、遊技機(1)。
[No. 7-1 gaming machine]
A gaming machine (1) including sound control means (for example, first sound effect processing units 1500, 1500B, 1500C) capable of executing control related to sound and sound output means (for example, speakers 64L and 64R) capable of outputting sound. So,
The sound control means (for example, the first sound effect processing units 1500, 1500B, 1500C)
When predetermined conditions (for example, command numbers “541”, “542”, “641”, and “642” are registered and the start switch is turned on) are satisfied, the first sound is output via the sound output means (for example, speakers 64L and 64R). A first sound (for example, sound data of telephone voice) associated with a channel (for example, CH5) is started to be reproduced at a first volume (for example, a normal volume of volume “255”), and a second channel (for example, CH6) ) Is associated with a second volume (for example, mute of volume “0”) lower than the first volume (for example, normal volume of volume “255”). Volume) and at the same time as the reproduction start timing of the first sound or at a time delayed by a certain time (for example, a certain time T7 in FIG. 58). Processing of starting playback timing (e.g. step of FIG. 32 S322: first audio reproduction process) and,
When the switching condition (for example, “third stop operation”) is satisfied, the volume of the first sound (for example, telephone voice sound data) is changed from the first volume (for example, the normal volume of volume “255”) to the third volume. Volume (e.g., mute volume of volume "0") or stop reproducing the first sound (e.g., telephone voice sound data), and reduce the second sound (e.g., normal voice sound data). A process of increasing the volume from the second volume (for example, mute volume of volume “0”) to a fourth volume (for example, normal volume of volume “255”) (for example, step S326 in FIG. 32: second audio reproduction process) And
Executable,
The first sound (for example, telephone voice sound data) output at the first volume (for example, a normal volume of volume “255”) via the sound output means (for example, speakers 64L and 64R); The second sound (for example, normal voice sound data) output at the fourth volume (for example, the normal volume of the volume “255”) via output means (for example, speakers 64L and 64R) is a series of sounds. A gaming machine (1) that forms an effect (eg, a dialogue sound "Do you hear? My voice").

上記の第7−1の遊技機によれば、所定条件が成立すると、第1の音が第1の音量で出力され、かつ、第2の音が第2の音量で出力される。このとき、第2の音量は第1の音量よりも小さいので、遊技者には第1の音の方が聞こえやすくなる。また、切替条件が成立すると、第1の音が第3の音量で出力され、かつ、第2の音が第4の音量で出力される。このとき、第3の音量は第4の音量よりも小さいので、遊技者には第2の音の方が聞こえやすくなる。このようにして、切替条件が成立すると、音量を変更するだけで、第1の音が聞こえやすい状態から、第2の音が聞こえやすい状態に変化させることができる。この結果、第1の音及び第2の音に係る2種類のサウンドデータを用いて、音量を変更するタイミングを変化させるだけで、多様な演出内容を実現することが可能となる。 According to the 7-1th gaming machine, when the predetermined condition is satisfied, the first sound is output at the first volume, and the second sound is output at the second volume. At this time, since the second sound volume is lower than the first sound volume, the player can more easily hear the first sound. When the switching condition is satisfied, the first sound is output at the third volume and the second sound is output at the fourth volume. At this time, since the third sound volume is lower than the fourth sound volume, the player can more easily hear the second sound. In this way, when the switching condition is satisfied, it is possible to change from a state in which the first sound is easy to hear to a state in which the second sound is easy to hear only by changing the volume. As a result, various effect contents can be realized only by changing the timing of changing the volume using two types of sound data relating to the first sound and the second sound.

[第7−2の遊技機]
前記第1の音量(例えばボリューム“255”の通常音量)及び前記第4の音量(例えばボリューム“255”の通常音量)は、遊技者が可聴な音量であり、
前記第2の音量(例えばボリューム“0”のミュート音量)及び前記第3の音量(例えばボリューム“0”のミュート音量)は、遊技者が聴くことが困難又は不能な音量である、第7−1の遊技機(1)。
[No. 7-2 gaming machine]
The first volume (eg, the normal volume of volume “255”) and the fourth volume (eg, the normal volume of volume “255”) are volumes that are audible to the player,
The second volume (for example, a mute volume of volume “0”) and the third volume (for example, a mute volume of volume “0”) are volumes that are difficult or impossible for a player to hear. 1 gaming machine (1).

上記の第7−2の遊技機によれば、所定条件が成立すると、第1の音が、遊技者が可聴な音量(第1の音量)で出力され、かつ、第2の音が、遊技者が聴くことが困難又は不能な音量(第2の音量)で出力される。このとき、遊技者には第1の音だけが聞こえやすくなる。また、切替条件が成立すると、第1の音が、遊技者が聴くことが困難又は不能な音量(第3の音量)で出力され、かつ、第2の音が、遊技者が可聴な音量(第4の音量)で出力される。このとき、遊技者には第2の音だけが聞こえやすくなる。このようにして、切替条件が成立すると、音量を変更するだけで、第1の音だけが聞こえやすい状態から、第2の音だけが聞こえやすい状態に変化させることができる。この結果、第1の音及び第2の音に係る2種類のサウンドデータを用いて、音量を変更するタイミングを変化させるだけで、多様な演出内容を実現することが可能となる。 According to the above-described seventh to second gaming machines, when the predetermined condition is satisfied, the first sound is output at a sound volume (first sound volume) audible to the player, and the second sound is played at the game. It is output at a volume (second volume) that is difficult or impossible for a person to listen to. At this time, the player can easily hear only the first sound. When the switching condition is satisfied, the first sound is output at a volume (third volume) that is difficult or impossible for the player to listen to, and the second sound is output at a volume that is audible to the player ( (The fourth volume). At this time, the player can easily hear only the second sound. In this way, when the switching condition is satisfied, it is possible to change from a state in which only the first sound is easy to hear to a state in which only the second sound is easy to hear only by changing the volume. As a result, various effect contents can be realized only by changing the timing of changing the volume using two types of sound data relating to the first sound and the second sound.

[第7−3の遊技機]
前記切替条件(例えば“第3停止操作”)は、前記所定条件(例えばコマンド番号“541”、“542”、“641”、及び“642”が登録かつスタートスイッチオン)が成立してから前記切替条件(例えば“第3停止操作”)が成立するまでの時間(ΔT1)が不定となる態様で、成立可能である、第7−1の遊技機(1)。
[No. 7-3 gaming machine]
The switching condition (for example, “third stop operation”) is satisfied after the predetermined condition (for example, command numbers “541”, “542”, “641”, and “642” are registered and the start switch is turned on) is satisfied. The 7-1th gaming machine (1), which can be satisfied in a manner in which a time (ΔT1) until a switching condition (for example, “third stop operation”) is satisfied is indefinite.

上記の第7−3の遊技機によれば、切替条件が不定なタイミングで成立可能である場合でも、考えられるタイミングごとに第1の音及び第2の音に係るサウンドデータを用意する必要がなく、第1の音及び第2の音に係る2種類のサウンドデータを用いて効率的に対応できる。 According to the above-described seventh to third gaming machines, it is necessary to prepare sound data relating to the first sound and the second sound at each conceivable timing even when the switching condition can be satisfied at an indefinite timing. However, it is possible to efficiently cope with the two types of sound data relating to the first sound and the second sound.

[第7−4の遊技機]
遊技者が操作可能な操作手段(例えばメダル投入口14、MAXベットボタン15a、1ベットボタン15b、スタートレバー16、3つのストップボタン17L,17C,17R、精算ボタン、演出ボタン)を備え、
前記切替条件(例えば“第3停止操作”)は、前記操作手段(例えばメダル投入口14、MAXベットボタン15a、1ベットボタン15b、スタートレバー16、3つのストップボタン17L,17C,17R、精算ボタン、演出ボタン)を遊技者が操作したことに基づいて成立する、第7−3の遊技機(1)。
[7-4th gaming machine]
Operation means (for example, a medal slot 14, a MAX bet button 15a, a bet button 15b, a start lever 16, three stop buttons 17L, 17C, 17R, a settlement button, and an effect button) that can be operated by a player are provided.
The switching condition (for example, “third stop operation”) includes the operation means (for example, medal slot 14, MAX bet button 15a, 1 bet button 15b, start lever 16, three stop buttons 17L, 17C, 17R, settlement button , An effect button), which is established based on a player's operation of a seventh to third gaming machines (1).

上記の第7−4の遊技機によれば、切替条件が、遊技者による操作に起因して不定なタイミングで成立可能である場合でも、考えられるタイミングごとに第1の音及び第2の音に係るサウンドデータを用意する必要がなく、第1の音及び第2の音に係る2種類のサウンドデータを用いて効率的に対応できる。 According to the above-described seventh to fourth gaming machines, even when the switching condition can be satisfied at an indefinite timing due to an operation by the player, the first sound and the second sound at each possible timing. It is not necessary to prepare sound data related to the first sound and the two kinds of sound data related to the first sound and the second sound.

[第7−5の遊技機]
前記操作手段は、回転するリールに対する第1停止操作に対応付けられた操作ボタン(例えばストップボタン17L,17C,17Rのうちの1つ)、回転するリールに対する第2停止操作に対応付けられた操作ボタン(例えばストップボタン17L,17C,17Rのうちの1つ)、及び回転するリールに対する第3停止操作に対応付けられた操作ボタン(例えばストップボタン17L,17C,17Rのうちの1つ)のうちのいずれか1つである、第7−4の遊技機(1)。
[7-5th gaming machine]
The operation means includes an operation button (for example, one of the stop buttons 17L, 17C, and 17R) associated with the first stop operation on the rotating reel, and an operation associated with the second stop operation on the rotating reel. Button (for example, one of the stop buttons 17L, 17C, and 17R) and an operation button (for example, one of the stop buttons 17L, 17C, and 17R) associated with the third stop operation on the rotating reel. The seventh to fourth gaming machines (1).

上記の第7−5の遊技機によれば、切替条件が、遊技者による第1停止操作や第2停止操作等に起因して不定なタイミングで成立可能である場合でも、考えられるタイミングごとに第1の音及び第2の音に係るサウンドデータを用意する必要がなく、第1の音及び第2の音に係る2種類のサウンドデータを用いて効率的に対応できる。 According to the above-described seventh to fifth gaming machines, even when the switching condition can be established at an indefinite timing due to the first stop operation, the second stop operation, or the like by the player, each switching timing There is no need to prepare sound data related to the first sound and the second sound, and it is possible to efficiently cope with the two kinds of sound data related to the first sound and the second sound.

[第7−6の遊技機]
画像に関する制御を実行可能な画像制御手段(例えば第1画像演出処理部1504)と、
画像を出力可能な画像出力手段(例えば表示装置11)とを更に備え、
前記画像制御手段(例えば第1画像演出処理部1504)は、
前記所定条件(例えばコマンド番号“541”、“542”、“641”、及び“642”が登録かつスタートスイッチオン)が成立すると、前記画像出力手段(例えば表示装置11)を介して第1の画像(例えば電話ボイスに係るシーンの映像)を出力する処理(例えば図34のステップS342の処理)と、
前記切替条件(例えば“第3停止操作”)が成立すると、前記画像出力手段(例えば表示装置11)を介して第2の画像(例えば通常ボイスに係るシーンの映像)を出力する処理(例えば図34のステップS346の処理)とを
実行可能であり、
前記画像出力手段(例えば表示装置11)を介して出力された前記第1の画像(例えば電話ボイスに係るシーンの映像)と前記第2の画像(例えば通常ボイスに係るシーンの映像)とは、一連の画像演出(例えば台詞“聞こえていますか?私の声が”を電話で聞く側と話す側の各シーンの画像の切り替わり)を形成する、第7−1〜第7−5のいずれかの遊技機(1)。
[The 7th game machine]
Image control means (for example, a first image effect processing unit 1504) capable of executing control relating to an image,
Image output means (for example, display device 11) capable of outputting an image,
The image control means (for example, the first image effect processing unit 1504)
When the predetermined condition (for example, command numbers “541”, “542”, “641”, and “642” are registered and the start switch is turned on) is satisfied, the first condition is output via the image output unit (for example, the display device 11). A process of outputting an image (eg, a video of a scene related to a telephone voice) (eg, the process of step S342 in FIG. 34);
When the switching condition (for example, “third stop operation”) is satisfied, a process of outputting a second image (for example, a video of a scene related to a normal voice) via the image output unit (for example, the display device 11) (for example, FIG. 34, the processing of step S346).
The first image (for example, a video of a scene related to a telephone voice) and the second image (for example, a video of a scene related to a normal voice) output via the image output unit (for example, the display device 11) include: Any one of 7-1 to 7-5, which forms a series of image effects (for example, switching of images of scenes of a side who listens to the phone and a side who speaks the dialogue "Do you hear me? My voice") Gaming machine (1).

上記の第7−6の遊技機によれば、所定条件が成立すると、遊技者には第1の音だけが聞こえやすくなる状態が形成されるとともに、第1の画像が出力される。また、切替条件が成立すると、遊技者には第2の音だけが聞こえやすくなる状態が形成されるとともに、第2の画像が出力される。このようにして、切替条件が成立すると、第1の音だけが聞こえやすい状態及び第1の画像が出力される状態から、第2の音だけが聞こえやすい状態及び第2の画像が出力される状態に変化させることができる。この結果、第1の音及び第2の音に係る2種類のサウンドデータと、2種類の画像とを用いて、音量を変更するタイミングを変化させかつ画像の切替タイミングを変化させるだけで、多様な演出内容を実現することが可能となる。 According to the seventh to sixth gaming machines, when the predetermined condition is satisfied, a state is formed in which the player can easily hear only the first sound, and the first image is output. In addition, when the switching condition is satisfied, a state is formed in which the player can easily hear only the second sound, and the second image is output. In this manner, when the switching condition is satisfied, the state in which only the first sound is easily heard and the state in which the first image is output are output, and the state in which only the second sound is easily heard and the second image are output. State can be changed. As a result, using two types of sound data relating to the first sound and the second sound and two types of images, various timings can be obtained simply by changing the timing of changing the volume and changing the timing of switching the images. It is possible to realize various production contents.

[第7−7の遊技機]
前記音演出は、第1のキャラクタ(例えばキャラクタC1)の音声に関し、
前記画像演出は、前記第1のキャラクタ(例えばキャラクタC1)の発話シーンに関する、第7−6の遊技機(1)。
[7th gaming machine]
The sound effect is related to the sound of a first character (for example, the character C1),
The image effect is a gaming machine (1) according to a seventh to sixth aspects relating to an utterance scene of the first character (for example, the character C1).

上記の第7−7の遊技機によれば、第1のキャラクタの音声に関する第1の音及び第2の音に係る2種類のサウンドデータを用いて、音量を変更するタイミングを変化させるだけで、第1のキャラクタの発話シーンに関して多様な演出内容を実現することが可能となる。例えば、同じ第1のキャラクタの音声であっても、シーンによっては聞こえ方を変える方が、遊技者にとって違和感のない演出となる場合がある。この点、上記の第7−7の遊技機によれば、第1の音及び第2の音に係る2種類のサウンドデータを用いて、シーンを切り替えながら違和感のない演出内容を効率的に実現することが可能となる。 According to the above-described seventh to seventh gaming machines, it is only necessary to change the timing of changing the volume by using two types of sound data relating to the first character and the second sound relating to the sound of the first character. Thus, it is possible to realize various effect contents regarding the utterance scene of the first character. For example, even in the case of the voice of the same first character, depending on the scene, changing the way in which the voice is heard may produce an effect that does not make the player feel uncomfortable. In this regard, according to the above-described gaming machine No. 7-7, by using two types of sound data relating to the first sound and the second sound, it is possible to efficiently realize an effect content without discomfort while switching scenes. It is possible to do.

[第7−8の遊技機]
前記第1画像(例えば電話ボイスに係るシーンの映像)は、前記第1のキャラクタ(例えばキャラクタC1)が電話で話しているシーンに関し、
前記第2画像(例えば通常ボイスに係るシーンの映像)は、第2のキャラクタ(例えばキャラクタC2)が電話越しに前記第1のキャラクタ(例えばキャラクタC1)の声を聴いているシーンに関する、第7−7の遊技機(1)。
[7-8th gaming machine]
The first image (e.g., a video of a scene relating to a telephone voice) relates to a scene in which the first character (e.g., a character C1) is talking on a telephone,
The second image (e.g., a video of a scene related to a normal voice) is a seventh image related to a scene in which a second character (e.g., the character C2) is listening to the voice of the first character (e.g., the character C1) via a telephone. -7 gaming machine (1).

上記の第7−8の遊技機によれば、第1のキャラクタが電話で話しているシーンと、第2のキャラクタが電話越しに第1のキャラクタの声を聴いているシーンとを切り替える切替タイミングが不定となる場合であっても、第1の音及び第2の音に係る2種類のサウンドデータを用いて、音量を変更するタイミングを切替タイミングに合わせて変化させるだけで、かかるシーンの切替を伴う演出内容を実現することが可能となる。例えば、第1のキャラクタが電話で話しているシーンと、第2のキャラクタが電話越しに第1のキャラクタの声を聴いているシーンとでは、同じ第1のキャラクタの音声であっても、聞こえ方を変える方が、遊技者にとって違和感のない演出となる。この点、上記の第7−8の遊技機によれば、第1の音及び第2の音に係る2種類のサウンドデータを用いて、シーンを切り替えながら違和感のない演出内容を実現することが可能となる。 According to the seventh to eighth gaming machines, a switching timing for switching between a scene in which the first character is talking on the telephone and a scene in which the second character is listening to the voice of the first character over the telephone Is indefinite, it is only necessary to change the timing of changing the volume in accordance with the switching timing by using the two types of sound data relating to the first sound and the second sound. Can be realized. For example, in a scene in which the first character is talking on the phone and in a scene in which the second character is listening to the voice of the first character over the phone, even if the voice of the same first character is heard, Changing the direction will give the player a sense of comfort. In this regard, according to the above-described seventh to eighth gaming machines, it is possible to realize the effect content without discomfort while switching scenes using two types of sound data relating to the first sound and the second sound. It becomes possible.

[第8の遊技機]
従来、上述した構成の遊技機において、当籤役が特別の入賞態様を示す当籤役である場合、1つの識別情報列の変動表示が行われているときに遊技者の停止操作が検知されたタイミングで第1の効果音を出力し、その後に遊技者の停止操作が検知されなくなったタイミングで第2の効果音を出力する遊技機が提案されている(例えば特開2007−289490号公報参照)。かかる構成の遊技機は、遊技者の遊技テンポを遅くさせることで射幸性を抑制しようとするものである。
[Eighth gaming machine]
Conventionally, in a gaming machine having the above-described configuration, when a winning combination is a winning combination indicating a special winning mode, a timing at which a player's stop operation is detected while a variable display of one identification information sequence is being performed. A game machine that outputs a first sound effect and then outputs a second sound effect at a timing when the player's stop operation is no longer detected (see, for example, JP-A-2007-289490). . The gaming machine having such a configuration is intended to suppress gambling by slowing down the game tempo of the player.

しかしながら、上記のような遊技機では、遊技者が期待する効果音が出音されないことがあり、遊技の興趣が低下するおそれがあった。例えば、特定演出音を、ある条件を満たす場合にのみ出力可能とすると、遊技者が当該条件を満たすように遊技テンポを遅らせる可能性があるが、遊技テンポを遅らせたくない特定の遊技者にとっては、期待する特定演出音を聞くことなく遊技を続けることになり、遊技の興趣が低下するおそれがある(第4の課題)。 However, in the above-described gaming machine, the sound effect expected by the player may not be output, and the interest of the game may be reduced. For example, if the specific production sound can be output only when a certain condition is satisfied, the player may delay the game tempo so as to satisfy the condition, but for a specific player who does not want to delay the game tempo, Therefore, the game is continued without hearing the expected specific effect sound, and the interest of the game may be reduced (fourth problem).

本発明は、上記第4の課題を解決するためになされたものであり、本発明の第4の目的は、遊技者の遊技テンポを遅くさせることで射幸性を抑制しつつ、遊技テンポを遅らせたくない特定の遊技者にも特定演出音を出力可能とする遊技機を提供することである。 The present invention has been made to solve the fourth problem, and a fourth object of the present invention is to delay the game tempo while suppressing gambling by slowing down the game tempo of the player. It is an object of the present invention to provide a gaming machine capable of outputting a specific effect sound to a specific player who does not want to play.

上記第4の課題を解決するために、本発明では、以下のような構成の第8−1〜第8−6の遊技機を提供する。 In order to solve the fourth problem, the present invention provides eighth to eighth to sixth gaming machines having the following configurations.

[第8−1の遊技機]
音に関する制御を実行可能な音制御手段(例えば第2サウンド演出処理部1502、1502A)と、音を出力可能な音出力手段(例えばスピーカ64L、64R)とを備える遊技機(1)であって、
前記音制御手段(例えば第2サウンド演出処理部1502、1502A)は、
第1条件(例えばスタートスイッチオン)の成立からの所定時間(ΔT:例えば3秒)の経過に基づいて特定演出音(例えば必殺技の台詞音)を出力する第1処理(例えば通常出力処理)と、
前記第1条件(例えばスタートスイッチオン)の成立から前記所定時間(ΔT:例えば3秒)の経過前の第2条件(例えば第3停止操作)の成立に基づいて、前記特定演出音を出力する第2処理(例えば後出力処理:図37のステップS376で“YES”となってステップS378に至った場合のステップS378の処理)とを、選択的に実行可能である、
遊技機(1)。
[The 8th gaming machine]
A gaming machine (1) including sound control means (for example, second sound effect processing units 1502, 1502A) capable of executing control related to sound, and sound output means (for example, speakers 64L, 64R) capable of outputting sound. ,
The sound control means (for example, the second sound effect processing units 1502, 1502A)
A first process (for example, a normal output process) for outputting a specific effect sound (for example, a speech of a deadly technique) based on a lapse of a predetermined time (ΔT: for example, 3 seconds) from the establishment of a first condition (for example, start switch ON) When,
The specific effect sound is output based on the establishment of a second condition (for example, a third stop operation) before the lapse of the predetermined time (for example, 3 seconds) from the establishment of the first condition (for example, start switch ON). The second process (for example, post-output process: the process of step S378 when “YES” in step S376 in FIG. 37 and the process proceeds to step S378) can be selectively executed.
Gaming machine (1).

上記の第8−1の遊技機によれば、第1条件の成立からの所定時間の経過に基づいて特定演出音が出力される。これにより、所定時間を比較的長く設定することで、特定演出音を聞きたい遊技者に対して遊技テンポを遅らせることを誘発させることができる。これにより、射幸性を抑制できる。他方、第1条件の成立から所定時間の経過前の第2条件の成立に基づいて特定演出音が出力される。遊技テンポを遅らせたくない特定の遊技者は、遊技テンポが速いが故に、第1条件の成立からの所定時間の経過前に第2条件を成立させる可能性が高い。この場合も、特定演出音が出力される。したがって、遊技テンポを遅らせたくない特定の遊技者にも特定演出音が出力可能となる。なお、第1条件の成立から所定時間の経過前の第2条件の成立に基づいて特定演出音が出力される場合は、第1処理が選択(実行)されることはなく、特定演出音が重複して出力されることが防止される。このようにして、上記の第8−1の遊技機によれば、遊技者の遊技テンポを遅くさせることで射幸性を抑制しつつ、遊技テンポを遅らせたくない特定の遊技者にも特定演出音を出力可能とすることができる。 According to the above-mentioned gaming machine No. 8-1, the specific effect sound is output based on the elapse of the predetermined time from the satisfaction of the first condition. Thus, by setting the predetermined time to be relatively long, it is possible to induce a player who wants to hear the specific effect sound to delay the game tempo. Thereby, gambling can be suppressed. On the other hand, the specific effect sound is output based on the establishment of the second condition before a predetermined time has elapsed since the establishment of the first condition. A specific player who does not want to delay the game tempo is likely to establish the second condition before the elapse of a predetermined time from the establishment of the first condition because the game tempo is fast. Also in this case, a specific effect sound is output. Therefore, the specific effect sound can be output to a specific player who does not want to delay the game tempo. When the specific effect sound is output based on the establishment of the second condition before the elapse of the predetermined time from the establishment of the first condition, the first process is not selected (executed), and the specific effect sound is not output. Duplicate output is prevented. In this way, according to the above-mentioned eighth-first gaming machine, the specific effect sound is also given to a specific player who does not want to delay the game tempo while suppressing the gambling property by delaying the game tempo of the player. Can be output.

[第8−2の遊技機]
当該遊技機(1)は、所定の判定(例えば乱数値による抽籤)に基づいて遊技者に特典(例えばボーナスの作動)を付与可能であり、
前記特定演出音は、前記特典が付与される期待度を示唆可能である、第8−1の遊技機(1)。
[No. 8-2 gaming machine]
The gaming machine (1) can provide a bonus (for example, activation of a bonus) to the player based on a predetermined determination (for example, lottery based on a random number),
The 8-1st gaming machine (1), wherein the specific effect sound can indicate an expectation degree to which the privilege is given.

上記の第8−2の遊技機によれば、特典が付与される期待度を示唆可能である特定演出音は、遊技者にとって聞きたい演出音の1つとなる可能性が高い。したがって、特定演出音を聞きたい遊技者に対して遊技テンポを遅らせることを、より高い確率で誘発させることができる。また、遊技テンポを遅らせたくない特定の遊技者にも、かかる特定演出音が出力可能となる。 According to the above-mentioned gaming machine No. 8-2, the specific effect sound that can indicate the degree of expectation that the privilege is given is likely to be one of the effect sounds that the player wants to hear. Therefore, it is possible to induce the player who wants to hear the specific effect sound to delay the game tempo with a higher probability. Also, the specific effect sound can be output to a specific player who does not want to delay the game tempo.

[第8−3の遊技機]
前記特定演出音は、前記期待度に応じて異なる種類(例えばコマンド番号“550”、“551”及び“552”の3種類)が出力可能である、第8−2の遊技機(1)。
[No. 8-3 gaming machine]
The 8-2th gaming machine (1), wherein the specific effect sound can output different types (for example, three types of command numbers “550”, “551”, and “552”) according to the degree of expectation.

上記の第8−3の遊技機によれば、期待度に応じて異なる種類の特定演出音が出力可能であるので、特定演出音の種類は、遊技者にとって判別したい要素の1つとなる可能性が高い。したがって、特定演出音を聞きたい遊技者に対して遊技テンポを遅らせることを、より高い確率で誘発させることができる。また、遊技テンポを遅らせたくない特定の遊技者にも、かかる特定演出音の種類が判別できるように特定演出音が出力可能となる。 According to the above-mentioned eighth to third gaming machines, different types of specific effect sounds can be output according to the degree of expectation, and thus the type of the specific effect sound may be one of the elements that the player wants to determine. Is high. Therefore, it is possible to induce the player who wants to hear the specific effect sound to delay the game tempo with a higher probability. Also, a specific effect sound can be output to a specific player who does not want to delay the game tempo so that the type of the specific effect sound can be determined.

[第8−4の遊技機]
前記第2条件(例えば第3停止操作)は、前記第1条件(例えばスタートスイッチオン)が成立してから前記第2条件(例えば第3停止操作)が成立するまでの時間が不定となる態様で、成立可能である、第8−1の遊技機(1)。
[The 8th game machine]
The second condition (for example, the third stop operation) is such that the time from when the first condition (for example, the start switch is turned on) is satisfied to when the second condition (for example, the third stop operation) is satisfied is indefinite. And the 8-1st gaming machine (1) that can be established.

上記の第8−4の遊技機によれば、第1条件が成立してから第2条件が成立するまでの時間が不定であると、第1条件の成立から所定時間の経過前に第2条件が成立する場合や、第1条件の成立から所定時間の経過後に第2条件が成立する場合が生じうる。第1条件の成立から所定時間の経過後に第2条件が成立する場合は、第2条件が成立する前に第1処理により特定演出音が出力される。他方、第1条件の成立から所定時間の経過前に第2条件が成立する場合は、第1処理による特定演出音の出力に代えて(第1処理が禁止され)、第2処理による特定演出音の出力が実現される。これにより、第1条件が成立してから第2条件が成立するまでの時間が不定である場合でも、第1処理又は第2処理により特定演出音の出力が可能である。 According to the eighth to fourth gaming machines, if the time from when the first condition is satisfied to when the second condition is satisfied is indefinite, the second time before the predetermined time elapses from the satisfaction of the first condition. A case where the condition is satisfied or a case where the second condition is satisfied after a lapse of a predetermined time from the satisfaction of the first condition may occur. When the second condition is satisfied after a lapse of a predetermined time from the satisfaction of the first condition, the specific effect sound is output by the first process before the second condition is satisfied. On the other hand, when the second condition is satisfied before the elapse of the predetermined time from the satisfaction of the first condition, the specific effect by the second process is replaced with the output of the specific effect sound by the first process (the first process is prohibited). Sound output is realized. Thereby, even when the time from when the first condition is satisfied to when the second condition is satisfied is indefinite, the specific effect sound can be output by the first process or the second process.

[第8−5の遊技機]
前記第2条件は、遊技者が行う所定動作(例えば第3停止操作や、メダル投入口(14)へのメダル投入等)の検出に基づいて成立する、第8−1〜第8−4の遊技機(1)。
[The 8th gaming machine]
The second condition is satisfied based on detection of a predetermined operation performed by the player (for example, a third stop operation or insertion of a medal into the medal insertion slot (14)). Gaming machine (1).

上記の第8−5の遊技機によれば、第2条件は、遊技者が行う所定動作の検出に基づいて成立するので、遊技者は、第1条件の成立から所定時間の経過前に第2条件が成立しないように、所定動作を行うタイミングを調整できる。これにより、第1処理による特定演出音の出力を聞きたい遊技者に対して、所定動作を行うタイミングを遅らせる(その結果、遊技テンポを遅らせる)ことを誘発させることができる。 According to the eighth to fifth gaming machines, the second condition is established based on the detection of the predetermined operation performed by the player. The timing at which the predetermined operation is performed can be adjusted so that the two conditions are not satisfied. Thus, it is possible to induce the player who wants to hear the output of the specific effect sound by the first process to delay the timing of performing the predetermined operation (as a result, to delay the game tempo).

[第8−6の遊技機]
前記所定動作は、スタートレバー(16)の操作、回転するリールに対する第1停止操作に対応付けられた操作ボタン(例えばストップボタン17L,17C,17Rのうちの1つ)の操作、回転するリールに対する第2停止操作に対応付けられた操作ボタン(例えばストップボタン17L,17C,17Rのうちの1つ)の操作、回転するリールに対する第3停止操作に対応付けられた操作ボタン(例えばストップボタン17L,17C,17Rのうちの1つ)の操作、MAXベットボタン(15a)の操作、1ベットボタン(15b)の操作、及びメダル投入口(14)へのメダル投入のうちのいずれか1つである、第8−5の遊技機(1)。
[The 8th gaming machine]
The predetermined operation includes an operation of a start lever (16), an operation of an operation button (for example, one of stop buttons 17L, 17C, 17R) associated with a first stop operation of a rotating reel, and an operation of a rotating reel. The operation of the operation button (for example, one of the stop buttons 17L, 17C, 17R) associated with the second stop operation, and the operation button (for example, the stop button 17L, 17L, 17C, 17R), the MAX bet button (15a), the 1-bet button (15b), and the medal insertion into the medal insertion slot (14). , 8th to 5th gaming machines (1).

上記の第8−6の遊技機によれば、遊技者が行う所定動作が遊技テンポに関連するので、遊技テンポを遅らせることを容易に誘発させることができる。 According to the above-mentioned gaming machine of No. 8-6, since the predetermined operation performed by the player is related to the game tempo, it is possible to easily induce the game tempo to be delayed.

1…パチスロ、3L,3C,3R…リール、4…リール表示窓、6…情報表示器、11…表示装置、17L,17C,17R…ストップボタン、64L,64R…スピーカ、71…主制御基板、72…副制御基板、86…ロムカートリッジ基板、90…主制御回路、91…マイクロプロセッサ、101…メインCPU、102…メインROM、103…メインRAM、150…副制御回路、151…サブCPU、152…サブRAM、153…GPU、154…VRAM、201…投影ブロック、202…被投影ブロック、213…プロジェクタ、237…反射ミラー、302…台形部材、303…擬似リール部材、304…平面スクリーン部材、305…被投影部材移動機構 DESCRIPTION OF SYMBOLS 1 ... Pachislot, 3L, 3C, 3R ... Reel, 4 ... Reel display window, 6 ... Information display, 11 ... Display device, 17L, 17C, 17R ... Stop button, 64L, 64R ... Speaker, 71 ... Main control board, 72: sub-control board, 86: ROM cartridge board, 90: main control circuit, 91: microprocessor, 101: main CPU, 102: main ROM, 103: main RAM, 150: sub-control circuit, 151: sub CPU, 152 .., Sub-RAM, 153, GPU, 154, VRAM, 201, projection block, 202, projection block, 213, projector, 237, reflection mirror, 302, trapezoidal member, 303, pseudo reel member, 304, plane screen member, 305 … Projected member moving mechanism

Claims (4)

音に関する制御を実行可能な音制御手段と、音を出力可能な音出力手段とを備える遊技機であって、
前記音制御手段は、
所定条件が成立すると、前記音出力手段を介して、第1チャンネルに対応付けられた第1の音を第1の音量で再生開始し、かつ、第2チャンネルに対応付けられた第2の音を、前記第1の音量よりも小さい第2の音量でかつ前記第1の音の再生開始タイミングに対して略同時に又は一定時間だけ遅れた再生開始タイミングで再生開始する処理と、
切替条件が成立すると、前記第1の音の音量を前記第1の音量から第3の音量に減少させ又は前記第1の音の再生を停止し、かつ、前記第2の音の音量を前記第2の音量から第4の音量に増加させる処理とを、
実行可能であり、
前記音出力手段を介して前記第1の音量で出力された前記第1の音と、前記音出力手段を介して前記第4の音量で出力された前記第2の音とは、一連の音演出を形成する、遊技機。
A game machine including a sound control unit capable of executing control related to sound and a sound output unit capable of outputting sound,
The sound control means,
When the predetermined condition is satisfied, the reproduction of the first sound associated with the first channel at the first volume is started via the sound output means, and the second sound associated with the second channel is started. A process of starting reproduction at a second volume lower than the first volume and at a reproduction start timing substantially at the same time as the reproduction start timing of the first sound or delayed by a fixed time;
When the switching condition is satisfied, the volume of the first sound is reduced from the first volume to the third volume, or the reproduction of the first sound is stopped, and the volume of the second sound is reduced. Processing for increasing the second volume to the fourth volume,
Executable,
The first sound output at the first volume through the sound output unit and the second sound output at the fourth volume through the sound output unit are a series of sounds. A gaming machine that forms an effect.
前記第1の音量及び前記第4の音量は、遊技者が可聴な音量であり、
前記第2の音量及び前記第3の音量は、遊技者が聴くことが困難又は不能な音量である、請求項1に記載の遊技機。
The first volume and the fourth volume are audible to a player,
The gaming machine according to claim 1, wherein the second volume and the third volume are volumes that are difficult or impossible for a player to listen to.
前記切替条件は、前記所定条件が成立してから前記切替条件が成立するまでの時間が不定となる態様で、成立可能である、請求項1に記載の遊技機。   The gaming machine according to claim 1, wherein the switching condition can be satisfied in a mode in which a time from when the predetermined condition is satisfied to when the switching condition is satisfied is indefinite. 遊技者が操作可能な操作手段を備え、
前記切替条件は、前記操作手段を遊技者が操作したことに基づいて成立する、請求項3に記載の遊技機。
Comprising operating means operable by a player,
The gaming machine according to claim 3, wherein the switching condition is satisfied based on a player operating the operation means.
JP2018113738A 2018-06-14 2018-06-14 Game machine Pending JP2019213781A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018113738A JP2019213781A (en) 2018-06-14 2018-06-14 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018113738A JP2019213781A (en) 2018-06-14 2018-06-14 Game machine

Publications (1)

Publication Number Publication Date
JP2019213781A true JP2019213781A (en) 2019-12-19

Family

ID=68919196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018113738A Pending JP2019213781A (en) 2018-06-14 2018-06-14 Game machine

Country Status (1)

Country Link
JP (1) JP2019213781A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177983A (en) * 2015-04-28 2015-10-08 株式会社大都技研 game machine
JP2016002486A (en) * 2015-08-31 2016-01-12 株式会社ユニバーサルエンターテインメント Game machine
JP2016209764A (en) * 2016-09-23 2016-12-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018089150A (en) * 2016-12-05 2018-06-14 株式会社サンセイアールアンドディ Game machine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015177983A (en) * 2015-04-28 2015-10-08 株式会社大都技研 game machine
JP2016002486A (en) * 2015-08-31 2016-01-12 株式会社ユニバーサルエンターテインメント Game machine
JP2016209764A (en) * 2016-09-23 2016-12-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018089150A (en) * 2016-12-05 2018-06-14 株式会社サンセイアールアンドディ Game machine

Similar Documents

Publication Publication Date Title
JP2020044276A (en) Game machine
JP2007125405A (en) Game machine
JP2006068070A (en) Game machine
JP2019213781A (en) Game machine
JP2019213783A (en) Game machine
JP2020044274A (en) Game machine
JP6797484B2 (en) Game machine
JP6797485B2 (en) Game machine
JP2018191858A (en) Game machine
JP6804159B2 (en) Game machine
JP6774366B2 (en) Game machine
JP6869612B2 (en) Game machine
JP6869611B2 (en) Game machine
JP2019213780A (en) Specifying device and game machine
JP2018175067A (en) Game machine
JP2018175076A (en) Game machine
JP2018175074A (en) Game machine
JP2018175075A (en) Game machine
JP2018175065A (en) Game machine
JP2018175077A (en) Game machine
JP2018175064A (en) Game machine
JP2006068071A (en) Game machine
JP2018175066A (en) Game machine
JP2018175069A (en) Game machine
JP2018175068A (en) Game machine

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190718

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220208