JP2018175069A - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP2018175069A
JP2018175069A JP2017075378A JP2017075378A JP2018175069A JP 2018175069 A JP2018175069 A JP 2018175069A JP 2017075378 A JP2017075378 A JP 2017075378A JP 2017075378 A JP2017075378 A JP 2017075378A JP 2018175069 A JP2018175069 A JP 2018175069A
Authority
JP
Japan
Prior art keywords
image
data
image data
projection
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017075378A
Other languages
Japanese (ja)
Inventor
直秀 深田
Naohide Fukada
直秀 深田
篤 西田
Atsushi Nishida
篤 西田
智成 大西
Tomonari Onishi
智成 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
Universal Entertainment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal Entertainment Corp filed Critical Universal Entertainment Corp
Priority to JP2017075378A priority Critical patent/JP2018175069A/en
Publication of JP2018175069A publication Critical patent/JP2018175069A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a game machine which can carry out a multicolor performance, with high picture quality, taking advantage of three dimensional CG technology, while controlling cost related to CG creation.SOLUTION: In a game machine according to the invention, an image processing part creates data of a first viewpoint image which is projected on a virtual object when a picture corresponding to a predetermined original image data is virtually projected from a first direction on the virtual object arranged in a virtual space, stores the data in a first buffer, creates data of a second viewpoint image which is acquired when the first viewpoint image is virtually photographed from a second direction, stores the data in a second buffer, transfers data of an image displayed on a display part from the second buffer in which the data of the second viewpoint image is stored to a third buffer. The first direction is a direction of eyes of a player relative to a display surface of the image of the display part, and the second direction is an incident direction of a picture light relative to the display surface of the image of the display part.SELECTED DRAWING: Figure 23

Description

本発明は、遊技機に関する。   The present invention relates to a gaming machine.

従来、複数の図柄がそれぞれの表面に設けられた複数のリールと、スタートスイッチと、ストップスイッチと、各リールに対応して設けられたステッピングモータと、制御部とを備えた、パチスロと呼ばれる遊技機が知られている。スタートスイッチは、メダルやコインなどの遊技媒体が遊技機に投入された後、スタートレバーが遊技者により操作されたこと(以下、「開始操作」ともいう)を検出し、全てのリールの回転の開始を要求する信号を出力する。ストップスイッチは、各リールに対応して設けられたストップボタンが遊技者により押されたこと(以下、「停止操作」ともいう)を検出し、該当するリールの回転の停止を要求する信号を出力する。ステッピングモータは、その駆動力を対応するリールに伝達する。また、制御部は、スタートスイッチ及びストップスイッチにより出力された信号に基づいて、ステッピングモータの動作を制御し、各リールの回転動作及び停止動作を行う。   Conventionally, a game called pachislot having a plurality of reels provided with a plurality of symbols on each surface, a start switch, a stop switch, a stepping motor provided corresponding to each reel, and a control unit The machine is known. The start switch detects that the start lever has been operated by the player after game media such as medals and coins have been inserted into the gaming machine (hereinafter also referred to as "start operation"), and all reels are rotated. Output a signal requesting start. The stop switch detects that the player has pressed a stop button provided corresponding to each reel (hereinafter also referred to as “stop operation”), and outputs a signal requesting stop of rotation of the corresponding reel. Do. The stepping motor transmits the driving force to the corresponding reel. Further, the control unit controls the operation of the stepping motor based on the signals output by the start switch and the stop switch, and performs the rotation operation and the stop operation of each reel.

このような遊技機では、開始操作が検出されると、プログラム上で乱数を用いた抽籤処理(以下、「内部抽籤処理」という)が行われ、その抽籤の結果(以下、「内部当籤役」という)と停止操作のタイミングとに基づいてリールの回転の停止を行う。そして、全てのリールの回転が停止され、入賞の成立に係る図柄の組合せ(表示役)が表示されると、その図柄の組合せに対応する特典が遊技者に付与される。なお、遊技者に付与される特典の例としては、遊技媒体(メダル等)の払い出し、遊技媒体を消費することなく再度、内部抽籤処理を行う再遊技(以下、「リプレイ」ともいう)の作動、遊技媒体の払い出し機会が増加するボーナスゲームの作動等を挙げることができる。   In such a gaming machine, when the start operation is detected, lottery processing using random numbers (hereinafter referred to as "internal lottery processing") is performed on the program, and the result of the lottery (hereinafter referred to as "internal winning combination") Stop the rotation of the reel based on the timing of the stop operation). Then, when the rotation of all the reels is stopped and the combination (display combination) of the symbols related to the establishment of the winning is displayed, a bonus corresponding to the combination of the symbols is given to the player. In addition, as an example of the privilege given to the player, the operation of the re-game (hereinafter, also referred to as "replay") in which the internal lottery process is performed again without paying out the game medium (medal and the like) and consuming the game medium. , Activation of a bonus game, etc., where the payout opportunities for gaming media are increased.

また、従来、上記構成の遊技機において、特定の小役(遊技媒体の払い出しに係る役)の成立をランプ等でナビゲートする機能(以下、省略して「ナビ」ともいう)、すなわち、アシストタイム(以下、「AT」という)の機能を備える遊技機が開発されている。また、従来、特定の図柄組合せが表示された場合にリプレイの当籤確率が通常時より高い遊技状態が作動する機能、すなわち、リプレイタイム(以下、「RT」という)の機能を備える遊技機も開発されている。さらに、従来、ATとRTとが同時に作動するアシストリプレイタイム(以下、「ART」という)の機能を備えたパチスロが開発されている。   Also, conventionally, in the gaming machine having the above-described configuration, a function (hereinafter, also referred to as "navi") for navigating the establishment of a specific small combination (a combination related to payout of gaming media) with a lamp or the like. A gaming machine having a function of time (hereinafter referred to as "AT") has been developed. Also, conventionally, a gaming machine having a function of activating a gaming state in which the probability of winning a replay is higher than a normal time when specific symbol combinations are displayed, ie, a function of replay time (hereinafter referred to as "RT") is also developed. It is done. Furthermore, conventionally, pachislot machines having a function of assist replay time (hereinafter referred to as "ART") in which AT and RT operate simultaneously have been developed.

上述した遊技機は、通常、内部当籤役の決定、各リールの回転及び停止、入賞の有無の判定等の遊技機の主な遊技動作を制御する回路(主制御回路)が実装された主制御基板と、映像の表示等による演出動作を制御する回路(副制御回路)が実装された副制御基板とを備える。そして、遊技動作は、主制御回路に搭載されたCPU(Central Processing Unit)により制御される。この際、CPUの制御により、主制御回路のROM(Read Only Memory)に記憶されたプログラム及び各種テーブルデータ等が主制御回路のRAM(Random Access Memory)に展開され、各種遊技動作に関する処理が実行される。   The above-mentioned gaming machine usually has a circuit (main control circuit) implemented to control the main gaming operation of the gaming machine such as determination of internal winning combinations, rotation and stop of each reel, determination of presence or absence of winning, etc. It has a substrate and a sub control substrate on which a circuit (sub control circuit) for controlling a rendering operation by displaying an image or the like is mounted. The game operation is controlled by a CPU (Central Processing Unit) mounted on the main control circuit. At this time, under the control of the CPU, the program and various table data stored in the ROM (Read Only Memory) of the main control circuit are expanded in the RAM (Random Access Memory) of the main control circuit, and processing concerning various game operations is executed. Be done.

また、従来、上述した構成の遊技機において、CGROM(Character Generator ROM)に動画像データを読み込んで展開し、3次元動画像を液晶ディスプレイ等の表示装置に表示する機能を備えた遊技機が提案されている(例えば、特許文献1参照)。   In addition, conventionally, in the gaming machine having the above-described configuration, proposed is a gaming machine having a function of reading moving image data in CG ROM (Character Generator ROM) and expanding it, and displaying a three-dimensional moving image on a display device such as a liquid crystal display. (See, for example, Patent Document 1).

特開平7―155438号公報Japanese Patent Application Laid-Open No. 7-155438

ところで、近年、液晶ディスプレイ等の表示装置が搭載された遊技機では、3次元CG(Computer Graphics)技術を駆使した高画質で多彩な演出が主流となっている。そして、その多彩な演出を行うためのCGデータを予め作成し、該作成したCGデータをCGROMに記憶しているため、CG作成に係るコストが、年々、増大している。   By the way, in recent years, in a gaming machine equipped with a display device such as a liquid crystal display or the like, high-quality and versatile effects utilizing three-dimensional CG (Computer Graphics) technology have become mainstream. Then, CG data for performing various effects is created in advance, and the created CG data is stored in the CGROM, so the cost for creating the CG increases year by year.

本発明は、上記課題を解決するためになされたものであり、本発明の目的は、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行可能にする遊技機を提供することである。   The present invention has been made to solve the above-mentioned problems, and the object of the present invention is to suppress the increase of the cost for CG creation and execute various effects with high image quality utilizing three-dimensional CG technology. It is to provide a gaming machine that enables.

上記課題を解決するために、本発明では、以下のような構成の遊技機を提供する。   In order to solve the above problems, the present invention provides a gaming machine having the following configuration.

画像が表示される表示部(例えば、後述の各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、後述のプロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、後述のリソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、後述の仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、後述のロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、後述のサブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、後述のGPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、後述のVRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、後述の遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、後述の仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、後述の仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、後述の実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、後述の仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、後述のフレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、後述のスクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、後述のPJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit (for example, various projection target members described later) on which an image is displayed;
A projection unit (for example, a projection block 201 including a projector 213 described later) which projects video light corresponding to the image on the display unit;
A plurality of original image data (for example, resource image data described later) for generating the image to be displayed on the display unit, and data of a virtual object corresponding to the display unit (for example virtual object data described later) A nonvolatile storage unit (eg, a ROM cartridge substrate 86 described later) stored therein;
A control processing unit (for example, a sub CPU 151 described later) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153 described later) that performs processing related to output of the image according to control by the control processing unit;
A volatile storage unit (for example, a VRAM 154 described later) used when the image processing unit executes the processing;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
Using the volatile storage unit, a virtual object corresponding to the predetermined original image data from a first direction (for example, a player's line of sight direction described later) is virtualized to the virtual object arranged in the virtual space. Data of a first viewpoint image (for example, virtual projection image data to be described later) to be projected onto the virtual object when the image is projected on the basis of the predetermined original image data and the data of the virtual object Storing data of the first viewpoint image in a first buffer (for example, a virtual buffer described later) of the volatile storage unit;
A second image is acquired when the first viewpoint image projected onto the virtual object is virtually photographed from a second direction (for example, an incident direction of an actual image light described later) in the virtual space. Data of 2 viewpoint images (for example, virtual photographed image data described later) is generated, and data of the second viewpoint image is stored in a second buffer of the volatile storage unit (for example, frame buffer described later) And
The data of the image displayed on the display unit is transmitted from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer described later) of the volatile storage unit. Transfer the data stored in the third buffer (for example, PJ corresponding image data described later) into a video signal and output the video signal;
The first direction is a line of sight direction of the player with respect to the display surface of the image of the display unit, and the second direction is an incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by

上記構成の本発明の遊技機によれば、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行することができる。   According to the gaming machine of the present invention having the above-described configuration, it is possible to execute various effects with high image quality utilizing three-dimensional CG technology while suppressing an increase in cost relating to CG creation.

本発明の一実施形態における遊技機の機能フローを説明するための図である。It is a figure for demonstrating the functional flow of the game machine in one Embodiment of this invention. 本発明の一実施形態における遊技機の外観構造を示す斜視図である。It is a perspective view showing the appearance structure of the game machine in one embodiment of the present invention. 本発明の一実施形態における遊技機の内部構造を示す図である。It is a figure which shows the internal structure of the game machine in one Embodiment of this invention. 本発明の一実施形態における遊技機の内部構造を示す図である。It is a figure which shows the internal structure of the game machine in one Embodiment of this invention. 本発明の一実施形態の遊技機における表示装置の斜視図である。It is a perspective view of a display in a game machine of one embodiment of the present invention. 本発明の一実施形態の遊技機における投影ブロックの分解斜視図である。It is an exploded perspective view of a projection block in a game machine of one embodiment of the present invention. 本発明の一実施形態の遊技機における投影ブロックの縦断面図である。It is a longitudinal cross-sectional view of the projection block in the game machine of one Embodiment of this invention. 本発明の一実施形態の遊技機における被投影ブロックの分解斜視図である。It is a disassembled perspective view of the to-be-projected block in the game machine of one Embodiment of this invention. 本発明の一実施形態の遊技機における被投影部材移動機構の分解斜視図である。It is an exploded perspective view of a projection member moving mechanism in a game machine of one embodiment of the present invention. 本発明の一実施形態の遊技機において台形部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。It is a longitudinal cross-sectional view of a to-be-projected block when making a trapezoid member into the projection object of an imaging light in the game machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において擬似リール部材を映像光の投影対象としたときの被投影ブロックの状態を示す図である。It is a figure which shows the state of a to-be-projected block when making a pseudo | simulation reel member into the projection object of an imaging light in the game machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において擬似リール部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。It is a longitudinal cross-sectional view of a to-be-projected block when the pseudo | simulation reel member is made into the projection object of an imaging light in the game machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において平面スクリーン部材を映像光の投影対象としたときの被投影ブロックの状態を示す図である。It is a figure which shows the state of a to-be-projected block when making a plane screen member into the projection object of an imaging light in the game machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において平面スクリーン部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。It is a longitudinal cross-sectional view of a to-be-projected block when the plane screen member is made into the projection object of imaging light in the game machine of one Embodiment of this invention. 本発明の一実施形態の遊技機が備える回路の全体構成を示すブロック図である。FIG. 1 is a block diagram showing an entire configuration of a circuit included in a game machine according to an embodiment of the present invention. 本発明の一実施形態における主制御回路の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the main control circuit in one Embodiment of this invention. 本発明の一実施形態におけるマイクロプロセッサの内部構成を示すブロック図である。It is a block diagram showing an internal configuration of a microprocessor in one embodiment of the present invention. 本発明の一実施形態における副制御回路の内部構成を示すブロック図である。It is a block diagram showing an internal configuration of a sub control circuit in an embodiment of the present invention. 本発明の一実施形態において、サブCPUにより実行される演出登録タスクの処理手順を示すフローチャートである。In one Embodiment of this invention, it is a flowchart which shows the process sequence of the effect registration task performed by sub CPU. 本発明の一実施形態において、各種被投影部材に投影される映像光の画像データ(PJ対応画像データ)の作成手法の概要を説明するための図である。FIG. 7 is a diagram for describing an outline of a method of creating image data (PJ corresponding image data) of image light projected onto various types of projection members in an embodiment of the present invention. 本発明の一実施形態における仮想投影撮影法によるPJ対応画像データの生成手法の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the production | generation method of PJ corresponding | compatible image data by the virtual projection photography method in one Embodiment of this invention. 本発明の一実施形態において、仮想投影動作により生成される仮想投影画像データの具体例を示す図である。FIG. 5 is a diagram showing a specific example of virtual projection image data generated by a virtual projection operation in an embodiment of the present invention. 本発明の一実施形態において、仮想撮影画像データからPJ対応画像データを生成する際の処理概要を示す図である。FIG. 10 is a diagram showing an outline of processing when generating PJ corresponding image data from virtual captured image data in the embodiment of the present invention. 本発明の一実施形態において、投影対象の被投影部材に可動被投影部材が含まれる場合のPJ対応画像データの生成概要を説明するための図である。FIG. 10 is a diagram for describing an outline of generation of PJ corresponding image data in a case where a movable projection target is included in the projection target target according to an embodiment of the present invention. 本発明の一実施形態において実行される画像データ生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image data generation process performed in one Embodiment of this invention. 本発明の変形例1におけるPJ対応画像データの生成手法の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the production | generation method of PJ corresponding | compatible image data in the modification 1 of this invention. 本発明の変形例2におけるPJ対応画像データの生成手法の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the production | generation method of PJ corresponding | compatible image data in the modification 2 of this invention. 本発明の変形例2におけるPJ対応画像データの生成処理で使用されるプロジェクション行列及びオフセット行列を示す図である。It is a figure which shows the projection matrix and offset matrix which are used by the production | generation process of PJ corresponding | compatible image data in the modification 2 of this invention. 本発明の変形例3におけるテクスチャマッピング法によるPJ対応画像データの生成手法の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the production | generation method of PJ corresponding | compatible image data by the texture mapping method in the modification 3 of this invention. 本発明の変形例3において実行される画像データ生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image data generation process performed in the modification 3 of this invention.

以下、本発明の一実施形態に係る遊技機としてパチスロを例に挙げ、図面を参照しながら、その構成及び動作について説明する。なお、本実施形態では、ボーナス作動機能及びART機能を備えたパチスロについて説明する。   Hereinafter, as a gaming machine according to an embodiment of the present invention, a pachislot machine is taken as an example, and the configuration and operation thereof will be described with reference to the drawings. In the present embodiment, a pachislot machine having a bonus operation function and an ART function will be described.

<機能フロー>
まず、図1を参照して、パチスロの機能フローについて説明する。本実施形態のパチスロでは、遊技を行うための遊技媒体としてメダルを用いる。なお、遊技媒体としては、メダル以外にも、例えば、コイン、遊技球、遊技用のポイントデータ又はトークン等を適用することもできる。
<Function flow>
First, referring to FIG. 1, the functional flow of the pachislot machine will be described. In the pachislot machine of the present embodiment, a medal is used as a game medium for playing a game. In addition to the medals, for example, coins, gaming balls, point data or tokens for gaming may be applied as gaming media.

遊技者によりパチスロにメダルが投入され、スタートレバーが操作されると、予め定められた数値範囲(例えば、0〜65535)の乱数から1つの値(以下、乱数値という)が抽出される。   When a player inserts a medal into a pachislot and the start lever is operated, one value (hereinafter referred to as a random value) is extracted from random numbers in a predetermined numerical range (for example, 0 to 65535).

内部抽籤手段は、抽出された乱数値に基づいて抽籤を行い、内部当籤役を決定する。この内部抽籤手段は、後述の主制御回路が備える各種処理手段(処理機能)の一つである。内部当籤役の決定により、後述の有効ライン(入賞判定ライン)に沿って表示を行うことを許可する図柄の組合せが決定される。なお、図柄の組合せの種別としては、メダルの払い出し、再遊技(リプレイ)の作動、ボーナスの作動等といった特典が遊技者に与えられる「入賞」に係るものと、それ以外のいわゆる「はずれ」に係るものとが設けられる。   The internal lottery means performs lottery based on the extracted random number value to determine an internal winning combination. The internal lottery means is one of various processing means (processing functions) provided in a main control circuit described later. By the determination of the internal winning combination, a combination of symbols permitting display along an effective line (winning determination line) described later is determined. The types of combinations of symbols include those related to "winning" in which a player is given a benefit such as payout of medals, activation of replay (replay), activation of bonus, etc. Those concerned are provided.

また、スタートレバーが操作されると、複数のリールの回転が行われる。その後、遊技者により所定のリールに対応するストップボタンが押されると、リール停止制御手段は、内部当籤役とストップボタンが押されたタイミングとに基づいて、該当するリールの回転を停止する制御を行う。このリール停止制御手段は、後述の主制御回路が備える各種処理手段(処理機能)の一つである。   In addition, when the start lever is operated, rotation of the plurality of reels is performed. Thereafter, when the player presses the stop button corresponding to the predetermined reel, the reel stop control means performs control to stop the rotation of the corresponding reel based on the internal winning combination and the timing when the stop button is pressed. Do. The reel stop control means is one of various processing means (processing functions) provided in a main control circuit described later.

パチスロでは、基本的に、ストップボタンが押されたときから規定時間(190msec)内に、該当するリールの回転を停止する制御が行われる。本実施形態では、この規定時間内にリールの回転に伴って移動する図柄の数を「滑り駒数」という。そして、本実施形態では、規定期間が190msecである場合には、滑り駒数の最大数(最大滑り駒数)を図柄4個分に定める。   In the pachislot, basically, control is performed to stop the rotation of the corresponding reel within a specified time (190 msec) after the stop button is pressed. In the present embodiment, the number of symbols moving with the rotation of the reel within the specified time is referred to as “the number of sliding pieces”. Then, in the present embodiment, when the prescribed period is 190 msec, the maximum number of sliding symbols (maximum sliding symbol number) is determined to be four symbols.

リール停止制御手段は、入賞に係る図柄の組合せ表示を許可する内部当籤役が決定されているときは、通常、190msec(図柄4駒分)の規定時間内に、その図柄の組合せが有効ラインに沿って極力表示されるようにリールの回転を停止させる。また、リール停止制御手段は、規定時間を利用して、内部当籤役によってその表示が許可されていない図柄の組合せが有効ラインに沿って表示されないようにリールの回転を停止させる。   When an internal winning combination that permits combination display of symbols relating to winning is determined, the reel stop control means normally sets the combination of symbols to the effective line within a prescribed time of 190 msec (for four symbols of symbols). Stop rotation of the reel so that it is displayed as much as possible. Also, the reel stop control means uses the specified time to stop the rotation of the reel so that the combination of symbols whose display is not permitted by the internal winning combination is not displayed along the effective line.

このようにして、複数のリールの回転がすべて停止されると、入賞判定手段は、有効ラインに沿って表示された図柄の組合せが、入賞に係るものであるか否かの判定を行う。この入賞判定手段もまた、後述の主制御回路が備える各種処理手段(処理機能)の一つである。そして、表示された図柄の組合せが、入賞判定手段により入賞に係るものであると判定されると、メダルの払い出し等の特典が遊技者に与えられる。パチスロでは、以上のような一連の流れが1回の遊技(単位遊技)として行われる。   In this manner, when the rotations of the plurality of reels are all stopped, the prize determination means determines whether or not the combination of the symbols displayed along the activated line relates to a prize. This winning determination means is also one of various processing means (processing functions) included in the main control circuit described later. Then, if it is determined that the combination of the displayed symbols is related to winning by the prize determining means, a bonus such as payout of medals is given to the player. In the pachislot, a series of such flows as described above are performed as one game (unit game).

また、パチスロでは、前述した一連の遊技動作の流れの中で、表示装置などによる映像の表示、各種ランプによる光の出力、スピーカによる音の出力、或いは、これらの組合せを利用して様々な演出が行われる。   Moreover, in the pachislot, various effects are displayed using the display of an image by a display device, the output of light by various lamps, the output of sound by a speaker, or a combination of these in the flow of the series of game operations described above. Is done.

具体的には、スタートレバーが操作されると、上述した内部当籤役の決定に用いられた乱数値とは別に、演出用の乱数値が抽出される。演出用の乱数値が抽出されると、演出内容決定手段は、内部当籤役に対応づけられた複数種類の演出内容の中から今回実行する演出を抽籤により決定する。この演出内容決定手段は、後述の副制御回路が備える各種処理手段(処理機能)の一つである。   Specifically, when the start lever is operated, random numbers for presentation are extracted separately from the random numbers used to determine the internal winning combination described above. When the random number value for effect is extracted, the effect content determination means randomly determines the effect to be executed this time out of a plurality of types of effect content associated with the internal winning combination. The effect content determination means is one of various processing means (processing functions) included in the sub control circuit described later.

次いで、演出内容決定手段により演出内容が決定されると、演出実行手段は、リールの回転開始時、各リールの回転停止時、入賞の有無の判定時等の各契機に連動させて対応する演出を実行する。このように、パチスロでは、例えば、内部当籤役に対応づけられた演出内容を実行することによって、決定された内部当籤役(言い換えると、狙うべき図柄の組合せ)を知る機会又は予想する機会が遊技者に提供され、遊技者の興味の向上を図ることができる。   Next, when the effect content is determined by the effect content determining means, the effect executing means responds to each trigger at the start of rotation of the reel, at the time of rotation stop of each reel, at the time of determination of presence or absence of winning, etc. Run. Thus, in pachislot, for example, the opportunity to know or predict the determined internal winning combination (in other words, the combination of the symbols to be aimed at) is played by executing the presentation content corresponding to the internal winning combination. Provided to the player, and the player's interest can be improved.

<パチスロの構造>
次に、図2〜図4を参照して、本発明の一実施形態に係るパチスロの構造について説明する。
<Structure of Pachislot>
Next, with reference to FIGS. 2 to 4, the structure of a pachi slot according to an embodiment of the present invention will be described.

[外観構造]
図2は、パチスロ1の外部構造を示す斜視図である。
[Appearance structure]
FIG. 2 is a perspective view showing the external structure of the pachi slot 1.

パチスロ1は、図2に示すように、外装体2(遊技機本体)を備える。外装体2は、リールや回路基板等を収容するキャビネット2aと、キャビネット2aの開口を開閉可能に取り付けられるフロントドア2bとを有する。   As shown in FIG. 2, the pachi slot 1 includes an exterior body 2 (game machine main body). The exterior body 2 has a cabinet 2a that accommodates a reel, a circuit board, and the like, and a front door 2b that is attached to be able to open and close the opening of the cabinet 2a.

キャビネット2aの内部には、3つのリール3L,3C,3R(変動表示手段、表示列)が横一列に並べて設けられている。以下、各リール3L,3C,3R(メインリール)を、それぞれ左リール3L、中リール3C、右リール3Rともいう。各リール3L,3C,3Rは、円筒状に形成されたリール本体と、リール本体の周面に装着された透光性のシート材を有する。そして、シート材の表面には、複数(例えば20個)の図柄が周方向(リールの回転方向)に沿って所定の間隔をあけて描かれている。   Inside the cabinet 2a, three reels 3L, 3C, 3R (variation display means, display rows) are arranged in a row. Hereinafter, the respective reels 3L, 3C, 3R (main reels) are also referred to as a left reel 3L, a middle reel 3C, and a right reel 3R, respectively. Each of the reels 3L, 3C, 3R has a cylindrical reel body and a translucent sheet material mounted on the peripheral surface of the reel body. Then, on the surface of the sheet material, a plurality of (for example, twenty) symbols are drawn at predetermined intervals along the circumferential direction (rotational direction of the reel).

フロントドア2bは、ドア本体9と、フロントパネル10と、腰部パネル12と、台座部13とを備える。ドア本体9は、ヒンジ(不図示)を用いてキャビネット2aに開閉可能に取り付けられる。ヒンジは、パチスロ1の前方側(遊技者側)から見て、ドア本体9の左側の側端部に設けられる。   The front door 2 b includes a door body 9, a front panel 10, a lumbar panel 12, and a pedestal 13. The door body 9 is attached to the cabinet 2a so as to be able to open and close using a hinge (not shown). The hinge is provided at the left side end of the door body 9 as viewed from the front side (player side) of the pachi slot 1.

フロントパネル10は、ドア本体9の上部に設けられている。このフロントパネル10は、開口10aを有する枠状部材で構成される。フロントパネル10の開口10aは、表示装置カバー30によって塞がれ、表示装置カバー30は、キャビネット2aの内部に配置された後述の表示装置11と対向して配置される。   The front panel 10 is provided on the top of the door body 9. The front panel 10 is formed of a frame-like member having an opening 10a. The opening 10a of the front panel 10 is closed by a display cover 30, and the display cover 30 is disposed to face a display 11 described later disposed inside the cabinet 2a.

表示装置カバー30は、黒色の半透明な合成樹脂により形成される。それゆえ、遊技者は、後述の表示装置11により表示された映像(画像)を、表示装置カバー30を介して視認することができる。 また、本実施形態では、表示装置カバー30を黒色の半透明な
合成樹脂で形成することにより、キャビネット2a内への外光の入り込みを抑制して、表示装置11により表示された映像(画像)を鮮明に視認できるようにしている。
The display cover 30 is formed of a black translucent synthetic resin. Therefore, the player can visually recognize an image (image) displayed by the display device 11 described later via the display device cover 30. Further, in the present embodiment, by forming the display device cover 30 with a black semitransparent synthetic resin, the entry of external light into the cabinet 2a is suppressed, and an image (image) displayed by the display device 11 is obtained. Is clearly visible.

フロントパネル10には、ランプ群21が設けられている。ランプ群21は、例えば、遊技者側から見て、フロントパネル10の上部に設けられたランプ21a、21bを含む。ランプ群21を構成する各ランプは、LED(Light Emitting Diode)等で構成され(後述の図15中のLED群85参照)、演出内容に対応するパターンで、光を点灯及び消灯する。   A lamp group 21 is provided on the front panel 10. The lamp group 21 includes, for example, lamps 21 a and 21 b provided on the top of the front panel 10 as viewed from the player side. Each of the lamps constituting the lamp group 21 is constituted by an LED (Light Emitting Diode) or the like (see the LED group 85 in FIG. 15 described later), and turns on and off the light in a pattern corresponding to the contents of the effect.

腰部パネル12は、ドア本体9の略中央部に設けられる。腰部パネル12は、任意の画像が描かれた装飾パネルと、この装飾パネルを背面側から照明するための光を出射する光源(後述のLED群85に含まれるLED)とを有する。   The waist panel 12 is provided substantially at the center of the door body 9. The waist panel 12 has a decorative panel on which an arbitrary image is drawn, and a light source (an LED included in an LED group 85 described later) that emits light for illuminating the decorative panel from the back side.

台座部13は、フロントパネル10と腰部パネル12との間に設けられる。台座部13には、図柄表示領域4と、遊技者による操作の対象となる各種装置(メダル投入口14、MAXベットボタン15a、1ベットボタン15b、スタートレバー16、3つのストップボタン17L,17C,17R、精算ボタン(不図示)等)とが設けられる。   The pedestal 13 is provided between the front panel 10 and the waist panel 12. The pedestal portion 13 includes a symbol display area 4 and various devices to be operated by the player (the medal insertion slot 14, the MAX bet button 15a, the 1 bet button 15b, the start lever 16, three stop buttons 17L, 17C, 17R, a settlement button (not shown), etc. are provided.

図柄表示領域4は、正面から見て、3つのリール3L,3C,3Rに重畳する領域で、且つ、3つのリール3L,3C,3Rより遊技者側の位置に配置されており、3つのリール3L,3C,3Rを視認可能にするサイズを有する。この図柄表示領域4は、表示窓としての機能を果たすものであり、その背後に設けられた各リール3L,3C,3Rを視認することが可能な構成になっている。以下、図柄表示領域4を、リール表示窓4という。   The symbol display area 4 is an area overlapping the three reels 3L, 3C, 3R when viewed from the front, and is disposed at a position closer to the player than the three reels 3L, 3C, 3R. It has a size that makes 3L, 3C, 3R visible. The symbol display area 4 functions as a display window, and is configured to be able to visually recognize the respective reels 3L, 3C, 3R provided behind it. Hereinafter, the symbol display area 4 is referred to as a reel display window 4.

リール表示窓4は、その背後に設けられた3つのリール3L,3C,3Rの回転が停止されたとき、各リールの周面に設けられた複数の図柄のうち、連続して配置された3つの図柄がその枠内に表示されるように構成されている。すなわち、3つのリール3L,3C,3Rの回転が停止されたとき、リール表示窓4の枠内には、リール毎に上段、中段及び下段の各領域にそれぞれ1個の図柄(合計で3個)が表示される(リール表示窓4の枠内には、3行×3列の態様で図柄が表示される)。そして、本実施形態では、リール表示窓4の枠内において、左リール3Lの中段領域、中リール3Cの中段領域、及び、右リール3Rの中段領域を結ぶ擬似的なライン(センターライン)を、入賞か否かの判定を行う有効ラインとして定義する。   The reel display window 4 is, when the rotation of the three reels 3L, 3C, 3R provided behind it is stopped, 3 of the plurality of symbols provided on the circumferential surface of each reel, continuously arranged 3 One symbol is configured to be displayed in the frame. That is, when the rotation of the three reels 3L, 3C, 3R is stopped, in the frame of the reel display window 4, one symbol (three in total) in each of the upper, middle and lower areas for each reel Is displayed (in the frame of the reel display window 4, symbols are displayed in the form of 3 rows × 3 columns). In the present embodiment, in the frame of the reel display window 4, a middle line area of the left reel 3L, a middle area of the middle reel 3C, and a pseudo line (center line) connecting the middle area of the right reel 3R It defines as an effective line which determines whether it is a winning or not.

リール表示窓4は、台座部13に設けられた枠部材31の開口により形成される。また、リール表示窓4を画成する枠部材31の下方には、略水平面の台座領域が設けられる。そして、遊技者側から見て、台座領域の右側にはメダル投入口14が設けられ、左側にはMAXベットボタン15a及び1ベットボタン15bが設けられる。   The reel display window 4 is formed by the opening of the frame member 31 provided on the pedestal portion 13. Further, under the frame member 31 defining the reel display window 4, a pedestal region of a substantially horizontal surface is provided. When viewed from the player side, the medal insertion slot 14 is provided on the right side of the pedestal area, and the MAX bet button 15a and the 1 bet button 15b are provided on the left side.

メダル投入口14は、遊技者によって外部からパチスロ1に投下されるメダルを受け入れるために設けられる。メダル投入口14から受け入れられたメダルは、予め設定された所定枚数(例えば3枚)を上限として1回の遊技に使用され、所定枚数を超えたメダルの枚数分は、パチスロ1の内部に預けることができる(いわゆるクレジット機能(遊技媒体貯留手段))。   The medal insertion slot 14 is provided to receive a medal dropped from the outside into the pachislot 1 by the player. The medals received from the medal insertion slot 14 are used for one game with a predetermined number (for example, 3) set in advance as the upper limit, and the number of medals exceeding the predetermined number is deposited inside the pachislot 1 (So-called credit function (game media storage means)).

MAXベットボタン15a及び1ベットボタン15bは、キャビネット2aの内部に預けられているメダルから1回の遊技に使用する枚数を決定するために設けられる。なお、MAXベットボタン15aの内部には、メダル投入が可能な時に点灯するベットボタンLED(不図示)が設けられている。また、精算ボタンは、パチスロ1の内部に預けられているメダルを外部に引き出す(排出する)ために設けられる。   The MAX bet button 15a and the 1 bet button 15b are provided to determine the number of medals to be used for one game from the medals deposited inside the cabinet 2a. In addition, inside the MAX bet button 15a, a bet button LED (not shown) is provided which lights up when medals can be inserted. Further, the settlement button is provided to pull out (discharge) the medal deposited inside the pachislot 1.

なお、遊技者がMAXベットボタン15aを押下操作すると、単位遊技のベット枚数(3枚)のメダルが投入され、有効ラインが有効化される。一方、1ベットボタン15bが1回、押下操作される度に1枚のメダルが投入される。1ベットボタン15bが3回操作されると、単位遊技のベット枚数(3枚)のメダルが投入され、有効ラインが有効化される。以下では、MAXベットボタン15aの操作、1ベットボタン15bの操作及びメダル投入口14にメダルを投入する操作(遊技を行うためにメダルを投入する操作)をいずれも「投入操作」という。   When the player presses the MAX bet button 15a, medals of the bet number (3 pieces) of the unit game are inserted, and the activated line is activated. On the other hand, one medal is inserted each time the 1-bet button 15 b is pressed once. When the 1-bet button 15b is operated three times, medals of the bet number (3 pieces) of the unit game are inserted, and the activated line is activated. Hereinafter, the operation of the MAX bet button 15a, the operation of the one bet button 15b, and the operation of inserting a medal into the medal insertion slot 14 (an operation of inserting a medal to perform a game) are all referred to as "insertion operation".

スタートレバー16は、全てのリール(3L,3C,3R)の回転を開始するために設けられる。ストップボタン17L,17C,17Rは、それぞれ、左リール3L、中リール3C、右リール3Rに対応づけて設けられ、各ストップボタンは対応するリールの回転を停止するために設けられる。以下、ストップボタン17L,17C,17Rを、それぞれ左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rともいう。   The start lever 16 is provided to start the rotation of all the reels (3L, 3C, 3R). The stop buttons 17L, 17C, 17R are provided in association with the left reel 3L, the middle reel 3C, and the right reel 3R, respectively, and each stop button is provided to stop the rotation of the corresponding reel. Hereinafter, the stop buttons 17L, 17C, and 17R are also referred to as the left stop button 17L, the middle stop button 17C, and the right stop button 17R, respectively.

また、リール表示窓4の下方の略水平面の台座領域の略中央には、情報表示器6が設けられる。なお、情報表示器6は、透明の窓カバー(不図示)によって覆われている。   Further, an information display 6 is provided substantially at the center of the pedestal area of the substantially horizontal surface below the reel display window 4. The information display 6 is covered by a transparent window cover (not shown).

情報表示器6には、特典として遊技者に対して払い出されるメダルの枚数(以下、「払出枚数」という)の情報を遊技者に対してデジタル表示(報知)するための2桁の7セグメントLED(以下、「7セグLED」という)や、パチスロ1の内部に預けられているメダルの枚数(以下、「クレジット枚数」という)などの情報を遊技者に対してデジタル表示(報知)するための2桁の7セグLEDが設けられる。なお、本実施形態では、メダルの払出枚数表示用の2桁の7セグLEDは、エラー発生及びエラー種別の情報を遊技者に対してデジタル表示(報知)するための2桁の7セグLEDとしても用いられる。それゆえ、エラー発生時には、メダルの払出枚数表示用の2桁の7セグLEDの表示態様は、払出枚数の表示態様からエラー種別の情報の表示態様に切り替わる。   A two-digit seven-segment LED for digitally displaying (notifying) the player with information on the number of medals (hereinafter referred to as “the number of payouts”) to be paid out to the player as a benefit on the information display 6 Information for the player (hereinafter referred to as “7-segment LED”) and the number of medals deposited inside the pachislot 1 (hereinafter referred to as “number of credits”) is digitally displayed (notified) to the player A 2-digit 7-segment LED is provided. In the present embodiment, the 2-digit 7-segment LED for displaying the number of paid-out medals is a 2-digit 7-segment LED for digitally displaying (notifying) information on occurrence of errors and error type to the player. Is also used. Therefore, when an error occurs, the display mode of the 2-digit 7-segment LED for displaying the payout number of medals switches from the display mode of the payout number to the display mode of the information of the error type.

さらに、情報表示器6には、内部当籤役として決定された役に応じた図柄組合せを有効ラインに沿って表示するために必要な停止操作の情報を報知する指示モニタ(不図示)が設けられている。指示モニタ(指示表示器)は、例えば、2桁の7セグメントLEDにより構成される。そして、指示モニタでは、報知する停止操作の情報と一義的に対応する態様で、2桁の7セグLEDが点灯、点滅又は消灯することにより、遊技者に対して必要な停止操作の情報を報知する。   Further, the information display 6 is provided with an instruction monitor (not shown) for notifying information on stop operation necessary to display the symbol combination according to the combination determined as the internal winning combination along the effective line. ing. The instruction monitor (instruction indicator) is configured of, for example, a 2-digit 7-segment LED. Then, in the instruction monitor, the two-digit 7-segment LED is turned on, blinks, or is extinguished in a mode uniquely corresponding to the information on the stop operation to notify, thereby notifying the player of the information on the necessary stop operation. Do.

なお、ここでいう、報知する停止操作の情報と一義的に対応する態様とは、例えば、押し順「1st(第1停止操作を左リール3Lに対して行うこと)」を報知する場合には指示モニタに数値「1」を表示し、押し順「2nd(第1停止操作を中リール3Cに対して行うこと)」を報知する場合には指示モニタに数値「2」を表示し、押し順「3rd(第1停止操作を右リール3Rに対して行うこと)」を報知する場合には指示モニタに数値「3」を表示するなどの態様のことである。   In this case, the information corresponding to the information on the stop operation to be notified uniquely corresponds to, for example, the case where the push order “1st (performing the first stop operation to the left reel 3L)” is notified. When displaying the numerical value “1” on the instruction monitor and notifying the pushing order “2nd (performing the first stop operation to the middle reel 3C)”, the numerical value “2” is displayed on the instruction monitor, and the pushing order In the case of informing "3rd (performing the first stop operation to the right reel 3R)", it is an aspect such as displaying the numerical value "3" on the instruction monitor.

情報表示器6は、後述の図15に示すように、ドア中継端子板68及び遊技動作表示基板81を介して主制御基板71に電気的に接続され、情報表示器6の表示動作は、主制御基板71内の後述の主制御回路90により制御される。また、上述した各種7セグLEDの制御方式は、ダイナミック点灯制御である。   The information display 6 is electrically connected to the main control board 71 via the door relay terminal board 68 and the game operation display board 81 as shown in FIG. 15 described later, and the display operation of the information display 6 is mainly It is controlled by the below-mentioned main control circuit 90 in the control board 71. Moreover, the control system of various 7 segment LED mentioned above is dynamic lighting control.

なお、本実施形態のパチスロ1では、主制御基板71により制御される指示モニタに加えて、副制御基板72により制御される他の手段を用いて停止操作の情報を報知する構成を設ける。具体的には、後述のプロジェクタ213を含む投影ブロック201及び各種被投影部材を含む被投影ブロック202(図3及び後述の図5〜図8参照)により構成される後述の表示装置11により停止操作の情報を報知する。   In addition to the instruction monitor controlled by the main control board 71, the pachi slot 1 of the present embodiment is provided with a configuration for notifying information on the stop operation using other means controlled by the sub control board 72. Specifically, the stop operation is performed by the display device 11 described later that is configured by the projection block 201 including the projector 213 described later and the projection target block 202 including the various projection target members (see FIG. 3 and FIG. Report the information of

このような構成を適用した場合、指示モニタにおける報知の態様と、副制御基板72により制御されるその他の手段における報知の態様とは、互いに異なる態様であってもよい。すなわち、指示モニタでは、報知する停止操作の情報と一義的に対応する態様で報知すればよく、必ずしも、停止操作の情報を直接的に報知する必要はない(例えば、指示モニタにおいて数値「1」が表示されたとしても、遊技者によっては報知内容を特定できない可能性もあり、直接的な報知とは言えない)。一方、後述の表示装置11等のその他の手段によるサブ側(副制御基板側)での報知では、停止操作の情報を直接的に報知してもよい。例えば、押し順「1st」を報知する場合、指示モニタでは報知する押し順と一義的に対応する数値「1」を表示するが、その他の手段(例えば、表示装置11等)では、左リール3Lに対して第1停止操作を行わせるための指示情報を直接的に報知してもよい。   When such a configuration is applied, the mode of notification in the instruction monitor and the mode of notification in the other means controlled by the sub control board 72 may be different from each other. That is, in the instruction monitor, notification may be made in a mode uniquely corresponding to the information of the stop operation to be notified, and it is not necessary to directly notify the information of the stop operation (for example, the numerical value "1" in the instruction monitor Even if is displayed, some players may not be able to specify the notification content, which is not a direct notification). On the other hand, in the notification on the sub side (sub control substrate side) by other means such as the display device 11 described later, the information on the stop operation may be notified directly. For example, when notifying the pushing order "1st", the instruction monitor displays the numerical value "1" that uniquely corresponds to the pushing order notified, but the other means (for example, the display device 11 etc.), the left reel 3L Alternatively, instruction information for causing the first stop operation to be issued may be notified directly.

このような構成のパチスロ1では、副制御基板72の制御だけでなく、主制御基板71の制御によっても、内部当籤役に応じた必要な停止操作の情報を報知することができる。また、このような停止操作の情報の報知の有無は、遊技状態に応じて制御されるようにしてもよい。例えば、ナビが発生しない一般遊技状態(例えば非ART遊技状態等)では停止操作の情報を報知せずに、ナビが発生する報知遊技状態(例えばART遊技状態等)において停止操作の情報を報知するようにしてもよい。   In the pachi slot 1 having such a configuration, not only the control of the sub control board 72 but also the control of the main control board 71 can notify the information of the necessary stop operation according to the internal winning combination. Further, the presence or absence of notification of such stop operation information may be controlled in accordance with the gaming state. For example, in a general gaming state (for example, non-ART gaming state etc.) in which the navigation does not occur, the information on the stopping operation is reported in a notification gaming state (for example the ART gaming state etc.) in which the navigation occurs. You may do so.

また、遊技者側から見て、リール表示窓4の左方には、サブ表示装置18が設けられる。サブ表示装置18は、図2に示すように、ドア本体9の前面部のうち、台座部13の略水平面の台座領域から略垂直に立設するように設けられる。サブ表示装置18は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイで構成され、各種情報を表示する。   Also, a sub display 18 is provided on the left side of the reel display window 4 when viewed from the player side. As shown in FIG. 2, the sub display device 18 is provided so as to stand vertically from the pedestal region of the substantially horizontal surface of the pedestal portion 13 in the front surface portion of the door main body 9. The sub display device 18 is configured by a liquid crystal display or an organic EL (Electro-Luminescence) display, and displays various information.

また、サブ表示装置18の表示面上には、タッチセンサ19が設けられている(後述の図15参照)。タッチセンサ19は、静電容量方式などの所定の動作原理に従い動作し、遊技者の操作を受け付けると、タッチ入力情報として当該操作に応じた信号を出力する。そして、本実施形態のパチスロ1は、タッチセンサ19を介して受け付けた遊技者の操作(タッチセンサ19から出力されるタッチ入力情報)に応じて、サブ表示装置18の表示を切り替え可能にする機能を有する。なお、サブ表示装置18は、タッチセンサ19から出力されるタッチ入力情報に基づいて後述の副制御基板72(後述の図15参照)により制御される。   Further, a touch sensor 19 is provided on the display surface of the sub display device 18 (see FIG. 15 described later). The touch sensor 19 operates according to a predetermined operation principle such as a capacitance method, and outputs a signal corresponding to the operation as touch input information when the operation of the player is received. And, the pachislot 1 of the present embodiment has a function of making it possible to switch the display of the sub display device 18 according to the operation of the player received via the touch sensor 19 (touch input information output from the touch sensor 19). Have. The sub display device 18 is controlled by a sub control board 72 (see FIG. 15 described later) based on touch input information output from the touch sensor 19.

ドア本体9の下部には、メダル払出口24、メダル受皿25、2つのスピーカ用孔20L,20R等が設けられる。メダル払出口24は、後述のメダル払出装置51の駆動により排出されるメダルを外部に導く。メダル受皿25は、メダル払出口24から排出されたメダルを貯める。また、2つのスピーカ用孔20L,20Rからは、演出内容に対応する効果音や楽曲等の音声が出力される。   In the lower part of the door main body 9, a medal payout port 24, a medal receiving tray 25, two speaker holes 20L, 20R and the like are provided. The medal payout port 24 guides the medals discharged by the driving of a medal payout device 51 described later to the outside. The medal receiver 25 stores the medals discharged from the medal payout opening 24. Further, from the two speaker holes 20L and 20R, sounds such as sound effects and music corresponding to the contents of the effect are output.

[内部構造]
次に、パチスロ1の内部構造を、図3及び図4を参照しながら説明する。図3は、キャビネット2aの内部構造を示す図であり、図4は、フロントドア2bの裏面側の内部構造を示す図である。
[Internal structure]
Next, the internal structure of the pachi slot 1 will be described with reference to FIGS. 3 and 4. FIG. 3 is a view showing the internal structure of the cabinet 2a, and FIG. 4 is a view showing the internal structure of the back side of the front door 2b.

キャビネット2aは、図3に示すように、上面板27aと、底面板27bと、左右の側面板27c,27dと、背面板27eとを有する。そして、キャビネット2a内の上部には、表示装置11が配設される。   As shown in FIG. 3, the cabinet 2a has a top plate 27a, a bottom plate 27b, left and right side plates 27c and 27d, and a back plate 27e. And the display apparatus 11 is arrange | positioned by the upper part in the cabinet 2a.

表示装置11は、後述のプロジェクタ213を含む投影ブロック201と、後述のプロジェクタ213から出射された映像光が投影される後述の複数種の被投影部材を含む被投影ブロック202とを有する。また、被投影ブロック202内には、遊技状態に応じて、被投影部材を切り換えるための機能(後述の被投影部材移動機構305)も設けられる。   The display device 11 has a projection block 201 including a projector 213 described later, and a projection block 202 including a plurality of types of projection target members described later on which image light emitted from the projector 213 described later is projected. Further, in the projection target block 202, a function (projected member moving mechanism 305 described later) for switching the projection target member according to the game state is also provided.

表示装置11では、後述する仮想空間上での画像合成処理により生成された画像データ(後述のPJ対応画像データ)に対応する映像光が所定の被投影部材に投影され、映像表示演出等が行われる。具体的には、表示装置11では、投影対象となる被投影部材(オブジェクト)の形状や、後述のプロジェクタ213と被投影部材との位置関係(投影距離や角度など)に基づいて映像光を生成し、その映像光が、後述のプロジェクタ213から被投影部材の表面に投影される。このような演出機能を設けることにより、高度で且つ迫力のある演出を行うことができる。なお、表示装置11の具体的な構成及び動作については、後で図面を参照しながら詳述する。   In the display device 11, video light corresponding to image data (image data corresponding to PJ described later) generated by image combining processing in a virtual space described later is projected onto a predetermined projected member, and video display effects and the like are performed. It will be. Specifically, in the display device 11, the image light is generated based on the shape of the projection target (object) to be projected and the positional relationship (projection distance, angle, etc.) between the projector 213 and the projection target described later. The image light is projected from the projector 213 described later onto the surface of the projection target. By providing such a rendering function, sophisticated and powerful rendering can be performed. The specific configuration and operation of the display device 11 will be described in detail later with reference to the drawings.

キャビネット2a内の下部には、メダル払出装置51(以下、ホッパー装置という)と、メダル補助収納庫52と、電源装置53とが配設される。   A medal payout device 51 (hereinafter, referred to as a hopper device), a medal auxiliary storage 52, and a power supply device 53 are disposed at a lower portion in the cabinet 2a.

ホッパー装置51は、キャビネット2aにおける底面板27bの中央部に取り付けられる。このホッパー装置51は、多量のメダルを収容可能で、それらを1枚ずつ排出可能な構造を有する。ホッパー装置51は、貯留されたメダルが例えば50枚を超えたとき、又は、精算ボタンが押下されてメダルの精算が実行されるときに、メダルを払い出す。そして、ホッパー装置51によって払い出されたメダルは、メダル払出口24(図2参照)から排出される。   The hopper device 51 is attached to the central portion of the bottom plate 27b in the cabinet 2a. The hopper device 51 has a structure capable of accommodating a large amount of medals and discharging them one by one. The hopper device 51 pays out the medals, for example, when the stored medals exceed 50, or when the settlement button is pressed and the settlement of the medals is executed. Then, the medals paid out by the hopper device 51 are discharged from the medal payout opening 24 (see FIG. 2).

メダル補助収納庫52は、ホッパー装置51から溢れ出たメダルを収納する。このメダル補助収納庫52は、キャビネット2a内部を正面から見て、ホッパー装置51の右側に配置される。また、メダル補助収納庫52は、キャビネット2aの底面板27bに対して着脱可能に取り付けられている。   The medal auxiliary storage 52 stores the medals overflowing from the hopper device 51. The medal auxiliary storage 52 is disposed on the right side of the hopper device 51 when the inside of the cabinet 2a is viewed from the front. Moreover, the medal auxiliary storage 52 is detachably attached to the bottom plate 27b of the cabinet 2a.

電源装置53は、電源スイッチ53aと、電源基板53b(電源供給手段)とを有している(後述の図15参照)。この電源装置53は、キャビネット2a内部を正面から見て、ホッパー装置51の左側に配置されており、左側面板27cに取り付けられている。電源装置53は、サブ電源装置(不図示)から供給された交流電圧100Vの電力を各部で必要な直流電圧の電力に変換して、変換した電力を各部へ供給する。   The power supply device 53 has a power switch 53a and a power supply substrate 53b (power supply means) (see FIG. 15 described later). The power supply device 53 is disposed on the left side of the hopper device 51 when the inside of the cabinet 2a is viewed from the front, and is attached to the left side plate 27c. The power supply device 53 converts the power of the AC voltage 100 V supplied from the sub power supply device (not shown) into the power of the DC voltage required by each part, and supplies the converted power to each part.

また、キャビネット2a内の電源装置53の上方には、副制御基板72(後述の図15参照)を収容する副制御基板ケース57が配設される。副制御基板ケース57に収納された副制御基板72には、後述の副制御回路150(後述の図18参照)が搭載されている。この副制御回路150は、映像の表示等による演出の実行を制御する回路である。なお、副制御基板72は、本発明に係る制御部の一具体例を示すものである。副制御回路150の具体的な構成については後述する。   Further, above the power supply device 53 in the cabinet 2a, a sub control board case 57 for accommodating a sub control board 72 (see FIG. 15 described later) is disposed. A sub control circuit 150 described later (refer to FIG. 18 described later) is mounted on the sub control substrate 72 housed in the sub control substrate case 57. The sub control circuit 150 is a circuit that controls execution of effects by displaying a video or the like. The sub control board 72 shows one specific example of the control unit according to the present invention. The specific configuration of the sub control circuit 150 will be described later.

キャビネット2a内の副制御基板ケース57の上方には、副中継基板61が配設される。この副中継基板61は、副制御基板72と後述の主制御基板71とを接続する配線が実装された中継基板である。また、副中継基板61は、副制御基板72と副制御基板72の周辺に配設された基板や各種装置部(ユニット)などとを接続する配線が実装された中継基板である。   The sub relay board 61 is disposed above the sub control board case 57 in the cabinet 2a. The sub relay board 61 is a relay board on which a wire connecting the sub control board 72 and a main control board 71 described later is mounted. Further, the sub relay board 61 is a relay board on which a wire for connecting the sub control board 72 and a board provided around the sub control board 72, various device units (units), and the like is mounted.

また、図3には示さないが、キャビネット2a内には、キャビネット側中継基板44(後述の図15参照)が配設される。このキャビネット側中継基板44は、主制御基板71(後述の図15参照)と、ホッパー装置51、メダル補助収納庫スイッチ75(後述の図15参照)及びメダル払出カウントスイッチ(不図示)のそれぞれとを接続する配線が実装された中継基板である。   Although not shown in FIG. 3, a cabinet side relay board 44 (see FIG. 15 described later) is disposed in the cabinet 2a. The cabinet side relay board 44 includes a main control board 71 (see FIG. 15 described later), a hopper device 51, a medal auxiliary storage switch 75 (see FIG. 15 described later), and a medal payout count switch (not shown). Is a relay board on which a wire for connecting is mounted.

フロントドア2bの裏面側の中央部には、図4に示すように、ミドルドア41が、配設され、リール表示窓4(図2参照)を裏側から開閉可能に取り付けられている。また、図4には示さないが、ミドルドア41のリール表示窓4側には、3つのリール3L,3C,3Rが取り付けられ、ミドルドア41のリール表示窓4側とは反対側には、主制御基板71(後述の図15参照)が収納された主制御基板ケース55が取り付けられている。なお、3つのリール3L,3C,3Rには、所定の減速比をもったギアを介してステッピングモータ(不図示)が接続されている。   As shown in FIG. 4, a middle door 41 is disposed at the center on the back side of the front door 2b, and the reel display window 4 (see FIG. 2) is attached so as to be able to be opened and closed from the back. Although not shown in FIG. 4, three reels 3L, 3C, 3R are attached to the reel display window 4 side of the middle door 41, and the main control is performed on the side opposite to the reel display window 4 side of the middle door 41. A main control board case 55 in which a board 71 (see FIG. 15 described later) is accommodated is attached. A stepping motor (not shown) is connected to the three reels 3L, 3C, 3R via a gear having a predetermined speed reduction ratio.

主制御基板ケース55に収納された主制御基板71は、後述する主制御回路90(後述の図16参照)を有する。主制御回路90(主制御手段)は、内部当籤役の決定、各リール3L,3C,3Rの回転及び停止、入賞の有無の判定といった、パチスロ1における遊技の主な流れを制御する回路である。また、本実施形態では、例えば、報知遊技(ART等)の決定の有無の抽籤処理、ナビ情報の指示モニタへの表示処理、各種試験信号の送信処理などの制御も主制御回路90により行われる。なお、主制御回路90の具体的な構成は後述する。   The main control board 71 housed in the main control board case 55 has a main control circuit 90 (see FIG. 16 described later) described later. The main control circuit 90 (main control means) is a circuit for controlling the main flow of the game in the pachislot 1 such as determination of the internal winning combination, rotation and stop of each reel 3L, 3C, 3R, and determination of presence or absence of winning. . Further, in the present embodiment, for example, control of lottery processing of presence / absence of determination of notification game (ART etc.), display processing of navigation information to instruction monitor, transmission processing of various test signals, etc. is also performed by the main control circuit 90 . The specific configuration of the main control circuit 90 will be described later.

フロントドア2bの裏面側において、ミドルドア41の下方には、スピーカ65L,65Rが配設される。スピーカ65L,65Rは、それぞれスピーカ用孔20L,20R(図2参照)と対向する位置に配置されている。   Speakers 65L and 65R are disposed below the middle door 41 on the back side of the front door 2b. The speakers 65L and 65R are disposed at positions facing the speaker holes 20L and 20R (see FIG. 2).

また、スピーカ65Lの上方には、セレクタ66と、ドア開閉監視スイッチ67とが配設される。セレクタ66は、メダルの材質や形状等が適正であるか否かを選別する装置であり、メダル投入口14に投入された適正なメダルをホッパー装置51へ案内する。セレクタ66内においてメダルが通過する経路上には、適正なメダルが通過したことを検出するメダルセンサ(遊技媒体検出手段:不図示)が設けられている。   Further, a selector 66 and a door open / close monitoring switch 67 are disposed above the speaker 65L. The selector 66 is a device that selects whether or not the material, shape, and the like of the medals are appropriate, and guides the appropriate medals inserted into the medal insertion slot 14 to the hopper device 51. A medal sensor (gaming medium detection means: not shown) for detecting that the appropriate medal has passed is provided on the path through which the medal passes in the selector 66.

ドア開閉監視スイッチ67は、フロントドア2bを裏面側から見て、セレクタ66の左斜め下に配置される。このドア開閉監視スイッチ67は、フロントドア2bの開閉を報知するためのセキュリティ信号をパチスロ1の外部に出力する。   The door open / close monitoring switch 67 is disposed obliquely downward to the left of the selector 66 when the front door 2 b is viewed from the back side. The door opening and closing monitoring switch 67 outputs a security signal for notifying the opening and closing of the front door 2 b to the outside of the pachi slot 1.

また、図4には示さないが、フロントドア2bを裏面において、ミドルドア41により開閉された領域であり且つリール表示窓4の下方には、ドア中継端子板68が配設される(後述の図15参照)。このドア中継端子板68は、主制御基板ケース55内の主制御基板71と、各種のボタンやスイッチ、副中継基板61、セレクタ66、遊技動作表示基板81、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402のそれぞれとを接続する配線が実装された中継基板である。なお、各種のボタン及びスイッチとしては、例えば、MAXベットボタン15a、1ベットボタン15b、ドア開閉監視スイッチ67、後述のBETスイッチ77、スタートスイッチ79等が挙げられる。   Further, although not shown in FIG. 4, a door relay terminal plate 68 is disposed on the back of the front door 2b at the back side and in the area opened and closed by the middle door 41 and below the reel display window 4 (see FIG. 15). The door relay terminal board 68 includes a main control board 71 in the main control board case 55, various buttons and switches, a sub relay board 61, a selector 66, a game operation display board 81, a first interface board 401 for a test machine, It is a relay board on which the wiring which connects with each of the 2nd interface board 402 for test machines was mounted. Examples of the various buttons and switches include a MAX bet button 15a, a 1 bet button 15b, a door open / close monitoring switch 67, a bet switch 77 described later, and a start switch 79.

<表示装置の構成>
次に、表示装置11の構成について、図5を参照して説明する。図5は、表示装置11の外観斜視図である。
<Configuration of Display Device>
Next, the configuration of the display device 11 will be described with reference to FIG. FIG. 5 is an external perspective view of the display device 11.

表示装置11は、図5に示すように、投影ブロック201と、投影ブロック201の下方に配置された被投影ブロック202とを備える。この表示装置11は、投影ブロック201に設置された後述のプロジェクタ213によって映像光を生成し、該映像光を被投影ブロック202に設けられた被投影部材(後述の台形部材302等)の投影面に投射する。   As shown in FIG. 5, the display device 11 includes a projection block 201 and a projection target block 202 disposed below the projection block 201. The display device 11 generates image light by a projector 213 described later installed in the projection block 201, and projects the image light on a projection surface of a projection target member (such as a trapezoidal member 302 described later) provided in the projection block 202. Project to

[投影ブロック]
次に、投影ブロック201の構成について、図6及び図7を参照して説明する。図6は、投影ブロック201の分解斜視図である。図7は、投影ブロック201の縦断面図である。なお、後述のプロジェクタ213を含む投影ブロック201は、本発明に係る投影部の一具体例を示すものである。
[Projection block]
Next, the configuration of the projection block 201 will be described with reference to FIGS. 6 and 7. FIG. 6 is an exploded perspective view of the projection block 201. FIG. FIG. 7 is a longitudinal sectional view of the projection block 201. As shown in FIG. A projection block 201 including a projector 213 described later shows an example of a projection unit according to the present invention.

投影ブロック201は、図6に示すように、ベース部材211と、反射部材212と、プロジェクタ213とを有する。ベース部材211は、下面が開口された中空の略箱状部材で構成され、上板部221と、前板部222と、後板部223と、左側板部224と、右側板部225とを有する。   The projection block 201 has a base member 211, a reflection member 212, and a projector 213, as shown in FIG. The base member 211 is a hollow substantially box-like member whose lower surface is opened, and includes the upper plate portion 221, the front plate portion 222, the rear plate portion 223, the left side plate portion 224, and the right side plate portion 225. Have.

上板部221の裏面(被投影ブロック202側の面)には、プロジェクタ213が取り付けられている。また、前板部222には、反射部材取付け部227が設けられ、この反射部材取付け部227は、前板部222よりも前方(遊技者側)に突出した突状部材で構成される。   The projector 213 is attached to the back surface of the upper plate portion 221 (surface on the side of the projection block 202). In addition, the front plate portion 222 is provided with a reflection member attachment portion 227, and the reflection member attachment portion 227 is configured by a projecting member that protrudes forward (to the player) than the front plate portion 222.

反射部材取付け部227の前部片234は、板状部材で構成され、前部片234の表面(反射部材取付け部227の突面)の面方向が斜め上方となり且つ裏面の面方向が斜め下方となるように傾斜している。そして、前部片234の裏面(プロジェクタ213及び被投影ブロック202側の面)には、反射部材212が取り付けられている。   The front piece 234 of the reflection member attachment portion 227 is formed of a plate-like member, and the surface direction of the surface of the front portion 234 (the projection surface of the reflection member attachment portion 227) is obliquely upward and the surface direction of the back surface is obliquely downward It is inclined to become. A reflecting member 212 is attached to the back surface of the front piece 234 (the surface on the projector 213 and the projected block 202 side).

反射部材212は、図7に示すように、前部片234と略同じサイズ(大きさ)を有し且つ表面が長方形である板状部材で構成されたミラーホルダ236と、ミラーホルダ236に固定された反射ミラー237とを有する。なお、ミラーホルダ236は、前部片234の裏面にねじ等の固定部材を用いて固定されている。   The reflection member 212 is fixed to a mirror holder 236 which is formed of a plate-like member having substantially the same size (size) as the front piece 234 and having a rectangular surface as shown in FIG. And the reflecting mirror 237. The mirror holder 236 is fixed to the back surface of the front piece 234 using a fixing member such as a screw.

反射ミラー237は、ミラーホルダ236のプロジェクタ213及び被投影ブロック202側の面に固定されている。この反射ミラー237は、反射面の面方向が斜め下方となるように傾斜し、プロジェクタ213から出射された映像光を、被投影ブロック202の被投影部材(後述の台形部材302等)に向けて反射する。   The reflection mirror 237 is fixed to the surface of the mirror holder 236 on the side of the projector 213 and the projection block 202. The reflection mirror 237 is inclined so that the surface direction of the reflection surface is obliquely downward, and the image light emitted from the projector 213 is directed to a projection target member (such as a trapezoidal member 302 described later) of the projection block 202 reflect.

プロジェクタ213は、図7に示すように、プロジェクタ本体241と、取付ブラケット242とを有する。取付ブラケット242は、表面が略長方形の板状部材で構成され、取付ブラケット242の裏面(被投影ブロック202側の面)にプロジェクタ本体241が取り付けられている。なお、取付ブラケット242は、ベース部材211の上板部221の裏面にねじ等の固定部材を用いて固定されている。   The projector 213 has a projector body 241 and a mounting bracket 242, as shown in FIG. The mounting bracket 242 is formed of a plate-like member having a substantially rectangular surface, and the projector main body 241 is mounted on the back surface (surface on the side of the projection block 202) of the mounting bracket 242. The mounting bracket 242 is fixed to the back surface of the upper plate portion 221 of the base member 211 using a fixing member such as a screw.

プロジェクタ本体241は、ケース251(図6参照)と、照明ユニット252と、液晶プリズムユニット253と、投射レンズ254と、複数のヒートシンク255と、複数のファン256とを有する。なお、図7では、1つのヒートシンク255及び1つのファン256のみを示す。   The projector body 241 has a case 251 (see FIG. 6), an illumination unit 252, a liquid crystal prism unit 253, a projection lens 254, a plurality of heat sinks 255, and a plurality of fans 256. In FIG. 7, only one heat sink 255 and one fan 256 are shown.

ケース251は、中空の筐体で構成される。ケース251の内部には、照明ユニット252、液晶プリズムユニット253、投射レンズ254、ヒートシンク255及びファン256が収納されている。また、ケース251の前面(反射部材212側)には、投射レンズ254によって塞がれる開口部が設けられている。   The case 251 is configured of a hollow case. Inside the case 251, a lighting unit 252, a liquid crystal prism unit 253, a projection lens 254, a heat sink 255 and a fan 256 are housed. In addition, an opening that is closed by the projection lens 254 is provided on the front surface of the case 251 (on the side of the reflection member 212).

ケース251の内部において、投射レンズ254の後方(ミラーホルダ236側とは反対方向)には、液晶プリズムユニット253が配置され、液晶プリズムユニット253の後方には、照明ユニット252が配置されている。そして、照明ユニット252の周囲には、複数のヒートシンク255が配置され、複数のファン256は、複数のヒートシンク255に隣接して配置されている。   Inside the case 251, the liquid crystal prism unit 253 is disposed behind the projection lens 254 (in the direction opposite to the mirror holder 236 side), and the illumination unit 252 is disposed behind the liquid crystal prism unit 253. A plurality of heat sinks 255 are disposed around the lighting unit 252, and a plurality of fans 256 are disposed adjacent to the plurality of heat sinks 255.

照明ユニット252は、例えば、複数の光源を有する。複数の光源は、赤色の光を出射する光源R(不図示)と、緑色の光を出射する光源G(不図示)と、青色の光を出射する光源B(不図示)とで構成される。したがって、液晶プリズムユニット253には、赤(R)、緑(G)、青(B)の3色の光がそれぞれ入射される。   The lighting unit 252 includes, for example, a plurality of light sources. The plurality of light sources are configured by a light source R (not shown) that emits red light, a light source G (not shown) that emits green light, and a light source B (not shown) that emits blue light . Therefore, light of three colors of red (R), green (G) and blue (B) is incident on the liquid crystal prism unit 253, respectively.

なお、本発明はこれに限定されず、光源としては、例えば、1つの高輝度放電ランプを使用してもよい。この場合は、色分解ミラー(ダイクロイックミラー)を使用して、高輝度放電ランプから出射された光を赤(R)、緑(G)、青(B)の3色の光に分解する。   In addition, this invention is not limited to this, For example, one high-intensity discharge lamp may be used as a light source. In this case, a color separation mirror (dichroic mirror) is used to separate the light emitted from the high-intensity discharge lamp into light of three colors of red (R), green (G) and blue (B).

液晶プリズムユニット253は、例えば、3つの液晶パネルと、色合成用のクロスプリズム(ダイクロイックプリズム)とを有する。3つの液晶パネルは、赤色の光が入射する液晶パネルR(不図示)と、緑色の光が入射する液晶パネルG(不図示)と、青色の光が入射する液晶パネルB(不図示)とで構成される。クロスプリズムは、各液晶パネルによって生成された3つの映像光を1つの映像光として合成する。   The liquid crystal prism unit 253 has, for example, three liquid crystal panels and a cross prism (dichroic prism) for color synthesis. The three liquid crystal panels are a liquid crystal panel R (not shown) on which red light is incident, a liquid crystal panel G (not shown) on which green light is incident, and a liquid crystal panel B (not shown) on which blue light is incident. It consists of The cross prism combines three image lights generated by each liquid crystal panel into one image light.

投射レンズ254は、反射部材212の反射ミラー237に対向して配置されている。それゆえ、液晶プリズムユニット253から出射された映像光は、投射レンズ254を通過して反射ミラー237に入射される。複数のヒートシンク255は、照明ユニット252によって発生した熱を放熱する。また、複数のファン256は、複数のヒートシンク255に空気を送風して、複数のヒートシンク255を冷却する。   The projection lens 254 is disposed to face the reflection mirror 237 of the reflection member 212. Therefore, the image light emitted from the liquid crystal prism unit 253 passes through the projection lens 254 and is incident on the reflection mirror 237. The plurality of heat sinks 255 dissipate heat generated by the lighting unit 252. Further, the plurality of fans 256 blow air to the plurality of heat sinks 255 to cool the plurality of heat sinks 255.

[被投影ブロック]
次に、被投影ブロック202の構成について、図8及び図9を参照して説明する。図8は、被投影ブロック202の分解斜視図である。図9は、被投影ブロック202に設けられた被投影部材の移動機構の分解斜視図である。
[Projected block]
Next, the configuration of the projected block 202 will be described with reference to FIGS. 8 and 9. FIG. 8 is an exploded perspective view of the projection block 202. As shown in FIG. FIG. 9 is an exploded perspective view of the moving mechanism of the projection target member provided in the projection target block 202. As shown in FIG.

被投影ブロック202は、図8に示すように、収納ケース301と、台形部材302と、擬似リール部材303と、平面スクリーン部材304と、被投影部材移動機構305とを備える。なお、台形部材302、擬似リール部材303及び平面スクリーン部材304のそれぞれは、本発明に係る表示部の一具体例を示すものである。また、台形部材302は、本発明に係る第1の表示部の一具体例を示すものであり、擬似リール部材303及び平面スクリーン部材304のそれぞれは、本発明に係る第2の表示部の一具体例を示すものである。また、被投影部材移動機構305は、本発明に係る可動制御手段の一具体例を示すものである。   The to-be-projected block 202 is provided with the storage case 301, the trapezoid member 302, the pseudo | simulation reel member 303, the plane screen member 304, and the to-be-projected member moving mechanism 305, as shown in FIG. Each of the trapezoidal member 302, the pseudo reel member 303, and the flat screen member 304 is an example of the display unit according to the present invention. The trapezoidal member 302 is a specific example of the first display unit according to the present invention, and each of the pseudo reel member 303 and the flat screen member 304 is an example of the second display unit according to the present invention. It shows a specific example. The projection target moving mechanism 305 is an example of the movable control means according to the present invention.

(1)収納ケース
収納ケース301は、前面及び上面が開口された中空の筐体であり、台座部311と、背面壁312と、左側壁313と、右側壁314とを有する。各壁は、表面が略長方形の板状部材で構成され、台座部311及び背面壁312は、それぞれ、収納ケース301の底部及び背面部を形成し、左側壁313及び右側壁314は、それぞれ、収納ケース301の左側面部及び右側面部を形成する。
(1) Storage Case The storage case 301 is a hollow housing whose front and upper surfaces are open, and has a pedestal portion 311, a back wall 312, a left wall 313, and a right wall 314. Each wall is formed of a plate-shaped member having a substantially rectangular surface, and the pedestal 311 and the back wall 312 form the bottom and the back of the storage case 301, respectively, and the left wall 313 and the right wall 314 respectively The left side and the right side of the storage case 301 are formed.

(2)台形部材
台形部材302は、表面が台形状の床板部321と、3つの壁板部322,323,324とで構成され、収納ケース301の台座部311上にねじ等の固定部材により固定されている。
(2) Trapezoid member The trapezoid member 302 includes a floor plate portion 321 having a trapezoidal surface, and three wall plate portions 322, 323, and 324. The pedestal member 311 of the storage case 301 is fixed by a fixing member such as a screw. It is fixed.

床板部321は、台座部311の載置面311aに載置されている。この際、床板部321の下辺(長辺)部が正面(遊技者側)に位置するように、床板部321が台座部311上に載置されている。なお、床板部321の台座部311の載置面311aに当接した面とは反対側の面321a(平面)は、投影面となる。床板部321の投影面321aには、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。   The floor plate portion 321 is mounted on the mounting surface 311 a of the pedestal portion 311. At this time, the floor plate portion 321 is placed on the pedestal portion 311 such that the lower side (long side) portion of the floor plate portion 321 is located on the front side (player side). In addition, the surface 321a (plane) on the opposite side to the surface in contact with the mounting surface 311a of the pedestal portion 311 of the floor plate portion 321 is a projection surface. The image light emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 321 a of the floor plate portion 321.

壁板部322は、表面が略長方形状の板状部材で構成され、床板部321の上辺部に連続して形成されている。この際、壁板部322の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部322が床板部321の上辺部に連続して形成される。そして、壁板部322のフロントドア2b側(遊技者側)の平面が投影面322aとなる。壁板部322の投影面322aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。   The wall plate portion 322 is formed of a plate-like member having a substantially rectangular surface, and is continuously formed on the upper side portion of the floor plate portion 321. At this time, the wall plate portion 322 is continuously formed on the upper side portion of the floor plate portion 321 so that the angle between the surface of the wall plate portion 322 and the surface of the floor plate portion 321 is substantially perpendicular. And the plane of the front door 2b side (player side) of the wall plate part 322 turns into the projection surface 322a. Similar to the projection surface 321 a of the floor plate portion 321, image light which is emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 322 a of the wall plate portion 322.

壁板部323は、板状部材で構成され、床板部321の左辺部及び壁板部322の左辺部に連続して形成されている。この際、壁板部323の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部323が床板部321の左辺部及び壁板部322の左辺部に連続して形成される。そして、壁板部323の壁板部324側の平面が投影面323aとなる。なお、壁板部323の投影面323aと壁板部322の投影面322aとの間の角度は、鈍角(90度より大きい角度)となるので、投影面323aは、フロントドア2bの開口10aを介して遊技者から視認可能となる。壁板部323の投影面323aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。   The wall plate portion 323 is formed of a plate-like member, and is formed continuously to the left side portion of the floor plate portion 321 and the left side portion of the wall plate portion 322. At this time, the wall plate portion 323 is continuous with the left side portion of the floor plate portion 321 and the left side portion of the wall plate portion 322 so that the angle between the surface of the wall plate portion 323 and the surface of the floor plate portion 321 becomes substantially perpendicular. It is formed. And the plane by the side of wall board part 324 of wall board part 323 turns into projection side 323a. In addition, since the angle between the projection surface 323a of the wall plate portion 323 and the projection surface 322a of the wall plate portion 322 is an obtuse angle (angle greater than 90 degrees), the projection surface 323a covers the opening 10a of the front door 2b. It becomes visible to the player through the game. Similar to the projection surface 321 a of the floor plate portion 321, image light which is emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 323 a of the wall plate portion 323.

壁板部324は、板状部材で構成され、床板部321の右辺部及び壁板部322の右辺部に連続して形成されている。この際、壁板部324の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部324が床板部321の右辺部及び壁板部322の右辺部に連続して形成される。そして、壁板部324の壁板部323側の平面が投影面324aとなる。なお、壁板部324の投影面324aと壁板部322の投影面322aとの間の角度は、鈍角(90度より大きい角度)となるので、投影面324aは、フロントドア2bの開口10aを介して遊技者から視認可能となる。壁板部324の投影面324aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。   The wall plate portion 324 is formed of a plate-like member, and is formed continuously to the right side portion of the floor plate portion 321 and the right side portion of the wall plate portion 322. At this time, the wall plate portion 324 is continuous with the right side portion of the floor plate portion 321 and the right side portion of the wall plate portion 322 so that the angle between the surface of the wall plate portion 324 and the surface of the floor plate portion 321 becomes substantially perpendicular. It is formed. And the plane by the side of wall board part 323 of wall board part 324 turns into projection side 324a. Since the angle between the projection surface 324a of the wall plate portion 324 and the projection surface 322a of the wall plate portion 322 is an obtuse angle (angle greater than 90 degrees), the projection surface 324a covers the opening 10a of the front door 2b. It becomes visible to the player through the game. Similar to the projection surface 321 a of the floor plate portion 321, image light which is emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 324 a of the wall plate portion 324.

本実施形態では、台形部材302の投影面321a,322a,323a,324aの一部の領域に映像光が投影される。そして、投影面321a,322a,323a,324aは、映像光が投影される投影領域と、映像光が投影されない非投影領域を有する。なお、投影面321a,322a,323a,324aの投影領域には、銀色(灰色)の塗料が塗布されている。一方、投影面321a,322a,323a,324aの非投影領域には、黒色の塗料が塗布されている。   In the present embodiment, the image light is projected onto a partial region of the projection surfaces 321 a, 322 a, 323 a and 324 a of the trapezoidal member 302. The projection planes 321a, 322a, 323a and 324a have projection areas on which the image light is projected and non-projection areas on which the image light is not projected. In addition, the paint of silver color (gray) is apply | coated to the projection area | region of projection surface 321a, 322a, 323a, 324a. On the other hand, black paint is applied to the non-projection areas of the projection planes 321a, 322a, 323a, 324a.

このように、投影面321a,322a,323a,324aの非投影領域に黒色の塗料を塗布することにより、非投影領域で光が反射することを抑制して、キャビネット2a内における光の乱反射を抑制することができる。また、非投影領域に黒色の塗料を塗布することにより、被投影部材の振動、回転、崩壊、形状変化、彩色変化、一部分の強調表現等が可能になる。   As described above, the black paint is applied to the non-projection areas of the projection surfaces 321a, 322a, 323a, 324a, thereby suppressing the reflection of the light in the non-projection areas and suppressing the irregular reflection of the light in the cabinet 2a. can do. In addition, by applying a black paint to the non-projection area, vibration, rotation, collapse, shape change, coloring change, highlighting of a part of the projection target member, etc. become possible.

(3)擬似リール部材
擬似リール部材303は、図8及び図9に示すように、円弧板部331と、一対の回動腕332A,332B(回動腕332Bは、後述の図11参照)とを備える。
(3) Pseudo Reel Member As shown in FIGS. 8 and 9, the pseudo reel member 303 includes an arc plate portion 331 and a pair of pivoting arms 332A and 332B (the pivoting arm 332B is described later with reference to FIG. 11). Equipped with

円弧板部331は、円弧状に延在した板体(側面の延在形状が円弧状である板体)で構成される。それゆえ、円弧板部331には、内周面331aと、外周面331bとが形成される。円弧板部331の内周面331aには、パチスロ1の機種に関連した装飾が設けられている。一方、外周面331bは、滑らかな曲面で構成され、プロジェクタ213から出射された映像光が投影される投影面となる(後述の図11参照)。また、円弧板部331の内周面331a及び外周面331bには、シルバー(又は灰色)の塗料が塗布されている。   The arc plate portion 331 is formed of a plate body extending in an arc shape (a plate in which the extension shape of the side surface is an arc shape). Therefore, the inner circumferential surface 331 a and the outer circumferential surface 331 b are formed in the arc plate portion 331. A decoration related to the model of the pachi slot 1 is provided on the inner circumferential surface 331 a of the arc plate portion 331. On the other hand, the outer peripheral surface 331 b is formed of a smooth curved surface, and is a projection surface on which the image light emitted from the projector 213 is projected (see FIG. 11 described later). In addition, a paint of silver (or gray) is applied to the inner peripheral surface 331 a and the outer peripheral surface 331 b of the arc plate portion 331.

一対の回動腕332A,332Bは、円弧板部331の円弧状の一対の側面部にそれぞれ連続して形成され、表面が略扇状の板体で構成される。一対の回動腕332A,332Bは、被投影部材移動機構305の後述する支持板351A,351Bにそれぞれ回動可能に支持されている。擬似リール部材303は、内周面331aが前方(遊技者側)に向く待機位置と、外周面331bが前方に向く露出位置との間で回動する。擬似リール部材303の動作については、後述の図11及び図12を参照して後で説明する。   The pair of pivoting arms 332A and 332B are respectively formed continuously on the pair of arc-shaped side portions of the arc plate portion 331, and is formed of a plate having a substantially fan-like surface. The pair of rotation arms 332A and 332B are rotatably supported by support plates 351A and 351B of the projection target member movement mechanism 305, which will be described later. The pseudo reel member 303 pivots between a standby position where the inner circumferential surface 331 a faces forward (to the player) and an exposure position where the outer circumferential surface 331 b faces forward. The operation of the pseudo reel member 303 will be described later with reference to FIGS. 11 and 12 described later.

(4)平面スクリーン部材
平面スクリーン部材304は、図8に示すように、表面が略長方形の板状部材で構成され、第1平面304a(図8上では下面)と、第2平面304b(図8上では上面)とを有する。平面スクリーン部材304の第1平面304aには、シルバー(又は灰色)の塗料が塗布されている。一方、第2平面304bには、白色の塗料が塗布され、第2平面304bは、プロジェクタ213から反射部材212を介して投射される映像光の投影面となる。
(4) Flat Screen Member As shown in FIG. 8, the flat screen member 304 is a plate member having a substantially rectangular surface, and has a first flat surface 304a (a lower surface in FIG. 8) and a second flat surface 304b (see FIG. 8). 8) and the upper surface). A silver (or gray) paint is applied to the first flat surface 304 a of the flat screen member 304. On the other hand, a white paint is applied to the second flat surface 304 b, and the second flat surface 304 b is a projection surface of image light projected from the projector 213 via the reflection member 212.

平面スクリーン部材304は、第1平面304aの面方向が斜め下方となる待機位置と、第2平面(投影面)304bの面方向が前方(遊技者側)となる露出位置との間を回動する。そして、平面スクリーン部材304が露出位置に配置されると、第2平面(投影面)304bに映像光が投影される。   The flat screen member 304 rotates between the standby position where the surface direction of the first flat surface 304 a is obliquely downward and the exposed position where the surface direction of the second flat surface (projection surface) 304 b is forward (player's side) Do. Then, when the flat screen member 304 is disposed at the exposed position, the image light is projected on the second plane (projection plane) 304 b.

平面スクリーン部材304は、被投影部材移動機構305の後述する一対のクランクアーム378A,378Bに支持され、この一対のクランクアーム378A,378Bの回動により、平面スクリーン部材304が回動する。なお、クランクアーム378A,378Bは、それぞれ、支持板351A,351Bに回動可能に支持されている。   The flat screen member 304 is supported by a pair of crank arms 378A and 378B described later of the projection target member moving mechanism 305, and the flat screen member 304 is rotated by the rotation of the pair of crank arms 378A and 378B. The crank arms 378A and 378B are rotatably supported by the support plates 351A and 351B, respectively.

(5)被投影部材移動機構
被投影部材移動機構305は、図8及び図9に示すように、支持板351A,351Bと、擬似リール部材移動機構352と、平面スクリーン部材移動機構353とを備える。
(5) Projected member moving mechanism The projected member moving mechanism 305 includes support plates 351A and 351B, a pseudo reel member moving mechanism 352, and a flat screen member moving mechanism 353, as shown in FIGS. .

支持板351A,351Bは、ともに、表面が縦長の略長方形の板状部材に構成され、支持板351A,351Bは互いに、左右方向(擬似リール部材303の長辺方向)に、適当な距離(台形部材302の幅より大きい間隔)をあけて対向して配置されている。また、支持板351A,351Bは、収納ケース301の台座部311の載置面311aに、ねじ等の固定部材を用いて固定されている。そして、支持板351Aと支持板351Bとの間には、擬似リール部材303が配置されている。   Both of the support plates 351A and 351B are configured as substantially rectangular plate members whose surfaces are vertically elongated, and the support plates 351A and 351B have an appropriate distance (trapezoid) in the left-right direction (the long side direction of the pseudo reel member 303). The space | interval which is larger than the width | variety of the member 302 opens, and is arrange | positioned facing each other. Further, the support plates 351A and 351B are fixed to the mounting surface 311a of the pedestal portion 311 of the storage case 301 using a fixing member such as a screw. The pseudo reel member 303 is disposed between the support plate 351A and the support plate 351B.

また、支持板351A,351Bは、それぞれ、擬似リール部材303の回動腕332A,332Bを回動可能に支持している。そして、支持板351A,351Bには、平面スクリーン部材移動機構353の後述するシャフト374が貫通する貫通孔と、擬似リール部材303における回動腕332A,332Bの回動軸335が貫通する貫通孔が設けられている。   Further, the support plates 351A and 351B rotatably support pivot arms 332A and 332B of the pseudo reel member 303, respectively. The support plates 351A and 351B have a through hole through which a shaft 374 of the flat screen member moving mechanism 353 passes and a through hole through which the pivot shaft 335 of the pivoting arms 332A and 332B in the pseudo reel member 303 penetrates. It is provided.

さらに、支持板351Bには、ストッパ355と、第1センサ356と、第2センサ357とが設けられている。ストッパ355は、擬似リール部材移動機構352の後述する駆動ギア362の回転範囲を制限するための部材である。第1センサ356は、平面スクリーン部材304を待機位置に移動させた場合に、平面スクリーン部材移動機構353の後述するクランクアーム378Bを検出する。第2センサ357は、平面スクリーン部材304を露出位置に移動させた場合に、平面スクリーン部材移動機構353の後述するクランクアーム378Bを検出する。   Further, a stopper 355, a first sensor 356, and a second sensor 357 are provided on the support plate 351B. The stopper 355 is a member for limiting the rotation range of a drive gear 362 described later of the pseudo reel member moving mechanism 352. The first sensor 356 detects a crank arm 378B, which will be described later, of the flat screen member moving mechanism 353 when the flat screen member 304 is moved to the standby position. The second sensor 357 detects a crank arm 378B described later of the flat screen member moving mechanism 353 when the flat screen member 304 is moved to the exposed position.

擬似リール部材移動機構352は、駆動モータ361と、駆動ギア362とを有する。駆動モータ361は、収納ケース301における右側壁314のモータ固定部314bに、ねじ等の固定部材を用いて固定されている。この際、駆動モータ361の回転軸(不図示)が、駆動ギア362と噛み合うように、駆動モータ361が右側壁314に取り付けられる。   The pseudo reel member moving mechanism 352 has a drive motor 361 and a drive gear 362. The drive motor 361 is fixed to the motor fixing portion 314 b of the right side wall 314 of the storage case 301 using a fixing member such as a screw. At this time, the drive motor 361 is attached to the right side wall 314 such that the rotation shaft (not shown) of the drive motor 361 meshes with the drive gear 362.

駆動ギア362は、表面が略半円状の歯車部材で構成され、支持板351Bに回転可能に支持されている。この駆動ギア362は、支持板351Bの収納ケース301の右側壁314に対向する面に配置されている。また、駆動ギア362の中心部には、擬似リール部材303の回動腕332B(後述の図11参照)の回動軸335が接続されている。   The drive gear 362 is configured by a gear member having a substantially semicircular surface, and is rotatably supported by the support plate 351B. The drive gear 362 is disposed on the surface of the support plate 351 B facing the right side wall 314 of the storage case 301. Further, at the central portion of the drive gear 362, a pivot shaft 335 of a pivot arm 332B (see FIG. 11 described later) of the pseudo reel member 303 is connected.

平面スクリーン部材移動機構353は、駆動モータ371と、中間ギア372,373と、シャフト374と、クランクギア375,376と、クランクアーム378A,378Bとを有する。駆動モータ371は、支持板351Bに、ねじ等の固定部材を用いて固定されている。この際、駆動モータ371の回転軸371aが、中間ギア372に噛み合うように、駆動モータ371が支持板351Bに取り付けられている。   The flat screen member moving mechanism 353 has a drive motor 371, intermediate gears 372, 373, a shaft 374, crank gears 375, 376, and crank arms 378A, 378B. The drive motor 371 is fixed to the support plate 351B using a fixing member such as a screw. At this time, the drive motor 371 is attached to the support plate 351 B such that the rotation shaft 371 a of the drive motor 371 meshes with the intermediate gear 372.

中間ギア372は、支持板351Bと、収納ケース301の右側壁314との間に配置されている。中間ギア372の中心部には、収納ケース301の右側壁314に設けられた貫通孔314a(図8参照)を貫通して突出したシャフト374の一方の端部が接続されている。   The intermediate gear 372 is disposed between the support plate 351 B and the right side wall 314 of the storage case 301. One end of a shaft 374 projecting through a through hole 314 a (see FIG. 8) provided in the right side wall 314 of the storage case 301 is connected to the central portion of the intermediate gear 372.

中間ギア373は、支持板351Aと、収納ケース301の左側壁313との間に配置されている。中間ギア373の中心部には、収納ケース301の左側壁313に設けられた貫通孔313a(図8参照)を貫通して突出したシャフト374の他方の端部が接続されている。   The intermediate gear 373 is disposed between the support plate 351 A and the left side wall 313 of the storage case 301. The other end of the shaft 374 projecting through a through hole 313 a (see FIG. 8) provided in the left side wall 313 of the storage case 301 is connected to the central portion of the intermediate gear 373.

シャフト374は、支持板351A,351Bを貫通して設けられ、支持板351A,351Bを回転可能に支持している。なお、中間ギア373は、上述のように、シャフト374を介して中間ギア372と接続されているので、中間ギア373は、中間ギア372と一緒に回転する。   The shaft 374 is provided to penetrate the support plates 351A and 351B, and rotatably supports the support plates 351A and 351B. Since intermediate gear 373 is connected to intermediate gear 372 via shaft 374 as described above, intermediate gear 373 rotates together with intermediate gear 372.

クランクギア375は、支持板351Bと、収納ケース301の右側壁314との間に配置されており、右側壁314に回転可能に支持されている。この際、クランクギア375は、中間ギア372と噛み合うように配置されている。また、中間ギア372の支持板351Bに対向する面には、クランクピン375aが形成されている。   The crank gear 375 is disposed between the support plate 351 B and the right side wall 314 of the storage case 301, and is rotatably supported by the right side wall 314. At this time, the crank gear 375 is disposed to mesh with the intermediate gear 372. A crank pin 375a is formed on the surface of the intermediate gear 372 facing the support plate 351B.

クランクギア376は、支持板351Aと、収納ケース301の左側壁313との間に配置されており、左側壁313に回転可能に支持されている。この際、クランクギア376は、中間ギア373と噛み合うように配置されている。また、中間ギア373の支持板351Aに対向する面には、クランクピン376aが形成されている。   The crank gear 376 is disposed between the support plate 351A and the left side wall 313 of the storage case 301, and is rotatably supported by the left side wall 313. At this time, the crank gear 376 is disposed to mesh with the intermediate gear 373. A crank pin 376a is formed on the surface of the intermediate gear 373 facing the support plate 351A.

クランクアーム378Aは、支持板351Aと、収納ケース301の左側壁313との間に配置されており、支持板351Aに回転可能に支持されている。クランクアーム378Aは、略L字状に延在した板状部材で構成されたアーム部381と、アーム部381の一方の端部に設けられた接続部382とを有する。   The crank arm 378A is disposed between the support plate 351A and the left side wall 313 of the storage case 301, and is rotatably supported by the support plate 351A. The crank arm 378 A has an arm portion 381 formed of a plate-like member extending in a substantially L shape, and a connection portion 382 provided at one end of the arm portion 381.

アーム部381には、支持板351Aに回転可能に係合する回動軸384と、直線状に延在した係合溝385とが設けられている。係合溝385は、アーム部381における収納ケース301の左側壁313と対向する面に設けられている。この係合溝385には、クランクギア376のクランクピン376aが摺動可能に係合している。   The arm portion 381 is provided with a pivot shaft 384 rotatably engaged with the support plate 351A, and a linearly extending engagement groove 385. The engagement groove 385 is provided on the surface of the arm portion 381 facing the left side wall 313 of the storage case 301. The crank pin 376 a of the crank gear 376 is slidably engaged with the engagement groove 385.

接続部382は、表面が長方形の板状部材で構成される。接続部382の一方の表面は、アーム部381に連続しており、他方の表面(平面)は、平面スクリーン部材304の第1平面304aに当接している(図8参照)。この接続部382は、平面スクリーン部材304の第1平面304aにねじ等の固定部材を用いて固定されている。   The connection portion 382 is formed of a plate-like member whose surface is rectangular. One surface of the connection portion 382 is continuous with the arm portion 381, and the other surface (plane) is in contact with the first flat surface 304a of the flat screen member 304 (see FIG. 8). The connection portion 382 is fixed to the first flat surface 304 a of the flat screen member 304 using a fixing member such as a screw.

クランクアーム378Bは、支持板351Bと、収納ケース301の右側壁314との間に配置されており、支持板351Bに回転可能に支持されている。クランクアーム378Bは、略L字状に延在した板状部材で構成されたアーム部391と、アーム部391の一方の端部に設けられた接続部392とを有する。   The crank arm 378B is disposed between the support plate 351B and the right side wall 314 of the storage case 301, and is rotatably supported by the support plate 351B. The crank arm 378 </ b> B includes an arm portion 391 formed of a substantially L-shaped plate-like member, and a connection portion 392 provided at one end of the arm portion 391.

アーム部391には、支持板351Aに回転可能に係合する回動軸(不図示)と、直線状に延在した係合溝395と、第1検出片396と、第2検出片397とが設けられている。係合溝395は、アーム部391における収納ケース301の右側壁314と対向する面に設けられている。この係合溝395には、クランクギア375のクランクピン375aが摺動可能に係合している。   The arm portion 391 has a pivot shaft (not shown) rotatably engaged with the support plate 351 A, a linearly extending engagement groove 395, a first detection piece 396, and a second detection piece 397. Is provided. The engagement groove 395 is provided on the surface of the arm portion 391 facing the right side wall 314 of the storage case 301. The crank pin 375a of the crank gear 375 is slidably engaged with the engagement groove 395.

第1検出片396は、接続部392と係合溝395との間の位置に設けられ、アーム部391の一方(図9上では、裏面側)の側部から外側に突出している。平面スクリーン部材移動機構353が平面スクリーン部材304を待機位置に移動させると、第1検出片396は、支持板351Bに設けられた第1センサ356により検出される。   The first detection piece 396 is provided at a position between the connection portion 392 and the engagement groove 395, and protrudes outward from the side of one of the arm portions 391 (on the back side in FIG. 9). When the flat screen member moving mechanism 353 moves the flat screen member 304 to the standby position, the first detection piece 396 is detected by the first sensor 356 provided on the support plate 351B.

第2検出片397は、第1検出片396の下方に設けられており、アーム部391の一方の側部から外側に突出している。平面スクリーン部材移動機構353が平面スクリーン部材304を露出位置に移動させると、第2検出片397は、支持板351Bに設けられた第2センサ357により検出される。   The second detection piece 397 is provided below the first detection piece 396 and protrudes outward from one side of the arm 391. When the flat screen member moving mechanism 353 moves the flat screen member 304 to the exposed position, the second detection piece 397 is detected by the second sensor 357 provided on the support plate 351B.

接続部392は、表面が長方形の板状部材で構成される。接続部392の一方の表面は、アーム部391に連続しており、他方の表面(平面)は、平面スクリーン部材304の第1平面304aに当接している(図8参照)。この接続部392は、平面スクリーン部材304の第1平面304aにねじ等の固定部材を用いて固定されている。   The connection portion 392 is formed of a plate-like member whose surface is rectangular. One surface of the connection portion 392 is continuous with the arm portion 391, and the other surface (plane) is in contact with the first flat surface 304a of the flat screen member 304 (see FIG. 8). The connection portion 392 is fixed to the first flat surface 304 a of the flat screen member 304 using a fixing member such as a screw.

[台形部材の使用時状態]
次に、台形部材302を映像光の投影対象としたときの状態について、図10を参照して説明する。図10は、台形部材302が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。なお、図5が、台形部材302が映像光の投影対象となっているときの被投影ブロック202の斜視図になる。
[Used state of trapezoidal member]
Next, a state in which the trapezoidal member 302 is a projection target of the image light will be described with reference to FIG. FIG. 10 is a longitudinal sectional view of the projection target block 202 when the trapezoidal member 302 is a projection target of image light. FIG. 5 is a perspective view of the projection target block 202 when the trapezoidal member 302 is the projection target of the image light.

台形部材302を映像光の投影対象とした状態では、図10に示すように、擬似リール部材303及び平面スクリーン部材304がそれぞれの待機位置に配置される。   In a state where the trapezoidal member 302 is a projection target of the image light, as shown in FIG. 10, the pseudo reel member 303 and the flat screen member 304 are disposed at the respective standby positions.

擬似リール部材303が待機位置に配置されると、擬似リール部材303は、台形部材302の後方に位置し、円弧板部331の内周面331aが前方を向いた状態となる。このとき、駆動ギア362の一方の半径部(一方の径方向側部)がストッパ355に当接する(図9参照)。そのため、被投影ブロック202を右側方(右側壁314側)から見た場合、駆動ギア362の右回り(時計回り)への回動がストッパ355によって係止されている。   When the pseudo reel member 303 is disposed at the standby position, the pseudo reel member 303 is positioned behind the trapezoidal member 302, and the inner circumferential surface 331a of the arc plate portion 331 is directed forward. At this time, one radial portion (one radial direction side) of the drive gear 362 abuts against the stopper 355 (see FIG. 9). Therefore, when the projected block 202 is viewed from the right side (the right side wall 314 side), the clockwise (clockwise) rotation of the drive gear 362 is locked by the stopper 355.

また、平面スクリーン部材304が待機位置に配置されると、平面スクリーン部材304は、台形部材302の上方に位置し、第1平面304aが下方を向いた状態となる。このとき、第1センサ356は、平面スクリーン部材移動機構353のクランクアーム378Bに設けられた第1検出片396を検出する。これにより、副制御回路150は、平面スクリーン部材304が待機位置に配置されたことを検知する。   When the flat screen member 304 is placed in the standby position, the flat screen member 304 is located above the trapezoidal member 302, and the first flat surface 304a is directed downward. At this time, the first sensor 356 detects the first detection piece 396 provided on the crank arm 378B of the flat screen member moving mechanism 353. Thereby, the sub control circuit 150 detects that the flat screen member 304 is disposed at the standby position.

待機位置に配置された擬似リール部材303及び平面スクリーン部材304(被投影部材)は、台形部材302とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、台形部材302が、フロントパネル10の開口10aに露出した状態となり、映像光の投影対象となる。   The pseudo reel member 303 and the flat screen member 304 (projected member) disposed at the standby position are not interposed between the trapezoidal member 302 and the opening 10 a (see FIG. 2) of the front panel 10. Therefore, in this state, as viewed from the player side, the trapezoidal member 302 is exposed to the opening 10 a of the front panel 10 and becomes a projection target of the image light.

投影対象となった台形部材302の投影面321a,322a,323a,324a(投影面324aは図8参照)には、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である台形部材302の各投影面に表示され、遊技者に視認可能となる。   The image light incident from the projector 213 of the projection block 201 via the reflection mirror 237 is projected onto the projection surfaces 321a, 322a, 323a, 324a of the trapezoidal member 302 which is the projection target (the projection surface 324a is shown in FIG. 8). Be done. Thereby, the video used for the effect is displayed on each projection surface of the trapezoidal member 302 which is the projection target, and can be visually recognized by the player.

本実施形態では、台形部材302の床板部321及び3つの壁板部322,323,324(壁板部324は図8参照)の投影面321a,322a,323a,324aに映像光を投影して、演出に用いる映像を表示する。これにより、コストを上昇させることなく、且つ、簡易な構成で映像に立体感や奥行きが感じられる斬新な演出を行うことができる。その結果、映像表示演出に対する遊技者の興趣を高めることができる。   In the present embodiment, image light is projected onto projection surfaces 321a, 322a, 323a, 324a of the floor plate portion 321 of the trapezoidal member 302 and the three wall plate portions 322, 323, 324 (the wall plate portion 324 is shown in FIG. 8). , Display the video used for the effect. As a result, it is possible to perform a novel effect that the stereoscopic effect and depth can be felt in the image with a simple configuration without raising the cost. As a result, the player's interest in the image display effect can be enhanced.

本実施形態では、被投影部材として適用した台形部材302は、投影される映像光の光軸に対して異なる角度で交差する4つの投影面を有する。しかしながら、本発明はこれに限定されず、本発明に係る被投影部材として、例えば、映像光の光軸に対して異なる角度で交差する2つ又は3つの投影面を有する被投影部材を用いてもよいし、映像光の光軸に対して異なる角度で交差する5つ以上の投影面を有する被投影部材を用いてもよい。   In the present embodiment, the trapezoidal member 302 applied as the projection target member has four projection planes intersecting at different angles with respect to the optical axis of the image light to be projected. However, the present invention is not limited thereto, and, for example, a projected member having two or three projection planes intersecting at different angles with respect to the optical axis of the image light may be used as the projected member according to the present invention. Alternatively, a projection target member having five or more projection planes intersecting at different angles with respect to the optical axis of the image light may be used.

また、本実施形態では、台形部材302を所定の位置に固定する構成例を示したが、本発明はこれに限定されない。本発明に係る台形部材として、例えば、プロジェクタから出射された映像光が投影されない待機位置と、プロジェクタから出射された映像光が投影される露出位置との間で移動可能な台形部材を用いてもよい。また、この場合、台形部材の移動態様としては、例えば、適当な軸を中心に回動する態様であってもよいし、直線移動する態様であってもよい。   Moreover, although the example of a structure which fixes the trapezoid member 302 in a predetermined position was shown in this embodiment, this invention is not limited to this. The trapezoidal member according to the present invention may be, for example, a trapezoidal member movable between a standby position where the video light emitted from the projector is not projected and an exposure position where the video light emitted from the projector is projected. Good. Further, in this case, as the movement mode of the trapezoidal member, for example, it may be a mode rotating around an appropriate axis or a mode moving linearly.

[擬似リール部材の動作]
次に、擬似リール部材303の動作について、図11及び図12を参照して説明する。図11は、擬似リール部材303が映像光の投影対象となっているときの被投影ブロック202の状態を示す図である。図12は、擬似リール部材303が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。
[Operation of pseudo reel member]
Next, the operation of the pseudo reel member 303 will be described with reference to FIG. 11 and FIG. FIG. 11 is a view showing a state of the projection target block 202 when the pseudo reel member 303 is a projection target of the image light. FIG. 12 is a longitudinal sectional view of the projection target block 202 when the pseudo reel member 303 is a projection target of the image light.

擬似リール部材303を映像光の投影対象とする場合には、擬似リール部材303を待機位置(図10に示す状態)から露出位置(図11及び図12に示す状態)へ移動させる。なお、この際、平面スクリーン部材304は、待機位置に配置された状態に維持される。   When the pseudo reel member 303 is a projection target of the image light, the pseudo reel member 303 is moved from the standby position (state shown in FIG. 10) to the exposure position (state shown in FIGS. 11 and 12). At this time, the flat screen member 304 is maintained in the standby position.

擬似リール部材303を露出位置へ移動させるには、擬似リール部材移動機構352の駆動モータ361を駆動し、図面上において被投影ブロック202を右側方(右側壁314側)から見て、駆動ギア362を左回り(反時計回り)に回転させる(図11中の太矢印参照)。   In order to move the simulated reel member 303 to the exposed position, the drive motor 361 of the simulated reel member moving mechanism 352 is driven, and the drive gear 362 is viewed from the right side (the right side wall 314 side) of the projection block 202 in the drawing. Is rotated counterclockwise (see thick arrows in FIG. 11).

駆動ギア362には、擬似リール部材303の回動腕332Bに設けられた回動軸335が接続されているので、駆動ギア362を左回りに回転させると、擬似リール部材303が待機位置から左回りに回動する。そして、駆動ギア362の他方の半径部がストッパ355に当接すると、駆動ギア362の左回りの回転がストッパ355によって係止される。その結果、図11及び図12に示すように、擬似リール部材303は、露出位置に配置される。   Since the drive gear 362 is connected to the rotation shaft 335 provided on the rotation arm 332B of the pseudo reel member 303, when the drive gear 362 is rotated counterclockwise, the pseudo reel member 303 is moved leftward from the standby position. Rotate around. Then, when the other radius of the drive gear 362 abuts against the stopper 355, the counterclockwise rotation of the drive gear 362 is locked by the stopper 355. As a result, as shown in FIGS. 11 and 12, the pseudo reel member 303 is disposed at the exposed position.

擬似リール部材303が露出位置に配置されると、擬似リール部材303により台形部材302の前方が覆われた状態となる。また、この際、待機位置に配置された平面スクリーン部材304は、擬似リール部材303とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、擬似リール部材303が、フロントパネル10の開口10aに露出した状態となり、映像光の投影対象となる。   When the pseudo reel member 303 is disposed at the exposed position, the front of the trapezoidal member 302 is covered by the pseudo reel member 303. Further, at this time, the flat screen member 304 disposed at the standby position is not interposed between the pseudo reel member 303 and the opening 10 a (see FIG. 2) of the front panel 10. Therefore, in this state, as viewed from the player side, the pseudo reel member 303 is exposed to the opening 10 a of the front panel 10 and becomes an image light projection target.

投影対象となった擬似リール部材303の外周面331b(以下、「投影面331b」という)には、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である擬似リール部材303に表示され、遊技者に視認可能となる。   Video light incident from the projector 213 of the projection block 201 via the reflection mirror 237 is projected onto the outer peripheral surface 331 b (hereinafter referred to as “projection surface 331 b”) of the pseudo reel member 303 to be projected. Thereby, the image used for the effect is displayed on the pseudo reel member 303 to be projected, and can be visually recognized by the player.

なお、擬似リール部材303を露出位置から待機位置へ移動させるには、擬似リール部材移動機構352の駆動モータ361を駆動して、図面上において被投影ブロック202を右側方から見て、駆動ギア362を右回り(時計回り)に回転させる。   In order to move the simulated reel member 303 from the exposed position to the standby position, the drive motor 361 of the simulated reel member moving mechanism 352 is driven, and the drive gear 362 is viewed from the right side of the projection block 202 in the drawing. Rotate clockwise (clockwise).

駆動ギア362が右回りに回転すると、擬似リール部材303が露出位置から右回りに回動する。そして、駆動ギア362の一方の半径部がストッパ355に当接すると(図9の状態)、駆動ギア362の右回りの回転がストッパ355によって係止される。その結果、図10に示すように、擬似リール部材303は、待機位置に配置される。   When the drive gear 362 rotates clockwise, the pseudo reel member 303 rotates clockwise from the exposed position. When one radius of the drive gear 362 abuts against the stopper 355 (the state shown in FIG. 9), the clockwise rotation of the drive gear 362 is locked by the stopper 355. As a result, as shown in FIG. 10, the pseudo reel member 303 is disposed at the standby position.

本実施形態では、擬似リール部材303の湾曲する投影面331bにリールを表す映像光を投影する。これにより、フロントパネル10(フロントドア2b)の開口10aに対向するキャビネット2a内に、リールが物理的に存在しているように見せることができる。その結果、コストを上昇させることなく、且つ、簡易な構成で映像に立体感や奥行きが感じられる斬新な演出を行うことができ、映像を表示する演出の興趣を高めることができる。   In the present embodiment, image light representing a reel is projected onto the curved projection surface 331 b of the pseudo reel member 303. Thereby, it is possible to make it appear that the reels physically exist in the cabinet 2a facing the opening 10a of the front panel 10 (front door 2b). As a result, it is possible to perform a novel effect in which a three-dimensional effect and depth can be felt in the image with a simple configuration without raising the cost, and the interest of the effect of displaying the image can be enhanced.

[平面スクリーン部材の動作]
次に、平面スクリーン部材304の動作について、図13及び図14を参照して説明する。図13は、平面スクリーン部材304が映像光の投影対象となっているときの被投影ブロック202の状態を示す図である。図14は、平面スクリーン部材304が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。
[Operation of flat screen member]
Next, the operation of the flat screen member 304 will be described with reference to FIGS. 13 and 14. FIG. 13 is a view showing a state of the projection target block 202 when the flat screen member 304 is a projection target of the image light. FIG. 14 is a longitudinal sectional view of the projection target block 202 when the flat screen member 304 is a projection target of image light.

平面スクリーン部材304を映像光の投影対象とする場合には、平面スクリーン部材304を待機位置(図10に示す状態)から露出位置(図13及び図14に示す状態)へ移動させる。なお、この際、擬似リール部材303は、待機位置に配置された状態に維持される。   When the flat screen member 304 is a projection target of image light, the flat screen member 304 is moved from the standby position (state shown in FIG. 10) to the exposure position (state shown in FIGS. 13 and 14). At this time, the pseudo reel member 303 is maintained in the standby position.

平面スクリーン部材304を露出位置へ移動させるには、平面スクリーン部材移動機構353の駆動モータ371を駆動し、図面上において被投影ブロック202を右側方(右側壁314側)から見て、中間ギア372を右回り(時計回り)に回転させる(図13中の太矢印参照)。   In order to move the flat screen member 304 to the exposed position, the drive motor 371 of the flat screen member moving mechanism 353 is driven, and the intermediate gear 372 is viewed from the right side (the right side wall 314 side) of the projection block 202 in the drawing. Is rotated clockwise (clockwise) (see thick arrows in FIG. 13).

中間ギア372には、シャフト374の一方の端部が接続されており、シャフト374の他方の端部には、中間ギア373(図9参照)が接続されている。そのため、図面上において被投影ブロック202を右側方から見て、中間ギア372が右回りに回転すると、中間ギア373も右回りに回転する。   One end of a shaft 374 is connected to the intermediate gear 372, and the other end of the shaft 374 is connected to an intermediate gear 373 (see FIG. 9). Therefore, when the intermediate gear 372 rotates clockwise when the projection block 202 is viewed from the right side in the drawing, the intermediate gear 373 also rotates clockwise.

中間ギア372,373が右回りに回転すると、図面上において被投影ブロック202を右側方から見て、クランクギア375,376(図9参照)が左回り(反時計回り)に回転する。また、クランクギア375のクランクピン375aは、クランクアーム378Bの係合溝395に係合しており、クランクギア376のクランクピン376aは、クランクアーム378Aの係合溝385に係合している。   When the intermediate gears 372 and 373 rotate clockwise, the crank gears 375 and 376 (see FIG. 9) rotate counterclockwise (counterclockwise) when the projection block 202 is viewed from the right side in the drawing. Further, the crank pin 375a of the crank gear 375 is engaged with the engagement groove 395 of the crank arm 378B, and the crank pin 376a of the crank gear 376 is engaged with the engagement groove 385 of the crank arm 378A.

したがって、クランクギア375,376(図9参照)が左回りに回転すると、クランクピン375a,376がそれぞれクランクアーム378A,378Bを左回り(反時計方向)に回転させるように押圧する。その結果、図面上において被投影ブロック202を右側方から見て、クランクアーム378A,378Bに接続された平面スクリーン部材304が待機位置から左回りに回動する。   Therefore, when the crank gears 375 and 376 (see FIG. 9) rotate counterclockwise, the crank pins 375a and 376 press the crank arms 378A and 378B to rotate counterclockwise (counterclockwise). As a result, when the projected block 202 is viewed from the right side in the drawing, the flat screen member 304 connected to the crank arms 378A and 378B pivots counterclockwise from the standby position.

そして、第2センサ357が、クランクアーム378Bの第2検出片397を検出すると、駆動モータ371の駆動が停止し、平面スクリーン部材304の回動が停止する。その結果、図13及び図14に示すように、平面スクリーン部材304は、露出位置に配置される。   Then, when the second sensor 357 detects the second detection piece 397 of the crank arm 378B, the drive of the drive motor 371 is stopped and the rotation of the flat screen member 304 is stopped. As a result, as shown in FIGS. 13 and 14, the flat screen member 304 is disposed at the exposed position.

平面スクリーン部材304が露出位置に配置されると、平面スクリーン部材304により台形部材302の前方が覆われた状態となる。また、この際、待機位置に配置された擬似リール部材303は、平面スクリーン部材304とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、平面スクリーン部材304が、フロントパネル10の開口10aに露出した状態となり、投影対象となる。   When the flat screen member 304 is placed in the exposed position, the flat screen member 304 covers the front of the trapezoidal member 302. At this time, the pseudo reel member 303 disposed at the standby position is not interposed between the flat screen member 304 and the opening 10 a (see FIG. 2) of the front panel 10. Therefore, in this state, as viewed from the player side, the flat screen member 304 is exposed to the opening 10 a of the front panel 10 and becomes a projection target.

投影対象となった平面スクリーン部材304の投影面304bには、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である平面スクリーン部材304に表示され、遊技者に視認可能となる。例えば、平面スクリーン部材304の平面である投影面304bに、2次元の映像を表す映像光を投影することにより、液晶表示装置などのフラットパネルを用いた表示装置で映像を表示したときと同様の映像を遊技者に見せることができる。   Video light incident from the projector 213 of the projection block 201 via the reflection mirror 237 is projected on the projection surface 304 b of the flat screen member 304 to be projected. Thereby, the image used for the effect is displayed on the flat screen member 304 which is the projection target, and can be visually recognized by the player. For example, by projecting image light representing a two-dimensional image on a projection surface 304b which is a flat surface of the flat screen member 304, the same as when an image is displayed on a flat panel display device such as a liquid crystal display device. The video can be shown to the player.

なお、平面スクリーン部材304を露出位置から待機位置へ移動させるには、平面スクリーン部材移動機構353の駆動モータ371を駆動し、図面上において被投影ブロック202を右側方から見て、中間ギア372,373を左回り(反時計回り)に回転させる。   In order to move the flat screen member 304 from the exposed position to the standby position, the drive motor 371 of the flat screen member moving mechanism 353 is driven, and the projection block 202 is viewed from the right side in FIG. Rotate 373 counterclockwise (counterclockwise).

中間ギア372,373が左回りに回転すると、図面上において被投影ブロック202を右側方から見て、クランクギア375,376(図9参照)が右回りに回転する。そして、クランクギア375,376が右回りに回転すると、クランクピン375a,376がそれぞれクランクアーム378A,378Bを右回りに回転させるように押圧する。その結果、図面上において被投影ブロック202を右側方から見て、クランクアーム378A,378Bに接続された平面スクリーン部材304が露出位置から右回りに回動する。   When the intermediate gears 372, 373 rotate counterclockwise, the crank gears 375, 376 (see FIG. 9) rotate clockwise when the projection block 202 is viewed from the right side in the drawing. Then, when the crank gears 375, 376 rotate clockwise, the crank pins 375a, 376 press the crank arms 378A, 378B so as to rotate clockwise. As a result, when the projected block 202 is viewed from the right side in the drawing, the flat screen member 304 connected to the crank arms 378A and 378B pivots clockwise from the exposed position.

その後、第1センサ356が、クランクアーム378Bの第1検出片396を検出すると、駆動モータ371の駆動が停止し、平面スクリーン部材304の回動が停止する。その結果、図10に示すように、平面スクリーン部材304は、待機位置に配置される。   Thereafter, when the first sensor 356 detects the first detection piece 396 of the crank arm 378B, the drive of the drive motor 371 is stopped and the rotation of the flat screen member 304 is stopped. As a result, as shown in FIG. 10, the flat screen member 304 is placed in the standby position.

なお、本実施形態では、上述のように、平面スクリーン部材304の投影面304bに白色の塗料が塗布されている。そして、平面スクリーン部材304の投影面304bに2次元の映像を表す映像光を投影する。白色及び銀色(灰色)は、少なくとも可視光線の反射率が約一定であり、白色は、銀色よりも光の反射率が高い。それゆえ、白色の投影面304bに投影された2次元の映像を、例えば、銀色の塗料を塗布した投影面304bに投影した2次元の映像よりも見えやすくすることができる。   In the present embodiment, as described above, the white paint is applied to the projection surface 304 b of the flat screen member 304. Then, image light representing a two-dimensional image is projected on the projection surface 304 b of the flat screen member 304. White and silver (grey) have at least a constant reflectance of visible light, and white has a higher light reflectance than silver. Therefore, it is possible to make the two-dimensional image projected on the white projection surface 304b more visible than, for example, the two-dimensional image projected on the projection surface 304b coated with the silver paint.

一方、台形部材302の投影面321a,322a,323a,324a、及び、擬似リール部材303の投影面331bに、銀色(灰色)の塗料が塗布されている。それゆえ、台形部材302の投影面321a,322a,323a,324a、及び、擬似リール部材303の投影面331bでは、これらの投影面に白色の塗料を塗布した場合よりも、3次元の映像をより立体的に見えるようにすることができる。   On the other hand, silver (grey) paint is applied to the projection surfaces 321 a, 322 a, 323 a, 324 a of the trapezoidal member 302 and the projection surface 331 b of the pseudo reel member 303. Therefore, in the projection surfaces 321a, 322a, 323a, 324a of the trapezoidal member 302 and the projection surface 331b of the pseudo reel member 303, a three-dimensional image is made more than when white paint is applied to these projection surfaces. It can be made to look three-dimensional.

<パチスロが備える制御系>
次に、パチスロ1が備える制御系について、図15を参照して説明する。図15は、パチスロ1の制御系の構成を示す回路ブロック図である。
<Control system equipped with Pachislot>
Next, a control system included in the pachi slot 1 will be described with reference to FIG. FIG. 15 is a circuit block diagram showing a configuration of a control system of pachi-slot 1.

パチスロ1は、ミドルドア41に設けられた主制御基板71と、フロントドア2bに設けられた副制御基板72とを有する。また、パチスロ1は、主制御基板71に接続された、リール中継端子板74、設定用鍵型スイッチ54(設定スイッチ)及びキャビネット側中継基板44を有する。さらに、パチスロ1は、キャビネット側中継基板44を介して主制御基板71に接続された外部集中端子板47、ホッパー装置51、メダル補助収納庫スイッチ75、リセットスイッチ76及び電源装置53を有する。なお、ホッパー装置51の構成については上述したので、ここでは、その説明を省略する。   The pachi slot 1 has a main control board 71 provided on the middle door 41 and a sub control board 72 provided on the front door 2b. The pachi slot 1 also has a reel relay terminal board 74, a setting key type switch 54 (setting switch) and a cabinet side relay board 44 connected to the main control board 71. Furthermore, the pachi slot 1 has an external concentrated terminal board 47 connected to the main control board 71 via the cabinet side relay board 44, a hopper device 51, a medal auxiliary storage switch 75, a reset switch 76 and a power supply device 53. In addition, since it mentioned above about the structure of the hopper apparatus 51, the description is abbreviate | omitted here.

リール中継端子板74は、各リール3L,3C,3Rのリール本体の内側に配設されている。リール中継端子板74は、各リール3L,3C,3Rのステッピングモータ(不図示)に電気的に接続されており、主制御基板71からステッピングモータに出力される信号を中継する。   The reel relay terminal board 74 is disposed inside the reel body of each of the reels 3L, 3C, 3R. The reel relay terminal board 74 is electrically connected to stepping motors (not shown) of the respective reels 3L, 3C, 3R, and relays signals outputted from the main control board 71 to the stepping motors.

設定用鍵型スイッチ54は、主制御基板ケース55に設けられる。設定用鍵型スイッチ54は、パチスロ1の設定(設定1〜設定6)を変更するとき、もしくは、パチスロ1の設定を確認するときに使用される。   The setting key type switch 54 is provided on the main control board case 55. The setting key type switch 54 is used when changing the setting (setting 1 to setting 6) of the pachi slot 1 or confirming the setting of the pachi slot 1.

キャビネット側中継基板44は、主制御基板71と、外部集中端子板47、ホッパー装置51、メダル補助収納庫スイッチ75、リセットスイッチ76及び電源装置53のそれぞれとを接続する配線が実装された中継基板である。外部集中端子板47は、メダル投入信号、メダル払出信号及びセキュリティ信号などの信号をパチスロ1の外部へ出力するために設けられる。メダル補助収納庫スイッチ75は、メダル補助収納庫52に設けられ、メダル補助収納庫52がメダルで満杯になっているか否かを検出する。リセットスイッチ76は、例えば、パチスロ1の設定を変更する際に用いられる。   The cabinet side relay board 44 is a relay board on which wiring for connecting the main control board 71, the external concentrated terminal plate 47, the hopper device 51, the medal auxiliary storage switch 75, the reset switch 76, and the power supply device 53 is mounted. It is. The external concentrated terminal plate 47 is provided to output signals such as a medal insertion signal, a medal payout signal, and a security signal to the outside of the pachi-slot 1. The medal auxiliary storage switch 75 is provided in the medal auxiliary storage 52, and detects whether the medal auxiliary storage 52 is full of medals. The reset switch 76 is used, for example, when changing the setting of the pachi slot 1.

電源装置53は、電源基板53bと、電源基板53bに接続された電源スイッチ53aとを有する。電源スイッチ53aは、パチスロ1に必要な電源を供給するときに押下される。電源基板53bは、キャビネット側中継基板44を介して主制御基板71に接続されるとともに、副中継基板61を介して副制御基板72にも接続される。   The power supply device 53 includes a power supply substrate 53 b and a power switch 53 a connected to the power supply substrate 53 b. The power switch 53 a is pressed to supply the necessary power to the pachi slot 1. The power supply substrate 53 b is connected to the main control substrate 71 via the cabinet side relay substrate 44, and is also connected to the sub control substrate 72 via the sub relay substrate 61.

また、パチスロ1は、ドア中継端子板68、並びに、該ドア中継端子板68を介して、主制御基板71に接続された、セレクタ66、ドア開閉監視スイッチ67、BETスイッチ77、精算スイッチ78、スタートスイッチ79、ストップスイッチ基板80、遊技動作表示基板81、副中継基板61、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402を有する。なお、セレクタ66、ドア開閉監視スイッチ67及び副中継基板61については、上述したので、ここでは、それらの説明を省略する。   The pachi slot 1 is connected to the main control board 71 via the door relay terminal board 68 and the door relay terminal board 68, the selector 66, the door open / close monitoring switch 67, the BET switch 77, the settlement switch 78, It has a start switch 79, a stop switch board 80, a game operation display board 81, a sub relay board 61, a first interface board 401 for a tester, and a second interface board 402 for a tester. Since the selector 66, the door open / close monitoring switch 67, and the sub relay board 61 have been described above, the description thereof is omitted here.

BETスイッチ77(投入操作検出手段)は、MAXベットボタン15a又は1ベットボタン15bが遊技者により押下されたことを検出する。精算スイッチ78は、精算ボタン(不図示)が遊技者により押下されたことを検出する。スタートスイッチ79(開始操作検出手段)は、スタートレバー16が遊技者により操作されたこと(開始操作)を検出する。   The BET switch 77 (input operation detection means) detects that the MAX bet button 15a or the 1 bet button 15b has been pressed by the player. The settlement switch 78 detects that the settlement button (not shown) has been pressed by the player. The start switch 79 (start operation detection means) detects that the player has operated the start lever 16 (start operation).

ストップスイッチ基板80(停止操作検出手段)は、回転しているメインリールを停止させるための回路と、停止可能なメインリールをLEDなどにより表示するための回路とを備える。また、ストップスイッチ基板80には、ストップスイッチ(不図示)が設けられる。ストップスイッチは、各ストップボタン17L,17C,17Rが遊技者により押下されたこと(停止操作)を検出する。   The stop switch substrate 80 (stop operation detection means) includes a circuit for stopping the rotating main reel and a circuit for displaying the stopable main reel by an LED or the like. In addition, the stop switch substrate 80 is provided with a stop switch (not shown). The stop switch detects that each stop button 17L, 17C, 17R has been pressed by the player (stop operation).

遊技動作表示基板81は、情報表示器6(7セグ表示器)及びLED82に接続される。LED82には、例えば、今回の遊技に投入されたメダルの枚数(以下、「投入枚数」という)に対応して点灯する、メダル投入枚数表示用の3つのLED(以下、「第1LED」〜「第3LED」という)や、遊技動作表示基板81から入力される信号に基づいて、メダル投入が可能であることを表示するマーク、遊技開始を表示するマーク、再遊技を行うマークなどを点灯させるLEDなどが含まれる。第1LED〜第3LED(表示手段)では、メダルが1枚投入されると、第1LEDが点灯し、メダルが2枚投入されると、第1及び第2LEDが点灯し、メダルが3枚(遊技開始可能枚数)投入されると、第1LED〜第3LEDが点灯する。なお、情報表示器6については、上述したので、ここでは、それらの説明を省略する。   The game operation display board 81 is connected to the information display 6 (7-segment display) and the LED 82. For example, three LEDs for displaying the number of inserted medals (hereinafter referred to as “first LED” to “the first LED”) are lighted corresponding to the number of medals inserted in the current game (hereinafter referred to as “inserted number”). Based on the signal input from the game operation display board 81), a mark indicating that the medal can be inserted, a mark indicating the start of the game, an LED to light the mark for performing the replay, etc. And so on. In the first to third LEDs (display means), when one medal is inserted, the first LED is turned on, and when two medals are inserted, the first and second LEDs are turned on, and three medals (game When the startable number of cards is inserted, the first to third LEDs light up. In addition, about the information display 6, since it mentioned above, those description is abbreviate | omitted.

試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402はともに、パチスロ1の検定試験(試射試験)において、遊技に関する各種信号を試験機に出力する際に用いられる中継基板である(なお、販売用のリリース製品としてのパチスロ1にはこれらの中継基板は搭載されていないので、販売用の主制御基板71の主制御回路90には、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402に接続するために必要な各種電子部品もまた実装されていない)。例えば、遊技に係る主要な動作(例えば、内部抽籤、リール停止制御等)を制御するための試験信号は、試験機用第1インターフェースボード401を介して出力され、例えば、主制御基板71で決定された押し順ナビに係る試験信号などは、試験機用第2インターフェースボード402を介して出力される。   The first interface board 401 for the test machine and the second interface board 402 for the test machine are both relay boards used when outputting various signals relating to the game to the test machine in the verification test (test shot test) of the pachislot 1 ( Since these relay boards are not mounted on Pachislot 1 as a release product for sale, the main control circuit 90 of the main control board 71 for sale includes the first interface board 401 for testing machine and the testing machine. The various electronic components required to connect to the second interface board 402 are also not mounted). For example, a test signal for controlling a main operation related to a game (for example, internal lottery, reel stop control, etc.) is output through the first interface board 401 for a test machine, and is determined by the main control board 71, for example. A test signal or the like relating to the push order navigation performed is output via the second interface board 402 for a tester.

副制御基板72は、ドア中継端子板68及び副中継基板61を介して主制御基板71に接続される。また、パチスロ1は、副中継基板61を介して副制御基板72に接続された、スピーカ群84、LED群85、24hドア開閉監視ユニット63、タッチセンサ19及び被投影部材移動機構305(表示ユニット)を有する。なお、タッチセンサ19及び被投影部材移動機構305については、上述したので、ここでは、その説明を省略する。   The sub control board 72 is connected to the main control board 71 via the door relay terminal board 68 and the sub relay board 61. The pachi slot 1 is connected to the sub control board 72 via the sub relay board 61, the speaker group 84, the LED group 85, the 24 h door opening / closing monitoring unit 63, the touch sensor 19, and the projection member moving mechanism 305 (display unit ). In addition, since the touch sensor 19 and the projection target member moving mechanism 305 have been described above, the description thereof is omitted here.

スピーカ群84は、スピーカ65L,65Rや図示しない各種スピーカを含んで構成される。LED群85は、フロントパネル10に設けられたランプ群21や、腰部パネル12の装飾パネルを背面側から照明するための光を出射する光源などを含んで構成される。24hドア開閉監視ユニット63は、ミドルドア41の開閉の履歴情報を保存する。また、24hドア開閉監視ユニット63は、ミドルドア41が開放されたときに、表示装置11によりエラー表示を行うための信号を副制御基板72(副制御回路150)に出力する。   The speaker group 84 is configured to include the speakers 65L and 65R and various speakers (not shown). The LED group 85 includes a lamp group 21 provided on the front panel 10, a light source for emitting light for illuminating the decorative panel of the waist panel 12 from the back side, and the like. The 24 h door opening and closing monitoring unit 63 stores history information of the opening and closing of the middle door 41. Further, when the middle door 41 is opened, the 24 h door opening / closing monitoring unit 63 outputs a signal for displaying an error by the display device 11 to the sub control board 72 (sub control circuit 150).

また、パチスロ1は、副制御基板72に接続された、ロムカートリッジ基板86及び表示装置中継基板87を有する。なお、ロムカートリッジ基板86及び表示装置中継基板87は、副制御基板72とともに副制御基板ケース57に収納されている。   Further, the pachi slot 1 has a ROM cartridge substrate 86 and a display device relay substrate 87 connected to the sub control substrate 72. The ROM cartridge substrate 86 and the display device relay substrate 87 are accommodated in the sub control substrate case 57 together with the sub control substrate 72.

ロムカートリッジ基板86は、サブCPU151により実行される各種制御プログラムと、演出用の画像(映像)、音声(スピーカ群84)、光(LED群85)及び通信のデータを管理するための基板である。なお、ロムカートリッジ基板86は、本発明に係る不揮発性記憶部(記憶部)の一具体例を示すものである。   The ROM cartridge substrate 86 is a substrate for managing various control programs to be executed by the sub CPU 151, and image (video) for effect, sound (speaker group 84), light (LED group 85), and communication data. . The ROM cartridge substrate 86 is a specific example of the non-volatile storage unit (storage unit) according to the present invention.

表示装置中継基板87は、副制御基板72と、表示装置11に含まれるプロジェクタ213、及び、サブ表示装置18との間の接続配線を中継する基板である。なお、プロジェクタ213及びサブ表示装置18については、上述したので、ここでは、それらの説明を省略する。   The display device relay substrate 87 is a substrate relaying connection wiring between the sub control substrate 72, the projector 213 included in the display device 11, and the sub display device 18. The projector 213 and the sub display device 18 have been described above, and thus the description thereof is omitted here.

<主制御回路>
次に、図16を参照して、主制御基板71に実装される主制御回路90の構成について説明する。図16は、パチスロ1の主制御回路90の構成例を示すブロック図である。
<Main control circuit>
Next, the configuration of the main control circuit 90 mounted on the main control board 71 will be described with reference to FIG. FIG. 16 is a block diagram showing a configuration example of the main control circuit 90 of the pachi-slot 1.

主制御回路90は、マイクロプロセッサ91と、クロックパルス発生回路92と、電源管理回路93と、スイッチングレギュレータ94(電源供給手段)とを備える。   The main control circuit 90 includes a microprocessor 91, a clock pulse generation circuit 92, a power management circuit 93, and a switching regulator 94 (power supply means).

マイクロプロセッサ91は、遊技機用のセキュリティ機能付きマイクロプロセッサである。なお、本実施形態のマイクロプロセッサ91では、ソースプログラム上で規定可能な該マイクロプロセッサ91に特有の様々な命令コード(メインCPU101専用命令コード)が設けられている。本実施形態では、このメインCPU101専用命令コードを用いることにより、処理の効率化やプログラム容量の削減などを実現している。マイクロプロセッサ91の内部構成については、後述の図17を参照して詳述する。   The microprocessor 91 is a microprocessor with a security function for a gaming machine. In the microprocessor 91 of the present embodiment, various instruction codes (main CPU 101 dedicated instruction codes) specific to the microprocessor 91 that can be defined on a source program are provided. In the present embodiment, by using the main CPU 101 dedicated instruction code, processing efficiency, program capacity reduction, and the like are realized. The internal configuration of the microprocessor 91 will be described in detail with reference to FIG. 17 described later.

クロックパルス発生回路92は、メインCPU作動用のクロックパルス信号を生成し、該生成したクロックパルス信号をマイクロプロセッサ91に出力する。マイクロプロセッサ91は、入力されたクロックパルス信号に基づいて、制御プログラムを実行する。   The clock pulse generation circuit 92 generates a clock pulse signal for operating the main CPU, and outputs the generated clock pulse signal to the microprocessor 91. The microprocessor 91 executes a control program based on the input clock pulse signal.

電源管理回路93は、電源基板53b(図15参照)から供給される直流12Vの電源電圧の変動を管理する。そして、電源管理回路93は、例えば、電源が投入された際(電源電圧が0Vから起動電圧値(10V)を上回った際)には、リセット信号をマイクロプロセッサ91の「XSRST」端子に出力し、電断が発生した際(電源電圧が12Vから停電電圧値(10.5V)を下回った際)には、電断検知信号をマイクロプロセッサ91の「XINT」端子に出力する。すなわち、電源管理回路93は、電源投入時に、マイクロプロセッサ91にリセット信号(起動信号)を出力する手段(起動手段)、及び、電断発生時に、マイクロプロセッサ91に電断検知信号(停電信号)を出力する手段(停電手段)も兼ねる。   The power supply management circuit 93 manages fluctuations in the power supply voltage of DC 12 V supplied from the power supply substrate 53b (see FIG. 15). Then, the power management circuit 93 outputs a reset signal to the “XSRST” terminal of the microprocessor 91, for example, when the power is turned on (when the power supply voltage exceeds the start voltage value (10 V) from 0 V). When a power failure occurs (when the power supply voltage falls from 12 V to a power failure voltage value (10.5 V)), a power failure detection signal is output to the “XINT” terminal of the microprocessor 91. That is, the power management circuit 93 outputs a reset signal (start signal) to the microprocessor 91 when the power is turned on (starting means), and a power failure detection signal (power failure signal) to the microprocessor 91 when a power failure occurs. Also serves as means for outputting (power failure means).

スイッチングレギュレータ94は、DC/DC変換回路であり、マイクロプロセッサ91の直流駆動電圧(直流5Vの電源電圧)を生成し、該生成した直流駆動電圧をマイクロプロセッサ91の「VCC」端子に出力する。   The switching regulator 94 is a DC / DC conversion circuit, generates a DC drive voltage (power supply voltage of 5 V DC) of the microprocessor 91, and outputs the generated DC drive voltage to the “VCC” terminal of the microprocessor 91.

<マイクロプロセッサ>
次に、図17を参照して、マイクロプロセッサ91の内部構成について説明する。図17は、マイクロプロセッサ91の内部構成を示すブロック図である。
<Microprocessor>
Next, with reference to FIG. 17, an internal configuration of the microprocessor 91 will be described. FIG. 17 is a block diagram showing an internal configuration of the microprocessor 91. As shown in FIG.

マイクロプロセッサ91は、メインCPU101と、メインROM102(第1記憶手段)と、メインRAM103(第2記憶手段)と、外部バスインターフェース104と、クロック回路105と、リセットコントローラ106と、演算回路107と、乱数回路110と、パラレルポート111と、割込みコントローラ112と、タイマー回路113と、第1シリアル通信回路114と、第2シリアル通信回路115と、を有する。そして、マイクロプロセッサ91を構成するこれらの各部は信号バス116を介して互いに接続されている。   The microprocessor 91 includes a main CPU 101, a main ROM 102 (first storage means), a main RAM 103 (second storage means), an external bus interface 104, a clock circuit 105, a reset controller 106, and an arithmetic circuit 107. The random number circuit 110, the parallel port 111, the interrupt controller 112, the timer circuit 113, the first serial communication circuit 114, and the second serial communication circuit 115 are included. The components constituting the microprocessor 91 are connected to one another via a signal bus 116.

メインCPU101は、クロック回路105で生成されたクロックパルスに基づいて、各種制御プログラムを実行して、遊技動作全般に係る制御を行う。ここで、メインCPU101の制御動作の一例としてリール停止制御について説明する。   The main CPU 101 executes various control programs based on the clock pulse generated by the clock circuit 105 to perform control related to the entire game operation. Here, reel stop control will be described as an example of the control operation of the main CPU 101.

メインCPU101は、リールインデックスを検出してから各リール3L,3C,3L(メインリール)のステッピングモータに対してパルスを出力した回数をカウントする。これにより、メインCPU101は、各リールの回転角度(主に、リールが図柄何個分だけ回転したか)を管理する。なお、リールインデックスとは、リールが一回転したことを示す情報である。このリールインデックスは、例えば、発光部及び受光部を有する光センサと、各リールの所定の位置に設けられ、各メインリールの回転により発光部と受光部との間に介在される検知片とを備えたリール位置検出部(不図示)により検出される。   The main CPU 101 counts the number of times the pulse is output to the stepping motor of each reel 3L, 3C, 3L (main reel) after detecting the reel index. Thereby, the main CPU 101 manages the rotation angle of each reel (mainly, how many reels the symbol has rotated). The reel index is information indicating that the reel has made one rotation. The reel index includes, for example, an optical sensor having a light emitting portion and a light receiving portion, and a detection piece provided at a predetermined position of each reel and interposed between the light emitting portion and the light receiving portion by rotation of each main reel. It is detected by the provided reel position detection unit (not shown).

ここで、各リール3L,3C,3L(メインリール)の回転角度の管理について、具体的に説明する。ステッピングモータに対して出力されたパルスの数は、メインRAM103に設けられたパルスカウンタによって計数される。そして、図柄1個分の回転に必要な所定回数のパルスの出力がパルスカウンタで計数される毎に、メインRAM103に設けられた図柄カウンタが1ずつ加算される。図柄カウンタは、各リールに応じて設けられている。図柄カウンタの値は、リール位置検出部(不図示)によってリールインデックスが検出されるとクリアされる。   Here, management of the rotation angles of the respective reels 3L, 3C, 3L (main reels) will be specifically described. The number of pulses output to the stepping motor is counted by a pulse counter provided in the main RAM 103. Then, each time the pulse counter counts the output of a predetermined number of pulses necessary for rotation for one symbol, the symbol counter provided in the main RAM 103 is incremented by one. A symbol counter is provided for each reel. The value of the symbol counter is cleared when a reel index is detected by a reel position detection unit (not shown).

すなわち、本実施形態では、図柄カウンタを管理することにより、リールインデックスが検出されてから図柄何個分の回転が行われたのかを管理する。したがって、各リールの各図柄の位置は、リールインデックスが検出される位置を基準として検出される。   That is, in this embodiment, by managing the symbol counter, it is managed how many symbol rotations have been performed since the reel index was detected. Therefore, the position of each symbol on each reel is detected with reference to the position where the reel index is detected.

メインROM102には、メインCPU101により実行される各種制御プログラム、各種データテーブル、副制御回路150に対して各種制御指令(コマンド)を送信するためのデータ等が記憶される。メインRAM103には、制御プログラムの実行により決定された内部当籤役等の各種データを格納する格納領域が設けられる。   The main ROM 102 stores various control programs executed by the main CPU 101, various data tables, data for transmitting various control instructions (commands) to the sub control circuit 150, and the like. The main RAM 103 is provided with a storage area for storing various data such as an internal winning combination determined by the execution of the control program.

外部バスインターフェース104は、マイクロプロセッサ91の外部に設けられた各種構成部(例えば、各リール等)が接続された外部信号バス(不図示)と、マイクロプロセッサ91とを電気的に接続するためのインターフェース回路である。クロック回路105は、例えば分周器(不図示)等を含んで構成され、クロックパルス発生回路92から入力されたCPU作動用のクロックパルス信号を、その他の構成部(例えば、タイマー回路113)で使用される周波数のクロックパルス信号に変換する。なお、クロック回路105で生成されたクロックパルス信号は、リセットコントローラ106にも出力される。   The external bus interface 104 electrically connects the microprocessor 91 to an external signal bus (not shown) to which various components (for example, respective reels and the like) provided outside the microprocessor 91 are connected. It is an interface circuit. The clock circuit 105 includes, for example, a frequency divider (not shown) and the like, and the clock pulse signal for CPU operation input from the clock pulse generation circuit 92 is divided into other components (for example, timer circuit 113). Convert to a clock pulse signal of the frequency used. The clock pulse signal generated by the clock circuit 105 is also output to the reset controller 106.

リセットコントローラ106は、電源管理回路93から入力されたリセット信号に基づいて、IAT(Illegal Address Trap)やWDT(watchdog timer)のリセットを行う。演算回路107は、乗算回路及び除算回路を含んで構成される。例えば、ソースプログラム上において、乗算命令(「MUL」命令)を実行するときには、演算回路107がこの命令に基づく乗算処理を実行する。   The reset controller 106 resets an IAT (Illegal Address Trap) or a WDT (watchdog timer) based on a reset signal input from the power management circuit 93. The arithmetic circuit 107 includes a multiplication circuit and a division circuit. For example, when executing a multiplication instruction ("MUL" instruction) on a source program, the arithmetic circuit 107 executes multiplication processing based on this instruction.

乱数回路110は、予め定められた範囲の乱数(例えば、0〜65535又は0〜255)を発生させる。また、図示しないが、乱数回路110は、2バイトのハードラッチ乱数を得るための乱数レジスタ0と、2バイトのソフトラッチ乱数を得るための乱数レジスタ1〜3と、1バイトのソフトラッチ乱数を得るための乱数レジスタ4〜7とで構成されている。なお、メインCPU101は、乱数回路110で発生させた所定範囲の乱数の中から1つの値を、例えば内部抽籤用の乱数値として抽出する。パラレルポート111は、マイクロプロセッサ91と、マイクロプロセッサ91の外部に設けられた各種回路(例えば、電源管理回路93等)との間で入出力される信号のポート(メモリーマップI/O)である。また、パラレルポート111は、乱数回路110及び割込みコントローラ112にも接続される。スタートスイッチ79はパラレルポート111のPI0〜PI4のいずれかの入力ポートに接続され、スタートスイッチ79がオン状態になったタイミング(オンエッジ)で、パラレルポート111から乱数回路110の乱数レジスタ0へラッチ信号が出力される。そして、乱数回路110では、ラッチ信号が入力されることにより乱数レジスタ0がラッチされ、2バイトのハードラッチ乱数が取得される。   The random number circuit 110 generates a random number (for example, 0 to 65535 or 0 to 255) within a predetermined range. Although not shown, the random number circuit 110 includes a random number register 0 for obtaining a 2-byte hard latch random number, a random number register 1 to 3 for obtaining a 2-byte soft latch random number, and a 1 byte soft latch random number. It consists of random number registers 4 to 7 for obtaining. The main CPU 101 extracts one value from the random numbers in the predetermined range generated by the random number circuit 110 as, for example, a random number value for internal lottery. The parallel port 111 is a port (memory map I / O) of a signal input / output between the microprocessor 91 and various circuits (for example, the power management circuit 93 etc.) provided outside the microprocessor 91. . The parallel port 111 is also connected to the random number circuit 110 and the interrupt controller 112. The start switch 79 is connected to any of PI0 to PI4 input ports of the parallel port 111, and the latch signal from the parallel port 111 to the random number register 0 of the random number circuit 110 at the timing (on edge) when the start switch 79 is turned on. Is output. Then, in the random number circuit 110, the random number register 0 is latched by inputting the latch signal, and a 2-byte hard latch random number is acquired.

割込みコントローラ112は、パラレルポート111を介して電源管理回路93から入力される電断検知信号、又は、タイマー回路113から1.1172ms周期で入力されるタイムアウト信号に基づいて、メインCPU101による割込処理の実行タイミングを制御する。電源管理回路93から電断検知信号が入力された場合、又は、タイマー回路113からタイムアウト信号が入力された場合には、割込みコントローラ112は、割込処理開始指令を示す割込要求信号をメインCPU101に出力する。メインCPU101は、タイマー回路113からのタイムアウト信号に応じて割込みコントローラ112から入力される割込要求信号に基づいて、入力ポートチェック処理、リール制御処理、通信データ送信処理、7セグLED駆動処理、タイマー更新処理等の各種割込処理を行う。   The interrupt controller 112 performs interrupt processing by the main CPU 101 based on the power failure detection signal input from the power management circuit 93 via the parallel port 111 or the time-out signal input from the timer circuit 113 in a cycle of 1.172 ms. Control the execution timing of When a power failure detection signal is input from the power supply management circuit 93, or when a time-out signal is input from the timer circuit 113, the interrupt controller 112 generates an interrupt request signal indicating an interrupt processing start command as the main CPU 101. Output to The main CPU 101 performs input port check processing, reel control processing, communication data transmission processing, 7 segment LED driving processing, timer based on an interrupt request signal input from the interrupt controller 112 in response to a time out signal from the timer circuit 113. Perform various interrupt processing such as update processing.

タイマー回路113(PTC)は、クロック回路105で生成されたクロックパルス信号(メインCPU作動用のクロックパルス信号を分周器(不図示)で分周された周波数のクロックパルス信号)で動作する(経過時間をカウントする)。そして、タイマー回路113は、1.1172msecの周期で割込みコントローラ112にタイムアウト信号(トリガー信号)を出力する。   The timer circuit 113 (PTC) operates with a clock pulse signal (clock pulse signal of a frequency obtained by dividing the clock pulse signal for operating the main CPU by a divider (not shown)) generated by the clock circuit 105 (a clock pulse signal). Count elapsed time). Then, the timer circuit 113 outputs a time-out signal (trigger signal) to the interrupt controller 112 in a cycle of 1.1172 msec.

第1シリアル通信回路114は、主制御基板71から副制御基板72にデータ(各種制御指令(コマンド))を送信する際のシリアル送信動作を制御する回路である。第2シリアル通信回路115は、主制御基板71から試験機用第2インターフェースボード402にデータを送信する際のシリアル送信動作を制御する回路である。   The first serial communication circuit 114 is a circuit that controls a serial transmission operation when transmitting data (various control commands (commands)) from the main control board 71 to the sub control board 72. The second serial communication circuit 115 is a circuit that controls a serial transmission operation when data is transmitted from the main control board 71 to the second interface board 402 for a tester.

<副制御回路>
[副制御回路の構成]
次に、図18を参照して、副制御基板72に実装される副制御回路150(副制御手段)の構成について説明する。図18は、パチスロ1の副制御回路150の構成例を示すブロック図である。
<Sub control circuit>
[Configuration of sub control circuit]
Next, with reference to FIG. 18, the configuration of the sub control circuit 150 (sub control means) mounted on the sub control board 72 will be described. FIG. 18 is a block diagram showing a configuration example of the sub control circuit 150 of the pachislot 1.

副制御回路150は、主制御回路90と電気的に接続されており、主制御回路90から送信されるコマンドに基づいて演出内容の決定や実行等の処理を行う。副制御回路150は、基本的に、サブCPU151、サブRAM152、GPU(Graphics Processing Unit)153、VRAM(Video RAM)154、ドライバ155を含んで構成される。なお、VRAM154(描画用RAM)には、後述のフレームバッファ及びスクリーンバッファが含まれる。なお、サブCPU151は、本発明に係る制御処理部の一具体例を示すものであり、GPU153は、本発明に係る画像処理部の一具体例を示すものであり、VRAM154は、揮発性記憶部の一具体例を示すものである。   The sub control circuit 150 is electrically connected to the main control circuit 90, and performs processing such as determination and execution of effects based on commands transmitted from the main control circuit 90. The sub control circuit 150 basically includes a sub CPU 151, a sub RAM 152, a GPU (Graphics Processing Unit) 153, a VRAM (Video RAM) 154, and a driver 155. The VRAM 154 (drawing RAM) includes a frame buffer and a screen buffer described later. The sub CPU 151 is a specific example of the control processing unit according to the present invention, the GPU 153 is a specific example of the image processing unit according to the present invention, and the VRAM 154 is a volatile storage unit Shows one specific example.

サブCPU151は、ロムカートリッジ基板86に接続される。また、ドライバ155は、表示装置中継基板87に接続される。すなわち、ドライバ155は、表示装置中継基板87を介してプロジェクタ213及びサブ表示装置18に接続される。   The sub CPU 151 is connected to the ROM cartridge substrate 86. Further, the driver 155 is connected to the display device relay substrate 87. That is, the driver 155 is connected to the projector 213 and the sub display 18 via the display relay board 87.

サブCPU151は、主制御回路90から送信されたコマンドに応じて、ロムカートリッジ基板86に記憶されている制御プログラムに従い、映像、音、光の出力の制御を行う。ロムカートリッジ基板86は、基本的に、プログラム記憶領域とデータ記憶領域とによって構成される。   The sub CPU 151 controls the output of video, sound and light according to the control program stored in the ROM cartridge substrate 86 in response to the command transmitted from the main control circuit 90. The ROM cartridge substrate 86 basically includes a program storage area and a data storage area.

プログラム記憶領域には、サブCPU151が実行する制御プログラムが記憶される。例えば、制御プログラムには、主制御回路90との通信を制御するための主基板通信タスクや、演出用の乱数値を抽出し、演出内容(演出データ)の決定及び登録を行うための演出登録タスクを実行するための各種プログラムが含まれる。また、制御プログラムには、決定した演出内容に基づいて表示装置11による映像の表示を制御する描画制御タスク、LED群85等の光源による光の出力を制御するランプ制御タスク、スピーカ群84による音の出力を制御する音声制御タスク等を実行するための各種プログラムも含まれる。   The program storage area stores a control program to be executed by the sub CPU 151. For example, in the control program, a main board communication task for controlling communication with the main control circuit 90 and a random value for effect are extracted, and effect registration (render data) is determined and registered. It contains various programs for performing tasks. Further, the control program includes a drawing control task for controlling the display of an image by the display device 11 based on the determined effect contents, a lamp control task for controlling light output by a light source such as the LED group 85, and a sound by the speaker group 84 Also included are various programs for executing a voice control task that controls the output of

データ記憶領域には、各種データテーブルを記憶する記憶領域、各演出内容を構成する演出データを記憶する記憶領域、映像の作成に関するアニメーションデータ(後述の画像データ及び仮想オブジェクトデータ等を含む)を記憶する記憶領域が含まれる。また、データ記憶領域には、BGMや効果音に関するサウンドデータを記憶する記憶領域、光の点消灯のパターンに関するランプデータを記憶する記憶領域等も含まれる。   The data storage area stores a storage area for storing various data tables, a storage area for storing effect data constituting each effect content, and animation data (including image data and virtual object data described later) relating to creation of video. Storage area is included. The data storage area also includes a storage area for storing sound data relating to BGM and sound effects, and a storage area for storing lamp data relating to a light on / off pattern.

サブRAM152には、決定された演出内容や演出データを登録する格納領域や、主制御回路90から送信されるサブフラグ(内部当籤役)等の各種データを格納する格納領域が設けられる。   The sub RAM 152 is provided with a storage area for registering the determined effect content and presentation data, and a storage area for storing various data such as a sub flag (internal winning combination) transmitted from the main control circuit 90.

サブCPU151、GPU153(レンダリングプロセッサ)、VRAM154及びドライバ155は、演出内容により指定されたアニメーションデータに従って映像を作成し、作成した映像を表示装置11(プロジェクタ213)及び/又はサブ表示装置18で表示させる。なお、表示装置11(プロジェクタ213)及びサブ表示装置18は、副制御基板72により、それぞれ個別に制御される。   The sub CPU 151, the GPU 153 (rendering processor), the VRAM 154, and the driver 155 create an image according to the animation data specified by the effect content, and display the created image on the display device 11 (projector 213) and / or the sub display device 18. . The display device 11 (projector 213) and the sub display device 18 are individually controlled by the sub control board 72.

また、サブCPU151は、演出内容により指定されたサウンドデータに従ってBGMなどの音をスピーカ群84により出力させる。また、サブCPU151は、演出内容により指定されたランプデータに従ってLED群85の点灯及び消灯を制御する。   Further, the sub CPU 151 causes the speaker group 84 to output a sound such as BGM in accordance with the sound data designated by the contents of the effect. Further, the sub CPU 151 controls lighting and extinguishing of the LED group 85 in accordance with the lamp data designated by the contents of the effect.

[演出登録タスク]
本実施形態のパチスロ1では、主制御回路90から送信されたコマンドデータを副制御回路150で受信した際に、副制御回路150は、受信したコマンドデータに基づいて、該コマンドデータの種別に対応する演出を決定し、表示装置11(プロジェクタ213)、サブ表示装置18、スピーカ群84、LED群85を駆動して演出制御を行う。
[Registration registration task]
In the pachislot 1 of the present embodiment, when the command data transmitted from the main control circuit 90 is received by the sub control circuit 150, the sub control circuit 150 copes with the type of the command data based on the received command data. The effect to be displayed is determined, and the effect control is performed by driving the display device 11 (projector 213), the sub display device 18, the speaker group 84, and the LED group 85.

ここで、図19を参照して、副制御回路150(サブCPU151)により実行される、コマンドデータの種別に対応する演出の決定タスク(演出登録タスク)について説明する。なお、図19は、本実施形態における演出登録タスクの処理手順を示すフローチャートである。   Here, with reference to FIG. 19, the determination task (effect registration task) of the effect corresponding to the type of command data, which is executed by the sub control circuit 150 (sub CPU 151), will be described. FIG. 19 is a flowchart showing the processing procedure of the effect registration task in the present embodiment.

まず、サブCPU151は、メッセージキューからメッセージを取り出す(S1)。次いで、サブCPU151は、メッセージキューにメッセージが有るか否かを判別する(S2)。S2において、サブCPU151が、メッセージキューにメッセージが無いと判別したとき(S2がNO判定の場合)、サブCPU151は、後述のS5の処理を行う。   First, the sub CPU 151 extracts a message from the message queue (S1). Next, the sub CPU 151 determines whether there is a message in the message queue (S2). When the sub CPU 151 determines in S2 that there is no message in the message queue (when the determination in S2 is NO), the sub CPU 151 performs the processing of S5 described later.

一方、S2において、サブCPU151が、メッセージキューにメッセージが有ると判別したとき(S2がYES判定の場合)、サブCPU151は、メッセージから遊技情報を複写する(S3)。この処理では、例えば、パラメータによって特定される、内部当籤役に関する情報(メイン抽籤フラグ等)、回転が停止したリールの種別、表示役、遊技状態フラグ等の各種データがサブRAM152に設けられた格納領域(不図示)に複写される。   On the other hand, when the sub CPU 151 determines in S2 that there is a message in the message queue (when the determination in S2 is YES), the sub CPU 151 copies game information from the message (S3). In this process, for example, information regarding an internal winning combination (such as a main lottery flag) specified by a parameter, a type of reel whose rotation has stopped, a display combination, and various data such as a game status flag are stored in the sub RAM 152 It is copied to the area (not shown).

次いで、サブCPU151は、演出内容決定処理を行う(S4)。この処理では、サブCPU151は、受信したコマンドの種別に応じて、演出内容の決定や演出データの登録等を行う。   Next, the sub CPU 151 performs effect content determination processing (S4). In this process, the sub CPU 151 performs determination of effect contents, registration of effect data, and the like according to the type of the received command.

S4の処理後又はS2がNO判定の場合、サブCPU151は、アニメーションデータの生成及び登録処理を行う(S5)。なお、アニメーションデータの生成及び登録処理は、S4の演出内容決定処理において登録された演出データ(演出内容)に基づいて行われる。本実施形態では、この処理の中で、各種被投影部材に投影される映像光の画像データの作成処理を行う。なお、各種被投影部材に投影される映像光の画像データ(後述のPJ対応画像データ)の作成処理については、後で詳述する。また、本実施形態では、S5の処理中に各種被投影部材に投影される映像光の画像データ(プロジェクタ213から出射される映像光に対応する映像信号)を生成する例を説明するが、本発明はこれに限定されず、例えば、S4の演出内容決定処理の中で実行してもよいし、アニメーションデータの生成処理と登録処理とを別個に実施してもよい。   After the process of S4 or when the determination of S2 is NO, the sub CPU 151 performs a process of generating and registering animation data (S5). The generation and registration process of the animation data is performed based on the effect data (effect content) registered in the effect content determination process of S4. In this embodiment, in this processing, processing of creating image data of image light projected onto various projection target members is performed. The process of creating image data (image data corresponding to PJ described later) of image light projected onto various projection target members will be described in detail later. Further, in the present embodiment, an example will be described in which image data (image signal corresponding to image light emitted from the projector 213) of image light projected onto various projection target members during the process of S5 is described. The invention is not limited to this, and may be performed, for example, in the effect content determination process of S4, or the animation data generation process and the registration process may be performed separately.

次いで、サブCPU151は、サウンドデータの登録処理を行う(S6)。次いで、サブCPU151は、ランプデータの登録を行う(S7)。なお、これらの登録処理は、S4の演出内容決定処理において登録された演出データ(演出内容)に基づいて行われる。そして、S7の処理後、サブCPU151は、処理をS1に戻し、S1以降の処理を繰り返す。   Next, the sub CPU 151 performs a registration process of sound data (S6). Next, the sub CPU 151 registers lamp data (S7). In addition, these registration processes are performed based on the effect data (effect content) registered in the effect content determination process of S4. Then, after the process of S7, the sub CPU 151 returns the process to S1, and repeats the processes after S1.

<画像データの作成手法>
次に、本実施形態のパチスロ1で実行される各種演出において、各種被投影部材(台形部材302、擬似リール部材303及び平面スクリーン部材304)の投影面に投影される映像光の画像データ(プロジェクタ213から出射される映像光に対応する映像信号)の作成手法について説明する。
<Method of creating image data>
Next, in various effects performed by the pachi slot 1 of the present embodiment, image data (projector of image light) projected on the projection surface of various projection target members (trapezoid member 302, pseudo reel member 303 and flat screen member 304) A method of creating a video signal corresponding to the video light emitted from 213 will be described.

[画像データの作成手法の概要]
図20A及び20Bを参照して、各種被投影部材に投影される映像光の画像データの作成手法の概要を説明する。なお、図20Aは、画像データの作成処理における画像データの変換過程を示す図であり、図20Bは、画像データの変換過程において実行される主な処理のフローを示す図である。
[Overview of image data creation method]
An outline of a method of creating image data of image light projected onto various projection target members will be described with reference to FIGS. 20A and 20B. FIG. 20A is a diagram showing a process of converting image data in the process of creating image data, and FIG. 20B is a diagram showing a flow of main processes performed in the process of transforming image data.

本実施形態における、各種被投影部材に投影される映像光の画像データ(後述のPJ対応画像データ)の作成手法では、図20Bに示すように、リソース画像・オブジェクト合成処理、視点変更画像データ取得・設定処理及びSB画像データ設定処理がこの順で実行される。以下、各処理の内容を説明する。   In the method of creating image data (image data corresponding to PJ described later) of image light projected onto various projection members in the present embodiment, as shown in FIG. 20B, resource image / object composition processing, viewpoint change image data acquisition The setting process and the SB image data setting process are executed in this order. The contents of each process will be described below.

(1)リソース画像・オブジェクト合成処理
リソース画像・オブジェクト合成処理では、まず、ロムカートリッジ基板86に格納された投影対象となる被投影部材(台形部材302、擬似リール部材303、平面スクリーン部材304)の仮想オブジェクトデータ(3次元データ)が選択(取得)される。なお、仮想オブジェクトデータは、例えば、被投影部材の3次元CADデータから生成(変換)されたデータであり、被投影部材の3次元構造(座標)を示すデータである。なお、仮想オブジェクトデータは、本発明に係る表示部に画像を表示するための情報の一具体例を示すものである。
(1) Resource image / object composition processing In the resource image / object composition processing, first, the projection target members (trapezoid member 302, pseudo reel member 303, flat screen member 304) to be projected stored in the ROM cartridge substrate 86 Virtual object data (three-dimensional data) is selected (acquired). The virtual object data is, for example, data generated (transformed) from three-dimensional CAD data of a projection target member, and is data indicating a three-dimensional structure (coordinates) of the projection target member. The virtual object data represents one specific example of information for displaying an image on the display unit according to the present invention.

また、リソース画像・オブジェクト合成処理では、被投影部材に投影する画像データのリソース画像データ(2次元データ)が、ロムカートリッジ基板86から選択(取得)される。なお、リソース画像データは、本発明に係る原画像データの一具体例を示すものである。   Further, in the resource image / object combining process, resource image data (two-dimensional data) of the image data to be projected onto the projection target member is selected (acquired) from the ROM cartridge substrate 86. The resource image data represents one specific example of the original image data according to the present invention.

仮想オブジェトデータ及びリソース画像データの選択処理は、サブCPU151により制御され、サブCPU151は、ロムカートリッジ基板86に格納されている複数種の画像データ及び複数種の仮想オブジェクトデータの中から、決定されている演出内容に対応するリソース画像データ及び仮想オブジェトデータをそれぞれ選択する。また、選択されたリソース画像データ及び仮想オブジェクトデータは、VRAM154内において、後述のフレームバッファ(FB)及びスクリーンバッファ(SB)以外のバッファ領域(仮想バッファ)に展開される。なお、仮想バッファは、本発明に係る第1のバッファの一具体例を示すものであり、フレームバッファは、本発明に係る第2のバッファ(所定のバッファ)の一具体例を示すものであり、スクリーンバッファは、本発明に係る第3のバッファ(特定のバッファ)の一具体例を示すものである。   The selection process of virtual object data and resource image data is controlled by the sub CPU 151, and the sub CPU 151 is determined from among plural types of image data and plural types of virtual object data stored in the ROM cartridge substrate 86. Resource image data and virtual object data corresponding to the contents of the rendering are selected. The selected resource image data and virtual object data are expanded in the VRAM 154 in buffer areas (virtual buffers) other than a frame buffer (FB) and a screen buffer (SB) described later. The virtual buffer represents one specific example of the first buffer according to the present invention, and the frame buffer represents one specific example of the second buffer (predetermined buffer) according to the present invention. The screen buffer is an example of a third buffer (specific buffer) according to the present invention.

次いで、サブ側の演算処理上の仮想空間(VRAM154)において、選択された仮想オブジェクトを配置する。具体的には、選択された仮想オブジェクトデータをVRAM154上に展開する。次いで、仮想空間上において、遊技者側から仮想オブジェクトに向かう方向(以下、「遊技者の目線方向」と称す:実際の遊技機では、表示装置カバー30及び表示装置11(図2、図3参照)と対向する遊技者側の位置からの方向)に、選択したリソース画像データの映像光が仮想オブジェクトの投影面に仮想的(擬似的)に照射(投影)された場合に、仮想オブジェクトの投影面に投影される(映し出される)画像の画像データ(以下、「仮想投影画像データ」と称す)を演算処理により算出(生成)する。この仮想投影画像データは、GPI153が仮想オブジェクトデータ及びリソース画像データに対して3次元CG処理(3次元座標計算等を含む)を施して両データを合成することにより生成される。この合成演算処理は、従来の3次元画像プログラミング等で使用されているアルゴリズムを用いて実行することができる。なお、仮想投影画像データは、本発明に係る第1の視点画像(所定の視点画像)のデータの一具体例を示すものであり、遊技者の目線方向は、本発明に係る第1の方向(所定の方向)の一具体例を示すものである。   Next, the selected virtual object is placed in the virtual space (VRAM 154) on the sub-side arithmetic processing. Specifically, the selected virtual object data is expanded on the VRAM 154. Next, in virtual space, the direction from the player side to the virtual object (hereinafter referred to as "line direction of player's eyes": in an actual gaming machine, the display cover 30 and the display 11 (see FIGS. 2 and 3) Projection of the virtual object when the video light of the selected resource image data is virtually (pseudo) irradiated (projected) on the projection surface of the virtual object in the direction from the position on the player side facing Image data (hereinafter referred to as “virtual projection image data”) of an image projected (projected) on a surface is calculated (generated) by arithmetic processing. The virtual projection image data is generated by the GPI 153 performing three-dimensional CG processing (including three-dimensional coordinate calculation and the like) on virtual object data and resource image data to combine the two data. This synthesis operation process can be performed using an algorithm used in conventional three-dimensional image programming and the like. The virtual projection image data represents one specific example of data of the first viewpoint image (predetermined viewpoint image) according to the present invention, and the player's gaze direction is the first direction according to the present invention. It shows one specific example of (predetermined direction).

なお、上述した仮想オブジェクトデータ及びリソース画像データの取得(展開)処理から両データの合成処理(仮想投影画像データの生成処理)までの一連の処理は、図20Bに示すリソース画像・オブジェクト合成処理で行われ、この処理は、サブCPU151の指令に基づいて、GPU153により実行される。また、このリソース画像・オブジェクト合成処理は、VRAM154上で行われる。   A series of processing from acquisition (expansion) processing of the virtual object data and resource image data described above to synthesis processing of both data (generation processing of virtual projection image data) is resource image / object composition processing shown in FIG. 20B. This process is performed by the GPU 153 based on an instruction from the sub CPU 151. Also, this resource image / object composition processing is performed on the VRAM 154.

GPU153により3次元空間座標を有する仮想オブジェクトデータと2次元空間座標を有するリソース画像データとを合成する際、リソース画像データの2次元座標を3次元座標に変換するが、この変換処理では、例えば、リソース画像データの全ての座標に対して順次、座標変換処理を施してもよいし、全座標数のうちの所定の基準数(例えば、全座標数のうちの半分等)の座標に対して座標変換処理を施してもよい。なお、後者の手法を採用する場合、例えば、1以上の座標を間に挟む所定の間隔で配置された座標に対して座標変換処理を施す。そして、座標変換処理が施された座標間に位置する座標の値は、例えば線形補間等の処理により算出される。また、後者の手法を採用する場合には、変換の基準数(座標数)を、GPU153の処理性能に応じた数(変換量)に設定することが望ましい。なお、GPU153の処理性能は、GPU153の処理速度と、GPU153が内包するコアの数(一般的なGPUのコア数は64〜2048程度である)とに応じて決定され、GPU153の処理性能が低い場合には、変換の基準数(座標数)を小さくし、GPU153の処理性能が十分高い低い場合には、変換の基準数(座標数)を大きくする。   When combining the virtual object data having three-dimensional space coordinates and the resource image data having two-dimensional space coordinates by the GPU 153, the two-dimensional coordinates of the resource image data are converted into three-dimensional coordinates. Coordinate conversion processing may be sequentially performed on all the coordinates of the resource image data, or coordinates on coordinates of a predetermined reference number of the total number of coordinates (for example, half of the total number of coordinates, etc.) A conversion process may be performed. When the latter method is adopted, for example, coordinate conversion processing is performed on coordinates arranged at a predetermined interval sandwiching one or more coordinates. Then, the value of the coordinates located between the coordinates subjected to the coordinate conversion process is calculated, for example, by a process such as linear interpolation. When the latter method is adopted, it is desirable to set the reference number (number of coordinates) of conversion to a number (conversion amount) according to the processing performance of the GPU 153. The processing performance of the GPU 153 is determined according to the processing speed of the GPU 153 and the number of cores included in the GPU 153 (the number of cores of a general GPU is about 64 to 2048), and the processing performance of the GPU 153 is low In this case, the reference number (number of coordinates) of conversion is reduced, and the reference number (number of coordinates) of conversion is increased when the processing performance of the GPU 153 is sufficiently high.

上述のように、本実施形態の仮想投影画像データの生成処理(リソース画像データと仮想オブジェクトデータとの合成処理)では、リソース画像内の所定数(全座標数又は所定の基準数)の2次元座標を、3次元CG処理により、直接、3次元座標に変換するので、例えば、仮想オブジェクト302pの4つの投影面321p,322p,323p,324p間の各境界部分(例えば、投影面322pの下辺部分と、投影面321pの上辺部分との間の境界部分等)における画像の歪みを最小限に抑えることができる。   As described above, in the process of generating virtual projection image data (combining process of resource image data and virtual object data) according to this embodiment, a predetermined number (total number of coordinates or a predetermined reference number) of two dimensions in the resource image Since the coordinates are directly converted to three-dimensional coordinates by three-dimensional CG processing, for example, each boundary portion between the four projection planes 321p, 322p, 323p, 324p of the virtual object 302p (for example, the lower side portion of the projection plane 322p) And distortion of the image at the boundary portion between the upper side portion of the projection surface 321p and the like).

なお、本実施形態では、仮想オブジェクトデータ及びリソース画像データをロムカートリッジ基板86から選択して取得し、該取得した両データをVRAM154上で合成する例を説明したが、本発明はこれに限定されない。例えば、まず、複数種の仮想オブジェクトデータ及び複数種のリソース画像データをロムカートリッジ基板86からVRAM154上の上述した仮想バッファ、フレームバッファ及びスクリーンバッファ以外の領域にローディングする(読み出する)。そして、ローディングされた複数種の仮想オブジェクトデータ及び複数種のリソース画像データの中から、所定の仮想オブジェクトデータ及び所定のリソース画像データを選択し、その後、該選択された両データを本実施形態と同様にして、仮想バッファ、フレームバッファ及びスクリーンバッファに展開して合成してもよい。また、この場合、ロムカートリッジ基板86に格納されている複数種のリソース画像データのうち、例えば、遊技状態や演出状態などに基づいて、対応する演出グループに属する複数のリソース画像データのみをローディングしてもよい。   In this embodiment, virtual object data and resource image data are selected from the ROM cartridge substrate 86 and acquired, and the acquired both data are combined on the VRAM 154. However, the present invention is not limited to this. . For example, first, a plurality of types of virtual object data and a plurality of types of resource image data are loaded (read) from the ROM cartridge substrate 86 to an area other than the above-described virtual buffer, frame buffer and screen buffer on the VRAM 154. Then, predetermined virtual object data and predetermined resource image data are selected from the plurality of types of loaded virtual object data and the plurality of types of resource image data, and then both of the selected data are selected according to the present embodiment. Similarly, it may be developed into a virtual buffer, a frame buffer and a screen buffer and synthesized. Also, in this case, among the plurality of types of resource image data stored in the ROM cartridge substrate 86, only the plurality of resource image data belonging to the corresponding effect group is loaded based on, for example, the gaming state and the effect state. May be

(2)視点変更画像データ取得・設定処理
視点変更画像データ取得・設定処理では、まず、仮想空間上で仮想オブジェクトの投影面に対して遊技者の目線方向からリソース画像データの映像光(投影光)が仮想投影された状態(仮想投影画像データが生成された状態)において、被投影部材の投影面に実際に入射される映像光の入射方向(以下、「実際の映像光の入射方向」と称す)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的(擬似的)に撮影したときの画像データ(以下、「仮想撮影画像データ」と称す)を演算処理により生成する。すなわち、仮想オブジェクトの投影面に対して遊技者の目線方向からリソース画像データの映像光が仮想投影された状態において、視点を変更して、仮想オブジェクトの投影面に仮想投影された画像のデータを算出する。なお、仮想撮影画像データは、本発明に係る第2の視点画像のデータの一具体例を示すものであり、実際の映像光の入射方向は、本発明に係る第2の方向の一具体例を示すものである。
(2) Viewpoint-Changed Image Data Acquisition / Setting Process In the viewpoint-changed image data acquisition / setting process, first, the visual light of the resource image data from the eye direction of the player with respect to the projection surface of the virtual object in the virtual space In the state where virtual projection image data is virtually projected (state in which virtual projection image data is generated), the incident direction of the image light actually incident on the projection surface of the projection target member (hereinafter referred to as “the actual incident direction of Image data (hereinafter referred to as “virtual captured image data”) when the virtual projected image captured on the projection surface of the virtual object is captured virtually (pseudo) is generated by arithmetic processing. That is, in a state in which the video light of the resource image data is virtually projected from the player's line of sight onto the projection plane of the virtual object, the viewpoint is changed and data of the image virtually projected onto the projection plane of the virtual object is changed. calculate. The virtual captured image data represents one specific example of the data of the second viewpoint image according to the present invention, and the actual incident direction of the image light is one specific example of the second direction according to the present invention. Is an indicator of

この仮想撮影処理では、まず、仮想空間において仮想オブジェクトに対する実際の映像光の入射方向が設定(セット)される。本実施形態では、実際の映像光の入射方向として、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に入射される映像光の入射方向、すなわち、反射ミラー237から被投影部材の投影面に向かう方向が設定される。   In this virtual shooting process, first, the incident direction of the actual image light to the virtual object in the virtual space is set (set). In this embodiment, the incident direction of the image light incident on the projection surface of the projection target member from the projector 213 via the reflection mirror 237 as the actual incident direction of the image light, that is, the projection of the projection member from the reflection mirror 237 The direction towards the face is set.

次いで、GPU153の3次元CG処理(実際の映像光の入射方向(仮想カメラの位置)からの座標計算等を含む)により、仮想オブジェクトの投影面に投影された仮想投影画像を、実際の映像光の入射方向側から仮想的に撮影した場合に得られる仮想撮像画像に変換する(VRAM154上に展開された仮想投影画像データを仮想撮像画像データに変換する)。なお、この仮想撮影画像データの生成処理(仮想投影画像データから仮想撮像画像データへの変換処理)は、従来の3次元画像プログラミング等で使用されているアルゴリズムを用いて実行することができる。   Next, the virtual projection image projected on the projection surface of the virtual object by the three-dimensional CG processing (including the coordinate calculation from the incident direction of the actual image light (the position of the virtual camera) of the GPU 153) It converts into the virtual captured image obtained when it image | photographs virtually from the incident direction side of (The virtual projection image data expand | deployed on VRAM154 is converted into virtual captured image data). The processing for generating the virtual captured image data (processing for converting virtual projected image data into virtual captured image data) can be executed using an algorithm used in conventional three-dimensional image programming or the like.

なお、本実施形態では、上述した仮想撮像画像データ生成時の視点変更処理及び仮想撮影画像データの生成処理は、図20Bに示す視点変更画像データ取得・設定処理で行われ、この処理は、サブCPU151の指令に基づいて、GPU153により実行される。また、この視点変更画像データ取得・設定処理は、VRAM154上で行われる。   In the present embodiment, the viewpoint change process and the virtual shot image data generation process at the time of the virtual captured image data generation described above are performed in the viewpoint change image data acquisition and setting process shown in FIG. 20B. It is executed by the GPU 153 based on an instruction of the CPU 151. Further, the viewpoint change image data acquisition / setting processing is performed on the VRAM 154.

ここで、図21に、仮想空間において、被投影部材の仮想オブジェクトの投影面に対して遊技者の目線方向から、リソース画像の映像光を仮想投影した場合の様子、及び、実際の映像光の入射方向から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影した場合の様子を示す。また、図22に、仮想空間上におけるリソース画像の仮想投影動作により生成される仮想投影画像の一具体例を示す。なお、図21及び図22では、映像光の投影対象の被投影部材が台形部材302である場合の例を示す。   Here, in FIG. 21, the state in the case where the video light of the resource image is virtually projected from the direction of the player's eyes on the projection surface of the virtual object in the virtual space in virtual space; The situation in the case where the virtual projection image projected on the projection plane of the virtual object is virtually photographed from the incident direction is shown. Further, FIG. 22 shows a specific example of a virtual projection image generated by a virtual projection operation of a resource image in a virtual space. FIGS. 21 and 22 show an example where the projection target of the image light is a trapezoidal member 302.

仮想空間上に配置された台形部材302の仮想オブジェクト302pに対して遊技者の目線方向(図21中の矢印A2方向)からリソース画像データの映像光を仮想投影すると、図21に示すように、仮想オブジェクト302pの4つの投影面321p,322p,323p,324pのそれぞれにリソース画像が仮想的に映し出された状態となり、仮想投影画像が生成される。この結果、リソース画像は、図22に示すように、台形部材302の投影面の形状が反映された奥行きのある3次元的な画像(仮想投影画像)に変換される。この仮想投影画像は、実空間において、遊技者側から台形部材302の投影面を見た場合に視認される実際の画像と同様の画像となる。なお、この際、映像光の投影対象が台形部材302や擬似リール部材303である場合には、その投影面の形状が3次元形状であるので、奥行きのある3次元的な仮想投影画像が得られるが、映像光の投影対象が平面スクリーン部材304である場合には、平面的な仮想投影画像が得られる。   As shown in FIG. 21, when the video light of the resource image data is virtually projected on the virtual object 302p of the trapezoidal member 302 disposed on the virtual space from the direction of the player's line of sight (direction of arrow A2 in FIG. 21), The resource image is virtually projected on each of the four projection planes 321p, 322p, 323p and 324p of the virtual object 302p, and a virtual projection image is generated. As a result, as shown in FIG. 22, the resource image is converted into a three-dimensional image (virtual projection image) having a depth in which the shape of the projection surface of the trapezoidal member 302 is reflected. The virtual projection image is an image similar to an actual image visually recognized when the projection surface of the trapezoidal member 302 is viewed from the player side in the real space. In this case, when the projection target of the image light is the trapezoidal member 302 or the pseudo reel member 303, since the shape of the projection plane is a three-dimensional shape, a three-dimensional virtual projected image having a depth is obtained. However, when the projection target of the image light is the flat screen member 304, a planar virtual projected image is obtained.

そして、台形部材302の仮想オブジェクト302pの4つの投影面321p,322p,323p,324pのそれぞれにリソース画像が仮想的に映し出された状態において、実際の映像光の入射方向(図21中の矢印A1方向)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影すると、仮想投影画像が矢印A1方向からの仮想撮影画像に変換される。   Then, in a state where the resource image is virtually projected on each of the four projection planes 321p, 322p, 323p and 324p of the virtual object 302p of the trapezoidal member 302, the incident direction of the actual image light (arrow A1 in FIG. When the virtual projection image projected on the projection surface of the virtual object is virtually photographed from the direction (a), the virtual projection image is converted into a virtual photographed image from the arrow A1 direction.

上述のように生成された仮想撮影画像に対応する映像光(投影光)を、実際に、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に投影した場合、実際の映像光の入射方向(反射ミラー237側)から被投影部材の投影面を見ると、該投影面に映し出されている画像は、仮想空間上で生成された仮想撮影画像と同様の画像になる。そして、この状況において、遊技者側から台形部材302の投影面を見た場合に見える実際の画像は、仮想空間上で生成された仮想投影画像と同様の画像になる。すなわち、仮想撮影画像データに対応する映像光(投影光)を、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に実際に投影すると、遊技者側からは、被投影部材の投影面の形状が反映された仮想投影画像と同様の投影画像(奥行きのある3次元画像)を見ることができる。   When image light (projection light) corresponding to the virtual captured image generated as described above is actually projected from the projector 213 via the reflection mirror 237 onto the projection surface of the projection target member, actual image light incidence When the projection surface of the projection target is viewed from the direction (reflection mirror 237 side), the image projected on the projection surface becomes an image similar to a virtual photographed image generated in the virtual space. Then, in this situation, the actual image seen when the projection surface of the trapezoidal member 302 is viewed from the player side is the same image as the virtual projection image generated in the virtual space. That is, when video light (projection light) corresponding to virtual photographed image data is actually projected from the projector 213 onto the projection surface of the projection target member via the reflection mirror 237, from the player side, the projection surface of the projection target member It is possible to view a projection image (a three-dimensional image with depth) similar to a virtual projection image in which the shape of is reflected.

なお、本実施形態において、上述したリソース画像データから仮想撮影画像データまでの一連の画像データ変換処理では、被投影部材の投影面のサイズ(スクリーンサイズ)に対応する画像データでなく、被投影部材の投影面のサイズの2倍のサイズの画像データが処理対象の画像データとして用いられる。   In the present embodiment, in the series of image data conversion processing from the resource image data to the virtual captured image data described above, not the image data corresponding to the size (screen size) of the projection surface of the projection target member but a projection target member Image data twice as large as the size of the projection plane is used as image data to be processed.

具体的には、処理対象の画像データとして、被投影部材の投影面に投影される画像(投影対象画像)の画像データの上端部に投影面のサイズと同じサイズのダミー画像データを付加した画像データ(仮想空間上において画像の高さ(上下)方向のサイズが投影対象画像のそれの2倍となる画像データ)を用いる。すなわち、上述したリソース画像データから仮想撮影画像データまでの一連の画像データ変換処理において処理対象となる画像データは、映像光の高さ方向の投影画角(視野角)を2倍にしたときのサイズの画像データ(以下、「2倍画角データ」ともいう)となる。それゆえ、例えば、スクリーン(投影面)のサイズ(投影される画像サイズ)が1280ピクセル(横)×800ピクセル(縦)である場合には、処理対象の画像データ(2倍画角データ)のサイズは、1280ピクセル(横)×1600ピクセル(縦)となる。   Specifically, an image obtained by adding dummy image data of the same size as the size of the projection plane to the upper end of the image data of the image (projection target image) to be projected onto the projection surface of the projection target Data (image data in which the size in the height (upper and lower) direction of the image in the virtual space is twice that of the projection target image) is used. That is, the image data to be processed in the series of image data conversion processing from the resource image data to the virtual captured image data described above has doubled the projection angle of view (viewing angle) in the height direction of the video light. It becomes image data of a size (hereinafter, also referred to as “double angle of view data”). Therefore, for example, when the size of the screen (projection plane) (projected image size) is 1280 pixels (horizontally) x 800 pixels (longitudinal), the image data to be processed (double view angle data) The size is 1280 pixels (horizontal) × 1600 pixels (vertical).

また、本実施形態では、ロムカートリッジ基板86に格納されているリソース画像データを予め2倍画角データで構成している。それゆえ、リソース画像・オブジェクト合成処理でリソース画像データを読み出す時点において、処理対象の画像データの態様は2倍画角データとなっている。ただし、本発明はこれに限定されず、ロムカートリッジ基板86に格納されているリソース画像データを投影対象画像のみを含む画像データ(スクリーン(投影面)サイズの画像データ)とし、リソース画像・オブジェクト合成処理において、読み出されたリソース画像データに、ダミー画像データを付加して2倍画角データを生成してもよい。   Further, in the present embodiment, the resource image data stored in the ROM cartridge substrate 86 is configured in advance as double angle-of-view data. Therefore, at the time of reading out resource image data in the resource image / object combining process, the aspect of the image data to be processed is the double angle-of-view data. However, the present invention is not limited to this, and resource image data stored in the ROM cartridge substrate 86 is used as image data (image data of screen (projection plane) size) including only a projection target image, resource image / object composition In processing, dummy image data may be added to the read resource image data to generate double angle-of-view data.

本実施形態において、処理対象の画像データとして上述した構成の2倍画角データを用いる理由は、次の通りである。通常、プロジェクタ213からの出射光を被投影部材の投影面に投影すると、プロジェクタ213の光学特性上、投影面に投影された映像の上端部又は下端部の中心に画像の歪みが発生する。これは、一般的なプロジェクタでは、予め、映像光を変則的な角度(短長辺が存在する台形状の画角)でスクリーンに投射することを前提として、投射用レンズが設計されているためである。なお、画像の歪みの発生位置(映像の上端部又は下端部の中心)は、例えば、筐体内部におけるプロジェクタ213の取り付け態様(プロジェクタ213の上(天井)面を上に向けて取り付けるか、下に向けて取り付けるか(逆さ付けか))や投射用レンズの使用領域(上半分又は下半分)などに応じて変化する。本実施形態のパチスロ1では、投影面に投影された映像の上端部中心に画像の歪みが発生するように投影ブロック201が構成されている例を説明する。   The reason for using the double angle-of-view data having the above-described configuration as the image data to be processed in the present embodiment is as follows. Normally, when the light emitted from the projector 213 is projected onto the projection surface of the projection target member, distortion of the image occurs at the center of the upper end or the lower end of the image projected onto the projection surface due to the optical characteristics of the projector 213. This is because, in a general projector, the projection lens is designed on the premise that the image light is projected onto the screen at an irregular angle (a trapezoidal angle of view with short sides) in advance. It is. Note that the position at which the distortion of the image occurs (the center of the upper end or lower end of the image) may be, for example, whether the projector 213 in the housing is attached with its top (ceiling) face up or down. It changes according to the use (upper half or lower half) of the lens for projection (inverted) or the use of the projection lens. In the pachi slot 1 of the present embodiment, an example will be described in which the projection block 201 is configured such that distortion of the image occurs at the center of the upper end of the image projected on the projection plane.

また、リソース画像データは、一般的には、液晶表示装置用のデータとして生成されていることが多く、本実施形態においてもリソース画像データは、液晶表示装置用のデータとして生成されている。そして、液晶表示装置では、画像の歪みは画面に中心位置に発生するので、GPU153(又はVDP)は、リソース画像データに対して画像の中心の歪みを抑制(補正)する処理を行っている。   Also, resource image data is generally generated as data for liquid crystal display devices in many cases, and resource image data is also generated as data for liquid crystal display devices in this embodiment. Then, in the liquid crystal display device, since distortion of the image occurs at the center position on the screen, the GPU 153 (or VDP) performs processing for suppressing (correcting) distortion of the center of the image with respect to the resource image data.

そこで、本実施形態のように、GPU153の処理対象データとして、仮想投影及び仮想撮影の対象となる画像(投影対象画像)の上部にダミー画像を設けた2倍画角データを用いた場合には、GPU153により、2倍画角データの画像の中心において画像の歪みを抑制(補正)するための処理が行われる。この場合、2倍画角データの画像の中心は、ダミー画像と投影対象画像との境界線上の中心になるので、投影対象画像の上端部の中心位置の画像の歪みが抑制(補正)される。この結果、プロジェクタ213により被投影部材の投影面に実際に映像が投影された際に映像の歪みが発生する位置の画像が補正される。なお、本実施形態では、この画像の歪みの補正処理を、フレームバッファに展開(格納)された2倍画角データに対して行うが、本発明はこれに限定されず、例えば、仮想バッファに展開された2倍画角データに対して画像の歪みの補正処理を行ってもよい。   Therefore, as in the present embodiment, in the case where double-view angle data in which a dummy image is provided above the image (projected image) to be subjected to virtual projection and virtual imaging is used as the process target data of the GPU 153. The GPU 153 performs processing for suppressing (correcting) distortion of the image at the center of the image of the double angle-of-view data. In this case, since the center of the image of the double angle-of-view data is the center of the boundary between the dummy image and the projection target image, distortion of the image at the center position of the upper end of the projection target image is suppressed (corrected) . As a result, when an image is actually projected on the projection surface of the projection target by the projector 213, an image at a position where distortion of the image occurs is corrected. In the present embodiment, the distortion correction processing of the image is performed on the double angle-of-view data expanded (stored) in the frame buffer, but the present invention is not limited to this. Image distortion correction processing may be performed on the expanded double angle-of-view data.

すなわち、本実施形態では、GPU153の処理対象データとして、上述した構成の2倍画角データを用いることにより、液晶表示装置用に生成されたリソース画像データ(2倍画角データ)における画像の歪みの発生位置(2倍画角データの中心)と、プロジェクタ213により実際に投射される画像において発生する歪みの位置(投影対象画像の上端部中心)とが一致するように調整されている。その結果、PJ対応画像データの生成処理の段階において、プロジェクタ213により被投影部材の投影面に実際に映像が投影された場合に発生する画像の歪みを予め抑制(補正)することが可能になり、高画質の演出映像を遊技者に提供することができる。   That is, in this embodiment, distortion of an image in resource image data (double view angle data) generated for a liquid crystal display device by using double view angle data of the above-described configuration as processing target data of the GPU 153 Is adjusted so that the generation position (center of double angle-of-view data) and the position of distortion generated in the image actually projected by the projector 213 (center of the upper end of the projection target image) coincide with each other. As a result, in the generation process of the PJ corresponding image data, it is possible to suppress (correct) the distortion of the image generated when the image is actually projected on the projection surface of the projection target by the projector 213 It is possible to provide the player with a high-quality presentation image.

なお、リソース画像データとして、例えば、プロジェクタ用のデータ(映像の上端部又は下端部の中心に歪みが発生する画像データ)を予め用意した場合には、リソース画像データから仮想撮影画像データまでの一連の画像データ変換処理において、ダミー画像を設けない等倍画角データを処理対象データとして用いてもよい。この場合には、GPU153により、等倍画角データの画像の上端部又は下端部の中心において画像の歪みを抑制(補正)するための処理が行われる。   When resource image data, for example, data for a projector (image data in which distortion occurs at the center of the upper end or the lower end of the image) is prepared in advance, a series from resource image data to virtual captured image data In the image data conversion processing of the above, same-magnification angle-of-view data not provided with a dummy image may be used as processing target data. In this case, the GPU 153 performs processing for suppressing (correcting) distortion of the image at the center of the upper end or lower end of the image of the same magnification angle of view data.

また、図20Bに示す視点変更画像データ取得・設定処理において生成された仮想撮影画像データは、VRAM154(描画用RAM)に設けられたフレームバッファ(FB)にセットされ、このセット処理は、GPU153(レンダリングプロセッサ)により制御される。なお、上述のように、フレームバッファ(FB)にセットされる画像データは、2倍画角データ(仮想撮影画像データ+ダミー画像データ)であるので、VRAM154に設定されるフレームバッファ(FB)のサイズ(仮想撮影画像データの格納領域のサイズ)もまた、被投影部材の投影面のサイズ(スクリーンサイズ)の2倍になる。   Also, the virtual captured image data generated in the viewpoint change image data acquisition and setting process shown in FIG. 20B is set in the frame buffer (FB) provided in the VRAM 154 (drawing RAM), and this set process Controlled by the rendering processor). As described above, since the image data set in the frame buffer (FB) is double angle-of-view data (virtual captured image data + dummy image data), the image data of the frame buffer (FB) set in the VRAM 154 The size (the size of the storage area of the virtual captured image data) is also twice the size of the projection surface of the projection target (screen size).

(3)SB画像データ設定処理
SB画像データ設定処理では、VRAM154のフレームバッファ(FB)にセットされた2倍画角データ(仮想撮影画像データ+ダミー画像データ)のうち、投影対象画像の画像データ、すなわち、仮想撮影画像データのみが、VRAM154に設けられたスクリーンバッファ(SB)に転送される。具体的には、フレームバッファの格納領域内において仮想撮影画像データが格納された領域の画像データがスクリーンバッファにコピーされる(ダミー画像データはスクリーンバッファに転送されない)。
(3) SB image data setting process In the SB image data setting process, image data of an image to be projected among double angle-of-view data (virtual captured image data + dummy image data) set in the frame buffer (FB) of VRAM 154 That is, only virtual photographed image data is transferred to the screen buffer (SB) provided in the VRAM 154. Specifically, image data of an area where virtual captured image data is stored in the storage area of the frame buffer is copied to the screen buffer (dummy image data is not transferred to the screen buffer).

これにより、被投影部材の投影面に実際に投影される映像光の画像データ(以下、「PJ対応画像データ」という)が生成されて、PJ対応画像データがVRAM154のスクリーンバッファに格納される。なお、このPJ対応画像データを生成するための処理(仮想撮影画像データのスクリーンバッファへの転送処理)は、GPU153により制御される。また、PJ対応画像データは処理対象の画像データの1/2のサイズとなるので、PJ対応画像データがセットされるVRAM154のスクリーンバッファのサイズを、フレームバッファのサイズの1/2にすることができる。   Thereby, image data (hereinafter referred to as “PJ corresponding image data”) of the video light actually projected on the projection surface of the projection target member is generated, and the PJ corresponding image data is stored in the screen buffer of the VRAM 154. Note that the processing for generating the PJ compliant image data (processing for transferring virtual captured image data to the screen buffer) is controlled by the GPU 153. In addition, since the PJ compliant image data is 1/2 the size of the image data to be processed, the screen buffer size of the VRAM 154 in which the PJ compliant image data is set should be 1/2 the frame buffer size. it can.

ここで、図23に、SB画像データ設定処理の概要を示す。図20Bに示す視点変更画像データ取得・設定処理において、仮想撮影画像データがVRAM154のフレームバッファ(FB)にセットされると、図23面上において、フレームバッファ(FB)の上半分の領域にダミー画像データが格納され、下半分の領域に仮想撮影画像データが格納される。次いで、図20B中のSB画像データ設定処理が行われると、フレームバッファ内の仮想撮影画像データが格納されている領域のデータのみが、VRAM154のスクリーンバッファ(SB)に転送(コピー)され、該転送された画像データがPJ対応画像データとしてセットされる。   Here, FIG. 23 shows an outline of the SB image data setting process. When virtual captured image data is set in the frame buffer (FB) of the VRAM 154 in the viewpoint-changed image data acquisition / setting process shown in FIG. 20B, the upper half area of the frame buffer (FB) is dummy on the plane of FIG. Image data is stored, and virtually captured image data is stored in the lower half area. Next, when the SB image data setting process in FIG. 20B is performed, only the data of the area in the frame buffer where the virtual captured image data is stored is transferred (copied) to the screen buffer (SB) of the VRAM 154 The transferred image data is set as PJ compliant image data.

その後、スクリーンバッファにセットされたPJ対応画像データは、映像信号(例えば、「V−by−one(登録商標)」、「Display Port(登録商標)」、「LVDS」、「Clockless Link(登録商標)」、アナログRGBコンポーネント映像信号等のインターフェース仕様の映像信号)に変換され、該映像信号がプロジェクタ213に出力される。そして、プロジェクタ213は、入力された映像信号に基づいて、PJ対応画像データに対応する映像光を出射する。本実施形態では、上述のようにして、被投影部材の投影面に実際に投影される映像光の画像データ(PJ対応画像データ)を生成する。なお、以下では、上述した本実施形態のPJ対応画像データ(及びその映像信号)の生成手法を「仮想投影撮影法」と称す。   After that, the PJ compliant image data set in the screen buffer is a video signal (eg, "V-by-one (registered trademark)", "Display Port (registered trademark)", "LVDS", "Clockless Link (registered trademark) And an interface specification video signal such as an analog RGB component video signal), and the video signal is output to the projector 213. Then, the projector 213 emits video light corresponding to the PJ compatible image data based on the input video signal. In the present embodiment, as described above, image data (PJ corresponding image data) of image light to be actually projected on the projection surface of the projection target member is generated. Hereinafter, the method of generating the PJ-compatible image data (and the video signal thereof) according to the above-described embodiment will be referred to as “virtual projection photography method”.

[被投影部材の可動時のPJ対応画像データの生成概要]
上記図21〜図23では、PJ対応画像データの生成例として、映像光の投影対象の被投影部材が台形部材302(単一で被可動の被投影部材)のみである例を説明したが、本発明はこれに限定されない。例えば、上述した仮想投影撮影法によるPJ対応画像データの生成手法は、例えば、投影対象の被投影部材が切り替わる過程の演出において映像光を投影する場合にも適用することができる。
[Outline of Generation of PJ-Compatible Image Data When Projected Member Moves]
In the above-described FIGS. 21 to 23, as an example of generation of PJ corresponding image data, an example in which the projection target member of the image light is only the trapezoidal member 302 (single projection target movable member) has been described. The present invention is not limited to this. For example, the method of generating PJ corresponding image data by the virtual projection photographing method described above can also be applied, for example, in the case of projecting image light in an effect of a process in which a projection target member is switched.

ここで、図24A〜24Eを参照して、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる過程におけるPJ対応画像データの生成概要を説明する。図24A〜24Eは、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる過程において、仮想空間上で配置される、台形部材302の仮想オブジェクト302pと擬似リール部材303の仮想オブジェクト303pとの間の位置関係の時間変化(時系列変化)を示す図である。   Here, with reference to FIGS. 24A to 24E, an outline of generation of PJ corresponding image data in the process of switching the projection target member from the trapezoidal member 302 to the pseudo reel member 303 will be described. 24A to 24E show the virtual object 302p of the trapezoidal member 302 and the virtual object 303p of the pseudo reel member 303, which are disposed on the virtual space in the process of switching the projection target member from the trapezoidal member 302 to the pseudo reel member 303. And the time change (time-series change) of the positional relationship between

なお、図24A〜24Eでは、台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を明確にするため、擬似リール部材303の仮想オブジェクト303pを簡略化して示す。具体的には、擬似リール部材303の仮想オブジェクト303pのサイズを実際のサイズ(図11及び図12参照)より小さくして示している。   In FIGS. 24A to 24E, in order to clarify the positional relationship between the virtual object 302p of the trapezoidal member 302 and the virtual object 303p of the pseudo reel member 303, the virtual object 303p of the pseudo reel member 303 is simplified and shown. Specifically, the size of the virtual object 303p of the pseudo reel member 303 is shown to be smaller than the actual size (see FIGS. 11 and 12).

図24Aは、台形部材302から擬似リール部材303への切り替え開始後(擬似リール部材303の駆動開始後)、遊技者側から見て擬似リール部材303が台形部材302の上部に見え始めるような位置まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Bは、擬似リール部材303が台形部材302の上部まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Cは、擬似リール部材303が台形部材302の上方前面部付近まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Dは、擬似リール部材303が台形部材302の前面に移動開始したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。そして、図24Eは、擬似リール部材303が台形部材302の前面(投影面)を覆うような位置に移動し、台形部材302から擬似リール部材303への被投影部材の切り替え動作が終了したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。   In FIG. 24A, after the start of switching from the trapezoidal member 302 to the pseudo reel member 303 (after the start of driving of the pseudo reel member 303), the position where the pseudo reel member 303 starts to appear above the trapezoidal member 302 as viewed from the player side. It is a figure which shows the positional relationship between the virtual object 302p of the trapezoid member 302, and the virtual object 303p of the pseudo | simulation reel member 303 when moving to it. FIG. 24B is a view showing the positional relationship between the virtual object 302 p of the trapezoidal member 302 and the virtual object 303 p of the pseudo reel member 303 when the pseudo reel member 303 has moved to the top of the trapezoidal member 302. FIG. 24C is a view showing the positional relationship between the virtual object 302 p of the trapezoidal member 302 and the virtual object 303 p of the pseudo reel member 303 when the pseudo reel member 303 has moved to the vicinity of the upper front surface of the trapezoidal member 302. FIG. 24D is a view showing the positional relationship between the virtual object 302 p of the trapezoidal member 302 and the virtual object 303 p of the pseudo reel member 303 when the pseudo reel member 303 starts moving toward the front surface of the trapezoidal member 302. 24E shows the case where the pseudo reel member 303 moves to a position where it covers the front surface (projection surface) of the trapezoidal member 302, and the operation of switching the projection target from the trapezoidal member 302 to the pseudo reel member 303 is completed. FIG. 7 is a diagram showing a positional relationship between a virtual object 302p of a trapezoidal member 302 and a virtual object 303p of a pseudo reel member 303.

このように、擬似リール部材303(可動被投影部材)が台形部材302の前面に移動する場合には、まず、所定間隔のタイミング毎(時系列毎)に、対応する位置に移動した擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとを合成した仮想オブジェクト(以下、「合成仮想オブジェクト」という)の仮想オブジェクトデータ(以下、「合成仮想オブジェクトデータ」という)を取得する。例えば、図24A〜24Eのそれぞれにおいて、対応する位置に移動した動作中の擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとの合成仮想オブジェクトデータを取得する。   As described above, when the pseudo reel member 303 (movable projection member) moves to the front surface of the trapezoidal member 302, first, the pseudo reel member moved to the corresponding position at each predetermined interval (every time series). Virtual object data (hereinafter referred to as “combined virtual object data”) of a virtual object (hereinafter referred to as “combined virtual object”) obtained by combining the virtual object 303p of 303 and the virtual object 302p of the trapezoidal member 302 is acquired. For example, in each of FIGS. 24A to 24E, composite virtual object data of the virtual object 303p of the operating pseudo reel member 303 moved to the corresponding position and the virtual object 302p of the trapezoidal member 302 is acquired.

なお、仮想空間上において、仮想オブジェクト303pを、対応する位置に移動させるための制御手法は次の通りである。まず、擬似リール部材303を図24Aの状態から図24Eの状態まで移動させる際に駆動される駆動モータ361のパルス出力データ(不図示)に基づいて生成され、かつ、映像を表示するためのフレームレート(本実施形態では30fps)に対応した擬似リール部材303の移動角の時系列データ(以下、「移動角データ」)を取得する。次いで、取得された移動角データを用いて、GPU153の3次元CG処理(3次元座標計算等を含む)により、所定間隔のタイミング毎(例えばフレーム毎)に、対応する位置に仮想オブジェクト303pを移動させ、該移動した仮想オブジェクト303pのデータ(仮想オブジェクトデータ)を生成する。   The control method for moving the virtual object 303p to the corresponding position in the virtual space is as follows. First, a frame generated based on pulse output data (not shown) of the drive motor 361 which is driven when moving the pseudo reel member 303 from the state of FIG. 24A to the state of FIG. Time series data (hereinafter, "movement angle data") of the movement angle of the pseudo reel member 303 corresponding to the rate (30 fps in this embodiment) is acquired. Then, using the acquired movement angle data, the virtual object 303p is moved to the corresponding position at each predetermined interval (for example, every frame) by three-dimensional CG processing (including three-dimensional coordinate calculation) of the GPU 153 To generate data (virtual object data) of the moved virtual object 303p.

本実施形態では、可動被投影部材が動作中である場合に取得する所定間隔のタイミング毎(例えばフレーム毎)の移動角データは、予め用意され、ロムカートリッジ基板86に格納されている。なお、本実施形態では、これに限定されず、例えば、所定間隔のタイミング毎に対応する位置に移動した仮想オブジェクト303pのデータ(仮想オブジェクトデータ)を予め生成してロムカートリッジ基板86に格納しておき、所定間隔のタイミング毎に、対応する位置に移動した擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとを合成して、合成仮想オブジェクトデータを生成してもよい。さらに、例えば、所定間隔のタイミング毎の合成仮想オブジェクトデータを予め生成してロムカートリッジ基板86に格納しておき、所定間隔のタイミング毎に、対応する合成仮想オブジェクトデータを読み出して用いてもよい。また、合成仮想オブジェクトデータが取得される所定間隔は、例えば、映像(動画)のフレームレート、映像表示演出の内容等に応じて任意に設定することができる。   In this embodiment, movement angle data for each predetermined interval (for example, each frame) acquired when the movable projection member is in operation is prepared in advance and stored in the ROM cartridge substrate 86. In the present embodiment, the present invention is not limited to this, and for example, data (virtual object data) of the virtual object 303p moved to a position corresponding to each predetermined timing may be generated in advance and stored in the ROM cartridge substrate 86. Alternatively, the virtual object 303p of the pseudo reel member 303 moved to the corresponding position and the virtual object 302p of the trapezoidal member 302 may be combined at every predetermined interval timing to generate combined virtual object data. Furthermore, for example, composite virtual object data for each predetermined timing may be generated in advance and stored in the ROM cartridge substrate 86, and corresponding composite virtual object data may be read out and used for each predetermined timing. Further, the predetermined interval at which the synthetic virtual object data is acquired can be set arbitrarily according to, for example, the frame rate of the video (moving image), the content of the video display effect, and the like.

次いで、仮想空間に配置された合成仮想オブジェクトに対して遊技者の目線方向(図21中の矢印A2方向)からリソース画像データ(ダミー画像を含む2倍画角データ)の映像光を仮想投影し、リソース画像と合成仮想オブジェクトとを合成した仮想投影画像を生成する。そして、合成仮想オブジェクトの投影面にリソース画像が仮想的に映し出された状態において、実際の映像光の入射方向(図21中の矢印A1方向)から合成仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影し、仮想撮影画像データ(ダミー画像を含む2倍画角データ)を取得する。   Then, the virtual projection of the video light of the resource image data (double angle of view data including the dummy image) from the direction of the player's line of sight (direction of arrow A2 in FIG. 21) , Generate a virtual projection image combining the resource image and the composite virtual object. Then, in a state where the resource image is virtually projected on the projection plane of the synthetic virtual object, the virtual image projected on the projection plane of the synthetic virtual object from the actual incident direction of the image light (the arrow A1 direction in FIG. 21). A projected image is virtually photographed, and virtually photographed image data (double angle-of-field data including a dummy image) is acquired.

すなわち、本実施形態において、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合には、擬似リール部材303(可動被投影部材)の仮想オブジェクト303pと台形部材302の仮想オブジェクト302pとの合成仮想オブジェクトデータを所定間隔のタイミング毎に生成すること以外の処理は、上記図21〜図23で説明した映像光の投影対象の被投影部材が台形部材302(単一で被可動の被投影部材)のみである場合の処理と同様となる。   That is, in the present embodiment, when the projection target member to be projected is switched from the trapezoidal member 302 to the pseudo reel member 303, the virtual object 303p of the pseudo reel member 303 (movable projection member) and the virtual object 302p of the trapezoidal member 302. In the processing other than generating composite virtual object data with each other at predetermined intervals, the projection target member of the image light projection target described in FIGS. The process is the same as in the case of only the projection target).

なお、ここでは、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合に、仮想投影撮影法によるPJ対応画像データの生成手法を適用する例を説明したが、本発明はこれに限定されない。例えば、投影対象の被投影部材が台形部材302から平面スクリーン部材304に切り替わる場合にも、所定間隔のタイミング毎に生成された平面スクリーン部材304と台形部材302との合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。また、例えば、可動被投影部材と非可動投影部材とを使用して連動した映像表示演出を実行する場合にも、所定間隔のタイミング毎に生成された可動被投影部材と非可動投影部材との合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。さらに、例えば、3つ以上の被投影部材を使用して連動した映像表示演出を実行する機能を備えるような遊技機においても、3つ以上の被投影部材の合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。   Here, although an example in which the method of generating PJ compatible image data by virtual projection photography is applied when the projection target member to be projected is switched from the trapezoidal member 302 to the pseudo reel member 303 has been described, the present invention It is not limited to. For example, even when the projection target member to be projected is switched from the trapezoidal member 302 to the flat screen member 304, it is possible to use composite virtual object data of the flat screen member 304 and the trapezoidal member 302 generated at each predetermined interval timing. The generation method of PJ corresponding image data by the virtual projection photography method described above can be applied as it is. In addition, for example, also in the case of performing an interlocking image display effect using the movable projection member and the non-movable projection member, the movable projection member and the non-movable projection member generated at each predetermined timing interval By using the synthetic virtual object data, it is possible to apply the generation method of PJ corresponding image data by the above-described virtual projection photographing method as it is. Furthermore, for example, even in a gaming machine having a function of executing an interlocking image display effect using three or more projection members, it is possible to use composite virtual object data of three or more projection members, The generation method of PJ corresponding image data by the virtual projection photographing method described above can be applied as it is.

[PJ対応画像データの生成手順]
次に、図25を参照して、副制御回路150において行われる、仮想投影撮影法によるPJ対応画像データの生成処理(リソース画像・オブジェクト合成処理から映像信号の出力処理までの一連の処理)の具体的な処理手順を説明する。なお、図25は、仮想投影撮影法による、PJ対応画像データ及びそれに対応する映像信号の生成処理の手順を示すフローチャートである。
[Procedure for generating image data compatible with PJ]
Next, referring to FIG. 25, generation processing of PJ corresponding image data by virtual projection photography performed in sub control circuit 150 (a series of processing from resource image / object combination processing to video signal output processing) The specific processing procedure will be described. FIG. 25 is a flow chart showing a procedure of processing for generating PJ compatible image data and a video signal corresponding thereto by virtual projection photography.

まず、サブCPU151は、ロムカートリッジ基板86に格納された各種リソース画像データの中から、今回、映像表示するリソース画像データを選択する(S11)。なお、S11の処理で選択する画像データは、リソース画像の上端部に、リソース画像と同サイズのダミー画像が付加された2倍画角データである。また、この処理では、GPU153(レンダリングプロセッサ153)は、サブCPU151の指令に基づいて、選択されたリソース画像データ(2倍画角データ)をVRAM154(描画用RAM)に展開する。   First, the sub CPU 151 selects resource image data to be displayed as a video from various resource image data stored in the ROM cartridge substrate 86 (S11). The image data selected in the process of S11 is double angle-of-view data in which a dummy image of the same size as the resource image is added to the upper end portion of the resource image. Further, in this process, the GPU 153 (rendering processor 153) expands the selected resource image data (double angle-of-view data) in the VRAM 154 (rendering RAM) based on an instruction from the sub CPU 151.

次いで、サブCPU151は、ロムカートリッジ基板86に格納された各種仮想オブジェクトデータの中から、今回、投影対象となる被投影部材の仮想オブジェクトデータを選択する(S12)。この処理において、投影対象となる被投影部材が、一つの被投影部材である場合には、当該被投影部材の仮想オブジェクトデータのみが選択される。また、この処理において、投影対象となる被投影部材が複数である場合には、現タイミングに対応する合成仮想オブジェクトデータが選択される。そして、この処理では、GPU153は、サブCPU151の指令に基づいて、選択された仮想オブジェクトデータをVRAM154に展開する。   Next, the sub CPU 151 selects virtual object data of the projection target member to be projected this time from various virtual object data stored in the ROM cartridge substrate 86 (S12). In this process, when the projection target member to be projected is one projection target member, only virtual object data of the projection target member is selected. Further, in this process, when there are a plurality of projection target objects to be projected, composite virtual object data corresponding to the current timing is selected. Then, in this process, the GPU 153 develops the selected virtual object data in the VRAM 154 based on the instruction of the sub CPU 151.

なお、S11及びS12の処理において、選択されたリソース画像データ及び仮想オブジェクトデータは、VRAM154内において、フレームバッファ(FB)及びスクリーンバッファ(SB)以外のバッファ領域(仮想バッファ)に展開される。また、S11及びS12の処理順序は、任意であり、S12の処理の後にS11の処理を行ってもよい。   In the processes of S11 and S12, the selected resource image data and virtual object data are expanded in the VRAM 154 in buffer areas (virtual buffers) other than the frame buffer (FB) and the screen buffer (SB). The processing order of S11 and S12 is arbitrary, and the processing of S11 may be performed after the processing of S12.

次いで、GPU153は、仮想空間(VRAM154)上において、選択された仮想オブジェクトを配置し、該仮想オブジェクトの投影面に対して、遊技者側から仮想オブジェクトに向かう方向(遊技者の目線方向)に、選択されたリソース画像データの映像光を仮想的に投影(照射)し、仮想オブジェクトの投影面に映し出される仮想投影画像の画像データ(仮想投影画像データ)を生成(算出)する(S13)。この処理では、GPU153の3次元CG処理(3次元座標計算等を含む)により、S11でVRAM154上に展開されたリソース画像データ(ダミー画像データを含む2倍画角データ)が、S12でVRAM154上に展開された仮想オブジェクトデータと合成されて仮想投影画像データ(ダミー画像データを含む2倍画角データ)が生成(算出)される。   Next, the GPU 153 arranges the selected virtual object on the virtual space (VRAM 154), and with respect to the projection plane of the virtual object, in the direction from the player side to the virtual object (the player's line of sight) The image light of the selected resource image data is virtually projected (irradiated) to generate (calculate) image data (virtual projected image data) of a virtual projection image projected on the projection surface of the virtual object (S13). In this process, resource image data (double-angle-of-view data including dummy image data) expanded on the VRAM 154 in S11 by the three-dimensional CG process (including three-dimensional coordinate calculation) of the GPU 153 is processed on the VRAM 154 in S12. The virtual projection image data (double-angle-of-view data including dummy image data) is generated (calculated) by combining with the virtual object data expanded into.

次いで、GPU153は、仮想空間上において、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に入射される投影光の入射方向(実際の映像光の入射方向)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影したときの仮想撮影画像データ(ダミー画像データを含む2倍画角データ)を生成(算出)する(S14)。この処理では、GPU153の3次元CG処理(座標計算等を含む)により、視点変更処理が行われ、仮想撮影画像データ(ダミー画像データを含む2倍画角データ)が生成(算出)される。   Next, in the virtual space, the GPU 153 projects the projection surface of the virtual object from the incident direction (the incident direction of the actual image light) of the projection light incident on the projection surface of the projection target member from the projector 213 via the reflection mirror 237 Virtual captured image data (double-angle-of-view data including dummy image data) when the virtual projected image displayed on the virtual image is virtually captured (S14). In this processing, viewpoint change processing is performed by three-dimensional CG processing (including coordinate calculation and the like) of the GPU 153, and virtual captured image data (double view angle data including dummy image data) is generated (calculated).

次いで、GPU153は、S14で生成された仮想撮影画像データ(ダミー画像データを含む2倍画角データ)をVRAM154のフレームバッファ(FB)に展開(セット)する(S15)。次いで、GPU153は、フレームバッファ(FB)に展開された2倍画角データのうち、仮想撮影画像データが格納されている領域(図23中では、フレームバッファの下半分の領域)の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)する(S16)。   Next, the GPU 153 expands (sets) the virtually captured image data (double angle-of-field data including dummy image data) generated in S14 in the frame buffer (FB) of the VRAM 154 (S15). Next, the GPU 153 extracts image data of an area (in FIG. 23, an area in the lower half of the frame buffer) in which virtual captured image data is stored in the double angle-of-view data expanded in the frame buffer (FB). The image data is copied (transferred) to the screen buffer (SB) of the VRAM 154 as PJ compatible image data (S16).

そして、GPU153は、S16でスクリーンバッファ(SB)にコピーされたPJ対応画像データを映像信号に変換して、該映像信号をプロジェクタ213に出力する(S17)。本実施形態では、上述のようにして、プロジェクタ213に出力するPJ対応画像データ(映像信号)を生成する。   Then, the GPU 153 converts the PJ compliant image data copied to the screen buffer (SB) in S16 into a video signal, and outputs the video signal to the projector 213 (S17). In the present embodiment, as described above, PJ compatible image data (video signal) to be output to the projector 213 is generated.

[各種効果]
上述のように、本実施形態では、仮想空間上に配置された被投影部材の仮想オブジェクトに映像光を仮想的に投影したときに仮想オブジェクトの投影面に映し出される画像の画像データ(仮想投影画像データ及び仮想撮像画像データ)を用いて、実際に、被投影部材に投影する映像光の画像データ(PJ対応画像データ)を生成する。それゆえ、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理を行う必要が無くなる。この結果、本実施形態では、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。
[Various effects]
As described above, in the present embodiment, the image data of the image projected on the projection surface of the virtual object when the image light is virtually projected on the virtual object of the projection target member disposed in the virtual space (virtual projection image The image data (PJ corresponding image data) of the video light to be actually projected onto the projection target member is generated using the data and the virtual captured image data). Therefore, when the video light is actually projected onto the projection target member by the projector 213, it is not necessary to perform correction processing for associating the projection image data with the shape of the projection surface (screen) of the projection target member. As a result, in the present embodiment, it is possible to execute high-quality and versatile image display effects utilizing the three-dimensional CG technology while suppressing the increase in cost relating to CG creation.

また、上述のように、本実施形態では、リソース画像データから仮想撮影画像データを生成するまでの画像データ変換処理において処理対象とする画像データは、被投影部材の投影面のサイズ(スクリーンサイズ)に対応する画像データではなく、投影対象画像の上部に該画像と同じサイズのダミー画像を付加した画像データ(2倍画角データ)である。この場合、投影対象画像の上端部中心に歪みが発生するが、上述のように、本実施形態ではPJ対応画像データの生成処理の段階において、投影対象画像の上端部中心の歪みが予め抑制(補正)されている。それゆえ、本実施形態では、被投影部材の投影面(スクリーン)に実際に映し出される映像の歪みを抑制することができ、高画質の演出映像を遊技者に提供することができる。   Further, as described above, in the present embodiment, the image data to be processed in the image data conversion process until the virtual captured image data is generated from the resource image data is the size of the projection surface of the projection target (screen size) The image data (double angle of view data) is obtained by adding a dummy image of the same size as the image to the top of the projection target image, not the image data corresponding to. In this case, distortion occurs at the center of the upper end of the projection target image, but as described above, in the present embodiment, distortion of the center of the upper end of the projection target image is suppressed in advance at the stage of generation processing of PJ compatible image data ( Corrected). Therefore, in the present embodiment, it is possible to suppress distortion of an image actually displayed on the projection surface (screen) of the projection target member, and to provide the player with a high-quality effect image.

また、本実施形態では、映像光が照射される被投影部材が複数存在しても、複数の被投影部材の合成仮想オブジェクトに対して上述した仮想投影撮影法(映像光の仮想投影処理及び仮想撮影処理)によるPJ対応画像データの生成手法を適用することにより、実際に、被投影部材に投影する映像光の画像データを生成することができる。それゆえ、本実施形態では、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合であっても、オブジェクトに対する投影画像のズレを最小限に抑制することができる。   Further, in the present embodiment, even if there are a plurality of projection target members to which the image light is irradiated, the virtual projection photography method described above (a virtual projection processing of the image light and the virtual projection By applying the generation method of PJ corresponding image data by the photographing process), it is possible to actually generate image data of the image light to be projected on the projection target member. Therefore, in the present embodiment, even in the case of projecting an image onto an object such as a three-dimensional object (three-dimensional screen) using a projector, it is possible to minimize the displacement of the projected image with respect to the object.

さらに、本実施形態では、複数の被投影部材に可動被投影部材(擬似リール部材303等)が含まれ、且つ、該可動被投影部材が動作中であっても、所定間隔のタイミング毎の合成仮想オブジェクトに対して上述した仮想投影撮影法によるPJ対応画像データの生成手法を適用することにより、実際に、被投影部材に投影する画像データを生成することができる。それゆえ、本実施形態では、例えば、被投影部材の構成(数、形状、配置関係)や連動性などが複雑になっても容易に、高画質で多彩な映像表示演出を実行することができる。   Furthermore, in the present embodiment, the plurality of projection target members include the movable projection member (pseudo reel member 303 and the like), and even when the movable projection member is in operation, synthesis is performed at predetermined intervals. By applying the generation method of PJ corresponding image data by the virtual projection photographing method described above to the virtual object, it is possible to actually generate image data to be projected on the projection target member. Therefore, in the present embodiment, for example, even if the configuration (number, shape, arrangement relation) of the projection target member, the interlocking property, etc. become complicated, it is possible to execute high-quality and versatile image display effects. .

<各種変形例>
以上、本発明に係る一実施形態の遊技機の構成及びその動作について、その作用効果も含めて説明した。しかしながら、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限り、その他の種々の実施形態及び変形例が含まれる。
<Various modifications>
The configuration and the operation of the gaming machine according to the embodiment of the present invention have been described above including the effects and advantages thereof. However, the present invention is not limited to the above-described embodiments, and includes various other embodiments and modifications without departing from the scope of the present invention described in the claims.

[変形例1]
上記実施形態では、投影対象の被投影部材が複数存在する場合(例えば、図24参照)、仮想空間上において、複数の被投影部材の合成仮想オブジェクトに対して、上述した仮想投影撮影法(映像光の仮想投影処理及び仮想撮影処理)によるPJ対応画像データの生成手法を適用する例を説明したが、本発明はこれに限定されない。例えば、次のような手順で、PJ対応画像データを生成してもよい。
[Modification 1]
In the above embodiment, in the case where there are a plurality of projection target members (see, for example, FIG. 24), the virtual projection photography method (image) described above for the composite virtual object of the plurality of projection members in virtual space. Although the example which applies the production | generation method of PJ corresponding | compatible image data by the virtual projection process and virtual imaging | photography process of light was demonstrated, this invention is not limited to this. For example, PJ compliant image data may be generated by the following procedure.

まず、合成仮想オブジェクトを各被投影部材の仮想オブジェクトを分解する。次いで、分解された各仮想オブジェクトに対して、上記実施形態と同様に、リソース画像の映像光の仮想投影処理を実行して仮想投影画像データを作成する。なお、合成仮想オブジェクトは、本発明に係る第1の仮想オブジェクトの一具体例を示すものであり、各被投影部材の仮想オブジェクトは、本発明に係る第2の仮想オブジェクトの一具体例を示すものである。また、各被投影部材の仮想撮影画像データは、本発明に係る第1の視点画像のデータの一具体例を示すものである。   First, the composite virtual object is decomposed into virtual objects of the respective projected members. Next, virtual projection processing of the image light of the resource image is performed on each of the decomposed virtual objects, as in the above embodiment, to generate virtual projection image data. The composite virtual object represents one specific example of the first virtual object according to the present invention, and the virtual object of each projected member represents one specific example of the second virtual object according to the present invention. It is a thing. Further, the virtual captured image data of each projection target member is a specific example of data of the first viewpoint image according to the present invention.

次いで、各仮想オブジェクトの仮想投影画像データを合成する。次いで、合成された仮想投影画像データに対して、上記実施形態と同様にして、仮想撮影処理(視点変更処理)を実行して仮想撮影画像データを作成し、該仮想撮影画像データをVRAM154のフレームバッファに記憶する。そして、フレームバッファに格納された仮想撮影画像データに対して、上記実施形態と同様に画像の転送(コピー)処理を実行して、PJ対応画像データを生成する。なお、合成された仮想投影画像データは、本発明に係る合成画像のデータの一具体例を示すものである。   Next, virtual projection image data of each virtual object is synthesized. Next, virtual shooting processing (viewpoint changing processing) is performed on the combined virtual projection image data in the same manner as in the above embodiment to create virtual shooting image data, and the virtual shooting image data is used as a frame of VRAM 154. Store in buffer. Then, image transfer (copy) processing is performed on the virtual captured image data stored in the frame buffer as in the above embodiment, to generate PJ compliant image data. The combined virtual projection image data represents one specific example of data of a combined image according to the present invention.

ここで、図26を参照して、この例の手法の一例を説明する。なお、図26は、変形例1におけるPJ対応画像データの生成手法の概要を説明するための図である。   Here, an example of the method of this example will be described with reference to FIG. FIG. 26 is a diagram for describing an outline of a method of generating PJ corresponding image data in the first modification.

図26に示す例では、投影対象となる複数の被投影部材として、上記実施形態で説明した台形部材302と、一対の円柱状の被投影部材501,502(以下、「一対の円柱状部材501,502」という)と、楕円球状の被投影部材503(以下、「楕円球部材503」という)とが設けられている例を説明する(図26中の投射オブジェクト参照)。また、この例では、台形部材302の前面(遊技者側)に一対の円柱状部材501,502が配置され、一対の円柱状部材501,502の前面(遊技者側)に楕円球部材503が配置されている例を説明する。さらに、一対の円柱状部材501,502はそれぞれ、各円柱状部材の延在方向の中心軸を回転軸として回転駆動可能な可動被投影部材である。なお、円柱状部材501,502及び楕円球部材503のそれぞれもまた、本発明に係る表示部の一具体例を示すものである。   In the example shown in FIG. 26, as the plurality of projection target members to be projected, the trapezoidal member 302 described in the above embodiment and the pair of cylindrical projection target members 501 and 502 (hereinafter referred to as “pair of cylindrical members 501 , 502 ”) and an elliptic spherical projected member 503 (hereinafter referred to as“ elliptical sphere member 503 ”) will be described (see a projection object in FIG. 26). Further, in this example, a pair of cylindrical members 501 and 502 are disposed on the front surface (player side) of the trapezoidal member 302, and an oval ball member 503 is provided on the front surfaces (player side) of the pair of cylindrical members 501 and 502. An example of the arrangement will be described. Further, each of the pair of cylindrical members 501 and 502 is a movable projection member that can be rotationally driven with the central axis in the extension direction of each cylindrical member as a rotation axis. Each of the cylindrical members 501 and 502 and the oval sphere member 503 also shows a specific example of the display unit according to the present invention.

この例のPJ対応画像データを生成手法では、まず、仮想空間上において、投射オブジェクトの仮想オブジェクト(合成仮想オブジェクト)を、台形部材302の仮想オブジェクトAと、一対の円柱状の被投影部材501,502の仮想オブジェクトBと、楕円球状の被投影部材503の仮想オブジェクトCとに分解する。次いで、分解された各仮想オブジェクトに対して、遊技者の目線方向から、リソース画像の映像光を仮想投影して、各仮想オブジェクトデータと、リソース画像データとが合成された各仮想オブジェクトの仮想投影画像データを生成する。   In the PJ correspondence image data generation method of this example, first, in the virtual space, the virtual object of the projection object (composite virtual object), the virtual object A of the trapezoidal member 302, and the pair of cylindrical projection members 501, It is decomposed into a virtual object B 502 and a virtual object C of an elliptical spherical projected member 503. Next, the virtual light of the resource image is virtually projected on each of the disassembled virtual objects from the player's line of sight, and the virtual projection of each virtual object on which each virtual object data and the resource image data are combined Generate image data.

次いで、生成された各仮想オブジェクトの仮想投影画像データを合成する。なお、この際、各仮想オブジェクトの配置関係を考慮して複数の仮想オブジェクトの仮想投影画像データが合成される。具体的には、仮想空間上において、複数の仮想オブジェクトが重なる領域では、最前面(最も遊技者側)に位置する仮想オブジェクトの投影面に映し出された画像が表示されるように複数の仮想投影画像データが合成される。その結果、図26中の最下部に示す合成後の仮想投影画像データ(以下、「合成仮想投影画像データ」という)が生成される。その後、上記実施形態と同様にして、合成仮想投影画像データを仮想撮影画像データに変換し、該仮想撮影画像データに基づいて、PJ対応画像データを生成する。   Then, the generated virtual projection image data of each virtual object is synthesized. At this time, virtual projection image data of a plurality of virtual objects are combined in consideration of the arrangement relationship of each virtual object. Specifically, in a virtual space, in a region where a plurality of virtual objects overlap, a plurality of virtual projections are displayed so that an image projected on the projection surface of the virtual object located at the forefront (most player side) is displayed. Image data is synthesized. As a result, virtual projected image data after synthesis (hereinafter referred to as “composite virtual projection image data”) shown at the bottom of FIG. 26 is generated. After that, the synthetic virtual projection image data is converted into virtual photographed image data in the same manner as the above embodiment, and PJ corresponding image data is generated based on the virtual photographed image data.

上述したこの例のPJ対応画像データの生成手法を用いた場合、投影対象となる被投影部材が複数存在し且つ複数の被投影部材で立体的なスクリーンが構成されていても、被投影部材の仮想オブジェクト毎に仮想撮影画像データを生成し、該生成された複数の仮想投影画像データを合成して、複数の被投影部材からなる立体スクリーンの合成仮想投影画像データを生成することができる。それゆえ、この例の手法でPJ対応画像データを作成した場合には、実際の映像光を複数の被投影部材からなる立体スクリーンに投影した際の映像の投影位置の理想位置からのズレを最小限に抑制することができる。すなわち、この例の手法では、複数の被投影部材からなる立体スクリーン(オブジェクト)に対する投影画像のズレを最小限に抑制することができる。   When the PJ corresponding image data generation method of this example described above is used, even if a plurality of projection target members to be projected are present and the plurality of projection target members constitute a three-dimensional screen, Virtual captured image data is generated for each virtual object, and the plurality of virtual projection image data generated can be combined to generate combined virtual projection image data of a three-dimensional screen including a plurality of projection target members. Therefore, when the PJ corresponding image data is created by the method of this example, the deviation from the ideal position of the projected position of the image when the actual image light is projected on the three-dimensional screen composed of the plurality of projected members is minimized. Can be limited. That is, in the method of this example, it is possible to minimize the displacement of the projection image with respect to the three-dimensional screen (object) composed of a plurality of projection target members.

また、この例においても、上記実施形態と同様に、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理が不要となるので、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。   Also in this example, as in the above embodiment, when the image light is actually projected onto the projection target member by the projector 213, the projection image data is associated with the shape of the projection surface (screen) of the projection target member. Since the correction processing becomes unnecessary, it is possible to execute high-quality and versatile image display effects utilizing three-dimensional CG technology while suppressing the increase in cost relating to CG creation.

[変形例2]
上記実施形態では、仮想空間上における画像の仮想投影処理及び仮想撮影処理において、投影対象画像の上部に該画像と同サイズのダミー画像を付加した2倍画角データを処理(演算)対象の画像データとして用いた。そして、PJ対応画像データを生成するときには、VRAM154のフレームバッファ(FB)に展開された2倍画角データのうち、仮想撮影画像データが格納されている領域の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーする手法を用いた。しかしながら、2倍画角データをPJ対応画像データに変換する手法(2倍画角データからPJ対応画像データを抽出する手法)は、上記実施形態の例に限定されない。
[Modification 2]
In the above embodiment, in virtual projection processing and virtual photographing processing of an image in virtual space, an image to be processed (computed) double angle-of-view data in which a dummy image of the same size as the image is added to the top of the projection target image. Used as data. Then, when generating the PJ compliant image data, of the double view angle data expanded in the frame buffer (FB) of the VRAM 154, the image data of the area where the virtual captured image data is stored is taken as the PJ compliant image data. The method of copying to the screen buffer (SB) of the VRAM 154 was used. However, the method of converting double view angle data into PJ corresponding image data (a method of extracting PJ corresponding image data from double view angle data) is not limited to the example of the above embodiment.

例えば、仮想空間上における仮想撮影処理により生成された仮想撮影画像データを含む2倍画角データをフレームバッファ(FB)に展開する前に、2倍画角データから仮想撮影画像データを抽出する処理を設けてもよい。変形例2では、その一例として、仮想撮影画像データを含む2倍画角データに対して射影変換処理を施して、2倍画角データから仮想撮影画像データを抽出する例を説明する。   For example, processing for extracting virtual captured image data from double-angle-of-view data before expanding the double-angle-of-view data including virtual-captured image data generated by virtual imaging processing on virtual space into the frame buffer (FB) May be provided. In the second modification, as an example, an example in which projection conversion processing is performed on double-angle-of-view data including virtual captured image data to extract virtual-captured image data from the double-angle-of-view data will be described.

3次元CG技術において、射影変換処理は、通常、仮想空間上に配置された仮想立体物をスクリーン上に投影する際に用いられる演算処理である。まず、図27A及び27Bを参照して、一般的な射影変換処理の説明を行う。   In the three-dimensional CG technology, projective transformation processing is usually arithmetic processing used when projecting a virtual three-dimensional object arranged in a virtual space on a screen. First, general projective transformation processing will be described with reference to FIGS. 27A and 27B.

図27Aは、プロジェクタ側(光源側)の所定位置(図27A中の「near」)に配置された長方形状のオブジェクトを、スクリーンの配置位置(図27A中の「far」)に拡大して投影したときの様子を示す図である。また、図27Bは、図27A中の「near」に配置された長方形状のオブジェクトの座標を、スクリーン上(図27A中の「far」)に投影した際の長方形状のオブジェクトの座標に変換するために用いられるプロジェクション行列P(射影変換行列)を示す図である。   FIG. 27A is an enlarged view of a rectangular object arranged at a predetermined position (“near” in FIG. 27A) on the projector side (light source side) to the screen arrangement position (“far” in FIG. 27A) It is a figure which shows the mode when it did. Also, FIG. 27B converts the coordinates of the rectangular object arranged in “near” in FIG. 27A into the coordinates of the rectangular object when projected on the screen (“far” in FIG. 27A) 3 is a diagram showing a projection matrix P (projective transformation matrix) used for

なお、プロジェクション行列Pは、4行4列の正方行列である。プロジェクション行列Pでは、[1(行),1(列)]成分の値は「x」であり、[2,2]成分の値は「y」であり、[3,1]成分の値は「a」であり、[3,2]成分の値は「b」であり、[3,3]成分の値は「c」であり、[3,4]成分の値は「−1」であり、[4,3]成分の値は「d」である。なお、他の成分の値は「0」である。   The projection matrix P is a square matrix of 4 rows and 4 columns. In the projection matrix P, the value of the [1 (row), 1 (column)] component is “x”, the value of the [2, 2] component is “y”, and the value of the [3, 1] component is “A”, the value of the [3, 2] component is “b”, the value of the [3, 3] component is “c”, and the value of the [3, 4] component is “−1” Yes, the value of the [4, 3] component is "d". The values of the other components are "0".

また、プロジェクション行列P内の各成分の値(x,y,a,b,c,d)は、図27A及び27Bに示すように、長方形状のオブジェクトの位置「near」、スクリーンの位置「far」、投影前(射影変換前)の長方形状のオブジェクトの高さ(縦)方向の座標を規定するパラメータ「top」及び「bottom」、投影前の長方形状のオブジェクトの幅(横)方向の座標を規定するパラメータ「left」及び「right」、投影後(射影変換後)の長方形状のオブジェクトの高さ方向の長さ(高さ)「height」及び幅方向の長さ(幅)「width」、プロジェクタ(光源)から出射される光(投影光)の視野角「fovy」(投影画角)、並びに、スクリーンのアスペクト比「aspect」に基づいて算出される。   Also, as shown in FIGS. 27A and 27B, the values (x, y, a, b, c, d) of the respective components in the projection matrix P indicate the position “near” of the rectangular object and the position “far” of the screen. Parameters for defining the height (longitudinal) coordinates of rectangular objects before projection (before projective transformation) and “bottom”, coordinates of width (horizontal) directions of rectangular objects before projection Parameters “left” and “right” defining the length, height (height) “height” of the rectangular object after projection (after projective transformation) and length (width) “width” This is calculated based on the view angle “fovy” (projected angle of view) of light (projected light) emitted from the projector (light source), and the aspect ratio “aspect” of the screen.

そして、図27A中の位置「near」の長方形状のオブジェクトの座標に、図27Bのプロジェクション行列Pを乗算すると(プロジェクション行列Pにより座標変換を行うと)、スクリーン上(図27A中の位置「far」)に投影(拡大して表示)された長方形状のオブジェクトの座標が算出される。   Then, when the coordinates of the rectangular object at the position "near" in FIG. 27A are multiplied by the projection matrix P in FIG. 27B (when coordinate conversion is performed by the projection matrix P), the position on the screen (far in FIG. The coordinates of the rectangular object projected (magnified and displayed) are calculated.

この例では、図27Bのプロジェクション行列Pを変形して用い、仮想撮影画像データを含む2倍画角データから仮想撮影画像データを抽出する。すなわち、この例では、スクリーンサイズの2倍のサイズの画像データ(2倍画角データ)をスクリーンサイズの画像データ(等倍画角データ)に変換する。なお、この例で用いる2倍画角データは、上記実施形態と同様に、被投影部材の投影面に投影される画像(投影対象画像)の上端部に該画像と同じサイズのダミー画像を付加した画像データとする(図23参照)。   In this example, the virtual captured image data is extracted from double view angle data including virtual captured image data by using the projection matrix P of FIG. That is, in this example, image data (double angle-of-view data) twice as large as the screen size is converted into image data (normal-size angle of view data) of the screen size. In addition, as for the double angle-of-view data used in this example, a dummy image of the same size as the image is added to the upper end portion of the image (projection target image) projected on the projection surface of the projection target Image data (see FIG. 23).

図28に、この例において、仮想撮影画像データを含む2倍画角データから仮想撮影画像データ(PJ対応画像データ)を抽出する際に用いるプロジェクション行列Peを示す。この例では、プロジェクション行列Peとして、図28に示すように、プロジェクション行列P′とオフセット行列Oとを乗算した行列を用いる。なお、プロジェクション行列Peは、本発明に係る特定の変換パラメータの一具体例を示すものである。   FIG. 28 shows a projection matrix Pe used when extracting virtual captured image data (PJ corresponding image data) from double view angle data including virtual captured image data in this example. In this example, as shown in FIG. 28, a matrix obtained by multiplying the projection matrix P ′ by the offset matrix O is used as the projection matrix Pe. The projection matrix Pe shows one specific example of a specific conversion parameter according to the present invention.

プロジェクション行列P′は、4行4列の正方行列であり、図27Bで示す一般的なプロジェクション行列Pにおいて、視野角(fovy)を1/2(所定の角度)に設定した射影変換行列である。この例では、上述のように、2倍画角データが等倍画角データに変換されるので、視野角(投影画角)は、一般的なプロジェクション行列Pのそれの半分の値に設定される。また、オフセット行列Oは、[1(行),1(列)]成分、[2,2]成分、[3,3]成分、[4,4]成分及び[4,2]成分の値が「1」であり、他の成分の値が「0」である4行4列の正方行列で構成される。なお、プロジェクション行列P′は、本発明に係る所定の射影変換パラメータの一具体例を示すものであり、オフセット行列Oは、本発明に係る所定のオフセットパラメータの一具体例を示すものである。   The projection matrix P ′ is a square matrix of 4 rows and 4 columns, and is a projection transformation matrix in which the viewing angle (fovy) is set to 1/2 (predetermined angle) in the general projection matrix P shown in FIG. 27B. . In this example, as described above, since the double angle-of-view data is converted into equal-magnification angle-of-view data, the viewing angle (projection angle of view) is set to half that of the general projection matrix P. Ru. Further, the offset matrix O has values of [1 (row), 1 (column)] component, [2, 2] component, [3, 3] component, [4, 4] component and [4, 2] component It is composed of a 4-by-4 square matrix which is "1" and the values of the other components are "0". The projection matrix P ′ indicates one specific example of the predetermined projective transformation parameter according to the present invention, and the offset matrix O indicates one specific example of the predetermined offset parameter according to the present invention.

そして、この例では、仮想撮影画像データを含む2倍画角データをフレームバッファ(FB)に展開する前に、2倍角データの座標に対してプロジェクション行列Peを乗算する。これにより、仮想撮影画像データを含む2倍画角データから仮想撮影画像データのみが抽出される。なお、本明細書では、この抽出結果の具体例を示さないが、発明者の検証実験では、この例で処理対象とする構成の2倍角データに図28に示すプロジェクション行列Peを乗算(射影変換)することにより、仮想撮影画像データを含む2倍画角データから仮想撮影画像データが抽出されることを確認している。   Then, in this example, the coordinates of the double angle data are multiplied by the projection matrix Pe before the double angle-of-view data including virtual captured image data is expanded in the frame buffer (FB). Thereby, only the virtual captured image data is extracted from the double view angle data including the virtual captured image data. Although a specific example of the extraction result is not shown in this specification, in the verification experiment of the inventor, the double-sided data of the configuration to be processed in this example is multiplied by the projection matrix Pe shown in FIG. ), It is confirmed that the virtual captured image data is extracted from the double angle-of-view data including the virtual captured image data.

この例の手法により、抽出された仮想撮影画像データは、上記実施形態と同様に、VRAM154のフレームバッファ(FB)に展開される。そして、VRAM154のフレームバッファ(FB)に展開された仮想撮影画像データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーされる。   The virtual captured image data extracted by the method of this example is expanded in the frame buffer (FB) of the VRAM 154 as in the above embodiment. Then, the virtually photographed image data expanded in the frame buffer (FB) of the VRAM 154 is copied to the screen buffer (SB) of the VRAM 154 as PJ compatible image data.

上述のように、この例では、フレームバッファ(FB)に展開される画像データのサイズは、上記実施形態のそれの半分となるので、フレームバッファ(FB)のサイズも上記実施形態のそれの半分にすることができる。それゆえ、この例では、スクリーンサイズと同サイズのフレームバッファ(FB)を使用して、上記実施形態と同様の3次元CG処理を行うことができるので、VRAM154の使用状況に無駄が発生せず、GPU153の処理効率を向上させることができる。   As described above, in this example, the size of the image data expanded to the frame buffer (FB) is half that of the above embodiment, so the size of the frame buffer (FB) is also half of that of the above embodiment Can be Therefore, in this example, the frame buffer (FB) of the same size as the screen size can be used to perform the same three-dimensional CG processing as in the above embodiment. , And the processing efficiency of the GPU 153 can be improved.

また、この例においても、上記実施形態と同様に、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理が不要となるので、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。   Also in this example, as in the above embodiment, when the image light is actually projected onto the projection target member by the projector 213, the projection image data is associated with the shape of the projection surface (screen) of the projection target member. Since the correction processing becomes unnecessary, it is possible to execute high-quality and versatile image display effects utilizing three-dimensional CG technology while suppressing the increase in cost relating to CG creation.

なお、この例の画像データの変換処理では、本発明に係る特定の変換パラメータ、所定の射影変換パラメータ及び所定のオフセットパラメータの一具体例として行列式(行列演算子)を用い、行列式による演算により、画像データを変換する例を説明したが、本発明はこれに限定されない。例えば、変換処理前後の画像データ(変換前データ及び変換後データ)を予め用意しておき、所定の変換指令等により直接、変換前データを変換後データに置き換えるような処理を行ってもよい。この場合には、所定の変換指令等が特定の変換パラメータ、所定の射影変換パラメータ及び所定のオフセットパラメータの一具体例となる。   In the image data conversion process of this example, a matrix equation (matrix operator) is used as a specific example of a specific conversion parameter, a predetermined projective conversion parameter, and a predetermined offset parameter according to the present invention, and an operation by a determinant Although an example of converting image data has been described, the present invention is not limited to this. For example, image data (data before conversion and data after conversion) before and after conversion processing may be prepared in advance, and processing may be performed to directly replace data before conversion with data after conversion by a predetermined conversion instruction or the like. In this case, a predetermined conversion command or the like is a specific example of a specific conversion parameter, a predetermined projective conversion parameter, and a predetermined offset parameter.

[変形例3]
上記実施形態では、実際に、プロジェクタ213から被投影部材に投影する映像光のPJ対応画像データの作成手法として、仮想投影撮影法を用いた例を説明したが、本発明はこれに限定されない。例えば、PJ対応画像データの作成手法として、テクスチャマッピング(プロジェクションマッピング)法と称される手法を採用してもよい。
[Modification 3]
In the above embodiment, an example using virtual projection photography was actually described as a method of creating image data corresponding to PJ of image light projected from the projector 213 onto a projection target member, but the present invention is not limited to this. For example, a method called texture mapping (projection mapping) may be employed as a method of creating PJ compliant image data.

変形例3では、テクスチャマッピング法によりPJ対応画像データを作成する手法について説明する。なお、テクスチャマッピング法は、2次元の画像を3次元状の物体(モデル)に仮想的に貼り付けることにより3次元的な画像を生成する手法である。   In the third modification, a method of creating PJ compatible image data by the texture mapping method will be described. The texture mapping method is a method of generating a three-dimensional image by virtually attaching a two-dimensional image to a three-dimensional object (model).

(1)テクスチャマッピング法の概要
図29は、テクスチャマッピング法によるPJ対応画像データの作成手法の概要を示す図である。なお、図29に示す例では、投影対象の被投影部材が台形部材302(図8参照)である場合の例を示すが、以下に説明する技術は、投影対象の被投影部材が擬似リール部材303又は平面スクリーン部材304である場合にも同様に適用可能である。
(1) Outline of Texture Mapping Method FIG. 29 is a diagram showing an outline of a method of generating PJ corresponding image data by the texture mapping method. Although the example shown in FIG. 29 shows an example in which the projection target member to be projected is a trapezoidal member 302 (see FIG. 8), in the technology described below, the projection target member to be projected is a pseudo reel member The same applies to the case of the flat screen member 304 or 303.

図29には、リソース画像データ内の領域Aの画像データが台形部材302の投影面322a(図8参照)にマッピングされ、領域Bの画像データが台形部材302の投影面321aにマッピングされ、領域Cの画像データが台形部材302の投影面323aにマッピングされ、領域Dの画像データが台形部材302の投影面324aにマッピングされた例を示す。   In FIG. 29, the image data of the region A in the resource image data is mapped on the projection surface 322a (see FIG. 8) of the trapezoidal member 302, and the image data of the region B is mapped on the projection surface 321a of the trapezoidal member 302. An example in which the image data of C is mapped to the projection surface 323 a of the trapezoidal member 302 and the image data of the region D is mapped to the projection surface 324 a of the trapezoidal member 302 is shown.

この例で用いられるリソース画像データは、上記実施形態のそれと同様に構成することができる。また、この例において、テクスチャマッピング法によるPJ対応画像データの作成処理の過程で処理対象となる画像データは、上記実施形態と同様に、投影対象の画像の上端部に該画像と同じサイズのダミー画像が付加された2倍画角データである。   The resource image data used in this example can be configured similarly to that of the above embodiment. Further, in this example, the image data to be processed in the process of creating the PJ corresponding image data by the texture mapping method is a dummy of the same size as the image at the upper end of the image to be projected as in the above embodiment. It is 2x angle-of-view data to which an image is added.

そして、テクスチャマッピング法では、2倍画角データ内のリソース画像データの各画素データを、各画素の座標に対応する台形部材302のテクスチャデータ(リソース画像の座標データ及び台形部材302の構造に関する座標データ)を使用してテクスチャ座標(UV座標)に貼り付ける演算を行うことにより、テクスチャマッピング後の画像データ(2次元の画像データ)が作成される。図29では、説明を簡略化するため、リソース画像データ内の領域A〜領域Dの各頂点の座標の画素データのみが台形部材302の対応する投影面の各頂点の座標(テクスチャ座標)に貼り付けられている様子を示す。なお、テクスチャデータは、本発明に係るテクスチャ情報又は表示部に画像を表示するための情報の一具体例を示すものであり、テクスチャマッピング後の画像データは、本発明に係る擬似3次元画像データの一具体例を示すものである。   Then, in the texture mapping method, each pixel data of the resource image data in the double angle-of-view data is the texture data of the trapezoidal member 302 corresponding to the coordinates of each pixel (coordinate data regarding the coordinate data of the resource image and the structure of the trapezoidal member 302) Image data (two-dimensional image data) after texture mapping is created by performing an operation of pasting on texture coordinates (UV coordinates) using data). In FIG. 29, in order to simplify the description, only pixel data of the coordinates of each vertex of the regions A to D in the resource image data is attached to the coordinates (texture coordinates) of each vertex of the corresponding projection plane of the trapezoidal member 302. It shows how it is attached. The texture data represents one specific example of texture information according to the present invention or information for displaying an image on the display unit, and image data after texture mapping is pseudo three-dimensional image data according to the present invention. Shows one specific example.

なお、テクスチャデータのテクスチャ座標は、台形部材302の3次元CADデータから生成(変換)されたデータである。具体的には、テクスチャデータでは、リソース画像の領域A〜領域Dの各頂点座標のデータ(x1,y1)〜(x8,y8)、及び、該領域A〜領域Dの各頂点座標に対応する台形部材302の仮想オブジェクトデータ内の頂点座標(x1′,y1′)〜(x8′,y8′)が設定されている。そして、マッピング処理では、GPU153は、リソース画像の領域A〜領域Dの各頂点座標((x1,y1)〜(x8,y8))の各画素データを、台形部材302の仮想オブジェクトデータ内の対応する頂点座標((x1′,y1′)〜(x8′,y8′))にそれぞれマッピングする。また、このマッピング処理では、GPU153は、仮想オブジェクトデータ内の頂点座標間の座標をテクスチャデータの座標データ(頂点座標)に基づいて線形補間により算出し、リソース画像データの頂点座標以外の座標の各画素データを仮想オブジェクトデータ内の対応する座標にそれぞれマッピングする。   The texture coordinates of the texture data are data generated (transformed) from the three-dimensional CAD data of the trapezoidal member 302. Specifically, in the texture data, data (x1, y1) to (x8, y8) of each vertex coordinate of the region A to region D of the resource image, and each vertex coordinate of the region A to region D Vertex coordinates (x1 ', y1') to (x8 ', y8') in virtual object data of the trapezoidal member 302 are set. Then, in the mapping process, the GPU 153 corresponds each pixel data of the vertex coordinates ((x1, y1) to (x8, y8) of the area A to the area D of the resource image in the virtual object data of the trapezoidal member 302. Mapping to vertex coordinates ((x1 ', y1') to (x8 ', y8')). Further, in this mapping process, the GPU 153 calculates coordinates between vertex coordinates in the virtual object data by linear interpolation based on coordinate data (vertex coordinates) of texture data, and each of coordinates other than the vertex coordinates of resource image data Pixel data is mapped to corresponding coordinates in virtual object data.

次いで、テクスチャマッピング後の画像データが生成されると、該画像データを含む2倍画角データは、VRAM154のフレームバッファ(FB)に展開される。その後、フレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるテクスチャマッピング後の画像データが格納されている領域の画像データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)される。   Next, when image data after texture mapping is generated, double angle-of-view data including the image data is expanded in the frame buffer (FB) of the VRAM 154. After that, of the 2x angle-of-view data expanded in the frame buffer (FB), the image data of the area where the image data after texture mapping to be projected is stored is the screen buffer of VRAM 154 Copy (transfer) to SB).

なお、テクスチャマッピング法によりPJ対応画像データを作成する手法は、例えば、図24で説明した、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合にも適用可能である。この場合、所定間隔のタイミング毎に生成された、動作中の擬似リール部材303(可動被投影部材)のテクスチャデータと台形部材302のテクスチャデータとの合成テクスチャデータにリソース画像データをマッピングする(貼り付ける)ことにより、PJ対応画像データを生成することができる。   The method of creating the PJ correspondence image data by the texture mapping method is also applicable, for example, to the case where the projection target member to be projected is switched from the trapezoidal member 302 to the pseudo reel member 303 described in FIG. In this case, the resource image data is mapped to the composite texture data of the texture data of the operating pseudo reel member 303 (movable projection member) and the texture data of the trapezoidal member 302 generated at each predetermined interval timing (pasting) PJ corresponding image data can be generated.

また、この例のPJ対応画像データの作成手法は、例えば、図26に示すような、投影対象の被投影部材が複数の被投影部材からなる立体スクリーンである場合にも適用可能である。この場合には、複数の被投影部材の合成テクスチャデータ(立体スクリーンのテクスチャデータ)を取得し、該合成テクスチャデータにリソース画像データをマッピングする(貼り付ける)ことにより、PJ対応画像データを生成することができる。また、この場合、変形例1と同様に、複数の被投影部材の合成テクスチャデータを各被投影部材のテクスチャデータに分解し、該分解された各被投影部材のテクスチャデータに対応するリソース画像をマッピングし、各被投影部材のマッピング後の画像データを合成してPJ対応画像データを生成してもよい。   The PJ corresponding image data creation method of this example is also applicable, for example, to the case where the projection target member to be projected is a three-dimensional screen including a plurality of projection target members as shown in FIG. In this case, synthetic texture data (texture data of a three-dimensional screen) of a plurality of projection target members is acquired, and resource image data is mapped (pasted) on the synthetic texture data to generate PJ compatible image data. be able to. Further, in this case, as in the first modification, the composite texture data of the plurality of projection target members is decomposed into the texture data of each projection target member, and the resource image corresponding to the decomposed texture data of each projection target member is The PJ corresponding image data may be generated by mapping and combining the image data after mapping of each projection target member.

(2)テクスチャマッピング法によるPJ対応画像データの作成手順
次に、図30を参照して、副制御回路150において行われる、テクスチャマッピング法によるPJ対応画像データの生成処理の具体的な処理手順を説明する。なお、図30は、テクスチャマッピング法による、PJ対応画像データ及びそれに対応する映像信号の生成処理の手順を示すフローチャートである。
(2) Generation Procedure of PJ Corresponding Image Data by Texture Mapping Method Next, referring to FIG. 30, a specific processing procedure of generation processing of PJ corresponding image data by the texture mapping method performed in the sub control circuit 150 will be described. explain. FIG. 30 is a flowchart showing a procedure of generation processing of PJ corresponding image data and a corresponding video signal by the texture mapping method.

まず、サブCPU151は、ロムカートリッジ基板86に格納された各種リソース画像データの中から、今回、映像表示するリソース画像データを選択する(S21)。なお、S21の処理で選択する画像データは、リソース画像の上端部に、リソース画像と同サイズのダミー画像が付加された2倍画角データである。また、この処理では、GPU153(レンダリングプロセッサ153)は、サブCPU151の指令に基づいて、選択されたリソース画像データをVRAM154(描画用RAM)に展開する。   First, the sub CPU 151 selects resource image data to be displayed as a video from various resource image data stored in the ROM cartridge substrate 86 (S21). The image data selected in the process of S21 is double angle-of-view data in which a dummy image having the same size as the resource image is added to the upper end portion of the resource image. Further, in this processing, the GPU 153 (rendering processor 153) expands the selected resource image data in the VRAM 154 (rendering RAM) based on the instruction of the sub CPU 151.

次いで、サブCPU151は、ロムカートリッジ基板86に格納された各種被投影部材のテクスチャデータ(被投影部材の構造に関する3次元データ)の中から、今回、投影対象となる被投影部材のテクスチャデータを選択する(S22)。この処理において、投影対象となる被投影部材が、一つの被投影部材である場合には、当該被投影部材のテクスチャデータのみが選択される。また、この処理において、投影対象となる被投影部材が複数である場合には、現タイミングに対応する合成テクスチャデータが選択される。そして、この処理では、GPU153は、サブCPU151の指令に基づいて、選択されたテクスチャデータをVRAM154に展開する。   Next, the sub CPU 151 selects the texture data of the projection target to be projected this time from the texture data of the various projection target (three-dimensional data regarding the structure of the projection target) stored in the ROM cartridge substrate 86. To do (S22). In this process, when the projection target member to be projected is one projection target member, only the texture data of the projection target member is selected. Further, in this process, when there are a plurality of projection target objects to be projected, synthetic texture data corresponding to the current timing is selected. Then, in this process, the GPU 153 develops the selected texture data in the VRAM 154 based on the instruction of the sub CPU 151.

なお、S21及びS22の処理において、選択されたリソース画像データ及びテクスチャデータは、VRAM154内において、フレームバッファ及びスクリーンバッファ以外のバッファ領域(仮想バッファ)に展開される。また、S21及びS22の処理順序は、任意であり、S22の処理の後にS21の処理を行ってもよい。   In the processes of S21 and S22, the selected resource image data and texture data are expanded in a buffer area (virtual buffer) other than the frame buffer and the screen buffer in the VRAM 154. In addition, the processing order of S21 and S22 is arbitrary, and the processing of S21 may be performed after the processing of S22.

次いで、GPU153は、テクスチャマッピング処理を行う(S23)。この処理では、S21の処理で選択されたリソース画像データとS22の処理で選択された被投影部材のテクスチャデータとを用いて、リソース画像の各画素データを、対応する被投影部材の投影面の位置に貼り付ける処理(マッピング)を行う。   Next, the GPU 153 performs texture mapping processing (S23). In this process, using the resource image data selected in the process of S21 and the texture data of the projection target selected in the process of S22, each pixel data of the resource image is displayed on the projection plane of the corresponding projection target Perform processing (mapping) to paste to the position.

次いで、GPU153は、S23で生成されたマッピング処理後の画像データを含む2倍画角データをVRAM154のフレームバッファ(FB)に展開(セット)する(S24)。次いで、GPU153は、フレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるマッピング処理後の画像データが格納されている領域(図23中では、フレームバッファの下半分の領域)の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)する(S25)。   Next, the GPU 153 expands (sets) the double angle-of-view data including the image data after the mapping process generated in S23 in the frame buffer (FB) of the VRAM 154 (S24). Next, the GPU 153 stores an area (in FIG. 23, the lower half of the frame buffer) in which the image data after the mapping process to be projected is stored in the double angle-of-view data expanded in the frame buffer (FB). The image data of the area) is copied (transferred) to the screen buffer (SB) of the VRAM 154 as the PJ compliant image data (S25).

そして、GPU153は、S25でスクリーンバッファ(SB)にコピーされたPJ対応画像データを映像信号に変換して、該映像信号をプロジェクタ213に出力する(S26)。この例では、上述のようにして、プロジェクタ213に出力するPJ対応画像データ(映像信号)を生成する。   Then, the GPU 153 converts the PJ compliant image data copied to the screen buffer (SB) in S25 into a video signal, and outputs the video signal to the projector 213 (S26). In this example, as described above, PJ compatible image data (video signal) to be output to the projector 213 is generated.

(3)各種効果
この例のように、PJ対応画像データの作成手法としてテクスチャマッピング法を採用した場合、より簡易な処理でPJ対応画像データを作成することができるので、CG作成に係るコストの増大を抑制しつつ、3次元CGを駆使した高画質で多彩な演出を実行することができる。また、この例では、被投影部材に映像光を投影した後のムービーを用意することができるので、GPU(VDP(Video Display Processor))の処理性能が低くても、問題なくムービーを再生することができ、テクスチャマッピング(プロジェクションマッピング)を汎用的に使用することができる。
(3) Various Effects As in this example, when the texture mapping method is adopted as a method of creating PJ compliant image data, the PJ compliant image data can be created by a simpler process, so the cost of CG creation can be reduced. While suppressing the increase, it is possible to execute various effects with high image quality utilizing 3D CG. Further, in this example, since a movie after projecting the image light onto the projection target member can be prepared, the movie can be reproduced without any problem even if the processing performance of the GPU (Video Display Processor) is low. And texture mapping (projection mapping) can be used generically.

さらに、この例においてもPJ対応画像データの作成過程で処理対象となる画像データは、投影対象画像の上部に該画像と同じサイズのダミー画像を付加した画像データ(2倍画角データ)である。それゆえ、この例においても、上記実施形態と同様に、画像データの作成段階で、被投影部材の投影面(スクリーン)に実際に映し出される映像の歪みを抑制することができ、高画質の演出映像を遊技者に提供することができる。   Furthermore, also in this example, the image data to be processed in the process of creating the PJ compatible image data is image data (double view angle data) obtained by adding a dummy image of the same size as the image to the top of the projection target image. . Therefore, also in this example, as in the above embodiment, distortion of the image actually displayed on the projection surface (screen) of the projection target member can be suppressed at the image data creation stage, and the high-quality effect is produced. An image can be provided to the player.

なお、テクスチャマッピング法によるPJ対応画像データの作成手法では、リソース画像データの各画素データを、各画素の座標に対応する被投影部材のテクスチャデータの座標に貼り付けるだけの処理であるので、上記実施形態で説明した仮想投影撮影法を用いた手法に比べて簡易な手法である。しかしながら、テクスチャマッピングを用いた手法では、仮想投影撮影法を用いた手法に比べて、例えば、図29に示す台形部材302の投影面間の境界付近で画像の歪みが発生し易くなるので、高画質という観点では、上記実施形態で説明した仮想投影撮影法を用いた手法の方が優位となる。   The PJ corresponding image data creation method based on the texture mapping method is a process of merely pasting each pixel data of the resource image data to the coordinates of the texture data of the projection target corresponding to the coordinates of each pixel. This method is simpler than the method using the virtual projection method described in the embodiment. However, in the method using texture mapping, distortion of the image is more likely to occur near the boundary between the projection planes of the trapezoidal member 302 shown in FIG. 29, for example, compared to the method using virtual projection photography. From the viewpoint of image quality, the method using virtual projection photography described in the above embodiment is superior.

また、図29及び図30で説明した例では、GPU153を使用してリアルタイムでテクスチャマッピング処理を行う例を説明したが、本発明はこれに限定されず、例えば、次のような手法を用いてもよい。まず、3次元CGツール等で予めリソース画像を被投影部材にマッピングした画像データを作成し、該マッピング後の画像データをロムカートリッジ基板86に格納する。次いで、画像表示時には、サブCPU151が、ロムカートリッジ基板86に格納された各種マッピング後の画像データの中から所定の画像データを選択し、該画像データをPJ対応画像データとしてプロジェクタ213に出力する。   Moreover, although the example demonstrated in FIG.29 and FIG.30 demonstrated the example which performs a texture mapping process in real time using GPU153, this invention is not limited to this, For example, the following methods are used. It is also good. First, using a three-dimensional CG tool or the like, image data in which a resource image is mapped to a projection target is created in advance, and the image data after the mapping is stored in the ROM cartridge substrate 86. Next, at the time of image display, the sub CPU 151 selects predetermined image data from among the various mapping image data stored in the ROM cartridge substrate 86, and outputs the image data to the projector 213 as PJ compliant image data.

また、図29及び図30で説明した例では、PJ対応画像データを生成する際には、VRAM154のフレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるマッピング処理後の画像データが格納されている領域の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーする例を説明したが、本発明はこれに限定されない。例えば、上記変形例2で説明した手法と同様に、投影対象のマッピング処理後の画像データを含む2倍画角データに対して、図28に示したプロジェクション行列Peを乗算(射影変換)して、2倍画角データから投影対象となるマッピング処理後の画像データ(等倍画角データ)を抽出してもよい。この場合、抽出された投影対象のマッピング処理後の画像データ(等倍画角データ)は、VRAM154のフレームバッファ(FB)に展開され、該展開された等倍画角データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)される。   Further, in the example described in FIG. 29 and FIG. 30, when generating PJ compliant image data, of the doubled view angle data expanded in the frame buffer (FB) of the VRAM 154, after mapping processing to be a projection target The image data of the area in which the image data of (1) is stored as the PJ compliant image data is copied to the screen buffer (SB) of the VRAM 154, but the present invention is not limited to this. For example, similarly to the method described in the second modification, the double-view angle data including the image data after the mapping processing of the projection target is multiplied (projective transformation) by multiplying the projection matrix Pe shown in FIG. It is also possible to extract image data (same magnification angle of view data) after mapping processing to be a projection target from the double angle of view data. In this case, the extracted image data after projection processing of the projection target (same-magnification angle-of-view data) is expanded in the frame buffer (FB) of the VRAM 154, and the expanded equal-magnification angle-of-view data is used as PJ compliant image data , Copied (transferred) to the screen buffer (SB) of the VRAM 154.

[その他の各種変形例]
上記実施形態では、平面スクリーン部材304の投影面304bを平面で構成し、その投影面に白色の塗料を塗布した例を説明したが、本発明はこれに限定されない。例えば、平面スクリーン部材304の投影面304b(第2平面)に印刷シートを貼り付けてもよい。また、この場合、例えば、印刷シートを複数の領域に分けて、それぞれの領域に異なる絵画や記号を形成してもよい。そして、プロジェクタ213から出射される映像光により、異なる絵画や記号に所定の順番で照明を当てるような映像(画像)を表示してもよい。この場合、いずれかの絵画(記号)が選択される、所謂、ルーレット演出を行うことができる。
[Other various modifications]
In the above embodiment, an example in which the projection surface 304 b of the flat screen member 304 is configured as a plane and a white paint is applied to the projection surface has been described, but the present invention is not limited to this. For example, the print sheet may be attached to the projection surface 304 b (second plane) of the flat screen member 304. In this case, for example, the print sheet may be divided into a plurality of areas, and different pictures or symbols may be formed in the respective areas. Then, an image (image) may be displayed in which different pictures or symbols are illuminated in a predetermined order by the image light emitted from the projector 213. In this case, a so-called roulette effect can be performed in which one of the pictures (symbols) is selected.

また、上記実施形態では、擬似リール部材303及び平面スクリーン部材304を移動させる構成例を説明したが、本発明はこれに限定されない。本発明に係る被投影部材としては、被投影部材全体が移動するものに限定されず、例えば、被投影部材に可動部を設け、被投影部材の一部(可動部)が移動する構成にしてもよい。この場合、可動部の動作に合わせた映像光を投影することにより、躍動感のある映像を表示することができ、映像を用いた演出の興趣を高めることができる。   Moreover, although the structural example which moves the pseudo | simulation reel member 303 and the flat screen member 304 was demonstrated in the said embodiment, this invention is not limited to this. The projection target member according to the present invention is not limited to one in which the entire projection target member moves, for example, a movable portion is provided on the projection target member, and a portion (movable portion) of the projection target member moves. It is also good. In this case, by projecting the video light adapted to the operation of the movable part, it is possible to display a video with a sense of motion, and it is possible to enhance the attraction of the effect using the video.

また、上記実施形態では、キャビネット2aの内部におけるフロントパネル10の開口10aに対向する位置に、プロジェクタ213を有する表示装置11を配置する例を説明したが、本発明はこれに限定されない。本発明に係る遊技機では、例えば、腰部パネル12に開口を設け、キャビネット2aの内部における腰部パネル12の開口に対向する位置に、プロジェクタを有する表示装置を配置してもよい。また、上記実施形態では、キャビネット2aの内部に表示装置11を配置する例を説明したが、本発明はこれに限定されない。本発明に係る遊技機では、例えば、フロントドア2bにプロジェクタを有する表示装置を配置してもよい。   Further, in the above embodiment, the example in which the display device 11 having the projector 213 is disposed at the position facing the opening 10 a of the front panel 10 inside the cabinet 2 a has been described, but the present invention is not limited thereto. In the gaming machine according to the present invention, for example, an opening may be provided in the waist panel 12, and a display device having a projector may be disposed at a position facing the opening of the waist panel 12 inside the cabinet 2a. Moreover, although the example which arrange | positions the display apparatus 11 inside the cabinet 2a was demonstrated in the said embodiment, this invention is not limited to this. In the gaming machine according to the present invention, for example, a display device having a projector may be disposed on the front door 2b.

また、本発明に係る遊技機では、擬似リール部材303の投影面331bに投影する映像として、スタートレバー16の操作(開始操作)に応じて、図柄が変動する映像を採用してもよい。そして、この場合には、擬似リール部材303の投影面331bにおいて、ストップボタン17L,17C,17Rの押圧操作(停止操作)に合わせて、変動する図柄を停止する映像を表示してもよい。   Further, in the gaming machine according to the present invention, as the video projected on the projection surface 331b of the pseudo reel member 303, a video in which the symbol fluctuates according to the operation (start operation) of the start lever 16 may be adopted. Then, in this case, an image may be displayed in which the symbol which is changed is stopped in accordance with the pressing operation (stop operation) of the stop button 17L, 17C, 17R on the projection surface 331b of the pseudo reel member 303.

また、上記実施形態では、被投影部材の投影面(スクリーン)に対して、その表面側からプロジェクタの光を投射して映像を表示する方式(フロントプロジェクション)を採用した例を説明したが、本発明はこれに限定されない。例えば、スクリーンに対して、その裏面(背面)側からプロジェクタの光を投射して映像を表示する方式(リアプロジェクション)を採用してもよく、この場合においても最適な効果を得ることができる。また、本発明に係る遊技機では、表示装置として、プロジェクタの代わりに、例えば、液晶表示装置や、有機・無機EL等の表示装置を用いることができる。   Further, in the above embodiment, an example was described in which a method (front projection) for projecting the light of the projector from the surface side to display an image on the projection surface (screen) of the projection target member has been described. The invention is not limited to this. For example, a method (rear projection) may be adopted in which the light of the projector is projected from the back (rear) side of the screen to display an image (rear projection), and also in this case, an optimum effect can be obtained. Further, in the gaming machine according to the present invention, as a display device, for example, a liquid crystal display device or a display device such as organic / inorganic EL can be used instead of the projector.

また、上記実施形態では、本発明に係る遊技機として、パチスロ遊技機を例に挙げて説明したが、本発明はこれに限定されず、本発明に係る遊技機が、例えば、パチンコ遊技機であってもよい。   In the above embodiment, a pachislot machine has been described as an example of the gaming machine according to the present invention, but the present invention is not limited to this, and the gaming machine according to the present invention is, for example, a pachinko gaming machine It may be.

<付記(本発明のまとめ)>
[第1〜第4の遊技機]
従来、CGROM(Character Generator ROM)に動画像データを読み込んで展開し、3次元動画像を液晶ディスプレイ等の表示装置に表示する機能を備えた遊技機が提案されている(例えば、特開平7―155438号公報参照)。
<Supplementary Note (Summary of the Invention)>
[First to fourth game machines]
Conventionally, there has been proposed a gaming machine having a function of reading moving image data in a CGROM (Character Generator ROM) and expanding it, and displaying a three-dimensional moving image on a display device such as a liquid crystal display (for example, 155438)).

ところで、近年、液晶ディスプレイ等の表示装置が搭載された遊技機では、3次元CG(Computer Graphics)技術を駆使した高画質で多彩な演出が主流となっている。そして、その多彩な演出を行うためのCGデータを予め作成し、該作成したCGデータをCGROMに記憶しているため、CG作成に係るコストが、年々、増大している。   By the way, in recent years, in a gaming machine equipped with a display device such as a liquid crystal display or the like, high-quality and versatile effects utilizing three-dimensional CG (Computer Graphics) technology have become mainstream. Then, CG data for performing various effects is created in advance, and the created CG data is stored in the CGROM, so the cost for creating the CG increases year by year.

本発明は、上記第1の課題を解決するためになされたものであり、本発明の第1の目的は、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行可能にする遊技機を提供することである。   The present invention has been made to solve the above first problem, and the first object of the present invention is to achieve high image quality utilizing three-dimensional CG technology while suppressing increase in cost relating to CG creation. To provide a gaming machine capable of performing various effects.

上記第1の課題を解決するために、本発明では、以下のような構成の第1−1の遊技機を提供する。   In order to solve the first problem, the present invention provides a first one-first gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部に記憶し、
前記揮発性記憶部に記憶された前記第2の視点画像のデータを映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A control unit (for example, a sub control board 72) that controls the display operation of the image using the display unit;
Non-volatile memory in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit are stored Memory storage unit (eg, a ROM cartridge substrate 86);
The control unit
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used when the image processing unit executes the process;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
The volatile storage unit is used to virtually project an image corresponding to the predetermined original image data from the first direction (for example, the direction of the player's eyes) on the virtual object arranged in the virtual space Data of a first viewpoint image (for example, virtual projection image data) to be projected onto the virtual object in the case where the virtual object is generated, based on the predetermined original image data and the data of the virtual object,
A second acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of the actual image light) in the virtual space. Generating data of a viewpoint image (for example, virtual captured image data) and storing data of the second viewpoint image in the volatile storage unit;
A game machine characterized by converting data of the second viewpoint image stored in the volatile storage unit into a video signal and outputting the video signal.

上記第1の課題を解決するために、本発明では、以下のような構成の第1−2の遊技機を提供する。   In order to solve the first problem, the present invention provides a first-second gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成する
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A storage in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data (for example, virtual object data) of virtual objects corresponding to the display unit (E.g., the ROM cartridge substrate 86), and
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to output of the image according to control by the control processing unit;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects data of the virtual object.
The image processing unit
The virtual object is projected onto the virtual object when the image corresponding to the predetermined original image data is virtually projected from the first direction (for example, the player's line of Data of a first viewpoint image to be generated (for example, virtual projection image data) based on the predetermined original image data and data of the virtual object,
A second acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of the actual image light) in the virtual space. A game machine characterized by generating data of a viewpoint image (for example, virtual photographed image data).

上記第1の課題を解決するために、本発明では、以下のような構成の第1−3の遊技機を提供する。   In order to solve the first problem, the present invention provides a first to third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A projection unit (for example, a projection block 201 including a projector 213) which projects video light corresponding to the image on the display unit;
A storage in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data (for example, virtual object data) of virtual objects corresponding to the display unit (E.g., the ROM cartridge substrate 86), and
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to output of the image according to control by the control processing unit;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects data of the virtual object.
The image processing unit
The virtual object is projected onto the virtual object when the image corresponding to the predetermined original image data is virtually projected from the first direction (for example, the player's line of Data of a first viewpoint image to be generated (for example, virtual projection image data) based on the predetermined original image data and data of the virtual object,
A second acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of the actual image light) in the virtual space. Generate data of a viewpoint image (for example, virtual captured image data);
The first direction is a line of sight direction of the player with respect to the display surface of the image of the display unit, and the second direction is an incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by

上記第1の課題を解決するために、本発明では、以下のような構成の第2−1の遊技機を提供する。   In order to solve the said 1st subject, in this invention, the 2-1st game machine of the following structures is provided.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A control unit (for example, a sub control board 72) that controls the display operation of the image using the display unit;
Non-volatile memory in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit are stored Memory storage unit (eg, a ROM cartridge substrate 86);
The control unit
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used when the image processing unit executes the process;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
The volatile storage unit is used to virtually project an image corresponding to the predetermined original image data from the first direction (for example, the direction of the player's eyes) on the virtual object arranged in the virtual space Data (e.g., virtual projection image data) of the first viewpoint image to be projected onto the virtual object when it occurs, based on the predetermined original image data and the data of the virtual object, and the first Storing the data of the viewpoint image of the second memory in a first buffer (for example, a virtual buffer) of the volatile storage unit;
A second acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of the actual image light) in the virtual space. Generating data of a viewpoint image (for example, virtual captured image data) and storing data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the data of the image displayed on the display unit from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit A gaming machine characterized by converting data (for example, PJ compliant image data) stored in the third buffer into a video signal and outputting the video signal.

上記第1の課題を解決するために、本発明では、以下のような構成の第2−2の遊技機を提供する。   In order to solve the first problem described above, the present invention provides a game machine having the following configuration 2-2.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記第3のバッファのサイズが前記画像のサイズと同じであり、前記第2のバッファのサイズが前記第3のバッファのサイズより大きい
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
Non-volatile memory in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit are stored Memory (for example, a ROM cartridge substrate 86);
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used at the time of execution of the processing by the image processing unit;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
The volatile storage unit is used to virtually project an image corresponding to the predetermined original image data from the first direction (for example, the direction of the player's eyes) on the virtual object arranged in the virtual space Data (e.g., virtual projection image data) of the first viewpoint image to be projected onto the virtual object when it occurs, based on the predetermined original image data and the data of the virtual object, and the first Storing the data of the viewpoint image of the second memory in a first buffer (for example, a virtual buffer) of the volatile storage unit;
A second acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of the actual image light) in the virtual space. Generating data of a viewpoint image (for example, virtual captured image data) and storing data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the data of the image displayed on the display unit from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit Converting the data stored in the third buffer (for example, PJ compatible image data) into a video signal and outputting the video signal;
A game machine, wherein the size of the third buffer is the same as the size of the image, and the size of the second buffer is larger than the size of the third buffer.

上記第1の課題を解決するために、本発明では、以下のような構成の第2−3の遊技機を提供する。   In order to solve the above first problem, the present invention provides a second to third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A projection unit (for example, a projection block 201 including a projector 213) which projects video light corresponding to the image on the display unit;
Non-volatile memory in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and data of a virtual object (for example, virtual object data) corresponding to the display unit are stored Memory (for example, a ROM cartridge substrate 86);
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used at the time of execution of the processing by the image processing unit;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
The volatile storage unit is used to virtually project an image corresponding to the predetermined original image data from the first direction (for example, the direction of the player's eyes) on the virtual object arranged in the virtual space Data (e.g., virtual projection image data) of the first viewpoint image to be projected onto the virtual object when it occurs, based on the predetermined original image data and the data of the virtual object, and the first Storing the data of the viewpoint image of the second memory in a first buffer (for example, a virtual buffer) of the volatile storage unit;
A second acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of the actual image light) in the virtual space. Generating data of a viewpoint image (for example, virtual captured image data) and storing data of the second viewpoint image in a second buffer (for example, a frame buffer) of the volatile storage unit;
Transferring the data of the image displayed on the display unit from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit Converting the data stored in the third buffer (for example, PJ compatible image data) into a video signal and outputting the video signal;
The first direction is a line of sight direction of the player with respect to the display surface of the image of the display unit, and the second direction is an incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by

上記第1の課題を解決するために、本発明では、以下のような構成の第3−1の遊技機を提供する。   In order to solve the first problem described above, the present invention provides a 3-1st gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成し、
前記揮発性記憶部で生成された前記擬似3次元画像データを映像信号に変換して、該変換された映像信号を出力する
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A control unit (for example, a sub control board 72) that controls the display operation of the image using the display unit;
Nonvolatile storage unit storing a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and texture information (for example, texture data) on the structure of the display unit (For example, a rom cartridge substrate 86),
The control unit
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used when the image processing unit executes the process;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects the texture information.
The image processing unit
Pseudo three-dimensional image data (for example, image data after mapping) in which the texture information is reflected on the predetermined original image data using the volatile storage unit, the predetermined original image data and the texture information Generate based on
A game machine characterized by converting the pseudo three-dimensional image data generated by the volatile storage unit into a video signal and outputting the converted video signal.

上記第1の課題を解決するために、本発明では、以下のような構成の第3−2の遊技機を提供する。   In order to solve the first problem, the present invention provides a third-second gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成する
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A storage unit (for example, a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and texture information (for example, texture data) related to the structure of the display unit , ROM cartridge substrate 86),
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to output of the image according to control by the control processing unit;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects the texture information.
The image processing unit
Pseudo three-dimensional image data (for example, image data after mapping) in which the texture information is reflected on the predetermined original image data is generated based on the predetermined original image data and the texture information. Gaming machine.

上記第1の課題を解決するために、本発明では、以下のような構成の第3−3の遊技機を提供する。   In order to solve the first problem, the present invention provides a third to third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成して、前記揮発性記憶部の所定のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記擬似3次元画像データが記憶された前記所定のバッファから前記揮発性記憶部の特定のバッファ(例えば、スクリーンバッファ)に転送し、該特定のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記特定のバッファのサイズが前記画像のサイズと同じであり、前記所定のバッファのサイズが前記特定のバッファのサイズより大きい
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A projection unit (for example, a projection block 201 including a projector 213) which projects video light corresponding to the image on the display unit;
Nonvolatile storage unit storing a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and texture information (for example, texture data) on the structure of the display unit (For example, the ROM cartridge substrate 86),
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used at the time of execution of the processing by the image processing unit;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects the texture information.
The image processing unit
Based on the predetermined original image data and the texture information, pseudo three-dimensional image data (for example, image data after mapping) in which the texture information is reflected on the predetermined original image data is generated, and the volatile property is generated Stored in a predetermined buffer (for example, a frame buffer) of the storage unit,
Transferring the data of the image displayed on the display unit from the predetermined buffer in which the pseudo three-dimensional image data is stored to a specific buffer (for example, a screen buffer) of the volatile storage unit; Converting data (for example, PJ compliant image data) stored in the buffer into a video signal and outputting the video signal;
A gaming machine characterized in that the size of the specific buffer is the same as the size of the image, and the size of the predetermined buffer is larger than the size of the specific buffer.

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−1の遊技機を提供する。   In addition, in order to solve the above first problem, the present invention provides a gaming machine having the following configuration 4-1.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータを抽出し、該抽出された前記画像のデータを映像信号に変換して、該映像信号を出力し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータである
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A control unit (for example, a sub control board 72) that controls the display operation of the image using the display unit;
A plurality of image data (for example, double angle-of-field data including resource image data) for generating the image to be displayed on the display unit, and information for displaying the image on the display unit (for example, virtual A non-volatile storage unit (eg, a ROM cartridge substrate 86) storing object data or texture data);
The control unit
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used when the image processing unit executes the process;
The control processing unit selects predetermined image data from the plurality of image data stored in the non-volatile storage unit, and selects information for displaying the image on the display unit.
The image processing unit
The image data in which predetermined processing has been performed on the predetermined image data based on the information for displaying the image on the display unit, using a specific conversion parameter (for example, projection matrix Pe), Extracting the data of the image displayed by the display unit, converting the extracted data of the image into a video signal, and outputting the video signal;
The specific conversion parameter is a predetermined projection conversion parameter (for example, projection matrix P ′) for performing projection conversion processing on image data subjected to the predetermined processing, in which a viewing angle is set to a predetermined angle. And a predetermined offset parameter (for example, an offset matrix O).

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−2の遊技機を提供する。   In addition, in order to solve the first problem, the present invention provides a gaming machine having the following configuration 4-2.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータに変換し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータである
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A plurality of image data (for example, double angle-of-field data including resource image data) for generating the image to be displayed on the display unit, and information for displaying the image on the display unit (for example, virtual A storage unit (for example, a ROM cartridge substrate 86) in which object data or texture data is stored;
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to output of the image according to control by the control processing unit;
The control processing unit selects predetermined image data from the plurality of image data stored in the storage unit, and selects information for displaying the image on the display unit.
The image processing unit
The image data in which predetermined processing has been performed on the predetermined image data based on the information for displaying the image on the display unit, using a specific conversion parameter (for example, projection matrix Pe), Convert to the data of the image displayed by the display unit;
The specific conversion parameter is a predetermined projection conversion parameter (for example, projection matrix P ′) for performing projection conversion processing on image data subjected to the predetermined processing, in which a viewing angle is set to a predetermined angle. And a predetermined offset parameter (for example, an offset matrix O).

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−3の遊技機を提供する。   In addition, in order to solve the first problem, the present invention provides a fourth to third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータを抽出し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータであり、
前記所定の処理が施された画像データのサイズが、前記特定の変換パラメータを用いて抽出された画像データのサイズより大きい
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A plurality of image data (for example, double angle-of-field data including resource image data) for generating the image to be displayed on the display unit, and information for displaying the image on the display unit (for example, virtual A storage unit (for example, a ROM cartridge substrate 86) in which object data or texture data is stored;
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to output of the image according to control by the control processing unit;
The control processing unit selects predetermined image data from the plurality of image data stored in the storage unit, and selects information for displaying the image on the display unit.
The image processing unit
The image data in which predetermined processing has been performed on the predetermined image data based on the information for displaying the image on the display unit, using a specific conversion parameter (for example, projection matrix Pe), Extracting data of the image displayed by the display unit;
The specific conversion parameter is a predetermined projection conversion parameter (for example, projection matrix P ′) for performing projection conversion processing on image data subjected to the predetermined processing, in which a viewing angle is set to a predetermined angle. ) And a predetermined offset parameter (eg, offset matrix O), and
A game machine characterized in that a size of image data subjected to the predetermined processing is larger than a size of image data extracted using the specific conversion parameter.

上記構成の本発明の第1〜第4の遊技機によれば、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行することができる。   According to the first to fourth gaming machines of the present invention configured as described above, it is possible to execute various effects with high image quality utilizing three-dimensional CG technology while suppressing an increase in cost involved in CG creation.

[第5及び第6の遊技機]
従来、CGROM(Character Generator ROM)に動画像データを読み込んで展開し、3次元動画像を液晶ディスプレイ等の表示装置に表示する機能を備えた遊技機が提案されている(例えば、特開平7―155438号公報参照)。
[Fifth and Sixth Game Machines]
Conventionally, there has been proposed a gaming machine having a function of reading moving image data in a CGROM (Character Generator ROM) and expanding it, and displaying a three-dimensional moving image on a display device such as a liquid crystal display (for example, 155438)).

ところで、近年、液晶ディスプレイ等の表示装置が搭載された遊技機では、3次元CG(Computer Graphics)技術を駆使した高画質で多彩な演出が主流となっている。そして、その多彩な演出を行うためのCGデータを予め作成し、該作成したCGデータをCGROMに記憶しているため、CG作成に係るコストが、年々、増大している。また、従来、この技術分野では、プロジェクトマッピング(テクスチャマッピング)法と呼ばれる手法により、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する技術が提案されているが、この場合、オブジェクトに対する投影画像のズレを無くすための調整が最大の懸念材料となっている。   By the way, in recent years, in a gaming machine equipped with a display device such as a liquid crystal display or the like, high-quality and versatile effects utilizing three-dimensional CG (Computer Graphics) technology have become mainstream. Then, CG data for performing various effects is created in advance, and the created CG data is stored in the CGROM, so the cost for creating the CG increases year by year. Also, in the related art, a technique called Project Mapping (Texture Mapping) has been proposed to project an image onto an object such as a three-dimensional object (three-dimensional screen) using a projector. In this case, Adjustments to eliminate the displacement of the projected image with respect to the object are the greatest concern.

本発明は、上記第2の課題を解決するためになされたものであり、本発明の第2の目的は、CG作成に係るコストの増大を抑制するとともに、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合に、オブジェクトに対する投影画像のズレを最小限に抑制することが可能な遊技機を提供することである。   The present invention has been made to solve the above second problem, and the second object of the present invention is to suppress an increase in cost involved in CG creation, and to use a projector for three-dimensional images ( An object of the present invention is to provide a gaming machine capable of minimizing displacement of a projected image with respect to an object when projecting onto an object such as a three-dimensional screen.

上記第2の課題を解決するために、本発明では、以下のような構成の第5−1の遊技機を提供する。   In order to solve the second problem described above, the present invention provides a gaming machine having the following configuration 5-1.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用いる
ことを特徴とする遊技機。
A fixed first display unit (for example, trapezoidal member 302) and a movable second display unit (for example, pseudo reel member 303), and at least the first display unit and the second display unit A display unit (for example, various projection target members) that can be an image display target on one side;
A control unit (for example, a sub control board 72) that controls the display operation of the image using the display unit;
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data (for example, virtual object data corresponding to the form of the display unit to be the display target of the image) A non-volatile storage unit (eg, a ROM cartridge substrate 86) storing virtual object data);
And movably controlling means (e.g., a projection target moving mechanism 305) for movably controlling the second display unit.
The control unit
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used when the image processing unit executes the process;
The control processing unit selects predetermined original image data from the plurality of pieces of original image data stored in the non-volatile storage unit, and the display unit to be displayed with the predetermined original image data. Select data of a predetermined virtual object corresponding to the form,
The image processing unit
The volatile storage unit is used to virtually image the image corresponding to the predetermined original image data from the first direction (for example, the direction of the player's line of sight) to the predetermined virtual object arranged in the virtual space. Data of the first viewpoint image (for example, virtual projection image data) to be projected onto the predetermined virtual object when projected onto the surface, based on the predetermined original image data and the predetermined virtual object data Storing data of the first viewpoint image in a first buffer (for example, a virtual buffer) of the volatile storage unit;
A second image is acquired when the first viewpoint image projected onto the predetermined virtual object is virtually photographed in a second direction (for example, an actual incident direction of video light) in the virtual space. Generating data of two viewpoint images (for example, virtual captured image data), and storing data of the second viewpoint image in a second buffer (for example, frame buffer) of the volatile storage unit;
Transferring the data of the image displayed on the display unit from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit Converting the data stored in the third buffer (for example, PJ compatible image data) into a video signal and outputting the video signal;
When the second display unit is movably controlled by the movable control unit, the data corresponding to the form of the display unit according to the operation condition of the second display unit as data of the predetermined virtual object. A game machine characterized by using data of a virtual object.

上記第2の課題を解決するために、本発明では、以下のような構成の第5−2の遊技機を提供する。   In order to solve the second problem, the present invention provides a fifth game machine having the following configuration.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用い、
前記第3のバッファのサイズが前記画像のサイズと同じであり、前記第2のバッファのサイズが前記第3のバッファのサイズより大きい
ことを特徴とする遊技機。
A fixed first display unit (for example, trapezoidal member 302) and a movable second display unit (for example, pseudo reel member 303), and at least the first display unit and the second display unit A display unit (for example, various projection target members) that can be an image display target on one side;
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data (for example, virtual object data corresponding to the form of the display unit to be the display target of the image) A non-volatile storage unit (eg, a ROM cartridge substrate 86) storing virtual object data);
Movable control means (for example, a projection target member moving mechanism 305) for movably controlling the second display unit;
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used at the time of execution of the processing by the image processing unit;
The control processing unit selects predetermined original image data from the plurality of pieces of original image data stored in the non-volatile storage unit, and the display unit to be displayed with the predetermined original image data. Select data of a predetermined virtual object corresponding to the form,
The image processing unit
The volatile storage unit is used to virtually image the image corresponding to the predetermined original image data from the first direction (for example, the direction of the player's line of sight) to the predetermined virtual object arranged in the virtual space. Data of the first viewpoint image (for example, virtual projection image data) to be projected onto the predetermined virtual object when projected onto the surface, based on the predetermined original image data and the predetermined virtual object data Storing data of the first viewpoint image in a first buffer (for example, a virtual buffer) of the volatile storage unit;
A second image is acquired when the first viewpoint image projected onto the predetermined virtual object is virtually photographed in a second direction (for example, an actual incident direction of video light) in the virtual space. Generating data of two viewpoint images (for example, virtual captured image data), and storing data of the second viewpoint image in a second buffer (for example, frame buffer) of the volatile storage unit;
Transferring the data of the image displayed on the display unit from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit Converting the data stored in the third buffer (for example, PJ compatible image data) into a video signal and outputting the video signal;
When the second display unit is movably controlled by the movable control unit, the data corresponding to the form of the display unit according to the operation condition of the second display unit as data of the predetermined virtual object. Using data of virtual object,
A game machine, wherein the size of the third buffer is the same as the size of the image, and the size of the second buffer is larger than the size of the third buffer.

上記第2の課題を解決するために、本発明では、以下のような構成の第5−3の遊技機を提供する。   In order to solve the second problem, the present invention provides a fifth to third gaming machine having the following configuration.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用い、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A fixed first display unit (for example, trapezoidal member 302) and a movable second display unit (for example, pseudo reel member 303), and at least the first display unit and the second display unit A display unit (for example, various projection target members) that can be an image display target on one side;
A projection unit (for example, a projection block 201 including a projector 213) which projects video light corresponding to the image on the display unit;
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data (for example, virtual object data corresponding to the form of the display unit to be the display target of the image) A non-volatile storage unit (eg, a ROM cartridge substrate 86) storing virtual object data);
Movable control means (for example, a projection target member moving mechanism 305) for movably controlling the second display unit;
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used at the time of execution of the processing by the image processing unit;
The control processing unit selects predetermined original image data from the plurality of pieces of original image data stored in the non-volatile storage unit, and the display unit to be displayed with the predetermined original image data. Select data of a predetermined virtual object corresponding to the form,
The image processing unit
The volatile storage unit is used to virtually image the image corresponding to the predetermined original image data from the first direction (for example, the direction of the player's line of sight) to the predetermined virtual object arranged in the virtual space. Data of the first viewpoint image (for example, virtual projection image data) to be projected onto the predetermined virtual object when projected onto the surface, based on the predetermined original image data and the predetermined virtual object data Storing data of the first viewpoint image in a first buffer (for example, a virtual buffer) of the volatile storage unit;
A second image is acquired when the first viewpoint image projected onto the predetermined virtual object is virtually photographed in a second direction (for example, an actual incident direction of video light) in the virtual space. Generating data of two viewpoint images (for example, virtual captured image data), and storing data of the second viewpoint image in a second buffer (for example, frame buffer) of the volatile storage unit;
Transferring the data of the image displayed on the display unit from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit Converting the data stored in the third buffer (for example, PJ compatible image data) into a video signal and outputting the video signal;
When the second display unit is movably controlled by the movable control unit, the data corresponding to the form of the display unit according to the operation condition of the second display unit as data of the predetermined virtual object. Using data of virtual object,
The first direction is a line of sight direction of the player with respect to the display surface of the image of the display unit, and the second direction is an incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−1の遊技機を提供する。   In addition, in order to solve the second problem, the present invention provides a six-first gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
前記揮発性記憶部を使用して、仮想空間上に配置された各第2の仮想オブジェクトに対して、第1の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記第1の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成し、
前記仮想空間上において、前記第1の仮想オブジェクト上に投影された前記合成画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部に記憶し、
前記揮発性記憶部に記憶された前記第2の視点画像のデータを映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A control unit (for example, a sub control board 72) that controls the display operation of the image using the display unit;
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display form configured by the display unit (for example, A non-volatile storage unit (for example, a ROM cartridge substrate 86) in which data of a composite virtual object is stored;
The control unit
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit (for example, VRAM 154) used when the image processing unit executes the process;
The control processing unit selects predetermined original image data from the plurality of pieces of original image data stored in the non-volatile storage unit, and the display unit to be displayed with the predetermined original image data. Selecting data of the first virtual object corresponding to a display form;
The image processing unit
The volatile storage unit is used to decompose the first virtual object into a plurality of second virtual objects (for example, virtual objects of the respective projected members) corresponding to the display form,
The volatile storage unit is used to correspond to the predetermined original image data in a first direction (for example, the direction of the player's eyes) for each of the second virtual objects arranged in the virtual space. Data of a first viewpoint image (for example, virtual projection image data of each projection target member) projected onto each second virtual object when the virtual image is virtually projected, the predetermined original image data, and Generate based on the data of each second virtual object,
Data of a composite image virtually projected onto the first virtual object by combining the first viewpoint images generated for the respective second virtual objects (for example, composite virtual projection image Generate data)
A second acquired when the composite image projected on the first virtual object is virtually photographed from a second direction (for example, an incident direction of an actual image light) in the virtual space. Generating data of a viewpoint image (for example, virtual captured image data) and storing data of the second viewpoint image in the volatile storage unit;
A game machine characterized by converting data of the second viewpoint image stored in the volatile storage unit into a video signal and outputting the video signal.

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−2の遊技機を提供する。   In addition, in order to solve the above second problem, the present invention provides a sixth-2 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
仮想空間上に配置された各第2の仮想オブジェクトに対して、所定の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される所定の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記所定の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成する
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display form configured by the display unit (for example, A storage unit (for example, a ROM cartridge substrate 86) in which data of a composite virtual object is stored;
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to output of the image according to control by the control processing unit;
The control processing unit selects predetermined original image data from the plurality of pieces of original image data stored in the storage unit, and a display form of the display unit to be displayed of the predetermined original image data. Select data of the first virtual object corresponding to
The image processing unit
The first virtual object is decomposed into a plurality of second virtual objects (for example, virtual objects of the respective projected members) corresponding to the display form,
When an image corresponding to the predetermined original image data is virtually projected from a predetermined direction (for example, the direction of the player's eyes) to each second virtual object arranged in the virtual space Data of a predetermined viewpoint image to be projected onto a second virtual object (for example, virtual projection image data of each projection target member) is generated based on the predetermined original image data and data of each second virtual object And
Data of a composite image virtually projected onto the first virtual object by combining the predetermined viewpoint images generated for the respective second virtual objects (for example, composite virtual projection image data Game machine characterized by producing.

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−3の遊技機を提供する。   Further, in order to solve the second problem, the present invention provides a sixth to third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
仮想空間上に配置された各第2の仮想オブジェクトに対して、第1の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記第1の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成し、
前記仮想空間上において、前記第1の仮想オブジェクト上に投影された前記合成画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit (for example, various projection target members) on which an image is displayed;
A projection unit (for example, a projection block 201 including a projector 213) which projects video light corresponding to the image on the display unit;
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display form configured by the display unit (for example, A storage unit (for example, a ROM cartridge substrate 86) in which data of a composite virtual object is stored;
A control processing unit (for example, a sub CPU 151) that controls generation processing of the image displayed on the display unit;
An image processing unit (for example, a GPU 153) that performs processing related to output of the image according to control by the control processing unit;
The control processing unit selects predetermined original image data from the plurality of pieces of original image data stored in the storage unit, and a display form of the display unit to be displayed of the predetermined original image data. Select data of the first virtual object corresponding to
The image processing unit
The first virtual object is decomposed into a plurality of second virtual objects (for example, virtual objects of the respective projected members) corresponding to the display form,
When an image corresponding to the predetermined original image data is virtually projected from each of the second virtual objects arranged in the virtual space from the first direction (for example, the direction of the player's eyes) Data of a first viewpoint image (for example, virtual projection image data of each projected member) projected onto each second virtual object is based on the predetermined original image data and data of each second virtual object Generate
Data of a composite image virtually projected onto the first virtual object by combining the first viewpoint images generated for the respective second virtual objects (for example, composite virtual projection image Generate data)
A second acquired when the composite image projected on the first virtual object is virtually photographed from a second direction (for example, an incident direction of an actual image light) in the virtual space. Generate data of a viewpoint image (for example, virtual captured image data);
The first direction is a line of sight direction of the player with respect to the display surface of the image of the display unit, and the second direction is an incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by

上記構成の本発明の第5及び第6の遊技機によれば、CG作成に係るコストの増大を抑制するとともに、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合に、オブジェクトに対する投影画像のズレを最小限に抑制することができる。   According to the fifth and sixth gaming machines of the present invention configured as described above, the increase in the cost involved in CG creation is suppressed, and when an image is projected onto an object such as a three-dimensional object (three-dimensional screen) using a projector. The displacement of the projected image with respect to the object can be minimized.

1…パチスロ、3L,3C,3R…リール、4…リール表示窓、6…情報表示器、11…表示装置、17L,17C,17R…ストップボタン、71…主制御基板、72…副制御基板、86…ロムカートリッジ基板、90…主制御回路、91…マイクロプロセッサ、101…メインCPU、102…メインROM、103…メインRAM、150…副制御回路、151…サブCPU、152…サブRAM152、153…GPU、154…VRAM、201…投影ブロック、202…被投影ブロック、213…プロジェクタ、237…反射ミラー、302…台形部材、303…擬似リール部材、304…平面スクリーン部材、305…被投影部材移動機構   DESCRIPTION OF SYMBOLS 1 ... Pachi slot, 3L, 3C, 3R ... Reel, 4 ... Reel display window, 6 ... Information indicator, 11 ... Display device, 17L, 17C, 17R ... Stop button, 71 ... Main control board, 72 ... Sub control board, 86: ROM cartridge substrate, 90: main control circuit, 91: microprocessor, 101: main CPU, 102: main ROM, 103: main RAM, 150: sub control circuit, 151: sub CPU, 152: sub RAM 152, 153 ... GPU 154 154 VRAM 201 projection block 202 projection block 213 projector 237 reflection mirror 302 trapezoidal member 303 pseudo reel member 304 flat screen member 305 projection member moving mechanism

Claims (1)

画像が表示される表示部と、
前記表示部に前記画像に対応する映像光を投影する投影部と、
前記表示部に表示する前記画像を生成するための複数の原画像データ、及び、前記表示部に対応した仮想オブジェクトのデータが記憶された不揮発性記憶部と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータを、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファに記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向から仮想的に撮影した場合に取得される第2の視点画像のデータを生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファに記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファに転送し、該第3のバッファに記憶されているデータを映像信号に変換して、該映像信号を出力し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit on which an image is displayed;
A projection unit for projecting video light corresponding to the image on the display unit;
A plurality of original image data for generating the image to be displayed on the display unit, and a non-volatile storage unit storing data of a virtual object corresponding to the display unit;
A control processing unit that controls generation processing of the image displayed on the display unit;
An image processing unit that performs processing related to the output of the image according to control by the control processing unit;
A volatile storage unit used at the time of execution of the process by the image processing unit;
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
When the image corresponding to the predetermined original image data is virtually projected from the first direction onto the virtual object arranged in the virtual space using the volatile storage unit, the image is projected onto the virtual object Data of the first viewpoint image to be generated based on the predetermined original image data and the data of the virtual object, and the data of the first viewpoint image is stored in the first buffer of the volatile storage unit. Remember
In the virtual space, data of a second viewpoint image acquired when the first viewpoint image projected onto the virtual object is virtually photographed from a second direction is generated, and Storing data of two viewpoint images in a second buffer of the volatile storage unit;
The data of the image displayed on the display unit is transferred from the second buffer in which the data of the second viewpoint image is stored to the third buffer of the volatile storage unit, and the third buffer Convert the data stored in the video signal into a video signal and output the video signal,
The first direction is a line of sight direction of the player with respect to the display surface of the image of the display unit, and the second direction is an incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by
JP2017075378A 2017-04-05 2017-04-05 Game machine Pending JP2018175069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017075378A JP2018175069A (en) 2017-04-05 2017-04-05 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017075378A JP2018175069A (en) 2017-04-05 2017-04-05 Game machine

Publications (1)

Publication Number Publication Date
JP2018175069A true JP2018175069A (en) 2018-11-15

Family

ID=64279982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017075378A Pending JP2018175069A (en) 2017-04-05 2017-04-05 Game machine

Country Status (1)

Country Link
JP (1) JP2018175069A (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051825A (en) * 1999-08-04 2001-02-23 Casio Comput Co Ltd Display controller and storage medium
JP2008288714A (en) * 2007-05-15 2008-11-27 Ohira Giken:Kk Video projection system
JP2009075646A (en) * 2007-09-18 2009-04-09 Hitachi Ltd Video display system and parameter generation method of same
JP2014146930A (en) * 2013-01-28 2014-08-14 Jvc Kenwood Corp Projection device, image correction method, and program
JP2014153404A (en) * 2013-02-05 2014-08-25 Ricoh Co Ltd Information processing device, information processing method, and information processing program
JP2015198275A (en) * 2014-03-31 2015-11-09 株式会社バンダイナムコエンターテインメント Image creating system and program
JP2016010529A (en) * 2014-06-30 2016-01-21 株式会社フューチャーデバイス Presentation unit and game machine provided therewith
JP2016019194A (en) * 2014-07-09 2016-02-01 株式会社東芝 Image processing apparatus, image processing method, and image projection device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051825A (en) * 1999-08-04 2001-02-23 Casio Comput Co Ltd Display controller and storage medium
JP2008288714A (en) * 2007-05-15 2008-11-27 Ohira Giken:Kk Video projection system
JP2009075646A (en) * 2007-09-18 2009-04-09 Hitachi Ltd Video display system and parameter generation method of same
JP2014146930A (en) * 2013-01-28 2014-08-14 Jvc Kenwood Corp Projection device, image correction method, and program
JP2014153404A (en) * 2013-02-05 2014-08-25 Ricoh Co Ltd Information processing device, information processing method, and information processing program
JP2015198275A (en) * 2014-03-31 2015-11-09 株式会社バンダイナムコエンターテインメント Image creating system and program
JP2016010529A (en) * 2014-06-30 2016-01-21 株式会社フューチャーデバイス Presentation unit and game machine provided therewith
JP2016019194A (en) * 2014-07-09 2016-02-01 株式会社東芝 Image processing apparatus, image processing method, and image projection device

Similar Documents

Publication Publication Date Title
JP6797484B2 (en) Game machine
JP6797485B2 (en) Game machine
JP2018191853A (en) Game machine
JP6804159B2 (en) Game machine
JP6869611B2 (en) Game machine
JP6869612B2 (en) Game machine
JP6774366B2 (en) Game machine
JP2018175069A (en) Game machine
JP2018175068A (en) Game machine
JP2018175066A (en) Game machine
JP2018175071A (en) Game machine
JP2018175070A (en) Game machine
JP2018175064A (en) Game machine
JP2018175076A (en) Game machine
JP2018175077A (en) Game machine
JP2018175065A (en) Game machine
JP2018175074A (en) Game machine
JP2018175075A (en) Game machine
JP2018191858A (en) Game machine
JP2018175067A (en) Game machine
JP2018191865A (en) Game machine
JP2018191854A (en) Game machine
JP2018191862A (en) Game machine
JP2018191864A (en) Game machine
JP2018191878A (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210323