JP4507311B2 - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP4507311B2
JP4507311B2 JP29596399A JP29596399A JP4507311B2 JP 4507311 B2 JP4507311 B2 JP 4507311B2 JP 29596399 A JP29596399 A JP 29596399A JP 29596399 A JP29596399 A JP 29596399A JP 4507311 B2 JP4507311 B2 JP 4507311B2
Authority
JP
Japan
Prior art keywords
background
display
texture
data
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29596399A
Other languages
Japanese (ja)
Other versions
JP2001112982A5 (en
JP2001112982A (en
Inventor
和博 藤沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP29596399A priority Critical patent/JP4507311B2/en
Publication of JP2001112982A publication Critical patent/JP2001112982A/en
Publication of JP2001112982A5 publication Critical patent/JP2001112982A5/ja
Application granted granted Critical
Publication of JP4507311B2 publication Critical patent/JP4507311B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Pinball Game Machines (AREA)
  • Display Devices Of Pinball Game Machines (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、パチンコ機、スロットマシンあるいはコイン遊技機などの遊技機に係り、特に、仮想3次元空間内の様子を表示する技術に関する。
【0002】
【従来の技術】
この種の遊技機であるパチンコ機では、多数個のパチンコ球を取得することができる遊技者にとって有利な遊技状態と、遊技者がパチンコ球を消費する遊技者にとって不利な遊技状態とを発生させており、遊技者の面白味を永続させるために、臨場感のある表示態様を各遊技状態に応じて表示している。その表示態様として、例えば遠近法などを用いて描かれた2次元の画像である背景を徐々に拡大または縮小することにより、遊技者がその表示画面の奥側方向または手前側方向に変動するような表示態様を実現している。
【0003】
【発明が解決しようとする課題】
しかしながら、上述した従来のパチンコ機においては、次のような問題がある。
【0004】
従来のパチンコ機では、2次元の画像を単に拡大または縮小することで、図柄等の変動を表示していたので、全体として臨場感の乏しい表示態様になり、遊技者が臨場感を感じることができないという問題が生じていた。そこで、近年、ポリゴンで構成された3次元情報であるオブジェクトを仮想3次元座標空間内で変動させることにより、3次元の画像の変動を表示して臨場感のある表示態様を実現する試みが行われている。具体的には、仮想3次元空間内にオブジェクトを配置して、そのオブジェクトを変動させる。その仮想3次元空間内の様子を所与の視点に基づいて、そのオブジェクトに所定のテクスチャを貼付けて、仮想3次元空間内の様子を示す表示画像を生成する。その表示画像を順次表示することで、臨場感のある3次元の画像の変動を表示させている。
【0005】
しかし、仮想3次元空間内で変動するオブジェクトには、仮想3次元空間におけるオブジェクトの位置には無関係に、同一のテクスチャが貼付けられているので、表示画面に表示されるオブジェクトの3次元の画像は、表示画面からの奥行き方向に関わらずほぼ同様の色合いで表示されている。その結果、表示画面の奥行き方向の臨場感が十分に表現されておらず、遊技者の面白味を永続させることができないという問題がある。
【0006】
本発明は、このような事情に鑑みてなされたものであって、表示画面の奥行き等のオブジェクトの位置によって臨場感のある図柄の表示態様を実現して、遊技者の面白味を永続させることができる遊技機を提供することを目的とする。
【0007】
【課題を解決するための手段】
上記の課題を解決するために有効な手段等を以下に示す。なお、必要に応じてその作用、効果等についても言及する。
【0008】
1.仮想3次元空間に配置される3次元のオブジェクトを2次元画面上に図柄として表示する表示手段を備えた遊技機において、前記オブジェクトの配置位置によって当該オブジェクトの色合いを変化させるべく前記表示手段を表示制御するようにした遊技機。かかる手段によれば、仮想3次元空間において、オブジェクトの配置位置によって表示画面に表示されるオブジェクト、即ち図柄の色合いが変化するので、従来のようにオブジェクトの位置にかかわらず同様の色合いで表現されていたものと比べ、臨場感を表現することができ、特に、表示領域が限られているパチンコ機等の遊技機であっても奥行き等を強調して迫力のある画像表示を実現することができる。
【0009】
2.仮想3次元空間に配置される3次元のオブジェクトを2次元画面上に図柄として表示する表示手段を備えた遊技機において、前記オブジェクトの遠近によって当該オブジェクトの色合いを変化させるべく前記表示手段を表示制御するようにした遊技機。かかる手段によれば、仮想3次元空間において、オブジェクトの例えば視点位置からの遠近によって表示画面に表示されるオブジェクト、即ち図柄の色合いが変化するので、従来のようにオブジェクトの位置にかかわらず同様の色合いで表現されていたものと比べ、臨場感を表現することができ、特に、表示領域が限られているパチンコ機等の遊技機であっても奥行き等を強調して迫力のある画像表示を実現することができる。
【0010】
3.上記手段1又は手段2において、色合いの変化をオブジェクトの位置に対応した段階的な変化とした遊技機。かかる手段によれば、色合いの変化を付けるに際して、連続的な変化を付与する場合に比べて変化の境界部分を決定し易くなる。但し、段階的な変化に代えて、連続的な変化としてもよく、この場合は処理が多少複雑化するおそれがあるものの、色合いの変化が滑らかになって一層の臨場感を遊技者に与えることができる。
【0011】
4.上記手段1乃至手段3のいずれかにおいて、オブジェクトは連続的に延びるものであり、その配置位置或いは遠近位置によってオブジェクト領域内での色合いが異なるように表示制御される遊技機。かかる手段によれば、例えばオブジェクトが、地面、空、海面、海中、室内等の背景オブジェクトである場合に、その奥行き等を強調できるため、画面全体に立体感を醸し出すことができる点で有効なものとなる。
【0012】
5.上記手段1乃至手段3のいずれかにおいて、オブジェクトは単体或いは複数の単体の集合体であって、当該オブジェクトの配置位置或いは遠近位置によって、オブジェクト単位での色合いが異なるように表示制御される遊技機。かかる手段によれば、例えば、オブジェクトがキャラクタ等である場合に、単なる図柄の拡大・縮小とは明らかに違う遠近感等を強調できる点で有効となる。
【0013】
6.上記手段1乃至5のいずれかにおいて、オブジェクトの色合いの変化は、当該オブジェクトに対し互いに色合いの異なるテクスチャを貼付けることによって実現される遊技機。かかる手段によれば、色合いの変化を行う場合に、オブジェクト自体の変更を行う必要がなく単に色合いの異なるテクスチャを適宜選定して貼り付ければよいのであるから、予め保有すべきオブジェクト自体のデータを最低1種類とすることができ、記憶容量の低減に役立つ。
【0014】
7.上記手段6において、互いに色合いの異なるテクスチャは、色が定義付けられていないテクスチャデータと、当該テクスチャデータの色合いを決める複数のカラーパレットデータの組合せとによって実現される遊技機。なお、テクスチャデータは単一でも実現できるし、複数でも実現できる。かかる手段によれば、色合いの決定に際しては、複数のカラーパレットデータを用いて最終的に複数種のテクスチャを実現できるので、例えばいわゆる光源処理を利用して複数種類のテクスチャを実現する場合のように、光源の色を変化させるとその光が当たっている部分の色合いが光源の色に応じて変化してしまうような問題も生じない。更に、全ての色合いを予め保有するのではなく、複数のカラーパレットデータから必要な色合いを生成することができるので、状況或いは必要に応じて何段階の色合いの変化にも対応し得る利点がある。
【0015】
8.上記手段1乃至手段7のいずれかにおいて、オブジェクトの色合いは、色の明暗によって変化されるものである遊技機。ここで、明暗の変化は、例えば遠近で見た場合には、奥にいくほど暗くしてもよいし、逆に奥にいくほど明るくしてもよく、いずれにするかで、遊技者に与える印象を変化させることができる。勿論、遊技状況に応じていずれかを選択できるようにしてもよい。
【0016】
9.上記手段1乃至手段7のいずれかにおいて、オブジェクトの色合いは、色の濃淡によって変化されるものである遊技機。ここで、濃淡の変化は、例えば遠近で見た場合には、奥にいくほど濃くしてもよいし、逆に奥にいくほど淡くしてもよく、いずれにするかで、遊技者に与える印象を変化させることができる。勿論、遊技状況に応じていずれかを選択できるようにしてもよい。
【0017】
10.上記手段1乃至手段7のいずれかにおいて、オブジェクトの色合いは、色自体の変更を伴わず色を明瞭にし又はぼかすことによって変化されるものである遊技機。ここで、例えば遠近で見た場合には、奥にいくほどぼかすようにしてもよいし、逆に奥にいくほど明瞭にしてもよく、いずれにするかで、遊技者に与える印象を変化させることができる。勿論、遊技状況に応じていずれかを選択できるようにしてもよい。
【0018】
11.上記手段1乃至10のいずれかにおいて、色合いの変化は、オブジェクトの配置位置或いは遠近位置に応じて、変化させる切換間隔或いは変化の程度を異ならせた遊技機。ここで、例えば遠近で見た場合には、色合いの変化の間隔を奥に行くほど或いは手前に来るほど早めたり遅めたりすることや、色合いの変化の程度を奥に行くほど或いは手前に来るほど早めたり遅めたりすることが可能である。これによって、遠近等に関する臨場感を一層強調することが可能な場合が生じる。
【0019】
12.上記手段1乃至11のいずれかにおいて、前記表示手段には識別図柄が表示可能であり、その識別図柄の表示結果に基づいて遊技者に有利な特別遊技状態を発生し得るように構成し、その識別図柄を前記オブジェクトと対応付けた遊技機。かかる手段によれば、識別図柄の変動を前記オブジェクトを利用して表現することができるため、遊技者は臨場感のある状態で識別図柄の確定までの変動を楽しむことができる。
【0020】
13.上記手段12において、前記表示手段には識別図柄とは別の補助図柄が表示可能であり、その補助図柄を前記オブジェクトと対応付けた遊技機。かかる手段によれば、補助図柄を臨場感のある立体的画像で表現できるため、例えば補助画像として風景を採用して表示演出したり、キャラクタを採用して表示演出することで、従来にはない興趣を付与することができる。
【0021】
14.上記手段12又は13において、特別遊技状態を発生させる識別図柄の表示結果を、偶発的要因により決定されるようにした遊技機。ここで、特別遊技状態をもたらす表示判定は乱数取得手段によって所定の確率でランダムに決定されることが好ましい。乱数取得手段としては、記憶手段に記憶された特別遊技判定用の乱数カウンタを用いてランダムに導き出された乱数値に基づいて行われるものであることが好ましい。
【0022】
15.上記手段12乃至14のいずれかにおいて、識別図柄は複数種用意されており、常にはそれらが予め定められた順序で循環するように表示手段に表示されるようにした遊技機。このように構成すると、各識別図柄の出現順序が予め遊技者において認識し得るため、特別遊技状態を発生し得る識別図柄がどのタイミングで現れるかが判り、特に表示手段の表示状態がリーチ状態である場合には特別遊技状態を発生し得る識別図柄が近づくことによる期待感が増すこととなって、遊技の興趣が向上する。なお、この循環表示の際は識別図柄を順次切り換えていくように表示したり、連続的に所定方向へ流れるように表示すること等が可能である。
【0023】
16.上記手段12乃至15のいずれかにおいて、特別遊技状態判定を行うとともに表示手段による表示動作の契機となる簡易信号を出力するCPUを含む遊技用制御基盤と、前記簡易信号を受けて表示手段に対し詳細な表示制御を行うCPUを含む表示用制御基盤とを備えた遊技機。このように構成すれば、複雑な制御にも対処することができるし、表示用制御基盤のみの交換によって新たな表示演出を行わせることもできる。
【0024】
17.上記手段16において、表示用制御基盤には、オブジェクトを記憶する記憶手段(キャラクタ記憶部)が備えられており、該記憶手段に基づいてオブジェクトが仮想3次元空間内に配置されることを特徴とする遊技機。なお、前記記憶手段には、前記オブジェクトに関するデータのみならず、背景画像に関するデータや、オブジェクトに貼り付ける色・模様等のテキスチャに関するデータをも記憶しておくことが、表示制御上好ましい。
【0025】
18.上記手段1乃至17のいずれかにおいて、遊技機はパチンコ機であること。中でも、パチンコ機の基本構成としては、操作ハンドルを備えていてそのハンドル操作に応じて遊技球を所定の遊技領域に発射させ、遊技球が遊技領域内の所定の位置に配置された作動口に入賞することを必要条件として表示手段の識別図柄が変動開始されることが挙げられる。また、特別遊技状態発生時には遊技領域内の所定の位置に配置された可変入賞装置が所定の態様で開放されて遊技球を入賞可能とし、その入賞個数に応じた有価価値(景品球のみならず、磁気カードへの書き込み等も含む)が付与されることが挙げられる。
【0026】
【発明の実施の形態】
以下に、遊技機をパチンコ機に具体化した一実施の形態を、図面に基づいて詳細に説明する。
【0027】
画像表示装置を備える遊技機としてパチンコ機を例に採って説明する。図1は本実施例に係るパチンコ機の概略構成を示す正面図であり、図2はパチンコ機に備える制御基盤および画像表示装置の概略構成を示す機能ブロック図であり、図3は画像表示装置の画像処理部の概略構成を示す機能ブロック図である。
【0028】
本実施例に係るパチンコ機は、パチンコ機の全体を制御する制御基盤1(図2参照)を備える遊技盤2と、遊技盤2が取り付けられた枠体3と、遊技盤2の下側に設けられた上受け皿4と、上受け皿4に貯留したパチンコ球を遊技盤2の盤面に発射する図示しない発射装置が連結された回転式ハンドル5と、上受け皿4の下側に設けられた下受け皿8と、遊技者が遊技状態を識別する識別図柄、およびその遊技状態における演出効果を高めるために表示される識別図柄以外の図柄である補助図柄等を表示する液晶モニタ6の表示画面6aが遊技盤2の盤面のほぼ中央に配置されるように搭載された画像表示装置7(図2参照)とを備えている。なお、表示画面6aには、所定の模様が描かれた背景上で1または複数個の識別図柄および補助図柄の変動(移動,回転,変形等)が、遊技機における遊技状態に応じて表示される。識別図柄とはパチンコ機における大当たりやリーチ等を遊技者に認識させるためのいわゆる図柄番号または図柄番号が付けられた図柄の画像をいい、補助図柄とは大当たりやリーチ等においてその演出効果を高めるために表示される識別図柄以外の図柄の画像をいう。また、大当たりとは、多数個のパチンコ球を取得できる遊技者に有利な状態をいい、通常の遊技状態とは、パチンコ球を消費する遊技者に不利な状態をいう。通常の遊技状態時に表示される識別図柄等の変動を通常変動といい、大当たりの発生の有無に関係なく、大当たりが発生するかのような演出(大当たりが発生する場合も含む)を行うための変動をリーチという。また、大当たり時には、後述するラウンドごとの表示態様が表示される。さらに、パチンコ機における遊技が行われていない場合にはデモンストレーションなどの表示が行われる。本発明における図柄は、識別図柄や補助図柄を含む概念である。
【0029】
遊技盤2には、回転式ハンドル5によって発射されたパチンコ球を盤面に案内するレール2aと、パチンコ球を不特定箇所に誘導する複数本の図示しないクギと、クギによって誘導されてきたパチンコ球が入賞する複数個の入賞口2bと、遊技盤2のほぼ中央付近に誘導されてきたパチンコ球が入賞する始動口2cと、特定の遊技状態において比較的多数のパチンコ球を一時に入賞させることができる大入賞口2dとが設けられている。各入賞口2b、始動口2cおよび大入賞口2d内には、パチンコ球の入球を検出する入賞検出センサ11(図2参照)がそれぞれ設けられている。入賞検出センサ11がパチンコ球の入球を検出すると、遊技盤2に備える制御基盤1によって所定個数のパチンコ球が上受け皿4に供給される。また、始動口2c内には、始動開始センサ12(図2参照)が設けられている。さらに、大入賞口2dには、開閉式ソレノイド13(図2参照)が設けられており、この開閉式ソレノイド13の動作によって、大入賞口2dが開閉自在に構成されている。なお、上述したものの他に始動口2cに入球したパチンコ球の個数を記憶する例えば保留ランプ等を備えるが、この実施例ではその説明を省略する。
【0030】
上受け皿4は、受け皿形状になっており、パチンコ球が供給される球供給口4aから供給されたパチンコ球を貯留する。また、球供給口4aが配置された上受け皿4の反対側には、パチンコ球をレール2aに向けて発射する発射装置に連通する図示しない球送り口が設けられている。さらに、上受け皿4の上部には、貯留したパチンコ球を下受け皿8に移すための球抜きボタン4bが設けられており、この球抜きボタン4bを押すことで、上受け皿4に貯留したパチンコ球を下受け皿8に移すことができる。下受け皿8は、受け皿形状になっており、上受け皿4から移されてきたパチンコ球を受け止める。なお、下受け皿8には、その中に貯留したパチンコ球を抜く図示しない球抜きレバーが設けられている。
【0031】
回転式ハンドル5には、パチンコ球をレール2aに向けて発射する発射装置が連結されている。回転式ハンドル5を回転させることにより、発射装置はその回転量に応じた強さでパチンコ球を発射する。なお、遊技者が回転式ハンドル5を回転させた状態で保持することにより、発射装置はパチンコ球を所定の間隔ごとに一個ずつ発射する。
【0032】
図2に示すように、遊技盤2に備える制御基盤1は、メモリおよびCPU等で構成されるマイクロコンピュータである主制御部16と、遊技機における遊技状態を決定する値を出力するカウンタ14と、始動口2c(図1参照)でパチンコ球の入球を検出する始動開始センサ12と、入賞口2b等(図1参照)でパチンコ球の入球を検出する入賞検出センサ11と、大入賞口2d(図1参照)を開閉する開閉式ソレノイド13と、画像表示装置7のI/F(インターフェイス)17に情報流通可能に接続されるI/F(インターフェイス)15などを備えて構成されている。この制御基盤1は、上述した入賞口2bや始動口2cの球検出センサの検出に基づいて所定量のパチンコ玉を供給したり、図示しないランプやスピーカを作動させたりする各種のイベントを実行するものである。また、制御基盤1は、遊技状態に応じた表示態様を指示するための各種のコマンドをI/F15を通じて画像表示装置7に送信する。
【0033】
具体的に、制御基盤1で行なわれる処理について図4に示すフローチャートを参照しながら詳細に説明する。
【0034】
ステップS1(入球を検出)
遊技者は、回転式ハンドル5によってパチンコ球を遊技盤2内に打ち込み、パチンコ遊技を開始する。遊技盤2内に打ち込まれた一部のパチンコ球は盤面の中央付近まで導かれ、始動口2cに入球する。パチンコ球が始動口2cに入球すると、始動口2c内に入球した球を検出する始動開始センサ12は、始動開始信号を主制御部16に送るとともに、始動口2c内に設けられた入賞検出センサ11は、入賞信号を主制御部16に送る。なお、この実施例では、始動開始センサ12と入賞検出センサ11とは、同一のセンサによって併用される。また、入賞口2bにパチンコ球が入球した場合にも、各入賞口2bの入賞検出センサ11は、入賞信号を主制御部16に送る。
【0035】
ステップS2(パチンコ球を供給)
主制御部16は、入賞検出センサ11からの入賞信号を検出すると、図示しないパチンコ球供給機構を稼働させて、所定数量のパチンコ球を球供給口4aを通じて上受け皿4に供給する。
【0036】
ステップS3(大当たり抽選)
主制御部16は、始動開始センサ12からの始動開始信号を検出すると、カウンタ14の出力値を読取り、大当たり抽選を行う。大当たり抽選では、カウンタ14の出力値が所定値であれば、「大当たり」を発生させる。一方、カウンタ14の出力値が所定値以外であれば、「はずれ」である通常の遊技状態を継続する。
【0037】
ステップS4(コマンドを送信)
主制御部16は、通常の遊技状態または特定の遊技状態に応じた表示態様を決定し、その表示態様に応じたコマンドをI/F15を介して画像表示装置7に送信する。コマンドは、画像表示装置7に所定の表示プログラムを実行させる命令であり、その表示プログラムの実行により遊技状態に応じた表示パターンが表示画面6aに表示される。例えば、大当たりの場合には、主制御部16は、所定のリーチの開始を指示するコマンドを送信し、所定時間経過後に、そのリーチの最終段階で停止させる大当たりの識別図柄の種類を指示するコマンドを送信する。これにより、画像表示装置7の表示画面6aには、コマンドで指示された種類のリーチが表示された後に、さらにコマンドで指示された種類の大当たりの識別図柄で停止するように表示される。このとき、主制御部16は、表示画面6aにおいて大当たりの識別図柄の停止が表示された後に、開閉式ソレノイド13に開放信号を与えて大入賞口2dを開放して、遊技者が多数個のパチンコ球を取得できる状態にする。さらに、この遊技状態において、制御基盤1は例えば約10個の球が大入賞口2dに入賞したのを1ラウンドとして、そのラウンドが終了するたびにそのラウンドの終了または次のラウンドの開始を指示するコマンドを画像表示装置7に送信する。これにより、表示画面6aには、ラウンドごとに異なるパターンの表示態様が表示される。一方、ハズレの場合には、リーチの最終段階で停止させるハズレの識別図柄の種類を指示するコマンド、または通常の遊技状態時に変動されている識別図柄をハズレの識別図柄で停止させるためのコマンドを画像表示装置7に送信する。これにより、表示画面6aには、リーチを表示した後にハズレの識別図柄で停止するように、または通常変動後にハズレの識別図柄で停止するように表示される。
【0038】
ステップS5(新たな入球検出?)
主制御部16は、始動開始センサ12からの新たな始動開始信号の有無(新たな入球)を検出するまで待機する。新たな始動開始信号がなければ、この処理を終了して新たな始動開始信号が検出されるまで待機する。上述したステップS1〜S5を実行する制御基盤1は、いわば遊技状態発生手段に相当する。なお、識別図柄の変動(リーチ、通常変動等)中にパチンコ球の入球を始動開始センサ12が検出し、その入球したパチンコ球の個数を記憶する上述で説明を省略した保留ランプが点灯している場合には、その保留ランプの点灯を新たな始動開始信号として検出する。新たな始動開始信号があれば、ステップT2〜T4を繰り返し行なう。
【0039】
画像表示装置7は、図2に示すように、制御基盤1から送られてきたコマンドを受信するI/F17と、そのコマンドに基づいてワールド座標系に設定される3次元情報であるオブジェクト、そのオブジェクトの模様の画像情報であるテクスチャデータおよび最背面画像を記憶するキャラクタ記憶部18と、受信したコマンドに応じたプログラムを実行して、ワールド座標系にオブジェクトを設定するとともに、そのオブジェクトにテクスチャデータに基づくテクスチャを貼付けた表示画像を生成する3次元画像処理部19と、3次元画像処理部19で生成された表示画像を一時的に記憶する画像記憶部20と、その表示画像を表示する液晶モニタ6とを備えている。なお、ワールド座標系とは、仮想3次元空間に相当する3次元の座標系である。オブジェクトとは、ワールド座標系に設定される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。テクスチャとは、オブジェクトの各ポリゴンに貼付ける画像情報であり、テクスチャがオブジェクトに貼付けられることにより、オブジェクトに対応する画像、例えば識別図柄や補助図柄や背景が生成される。また、後の詳細な説明から明らかになるように、ポリゴンに貼付けられるテクスチャは、模様を決めるための基本テクスチャデータと、その模様の色合いを決めるための色情報であるカラーパレットデータとで構成されており、複数種類のカラーパレットデータと単一の基本テクスチャデータとによって、複数種類のテクスチャを生成することができる。
【0040】
I/F17は、制御基盤1のI/F15に情報流通可能に接続されており、制御基盤1から送られてくるコマンドを受信するものである。I/F17は、受信したコマンドを3次元画像処理部19に順次渡す。
【0041】
キャラクタ記憶部18は、3次元画像処理部19から適宜読み出される3次元情報であるオブジェクトおよびそのオブジェクトの2次元の画像情報であるテクスチャデータを記憶するメモリである。具体的には、キャラクタ記憶部18には、液晶モニタ6の表示画面6aに表示される背景例えば海底の珊瑚礁の模様の構成する複数種類の背景テクスチャデータと、大当たり時の当たり識別図柄例えば魚の模様の図柄テクスチャデータと、大当たりのラウンドの回数を示すラウンド表示図柄のテクスチャデータと、そのラウンド時に演出用に表示される補助図柄例えば海亀の模様のテクスチャデータなどの種々のテクスチャデータが記憶されている。また、キャラクタ記憶部18には、各テクスチャが貼付けられる1または複数のポリゴンで構成された背景オブジェクトおよび図柄オブジェクトなども記憶されている。さらに、キャタクタ記憶部18には、表示画面6aの最背面に表示するための2次元の最背面画像も記憶されている。これら各オブジェクト、テクスチャデータおよび最背面画像は3次元画像処理部19によって適宜読み出される。キャラクタ記憶部18は、オブジェクトやテクスチャデータなどのオブジェクト情報を記憶するいわばオブジェクト情報記憶手段である。
【0042】
3次元画像処理部19は、画像表示装置の全体を制御管理するCPU(中央演算処理装置)、CPUにおける演算結果を適宜記憶するメモリおよび液晶モニタ6に出力する画像を生成する画像データプロセッサなどで構成されるものである。3次元画像処理部19は、コマンドに応じた表示態様を実現するために、3次元の仮想空間であるワールド座標系内に視点およびキャラクタ記憶部18から読み出した各種のオブジェクトを設定し、そのオブジェクトを移動させたり、視点を変位させる。さらに、いわゆるジオメトリ演算処理を行い、ワールド座標系内のオブジェクトを視点に基づく投影平面に投影した2次元座標情報である投影情報を生成する。その投影情報に基づいて、画像記憶部20に設けられたフレームバッファ内における各オブジェクトの各ポリゴンの頂点に相当する位置、すなわちフレームバッファ内のアドレスを求め、キャラクタ記憶部18から読み出したテクスチャを各オブジェクトの各ポリゴンの頂点に合うように変形させて、そのテクスチャをフレームバッファ内の各アドレスを基準にして描画する。全てのオブジェクトへのテクスチャの描画が終了して、画像記憶部20のフレームバッファ内に表示画像が生成されると、その表示画像を液晶モニタ6に出力する。なお、3次元画像処理部19は、本発明におけるテクスチャ選択手段および表示画像生成手段にに相当する。
【0043】
具体的には、3次元画像処理部19は、例えば次のように構成されている。以下、3次元画像処理部19の一例について図3を参照しながら詳細に説明する。
【0044】
図3に示すように、3次元画像処理部19は、CPU21と、CPU21によって実行されるプログラムを記憶したプログラムROM22と、プログラムの実行によって得られたデータを記憶するワークRAM23と、CPU21の指示によってワークRAM23に記憶したデータを一括して転送するDMA24と、DMA24によって転送されたデータを受信するI/F25と、そのI/F25によって受信したデータに基づいて座標演算処理を行うジオメトリ演算処理部26と、I/F25によって受信したデータ等に基づいて表示画像を生成するレンダリング処理部27と、色情報である複数種類のカラーパレットデータをレンダリング処理部27に適宜与えるパレット処理部28と、画像記憶部20内に設けられた複数のフレームバッファを切り換えるセレクタ部29と、表示画像を液晶モニタ6に出力するビデオ出力部30とを備えている。また、上述したCPU21とプログラムROM22とワークRAM23とDMA24とI/F25とは同一のデータバスに接続されており、オブジェクトおよびテクスチャ等を記憶したキャラクタ記憶部18は、上述したデータバスとは独立したデータバスを介してジオメトリ演算処理部26およびレンダリング処理部に接続されている。
【0045】
プログラムROM22は、遊技機に電源が投入された際にCPU21によって最初に実行されるプログラムや、制御基盤1から送られてくるコマンドの種類に応じた表示を行うための複数種類のプログラムや、後述するマップデータおよびカラーパレットデータなどを記憶したものである。表示を行うためのプログラムは、例えば予め用意されたテーブルを参照したり、参照したデータに演算処理を施すことで、コマンドに応じた表示態様を実現するためにワールド座標系にオブジェクトおよび視点を設定するための設定情報を導出するものである。表示プログラムには、単独で実行されるプログラムだけでなく、例えば複数個のタスクを組み合わせることで、コマンドの種類に応じた表示を行うためのタスクを生成するようなものも含まれる。また、設定情報は、ワールド座標系内に設定するオブジェクトの配置位置を指示する配置座標データ、そのオブジェクトの姿勢を指示する姿勢データ、ワールド座標系内に設定する視点の配置位置を指示する配置座標データ、その視点に基づく視線を回転するための回転データ、キャラクタ記憶部18内に記憶されたオブジェクトやテクスチャや最背面画像の格納アドレスなどを含むデータであるとともに、表示画面6aに表示する一画面分の表示画像を生成するためのデータである。さらに、このプログラムROM22には、ワールド座標系に配置した背景オブジェクトを構成するポリゴンに貼付ける背景テクスチャを指示するマップデータも記憶されている。後で詳細に説明するがこのマップデータは、表示画面6aに表示される全背景、例えば表示画面6aに表示される珊瑚礁の全模様を複数種類の背景テクスチャによって構成するとともに、背景オブジェクトを構成するポリゴンに貼付ける背景テクスチャを関連付けて指示するためのデータである。なお、プログラムROM22は、マップデータを記憶するいわばマップデータ記憶手段または複数のカラーパレットデータを記憶するいわばカラーパレットデータ記憶手段である。
【0046】
CPU21は、プログラムROM22に記憶された制御プログラムによって画像表示装置2の全体を管理・制御する中央演算処理装置であり、主に、制御基盤1から送られてきたコマンドに応じたプログラムを実行することで、表示画面6aに表示される背景が連続して移動するように、ワールド座標系内にオブジェクトおよび視点を設定する処理などを行うものである。具体的には、CPU21は、I/F17によって受信したコマンドの種類に応じて、そのコマンドに対応する表示を行うための表示プログラムを実行して得られた設定情報をワークRAM23に順次書き込み、所定の割り込み間隔(例えば1/30秒や1/60秒)ごとに、ワークRAM23内の設定情報の転送をDMA24に指示するものである。
【0047】
ワークRAM23は、CPU21によって得られた実行結果である設定情報を一時的に記憶するものである。また、DMA24は、CPU21での処理を介さずワークRAM23内に記憶されたデータを転送することができる、いわゆるダイレクトメモリアクセスコントローラである。つまり、DMA24は、CPU21からの転送開始の指示に基づいて、ワークRAM23に記憶された設定情報を一括してI/F25へ転送する。
【0048】
I/F25は、DMA24によって転送されてきた設定情報を受信する。I/F25は、設定情報に含まれる、キャラクタ記憶部18に記憶されたオブジェクトの格納アドレスや、オブジェクトをワールド座標系に配置するため配置座標データや、視点を配置するための配置座標データや、その視点に基づく視線を回転させる回転データなどの座標演算の対象となるデータをジオメトリ演算処理部26に与えるとともに、設定情報に含まれる、キャラクタ記憶部18に記憶されたテクスチャなどの格納アドレスなどの画像描画の対象となるデータをレンダリング処理部27に与える。さらに、I/F25は、設定情報に含まれているテクスチャの色情報を指定するためのカラーパレットデータをパレット処理部28に与える。
【0049】
ジオメトリ演算処理部26は、I/F25から与えられたデータに基づいて、3次元の座標点の移動や回転等に伴う座標演算処理を行うものである。具体的には、ジオメトリ演算処理部26は、キャラクタ記憶部18内に記憶されたオブジェクトの格納アドレスに基づいて、ローカル座標系に配置された複数のポリゴン構成されたオブジェクトを読み出し、そのオブジェクトを姿勢データおよび配置座標データに基づいてワールド座標系に設定した際のワールド座標系におけるオブジェクトの各ポリゴンの座標データを算出する。ローカル座標系とは、基準の姿勢のオブジェクトが設定されるオブジェクト独自の座標系である。さらに、視点の配置座標データおよび回転データに基づいて設定される視点を基準とする視点座標系におけるオブジェクトの各ポリゴンの座標データを算出する。さらに、視点に基づく視線に垂直に設定された投影平面にオブジェクトを投影した際の投影平面上のオブジェクトの各ポリゴンの2次元の座標データである投影情報を算出する。そして、ジオメトリ演算処理部26は、投影情報をレンダリング処理部27に与える。
【0050】
パレット処理部28は、CPU21によって書き込まれる複数種類の色情報でそれぞれ構成される複数のカラーパレットデータを格納する図示しないパレットRAMを備えており、CPU21からI/F25を通じて与えられたカラーパレットデータに応じたカラーパレットをレンダリング処理部27に与えるものである。カラーパレットを与えるとは、例えばパレットRAMに記憶されたカラーパレットの格納アドレスをレンダリング処理部27に与えることをいい、レンダリング処理部27は、表示画像を生成する際にその格納アドレスに記憶された色情報を参照する。なお、各色情報は、赤色(R),緑色(G),青色(B)の組合せによって決定されるものであり、カラーパレットのデータサイズが例えば16ビットの場合には、0〜15の各値に所定の色情報が割り当てられる。また、カラーパレットの各データすなわち各パレットは、テクスチャを構成する各ドットに割り当てられており、各パレットの色情報で各ドットを描画することで、テクスチャの全体が描画される。本実施例では、このカラーパレットの各パレットに割り当てられている色情報を順次変更することで、段階的に色合いが異なる複数種類のテクスチャを生成する。
【0051】
レンダリング処理部27は、まず、キャラクタ記憶部18内の最背面画像の格納アドレスに基づいて最背面画像を読み出し、その最背面画像を画像記憶部20内に設けられたフレームバッファ内に描画し、そのフレームバッファ内に投影情報に基づくオブジェクトの各ポリゴンを展開する。さらに、レンダリング処理部27は、キャラクタ記憶部18内のテクスチャの格納アドレスとカラーパレットデータに基づいて、キャラクタ記憶部18から読み出したテクスチャをフレームバッファ内の各ポリゴンに相当する領域上に描画する。これにより、フレームバッファ内には、最背面画像上に背景の模様や各種の図柄の模様が描画された、所定の縦横比例えば縦横比が3:4の表示画像が生成される。なお、上述したジオメトリ演算処理部26およびレンダリング処理部27では、画面に表示する部分を決定するクリッピング処理、ポリゴンの前後関係によって見える部分と見えない部分とを判定する隠面処理、光源からの光の当たり具合や反射の様子を演算するシェーディング計算処理などの処理も適宜行われる。
【0052】
セレクタ部29は、複数のフレームバッファを適宜選択するものである。具体的には、セレクタ部29は、上述したレンダリング処理部27によって画像の描画が行われる際には、画像記憶部20内に設けられた複数のフレームバッファである例えば第1フレームバッファまたは第2フレームバッファのいずれか一方を選択する。この場合には、その選択されている側のフレームバッファ内に表示画像が生成される。一方、セレクタ部29は、描画が行われていない側のフレームバッファから既に表示画像の生成が終わっている表示画像を読み出し、その表示画像をビデオ出力部30に送る。なお、セレクタ部29は、読み出し側のフレームバッファと、描画側のフレームバッファとを順次切り換える。ビデオ出力部30は、セレクタ部29から送られてきた表示画像をビデオ信号に変換して液晶モニタ6に出力する。
【0053】
画像記憶部20は、レンダリング処理部27によって生成される表示画像を記憶するいわゆるビデオRAMである。画像記憶部20には、例えば一画面分の表示画像を記憶する記憶領域である第1フレームバッファと、第2フレームバッファとが設けられたいわゆるダブルバッファを構成している。なお、画像記憶部20に設けるフレームバッファは、2つに限定されるものではなく、1つ以上であれば幾つでもよい。
【0054】
液晶モニタ6は、ビデオ出力部30から出力された表示画像を表示する画面6aを備えており、その画面6aが遊技盤2の盤面に露出するように取り付けられている。その表示画面6aは例えば縦横比が9:16のいわゆるワイド画面であり、液晶モニタ6は、ビデオ出力部30から出力されてきた縦横比が3:4の表示画像を表示画面6aの縦横比に合わせて、表示画面6aに表示画像を表示する。また、液晶モニタ6には、縦横比が3:4の表示画像をそのまま表示する機能をも備えており、遊技状態に応じて表示画面6aに表示される表示画像の縦横比を適宜変化させることもできる。なお、液晶モニタ6は、本発明における表示手段に相当する。
【0055】
ここで、本発明は、遊技者が表示画面に表示された仮想3次元空間内の特に奥行き方向に臨場感を感じることができる表示態様を実現するために、遊技者が観察する表示画面6a上で背景の模様が例えば奥側から手前側にスムーズに移動(スクロール)してくるとともに、奥側ではその色合いが暗く、手前側に近づくに従ってその色合いが明るくなるような表示を実現する。さらに、遊技機または画像表示装置のハード的な制約とは無関係に、表示画面6aに表示される背景の模様の切れ目なく無限に移動してくるようないわゆる無限スクロールを可能にするものである。以下の理解を容易にするために、まず、簡単な実施例を挙げて本発明の概要を説明する。
【0056】
図5(a)〜(e)に示すように、液晶モニタ6の表示画面6a上の下側には例えば「A,B,C,D,E,…」の文字が連続して描かれた背景Hが表示画面6aの奥側から手前側へ移動してきて、表示画面6aの外側へ順次過ぎ去っていくとともに、例えば「A」の文字が描かれた図柄Zが表示画面6aの奥側から手前側に移動してきて、表示画面6aの外側へ過ぎ去っていくような表示態様が表示される。このとき、背景Hは、表示画面6aの奥側から手前側に近づくほどその色合いが徐々に明るくなるように表示され、図柄Zも表示画面6aの手前側に近づくほどその色合いが徐々に明るくなるように表示される。遊技者がこのような表示態様を観察することで、仮想3次元空間内を奥に向かって進んでいるような臨場感を感じることができるとともに、表示画面6aの奥行き方向の臨場感を感じることができる。このような表示態様を実現するために、画像表示装置7では、図6〜図8に示すような処理が行われる。
【0057】
3次元画像処理部19は、仮想3次元空間に相当する3次元のワールド座標系内に、そのワールド座標系内の様子を表示画面6aに表示するための視点を設定するとともに、図柄Zを表示するための図柄オブジェクトおよび背景Hを表示するための背景オブジェクトを設定する。その背景オブジェクトおよび図柄オブジェクトを適宜移動させるとともに、それら各オブジェクトを構成するポリゴンにテクスチャを適宜貼付けて、その様子を示す表示画像を視点に基づいて順次生成する。その表示画像を液晶モニタ6の表示画面6aに順次表示することで、図5に示した表示態様を実現している。
【0058】
表示画面6aに表示された背景Hにおける色合いの違いは、ワールド座標系内に配置された複数のポリゴンで構成された背景オブジェクトの各ポリゴンに対して、視点から背景オブジェクトの各ポリゴンまでの距離が遠いほど色合いの暗いテクスチャを、視点に近いほど色合いの明るいテクスチャをそれぞれ貼付けることで実現している。同様に、表示画面6aに表示された図柄Zの移動に伴う色合いの変化は、ワールド座標系内に単一または複数のポリゴンで構成される図柄オブジェクトを視点の方向に移動させて、その図柄オブジェクトと視点との間の距離に応じて、視点から遠いほど色合いの暗いテクスチャを、視点に近いほど色合いの明るいテクスチャを図柄オブジェクトにそれぞれに貼付けることで実現している。
【0059】
図6に示すように、同一の模様で色合いの段階的に異なる複数種類のテクスチャT1a〜T1dは、文字「A」の模様を描くための基本テクスチャデータt1と、基本テクスチャデータt1の色情報であり、色合いが段階的に異なる複数のカラーパレットデータa〜dとで構成される。つまり、基本テクスチャデータt1と、カラーパレットデータaとの組合せの場合にはテクスチャT1aが、基本テクスチャデータt1と、カラーパレットデータb又はカラーパレットデータc又はカラーパレットデータdとの各組合せの場合にはテクスチャT1b,T1c,T1dがそれぞれ生成される。また、同一の模様でそれぞれ色合いの異なる複数種類のテクスチャT2a〜T2d,T3a〜T3d,T4a〜T4d,T5a〜T5dは、文字「B,C,D,E」の模様を描くためのテクスチャデータt2,t3,t4,t5と、それらテクスチャデータt2〜t5の色情報であり、色合いのそれぞれ異なる複数のカラーパレットデータa〜dとでそれぞれ構成される。すなわち、任意の色合いのテクスチャを描画する際に、CPU21は、カラーパレットRAM内に記憶した複数のカラーパレットデータの中から、テクスチャを描画する際の任意のカラーパレットデータを選択して、そのカラーパレットデータをレンダリング処理部27に与える。そして、レンダリング処理部27は、所定の基本テクスチャデータと与えられたカラーパレットデータとに基づくテクスチャを描画して、視点からの距離に応じた任意の色合いのテクスチャを描画する。その結果、任意の色合いの背景Hや図柄Zを表示することができる。なお、便宜上、図中の色合いの段階的に異なる様子を斜線で表し、斜線の密度が高い場合には色合いの暗い場合を、斜線の密度が低くなるほど色合いが明るくなる場合を示している。
【0060】
色合いが段階的に異なる複数種類のカラーパレットデータa〜dは、視点SPからの例えばz軸方向の距離に応じて割り当てられている。具体的には、図7(a)に示すように、ワールド座標系内の様子を表示画面6aに表示するための領域であるいわゆるビューボリュームを、視点SPのz軸方向の距離Paから距離Peの間とすると、その間をカラーパレットデータa〜dの個数と同数である4つに分割する。そして、距離Peから距離Pdの間にカラーパレットデータaを、距離Pdから距離Pcの間にカラーパレットデータbを、距離Pcから距離Pbの間にカラーパレットデータcを、距離Pbから距離Paの間にカラーパレットデータdをそれぞれ割り当てる。
【0061】
また、図7(b)に示すように、3次元画像処理部19は、図柄Zに対応する図柄オブジェクトOZが配置されたワールド座標系内の座標値と、ワールド座標系内に設定されている視点SPの座標値とを求めるとともに、図柄オブジェクトOZの座標値のZ軸成分の値から視点SPの座標値のZ軸成分の値を除算した差分値ΔPxを求める。その差分値ΔPxが、視点SPからの距離Pe,Pd間であれば図柄オブジェクトOZにテクスチャT1aを、視点SPからの距離Pd,Pc間であれば図柄オブジェクトOZにテクスチャT1bを、視点SPからの距離Pc,Pb間であれば図柄オブジェクトOZにテクスチャT1cを、視点SPからの距離Pb,Pa間であれば図柄オブジェクトOZにテクスチャT1dを貼付ける。これにより、視点SPからの距離に応じて、図柄オブジェクトOZの色合いを変化させることができる。なお、便宜上、上述したテクスチャT1a〜T1dをオブジェクトに貼付けると説明したが、実際にはオブジェクトに貼付けられるテクスチャのカラーパレットデータを所定のカラーパレットデータに変更するものである。上述した処理では、視点SPの座標値のZ軸成分の値と、図柄オブジェクトの座標値のZ軸成分の値とに基づいてその距離を求めたが、本発明はこれに限定されるものではなく、例えば視点SPの座標値の全成分の値と、図柄オブジェクトOZの座標値の全成分の値とに基づいて、視点SPから図柄オブジェクトまでの実質的な距離を求めるようにしてもよい。以上の処理は、本発明におけるテクスチャ選択手段の機能に相当する。
【0062】
さらに、背景Hを表示するための背景オブジェクトの場合には、図8(a)に示すように、例えば四角形ポリゴンR1〜R4が一列状に構成された背景オブジェクトOHをワールド座標系内の配置位置P1に配置する。その背景オブジェクトOHのポリゴンR1に「A」の文字が描かれた基本テクスチャデータt1とカラーパレットデータdとで構成されたテクスチャT1aを、ポリゴンR2に「B」の文字が描かれた基本テクスチャデータt2とカラーパレットデータcとで構成されたテクスチャT2cを、ポリゴンR3に「C」の文字が描かれた基本テクスチャデータt3とカラーパレットデータbとで構成されたテクスチャT3bを、ポリゴンR4に「D」の文字が描かれた基本テクスチャデータt4とカラーパレットデータaとで構成されたテクスチャT4aを、それぞれ貼付ける。それら各テクスチャT1d〜T4aを貼付けた背景オブジェクトOHを、図8(b)に示すように、配置位置P1から配置位置P2へ移動させる。この背景オブジェクトOHの移動の様子を表示画面6aに順次表示することで、図5(a)〜(c)の表示態様を表示する。
【0063】
さらに、図8(c)に示すように、背景オブジェクトOHを配置位置P2まで移動させると、その背景オブジェクトOHを配置位置P1に再び配置する。このとき、背景オブジェクトOHのポリゴンR1に「B」の文字が描かれた基本テクスチャデータt2とカラーパレットデータdとで構成されたテクスチャT2dを、ポリゴンR2に「C」の文字が描かれた基本テクスチャデータt3とカラーパレットデータcとで構成されたテクスチャT3c、ポリゴンR3に「D」の文字が描かれた基本テクスチャデータt4とカラーパレットデータbとで構成されたテクスチャT4bを、ポリゴンR4に「E」の文字が描かれた基本テクスチャデータt5とカラーパレットデータaとで構成されたテクスチャT5aを、それぞれ貼付ける。すなわち、背景オブジェクトOHに貼付ける背景テクスチャを更新する。そして、各テクスチャT2d〜T5aが貼付けられた背景オブジェクトOHを、配置位置P1から配置位置P2へ再び移動させる。これにより、図5(c)〜(e)に示すような表示態様が表示される。上述した図8(a)〜(c)の処理を繰り返して、背景オブジェクトOHの各ポリゴンR1〜R4に貼付ける連続した模様の複数種類の背景テクスチャを順次更新することにより、表示画面6aには、奥側から手前側にスムーズに移動(スクロール)するとともに奥側から手前側に向けて徐々に明るくなる色合いの背景Hが表示される。さらに、背景の模様の切れ目なく無限に移動してくるようないわゆる無限スクロールを表示することができる。なお、上述した配置位置P1と配置位置P2との間の距離は各ポリゴンの幅分であり、図7で説明した例えば距離Pe,Pd間に相当する。これは、テクスチャはポリゴン単位で貼付けるものであるので、ポリゴンの幅分だけ移動させてから、各ポリゴンに貼付けるテクスチャを順次更新することで、スムーズな表示を実現することができる。したがって、ポリゴンの幅分だけ最低限移動させることで、背景の模様がスムーズで無限に移動する様子を比較的軽い処理負担で表示することができる。
【0064】
以下、本実施例に係る画像表示装置7によって表示される表示態様について、図9を参照しながら詳細に説明する。
【0065】
上述した液晶モニタ6の表示画面6aには、制御基盤1から送られてきたコマンドに基づいて、例えば図9に示すような表示態様が表示される。この表示態様は、パチンコ機において大当たりが発生した後に表示されるラウンド表示の一態様である。以下、この表示態様について説明する。なお、本発明は、ラウンド時の表示態様に限定されるものではなく、例えばリーチ時、通常変動時またはデモンストレーション時の表示態様について適宜適用することもできる。
【0066】
図9(a)〜(d)に示すように、縦横比が9:16のワイド画面である表示画面6aには、大当たり時の8番目の識別図柄である識別図柄Z1aを含む大当たり識別図柄Z1と、2回目のラウンドを示すラウンド表示図柄Z2とが最前面に表示されている。識別図柄Z1aは、遊技中に大当たりが決定した際の識別図柄であり、この識別図柄Z1aは停止した状態で尾びれを振っているように表示される。また、ラウンド表示図柄Z2は、大当たりによるラウンドの回数を表示しており、ラウンドを重ねる度にその数字が加算されていくように表示される。大当たり識別図柄Z1とラウンド表示図柄Z2との間には、演出効果を高めるための補助図柄Z3が表示されており、この補助図柄Z3は、表示画面6aのほぼ中央で停止した状態で手足を上下に動かしながら泳ぐ海亀の模様が描かれた図柄である。さらに、補助図柄Z3の下方には、表示画面6aの奥側から手前側に向かって海底の珊瑚礁の連続した模様が移動してくるような背景Hが表示されている。特に、この背景Hは、表示画面6aの奥側では色合いが暗く、手前側ほど色合いが明るく表示されている。したがって、表示画面6aには、海亀が海底付近の海中を奥に向かって泳ぎ続けるような表示態様が表示される。なお、この図9では現れないが、珊瑚礁の背景Hの境目が見にくくするような色合いの最背面画像が背景Hの背面側に表示されている。また、この実施例では、表示画面6aの奥方向に移動する場合について説明するが、本発明はこれに限定されるものではなく、手前方向,左右方向,上下方向などの各方向に移動する場合にも適用することができる。
【0067】
次に、上述した図9に示す表示態様を実現するために画像表示装置7で行なわれる処理を図10に示すフローチャートを参照しながら詳細に説明する。
【0068】
ステップT1(コマンドの把握)
I/F17は、制御基盤1から送られてくるコマンドを順次受信して、そのコマンドを3次元画像処理部19に順次渡す。3次元画像処理部19は、そのコマンドをワークRAM23に設けた図示しないコマンドバッファ内に記憶する。さらに、3次元画像処理部19は、液晶モニタ6からの割り込み処理があるたびに、コマンドバッファ内に記憶したコマンドを読み出し、そのコマンドに対応するプログラムROM22内のプログラムを実行する。そのプログラムの実行によって、3次元画像処理部19内では、以下のステップが実行される。なお、上述した割り込み処理は、液晶モニタ6の1/30秒または1/60秒ごとの例えば垂直走査信号に同期して行われる。
【0069】
ステップT2(ワールド座標系に視点を設定)
3次元画像処理部19は、複数個のオブジェクトを配置するための仮想3次元空間に相当するワールド座標系を設定する。次に、ワールド座標系内の様子を液晶モニタ6の表示画面6aに表示するための視点をワールド座標系内に設定する。視点は、ワールド座標系内の所定方向、例えばオブジェクトが設定されている空間の方向を向くような視線をz軸とする座標系の基準点である。具体的には、図11に示すように、3次元画像処理部19は、プログラムによって導出される視点を配置するためのワールド座標系内の座標値および視線の方向を決定するための回転データに基づいて、視線が例えば後述する各図柄オブジェクトに向く視点SPを設定する。この視点SPからの視線が向いた方向のワールド座標系内の様子が液晶モニタ6の表示画面6aに表示される。なお、この実施例では、ワールド座標系内の所定の位置に固定した視点SPについて説明するが、割り込み処理ごとにその値が変化するような座標値および回転データに基づいて、その視点SPの位置および視線が変位するような視点SPを設定することもできる。
【0070】
ステップT3(図柄オブジェクトを配置)
3次元画像処理部19は、表示画面6aに大当たり識別図柄Z1を表示するための3次元情報である図柄オブジェクトOZ1と、ラウンド表示図柄Z2を表示するための3次元情報である図柄オブジェクトOZ2と、海中を泳ぐ海亀の模様の補助図柄Z3を表示するための3次元情報である図柄オブジェクトOZ3とをキャラクタ記憶部18からそれぞれ読み出す。さらに、3次元画像処理部19は、各図柄Z1〜Z3が図9で図示した表示画面6a上の各位置に表示されるように、図柄オブジェクトOZ1、OZ2を視点SPを基準とする配置位置に、図柄オブジェクトOZ3をワールド座標系の原点を基準とする配置位置にそれぞれ配置する。また、3次元画像処理部19は、割り込み処理があるたびに、各図柄オブジェクトOZ1〜OZ3を同じ配置位置に配置することにより、表示画面6a上の所定位置に常に各図柄Z1〜Z3を表示することができる。なお、各図柄オブジェクトOZ1〜OZ3の配置位置を順次更新することにより、表示画面6a上で各図柄Z1〜Z3が移動するように表示させることもできる。また、図柄オブジェクトOZ1,OZ2を視点SPを基準として配置するのは、視点SPが変位した場合にも、表示画面6aの一定の位置に表示させるためである。
【0071】
さらに、3次元情報処理部19は、割り込み処理ごとに各図柄オブジェクトOZ1,OZ3の形態を変動させる。具体的には、大当たり識別図柄Z1の図柄オブジェクトOZ1は、識別図柄Z1aが表示される図柄オブジェクトを含んでおり、その図柄オブジェクトは、例えば魚の頭部を表示する頭部オブジェクトと、魚の胴体部を表示する胴体部オブジェクトと、魚の尾びれ部を表示する尾びれ部オブジェクトとが所定の連結点で連結されて構成されている。3次元画像処理部19は、識別図柄の図柄オブジェクトの各部オブジェクトをそれぞれ連結点を中心に割り込み処理ごとに左右に揺動変位させる。これにより、表示画面6aには、所定の位置で停止した状態で魚が泳ぐような動作を表示することができる。また、補助図柄Z3の図柄オブジェクトOZ3は、海亀の胴体が表示される胴体オブジェクトと、その胴体オブジェクトと所定の連結点で連結された海亀の手足がそれぞれ表示される四本の手足オブジェクトとを備えて構成されている。3次元画像処理部19は、それら各連結点を中心に割り込み処理ごとに胴体オブジェクトに対して各手足オブジェクトを上下に揺動変位させる。これにより、表示画面6aには、所定の位置で停止した状態で海中を泳ぐような動作を表示するさせることができる。なお、各図柄オブジェクトOZ1〜OZ3は、所定の形状をしているが、図9では便宜上各図柄オブジェクトの形態を球体形状として図示している。ステップT3は、いわば図柄オブジェクト配置手段である。
【0072】
ステップT4(背景オブジェクトを配置)
3次元画像処理部19は、表示画面6aに海底の珊瑚礁の模様を表示するための複数のポリゴンで構成された背景オブジェクトOHをキャラクタ記憶部18から読み出し、その背景オブジェクトOHをワールド座標系内の配置位置P1に配置する(図11参照)。背景オブジェクトOHは、例えば9枚の四角形ポリゴンが平面的に並べられて構成されている。さらに、図12に示すように、3次元画像処理部19は、その背景オブジェクトOHを配置位置P1から配置位置P2へ向けて割り込み処理ごとに順次移動させるとともに、背景オブジェクトOHが配置位置P2に到達すると、その背景オブジェクトOHを再び配置位置P1に配置する処理を繰り返し行う。なお、ステップT4は、いわば移動配置手段である。
【0073】
ステップT5(視点座標系を変形補正)
3次元画像処理部19は、ワールド座標系を視点SPを基準すなわち原点とする視点座標系に変換する。これにより、ワールド座標系に配置された図柄オブジェクトOZ1〜OZ3および背景オブジェクトOHの座標値が、視点座標系における座標値に変換される。ここで、レンダリング処理部27によってフレームバッファ内に生成される表示画像の縦横比は3:4であるので、この表示画像を縦横比が9:16の表示画面6aに表示すると、表示画像が間延びした画像となるという弊害が生じる。そこで、表示画像の縦横比と、表示画面の縦横比とをに応じて、視点座標系を変形補正することにより、その視点座標系内に配置された各図柄等を変形させる。
【0074】
具体的には、3次元画像処理部19は、視点座標系を変形補正するための変形補正データを算出する。この変形補正データは、背景オブジェクトOHおよび図柄オブジェクトOZ1〜OZ3(以下、適宜「図柄オブジェクト等」とよぶ)の縦幅または横幅を拡大もしくは縮小するための倍率値である。変形補正データは、表示画面6aの縦横比をA:B、表示画像の縦横比をa:bとすると、次式(1)によって算出することができる。なお、次式(1)で算出される変形補正データは、表示画像の縦倍率を基準にして、その横幅を画面に合わせて変形した場合には、図柄オブジェクト等の横幅を変形補正するための倍率値であり、表示画像の横倍率を基準にして、その縦幅を画面に合わせて変形した場合には、図柄オブジェクト等の縦幅を変形補正するための倍率値である。
【0075】
(A×b)÷(a×B) …(1)
フレームバッファ内に生成される表示画像の縦横比が3:4であり、表示画面6aの縦横比が9:16である場合には、表示画面6aには表示画像の縦横比が9:16で表示されるので、表示画像の横幅が4/3倍に拡大されたように表示される。このとき、表示画像に含まれる図柄オブジェクト等の図柄等の横幅も4/3倍に拡大される。ここで、式(1)に表示画像および表示画面6aの縦横比の各値を代入することで、図柄オブジェクト等の横幅を4分の3倍(以下、「3/4倍」と示す)に縮小する倍率値の変形補正データを算出する。さらに、3次元画像処理部19は、変形補正データに基づいて視点座標系の横方向(x軸方向)を3/4倍に縮小する。その結果、背景オブジェクトOHおよび各図柄オブジェクトOZ1〜OZ3は、視点座標系のx軸方向に3/4倍に縮小される。
【0076】
ステップT6(投影平面に投影)
3次元画像処理部19は、視点SPと、図柄オブジェクトOZ1および図柄オブジェクトOZ2との間に、視点座標系の視線方向であるz軸に垂直な投影平面SCを設定する。投影平面SCは、視点座標系のz軸に垂直であり、z値が固定されているので、投影平面SC上では2次元の座標系として取り扱うことができる。この投影平面SCは、画像記憶部20内に設けられたフレームバッファに対応する領域を有している。
【0077】
さらに、3次元画像処理部19は、投影平面SCに図柄オブジェクトOZ1と、図柄オブジェクトOZ2とを平行投影する。これにより、各図柄オブジェクトOZ1,OZ2をそれぞれ構成する各ポリゴンの各頂点は、投影平面SCに平行移動するようにそのまま投影され、各頂点の3次元の座標値が投影平面SC上の2次元の座標値に変換される。一方、3次元画像処理部19は、投影平面SCに図柄オブジェクトOZ3と、背景オブジェクトOHとを透視投影する。これにより、図柄オブジェクトOZ3および背景オブジェクトOHをそれぞれ構成する各ポリゴンの頂点は、視点SP方向に移動するように投影され、各頂点の3次元の座標値が投影平面SC上の2次元の座標値に変換される。3次元画像処理部19は、全てのオブジェクトの投影が終了することにより、ワールド座標系内の各オブジェクトの投影情報を取得する。なお、図柄オブジェクトOZ1,OZ2を平行投影したのは、遊技者が大当たり識別図柄Z1とラウンド表示図柄Z2とを常に認識しやすくなるためである。
【0078】
ステップT7(最背面画像の描画)
3次元画像処理部19は、キャラクタ記憶部18に記憶されている最背面画像を読み出し、その最背面画像を画像記憶部20内のフレームバッファ内に描画する。この最背面画像は、例えば海中の色合いであるとともに、後述する珊瑚礁の模様の境界線を目立たなくするための画像である。
【0079】
ステップT8(背景テクスチャの貼付け)
3次元画像処理部19は、視点SPから背景オブジェクトOHの各ポリゴンまでの距離を求めて、その距離に応じて各ポリゴンに貼付けるテクスチャのカラーパレットデータを決定する。さらに、プログラムROM22内からマップデータを読み出し、そのマップデータ上に背景オブジェクトOHに対応する特定領域を設定する。そして、背景オブジェクトOHが配置位置P2から配置位置P1に再び配置されるたびに、その特定領域内のデータを参照してそのデータで指示される背景テクスチャをカラーパレットデータに応じた色合いで、背景オブジェクトOHの各ポリゴンに貼付ける。以下、ステップT8で行われる処理について、図13に示すフローチャートを参照しながら説明する。
【0080】
ステップU81(視点から各ポリゴンまでの距離を算出)
図15に示すように、背景オブジェクトOHが9枚のポリゴンR1〜R9で構成されている。3次元画像処理部19は、各ポリゴンR1〜R9の例えば中心(図中、×印で示す)の座標値と、視点SPの座標値とに基づいて、視点SPから各ポリゴンR1〜R9までの距離を求める。具体的には、例えばワールド座標系における各ポリゴンR1〜R9の中心のZ軸成分の座標値ZR から、ワールド座標系における視点SPのZ軸成分の座標値ZSPを除算(ZR −ZSP)して得られた差分値を、視点SPから各ポリゴンR1〜R9までの距離として求める。なお、ワールド座標系における各ポリゴンR1〜R9の中心の座標値(XR,YR,ZR)と、ワールド座標系における視点SPの座標値(XSP, YSP, ZSP)とに基づいて、√〔(XR −XSP)2 +(YR −YSP)2 +(ZR −ZSP)2 〕の式の解を、視点SPから各ポリゴンR1〜R9までの距離として算出するようにもできる。
【0081】
ステップU82(背景オブジェクトの各ポリゴンの色合いを設定)
3次元画像処理部19は、視点SPから各ポリゴンR1〜R9の中心までの距離に応じて、図14に示す例えば色合いが段階的に異なる4種類のカラーパレットデータa〜dの中から任意のカラーパレットデータを選択し、そのカラーパレットデータを各ポリゴンR1〜R9に貼付けるための背景テクスチャのカラーパレットデータとして設定する。例えば3次元画像処理部19は、視点SPから遠い側のポリゴンの順番に色合いの暗いカラーパレットデータを設定する。具体的には、最も距離の離れているポリゴンR1,R3にカラーパレットデータaを、次に距離の離れているポリゴンR2,R4,R6にカラーパレットデータbを、さらに次に距離の離れているポリゴンR5,R7,R9にカラーパレットデータcを、最も近い距離にあるポリゴンR8にカラーパレットデータdを設定する。これにより、表示画面6aの背景Hは、手前側の色合いが最も明るく、その手前側を中心として放射状に離れるほど色合いが段々暗くなるように表示することができる。
【0082】
ステップU83(マップデータに基づいて、基本テクスチャデータを決定)
まず、マップデータおよび基本テクスチャデータである背景テクスチャデータについて、図16,図17を参照して説明する。表示画面6aには、奥側から手前側に移動してくる海底の珊瑚礁の模様が表示される。この珊瑚礁の模様の一つを構成する背景テクスチャデータを図16(a)に示す。図16(a)に示すように、一つの珊瑚礁の模様は、4枚の背景テクスチャデータTa,Tb,Tc,Tdによって構成されている。また、図16(b)に示すように、一つの珊瑚礁の模様に対応するマップデータは、ポリゴンに対する背景テクスチャデータTaの貼付けを指示する例えば「0」のデータと、背景テクスチャデータTbの貼付けを指示する例えば「1」のデータと、背景テクスチャデータTcの貼付けを指示する例えば「2」のデータと、背景テクスチャデータTdの貼付けを指示する例えば「3」のデータとから構成される。次に、表示画面6aに表示される全背景である回転の全ての珊瑚礁の模様の全体の背景テクスチャデータTHを図17(a)に示す。この全体の背景テクスチャTHは、複数の背景テクスチャデータTa〜Tdで構成されるものであり、上下および左右の模様が連続するように構成されている。また、図17(b)に示すように、マップデータMDは、全体の背景テクスチャデータTHを構成するために、各背景テクスチャデータTa〜Tdを指示するための「0」〜「3」のデータを並べたものである。
【0083】
具体的には、まず、3次元画像処理部19は、ワールド座標系内に配置された視点SPを背景オブジェクトOHが配置される同一平面上に垂直に投影して、その平面における視点SPの2次元の仮想座標点P3を求める。さらに、図18に示すように、3次元画像処理部19は、プログラムROM22内からマップデータMDを読み出すとともに、このマップデータMD上に仮想座標点P3を設定する。そして、視点SPの視線(z軸)方向に応じたオフセット値Lを算出し、その仮想座標点P3からオフセット値Lだけ離れた位置に、仮想中心座標点P4を設定する。オフセット値Lは、視線の回転角度データに基づいて算出されるものである。例えば、視線方向がワールド座標系の視点SPから遠い位置を向くような回転角度データである場合には、オフセット値Lは大きくなる一方、視線方向がワールド座標系の視点SPに近い位置を向くような回転角度データである場合には、オフセット値Lは小さくなるような値で算出される。さらに、視線方向が左右に回転するような場合には、その視線方向が左右に回転された分だけ、仮想座標点P3を中心として仮想中心座標点P4を回転させる。
【0084】
次に、3次元画像処理部19は、仮想中心座標点P4を中心として、背景オブジェクトOHが構成されるポリゴンと同数の背景テクスチャを含む特定領域TR(図18中の斜線領域)を設定する。そして、マップデータMD上の特定領域TR内に含まれるデータに基づいて、背景オブジェクトOHの各ポリゴンR1〜R9に貼付ける背景テクスチャデータを決定する。
【0085】
ステップU84(背景テクスチャの貼付け)
3次元情報処理部19は、背景オブジェクトOHの各ポリゴンR1〜R9の各頂点の座標値に対応する画像記憶部20のフレームバッファ内のアドレス、すなわちフレームバッファ内の背景オブジェクトの各ポリゴンR1〜R9の位置を求める。そして、キャラクタ記憶部18から読み出した背景テクスタデータと、各ポリゴンR1〜R9に設定されたカラーパレットデータとに基づいて所定の色合いの背景テスチャを各ポリゴンに貼付けすなわち描画する。これにより、最背面画像上に海底の珊瑚礁の模様の背景Hが重ねられた表示画像が、フレームバッファ内に生成される。
【0086】
さらに、3次元画像処理部19は、図18に示すように、背景オブジェクトOHが配置位置P2から配置位置P1に再び配置されるたびに、マップデータMD上の仮想座標点P3をデータ単位、例えば単一のデータ分だけ移動させる。そして、その仮想座標点P3からオフセット値Lだけ離れた仮想中心座標点P4を中心とする特定領域TRに含まれるデータで指示される複数個の背景テクスチャを、再び配置位置P1に配置された背景オブジェクトの各ポリゴンに貼付ける。なお、図18(c)に示すように、特定領域TRが、マップデータMDからはみ出す場合には、その特定領域TRのはみ出した部分が反対側から周り込むように設定する。
【0087】
ステップT9(図柄テクスチャの貼付け)
3次元画像処理部19は、投影情報に含まれる各図柄オブジェクトOZ1〜OZ3の各ポリゴンの各頂点の座標値に対応する画像記憶部20のフレームバッファ内のアドレス、すなわちフレームバッファ内の各図柄オブジェクトOZ1〜OZ3の各ポリゴンの位置を求める。そして、キャラクタ記憶部18から読み出した図柄テクスチャを各ポリゴンに描画する。これにより、最背面画像および海底の珊瑚礁の模様の背景H上に、大当たり識別図柄Z1とラウンド表示図柄Z2と補助図柄Z3とが重ねられた表示画像がフレームバッファ内に生成される。なお、視点SPから図柄オブジェクトOZ1〜OZ3までの距離に応じて、ステップT8と同様の処理を行うようにしてもよい。ステップT9は本発明における表示画像生成手段の機能に相当する。
【0088】
ステップT10(表示)
3次元画像処理部19は、フレームバッファ内に生成された表示画像をビデオ出力部30を介して液晶モニタ6に出力する。液晶モニタ6は、割り込み処理ごとに3次元画像処理部19から送られてくる縦横比が3:4の表示画像を、縦横比が9:16の表示画面6aに合わせて順次表示する。その結果、図9(a)〜(d)に示した表示態様が表示される。
【0089】
上述した実施例によれば、視点SPに近づくほど明るい色合いで背景Hおよび所定の図柄を表示するので、表示画面6aの奥行き方向の臨場感を表現することができる。また、比較的少ないポリゴン数で表示した背景の模様をスムーズに移動させることができ、さらに、無限にスクロールする背景の様子を表示できるので、少ない処理負担でより臨場感のある表示態様を実現することができる。
【0090】
なお、上述したステップでは、表示画面6aの奥方向に進む場合について説明したが、本発明はこれに限定されるものではなく、表示画面6aの横方向、縦方向、斜め方向などの各方向に移動する背景について適用することができる。例えば、背景が横方向に移動する一例として、図19に示す本遊技機の実際の表示画像を参照しながら説明する。図19に示すように、表示画面6aには、大当たり識別図柄Z1とラウンド表示図柄Z2と補助図柄Z3と背景Hとが表示されている。図19(a)〜(c)に示すように、この補助図柄Z3は、海亀を側面から見た様子であり、その手足を上下に振って泳いでいる。また、このとき、海底の珊瑚礁の模様である背景Hは、表示画面6aの左側から右側に徐々に移動している。この表示態様における3次元画像処置部19は、ワールド座標系に配置した視点の正面に海亀の図柄オブジェクトを配置して、その配置位置で形態を変化させる。そして、背景オブジェクトを視点の視線を所定方向に横切るように繰り返し移動させ、その背景オブジェクトに貼付けられる背景テクスチャの背景テクスチャデータとカラーパレットデータとを適宜更新することにより、上述した表示態様における表示画像を生成している。その結果、海亀が海中を泳ぎ回る臨場感のある表示態様を表示する。
【0091】
また、上述した実施例では、複数の四角形ポリゴンで構成される単一の背景オブジェクトOHについて説明したが、本発明はこれに限定されるものではなく、例えば、複数個の背景オブジェクトOHを配置した場合にも同様に適用することができる。さらに、背景オブジェクトOHを単一の四角形または3角形などの多角形ポリゴンで構成することもできる。
【0092】
また、上述した実施例では、視点SPに近い背景オブジェクトの各ポリゴンほど、より明るい色合いの背景テクスチャを貼付けたが、本発明はこれに限定されるものではなく、例えば視点SPから遠い位置にあるオブジェクトまたはポリゴンほご、より明るい色合いのテクスチャを貼付けるようにすることもできる。これにより、視点SPから遠い位置に光源があるような表現をすることができ、例えば洞窟やトンネルの出口に向かって移動するようなリアルな表示態様も可能になる。なお、色合いの変化に関しては、明暗によって変化をつける以外にも、濃淡によって変化をつけることも可能であるし、徐々に色合いを明瞭にしたり逆にぼかすような処理によって変化をつけることも可能である。これらによっても、遠近感を強調することができる。更には、遠近感を一層強めるために、例えば色合いの変化の間隔を奥に行くほど或いは手前に来るほど早めたり遅めたりすることや、色合いの変化の程度を奥に行くほど或いは手前に来るほど早めたり遅めたりすることも可能である。
【0093】
また、上述した実施例では、複数のカラーパレットデータと、単一の基本テクスチャデータとで構成された同一模様の複数種類のテクスチャを利用したが、本発明はこれに限定されるものではなく、例えば、複数の基本テクスチャデータと、各基本テクスチャデータにそれぞれ対応する複数のカラーパレットデータとで構成される複数種類のテクスチャを利用することもできる。
【0094】
尚、上述した実施の形態の記載内容に限定されるものではなく、例えば次のように実施してもよい。
【0095】
(a)上記実施の形態では、識別図柄の組合せが一致した場合に大当り状態、即ち特別遊技状態が発生するという最も基本的なパチンコ機の例を示した。これに加え、識別図柄の種別或いは別の条件をもとに、特別遊技状態の後に所定条件(例えば次回の大当りとなるまでという条件や、所定回数の変動が行われたという条件等)を満たすまで、特別モード(大当り確率を高めた確率変動モードや、始動口7cへの入賞確率を高めた時間短縮モード)に切り替えてもよい。
【0096】
(b)上記(a)のように特別遊技状態の後に特別モードが設定されるようなパチンコ機の場合、識別図柄を停止表示した後に再度一旦停止している識別図柄を再度変動させる再変動処理を行うようにしてもよい。このようにすれば、一旦特別モードとならない識別図柄で停止された後に再変動によって最終的に特別モードとなる識別図柄で停止されるような遊技の演出を行うことができる。
【0097】
(c)表示手段としての液晶モニタ4としては、液晶ディスプレイ以外にも、CRT、ドットマトリックス、LED、エレクトロルミネセンス(EL)、蛍光表示菅等を用いてもよい。但し、画素数が多い程精密な表示演出を行うことができる。
【0098】
(d)上記実施の形態とは異なるタイプのパチンコ機等として実施してもよい。例えば、一度大当たりすると、それを含めて複数回(例えば2回、3回)大当たり状態が発生するまで、大当たり期待値が高められるようなパチンコ機(通称、2回権利物、3回権利物と称される)として実施してもよい。また、大当りとなる識別図柄が表示された後に所定の領域に遊技球を入賞させることを必要条件として特別遊技状態となるパチンコ機として実施してもよい。また、パチンコ機以外にも、アレパチ、雀球、スロットマシン等の各種遊技機として実施することも可能である。なお、スロットマシンは、例えばコインを投入して図柄有効ラインを決定させた状態で操作レバーを操作することにより識別図柄が変動され、ストップボタンを操作することにより識別図柄が停止されて確定される周知のものである。従って、スロットマシンの基本概念としては、「複数の識別図柄からなる識別図柄列を変動表示した後に停止表示する表示手段を備え、始動用操作手段(例えば操作レバー)の操作に起因して識別図柄の変動が開始され、停止用操作手段(例えばストップボタン)の操作に起因して或いは所定時間経過することにより識別図柄の変動が停止され、その停止時の確定図柄が特定図柄であることを必要条件として遊技者に有利な特別遊技状態を発生させる特別遊技状態発生手段とを備えたスロットマシン」となる。
【0099】
(e)「識別図柄が変動開始した後に確定するまでの図柄変動態様を複数種設定」することもできる。この場合、例えば、表示手段での識別図柄の変動は、単純に切り換え表示することとしたり、軸を中心にして回転変動表示することとしたり、識別図柄をズームアップさせながら切換表示することとしたり、識別図柄を潰れ又は伸長変形させながら切換表示することとしたり、一旦停止されたように見える識別図柄について再変動処理を行うようにすることとする等の各種の図柄変動態様のうちから複数種を適宜選定すればよい。また、「識別図柄が変動開始されてから確定されるまでの変動態様(点滅等も含む)に応じて特別遊技状態が付与される期待値が異なる」ように構成すれば、図柄変動態様にも一層興味が注がれ、遊技に厚みが増す。
【0100】
(f)「表示手段における識別図柄変動のための保留数が最大保留個数であるとき又はそれに近づいたとき、表示手段における図柄変動開始から確定までの時間(又は/及び図柄確定から次回の図柄変動開始までの時間)を短くすること」とすれば、例えば始動口2cに遊技球が入賞する等のように図柄変動開始条件を満たした状態が無効にされる可能性が低くなる。
【0101】
(g)各表示系の表示色を、モード(例えば、通常モードと確変モード)の相違や大当り期待値の相違に応じて適宜切換制御して実施すること。例えば、大当り期待値が大きくする場合等に、識別図柄を緑色から赤色に切り換えるように制御することなどが挙げられる。このような色の切換は、遊技状態が通常とは異なる状態であることを遊技者に明確にする、大当り期待値が大きくなったことを遊技者に明示する等の効果をもたらす。ここから導き出される技術思想としては、「図柄表示色を遊技状態に応じて切換表示すること。」、「図柄表示色をモードに応じて切換表示すること。」、「図柄表示色を大当り期待値の相違に応じて切換表示すること。」などがある。
【0102】
(h)通常モードと確変モード等の特別モードとの選定として、表示手段としての液晶モニタ6(画面6a)における識別図柄の種類(奇数・偶数等)により報知するタイプのものとは別に、いずれのモードが選定されたかを所謂第4図柄と称される図柄を変動させた後に確定表示させるモード報知手段を設けてもよい。また、ランプの表示態様を変更してモードを表示したり、音声や楽音などの音によりモードを告知するようにしてもよい。
【0103】
【発明の効果】
以上のとおり、本発明によれば、仮想3次元空間に配置されるオブジェクトの位置によって色合いが異なるように表示制御されることから、表示画面上では奥行き方向等に関して臨場感のある図柄の表示態様を実現することができ、もって遊技者の面白味を永続させることができる。
【図面の簡単な説明】
【図1】実施例に係るパチンコ機の概略構成を示す外観図である。
【図2】実施例に係るパチンコ機の機能ブロック図である。
【図3】3次元画像処理部の機能ブロック図である。
【図4】パチンコ機の制御基盤での処理を示すフローチャートである。
【図5】表示画面6aにおける一表示態様を示す図である。
【図6】テクスチャデータとカラーパレットデータとの関係を示す図である。
【図7】視点からの距離に応じたカラーパレットデータを示す図である。
【図8】ポリゴンとテクスチャとの関係を示す図である。
【図9】実施例に係るパチンコ機における一表示態様を示す図である。
【図10】画像表示装置での処理を示すフローチャートである。
【図11】ワールド座標系内の視点と各オブジェクトとの関係を示す図である。
【図12】背景オブジェクトの移動を示す図である。
【図13】ステップT8での処理を示すフローチャートである。
【図14】カラーパレットデータを示す図である。
【図15】カラーパレットデータと各ポリゴンとの関係を示す図である。
【図16】背景テクスチャデータとマップデータとの対応関係を示す図である。
【図17】全背景テクスチャデータと全マップデータとの対応関係を示す図である。
【図18】マップデータと特定領域との関係を示す図である。
【図19】パチンコ機における実際の表示態様を示す図である。
【符号の説明】
1 … 制御基盤
6 … 液晶モニタ
6a… 表示画面
7 … 画像表示装置
18 … キャラクタ記憶部
19 … 3次元画像処理部
20 … 画像記憶部
a〜d … カラーパレットデータ
OH … 背景オブジェクト
OZ … 図柄オブジェクト
SP … 視点
MD … マップデータ
TH … 背景テクスチャデータ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a gaming machine such as a pachinko machine, a slot machine, or a coin gaming machine, and more particularly to a technique for displaying a state in a virtual three-dimensional space.
[0002]
[Prior art]
In this type of pachinko machine, a game state that is advantageous to a player who can obtain a large number of pachinko balls and a game state that is disadvantageous to a player who consumes the pachinko balls are generated. In order to perpetuate the interest of the player, a realistic display mode is displayed according to each game state. As the display mode, for example, the player changes in the back side direction or the near side direction of the display screen by gradually expanding or reducing the background, which is a two-dimensional image drawn using a perspective method or the like. The display mode is realized.
[0003]
[Problems to be solved by the invention]
However, the conventional pachinko machine described above has the following problems.
[0004]
In the conventional pachinko machine, since the fluctuation of the pattern or the like is displayed by simply enlarging or reducing the two-dimensional image, the display mode is less realistic as a whole, and the player may feel a sense of reality. There was a problem of being unable to do so. Therefore, in recent years, attempts have been made to realize a realistic display mode by displaying changes in a three-dimensional image by changing an object, which is three-dimensional information composed of polygons, in a virtual three-dimensional coordinate space. It has been broken. Specifically, an object is arranged in a virtual three-dimensional space and the object is changed. Based on a given viewpoint, the state in the virtual three-dimensional space is pasted to the object, and a display image showing the state in the virtual three-dimensional space is generated. By sequentially displaying the display images, a realistic three-dimensional image change is displayed.
[0005]
However, since the same texture is attached to the object that fluctuates in the virtual three-dimensional space regardless of the position of the object in the virtual three-dimensional space, the three-dimensional image of the object displayed on the display screen is Regardless of the depth direction from the display screen, they are displayed in almost the same color. As a result, the presence in the depth direction of the display screen is not sufficiently expressed, and there is a problem that the player's interest cannot be made permanent.
[0006]
The present invention has been made in view of such circumstances, and it is possible to realize a display manner of a realistic pattern depending on the position of an object such as the depth of a display screen, and to make a player's fun permanent. An object is to provide a game machine that can be used.
[0007]
[Means for Solving the Problems]
Means and the like effective for solving the above problems are shown below. In addition, the operation | movement, an effect, etc. are mentioned as needed.
[0008]
1. In a gaming machine having display means for displaying a three-dimensional object arranged in a virtual three-dimensional space as a symbol on a two-dimensional screen, the display means is displayed so as to change the color of the object according to the arrangement position of the object. A gaming machine to be controlled. According to such means, in the virtual three-dimensional space, the color of the object displayed on the display screen, that is, the color of the design changes depending on the arrangement position of the object, so that it is expressed in the same color regardless of the position of the object as in the past. Compared to what has been present, it can express a sense of reality, and in particular, even for a gaming machine such as a pachinko machine with a limited display area, it is possible to realize a powerful image display by emphasizing the depth etc. it can.
[0009]
2. In a gaming machine having display means for displaying a three-dimensional object arranged in a virtual three-dimensional space as a symbol on a two-dimensional screen, display control is performed on the display means to change the color of the object according to the distance of the object A gaming machine designed to be used. According to such means, in the virtual three-dimensional space, the object displayed on the display screen, that is, the color of the design changes depending on the distance from the viewpoint position, for example, the same as before, regardless of the position of the object. Compared to those expressed in shades, it can express a sense of reality. Especially, even for game machines such as pachinko machines where the display area is limited, the depth etc. are emphasized to display powerful images. Can be realized.
[0010]
3. A gaming machine according to the above means 1 or 2, wherein the change in hue is a gradual change corresponding to the position of the object. According to such means, it is easier to determine the boundary portion of the change when adding a change in hue than when applying a continuous change. However, instead of gradual change, it may be a continuous change. In this case, although the processing may be somewhat complicated, the change in color becomes smooth and gives the player a more realistic feeling. Can do.
[0011]
4). A gaming machine according to any one of the above means 1 to 3, wherein the object extends continuously, and the display is controlled so that the hue in the object region varies depending on the arrangement position or the perspective position. According to such means, for example, when the object is a background object such as the ground, the sky, the sea surface, the sea, and the room, the depth and the like can be emphasized, which is effective in that a three-dimensional effect can be produced on the entire screen. It will be a thing.
[0012]
5. In any one of the above means 1 to 3, the object is a single or a plurality of single bodies, and the display is controlled so that the color of each object differs depending on the arrangement position or perspective position of the object . According to such means, for example, when the object is a character or the like, it is effective in that a sense of perspective that is clearly different from simple enlargement / reduction of a symbol can be emphasized.
[0013]
6). In any one of the above means 1 to 5, a change in the hue of an object is realized by pasting textures having different hues on the object. According to such means, when changing the hue, it is not necessary to change the object itself, and it is only necessary to appropriately select and paste a texture having a different hue. There can be at least one type, which helps to reduce the storage capacity.
[0014]
7). In the above means 6, a texture having different hues is realized by a combination of texture data in which no color is defined and a plurality of color palette data that determines the hue of the texture data. Note that a single texture data or a plurality of texture data can be realized. According to such means, when determining the hue, it is possible to finally realize a plurality of types of textures using a plurality of color palette data. For example, as in the case of realizing a plurality of types of textures using so-called light source processing. In addition, when the color of the light source is changed, there is no problem that the color shade of the portion irradiated with the light changes according to the color of the light source. Furthermore, since all necessary shades can be generated from a plurality of color palette data instead of having all the shades in advance, there is an advantage that it is possible to deal with changes in shades in any number of stages depending on the situation or necessity. .
[0015]
8). A gaming machine according to any one of the above means 1 to 7, wherein the hue of the object is changed by the brightness of the color. Here, for example, when viewed from a distance, the change in brightness may be darker as it goes deeper, or conversely, it may be brighter as it goes deeper. The impression can be changed. Of course, any of them may be selected according to the game situation.
[0016]
9. A gaming machine according to any one of the above means 1 to 7, wherein the hue of the object is changed according to the color shade. Here, for example, when viewed from a distance, the change in shading may be darker as it goes deeper, or conversely, it may be lighter as it goes farther. The impression can be changed. Of course, any of them may be selected according to the game situation.
[0017]
10. The gaming machine according to any one of the above means 1 to 7, wherein the color of the object is changed by clarifying or blurring the color without changing the color itself. Here, for example, when viewed from a distance, it may be blurred as it goes deeper, or conversely, it may become clearer as it goes farther. be able to. Of course, any of them may be selected according to the game situation.
[0018]
11. The game machine according to any one of the above means 1 to 10, wherein the change in hue is changed according to the arrangement position or the perspective position of the object, and the change interval or the degree of change is changed. Here, for example, when viewed from a distance, the interval of the change in hue is advanced or delayed as it goes farther or forward, or the degree of change in hue is farther forward or nearer It can be advanced or delayed as soon as possible. As a result, there is a case where it is possible to further emphasize the sense of reality related to perspective.
[0019]
12 In any one of the above means 1 to 11, an identification symbol can be displayed on the display means, and a special gaming state advantageous to a player can be generated based on the display result of the identification symbol, A gaming machine in which an identification symbol is associated with the object. According to such means, since the variation of the identification symbol can be expressed using the object, the player can enjoy the variation until the identification symbol is determined in a realistic state.
[0020]
13. In the above means 12, a gaming machine in which the display means can display an auxiliary symbol different from the identification symbol and associates the auxiliary symbol with the object. According to such means, since the auxiliary symbol can be expressed by a stereoscopic image with a sense of presence, for example, by using a landscape as an auxiliary image for display or by using a character for display effect, there is no conventional technique. Interest can be given.
[0021]
14 A gaming machine according to the above means 12 or 13, wherein a display result of an identification symbol for generating a special gaming state is determined by an accidental factor. Here, it is preferable that the display determination that brings about the special gaming state is determined at random with a predetermined probability by the random number acquisition means. The random number acquisition means is preferably performed based on a random value derived at random using a random number counter for special game determination stored in the storage means.
[0022]
15. A gaming machine in which a plurality of types of identification symbols are prepared in any one of the above means 12 to 14, and are always displayed on the display means so that they circulate in a predetermined order. With this configuration, since the appearance order of each identification symbol can be recognized in advance by the player, it is possible to know at what timing an identification symbol that can generate a special gaming state appears, and in particular, the display state of the display means is the reach state. In some cases, a sense of expectation increases due to an approach of an identification symbol that can generate a special game state, and the interest of the game is improved. In this cyclic display, it is possible to display the identification symbols so as to switch sequentially or display them so as to continuously flow in a predetermined direction.
[0023]
16. In any one of the above means 12 to 15, a gaming control board including a CPU for performing a special gaming state determination and outputting a simple signal that triggers a display operation by the display means, and receiving the simple signal to the display means A gaming machine including a display control board including a CPU for performing detailed display control. If comprised in this way, a complicated control can be coped with and a new display effect can be performed only by exchanging only the display control board.
[0024]
17. In the means 16, the display control board is provided with a storage means (character storage section) for storing the object, and the object is arranged in the virtual three-dimensional space based on the storage means. To play. In addition, it is preferable in terms of display control to store not only data relating to the object but also data relating to a background image and data relating to a texture such as a color / pattern to be attached to the object.
[0025]
18. In any one of the above means 1 to 17, the gaming machine is a pachinko machine. Above all, the basic configuration of a pachinko machine is equipped with an operation handle, and according to the operation of the handle, a game ball is launched into a predetermined game area, and the game ball is placed at a predetermined position in the game area. It is mentioned that the identification symbol of the display means starts to change as a necessary condition for winning a prize. In addition, when a special gaming state occurs, a variable winning device arranged at a predetermined position in the gaming area is opened in a predetermined manner so that a gaming ball can be won, and a valuable value (not only a prize ball) according to the winning number , Including writing to a magnetic card).
[0026]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment in which a gaming machine is embodied as a pachinko machine will be described in detail based on the drawings.
[0027]
A pachinko machine will be described as an example of a gaming machine equipped with an image display device. FIG. 1 is a front view showing a schematic configuration of a pachinko machine according to the present embodiment, FIG. 2 is a functional block diagram showing a schematic configuration of a control board and an image display device provided in the pachinko machine, and FIG. 3 is an image display device. It is a functional block diagram which shows schematic structure of the image processing part.
[0028]
The pachinko machine according to this embodiment includes a game board 2 provided with a control board 1 (see FIG. 2) for controlling the entire pachinko machine, a frame 3 to which the game board 2 is attached, and a lower side of the game board 2. An upper receiving tray 4 provided, a rotary handle 5 connected to an unillustrated launching device for launching pachinko balls stored in the upper receiving tray 4 to the surface of the game board 2, and a lower provided on the lower side of the upper receiving tray 4 There is a display screen 6a of the liquid crystal monitor 6 that displays the receiving tray 8, an identification symbol for identifying the gaming state by the player, and an auxiliary symbol that is a symbol other than the identification symbol that is displayed to enhance the effect in the gaming state. And an image display device 7 (see FIG. 2) mounted so as to be arranged at substantially the center of the board surface of the game board 2. On the display screen 6a, one or a plurality of identification symbols and changes in auxiliary symbols (movement, rotation, deformation, etc.) on the background on which a predetermined pattern is drawn are displayed according to the gaming state in the gaming machine. The An identification symbol is a so-called symbol number or symbol image with a symbol number that allows a player to recognize a jackpot or reach on a pachinko machine, and an auxiliary symbol is a symbol to win a jackpot or reach. An image of a symbol other than the identification symbol displayed on the screen. The jackpot means a state advantageous to a player who can acquire a large number of pachinko balls, and the normal gaming state means a state disadvantageous to a player who consumes pachinko balls. Changes such as the identification symbol displayed in the normal gaming state are called normal fluctuations, and are used to produce effects (including cases where jackpots occur) regardless of whether or not a jackpot has occurred. Fluctuation is called reach. In the case of a big hit, a display mode for each round, which will be described later, is displayed. In addition, when a game is not being played on the pachinko machine, a demonstration or the like is displayed. The symbol in the present invention is a concept including an identification symbol and an auxiliary symbol.
[0029]
The game board 2 includes a rail 2a for guiding a pachinko ball launched by the rotary handle 5 to the board surface, a plurality of non-illustrated nails that guide the pachinko ball to unspecified places, and a pachinko ball that has been induced by the nail. A plurality of winning holes 2b for winning, a starting hole 2c for winning a pachinko ball guided near the center of the game board 2, and a relatively large number of pachinko balls to be awarded at a time in a specific gaming state. And a large winning opening 2d that can be used. A winning detection sensor 11 (see FIG. 2) for detecting the entrance of a pachinko ball is provided in each winning opening 2b, start opening 2c, and large winning opening 2d. When the winning detection sensor 11 detects the entrance of the pachinko ball, a predetermined number of pachinko balls are supplied to the upper tray 4 by the control board 1 provided in the game board 2. A start start sensor 12 (see FIG. 2) is provided in the start port 2c. Furthermore, an open / close solenoid 13 (see FIG. 2) is provided in the special winning opening 2d, and the special winning opening 2d can be opened and closed by the operation of the open / close solenoid 13. In addition to what has been described above, for example, a holding lamp or the like for storing the number of pachinko balls that have entered the start port 2c is provided, but description thereof is omitted in this embodiment.
[0030]
The upper receiving tray 4 has a receiving tray shape, and stores the pachinko balls supplied from the ball supply port 4a to which the pachinko balls are supplied. Further, on the opposite side of the upper tray 4 where the ball supply port 4a is disposed, a ball feed port (not shown) that communicates with a launching device that launches a pachinko ball toward the rail 2a is provided. Furthermore, a ball removal button 4b for transferring the stored pachinko balls to the lower tray 8 is provided at the upper part of the upper tray 4 and the pachinko balls stored in the upper tray 4 are pressed by pressing this ball removal button 4b. Can be transferred to the lower tray 8. The lower receiving tray 8 has a receiving tray shape and receives a pachinko ball transferred from the upper receiving tray 4. In addition, the lower tray 8 is provided with a ball removal lever (not shown) for removing the pachinko balls stored therein.
[0031]
The rotary handle 5 is connected to a launching device that launches a pachinko ball toward the rail 2a. By rotating the rotary handle 5, the launching device launches a pachinko ball with a strength corresponding to the amount of rotation. Note that when the player holds the rotary handle 5 in a rotated state, the launching device launches one pachinko ball at a predetermined interval.
[0032]
As shown in FIG. 2, the control board 1 provided in the game board 2 includes a main control unit 16 that is a microcomputer including a memory and a CPU, and a counter 14 that outputs a value that determines a gaming state in the gaming machine. A start start sensor 12 for detecting the entrance of a pachinko ball at the start port 2c (see FIG. 1), a winning detection sensor 11 for detecting the entrance of the pachinko ball at the winning port 2b (see FIG. 1), and a big prize An open / close solenoid 13 that opens and closes the mouth 2d (see FIG. 1), an I / F (interface) 15 that is connected to an I / F (interface) 17 of the image display device 7 so that information can be distributed, and the like. Yes. The control board 1 supplies a predetermined amount of pachinko balls based on the detection of the ball detection sensors at the winning opening 2b and the start opening 2c described above, and executes various events for operating a lamp and a speaker (not shown). Is. In addition, the control board 1 transmits various commands for instructing a display mode according to the gaming state to the image display device 7 through the I / F 15.
[0033]
Specifically, the processing performed in the control board 1 will be described in detail with reference to the flowchart shown in FIG.
[0034]
Step S1 (detects the incoming ball)
A player drives a pachinko ball into the game board 2 with the rotary handle 5 and starts a pachinko game. A part of the pachinko balls driven into the game board 2 are led to the vicinity of the center of the board surface and enter the starting port 2c. When the pachinko ball enters the start port 2c, the start sensor 12 that detects the ball that has entered the start port 2c sends a start signal to the main control unit 16 and also receives a prize provided in the start port 2c. The detection sensor 11 sends a winning signal to the main control unit 16. In this embodiment, the start sensor 12 and the winning detection sensor 11 are used together by the same sensor. Even when a pachinko ball enters the winning opening 2b, the winning detection sensor 11 of each winning opening 2b sends a winning signal to the main control unit 16.
[0035]
Step S2 (supplying pachinko balls)
When detecting a winning signal from the winning detection sensor 11, the main control unit 16 operates a pachinko ball supply mechanism (not shown) to supply a predetermined amount of pachinko balls to the upper tray 4 through the ball supply port 4a.
[0036]
Step S3 (Lottery lottery)
When the main controller 16 detects a start signal from the start sensor 12, the main controller 16 reads the output value of the counter 14 and performs a lottery lottery. In the big hit lottery, if the output value of the counter 14 is a predetermined value, “big hit” is generated. On the other hand, if the output value of the counter 14 is other than the predetermined value, the normal gaming state of “out of” is continued.
[0037]
Step S4 (send command)
The main control unit 16 determines a display mode according to the normal gaming state or a specific gaming state, and transmits a command according to the display mode to the image display device 7 via the I / F 15. The command is an instruction for causing the image display device 7 to execute a predetermined display program, and a display pattern corresponding to the gaming state is displayed on the display screen 6a by executing the display program. For example, in the case of a jackpot, the main control unit 16 transmits a command instructing the start of a predetermined reach, and a command instructing the type of jackpot identification symbol to be stopped at the final stage of the reach after a predetermined time has elapsed. Send. As a result, the reach of the type designated by the command is displayed on the display screen 6a of the image display device 7 and then displayed so as to stop at the jackpot identification symbol of the type designated by the command. At this time, the main control unit 16 gives a release signal to the open / close solenoid 13 to open the big winning opening 2d after the stop of the jackpot identification symbol is displayed on the display screen 6a, so that the player has a number of players. Make the pachinko ball ready. Further, in this gaming state, the control board 1 gives, for example, that about 10 balls have won a prize winning opening 2d as one round, and each round ends or the start of the next round is instructed. The command is transmitted to the image display device 7. Thereby, the display mode of a different pattern for every round is displayed on the display screen 6a. On the other hand, in the case of losing, a command for instructing the type of identification symbol of losing to be stopped at the final stage of reach, or a command for stopping the identification symbol that is fluctuated in the normal gaming state with the identifying symbol of losing. It transmits to the image display device 7. As a result, the display screen 6a is displayed so as to stop at the losing identification symbol after displaying the reach, or to stop at the losing identification symbol after normal fluctuation.
[0038]
Step S5 (new entry detection?)
The main control unit 16 waits until it detects the presence or absence of a new start signal from the start sensor 12 (new entry). If there is no new start signal, this process is terminated and the process waits until a new start signal is detected. The control board 1 that executes the above-described steps S1 to S5 corresponds to a game state generating means. Note that the start-up sensor 12 detects the entrance of the pachinko ball during the variation of the identification symbol (reach, normal variation, etc.), and stores the number of the pachinko balls that have entered the hold lamp, which is omitted from the above description. If it is, the lighting of the holding lamp is detected as a new start signal. If there is a new start signal, steps T2 to T4 are repeated.
[0039]
As shown in FIG. 2, the image display device 7 includes an I / F 17 that receives a command sent from the control board 1, an object that is three-dimensional information set in the world coordinate system based on the command, A character storage unit 18 that stores texture data, which is image information of the pattern of the object, and a backmost image, and a program corresponding to the received command are executed to set the object in the world coordinate system, and texture data to the object A three-dimensional image processing unit 19 that generates a display image with a texture attached thereto, an image storage unit 20 that temporarily stores the display image generated by the three-dimensional image processing unit 19, and a liquid crystal that displays the display image And a monitor 6. The world coordinate system is a three-dimensional coordinate system corresponding to a virtual three-dimensional space. An object is a three-dimensional virtual object set in the world coordinate system, and is three-dimensional information composed of a plurality of polygons. A polygon is a polygonal plane defined by vertices of a plurality of three-dimensional coordinates. The texture is image information to be pasted on each polygon of the object. When the texture is pasted on the object, an image corresponding to the object, for example, an identification symbol, an auxiliary symbol, or a background is generated. Also, as will become clear from the detailed description later, the texture pasted on the polygon is composed of basic texture data for determining a pattern and color palette data which is color information for determining the color of the pattern. Thus, a plurality of types of textures can be generated from a plurality of types of color palette data and a single basic texture data.
[0040]
The I / F 17 is connected to the I / F 15 of the control board 1 so as to be able to distribute information, and receives commands sent from the control board 1. The I / F 17 sequentially passes the received commands to the three-dimensional image processing unit 19.
[0041]
The character storage unit 18 is a memory that stores an object that is three-dimensional information that is appropriately read from the three-dimensional image processing unit 19 and texture data that is two-dimensional image information of the object. Specifically, the character storage unit 18 stores a plurality of types of background texture data, such as a pattern of a sea coral reef displayed on the display screen 6a of the liquid crystal monitor 6, and a hit identification pattern such as a fish pattern. Design texture data, round display design texture data indicating the number of rounds of the jackpot, and various texture data such as auxiliary turtle design texture data displayed for production during the round are stored. Yes. Further, the character storage unit 18 also stores a background object and a symbol object composed of one or a plurality of polygons to which each texture is pasted. Further, the character storage unit 18 also stores a two-dimensional rearmost image to be displayed on the rearmost surface of the display screen 6a. Each of these objects, texture data, and the backmost image are appropriately read out by the three-dimensional image processing unit 19. The character storage unit 18 is an object information storage unit that stores object information such as objects and texture data.
[0042]
The three-dimensional image processing unit 19 includes a CPU (central processing unit) that controls and manages the entire image display device, a memory that appropriately stores the calculation results in the CPU, and an image data processor that generates an image to be output to the liquid crystal monitor 6. It is composed. The three-dimensional image processing unit 19 sets various objects read from the viewpoint and the character storage unit 18 in the world coordinate system, which is a three-dimensional virtual space, in order to realize a display mode according to the command. Move or displace the viewpoint. Further, so-called geometry calculation processing is performed to generate projection information that is two-dimensional coordinate information obtained by projecting an object in the world coordinate system onto a projection plane based on the viewpoint. Based on the projection information, the position corresponding to the vertex of each polygon of each object in the frame buffer provided in the image storage unit 20, that is, the address in the frame buffer is obtained, and the texture read from the character storage unit 18 is obtained. The texture is deformed to match the vertex of each polygon of the object, and the texture is drawn with reference to each address in the frame buffer. When the drawing of the texture on all objects is completed and a display image is generated in the frame buffer of the image storage unit 20, the display image is output to the liquid crystal monitor 6. The three-dimensional image processing unit 19 corresponds to the texture selection unit and the display image generation unit in the present invention.
[0043]
Specifically, the three-dimensional image processing unit 19 is configured as follows, for example. Hereinafter, an example of the three-dimensional image processing unit 19 will be described in detail with reference to FIG.
[0044]
As illustrated in FIG. 3, the three-dimensional image processing unit 19 includes a CPU 21, a program ROM 22 that stores a program executed by the CPU 21, a work RAM 23 that stores data obtained by executing the program, and an instruction from the CPU 21. A DMA 24 that collectively transfers data stored in the work RAM 23, an I / F 25 that receives data transferred by the DMA 24, and a geometry calculation processing unit 26 that performs coordinate calculation processing based on the data received by the I / F 25 A rendering processing unit 27 that generates a display image based on data received by the I / F 25, a palette processing unit 28 that appropriately supplies a plurality of types of color palette data as color information to the rendering processing unit 27, and an image storage A plurality of frame bars provided in the section 20 A selector unit 29 for switching the file, and a video output section 30 for outputting to the liquid crystal monitor 6 to display images. The CPU 21, the program ROM 22, the work RAM 23, the DMA 24, and the I / F 25 are connected to the same data bus, and the character storage unit 18 that stores objects, textures, and the like is independent of the data bus described above. It is connected to the geometry calculation processing unit 26 and the rendering processing unit via a data bus.
[0045]
The program ROM 22 is a program that is first executed by the CPU 21 when the gaming machine is turned on, a plurality of types of programs for displaying according to the type of commands sent from the control board 1, and the like. Map data and color palette data to be stored. For example, a program for performing display sets an object and a viewpoint in the world coordinate system in order to realize a display mode according to a command by referring to a prepared table or performing arithmetic processing on the referenced data. Setting information for deriving is derived. The display program includes not only a program that is executed alone, but also a program that generates a task for performing display according to the type of command by combining a plurality of tasks, for example. The setting information includes arrangement coordinate data for designating the arrangement position of the object to be set in the world coordinate system, attitude data for instructing the attitude of the object, and arrangement coordinates for instructing the arrangement position of the viewpoint to be set in the world coordinate system. One screen to be displayed on the display screen 6a as well as data, rotation data for rotating the line of sight based on the viewpoint, data including the object and texture stored in the character storage unit 18 and the storage address of the rearmost image, etc. This is data for generating a display image of minutes. Further, the program ROM 22 also stores map data for designating a background texture to be pasted on a polygon constituting a background object arranged in the world coordinate system. As will be described in detail later, this map data constitutes the entire background displayed on the display screen 6a, for example, the entire pattern of the coral reef displayed on the display screen 6a by a plurality of types of background textures, and constitutes a background object. This is data for instructing in association with the background texture to be pasted on the polygon. The program ROM 22 is so-called map data storage means for storing map data or so-called color palette data storage means for storing a plurality of color palette data.
[0046]
The CPU 21 is a central processing unit that manages and controls the entire image display device 2 using a control program stored in the program ROM 22, and mainly executes a program corresponding to a command sent from the control board 1. Thus, processing for setting an object and a viewpoint in the world coordinate system is performed so that the background displayed on the display screen 6a continuously moves. Specifically, the CPU 21 sequentially writes setting information obtained by executing a display program for performing display corresponding to the command in accordance with the type of command received by the I / F 17 to the work RAM 23, The DMA 24 is instructed to transfer the setting information in the work RAM 23 at every interrupt interval (for example, 1/30 seconds or 1/60 seconds).
[0047]
The work RAM 23 temporarily stores setting information that is an execution result obtained by the CPU 21. The DMA 24 is a so-called direct memory access controller that can transfer the data stored in the work RAM 23 without the processing in the CPU 21. That is, the DMA 24 collectively transfers the setting information stored in the work RAM 23 to the I / F 25 based on the transfer start instruction from the CPU 21.
[0048]
The I / F 25 receives the setting information transferred by the DMA 24. The I / F 25 includes the storage address of the object stored in the character storage unit 18 included in the setting information, the arrangement coordinate data for arranging the object in the world coordinate system, the arrangement coordinate data for arranging the viewpoint, Data to be subjected to coordinate calculation, such as rotation data for rotating the line of sight based on the viewpoint, is given to the geometry calculation processing unit 26, and the storage address such as the texture stored in the character storage unit 18 included in the setting information Data to be subjected to image drawing is given to the rendering processing unit 27. Further, the I / F 25 gives the palette processing unit 28 color palette data for designating texture color information included in the setting information.
[0049]
The geometry calculation processing unit 26 performs coordinate calculation processing accompanying movement or rotation of a three-dimensional coordinate point based on data given from the I / F 25. Specifically, the geometry calculation processing unit 26 reads out an object composed of a plurality of polygons arranged in the local coordinate system based on the storage address of the object stored in the character storage unit 18, and moves the object to the posture. The coordinate data of each polygon of the object in the world coordinate system when the world coordinate system is set based on the data and the arrangement coordinate data is calculated. The local coordinate system is an object-specific coordinate system in which an object having a reference posture is set. Further, coordinate data of each polygon of the object in the viewpoint coordinate system based on the viewpoint set based on the viewpoint arrangement coordinate data and the rotation data is calculated. Further, projection information which is two-dimensional coordinate data of each polygon of the object on the projection plane when the object is projected onto the projection plane set perpendicular to the line of sight based on the viewpoint is calculated. Then, the geometry calculation processing unit 26 gives the projection information to the rendering processing unit 27.
[0050]
The palette processing unit 28 includes a palette RAM (not shown) that stores a plurality of color palette data each composed of a plurality of types of color information written by the CPU 21. The palette processing unit 28 adds color palette data given from the CPU 21 through the I / F 25 to the palette RAM. A corresponding color palette is given to the rendering processing unit 27. Giving a color palette means giving the storage address of the color palette stored in the palette RAM, for example, to the rendering processing unit 27, and the rendering processing unit 27 stores the display image when the display image is generated. Refer to color information. Each color information is determined by a combination of red (R), green (G), and blue (B). When the color palette data size is, for example, 16 bits, each value of 0 to 15 is used. Is assigned predetermined color information. Further, each data of the color palette, that is, each palette is assigned to each dot constituting the texture, and the entire texture is drawn by drawing each dot with the color information of each palette. In this embodiment, by sequentially changing the color information assigned to each palette of this color palette, a plurality of types of textures with different hues are generated step by step.
[0051]
The rendering processing unit 27 first reads the backmost image based on the storage address of the backmost image in the character storage unit 18, draws the backmost image in a frame buffer provided in the image storage unit 20, Each polygon of the object based on the projection information is developed in the frame buffer. Further, the rendering processing unit 27 renders the texture read from the character storage unit 18 on an area corresponding to each polygon in the frame buffer based on the texture storage address and color palette data in the character storage unit 18. As a result, a display image having a predetermined aspect ratio, for example, an aspect ratio of 3: 4, in which a background pattern and various patterns are drawn on the rearmost image is generated in the frame buffer. In the above-described geometry calculation processing unit 26 and rendering processing unit 27, clipping processing for determining a portion to be displayed on the screen, hidden surface processing for determining a visible portion and an invisible portion according to the front-rear relationship of the polygon, and light from the light source Processing such as shading calculation processing for calculating the state of hitting and the state of reflection is also performed as appropriate.
[0052]
The selector unit 29 selects a plurality of frame buffers as appropriate. Specifically, the selector unit 29 is, for example, a first frame buffer or a second frame buffer that is a plurality of frame buffers provided in the image storage unit 20 when an image is drawn by the rendering processing unit 27 described above. Select one of the frame buffers. In this case, a display image is generated in the frame buffer on the selected side. On the other hand, the selector unit 29 reads a display image for which a display image has already been generated from the frame buffer on which drawing has not been performed, and sends the display image to the video output unit 30. The selector unit 29 sequentially switches between the reading-side frame buffer and the drawing-side frame buffer. The video output unit 30 converts the display image sent from the selector unit 29 into a video signal and outputs the video signal to the liquid crystal monitor 6.
[0053]
The image storage unit 20 is a so-called video RAM that stores a display image generated by the rendering processing unit 27. The image storage unit 20 constitutes a so-called double buffer provided with a first frame buffer, which is a storage area for storing a display image for one screen, and a second frame buffer, for example. Note that the number of frame buffers provided in the image storage unit 20 is not limited to two, and may be any number as long as it is one or more.
[0054]
The liquid crystal monitor 6 includes a screen 6 a that displays a display image output from the video output unit 30, and is attached so that the screen 6 a is exposed on the board surface of the game board 2. The display screen 6a is, for example, a so-called wide screen with an aspect ratio of 9:16, and the liquid crystal monitor 6 uses the display image output from the video output unit 30 with an aspect ratio of 3: 4 as the aspect ratio of the display screen 6a. In addition, the display image is displayed on the display screen 6a. The liquid crystal monitor 6 also has a function of displaying a display image having an aspect ratio of 3: 4 as it is, and appropriately changes the aspect ratio of the display image displayed on the display screen 6a according to the gaming state. You can also. The liquid crystal monitor 6 corresponds to display means in the present invention.
[0055]
Here, in the present invention, in order to realize a display mode in which the player can feel a sense of reality in the depth direction in the virtual three-dimensional space displayed on the display screen, the player observes on the display screen 6a. Thus, for example, a display is realized in which the background pattern moves (scrolls) smoothly from the back side to the near side, and the color tone is dark on the back side and becomes lighter as it approaches the near side. Furthermore, regardless of the hardware restrictions of the gaming machine or the image display device, so-called infinite scrolling is possible in which the background pattern displayed on the display screen 6a moves indefinitely without breaks. In order to facilitate the understanding of the following, first, the outline of the present invention will be described with a simple example.
[0056]
As shown in FIGS. 5A to 5E, for example, characters “A, B, C, D, E,...” Are continuously drawn on the lower side of the display screen 6 a of the liquid crystal monitor 6. The background H moves from the back side to the near side of the display screen 6a and gradually passes to the outside of the display screen 6a. For example, the design Z on which the letter “A” is drawn is drawn from the back side of the display screen 6a. A display mode is displayed that moves to the side and passes to the outside of the display screen 6a. At this time, the background H is displayed so that its color gradually becomes brighter as it approaches the near side from the back side of the display screen 6a, and the color of the pattern Z gradually becomes brighter as it approaches the near side of the display screen 6a. Is displayed. By observing such a display mode, the player can feel a sense of presence as if traveling in the virtual three-dimensional space, and a sense of presence in the depth direction of the display screen 6a. Can do. In order to realize such a display mode, the image display device 7 performs processes as shown in FIGS.
[0057]
The three-dimensional image processing unit 19 sets a viewpoint for displaying the state in the world coordinate system on the display screen 6a in the three-dimensional world coordinate system corresponding to the virtual three-dimensional space, and displays the design Z A background object for displaying a pattern object for displaying and a background H is set. The background object and the design object are appropriately moved, and a texture is appropriately pasted on the polygons constituting each of the objects, and display images indicating the appearance are sequentially generated based on the viewpoint. By sequentially displaying the displayed images on the display screen 6a of the liquid crystal monitor 6, the display mode shown in FIG. 5 is realized.
[0058]
The difference in hue in the background H displayed on the display screen 6a is that the distance from the viewpoint to each polygon of the background object is different for each polygon of the background object composed of a plurality of polygons arranged in the world coordinate system. It is realized by pasting a darker texture as the distance is longer, and a brighter texture as it is closer to the viewpoint. Similarly, the change in the hue associated with the movement of the symbol Z displayed on the display screen 6a is caused by moving a symbol object composed of a single or a plurality of polygons in the world coordinate system in the direction of the viewpoint. According to the distance between the image and the viewpoint, the darker texture is pasted to the symbol object as it is farther from the viewpoint, and the brighter texture is pasted to the pattern object as it is closer to the viewpoint.
[0059]
As shown in FIG. 6, a plurality of types of textures T1a to T1d having the same pattern and gradually changing in hue are basic texture data t1 for drawing the pattern of the letter “A” and color information of the basic texture data t1. There are a plurality of color palette data a to d whose hues are different in stages. That is, in the case of the combination of the basic texture data t1 and the color palette data a, the texture T1a is the combination of the basic texture data t1 and the color palette data b, the color palette data c, or the color palette data d. Generates textures T1b, T1c, and T1d, respectively. Further, a plurality of types of textures T2a to T2d, T3a to T3d, T4a to T4d, and T5a to T5d having the same pattern and different shades are texture data t2 for drawing a pattern of the characters “B, C, D, E”. , T3, t4, t5, and color information of the texture data t2 to t5, each of which is composed of a plurality of color palette data a to d having different hues. That is, when drawing a texture of an arbitrary color, the CPU 21 selects an arbitrary color palette data for drawing the texture from among a plurality of color palette data stored in the color palette RAM, and the color. The palette data is given to the rendering processing unit 27. Then, the rendering processing unit 27 draws a texture based on predetermined basic texture data and given color palette data, and draws a texture having an arbitrary color according to the distance from the viewpoint. As a result, it is possible to display the background H or the design Z of any shade. For the sake of convenience, the different shades of color in the figure are represented by diagonal lines, and the shades are dark when the density of the diagonal lines is high, and the shades are lighter as the density of the diagonal lines is lower.
[0060]
A plurality of types of color palette data a to d whose hues are different in stages are assigned according to, for example, the distance in the z-axis direction from the viewpoint SP. Specifically, as shown in FIG. 7A, a so-called view volume, which is an area for displaying the state in the world coordinate system on the display screen 6a, is separated from the distance Pa in the z-axis direction of the viewpoint SP by the distance Pe. If the interval is between, the interval is divided into four, which is the same as the number of color palette data a to d. Then, the color palette data a is set between the distance Pe and the distance Pd, the color palette data b is set between the distance Pd and the distance Pc, the color palette data c is set between the distance Pc and the distance Pb, and the distance Pb is set between the distance Pb and the distance Pa. Color palette data d is assigned between each of them.
[0061]
Further, as shown in FIG. 7B, the three-dimensional image processing unit 19 is set in the world coordinate system and the coordinate values in the world coordinate system where the symbol object OZ corresponding to the symbol Z is arranged. The coordinate value of the viewpoint SP is obtained, and a difference value ΔPx obtained by dividing the value of the Z-axis component of the coordinate value of the viewpoint SP from the value of the Z-axis component of the coordinate value of the symbol object OZ is obtained. If the difference value ΔPx is between the distances Pe and Pd from the viewpoint SP, the texture T1a is displayed on the symbol object OZ. If the difference value ΔPx is between the distances Pd and Pc from the viewpoint SP, the texture T1b is displayed on the pattern object OZ. If it is between the distances Pc and Pb, the texture T1c is pasted on the symbol object OZ, and if it is between the distances Pb and Pa from the viewpoint SP, the texture T1d is pasted on the symbol object OZ. Thereby, the hue of the symbol object OZ can be changed according to the distance from the viewpoint SP. For the sake of convenience, the above-described texture T1a to T1d has been described as being pasted to the object. However, the color palette data of the texture pasted on the object is actually changed to predetermined color palette data. In the above-described processing, the distance is obtained based on the value of the Z-axis component of the coordinate value of the viewpoint SP and the value of the Z-axis component of the coordinate value of the symbol object, but the present invention is not limited to this. Instead, for example, the substantial distance from the viewpoint SP to the symbol object may be obtained based on the values of all components of the coordinate value of the viewpoint SP and the values of all components of the coordinate value of the symbol object OZ. The above processing corresponds to the function of the texture selection means in the present invention.
[0062]
Further, in the case of a background object for displaying the background H, as shown in FIG. 8A, for example, a background object OH in which rectangular polygons R1 to R4 are arranged in a line is arranged in the world coordinate system. Place at P1. The texture T1a composed of the basic texture data t1 in which the character “A” is drawn on the polygon R1 of the background object OH and the color palette data d, and the basic texture data in which the character “B” is drawn on the polygon R2. A texture T2c composed of t2 and color palette data c is converted into a texture T3b composed of basic texture data t3 in which the character "C" is drawn on the polygon R3 and color palette data b, and "D The texture T4a composed of the basic texture data t4 and the color palette data a on which the characters "" are drawn is pasted. The background object OH to which the textures T1d to T4a are pasted is moved from the arrangement position P1 to the arrangement position P2, as shown in FIG. 8B. By sequentially displaying the movement of the background object OH on the display screen 6a, the display modes of FIGS. 5A to 5C are displayed.
[0063]
Further, as shown in FIG. 8C, when the background object OH is moved to the arrangement position P2, the background object OH is arranged again at the arrangement position P1. At this time, the texture T2d composed of the basic texture data t2 in which the character “B” is drawn on the polygon R1 of the background object OH and the color palette data d, and the basic in which the character “C” is drawn on the polygon R2. A texture T3c composed of the texture data t3 and the color palette data c, a texture T4b composed of the basic texture data t4 in which the character “D” is drawn on the polygon R3 and the color palette data b, The texture T5a composed of the basic texture data t5 on which the character “E” is drawn and the color palette data a is pasted. That is, the background texture pasted on the background object OH is updated. Then, the background object OH to which the textures T2d to T5a are pasted is moved again from the arrangement position P1 to the arrangement position P2. Thereby, the display modes as shown in FIGS. 5C to 5E are displayed. By repeating the above-described processes of FIGS. 8A to 8C and sequentially updating a plurality of types of background textures of continuous patterns pasted on the polygons R1 to R4 of the background object OH, the display screen 6a is displayed. A background H of a color that moves smoothly (scrolls) from the back side to the near side and gradually becomes brighter from the back side to the near side is displayed. Furthermore, it is possible to display a so-called infinite scroll that moves indefinitely without a break in the background pattern. Note that the distance between the arrangement position P1 and the arrangement position P2 described above is the width of each polygon, and corresponds to, for example, the distances Pe and Pd described in FIG. Since the texture is pasted in units of polygons, smooth display can be realized by sequentially updating the texture pasted on each polygon after moving by the width of the polygon. Therefore, by moving the minimum amount by the width of the polygon, it is possible to display the state of the background pattern moving smoothly and infinitely with a relatively light processing load.
[0064]
Hereinafter, the display mode displayed by the image display apparatus 7 according to the present embodiment will be described in detail with reference to FIG.
[0065]
On the display screen 6 a of the liquid crystal monitor 6 described above, for example, a display mode as shown in FIG. 9 is displayed based on the command sent from the control board 1. This display mode is one mode of round display that is displayed after a jackpot is generated in the pachinko machine. Hereinafter, this display mode will be described. In addition, this invention is not limited to the display mode at the time of a round, For example, it can also apply suitably about the display mode at the time of reach, the time of normal fluctuation, or a demonstration.
[0066]
As shown in FIGS. 9A to 9D, the display screen 6a which is a wide screen having an aspect ratio of 9:16 has a jackpot identification symbol Z1 including an identification symbol Z1a which is the eighth identification symbol at the time of jackpot. And a round display symbol Z2 indicating the second round is displayed on the foreground. The identification symbol Z1a is an identification symbol when the jackpot is determined during the game, and the identification symbol Z1a is displayed as if it is swinging in a stopped state. The round display symbol Z2 displays the number of rounds based on the jackpot, and is displayed so that the number is added each time the rounds are overlapped. Between the jackpot identification symbol Z1 and the round display symbol Z2, an auxiliary symbol Z3 for enhancing the production effect is displayed, and this auxiliary symbol Z3 is moved up and down with the limb stopped at almost the center of the display screen 6a. It is a pattern on which a pattern of a sea turtle swimming while moving. Further, below the auxiliary symbol Z3, a background H is displayed such that a continuous pattern of coral reefs on the seabed moves from the back side to the front side of the display screen 6a. In particular, the background H is displayed with a darker color on the back side of the display screen 6a and brighter on the near side. Accordingly, a display mode is displayed on the display screen 6a so that the sea turtle continues to swim in the sea near the seabed. Although not shown in FIG. 9, a rearmost image having a color that makes it difficult to see the boundary of the coral reef background H is displayed on the back side of the background H. In this embodiment, the case where the display screen 6a moves in the back direction will be described. However, the present invention is not limited to this, and the case where the display screen 6a moves in the front direction, the left-right direction, the up-down direction, and the like. It can also be applied to.
[0067]
Next, processing performed by the image display device 7 to realize the display mode shown in FIG. 9 will be described in detail with reference to the flowchart shown in FIG.
[0068]
Step T1 (Understanding commands)
The I / F 17 sequentially receives commands sent from the control board 1 and sequentially passes the commands to the three-dimensional image processing unit 19. The three-dimensional image processing unit 19 stores the command in a command buffer (not shown) provided in the work RAM 23. Further, every time there is an interrupt process from the liquid crystal monitor 6, the three-dimensional image processing unit 19 reads out the command stored in the command buffer and executes the program in the program ROM 22 corresponding to the command. By executing the program, the following steps are executed in the three-dimensional image processing unit 19. The interrupt process described above is performed in synchronization with, for example, a vertical scanning signal every 1/30 seconds or 1/60 seconds of the liquid crystal monitor 6.
[0069]
Step T2 (Set viewpoint in world coordinate system)
The three-dimensional image processing unit 19 sets a world coordinate system corresponding to a virtual three-dimensional space for arranging a plurality of objects. Next, the viewpoint for displaying the state in the world coordinate system on the display screen 6a of the liquid crystal monitor 6 is set in the world coordinate system. The viewpoint is a reference point of a coordinate system having a z-axis as a line of sight that faces a predetermined direction in the world coordinate system, for example, the direction of the space in which the object is set. Specifically, as shown in FIG. 11, the three-dimensional image processing unit 19 uses coordinate data in the world coordinate system for arranging the viewpoint derived by the program and rotation data for determining the direction of the line of sight. Based on this, a viewpoint SP in which the line of sight faces, for example, each symbol object described later is set. A state in the world coordinate system in the direction in which the line of sight from the viewpoint SP is directed is displayed on the display screen 6 a of the liquid crystal monitor 6. In this embodiment, the viewpoint SP fixed at a predetermined position in the world coordinate system will be described. However, the position of the viewpoint SP is based on coordinate values and rotation data whose values change every interrupt processing. It is also possible to set a viewpoint SP in which the line of sight is displaced.
[0070]
Step T3 (Place a design object)
The three-dimensional image processing unit 19 includes a symbol object OZ1 that is three-dimensional information for displaying the jackpot identification symbol Z1 on the display screen 6a, a symbol object OZ2 that is three-dimensional information for displaying the round display symbol Z2, The symbol object OZ3, which is three-dimensional information for displaying the auxiliary symbol Z3 of the pattern of the sea turtle swimming in the sea, is read from the character storage unit 18, respectively. Further, the three-dimensional image processing unit 19 sets the symbol objects OZ1 and OZ2 to the arrangement positions based on the viewpoint SP so that the symbols Z1 to Z3 are displayed at the respective positions on the display screen 6a illustrated in FIG. The symbol object OZ3 is arranged at an arrangement position with the origin of the world coordinate system as a reference. In addition, the 3D image processing unit 19 always displays the symbols Z1 to Z3 at predetermined positions on the display screen 6a by arranging the symbol objects OZ1 to OZ3 at the same arrangement position each time there is an interrupt process. be able to. In addition, it can also be made to display so that each symbol Z1-Z3 may move on the display screen 6a by updating the arrangement position of each symbol object OZ1-OZ3 sequentially. The reason why the symbol objects OZ1 and OZ2 are arranged based on the viewpoint SP is to display them at a certain position on the display screen 6a even when the viewpoint SP is displaced.
[0071]
Further, the three-dimensional information processing unit 19 changes the form of each symbol object OZ1, OZ3 for each interrupt process. Specifically, the symbol object OZ1 of the jackpot identification symbol Z1 includes a symbol object on which the identification symbol Z1a is displayed. The symbol object includes, for example, a head object that displays a fish head and a fish body portion. The body part object to be displayed and the tail part object to display the tail part of the fish are connected at a predetermined connection point. The three-dimensional image processing unit 19 swings and displaces each part object of the symbol object of the identification symbol to the left and right for each interruption process around the connection point. Thereby, on the display screen 6a, the operation | movement which fish swims in the state stopped at the predetermined position can be displayed. Further, the symbol object OZ3 of the auxiliary symbol Z3 includes a torso object on which a tortoise body is displayed, and four limb objects on which sea tortoise limbs connected to the torso object at predetermined connection points are respectively displayed. It is configured with. The three-dimensional image processing unit 19 swings and displaces each limb object up and down with respect to the torso object for each interruption process around these connection points. Thereby, on the display screen 6a, the operation | movement which swims in the sea in the state stopped at the predetermined position can be displayed. Each symbol object OZ1 to OZ3 has a predetermined shape, but in FIG. 9, for convenience, the shape of each symbol object is illustrated as a spherical shape. Step T3 is so-called symbol object placement means.
[0072]
Step T4 (place background object)
The three-dimensional image processing unit 19 reads a background object OH composed of a plurality of polygons for displaying a submarine coral reef pattern on the display screen 6a from the character storage unit 18, and reads the background object OH in the world coordinate system. It arrange | positions at the arrangement position P1 (refer FIG. 11). The background object OH is configured by, for example, nine rectangular polygons arranged in a plane. Further, as shown in FIG. 12, the three-dimensional image processing unit 19 sequentially moves the background object OH from the arrangement position P1 to the arrangement position P2 for each interruption process, and the background object OH reaches the arrangement position P2. Then, the process of arranging the background object OH again at the arrangement position P1 is repeatedly performed. Step T4 is so-called moving arrangement means.
[0073]
Step T5 (deformation correction of the viewpoint coordinate system)
The three-dimensional image processing unit 19 converts the world coordinate system into a viewpoint coordinate system with the viewpoint SP as a reference, that is, the origin. Thereby, the coordinate values of the symbol objects OZ1 to OZ3 and the background object OH arranged in the world coordinate system are converted into coordinate values in the viewpoint coordinate system. Here, since the aspect ratio of the display image generated in the frame buffer by the rendering processing unit 27 is 3: 4, when this display image is displayed on the display screen 6a having the aspect ratio of 9:16, the display image is extended. This causes the negative effect that the resulting image is displayed. Therefore, by deforming and correcting the viewpoint coordinate system according to the aspect ratio of the display image and the aspect ratio of the display screen, the symbols and the like arranged in the viewpoint coordinate system are deformed.
[0074]
Specifically, the three-dimensional image processing unit 19 calculates deformation correction data for deforming and correcting the viewpoint coordinate system. The deformation correction data is a magnification value for enlarging or reducing the vertical width or horizontal width of the background object OH and the symbol objects OZ1 to OZ3 (hereinafter referred to as “symbol object etc.” as appropriate). The deformation correction data can be calculated by the following equation (1), where the aspect ratio of the display screen 6a is A: B and the aspect ratio of the display image is a: b. The deformation correction data calculated by the following equation (1) is used to deform and correct the horizontal width of a symbol object or the like when the horizontal width of the display image is deformed according to the screen based on the vertical magnification of the display image. This is a magnification value, and is a magnification value for deforming and correcting the vertical width of a symbol object or the like when the vertical width is deformed in accordance with the screen on the basis of the horizontal magnification of the display image.
[0075]
(A × b) ÷ (a × B) (1)
When the aspect ratio of the display image generated in the frame buffer is 3: 4 and the aspect ratio of the display screen 6a is 9:16, the aspect ratio of the display image is 9:16 on the display screen 6a. Since it is displayed, it is displayed as if the horizontal width of the display image is enlarged by 4/3 times. At this time, the horizontal width of a symbol such as a symbol object included in the display image is also enlarged by 4/3 times. Here, by substituting each value of the aspect ratio of the display image and the display screen 6a into the expression (1), the horizontal width of the symbol object or the like is reduced to three-fourths (hereinafter referred to as “3/4 times”). Deformation correction data of the magnification value to be reduced is calculated. Further, the three-dimensional image processing unit 19 reduces the horizontal direction (x-axis direction) of the viewpoint coordinate system to 3/4 times based on the deformation correction data. As a result, the background object OH and the symbol objects OZ1 to OZ3 are reduced to 3/4 times in the x-axis direction of the viewpoint coordinate system.
[0076]
Step T6 (projection on the projection plane)
The three-dimensional image processing unit 19 sets a projection plane SC perpendicular to the z axis, which is the line-of-sight direction of the viewpoint coordinate system, between the viewpoint SP and the symbol object OZ1 and symbol object OZ2. Since the projection plane SC is perpendicular to the z-axis of the viewpoint coordinate system and the z value is fixed, it can be handled as a two-dimensional coordinate system on the projection plane SC. The projection plane SC has an area corresponding to a frame buffer provided in the image storage unit 20.
[0077]
Further, the three-dimensional image processing unit 19 projects the symbol object OZ1 and the symbol object OZ2 in parallel on the projection plane SC. Thereby, each vertex of each polygon constituting each of the symbol objects OZ1 and OZ2 is projected as it is in parallel to the projection plane SC, and the three-dimensional coordinate value of each vertex is two-dimensional on the projection plane SC. Converted to coordinate values. On the other hand, the three-dimensional image processing unit 19 perspectively projects the symbol object OZ3 and the background object OH on the projection plane SC. As a result, the vertices of each polygon constituting the symbol object OZ3 and the background object OH are projected so as to move in the viewpoint SP direction, and the three-dimensional coordinate value of each vertex is a two-dimensional coordinate value on the projection plane SC. Is converted to The three-dimensional image processing unit 19 acquires the projection information of each object in the world coordinate system when the projection of all the objects is completed. The reason why the symbol objects OZ1 and OZ2 are projected in parallel is that it is easy for the player to always recognize the jackpot identification symbol Z1 and the round display symbol Z2.
[0078]
Step T7 (Drawing the backmost image)
The three-dimensional image processing unit 19 reads the rearmost image stored in the character storage unit 18 and draws the rearmost image in a frame buffer in the image storage unit 20. The rearmost image is, for example, an underwater color and an image for making a boundary line of a coral reef pattern, which will be described later, inconspicuous.
[0079]
Step T8 (paste background texture)
The three-dimensional image processing unit 19 obtains the distance from the viewpoint SP to each polygon of the background object OH, and determines the texture color palette data to be pasted to each polygon according to the distance. Further, map data is read from the program ROM 22, and a specific area corresponding to the background object OH is set on the map data. Then, every time the background object OH is placed again from the placement position P2 to the placement position P1, the background texture indicated by the data with reference to the data in the specific area is changed to the background according to the color palette data. Paste to each polygon of object OH. Hereinafter, the process performed in step T8 will be described with reference to the flowchart shown in FIG.
[0080]
Step U81 (calculates the distance from the viewpoint to each polygon)
As shown in FIG. 15, the background object OH is composed of nine polygons R1 to R9. The three-dimensional image processing unit 19 uses the coordinates from the viewpoint SP to each of the polygons R1 to R9 based on, for example, the coordinate value of the center (indicated by x in the drawing) of each polygon R1 to R9 and the coordinate value of the viewpoint SP. Find the distance. More specifically, for example, the coordinate value ZSP of the Z-axis component of the viewpoint SP in the world coordinate system is divided (ZR-ZSP) from the coordinate value ZR of the center Z-axis component of each polygon R1 to R9 in the world coordinate system. The obtained difference value is obtained as the distance from the viewpoint SP to each of the polygons R1 to R9. Based on the coordinate values (XR, YR, ZR) of the centers of the polygons R1 to R9 in the world coordinate system and the coordinate values (XSP, YSP, ZSP) of the viewpoint SP in the world coordinate system, √ [(XR -XSP) 2+ (YR-YSP) 2+ (ZR-ZSP) 2] can be calculated as the distance from the viewpoint SP to each of the polygons R1 to R9.
[0081]
Step U82 (sets the color of each polygon of the background object)
The three-dimensional image processing unit 19 selects any of four types of color pallet data a to d shown in FIG. 14, for example, having different shades according to the distance from the viewpoint SP to the centers of the polygons R1 to R9. Color palette data is selected, and the color palette data is set as the color palette data of the background texture for pasting to each of the polygons R1 to R9. For example, the three-dimensional image processing unit 19 sets dark color palette data in the order of polygons far from the viewpoint SP. Specifically, the color palette data a is stored in the polygons R1 and R3 that are the most distant from each other, the color palette data b is stored in the polygons R2, R4, and R6 that are the next distant from each other, and the distance is further distant from the next. The color palette data c is set for the polygons R5, R7, and R9, and the color palette data d is set for the polygon R8 that is at the closest distance. As a result, the background H of the display screen 6a can be displayed such that the color on the near side is the brightest, and the color becomes gradually darker as the distance from the background H increases radially.
[0082]
Step U83 (determine basic texture data based on map data)
First, map data and background texture data as basic texture data will be described with reference to FIGS. On the display screen 6a, a pattern of a coral reef on the seabed moving from the back side to the front side is displayed. FIG. 16A shows the background texture data constituting one of the coral reef patterns. As shown in FIG. 16A, one coral reef pattern is composed of four pieces of background texture data Ta, Tb, Tc, and Td. Further, as shown in FIG. 16B, the map data corresponding to one coral reef pattern includes, for example, data “0” for instructing the pasting of the background texture data Ta to the polygon and the pasting of the background texture data Tb. For example, “1” data for instructing, “2” data for instructing pasting of the background texture data Tc, and “3” data for instructing pasting of the background texture data Td, for example. Next, FIG. 17A shows the entire background texture data TH of all the reef patterns of the rotation that are the entire background displayed on the display screen 6a. The entire background texture TH is composed of a plurality of background texture data Ta to Td, and is configured such that the upper and lower and left and right patterns are continuous. Further, as shown in FIG. 17B, the map data MD is data “0” to “3” for designating each of the background texture data Ta to Td in order to constitute the entire background texture data TH. Are arranged.
[0083]
Specifically, first, the three-dimensional image processing unit 19 projects the viewpoint SP arranged in the world coordinate system vertically onto the same plane where the background object OH is arranged, and the viewpoint SP 2 in the plane is projected. A dimensional virtual coordinate point P3 is obtained. Further, as shown in FIG. 18, the three-dimensional image processing unit 19 reads the map data MD from the program ROM 22, and sets a virtual coordinate point P3 on the map data MD. Then, an offset value L corresponding to the line of sight (z axis) direction of the viewpoint SP is calculated, and a virtual center coordinate point P4 is set at a position separated from the virtual coordinate point P3 by the offset value L. The offset value L is calculated based on line-of-sight rotation angle data. For example, when the rotation angle data is such that the line-of-sight direction faces a position far from the viewpoint SP in the world coordinate system, the offset value L increases, while the line-of-sight direction faces a position close to the viewpoint SP in the world coordinate system. If the rotation angle data is correct, the offset value L is calculated to be a small value. Further, when the line-of-sight direction rotates to the left and right, the virtual center coordinate point P4 is rotated around the virtual coordinate point P3 by the amount that the line-of-sight direction is rotated to the left and right.
[0084]
Next, the three-dimensional image processing unit 19 sets a specific area TR (hatched area in FIG. 18) including the same number of background textures as the polygons that form the background object OH with the virtual center coordinate point P4 as the center. Then, based on the data included in the specific region TR on the map data MD, the background texture data to be pasted on each polygon R1 to R9 of the background object OH is determined.
[0085]
Step U84 (paste of background texture)
The three-dimensional information processing unit 19 addresses the addresses in the frame buffer of the image storage unit 20 corresponding to the coordinate values of the vertices of the polygons R1 to R9 of the background object OH, that is, the polygons R1 to R9 of the background object in the frame buffer. Find the position of. Then, based on the background texture data read from the character storage unit 18 and the color palette data set in each of the polygons R1 to R9, a background texture having a predetermined color is pasted or drawn on each polygon. As a result, a display image in which the background H of the seabed coral reef pattern is superimposed on the backmost image is generated in the frame buffer.
[0086]
Further, as shown in FIG. 18, each time the background object OH is arranged again from the arrangement position P2 to the arrangement position P1, the three-dimensional image processing unit 19 uses the virtual coordinate point P3 on the map data MD as a data unit, for example, Move by a single piece of data. Then, a plurality of background textures indicated by data included in the specific area TR centered on the virtual center coordinate point P4 that is separated from the virtual coordinate point P3 by the offset value L are again placed at the placement position P1. Paste to each polygon of the object. As shown in FIG. 18C, when the specific region TR protrudes from the map data MD, the protruding portion of the specific region TR is set so as to go around from the opposite side.
[0087]
Step T9 (Attaching design texture)
The three-dimensional image processing unit 19 has an address in the frame buffer of the image storage unit 20 corresponding to the coordinate value of each vertex of each polygon of each of the symbol objects OZ1 to OZ3 included in the projection information, that is, each symbol object in the frame buffer. The position of each polygon of OZ1 to OZ3 is obtained. Then, the design texture read from the character storage unit 18 is drawn on each polygon. Thus, a display image in which the jackpot identification symbol Z1, the round display symbol Z2, and the auxiliary symbol Z3 are superimposed on the backmost image and the background H of the coral reef pattern on the seabed is generated in the frame buffer. Note that the same processing as in step T8 may be performed according to the distance from the viewpoint SP to the symbol objects OZ1 to OZ3. Step T9 corresponds to the function of the display image generating means in the present invention.
[0088]
Step T10 (display)
The three-dimensional image processing unit 19 outputs the display image generated in the frame buffer to the liquid crystal monitor 6 via the video output unit 30. The liquid crystal monitor 6 sequentially displays the display image with the aspect ratio of 3: 4 sent from the three-dimensional image processing unit 19 for each interrupt process in accordance with the display screen 6a with the aspect ratio of 9:16. As a result, the display modes shown in FIGS. 9A to 9D are displayed.
[0089]
According to the above-described embodiment, the background H and the predetermined pattern are displayed in a brighter color as the viewpoint SP is approached, so that the presence in the depth direction of the display screen 6a can be expressed. In addition, the background pattern displayed with a relatively small number of polygons can be smoothly moved, and the state of the background scrolling infinitely can be displayed, thereby realizing a more realistic display mode with less processing burden. be able to.
[0090]
In the above-described steps, the case where the display screen 6a is advanced in the back direction has been described. However, the present invention is not limited to this, and the display screen 6a is arranged in various directions such as a horizontal direction, a vertical direction, and an oblique direction. It can be applied to moving backgrounds. For example, an example in which the background moves in the horizontal direction will be described with reference to an actual display image of the gaming machine shown in FIG. As shown in FIG. 19, a jackpot identification symbol Z1, a round display symbol Z2, an auxiliary symbol Z3, and a background H are displayed on the display screen 6a. As shown in FIGS. 19A to 19C, the auxiliary symbol Z3 is a state where the sea turtle is viewed from the side, and the limb is swung up and down to swim. At this time, the background H, which is a pattern of a coral reef on the seabed, gradually moves from the left side to the right side of the display screen 6a. The three-dimensional image treatment unit 19 in this display mode arranges a sea turtle symbol object in front of the viewpoint arranged in the world coordinate system, and changes the form at the arrangement position. Then, by repeatedly moving the background object so as to cross the line of sight of the viewpoint in a predetermined direction and appropriately updating the background texture data and color palette data of the background texture pasted on the background object, the display image in the display mode described above Is generated. As a result, a display mode with a sense of presence in which a sea turtle swims in the sea is displayed.
[0091]
In the above-described embodiment, a single background object OH composed of a plurality of quadrilateral polygons has been described. However, the present invention is not limited to this. For example, a plurality of background objects OH are arranged. The same applies to the case. Furthermore, the background object OH can be composed of a single polygon or a polygon such as a triangle.
[0092]
In the above-described embodiment, a background texture with a lighter hue is pasted to each polygon of the background object closer to the viewpoint SP. However, the present invention is not limited to this, and is located far from the viewpoint SP, for example. It is also possible to attach a texture of lighter shades or objects, polygon jaws. Thereby, it is possible to express that the light source is at a position far from the viewpoint SP, and it is possible to realize a realistic display mode in which the light source moves toward, for example, a cave or a tunnel exit. As for the change in hue, in addition to the change depending on light and dark, it is also possible to change it according to shading, and it is also possible to change it by gradually clarifying the hue or reversely blurring it. is there. By these, perspective can be emphasized. Furthermore, in order to further enhance the sense of perspective, for example, the earlier or later the interval of the hue change is advanced or delayed, or the extent of the hue change is increased or brought closer to the front. It can also be advanced or delayed as early as possible.
[0093]
In the above-described embodiment, a plurality of types of textures of the same pattern configured by a plurality of color palette data and a single basic texture data are used. However, the present invention is not limited to this. For example, it is possible to use a plurality of types of textures composed of a plurality of basic texture data and a plurality of color palette data corresponding to each basic texture data.
[0094]
In addition, it is not limited to the description content of embodiment mentioned above, For example, you may implement as follows.
[0095]
(A) In the above embodiment, an example of the most basic pachinko machine in which a big hit state, that is, a special gaming state occurs when the combination of identification symbols matches, has been shown. In addition to this, a predetermined condition (for example, a condition until the next big hit or a condition that a predetermined number of changes have been made) is satisfied after the special gaming state based on the type of identification symbol or another condition. Until then, the mode may be switched to a special mode (a probability variation mode in which the jackpot probability is increased or a time reduction mode in which the winning probability to the start port 7c is increased).
[0096]
(B) In the case of a pachinko machine in which the special mode is set after the special game state as in (a) above, a re-variation process for changing again the identification symbol that has been stopped again after the identification symbol is stopped and displayed. May be performed. In this way, it is possible to produce a game that once stops with an identification symbol that does not enter the special mode, and then stops with an identification symbol that finally enters the special mode due to re-variation.
[0097]
(C) As the liquid crystal monitor 4 as a display means, besides a liquid crystal display, a CRT, a dot matrix, an LED, an electroluminescence (EL), a fluorescent display lamp or the like may be used. However, a more precise display effect can be performed as the number of pixels increases.
[0098]
(D) You may implement as a pachinko machine etc. of a different type from the said embodiment. For example, once a big hit, a pachinko machine that raises the expected value of the big hit until a big hit state occurs (for example, two times or three times) including that (for example, a two-time right item, a three-time right item) May also be implemented. Further, it may be implemented as a pachinko machine that is in a special gaming state under the condition that a game ball is awarded in a predetermined area after an identification symbol that is a big hit is displayed. In addition to pachinko machines, the present invention can also be implemented as various gaming machines such as alepatchi, sparrow balls, and slot machines. In the slot machine, for example, the identification symbol is changed by operating the operation lever in a state where the symbol effective line is determined by inserting coins, and the identification symbol is stopped and confirmed by operating the stop button. It is well known. Therefore, the basic concept of the slot machine is that “a display means for stopping and displaying an identification symbol sequence consisting of a plurality of identification symbols is displayed, and the identification symbol is attributed to the operation of the starting operating means (for example, an operating lever). The change of the identification symbol is stopped due to the operation of the stop operation means (for example, stop button) or after a predetermined time has elapsed, and the confirmed symbol at the time of stop must be a specific symbol The slot machine is provided with special game state generating means for generating a special game state advantageous to the player as a condition.
[0099]
(E) It is also possible to “set a plurality of symbol variation modes until the identification symbol is determined after the variation starts”. In this case, for example, the change of the identification symbol on the display means is simply switched and displayed, or the rotation variation is displayed around the axis, or the identification symbol is switched and displayed while zooming up. Multiple types from among various symbol variation modes, such as switching the display of the identification symbol while being crushed or extended, or performing re-variation processing for the identification symbol that appears to have been temporarily stopped. May be selected as appropriate. In addition, if it is configured so that “the expected value to which the special gaming state is given depends on the variation mode (including blinking etc.) from when the identification symbol is started to being confirmed, the symbol variation mode is also included. More interest is put into the game and the thickness is increased.
[0100]
(F) “When the number of holds for the identification symbol variation in the display means is at or near the maximum number of reserved times, the time from the start of symbol variation to the confirmation in the display means (or / and the next symbol variation from the symbol confirmation If the “time to start” is shortened ”, for example, the possibility of invalidating the state satisfying the symbol variation start condition such as a game ball winning in the start port 2c is reduced.
[0101]
(G) The display color of each display system should be appropriately switched and controlled according to the difference between modes (for example, the normal mode and the probability variation mode) and the difference in expected value of jackpot. For example, when the expected value for the big hit is increased, control is performed such that the identification symbol is switched from green to red. Such color switching brings about effects such as clarifying to the player that the gaming state is different from the normal state and clearly indicating to the player that the expected value of the big hit has increased. The technical ideas derived from this are: “Switch the symbol display color according to the gaming state.”, “Switch the symbol display color according to the mode.” "The display should be switched according to the difference."
[0102]
(H) As a selection between the normal mode and the special mode such as the probability change mode, any of the types that are informed by the type of identification symbol (odd number, even number, etc.) on the liquid crystal monitor 6 (screen 6a) as the display means Mode notification means may be provided for confirming whether or not the mode is selected after the symbol called the fourth symbol is changed. Further, the display mode of the lamp may be changed to display the mode, or the mode may be notified by sound such as voice or musical sound.
[0103]
【The invention's effect】
As described above, according to the present invention, display control is performed so that the hue varies depending on the position of the object arranged in the virtual three-dimensional space. Therefore, it is possible to perpetuate the fun of the player.
[Brief description of the drawings]
FIG. 1 is an external view showing a schematic configuration of a pachinko machine according to an embodiment.
FIG. 2 is a functional block diagram of the pachinko machine according to the embodiment.
FIG. 3 is a functional block diagram of a three-dimensional image processing unit.
FIG. 4 is a flowchart showing processing on a control board of a pachinko machine.
FIG. 5 is a diagram showing one display mode on the display screen 6a.
FIG. 6 is a diagram illustrating a relationship between texture data and color palette data.
FIG. 7 is a diagram illustrating color palette data corresponding to a distance from a viewpoint.
FIG. 8 is a diagram illustrating a relationship between a polygon and a texture.
FIG. 9 is a diagram illustrating a display mode in the pachinko machine according to the embodiment.
FIG. 10 is a flowchart showing processing in the image display apparatus.
FIG. 11 is a diagram illustrating a relationship between a viewpoint in the world coordinate system and each object.
FIG. 12 is a diagram illustrating movement of a background object.
FIG. 13 is a flowchart showing processing in step T8.
FIG. 14 is a diagram showing color palette data.
FIG. 15 is a diagram illustrating a relationship between color palette data and each polygon.
FIG. 16 is a diagram illustrating a correspondence relationship between background texture data and map data.
FIG. 17 is a diagram illustrating a correspondence relationship between all background texture data and all map data.
FIG. 18 is a diagram illustrating a relationship between map data and a specific area.
FIG. 19 is a diagram showing an actual display mode in a pachinko machine.
[Explanation of symbols]
1 ... Control infrastructure
6 ... LCD monitor
6a ... Display screen
7: Image display device
18 ... Character storage
19 ... 3D image processing unit
20 ... Image storage unit
ad: Color palette data
OH ... Background object
OZ ... design object
SP… Viewpoint
MD ... map data
TH… Background texture data

Claims (1)

仮想3次元空間内に背景を表示する3次元情報である背景オブジェクト、当該背景オブジェクトに貼り付ける連続した背景の模様を構成する画像情報である複数種類の背景テクスチャ、前記仮想3次元空間内において前記背景オブジェクトとは別の位置に配置される3次元情報である図柄オブジェクト、及び当該図柄オブジェクトに貼り付ける図柄テクスチャを記憶したオブジェクト情報記憶手段と、前記オブジェクト情報記憶手段から読み出した背景オブジェクトを前記仮想3次元空間内の第1位置に配置し、前記背景オブジェクトを前記第1位置から第2位置へ繰り返し移動させる移動配置手段と、前記背景オブジェクトが前記第1位置から前記第2位置へ移動する度に前記背景オブジェクトに貼り付ける背景テクスチャを順次更新するテクスチャ更新手段と、前記背景テクスチャが貼り付けられた背景オブジェクト及び前記図柄テクスチャが貼り付けられた図柄オブジェクトが移動する前記仮想3次元空間内の様子を示す表示画像を生成する表示画像生成手段とによって生成された少なくとも1画面分の表示画像を記憶する画像記憶手段と、
当該画像記憶手段に記憶された表示画像を表示装置に出力表示する画像表示手段と、を備え、
前記オブジェクト情報記憶手段に記憶される背景テクスチャ及び図柄テクスチャは、模様を描くための基本テクスチャデータと、色合いが段階的に異なる複数種類のカラーテクスチャデータと、を組み合わせたものであり、
前記背景オブジェクトは、前記移動配置手段によって前記第1位置と前記第2位置との間を繰り返し移動させられる移動距離と同一幅のポリゴン又は同一幅のオブジェクトを複数有し、各ポリゴン又は各オブジェクトが列状に配置されており、
前記テクスチャ更新手段は、前記背景オブジェクトが前記第1位置から前記第2位置へ移動させる度に、当該背景オブジェクトを構成する各ポリゴン又は各オブジェクトに貼り付ける基本テクスチャデータとカラーテクスチャデータとの組み合わせを、前記列状に配置されたポリゴン又はオブジェクトの一方側が明るく他方側が暗い組み合わせとなるように順次更新することで、前記背景オブジェクトの一方側から他方側に向けて段階的に明るくなる色合いの背景を有する表示画像が表示されるようにするものであり、
前記色合いが変化する切換間隔又は前記色合いの変化の程度は、前記列状に配置されたポリゴン又はオブジェクトの配置位置又は遠近位置に応じて異なっていることを特徴とする遊技機。
A background object that is three-dimensional information for displaying a background in a virtual three-dimensional space, a plurality of types of background textures that are image information constituting a continuous background pattern to be pasted on the background object, Object information storage means for storing a design object that is three-dimensional information arranged at a position different from the background object, and a design texture to be attached to the design object, and a background object read from the object information storage means as the virtual object A moving arrangement unit arranged at a first position in a three-dimensional space and repeatedly moving the background object from the first position to the second position; and each time the background object moves from the first position to the second position. Sequentially update the background texture to be pasted to the background object A texture updating unit, and a display image generating unit configured to generate a display image indicating a state in the virtual three-dimensional space in which the background object to which the background texture is pasted and the symbol object to which the pattern texture is pasted are moved. Image storage means for storing the generated display image for at least one screen;
Image display means for outputting and displaying the display image stored in the image storage means on a display device,
The background texture and the design texture stored in the object information storage means are a combination of basic texture data for drawing a pattern and a plurality of types of color texture data having different shades.
The background object has a plurality of polygons or objects having the same width as the moving distance that is repeatedly moved between the first position and the second position by the moving arrangement means, and each polygon or each object Arranged in rows,
Each time the background object is moved from the first position to the second position, the texture update unit is configured to combine each polygon constituting the background object or a combination of basic texture data and color texture data to be attached to each object. The background of the color that gradually becomes brighter from one side of the background object to the other side by sequentially updating the polygons or objects arranged in a row so that one side is bright and the other side is a dark combination. The display image that you have is to be displayed,
The gaming machine characterized in that the switching interval at which the hue changes or the degree of change in the hue varies depending on the arrangement position or the perspective position of the polygons or objects arranged in the row .
JP29596399A 1999-10-18 1999-10-18 Game machine Expired - Fee Related JP4507311B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29596399A JP4507311B2 (en) 1999-10-18 1999-10-18 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29596399A JP4507311B2 (en) 1999-10-18 1999-10-18 Game machine

Publications (3)

Publication Number Publication Date
JP2001112982A JP2001112982A (en) 2001-04-24
JP2001112982A5 JP2001112982A5 (en) 2006-11-30
JP4507311B2 true JP4507311B2 (en) 2010-07-21

Family

ID=17827363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29596399A Expired - Fee Related JP4507311B2 (en) 1999-10-18 1999-10-18 Game machine

Country Status (1)

Country Link
JP (1) JP4507311B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4763947B2 (en) * 2001-09-30 2011-08-31 株式会社三共 Game machine
JP2003126453A (en) * 2001-10-25 2003-05-07 Heiwa Corp Pachinko game machine
JP4064791B2 (en) * 2002-11-18 2008-03-19 株式会社三共 Game machine
JP4064792B2 (en) * 2002-11-18 2008-03-19 株式会社三共 Game machine
JP2005131118A (en) * 2003-10-30 2005-05-26 Snk Playmore Corp Slot machine, control method for slot machine and control program of slot machine
JP5753153B2 (en) * 2012-12-19 2015-07-22 株式会社三共 Game machine

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161528A (en) * 1994-12-01 1996-06-21 Namco Ltd Device and method for image composition
JPH11156014A (en) * 1997-11-27 1999-06-15 Sankyo Kk Game machine

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161528A (en) * 1994-12-01 1996-06-21 Namco Ltd Device and method for image composition
JPH11156014A (en) * 1997-11-27 1999-06-15 Sankyo Kk Game machine

Also Published As

Publication number Publication date
JP2001112982A (en) 2001-04-24

Similar Documents

Publication Publication Date Title
JP4507311B2 (en) Game machine
JP4507293B2 (en) Game machine
JP4665293B2 (en) Game machine
JP2001017673A (en) Game machine
JP4590662B2 (en) Game machine
JP4617523B2 (en) Game machine
JP4089102B2 (en) Game machine
JP4682398B2 (en) Game machine
JP3991516B2 (en) Game machine
JP3991517B2 (en) Game machine
JP4888536B2 (en) Game machine
JP4122983B2 (en) Game machine
JP4122982B2 (en) Game machine
JP5300166B2 (en) Game machine
JP3997653B2 (en) Image display device
JP4487347B2 (en) Game machine
JP4399901B2 (en) Game machine
JP3733948B2 (en) Image display device
JP3770234B2 (en) Game machine
JP3733949B2 (en) Game machine
JP4032574B2 (en) Game machine
JP4089434B2 (en) Game machine
JP4487348B2 (en) Game machine
JP5003791B2 (en) Game machine
JP4032977B2 (en) Game machine

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100426

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4507311

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160514

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees