JP4032977B2 - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP4032977B2
JP4032977B2 JP2003009730A JP2003009730A JP4032977B2 JP 4032977 B2 JP4032977 B2 JP 4032977B2 JP 2003009730 A JP2003009730 A JP 2003009730A JP 2003009730 A JP2003009730 A JP 2003009730A JP 4032977 B2 JP4032977 B2 JP 4032977B2
Authority
JP
Japan
Prior art keywords
display
image
projection
projection plane
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003009730A
Other languages
Japanese (ja)
Other versions
JP2003236179A (en
Inventor
和博 藤沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2003009730A priority Critical patent/JP4032977B2/en
Publication of JP2003236179A publication Critical patent/JP2003236179A/en
Application granted granted Critical
Publication of JP4032977B2 publication Critical patent/JP4032977B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Pinball Game Machines (AREA)
  • Display Devices Of Pinball Game Machines (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、パチンコ機、スロットマシンあるいはコイン遊技機などの遊技機に係り、特に、3次元の画像を表示する技術に関する。
【0002】
【従来の技術】
この種の遊技機として一般的に知られているものに、例えばパチンコ機がある。このパチンコ機には、多数個のパチンコ球を取得することができる遊技者にとって有利な大当たり状態と、パチンコ球を消費する遊技者にとって不利な通常状態との2つの遊技状態がある。いずれの状態においても遊技者の面白味を永続させるために、臨場感のある表示態様を遊技状態に応じて表示している。特に、通常状態における表示態様には、遊技者が遊技状態を識別するための2次元の画像である識別図柄を単に移動させる通常変動と、大当たり状態の発生を遊技者に予感させるように識別図柄を移動させるリーチとがある。これら各表示態様では、例えば遠近法などを用いて描かれた2次元の画像である識別図柄を表示画面上で拡大または縮小、移動させたりすることにより、遊技者が臨場感を感じることができるようにしている。
【0003】
【発明が解決しようとする課題】
しかしながら、上述した従来のパチンコ機においては、次のような問題がある。
従来のパチンコ機では、2次元の画像である識別図柄を例えば徐々に拡大または縮小することで、表示画面の奥行き方向へ識別図柄が移動するような表示態様を実現しているので、全体として臨場感が乏しく遊技者が臨場感を感じることができないという問題が生じている。そこで、近年、複数のポリゴンで形成されるオブジェクトによって3次元の画像で識別図柄を表示することが試みられている。具体的には、3次元の座標空間である仮想3次元空間内にオブジェクトを配置して、その仮想3次元空間内でオブジェクトを移動させる。そして、仮想3次元空間内の所与の視点に基づいて設定された投影平面にオブジェクトが移動する様子を投影している。さらに、投影平面に投影されたオブジェクトに識別図柄の模様が描かれた画像であるテクスチャを貼付けることで、オブジェクトの3次元の画像である例えば識別図柄を含む表示画像を生成する。このようにして次々生成される表示画像を表示画面に順次表示することで、3次元の画像である例えば識別図柄が表示画面内を移動する様子を表示している。
【0004】
しかし、上述したように、仮想3次元空間内でオブジェクトを単に移動させるだけでは、そのオブジェクトの3次元の画像が表示画面内で単に移動するという単調な表示態様になり、遊技者の面白味を永続させることができないという問題がある。
【0005】
本発明は、このような事情に鑑みてなされたものであって、仮想3次元空間内のオブジェクトとそのオブジェクトが投影される投影平面とを連動させることにより、臨場感のある表示態様を実現して遊技者の面白味を永続させることができる遊技機を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明は、このような目的を達成するために、次のような構成をとる。
本発明の構成は、仮想3次元空間内に配置されたオブジェクトを配置し、そのオブジェクトを前記仮想3次元空間内の所与の視点からの視線に基づいて設定された投影平面に投影し、該投影平面に投影された画像に基づいて生成された少なくとも1画面分の表示画像を記憶する画像記憶手段と、該画像記憶手段に記憶された表示画像を表示装置に出力表示する画像表示手段とを備えた遊技機において、前記画像表示手段は、前記投影平面に対して平行投影され該投影平面から奥行き方向に第1の距離離間した第1位置に配置される前記オブジェクトに所定動作を行わせるオブジェクト動作手段と、前記第1位置に配置される前記オブジェクトの投影方法を、前記平行投影から透視投影に切り替える第1投影方法切替手段と、前記第1位置に配置される前記透視投影オブジェクトを、前記投影平面方向に移動させ、前記第1位置より前記投影平面に近接した第2位置で停止させる第1オブジェクト移動手段と、前記透視投影オブジェクトを前記第2位置から奥行き方向に所定距離離間した所定位置まで移動させる第2オブジェクト移動手段と、前記第1オブジェクト移動手段に基づいて前記オブジェクトが第2位置まで移動されたタイミングで前記投影平面を所定方向に揺動変位させると共に、前記第2オブジェクト移動手段に基づいて前記オブジェクトが前記第2位置から前記所定位置まで移動する間前記揺動変位を維持し、前記オブジェクトが前記所定位置まで移動した場合に前記揺動変位を終了する投影平面揺動手段と、前記所定位置に配置される前記オブジェクトの投影方法を、前記透視投影から前記平行投影に切り替える第2投影方法切替手段とによって生成された揺動表示画像を前記表示装置に表示することを特徴とするものである。なお、本発明の構成を構成1とすると、さらに本発明を以下のように構成することもできる。
また、請求項2に記載の発明は、請求項1に記載の遊技機において、前記画像記憶手段は、前記1画面分の表示画像を記憶する記憶領域を複数備え、前記画像表示手段は、前記複数の記憶領域のうちの1つを選択し、該選択された記憶領域に記憶された表示画像を前記表示装置に出力するものであることを特徴とする遊技機。
【0007】
構成2は、構成1に記載の遊技機において、前記投影平面揺動手段は、前記視点を中心に前記視線を揺動させて、その視線に基づいて設定される投影平面を揺動変位させる遊技機である。この構成によれば、投影平面揺動手段は、視点を中心に視線を揺動させる。その視線に基づいて設定された投影平面は、視線の揺動とともに揺動変位される。つまり、投影平面は視点を中心に揺動変位される。その結果、投影平面を含む平面で前記投影平面を単に揺動変位させる場合に比べて、臨場感のある表示態様を実現することができ、遊技者の面白味を永続させることができる。
【0008】
構成3は、構成1または構成2に記載の遊技機において、前記オブジェクト移動手段は、さらに、前記投影平面の直前にまで移動させたオブジェクトを所定位置にまで後退させる遊技機である。この構成によれば、オブジェクト移動手段は、まず、投影平面の直前にまでオブジェクトを移動させる。ここで、投影平面揺動手段は、投影平面を揺動変位させる。そして、オブジェクト移動手段は、揺動変位する投影平面の直前にまで移動されたオブジェクトを所定位置にまで後退させる。その結果、表示手段には、表示画面に追突したオブジェクトが跳ね返ったように表示され、より臨場感のある表示態様を実現して、遊技者の面白味をより永続させることができる。
【0009】
構成4は、構成3に記載の遊技機において、前記投影平面揺動手段は、前記オブジェクト移動手段によって前記投影平面の直前にまで移動された前記オブジェクトが所定位置にまで後退される間、前記投影平面を揺動変位させ続ける遊技機である。この構成によれば、投影平面揺動手段は、オブジェクト移動手段によってオブジェクトが後退されている間、投影平面を揺動変位させ続ける。その結果、表示手段には、表示画面が揺れている間にその表示画面に追突したオブジェクトが跳ね返るように表示されるので、より臨場感のある表示態様を実現して、遊技者の面白味をより永続させることができる。
【0010】
構成5は、構成4に記載の遊技機において、前記投影手段は、前記所定位置に後退されるまでのオブジェクトを前記投影平面に透視投影する一方、前記所定の位置にまで後退したオブジェクトを前記投影平面に平行投影する遊技機である。この構成によれば、投影手段は、所定位置に後退されるまでのオブジェクトを投影平面に透視投影する。これにより、表示画面には、視点から見た状態のオブジェクトの画像が表示される。一方、投影手段は、所定位置にまで後退されたオブジェクトを投影平面に平行投影する。これにより、表示画面には、投影平面から見た状態のオブジェクトの画像が表示される。その結果、オブジェクトが投影平面に対して移動している場合には立体感がある状態で、そのオブジェクトが後退して停止した場合には遊技者が識別し易い状態で表示されるので、遊技者の面白味を永続させることができる。
【0011】
構成6は、上記構成1ないし構成5のいずれかに記載の遊技機はパチンコ機である。このパチンコ機の基本構成としては、操作ハンドルを備えておりそのハンドル操作に応じて遊技球を所定の遊技領域に発射させ、遊技球が遊技領域内の所定の位置に配置された作動口に入賞することを必要条件として表示手段における識別図柄および補助図柄の変動が開始することが挙げられる。また、特定の遊技状態発生中には遊技領域内の所定の位置に配置された入賞口が所定の態様で開放されて遊技球を入賞可能として、その入賞個数に応じた有価価値(景品球のみならず、磁気カードへの書き込む等も含む)が付与されることが挙げられる。その結果、パチンコ機を遊技する遊技者の面白味を永続させることができる。
【0012】
構成7は、構成6に記載のパチンコ機において、前記オブジェクトは、パチンコ機の遊技状態を識別するための識別図柄を表示するためのオブジェクトであるパチンコ機である。この構成によれば、表示手段には、パチンコ機の遊技状態を識別するための識別図柄がオブジェクトによって表示される。その結果、上述したオブジェクトの移動に応じた識別図柄の変動が表示され、パチンコを遊技する遊技者の面白味を永続させることができる。なお、パチンコ機の遊技状態には、遊技者がパチンコ球を消費する通常状態と、遊技者が多数個のパチンコ球を取得することができる大当たり状態とがある。さらに、通常状態では、遊技者が遊技状態を識別するための識別図柄が単に変動する表示態様である通常変動と、大当たり状態が発生するかのように識別図柄が変動する表示態様であるリーチとがある。また、リーチは、複数個の識別図柄の中のリーチに関係する所定個数の識別図柄が、縦、横または斜めに同一種類で揃うかのように変動する表示態様である。その結果、リーチ時に複数個の識別図柄が表示画面に向かって移動してきて、その表示画面に追突するという面白味のある表示態様を実現できるので、パチンコ機を遊技する遊技者の面白味を永続させることができる。
【0013】
【作用】
本発明の作用は次のとおりである。
第2オブジェクト移動手段は、仮想3次元空間内で投影平面から奥行き方向に第1の距離離間した第1位置に配置されたオブジェクトを、投影平面の直前(つまり、投影平面に近接した第2位置)にまでその投影平面に向かって移動させる。投影平面揺動手段は、投影平面の直前(投影平面に近接した第2位置)にまでオブジェクトが移動されてくると、そのオブジェクトの直前の投影平面を所定方向へ揺動変位させると共に、第2オブジェクト移動手段に基づいて透視投影オブジェクトが第2位置から奥行き方向の所定位置まで移動する間その揺動変位を維持し、オブジェクトが前記所定位置まで移動した場合にこの揺動変位を終了する。投影手段は、揺動変位される投影平面にオブジェクトを透視投影する。つまり、視点から見た状態のオブジェクトが揺動変位されている投影平面に投影される。表示画像生成手段は、その投影平面に投影されたオブジェクトの画像を含む表示画像を生成する。表示手段は、表示画像を順次表示することで、表示画面に向かって移動してきたオブジェクトがその表示画面に追突し、その追突した反動によって表示画面が揺れ動いたような表示態様を表示する。
【0014】
【発明の実施の形態】
以下、図面を参照して本発明の一実施例を説明する。
画像表示装置を備える遊技機としてパチンコ機を例に採って説明する。図1は本実施例に係るパチンコ機の概略構成を示す正面図であり、図2はパチンコ機に備える制御基盤および画像表示装置の概略構成を示す機能ブロック図であり、図3は画像表示装置における3次元画像処理部の概略構成を示す機能ブロック図である。
【0015】
本実施例に係るパチンコ機は、パチンコ機の全体を制御する制御基盤1(図2参照)を備える遊技盤2と、遊技盤2が取り付けられた枠体3と、遊技盤2の下側に設けられた上受け皿4と、上受け皿4に貯留したパチンコ球を遊技盤2の盤面に発射する図示しない発射装置が連結された回転式ハンドル5と、上受け皿4の下側に設けられた下受け皿8と、遊技者が遊技状態を識別する識別図柄、およびその遊技状態における演出効果を高めるために表示される識別図柄以外の図柄を表示する液晶モニタ6の表示画面6aが遊技盤2の盤面のほぼ中央に配置されるように搭載された画像表示装置7(図2参照)とを備えている。表示画面6aには、所定の模様が描かれた背景上で1または複数個の識別図柄や補助図柄の変動(移動,回転,変形等)が、遊技機における遊技状態に応じて表示される。なお、パチンコ機には、遊技者が多数個のパチンコ球を取得することができる大当たり状態と、遊技者がパチンコ球を消費する通常状態との2種類の遊技状態がある。通常状態には、複数個の識別図柄が単に変動する表示態様である通常変動と、大当たり状態の発生の有無に関係なく、大当たり状態が発生するかのような表示態様であるリーチとが表示される。一方、大当たり状態には、主に補助図柄が表示され、そのラウンド毎に異なる表示態様が表示される。また、パチンコ機における遊技が行われていない場合には、デモンストレーションなどの表示が行われる。ここで、識別図柄とは、パチンコ機における大当たりやリーチ等の遊技状態を遊技者に認識させるためのいわゆる図柄番号または図柄番号が付けられた図柄の画像をいい、補助図柄とは大当たりやリーチ等においてその演出効果を高めるために表示される識別図柄以外の図柄をいう。
【0016】
遊技盤2には、回転式ハンドル5によって発射されたパチンコ球を盤面に案内するレール2aと、パチンコ球を不特定箇所に誘導する複数本の図示しないクギと、クギによって誘導されてきたパチンコ球が入賞する複数個の入賞口2bと、遊技盤2のほぼ中央付近に誘導されてきたパチンコ球が入賞する始動口2cと、特定の遊技状態において比較的多数のパチンコ球を一時に入賞させることができる大入賞口2dとが設けられている。各入賞口2b、始動口2cおよび大入賞口2d内には、パチンコ球の入球を検出する入賞検出センサ11(図2参照)がそれぞれ設けられている。入賞検出センサ11がパチンコ球の入球を検出すると、遊技盤2に備える制御基盤1によって所定個数のパチンコ球が上受け皿4に供給される。また、始動口2c内には、始動開始センサ12(図2参照)が設けられている。さらに、大入賞口2dには、開閉式ソレノイド13(図2参照)が設けられており、この開閉式ソレノイド13の動作によって、大入賞口2dが 閉自在に構成されている。なお、上述したものの他に始動口2cに入球したパチンコ球の個数を記憶する例えば保留ランプ等を備えるが、この実施例ではその説明を省略する。
【0017】
上受け皿4は、受け皿形状になっており、パチンコ球が供給される球供給口4aから供給されたパチンコ球を貯留する。また、球供給口4aが配置された上受け皿4の反対側には、パチンコ球をレール2aに向けて発射する発射装置に連通する図示しない球送り口が設けられている。さらに、上受け皿4の上部には、貯留したパチンコ球を下受け皿8に移すための球抜きボタン4bが設けられており、この球抜きボタン4bを押すことで、上受け皿4に貯留したパチンコ球を下受け皿8に移すことができる。下受け皿8は、受け皿形状になっており、上受け皿4から移されてきたパチンコ球を受け止める。なお、下受け皿8には、その中に貯留したパチンコ球を抜く図示しない球抜きレバーが設けられている。
【0018】
回転式ハンドル5には、パチンコ球をレール2aに向けて発射する発射装置が連結されている。回転式ハンドル5を回転させることにより、発射装置はその回転量に応じた強さでパチンコ球を発射する。なお、遊技者が回転式ハンドル5を回転させた状態で保持することにより、発射装置はパチンコ球を所定の間隔ごとに一個ずつ発射する。
【0019】
図2に示すように、遊技盤2に備える制御基盤1は、メモリおよびCPU等で構成されるマイクロコンピュータである主制御部16と、遊技機における遊技状態を決定する値を出力するカウンタ14と、始動口2c(図1参照)でパチンコ球の入球を検出する始動開始センサ12と、入賞口2b等(図1参照)でパチンコ球の入球を検出する入賞検出センサ11と、大入賞口2d(図1参照)を開閉する開閉式ソレノイド13と、画像表示装置7のI/F(インターフェイス)17に情報流通可能に接続されるI/F(インターフェイス)15などを備えて構成されている。この制御基盤1は、上述した入賞口2bや始動口2cの球検出センサの検出に基づいて所定量のパチンコ玉を供給したり、図示しないランプやスピーカを作動させたりする各種のイベントを実行するものである。また、制御基盤1は、遊技状態に応じた表示態様を指示するための各種のコマンドをI/F15を通じて画像表示装置7に送信する。
【0020】
具体的に、制御基盤1で行なわれる処理について図4に示すフローチャートを参照しながら詳細に説明する。
ステップS1(入球を検出)
遊技者は、回転式ハンドル5によってパチンコ球を遊技盤2内に打ち込み、パチンコ遊技を開始する。遊技盤2内に打ち込まれた一部のパチンコ球は盤面の中央付近まで導かれ、始動口2cに入球する。パチンコ球が始動口2cに入球すると、始動口2c内に入球した球を検出する始動開始センサ12は、始動開始信号を主制御部16に送るとともに、始動口2c内に設けられた入賞検出センサ11は、入賞信号を主制御部16に送る。なお、この実施例では、始動開始センサ12と入賞検出センサ11とは、同一のセンサによって併用される。また、入賞口2bにパチンコ球が入球した場合にも、各入賞口2bの入賞検出センサ11は、入賞信号を主制御部16に送る。
【0021】
ステップS2(パチンコ球を供給)
主制御部16は、入賞検出センサ11からの入賞信号を検出すると、図示しないパチンコ球供給機構を稼働させて、所定数量のパチンコ球を球供給口4aを通じて上受け皿4に供給する。
【0022】
ステップS3(大当たり抽選)
主制御部16は、始動開始センサ12からの始動開始信号を検出すると、カウンタ14の出力値を読取り、大当たり抽選を行う。大当たり抽選では、カウンタ14の出力値が所定値であれば、「大当たり」を発生させる。一方、カウンタ14の出力値が所定値以外であれば、「はずれ」である通常の遊技状態を継続する。
【0023】
ステップS4(コマンドを送信)
主制御部16は、通常の遊技状態または特定の遊技状態に応じた表示態様を決定し、その表示態様に応じたコマンドをI/F15を介して画像表示装置7に送信する。コマンドは、画像表示装置7に所定の表示プログラムを実行させる命令であり、その表示プログラムの実行により遊技状態に応じた表示パターンが表示画面6aに表示される。例えば、大当たりの場合には、主制御部16は、所定のリーチの開始を指示するコマンドを送信し、所定時間経過後に、そのリーチの最終段階で停止させる大当たりの識別図柄の種類を指示するコマンドを送信する。これにより、画像表示装置7の表示画面6aには、コマンドで指示された種類のリーチが表示された後に、さらにコマンドで指示された種類の大当たりの識別図柄で停止するように表示される。このとき、主制御部16は、表示画面6aにおいて大当たりの識別図柄の停止が表示された後に、開閉式ソレノイド13に開放信号を与えて大入賞口2dを開放して、遊技者が多数個のパチンコ球を取得できる状態にする。さらに、この遊技状態において、制御基盤1は例えば約10個の球が大入賞口2dに入賞したのを1ラウンドとして、そのラウンドが終了するたびにそのラウンドの終了または次のラウンドの開始を指示するコマンドを画像表示装置7に送信する。これにより、表示画面6aには、ラウンドごとに異なるパターンの表示態様が表示される。一方、ハズレの場合には、リーチの最終段階で停止させるハズレの識別図柄の種類を指示するコマンド、または通常の遊技状態時に変動されている識別図柄をハズレの識別図柄で停止させるためのコマンドを画像表示装置7に送信する。これにより、表示画面6aには、リーチを表示した後にハズレの識別図柄で停止するように、または通常変動後にハズレの識別図柄で停止するように表示される。
【0024】
ステップS5(新たな入球検出?)
主制御部16は、始動開始センサ12からの新たな始動開始信号の有無(新たな入球)を検出するまで待機する。新たな始動開始信号がなければ、この処理を終了して新たな始動開始信号が検出されるまで待機する。上述したステップS1〜S5を実行する制御基盤1は、いわば遊技状態発生手段に相当する。なお、識別図柄の変動(リーチ、通常変動等)中にパチンコ球の入球を始動開始センサ12が検出し、その入球したパチンコ球の個数を記憶する上述で説明を省略した保留ランプが点灯している場合には、その保留ランプの点灯を新たな始動開始信号として検出する。新たな始動開始信号があれば、ステップS2〜S4を繰り返し行なう。
【0025】
画像表示装置7は、図2に示すように、制御基盤1から送られてきたコマンドを受信するI/F17と、そのコマンドに基づいて仮想3次元空間であるワールド座標系に配置される3次元情報であるオブジェクト、そのオブジェクトの模様の画像であるテクスチャおよび背景画像を記憶するキャラクタ記憶部18と、受信したコマンドに応じたプログラムを実行して、ワールド座標系にオブジェクトを設定するとともに、そのオブジェクトにテクスチャを貼付けた表示画像を生成する3次元画像処理部19と、3次元画像処理部19で生成された表示画像を一時的に記憶する画像記憶部20と、その表示画像を表示する液晶モニタ6とを備えている。なお、ワールド座標系とは、本発明における仮想3次元空間に相当する3次元の座標系である。オブジェクトとは、ワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。テクスチャとは、オブジェクトの各ポリゴンに貼付ける画像であり、テクスチャがオブジェクトに貼付けられることにより、オブジェクトに対応する画像、例えば識別図柄や補助図柄や背景などを含む表示画像が生成される。
【0026】
I/F17は、制御基盤1のI/F15に情報流通可能に接続されており、制御基盤1から送られてくるコマンドを受信するものである。I/F17は、受信したコマンドを3次元画像処理部19に順次渡す。
【0027】
キャラクタ記憶部18は、3次元画像処理部19から適宜読み出される3次元情報であるオブジェクトおよびそのオブジェクトの2次元の画像であるテクスチャを記憶するメモリである。具体的には、キャラクタ記憶部18には、大当たり時の当たり識別図柄例えば魚やタコなどの模様のテクスチャと、大当たりのラウンドの回数を示すラウンド表示図柄のテクスチャと、そのラウンド時に演出用に表示される補助図柄例えば海亀の模様のテクスチャなどの種々のテクスチャとともに、それら各テクスチャが貼付けられる1または複数のポリゴンで構成された複数種類のオブジェクトが記憶されている。さらに、キャタクタ記憶部18には、液晶モニタ6の表示画面6aの背景として表示される例えば海底の珊瑚礁の模様が描かれた背景画像も記憶されている。これら各オブジェクト、テクスチャおよび背景画像の各データは、表示画像の生成時に3次元画像処理部19によって適宜読み出される。
【0028】
3次元画像処理部19は、画像表示装置全体を制御管理するCPU(中央処理装置)、CPUにおける演算結果等を適宜記憶するメモリ、液晶モニタ6に出力する画像を生成する画像データプロセッサなどで構成されるものである。3次元画像処理部19は、コマンドに応じた表示態様を実現するために、本発明の仮想3次元空間に相当する3次元の座標系であるワールド座標系内に、視点およびキャラクタ記憶部18から読み出した各種のオブジェクトを配置し、そのオブジェクトを変動させたり視点を変位させる、いわゆるジオメトリ演算処理を行う。また、ワールド座標系内のオブジェクトを視点からの視線に基づく投影平面に投影した2次元座標情報である投影情報を生成する。その投影情報に基づいて、画像記憶部20に設けられたフレームメモリ内における各オブジェクトの各ポリゴンの頂点に相当する位置すなわちフレームメモリ内のアドレスを求める。そして、キャラクタ記憶部18から読み出したテクスチャを各オブジェクトの各ポリゴンの頂点に合うように変形させて、そのテクスチャをフレームメモリ内の各アドレスに基づいて描画する。このとき、そのテクスチャが表示画面6a上から消滅する識別図柄のオブジェクトに貼付けるテクスチャである場合には、所定のマスクパターンによって半透明状態にする。全てのオブジェクトへのテクスチャの描画が終了すると、画像記憶部20のフレームメモリ内に表示画像が生成され、その表示画像を液晶モニタ6に出力する。なお、後の説明で明らかになるが、3次元画像処理部19は、本発明におけるオブジェクト移動手段、投影平面揺動手段、投影手段および表示画像生成手段に相当する。
【0029】
3次元画像処理部19は、例えば次のように構成されている。以下、3次元画像処理部19の一例について図3を参照しながら詳細に説明する。
図3に示すように、3次元画像処理部19は、CPU21と、CPU21によって実行されるプログラムを記憶したプログラムROM22と、プログラムの実行によって得られたデータを記憶するワークRAM23と、CPU21の指示によってワークRAM23に記憶したデータを一括して転送するDMA24と、DMA24によって転送されたデータを受信するI/F25と、そのI/F25によって受信したデータに基づいて座標演算処理を行うジオメトリ演算処理部26と、I/F25によって受信したデータ等に基づいて表示画像を生成するレンダリング処理部27と、複数種類のカラーパレットに基づく色情報をレンダリング処理部27に適宜与えるパレット処理部28と、画像記憶部20内に設けられた複数のフレームメモリを切り換えるセレクタ部29と、表示画像を液晶モニタ6に出力するビデオ出力部30とを備えている。また、上述したCPU21とプログラムROM22とワークRAM23とDMA24とI/F25とは同一のデータバスに接続されており、オブジェクトおよびテクスチャ等を記憶したキャラクタ記憶部18は、上述したデータバスとは独立したデータバスを介してジオメトリ演算処理部26およびレンダリング処理部に接続されている。
【0030】
プログラムROM22は、遊技機に電源が投入された際にCPU21によって最初に実行されるプログラムや、制御基盤1から送られてくるコマンドの種類に応じた表示を行うための複数種類のプログラム、マップデータ、カラーパレットおよびテクスチャを半透明にするマスクパターンのデータなどを記憶したものである。表示を行うためのプログラムは、例えば予め用意されたテーブルを参照したり、参照したデータに演算処理を施すことで、コマンドに応じた表示態様を実現するためにワールド座標系にオブジェクトおよび視点を設定するための設定情報を導出するものである。表示プログラムには、単独で実行されるプログラムだけでなく、例えば複数個のタスクを組み合わせることで、コマンドの種類に応じた表示を行うためのタスクを生成するようなものも含まれる。また、設定情報は、ワールド座標系内にオブジェクトを配置するための座標値、ワールド座標系内に配置するオブジェクトの姿勢をそのオブジェクトの基準姿勢からの回転量で指示する回転角度、ワールド座標系内に視点を設定するための座標値、ワールド座標系における視点の視線(例えばz軸)を所定方向に定めるために視線を回転させる回転角度、キャラクタ記憶部18内に記憶されたオブジェクト、テクスチャ、背景画像などの格納アドレスなど各種のデータを含む情報であるとともに、表示画面6aに表示する一画面分の表示画像を生成するための情報である。
【0031】
CPU21は、プログラムROM22に記憶された制御プログラムによって画像表示装置7の全体を管理・制御する中央演算処理装置であり、主に、制御基盤1から送られてきたコマンドに応じたプログラムを実行することで、表示画面6aに所定の表示態様を表示するために、ワールド座標系内にオブジェクトおよび視点を設定する処理などを行うものである。具体的には、CPU21は、I/F17によって受信したコマンドの種類に応じて、そのコマンドに対応する表示を行うための表示プログラムを実行して得られた設定情報をワークRAM23に順次書き込み、所定の割り込み処理間隔(例えば1/30秒や1/60秒)ごとに、ワークRAM23内の設定情報の転送をDMA24に指示するものである。
【0032】
ワークRAM23は、CPU21によって得られた実行結果である設定情報を一時的に記憶するものである。また、DMA24は、CPU21での処理を介さずワークRAM23内に記憶されたデータを転送することができる、いわゆるダイレクトメモリアクセスコントローラである。つまり、DMA24は、CPU21からの転送開始の指示に基づいて、ワークRAM23に記憶された設定情報を一括してI/F25へ転送する。
【0033】
I/F25は、DMA24によって転送されてきた設定情報を受信する。I/F25は、設定情報に含まれる、キャラクタ記憶部18に記憶されたオブジェクトの格納アドレスや、オブジェクトをワールド座標系に配置するため配置座標値や、視点を設定する配置座標値などの座標演算の対象となるデータをジオメトリ演算処理部26に与えるとともに、画像描画の対象となる設定情報に含まれるキャラクタ記憶部18に記憶されたテクスチャなどの格納アドレスのデータをレンダリング処理部27に与える。さらに、I/F25は、設定情報に含まれているテクスチャの色合いを指示するためのカラーパレットをパレット処理部28に与える。
【0034】
ジオメトリ演算処理部26は、I/F25から与えられたデータに基づいて、3次元の座標点の移動や回転等に伴う座標演算処理を行うものである。具体的には、ジオメトリ演算処理部26は、キャラクタ記憶部18内に記憶されたオブジェクトの格納アドレスに基づいて、ローカル座標系に配置された複数のポリゴン構成されたオブジェクトを読み出す。そして、回転角度のデータに基づいて回転させた姿勢のオブジェクトを配置した座標値に基づいて、ワールド座標系に配置する際のワールド座標系におけるオブジェクトの各ポリゴンの座標値を算出する。ここで、ローカル座標系とは、基準の姿勢のオブジェクトが設定されるオブジェクト独自の座標系である。さらに、視点の座標値および回転角度に基づいて設定される視点を基準とする視点座標系におけるオブジェクトの各ポリゴンの座標値を算出する。さらに、視点に基づく視線に垂直に設定された投影平面にオブジェクトを投影した際の投影平面上のオブジェクトの各ポリゴンの2次元の座標値を含む投影情報を算出する。そして、ジオメトリ演算処理部26は、投影情報をレンダリング処理部27に与える。
【0035】
パレット処理部28は、CPU21によって書き込まれる複数種類の色情報で構成される複数種類のカラーパレットを格納する図示しないパレットRAMを備えており、CPU21からI/F25を通じて指示されたカラーパレットのデータをレンダリング処理部27に与えるものである。カラーパレットを与えるとは、例えばパレットRAMに記憶されたカラーパレットの格納アドレスをレンダリング処理部27に与えることをいい、レンダリング処理部27は、表示画像を生成する際にその格納アドレスに記憶された色情報を参照する。なお、各色情報は、赤色(R),緑色(G),青色(B)の組合せによって決定されるものであり、カラーパレットのデータサイズが例えば16ビットの場合には、0〜15の各値に所定の色情報が割り当てられる。また、カラーパレットの各データすなわち各パレットは、テクスチャを構成する各ドットに割り当てられており、各パレットの色情報で各ドットを描画することで、テクスチャの全体が描画される。なお、このカラーパレットの各パレットに割り当てられている色情報を順次変更することで、段階的に色合いが異なる複数種類のテクスチャを生成することもできる。
【0036】
レンダリング処理部27は、まず、キャラクタ記憶部18内の背景画像が格納されている格納アドレスに基づいて背景画像を読み出し、その背景画像を画像記憶部20内に設けられたフレームメモリ内に描画し、そのフレームメモリ内に投影情報に基づくオブジェクトの各ポリゴンを展開する。さらに、レンダリング処理部27は、キャラクタ記憶部18内のテクスチャの格納アドレスとカラーパレットのデータに基づいて、キャラクタ記憶部18から読み出したテクスチャをフレームメモリ内の各ポリゴンに相当する領域上に描画する。このとき、表示画面6a上から消滅させる識別図柄を描画するのであれば、レンダリング処理部27は、CPU21から指示されたマスクパターンによってテクスチャの色情報を部分的に間引いて半透明状態にする。これにより、フレームメモリ内には、背景画像上に各種のオブジェクトに対応する図柄の画像が描画された表示画像が生成される。この表示画像は、フレームメモリの容量にもよるが、所定の縦横比例えば縦横比が3:4の表示画像である。なお、上述したジオメトリ演算処理部26およびレンダリング処理部27では、画面に表示する部分を決定するクリッピング処理、ポリゴンの前後関係によって見える部分と見えない部分とを判定する隠面処理、光源からの光の当たり具合や反射の様子を演算するシェーディング計算処理などの処理も適宜行われる。
【0037】
セレクタ部29は、複数のフレームメモリを適宜選択するものである。具体的には、セレクタ部29は、上述したレンダリング処理部27によって画像の描画が行われる際には、画像記憶部20内に設けられた複数のフレームメモリである例えば第1フレームメモリまたは第2フレームメモリのいずれか一方を選択する。この場合には、その選択されている側のフレームメモリ内に表示画像が生成される。一方、セレクタ部29は、描画が行われていない側のフレームメモリから既に表示画像の生成が終わっている表示画像を読み出し、その表示画像をビデオ出力部30に送る。なお、セレクタ部29は、読み出し側のフレームメモリと、描画側のフレームメモリとを順次切り換える。ビデオ出力部30は、セレクタ部29から送られてきた表示画像をビデオ信号に変換して液晶モニタ6に出力する。
【0038】
画像記憶部20は、レンダリング処理部27によって生成される表示画像を記憶するいわゆるビデオRAMである。画像記憶部20には、例えば一画面分の表示画像を記憶する記憶領域である第1フレームメモリと、第2フレームメモリとが設けられたいわゆるダブルバッファを構成している。なお、画像記憶部20に設けるフレームメモリは、2つに限定されるものではなく、1つ以上であれば幾つでもよい。
【0039】
液晶モニタ6は、ビデオ出力部30から出力された表示画像を表示する画面6aを備えており、その画面6aが遊技盤2の盤面に露出するように取り付けられている。その表示画面6aは例えば縦横比が9:16のいわゆるワイド画面であり、液晶モニタ6は、ビデオ出力部30から出力されてきた縦横比が3:4の表示画像を表示画面6aの縦横比に合わせて、表示画面6aに表示画像を表示する。また、液晶モニタ6には、縦横比が3:4の表示画像をそのまま表示する機能をも備えており、遊技状態に応じて表示画面6aに表示される表示画像の縦横比を適宜変化させることもできる。なお、液晶モニタ6は、本発明における表示手段に相当する。
【0040】
図14に示すフローチャートを参照しながら、上述した画像表示装置7で行なわれる処理について説明する。
【0041】
ステップT1(コマンドの把握)
I/F17は、制御基盤1から送られてくるコマンドを順次受信して、そのコマンドを3次元画像処理部19に順次渡す。3次元画像処理部19は、そのコマンドをワークRAM23に設けた図示しないコマンドバッファ内に記憶する。さらに、3次元画像処理部19は、液晶モニタ6からの割り込み処理があるたびに、コマンドバッファ内に記憶したコマンドを読み出し、そのコマンドに対応するプログラムROM22内のプログラムを実行して1画面分の表示画像を順次生成する。そのプログラムの実行によって、3次元画像処理部19内では、以下のステップが実行される。なお、上述した割り込み処理は液晶モニタ6の1/30秒または1/60秒ごとの例えば垂直走査信号に同期して行われる。
【0042】
ステップT2(ワールド座標系に視点を設定)
3次元画像処理部19は、表示画面に表示するワールド座標系内の領域を決めるための注目点を設定する。この注目点は、例えばワールド座標系に配置される特定のオブジェクトの配置位置にほぼ一致するような位置に設定される。さらに、その注目点に基づいてワールド座標系内の様子を液晶モニタ6の表示画面6aに表示するための視点を設定する。この視点は3次元の座標系の原点であり、視点からの視線の方向が注目点を向くように設定される。視線は、その視点を原点とした座標系の例えばz軸である。なお、この視点を中心とする座標系を視点座標系という。以下、注目点に向いた視線を有する視点をワールド座標系に設定するまでの概念および具体的な算出方法について説明する。
【0043】
表示画面6aに複数個の識別図柄を表示する場合には、図6に示すように、複数個のオブジェクトOJ1〜OJ6がワールド座標系内のそれぞれの配置位置に配置される。3次元画像処理部19は、表示画面6aのほぼ中央付近に表示される識別図柄を表示するためのオブジェクトOJ3のワールド座標系における配置位置WPの座標値(WPx ,WPy ,WPz )を求める。この配置位置WPの座標値は、例えば本実施例のパチンコ機の場合にはプログラム内に予め用意されたワールド座標系の座標値を参照することで求める。例えばパチンコ機以外の遊技機の場合には、コントローラ等の入力手段からの入力信号に基づいて求める。3次元画像処理部19は、配置位置WPの座標値(WPx ,WPy ,WPz )を注目点の座標値として設定する。
【0044】
3次元画像処理部19は、図7に示すように、注目点の配置位置WPを原点Oとする新たな3次元の座標系をワールド座標系内に設定する。そして、図8(a)に示すように、新たな3次元の座標系の2次元の各軸周りにその新たな3次元の座標系を回転させる。例えば、新たな3次元の座標系をx軸周りにθx °,y軸周りにθy °だけ回転させる。回転角度θx °,θy °は、例えば本実施例のパチンコ機の場合にはプログラム内に予め用意された回転角度のデータを参照することで求める。例えばパチンコ機以外の遊技機の場合には、コントローラ等の入力手段からの入力信号に基づいて求める。これにより、図8(b)に示すように、新たな座標系の他の一次元の軸であるz軸が、注目点を中心に応じて変位して、そのz軸が任意方向を向く。さらに、図8(c)に示すように、予め与えられている注目点から視点までの距離Lのデータに基づいて、新たな3次元の座標系のz軸上の注目点から距離Lだけ離れた配置位置P0 に、新たな座標系を移動させる。このとき、新たな3次元の座標系のz軸が注目点を向くように移動される。なお、本実施例では、視線の方向がz軸のプラス側になるように説明するが、これに限定されるものではなく、例えば視線の方向がz軸のマイナス側になるようにすることもできる。また、本実施例では、注目点の配置位置WPをオブジェクトJの配置位置と一致するようにしたが、これに限定されるものではなく、例えば注目点の配置位置WPは任意の位置に設定することができる。具体的には、3次元画像処理部19は、上述した注目点の配置位置WPの座標値と、新たな座標系の各軸周りの回転角度θx ,θy と、注目点からの距離Lとの各値を、次式(1)に示す式に代入する。
【0045】
(P0X, P0Y, P0Z)=(Lsinθy cosθx +WPx ,Lsinθx +WPy ,Lcosθy cosθx +WPz ) … (1)
【0046】
3次元画像処理部19は、上述した式(1)によって、注目点がz軸にある3次元の座標系の原点Oのワールド座標系における座標値(P0X, P0Y, P0Z)を算出し、その座標値(P0X, P0Y, P0Z)で特定されるワールド座標系の配置位置P0 に新たな3次元の座標系を移動させる。このワールド座標系の配置位置P0 における新たな3次元の座標系を、注目点を向く視線を有する視点SPとする。この視点SPからの視線が向いた方向のワールド座標系内の様子が液晶モニタ6の表示画面6aに表示される。なお、視点SPを中心とする視点座標系のx軸、y軸周りに所定角度だけその視点座標系を回転させることで、それら各軸周りの回転角度に応じて視線(z軸)を揺動させることができる。これにより、後で説明する投影平面を任意に揺動変位させることができる。
【0047】
ステップT3(オブジェクトを配置および変動)
3次元画像処理部19は、表示画面6aに複数個の識別図柄を表示するためのオブジェクトOJ1〜OJ6をキャラクタ記憶部18からそれぞれ読み出す。そして、図9に示すように、3次元画像処理部19は、視点SPの配置位置P0 の座標値(P0X, P0Y, P0Z)を基準とする各座標値に応じて、ワールド座標系内の各座標値を求めて、それら各座標値に基づく各配置位置P1 〜P6 に各オブジェクトOJ1〜OJ6をそれぞれ配置する。なお、3次元画像処理部19は、各オブジェクトの配置位置の座標値のΔPで表した部分のデータを算出、またはプログラムROM22内に予め用意されたデータを参照して、そのΔPの値と視点SPの座標値とからワールド座標系における座標値を求める。
【0048】
具体的には、ワールド座標系内の配置位置P1 (P0X+ΔP1X,P0Y+ΔP1Y,P0Z+ΔP1Z)にオブジェクトOJ1を、配置位置P2 (P0X+ΔP2X,P0Y+ΔP2Y,P0Z+ΔP2Z)にオブジェクトOJ2を、配置位置P3 (P0X+ΔP3X,P0Y+ΔP3Y,P0Z+ΔP3Z)にオブジェクトOJ3を、配置位置P4 (P0X+ΔP4X,P0Y+ΔP4Y,P0Z+ΔP4Z)にオブジェクトOJ4を、配置位置P5 (P0X+ΔP5X,P0Y+ΔP5Y,P0Z+ΔP5Z)にオブジェクトOJ5を、配置位置P6 (P0X+ΔP6X,P0Y+ΔP6Y,P0Z+ΔP6Z)にオブジェクトOJ6を、それぞれ配置する。なお、便宜上図6等では各オブジェクトの形態を球体形状で図示しているが、各オブジェクトの形状はそれぞれの識別図柄の形状に応じた3次元形状で形成されている。また、本実施例では、視点SPを基準として各オブジェクトOJ1〜OJ6を配置しているので、視点SPの配置位置や視線方向を変位させた場合すなわち注目点を移動させた場合であっても、各オブジェクトOJ1〜OJ6によって表示される識別図柄を、表示画面6a上の一定の位置に表示させることができる。
【0049】
さらに、3次元画像処理部19は、各オブジェクトOJ1〜OJ6の中の任意のオブジェクトを移動させる場合には、その任意のオブジェクトの配置位置のx軸成分の座標値を割り込み処理ごとに順次更新(座標値を減算または加算)することで、任意のオブジェクトを横方向へ移動させる。これにより、オブジェクトがワールド座標系内を移動するので、そのオブジェクトによって表示される識別図柄も表示画面6a上を移動する。同様にして、任意のオブジェクトの配置位置のy軸成分の座標値を順次更新すればオブジェクトを縦方向へ、z軸成分の座標値を順次更新すればオブジェクトを奥行き方向へそれぞれ任意に移動させることができる。ステップT3における処理については後で詳細に説明する。
【0050】
ステップT4(視点座標系を変形補正)
3次元画像処理部19は、ワールド座標系内に配置された各オブジェクトOJ1〜OJ6の各配置位置P1 〜P6 の座標値を、視点SPを基準すなわち原点とする視点座標系の座標値に変換する。つまり、上述した座標値のΔで表された成分だけを抜き出す。ここで、レンダリング処理部27によってフレームメモリ内に生成される表示画像の縦横比は3:4であるので、この表示画像を縦横比が9:16の表示画面6aに表示すると、表示画像が間延びした画像となるという弊害が生じる。そこで、表示画像の縦横比と、表示画面の縦横比とをに応じて、視点座標系を変形補正することにより、その視点座標系内に配置された各識別図柄等を変形させる。
【0051】
具体的には、3次元画像処理部19は、視点座標系を変形補正するための変形補正値を算出する。この変形補正値は、各オブジェクトOJ1〜OJ6の縦幅または横幅を拡大もしくは縮小するための倍率値である。変形補正値は、表示画面6aの縦横比をA:B、表示画像の縦横比をa:bとすると、次式(2)によって算出することができる。なお、次式(2)で算出される変形補正値は、表示画像の縦倍率を基準にして、その横幅を画面に合わせて変形した場合には、オブジェクト等の横幅を変形補正するための倍率値であり、表示画像の横倍率を基準にして、その縦幅を画面に合わせて変形した場合には、各オブジェクトOJ1〜OJ6の縦幅を変形補正するための倍率値である。
【0052】
(A×b)÷(a×B) …(2)
【0053】
フレームメモリ内に生成される表示画像の縦横比が3:4であり、表示画面6aの縦横比が9:16である場合には、表示画面6aには表示画像の縦横比が9:16で表示されるので、表示画像の横幅が4/3倍に拡大されたように表示される。このとき、表示画像に含まれる各オブジェクトOJ1〜OJ6で表示される識別図柄の横幅も4/3倍に拡大される。ここで、式(2)に表示画像および表示画面6aの縦横比の各値を代入することで、各オブジェクトOJ1〜OJ6の横幅を4分の3倍(以下、「3/4倍」と示す)に縮小する倍率値の変形補正値を算出する。さらに、3次元画像処理部19は、変形補正値に基づいて視点座標系の横方向(x軸方向)を3/4倍に縮小する。その結果、各オブジェクトOJ1〜OJ6は、視点座標系のx軸方向に3/4倍に縮小される。なお、この実施例では、ステップT4によって視点座標系を変形補正したが、変形補正することなくステップT4以降の処理を行うこともできる。
【0054】
ステップT5(投影平面に投影)
3次元画像処理部19は、図9に示すように、視点SPと、オブジェクトOJ1〜OJ6との間に、視点からの視線の方向であるz軸に垂直な投影平面TMを設定する。投影平面TMは、視点座標系のz軸に垂直であり、z値が固定されているので、投影平面TM上では2次元の座標値として取り扱うことができる。この投影平面TMは、画像記憶部20内に設けられたフレームメモリに対応する領域を有している。
【0055】
さらに、3次元画像処理部19は、投影平面TMに投影される各オブジェクトOJ1〜OJ6の移動方向に応じて、それら各オブジェクトOJ1〜OJ6を透視投影または平行投影する。この透視投影および平行投影の使い分けについては後で詳細に説明する。これにより、各オブジェクトOJ1〜OJ6をそれぞれ構成する各ポリゴンの各頂点は、投影平面TMに透視移動または平行移動するように投影され、各頂点の3次元の座標値が投影平面TM上の2次元の座標値に変換される。3次元画像処理部19は、全てのオブジェクトの投影が終了することにより、ワールド座標系内の各オブジェクトOJ1〜OJ6の投影情報を取得する。
【0056】
ここで、透視投影とは、各オブジェクトOJ1〜OJ6を視点SPから見た状態で投影することをいい、具体的にはオブジェクトOJ1〜OJ6の各ポリゴンの頂点が視点SPへ向けて直線的に移動されるように投影することをいう。これにより、例えば視点SPからの距離に応じてオブジェクトOJ1〜OJ6の各画像が変化するように表示される。平行投影とは、オブジェクトOJ1〜OJ6を投影平面TMから見たそのままの状態で投影することをいい、具体的にはオブジェクトOJ1〜OJ6の各ポリゴンの頂点が投影平面TMに対して垂直に直線的に移動するように投影することをいう。これにより、視点SPからの距離に関わらず、オブジェクトOJ1〜OJ6の各画像は常に一定の大きさで表示される。ステップT5における処理についても後で詳細に説明する。なお、遊技者に遊技状態を識別させたい場合には、識別図柄を識別し易くくするために、識別図柄を表示するオブジェクトを平行投影する一方、それ以外の場合には、より立体感を表現するために、識別図柄を表示するオブジェクトを透視投影することが好ましい。さらに、本実施例では、特に識別図柄以外の補助図柄について説明していないが、補助図柄にも同様に透視投影または平行投影を適用することができる。ステップT5は、本発明における投影手段の機能に相当する。
【0057】
ステップT6(表示画像を生成)
まず、3次元画像処理部19は、キャラクタ記憶部18に記憶されている背景画像を読み出し、その背景画像を画像記憶部20内のフレームメモリ内に描画する。この背景画像は、例えば海中および海底の様子を表示するための画像である。
【0058】
次に、3次元画像処理部19は、投影情報に含まれる各オブジェクトOJ1〜OJ6の各ポリゴンの各頂点の座標値に対応する画像記憶部20のフレームメモリ内のアドレス、すなわちフレームメモリ内の各オブジェクトOJ1〜OJ6の各ポリゴンの位置を求める。そして、キャラクタ記憶部18から読み出したテクスチャを各ポリゴンに合わせて変形させながら各ポリゴンに描画する。これにより、背景画像上に、各オブジェクトOJ1〜OJ6の画像である識別図柄等が重ねられた表示画像がフレームメモリ内に生成される。
【0059】
さらに、表示画面6aに表示された特定の識別図柄を徐々に消滅させる場合には、3次元画像処理部19は、プログラムROM22内から後述するマスクパターンM1〜M9を所定回数の割り込み処理ごとに順次読み出す。そして、特定の識別図柄を表示するための特定のオブジェクトに貼付けられるテクスチャをマスクパターンM1〜M9で順次加工する。具体的には、特定のオブジェクトの各ポリゴンに合わせて変形後のテクスチャに、各マスクパターンM1〜M9を順次重ね合わせて、それら各マスクパターンM1〜M9によって非表示の部分を設け、そのテクスチャを各ポリゴンに描画する。これにより、特定のオブジェクトによって表示される識別図柄が徐々に消滅するように表示することができる。なお、ステップT6における処理についても後で詳細に説明する。ステップT6は、本発明における表示画像生成手段の機能に相当する。
【0060】
ステップT7(表示)
3次元画像処理部19は、フレームメモリ内に生成された表示画像をビデオ出力部30を介して液晶モニタ6に出力する。液晶モニタ6は、割り込み処理ごとに3次元画像処理部19から送られてくる縦横比が3:4の表示画像を、縦横比が9:16の表示画面6aに合わせて順次表示する。上述したステップT1〜T7が実行されることによって、表示画面6aには、図10に示すような表示画像が表示される。図10に示すように、表示画面6aには、例えば海底の様子を示す背景画像HGの前面に、上述した各オブジェクトOJ1〜OJ5の画像である識別図柄G1〜G5が表示される。このとき、投影平面TM外に配置されているオブジェクトOJ6は、投影平面TMに投影されないので、表示画面6aには表示されない。なお、上述したステップT1〜T7を繰り返して、全ての識別図柄を変動させる通常変動や、特定の識別図柄だけが変動させるリーチなどの表示態様を表示することができる。
【0061】
次に、本実施例に係るパチンコ機で実際に表示されるリーチについて、図11に示すフローチャートおよび図12〜図14に示す各表示態様を参照しながら説明し、さらに、このときに3次元画像処理部19で行われる処理、特に上述したステップT3、T5およびT6における処理について、図16〜図17を参照しながら詳細に説明する。
【0062】
ステップU1(上下段領域の識別図柄を停止)
まず、図12(a)に示すように、表示画面6aはその画面内が縦方向に上段領域A,中段領域B,下段領域Cの3つに分けられており、通常変動では、それら各領域A〜C内で複数種類の識別図柄が変動するように表示される。具体的には、上段領域Aでは、1〜9の図柄番号が付けられた識別図柄が、9〜1の順番に表示画面6aの右側から現れて左側へと移動するように表示され、中段領域Bおよび下段領域Cでは、1〜9の図柄番号が付けられた識別図柄が、1〜9の順番に表示画面6aの右側から現れて左側へと移動するように表示される。なお、以下の説明において、上段領域Aで移動する1〜9の図柄番号が付けられた識別図柄を識別図柄A1〜A9とし、中段領域Bで移動する1〜9の図柄番号が付けられる識別図柄を識別図柄B1〜B9とし、下段領域Cで移動する1〜9の図柄番号が付けられる識別図柄を識別図柄C1〜C9とする。さらに、1〜9の図柄番号が付けられる識別図柄を表示するためのオブジェクトをオブジェクトJ1〜J9とする。
【0063】
上述した通常変動において、3次元画像処理部19は、複数種類の識別図柄を表示するための複数種類のオブジェクトをワールド座標系内に配置する。それら各オブジェクトの各配置位置のx成分の座標値を順次更新することで、それら各オブジェクトを投影平面TMを横切るように横方向へ移動させる。3次元画像処理部19は、これら移動する各オブジェクトを投影平面TMに順次平行投影する。これにより、表示画面6aには、各領域A〜C内を横方向へ移動する複数種類の識別図柄が表示される。なお、平行投影は、図19に示すように、各オブジェクトJ2が各配置位置P1 ,P3 ,P4 にそれぞれ配置されている場合に、それら各オブジェクトJ2の形態が投影平面TMに対して垂直に写るように投影する投影方法である。これにより、表示画面6aには、各オブジェクトJ2によって表示される識別図柄A2,B2,C2は、投影平面TMから各オブジェクトJ2を見た同じような状態で表示される。
【0064】
3次元画像処理部19は、図16(a)に示すように、リーチに無関係のオブジェクトJ1,J3を配置位置P2 ,P5 に、リーチに関係するオブジェクトJ2を配置位置P1 および配置位置P4 にそれぞれ配置した時点で、各配置位置P1 ,P2 ,P4 ,P5 のx成分の座標値を更新するのを止めて、各オブジェクトJ1〜J3の移動を停止させる。これにより、表示画面6aでは、上段領域Aの識別図柄A2,A1、下段領域Cの識別図柄C2,C3の横方向の移動が停止する。このとき、表示画面6aには識別図柄A2と識別図柄C2とが縦に揃っているので、遊技者は通常変動からリーチへ移行したことを認識する。
【0065】
ステップU2(所定の識別図柄の移動、消滅)
3次元画像処理部19は、図16(a)に示すように、配置位置P4 に配置したオブジェクトJ2を配置位置P5 の位置にまで移動させるために、配置位置P5 のx成分の座標値にほぼ一致するまで配置位置P4 のx成分の座標値を順次更新する。これにより、表示画面6aでは、図12(a)〜(c)に示すように、下段領域Cの識別図柄C2が右方向へ移動する。
【0066】
さらに、3次元画像処理部19は、配置位置P2 に配置されたオブジェクトJ1と、配置位置P5 に配置されたオブジェクトJ3との各ポリゴンに貼付けるテクスチャに非表示の部分を設けて、さらに、その非表示の部分を識別図柄C2の移動に従って変化させ、識別図柄C2が識別図柄C3に重なるときには、テクスチャ全体を非表示にして、識別図柄C3,A1を消滅させる処理を行う。また、3次元画像処理部19は、識別図柄C3,A1を消滅させると、オブジェクトJ3,J1の配置も止める。なお、テクスチャを消滅させる処理は、後述するマスクパターンM1〜M9をテクスチャに順番に重ねることで、対象のテクスチャに非表示の部分を設ける処理である。
【0067】
上述した所定の識別図柄を消滅させる処理の原理について、図21から図27を参照しながら説明する。なお、この処理の理解を容易にするために、表示画面6aに識別図柄C3,A1の代わりに、図21に示す台形状の画像が表示される場合の処理について説明する。図21は台形状に表示された画像が徐々に消滅する様子を図示したものである。図21(a)に示すように、表示画面6aには、所定空間内に横たわったほぼ正方形の平面Gを手前斜め上から見た3次元の画像が表示されている。また、図21(b)〜(d)に示すように、表示画面6aには、時間の経過に従って、その平面Gの画像の色合いが徐々に薄くなり消滅する様子が表示される。
【0068】
上述した平面Gの3次元の画像は、ポリゴンおよびそのポリゴンに貼付けられるテクスチャによって表示される。なお、この実施例では、ポリゴンについて説明するが、1または複数のポリゴンで構成されるオブジェクトでも同じである。具体的には、表示画面6aに表示される平面Gの画像は、図22に示すように、例えばローカル座標系に設定された1枚の四角形のポリゴンGP(図22(a)参照)と、そのポリゴンGPに貼付けられる画像であるテクスチャT(図22(a)参照)とで生成される。ポリゴンGPは、ローカル座標系における3次元の座標値で表される4つの頂点P1〜P4で構成されている。テクスチャTは、ポリゴンGPの頂点P1〜P4に一致する頂点P1〜P4で囲まれる画像で構成されている。ポリゴンGPおよびテクスチャTは、キャラクタ記憶部18に記憶されている。
【0069】
図23に示すように、3次元画像処理部19は、キャラクタ記憶部18からポリゴンGPを読み出し、そのポリゴンGPを仮想3次元空間であるワールド座標系に配置する。さらに、3次元画像処理部19は、ワールド座標系内の様子を表示するための視点SPを設定し、その視点SPからの視線(図ではz軸方向)に垂直な投影平面TMを設定する。そして、ワールド座標系におけるポリゴンGPの頂点P1〜P4を投影平面TMにそれぞれ透視投影する。これにより、図24に示すように、投影平面TMには、ワールド座標系においてほぼ正方形のポリゴンGPが台形状に投影され、ポリゴンGPの頂点P1〜P3が投影平面TM上の2次元の座標値に変換される。
【0070】
図25(a)に示すように、3次元画像処理部19は、投影平面TM上のポリゴンGPの形状に合うように、キャラクタ記憶部18から読み出したテクスチャTの形状を変形し、そのポリゴンGPに貼付ける。つまり、ポリゴンGPの各頂点P1〜P4と、テクスチャTの各頂点P1〜P4とがそれぞれ一致するように描画する。そして、その描画が終了すると、投影平面TM内すなわちフレームメモリ内に生成された表示画像を液晶モニタ6に送る。これにより、液晶モニタ6の表示画面6aには、図21(a)に示した平面Gの画像が表示される。
【0071】
上述した3次元画像処理部19のプログラムROM22内には、複数種類のマスクパターンが記憶されている。これら複数種類のマスクパターンは、ポリゴンGPに合わせて変形された後のテクスチャTに作用させて、表示画面6aに表示されない非表示の部分を変形後のテクスチャTに設けるためのものであり、さらに、テクスチャTが貼付けられるポリゴンGPの画像である平面Gを徐々に消滅させるように、テクスチャT全体が表示されなくなるまでそのテクスチャTに設けた非表示の部分を段階的に変化させるように構成されている。
【0072】
具体的には、図26に示すマスクパターンM1〜M9がプログラムROM22内に記憶されている。マスクパターンM1〜M9の符号60(図中、右下がり斜線部分)の示す部分は、テクスチャT上に非表示の部分を設けるためのデータであり、符号61の示す部分は、テクスチャTの画像が残る部分すなわち表示画面6aに表示される部分である。より具体的には、マスクパターンM1は、00H,11H,00H,00H,00H,11H,00H,00Hの8バイトのデータとしてプログラムROM22内に記憶されている。例えば11Hは16進数であるので、これを2進数で表すと「00010001」となり、「1」が符号60の部分に、「0」が符号61の部分にそれぞれ相当する。同様に、マスクパターンM2は、00H,11H,00H,44H,00H,11H,00H,44Hの8バイト、マスクパターンM3は、00H,55H,00H,55H,00H,55H,00H,55Hの8バイト、マスクパターンM4は、22H,55H,88H,55H,22H,55H,88H,55Hの8バイト、マスクパターンM5は、AAH,55H,AAH,55H,AAH,55H,AAH,55Hの8バイト、マスクパターンM6は、BBH,DDH,AAH,55H,BBH,DDH,AAH,55Hの8バイト、マスクパターンM7は、BBH,FFH,AAH,77H,BBH,FFH,AAH,77Hの8バイト、マスクパターンM8は、BBH,FFH,EEH,FFH,BBH,FFH,EEH,FFHの8バイト、マスクパターンM9は、FFH,FFH,FFH,FFH,FFH,FFH,FFH,FFHの8バイトのデータとしてプログラムROM22内にそれぞれ記憶されている。なお、この実施例では9段階に変化する9枚のマスクパターンを利用したが、本願発明はこれに限定されるものではなく、2段階以上に変化する複数のマスクパターンであれば幾つでもよい。また、これら各マスクパターンのパターンに限定されるものではない。
【0073】
3次元画像処理部19は、これら各マスクパターンM1〜M9を、変形後のテクスチャTに順次重ねることで、テクスチャTに重なった符号60の部分を非表示にしたテクスチャTをポリゴンGPに描画する。例えば、マスクパターンM5を利用する場合を例にとって説明すると、図25(a)に示すように、変形後のテクスチャT上の全体に非表示の部分を設けるように、テクスチャT上にマクスパターンM5を重ねる。これにより、図25(b)に示すように、テクスチャTを例えば非表示の部分が千鳥状に設けられた状態にすることができ、このテクスチャTをポリゴンGPに描画することで、表示画面6aに千鳥状の模様の平面Gの画像を表示させることができる。このように、非表示の部分の個数が段階的に増加するような順番で、マスクパターンM1〜M9をテクスチャTに作用させることで、図21(a)〜(d)に示すように、平面Gの画像が徐々に消滅するような表示態様を実現することができる。なお、この実施例では、非表示の部分の個数が段階的に増加する場合について説明したが、例えば非表示の部分の面積が段階的に広がるようなマスクパターンを用いることもできる。このようなマスクパターンを用いれば、図27(a)〜(d)に示すように、平面Gの画像上の一点からその周囲に非表示の部分が広がって、その画像が消滅するような表示態様を表示することもできる。
【0074】
上述した処理をオブジェクトJ3,J1にそれぞれ貼付けられるテクスチャに行うことで、図12(a)〜(c)に示したように、識別図柄C2の移動に従って識別図柄C2,A1が徐々に消滅していくように表示する。
【0075】
ステップU3(中段領域の識別図柄を同種のもので停止)
3次元画像処理部19は、図16(b)に示すように、オブジェクトJ8,J9の各配置位置P5 ,P6 のx成分の座標値を引き続き順次更新して、オブジェクトJ8,J9を移動させる。さらに、オブジェクトJ8,J9が投影平面TM外へ移動すると、新たなオブジェクトJ1〜J7を投影平面TM外の図示しない配置位置P7 〜P13に順次配置して、それら各配置位置P7 〜P13のx成分の座標値を順次更新することで、各オブジェクトJ1〜J7も同様に横方向へ移動させる。これにより、図12(c)に示すように、表示画面6a上には、中段領域Bで複数種類の識別図柄B1〜B9が順次横方向へ移動するように表示される。
【0076】
3次元画像処理部19は、図17(a)に示すように、オブジェクトJ2が投影平面TMのほぼ中心にまで移動してくると、そのオブジェクトJ2の配置位置P8 のx成分の座標値の更新を止めて、オブジェクトJ2が図示されている配置位置P8 の位置で停止させる。これにより、図13(a)に示すように、表示画面6aには、識別図柄A2,B2,C2が斜めに揃って表示される。このとき、パチンコ機は、遊技者にこれら識別図柄A2,B2,C3を当たりの識別図柄と一旦認識させる。さらに、パチンコ機は、遊技者の面白味を増大させるために、これらの当たりの識別図柄A2,B2,C3を再度変動させて、別種の識別図柄で大当たりさせる。以下のステップは、このような再度変動させる処理について説明する。なお、本実施例で説明するリーチ以外の場合には、ここまでのステップで終了する場合もある。
【0077】
ステップU4(全識別図柄を回転させ、奥行き方向へ移動)
3次元画像処理部19は、図20(a)に示すように、各オブジェクトJ2を各配置位置P1 ,P8 ,P4 を中心とするy軸周りに例えば90°回転させて、オブジェクトJ2の進行方向側を投影平面TMに対する奥行き方向へ向ける。なお、各オブジェクトJ2の回転角度は任意であって、例えば各配置位置を中心とする任意の軸周りに任意角度だけ回転させるようにすることもできる。好ましくは、上述したようにオブジェクトJ2の進行方向側を奥側に向ける。ここでの処理は、オブジェクト回転手段の機能に相当する。
【0078】
3次元画像処理部19は、各オブジェクトJ2を回転させるまでは、図19(a)に示したように、投影平面TMに各オブジェクトJ2を平行投影した表示画像を生成する。これにより、表示画面6aには、図13(a)〜(b)に示すような表示態様が表示される。なお、図13(b)では、識別図柄の種類を遊技者に識別させ易くするために、各識別図柄A2,B2,C2にそれぞれ付されている図柄番号「2」の部分だけは正面を向くよう表示させているが、例えば識別図柄A2,B2,C2と同様に表示することもできる。
【0079】
3次元画像処理部19は、図19(b)および図20(b)に示すように、配置位置P1 ,P8 ,P4 に配置されている各オブジェクトJ2を、各配置位置P1 ,P8 ,P4 よりも投影平面TM側の配置位置である新たな配置位置P1', P8', P4'に改めて配置するとともに、各オブジェクトJ2の投影方法を平行投影から透視投影に変更し、その表示画像を生成する。つまり、配置位置P1', P8', P4'に配置された各オブジェクトJ2は投影平面TMに透視投影され、図13(b)に示した表示態様とほぼ同じ表示態様で表示される。配置位置P1', P8', P4'は、例えば図19(a)に示す投影平面TMに平行投影された識別図柄A2,B2,C2と、図19(b)に示す投影平面TMに透視投影された識別図柄A2,B2,C2とが、表示画面6a上のほぼ同じ位置、ほぼ同じ大きさでそれぞれ表示される位置である。
【0080】
また、3次元画像処理部19は、各オブジェクトJ2が配置された新たな配置位置P1', P8', P4'の座標値を順次更新して、図17(b)および図20(c)に示すように、各オブジェクトJ2を投影平面TMに対する奥行き方向へ移動させる。これにより、各オブジェクトJ2は投影平面TMから離れるに従って徐々に小さくなるように投影されるので、表示画面6aには、図13(c)に示すように、識別図柄A2,B2,C2がそれぞれ表示画面6aの奥側へ向かって泳いで行くような表示態様が表示される。そして、識別図柄A2,B2,C2は、遊技者が識別不可能な状態にまで小さくなる。3次元画像処理部19は、識別図柄A2,B2,C2は、遊技者が識別不可能な状態にまで小さく表示された時点で、配置位置P1', P8', P4'の座標値の更新を止めて、各オブジェクトJ2の移動を停止させる。
【0081】
ステップU5(手前方向へ別種の識別図柄を移動)
3次元画像処理部19は、識別不可能な状態にまで小さく表示された識別図柄A2,B2,C2の各オブジェクトJ2を、キャラクタ記憶部18から新たに読み出した別種のオブジェクトJ1に置き換える。つまり、各オブジェクトJ2の移動を停止した時点でオブジェクトJ2の配置を止めて、配置位置P1', P8',P4'に別種のオブジェクトJ1をそれぞれ新たに配置する。さらに、3次元画像処理部19は、図20(d)に示すように、配置位置P1', P8', P4'を順次更新して、各オブジェクトJ1を投影平面TMに向けて、その投影平面TMの直前にまで移動させる。配置位置P1', P8', P4'の投影平面に直前の座標値は、任意に定めることができるが、例えば遊技者がオブジェクトJ2の画像が表示画面6aに最も近く表示されたように感じることができる座標値である。これにより、各オブジェクトJ1は投影平面TMに近づくに従って徐々に大きくなるように投影されるので、表示画面6aには、図14(a)に示すように、各オブジェクトJ1によって表示される識別図柄A1,B1,C1が、それぞれ表示画面6aへ向かって泳いで来るような表示態様が表示される。そして、各オブジェクトJ1が投影平面TMに直前の位置では、識別図柄A1,B1,C1が、先に表示されていた識別図柄A2,B2,C2の表示態様よりも大きく表示される。
【0082】
さらに、3次元画像処理部19は、図20(d)に示すように、各オブジェクトJ1を投影平面TMの直前で停止させた後に、さらに配置位置P1', P8', P4'を順次更新して、図20(e)に示すように、投影平面TMの直前の各オブジェクトJ2を所定位置にまで後退させる。この所定位置は、表示画面に表示されるオブジェクトJ2の画像が少しでも後退したように表示される位置であれば任意に決めることができる。このように、各オブジェクトJ2を投影平面TMの直前にまで移動させた後、さらに後退させるまでの処理は、本発明におけるオブジェクト移動手段の機能に相当する。さらに、3次元画像処理部19は、オブジェクトを後退させるまでの間、視点SPを中心とする視点座標系の例えばy軸およびx軸周りに所定角度だけ視点座標系を往復回転させて、視線方向であるz軸を変位させ続ける。このとき、z軸に垂直に設定されている投影平面TMは、図18(a)に示すように、視点SPを中心に例えば上下左右に揺動変位され続ける。この投影平面TMを揺動変位させる処理は、本発明における投影平面揺動手段の機能に相当する。これにより、揺動変位する状態の投影平面TMに各オブジェクトJ1が透視投影され、表示画面6aでは、図14(b),(c)に示すように、表示画面6aへ向かって移動してきた識別図柄A1,B1,C1が表示画面6aにぶつかって、その反動で表示画面6aが揺れ動くような表示態様が表示される。その後、3次元画像処理部19は、視点座標系の揺動を停止させて、図15(a)に示すように、オブジェクトJ1によって表示される識別図柄A1,B1,C1を表示画面6aに表示させる。なお、本実施例では、オブジェクトJ2を後退させている間、投影平面TMを揺動変位させ続けたが、本発明はこれに限定されるものではなく、例えば各オブジェクトJ2が投影平面TMの直前で停止しているときにだけ、投影平面TMを揺動変位させるようにすることもできる。
【0083】
ステップU6(最終的な当たりの識別図柄で確定)
3次元画像処理部19は、配置位置P1', P8', P4'に配置されている各オブジェクトJ1を、図20(a)に示した配置位置P1 ,P8 ,P4 に改めて配置するとともに、各オブジェクトJ1の投影方法を透視投影から平行投影に変更し、その表示画像を生成する。つまり、配置位置P1 ,P8 ,P4 に配置された各オブジェクトJ1は投影平面TMに平行投影され、図15(b)に示した表示態様で表示される。これにより、最終的な当たりの識別図柄が確定する。以上のステップU1〜U6によって、図12〜図15に示した一連のリーチの表示態様が表示される。
【0084】
上述した実施例のパチンコ機では、各識別図柄を表示画面上を横方向に移動させ、その移動を停止させた後に、さらに各識別図柄を表示画面の奥側へ移動させているので、遊技者に面白味を感じさせることができる。また、横方向へ識別図柄を移動させる場合には、その識別図柄を表示するためのオブジェクトを平行投影しているので、複数個の識別図柄の種類を遊技者に識別し易くさせることができる。一方、奥側へ識別図柄を移動させる場合には、そのオブジェクトを透視投影しているので、複数個の識別図柄全体として立体感を出して、遊技者の面白味を増大させることができる。さらに、識別図柄が表示画面の奥側へ移動させて識別不可能な状態にしてから、その識別図柄を別種の識別図柄に置き換えており、さらに、識別図柄を識別可能な状態にまで移動させた後に、その識別図柄を最終的な当たり図柄としているので、遊技者の面白味をより増加させることができる。また、表示画面に向かって移動してくる識別図柄がその表示画面に追突し、その反動で跳ね返るような表示態様を表示するとともに、投影平面TMを揺動変位させることで、表示画面6a内が揺れるようにしているので、遊技者の面白味をさらに増加させることができる。
【0085】
なお、上述した実施例では、液晶モニタについて説明したが、例えば、液晶モニタの代わりにCRTモニタや、LEDモニタなどにすることもできる。
【0086】
また、上述した実施例では、遊技機としてパチンコ機について説明したが、本発明はこれに限定されるものではなく、例えばスロットマシン、コインゲーム機などの遊技機に変形実施することができる。
【0087】
【発明の効果】
以上の説明から明らかなように、本発明によれば、投影平面の直前(つまり、投影平面に近接した第2位置)にまでオブジェクトを移動させた後に、そのオブジェクトの移動に連動するように投影平面を揺動変位させると共に、第2オブジェクト移動手段に基づいて透視投影オブジェクトが第2位置から奥行き方向の所定位置まで移動する間その揺動変位を維持し、オブジェクトが前記所定位置まで移動した場合にこの揺動変位を終了するので、オブジェクトによって表示される画像が表示画面に追突し、その追突による反動で表示画面内が揺れ動くような臨場感のある表示態様を実現できる。その結果、遊技者の面白味を永続させることができる。
【図面の簡単な説明】
【図1】実施例に係るパチンコ機の概略構成を示す外観図である。
【図2】実施例に係るパチンコ機の機能ブロック図である。
【図3】3次元画像処理部の機能ブロック図である。
【図4】パチンコ機の制御基盤での処理を示すフローチャートである。
【図5】パチンコ機の画像表示装置での処理を示すフローチャートである。
【図6】ワールド座標系に複数個のオブジェクトを配置した様子を示す図である。
【図7】注目点を設定した様子を示す図である。
【図8】注目点に基づいて、視点を設定するまでの様子を示す図である。
【図9】ワールド座標系における投影平面と複数個のオブジェクトとの様子を示す図である。
【図10】表示画面にオブジェクトの画像が表示された様子を示す図である。
【図11】パチンコ機におけるリーチの流れを示すフローチャート図である。
【図12】リーチ時に識別図柄が一旦停止するまでの様子を示す図である。
【図13】一旦停止した識別図柄が奥に向かって動きだした様子を示す図である。
【図14】手前側に戻ってきた識別図柄が表示画面にぶつかる様子を示す図である。
【図15】大当たりの識別図柄が確定した様子を示す図である。
【図16】リーチ時に識別図柄を表示するためのオブジェクトが一旦停止するまでの様子を示す図である。
【図17】一旦停止したオブジェクトが奥に向かって動きだした様子を示す図である。
【図18】投影平面を揺動させた様子を示す図である。
【図19】オブジェクトを平行投影および透視投影した様子を示す図である。
【図20】オブジェクトを投影平面に対して移動させた様子を示す図である。
【図21】表示画面における一表示態様を示す図である。
【図22】ポリゴンとテクスチャとの様子を示す図である。
【図23】ポリゴンをワールド座標系内に配置した様子を示す図である。
【図24】ポリゴンを投影平面に投影した様子を示す図である。
【図25】変形させたテクスチャにマスクパターンを作用させる様子を示す図である。
【図26】複数種類のマスクパターンを示す図である。
【図27】変形例における一表示態様を示す図である。
【符号の説明】
1 … 制御基盤
6 … 液晶モニタ
6a… 表示画面
7 … 画像表示装置
18 … キャラクタ記憶部
19 … 3次元画像処理部
20 … 画像記憶部
22 … プログラムROM
J1〜J9 … オブジェクト
A … 表示画面における上段領域
B … 表示画面における中段領域
C … 表示画面における下段領域
A1〜A9 … 上段領域に表示される識別図柄
B1〜B9 … 中段領域に表示される識別図柄
C1〜C9 … 下段領域に表示される識別図柄
SP … 視点
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a gaming machine such as a pachinko machine, a slot machine, or a coin gaming machine, and more particularly to a technique for displaying a three-dimensional image.
[0002]
[Prior art]
For example, there is a pachinko machine that is generally known as this type of gaming machine. This pachinko machine has two game states, a jackpot state that is advantageous for a player who can acquire a large number of pachinko balls and a normal state that is disadvantageous for a player who consumes pachinko balls. In any state, in order to perpetuate the interest of the player, a realistic display mode is displayed according to the game state. In particular, the display mode in the normal state includes a normal variation in which the player simply moves the identification symbol, which is a two-dimensional image for identifying the gaming state, and an identification symbol to make the player feel the occurrence of the jackpot state. With reach to move. In each of these display modes, for example, the player can feel a sense of realism by enlarging, reducing, or moving an identification symbol, which is a two-dimensional image drawn using a perspective method, on the display screen. I am doing so.
[0003]
[Problems to be solved by the invention]
However, the conventional pachinko machine described above has the following problems.
In conventional pachinko machines, a display mode in which the identification symbol is moved in the depth direction of the display screen by gradually expanding or reducing the identification symbol, which is a two-dimensional image, is realized as a whole. There is a problem that the player cannot feel a sense of reality due to lack of feeling. Therefore, in recent years, an attempt has been made to display an identification symbol as a three-dimensional image using an object formed by a plurality of polygons. Specifically, an object is arranged in a virtual three-dimensional space that is a three-dimensional coordinate space, and the object is moved in the virtual three-dimensional space. A state in which the object moves is projected on a projection plane set based on a given viewpoint in the virtual three-dimensional space. Furthermore, a display image including, for example, an identification pattern, which is a three-dimensional image of the object, is generated by pasting a texture that is an image in which an identification pattern is drawn on the object projected onto the projection plane. By sequentially displaying the display images generated one after another in this manner on the display screen, a state in which, for example, an identification symbol that is a three-dimensional image moves within the display screen is displayed.
[0004]
However, as described above, simply moving an object in the virtual three-dimensional space results in a monotonous display mode in which the three-dimensional image of the object simply moves on the display screen, and the player's fun is perpetuated. There is a problem that cannot be made.
[0005]
The present invention has been made in view of such circumstances, and realizes a realistic display mode by linking an object in a virtual three-dimensional space with a projection plane on which the object is projected. It is an object of the present invention to provide a gaming machine capable of lasting the fun of the player.
[0006]
[Means for Solving the Problems]
In order to achieve such an object, the present invention has the following configuration.
The configuration of the present invention arranges an object arranged in a virtual three-dimensional space, projects the object onto a projection plane set based on a line of sight from a given viewpoint in the virtual three-dimensional space , and Image storage means for storing a display image for at least one screen generated based on an image projected on the projection plane, and image display means for outputting and displaying the display image stored in the image storage means on a display device In the gaming machine provided , the image display means is an object that is projected in parallel to the projection plane and causes the object that is arranged at a first position separated from the projection plane by a first distance in the depth direction to perform a predetermined operation. An operating means, a first projection method switching means for switching the projection method of the object arranged at the first position from the parallel projection to the perspective projection, and the first position are arranged. A first object moving means for moving the perspective projection object in the direction of the projection plane and stopping at a second position closer to the projection plane than the first position; and the perspective projection object from the second position A second object moving means for moving to a predetermined position separated by a predetermined distance in the depth direction, and the projection plane is swung and displaced in a predetermined direction at a timing when the object is moved to the second position based on the first object moving means. And the swing displacement is maintained while the object moves from the second position to the predetermined position based on the second object moving means, and the swing displacement is performed when the object moves to the predetermined position. Projection plane swinging means for ending the projection, and a method for projecting the object arranged at the predetermined position And it is characterized in that displaying a rocking display image generated by the second projection method switching means for switching the parallel projection from the perspective projection on the display device. In addition, if the structure of this invention is the structure 1, this invention can also be comprised as follows.
According to a second aspect of the present invention, in the gaming machine according to the first aspect, the image storage means includes a plurality of storage areas for storing display images for the one screen, and the image display means A gaming machine that selects one of a plurality of storage areas and outputs a display image stored in the selected storage area to the display device.
[0007]
Configuration 2 is a game machine according to Configuration 1, wherein the projection plane swinging means swings the line of sight about the viewpoint and swings and displaces a projection plane set based on the line of sight. Machine. According to this configuration, the projection plane swinging means swings the line of sight around the viewpoint. The projection plane set based on the line of sight is swung and displaced along with the line of sight. That is, the projection plane is oscillated and displaced about the viewpoint. As a result, it is possible to realize a realistic display mode as compared with the case where the projection plane is simply oscillated and displaced in a plane including the projection plane, and the player's interest can be made permanent.
[0008]
Configuration 3 is a gaming machine according to Configuration 1 or Configuration 2, wherein the object moving means further retreats the object moved to just before the projection plane to a predetermined position. According to this configuration, the object moving means first moves the object just before the projection plane. Here, the projection plane swing means swings and displaces the projection plane. Then, the object moving means retracts the object that has been moved just before the projection plane that is rockingly displaced to a predetermined position. As a result, it is displayed on the display means as if the object that collided with the display screen bounced back, and a more realistic display mode can be realized, and the player's interest can be made more permanent.
[0009]
Configuration 4 is the gaming machine according to Configuration 3, wherein the projection plane swinging unit is configured to perform the projection while the object moved to just before the projection plane by the object moving unit is retracted to a predetermined position. This is a gaming machine that continues to swing and displace the plane. According to this configuration, the projection plane swinging means continues to swing and displace the projection plane while the object is retracted by the object moving means. As a result, since the object that collided with the display screen is rebounded while the display screen is shaking, the display means realizes a more realistic display mode and makes the player more interesting. Can be permanent.
[0010]
Configuration 5 is the gaming machine according to Configuration 4, wherein the projection unit perspectively projects an object up to the predetermined position onto the projection plane, while projecting the object retracted up to the predetermined position. It is a gaming machine that projects parallel to a plane. According to this configuration, the projecting unit perspectively projects the object up to the predetermined position on the projection plane. Thereby, the image of the object viewed from the viewpoint is displayed on the display screen. On the other hand, the projecting means projects the object retracted to a predetermined position in parallel on the projection plane. Thereby, the image of the object viewed from the projection plane is displayed on the display screen. As a result, when the object is moving with respect to the projection plane, it is displayed in a state where there is a stereoscopic effect, and when the object moves backward and stops, it is displayed in a state where the player can easily identify. It can make the fun of lasting.
[0011]
In Configuration 6, the gaming machine according to any one of Configurations 1 to 5 is a pachinko machine. As a basic configuration of this pachinko machine, an operation handle is provided, and a game ball is launched into a predetermined game area in accordance with the operation of the handle, and the game ball is awarded to an operation port arranged at a predetermined position in the game area. As a necessary condition, the change of the identification symbol and the auxiliary symbol on the display means is mentioned. In addition, during the occurrence of a specific gaming state, a winning opening arranged at a predetermined position in the gaming area is opened in a predetermined manner so that a gaming ball can be won, and a valuable value according to the winning number (only a prize ball) In addition, writing to a magnetic card is also included. As a result, the interest of the player who plays the pachinko machine can be made permanent.
[0012]
Configuration 7 is a pachinko machine according to configuration 6, wherein the object is an object for displaying an identification symbol for identifying a gaming state of the pachinko machine. According to this configuration, on the display means, the identification symbol for identifying the gaming state of the pachinko machine is displayed by the object. As a result, the variation of the identification pattern according to the movement of the object described above is displayed, and the interest of the player who plays the pachinko can be made permanent. Note that the gaming state of the pachinko machine includes a normal state in which the player consumes pachinko balls and a jackpot state in which the player can acquire a large number of pachinko balls. Furthermore, in the normal state, the normal variation that is a display mode in which the identification symbol for the player to identify the gaming state simply varies, and the reach that is the display mode in which the identification symbol varies as if a jackpot state occurs There is. Reach is a display mode in which a predetermined number of identification symbols related to reach among a plurality of identification symbols fluctuate as if they are the same type vertically, horizontally or diagonally. As a result, it is possible to realize an interesting display mode in which a plurality of identification symbols move toward the display screen and reach the display screen at the time of reach, so that the interest of the player who plays the pachinko machine is made permanent. Can do.
[0013]
[Action]
The operation of the present invention is as follows.
The second object moving means moves the object arranged at the first position separated by the first distance in the depth direction from the projection plane in the virtual three-dimensional space immediately before the projection plane (that is, the second position close to the projection plane). ) Until the projection plane is moved. Projection plane rocking means, when the object until immediately before the projection plane (second position close to the projection plane) comes moved, together with the swinging displacement of the projection plane of the immediately preceding object in a predetermined direction, the second The swing displacement is maintained while the perspective projection object moves from the second position to the predetermined position in the depth direction based on the object moving means, and the swing displacement ends when the object moves to the predetermined position . The projection unit perspectively projects the object on a projection plane that is oscillated and displaced. In other words, the object viewed from the viewpoint is projected onto the projection plane that has been displaced in a swinging manner. The display image generation unit generates a display image including an image of the object projected on the projection plane. The display means sequentially displays the display image, thereby displaying a display mode in which the object that has moved toward the display screen collides with the display screen, and the display screen is shaken by the recoiled reaction.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below with reference to the drawings.
A pachinko machine will be described as an example of a gaming machine equipped with an image display device. FIG. 1 is a front view showing a schematic configuration of a pachinko machine according to the present embodiment, FIG. 2 is a functional block diagram showing a schematic configuration of a control board and an image display device provided in the pachinko machine, and FIG. 3 is an image display device. It is a functional block diagram which shows schematic structure of the three-dimensional image process part in FIG.
[0015]
The pachinko machine according to this embodiment includes a game board 2 provided with a control board 1 (see FIG. 2) for controlling the entire pachinko machine, a frame 3 to which the game board 2 is attached, and a lower side of the game board 2. An upper receiving tray 4 provided, a rotary handle 5 connected to an unillustrated launching device for launching pachinko balls stored in the upper receiving tray 4 to the surface of the game board 2, and a lower provided on the lower side of the upper receiving tray 4 A display screen 6a of the liquid crystal monitor 6 for displaying a receiving tray 8, an identification symbol for identifying the gaming state by the player, and a symbol other than the identification symbol that is displayed to enhance the effect in the gaming state is a board surface of the gaming board 2 And an image display device 7 (see FIG. 2) mounted so as to be arranged at substantially the center. On the display screen 6a, one or a plurality of identification symbols and changes in auxiliary symbols (movement, rotation, deformation, etc.) on the background on which a predetermined pattern is drawn are displayed according to the gaming state in the gaming machine. The pachinko machine has two types of game states, a jackpot state in which the player can acquire a large number of pachinko balls and a normal state in which the player consumes the pachinko balls. In the normal state, a normal variation that is a display mode in which a plurality of identification symbols simply change, and a reach that is a display mode as if a big hit state occurs regardless of whether or not a big hit state has occurred are displayed. The On the other hand, in the jackpot state, auxiliary symbols are mainly displayed, and a different display mode is displayed for each round. In addition, when a game is not performed in the pachinko machine, a demonstration or the like is displayed. Here, the identification symbol refers to the image of a symbol number or symbol number attached to allow the player to recognize the gaming state such as jackpot or reach in the pachinko machine, and the auxiliary symbol is a jackpot or reach etc. The symbol other than the identification symbol displayed in order to enhance the effect.
[0016]
The game board 2 includes a rail 2a for guiding a pachinko ball launched by the rotary handle 5 to the board surface, a plurality of non-illustrated nails that guide the pachinko ball to unspecified places, and a pachinko ball that has been induced by the nail. A plurality of winning holes 2b for winning, a starting hole 2c for winning a pachinko ball guided near the center of the game board 2, and a relatively large number of pachinko balls to be awarded at a time in a specific gaming state. And a large winning opening 2d that can be used. A winning detection sensor 11 (see FIG. 2) for detecting the entrance of a pachinko ball is provided in each winning opening 2b, start opening 2c, and large winning opening 2d. When the winning detection sensor 11 detects the entrance of the pachinko ball, a predetermined number of pachinko balls are supplied to the upper tray 4 by the control board 1 provided in the game board 2. A start start sensor 12 (see FIG. 2) is provided in the start port 2c. Furthermore, an open / close solenoid 13 (see FIG. 2) is provided at the special winning opening 2d. The operation of the open / close solenoid 13 allows the special winning opening 2d to be closed. In addition to what has been described above, for example, a holding lamp or the like for storing the number of pachinko balls that have entered the start port 2c is provided, but description thereof is omitted in this embodiment.
[0017]
The upper receiving tray 4 has a receiving tray shape, and stores the pachinko balls supplied from the ball supply port 4a to which the pachinko balls are supplied. Further, on the opposite side of the upper tray 4 where the ball supply port 4a is disposed, a ball feed port (not shown) that communicates with a launching device that launches a pachinko ball toward the rail 2a is provided. Furthermore, a ball removal button 4b for transferring the stored pachinko balls to the lower tray 8 is provided at the upper part of the upper tray 4 and the pachinko balls stored in the upper tray 4 are pressed by pressing this ball removal button 4b. Can be transferred to the lower tray 8. The lower receiving tray 8 has a receiving tray shape and receives a pachinko ball transferred from the upper receiving tray 4. In addition, the lower tray 8 is provided with a ball removal lever (not shown) for removing the pachinko balls stored therein.
[0018]
The rotary handle 5 is connected to a launching device that launches a pachinko ball toward the rail 2a. By rotating the rotary handle 5, the launching device launches a pachinko ball with a strength corresponding to the amount of rotation. Note that when the player holds the rotary handle 5 in a rotated state, the launching device launches one pachinko ball at a predetermined interval.
[0019]
As shown in FIG. 2, the control board 1 provided in the game board 2 includes a main control unit 16 that is a microcomputer including a memory and a CPU, and a counter 14 that outputs a value that determines a gaming state in the gaming machine. A start start sensor 12 for detecting the entrance of a pachinko ball at the start port 2c (see FIG. 1), a winning detection sensor 11 for detecting the entrance of the pachinko ball at the winning port 2b (see FIG. 1), and a big prize An open / close solenoid 13 that opens and closes the mouth 2d (see FIG. 1), an I / F (interface) 15 that is connected to an I / F (interface) 17 of the image display device 7 so that information can be distributed, and the like. Yes. The control board 1 supplies a predetermined amount of pachinko balls based on the detection of the ball detection sensors at the winning opening 2b and the start opening 2c described above, and executes various events for operating a lamp and a speaker (not shown). Is. In addition, the control board 1 transmits various commands for instructing a display mode according to the gaming state to the image display device 7 through the I / F 15.
[0020]
Specifically, the processing performed in the control board 1 will be described in detail with reference to the flowchart shown in FIG.
Step S1 (detects the incoming ball)
A player drives a pachinko ball into the game board 2 with the rotary handle 5 and starts a pachinko game. A part of the pachinko balls driven into the game board 2 are led to the vicinity of the center of the board surface and enter the starting port 2c. When the pachinko ball enters the start port 2c, the start sensor 12 that detects the ball that has entered the start port 2c sends a start signal to the main control unit 16 and also receives a prize provided in the start port 2c. The detection sensor 11 sends a winning signal to the main control unit 16. In this embodiment, the start sensor 12 and the winning detection sensor 11 are used together by the same sensor. Even when a pachinko ball enters the winning opening 2b, the winning detection sensor 11 of each winning opening 2b sends a winning signal to the main control unit 16.
[0021]
Step S2 (supplying pachinko balls)
When detecting a winning signal from the winning detection sensor 11, the main control unit 16 operates a pachinko ball supply mechanism (not shown) to supply a predetermined amount of pachinko balls to the upper tray 4 through the ball supply port 4a.
[0022]
Step S3 (Lottery lottery)
When the main controller 16 detects a start signal from the start sensor 12, the main controller 16 reads the output value of the counter 14 and performs a lottery lottery. In the big hit lottery, if the output value of the counter 14 is a predetermined value, “big hit” is generated. On the other hand, if the output value of the counter 14 is other than the predetermined value, the normal gaming state of “out of” is continued.
[0023]
Step S4 (send command)
The main control unit 16 determines a display mode according to the normal gaming state or a specific gaming state, and transmits a command according to the display mode to the image display device 7 via the I / F 15. The command is an instruction for causing the image display device 7 to execute a predetermined display program, and a display pattern corresponding to the gaming state is displayed on the display screen 6a by executing the display program. For example, in the case of a jackpot, the main control unit 16 transmits a command instructing the start of a predetermined reach, and a command instructing the type of jackpot identification symbol to be stopped at the final stage of the reach after a predetermined time has elapsed. Send. As a result, the reach of the type designated by the command is displayed on the display screen 6a of the image display device 7 and then displayed so as to stop at the jackpot identification symbol of the type designated by the command. At this time, the main control unit 16 gives a release signal to the open / close solenoid 13 to open the big winning opening 2d after the stop of the jackpot identification symbol is displayed on the display screen 6a, so that the player has a number of players. Make the pachinko ball ready. Further, in this gaming state, the control board 1 gives, for example, that about 10 balls have won a prize winning opening 2d as one round, and each round ends or the start of the next round is instructed. The command is transmitted to the image display device 7. Thereby, the display mode of a different pattern for every round is displayed on the display screen 6a. On the other hand, in the case of losing, a command for instructing the type of identification symbol of losing to be stopped at the final stage of reach, or a command for stopping the identification symbol that is fluctuated in the normal gaming state with the identifying symbol of losing. It transmits to the image display device 7. As a result, the display screen 6a is displayed so as to stop at the losing identification symbol after displaying the reach, or to stop at the losing identification symbol after normal fluctuation.
[0024]
Step S5 (new entry detection?)
The main control unit 16 waits until it detects the presence or absence of a new start signal from the start sensor 12 (new entry). If there is no new start signal, this process is terminated and the process waits until a new start signal is detected. The control board 1 that executes the above-described steps S1 to S5 corresponds to a game state generating means. Note that the start-up sensor 12 detects the entrance of the pachinko ball during the variation of the identification symbol (reach, normal variation, etc.), and stores the number of the pachinko balls that have entered the hold lamp, which is omitted from the above description. If it is, the lighting of the holding lamp is detected as a new start signal. If there is a new start signal, steps S2 to S4 are repeated.
[0025]
As shown in FIG. 2, the image display device 7 includes an I / F 17 that receives a command sent from the control board 1, and a 3D that is arranged in a world coordinate system that is a virtual 3D space based on the command. A character storage unit 18 that stores an object that is information, a texture that is a pattern image of the object, and a background image, and a program corresponding to the received command is executed to set the object in the world coordinate system, and the object A three-dimensional image processing unit 19 that generates a display image with a texture attached thereto, an image storage unit 20 that temporarily stores the display image generated by the three-dimensional image processing unit 19, and a liquid crystal monitor that displays the display image 6 is provided. The world coordinate system is a three-dimensional coordinate system corresponding to the virtual three-dimensional space in the present invention. An object is a three-dimensional virtual object arranged in the world coordinate system, and is three-dimensional information composed of a plurality of polygons. A polygon is a polygonal plane defined by vertices of a plurality of three-dimensional coordinates. A texture is an image that is pasted on each polygon of an object, and by pasting a texture on the object, an image corresponding to the object, for example, a display image including an identification symbol, an auxiliary symbol, and a background is generated.
[0026]
The I / F 17 is connected to the I / F 15 of the control board 1 so as to be able to distribute information, and receives commands sent from the control board 1. The I / F 17 sequentially passes the received commands to the three-dimensional image processing unit 19.
[0027]
The character storage unit 18 is a memory that stores an object that is three-dimensional information that is appropriately read from the three-dimensional image processing unit 19 and a texture that is a two-dimensional image of the object. Specifically, the character storage unit 18 displays a jackpot identification pattern such as a fish or octopus texture, a round display pattern texture indicating the number of jackpot rounds, and a presentation effect during the round. Along with various textures such as a texture of a sea turtle pattern, a plurality of types of objects composed of one or a plurality of polygons to which each texture is pasted are stored. Further, the character storage unit 18 also stores a background image on which, for example, a seabed coral reef pattern is displayed as the background of the display screen 6 a of the liquid crystal monitor 6. The data of each object, texture, and background image is appropriately read out by the three-dimensional image processing unit 19 when the display image is generated.
[0028]
The three-dimensional image processing unit 19 includes a CPU (central processing unit) that controls and manages the entire image display device, a memory that appropriately stores calculation results in the CPU, an image data processor that generates an image to be output to the liquid crystal monitor 6, and the like. It is what is done. In order to realize a display mode according to the command, the three-dimensional image processing unit 19 includes a viewpoint and character storage unit 18 in a world coordinate system that is a three-dimensional coordinate system corresponding to the virtual three-dimensional space of the present invention. Various read-out objects are arranged, and so-called geometry calculation processing is performed in which the objects are changed or the viewpoint is displaced. Also, projection information that is two-dimensional coordinate information obtained by projecting an object in the world coordinate system onto a projection plane based on the line of sight from the viewpoint is generated. Based on the projection information, a position corresponding to the vertex of each polygon of each object in the frame memory provided in the image storage unit 20, that is, an address in the frame memory is obtained. Then, the texture read from the character storage unit 18 is deformed so as to match the vertex of each polygon of each object, and the texture is drawn based on each address in the frame memory. At this time, if the texture is a texture to be attached to an object of an identification symbol that disappears from the display screen 6a, the texture is made translucent by a predetermined mask pattern. When the drawing of the texture on all objects is completed, a display image is generated in the frame memory of the image storage unit 20 and the display image is output to the liquid crystal monitor 6. As will be apparent from the following description, the three-dimensional image processing unit 19 corresponds to an object moving unit, a projection plane swinging unit, a projecting unit, and a display image generating unit in the present invention.
[0029]
The three-dimensional image processing unit 19 is configured as follows, for example. Hereinafter, an example of the three-dimensional image processing unit 19 will be described in detail with reference to FIG.
As illustrated in FIG. 3, the three-dimensional image processing unit 19 includes a CPU 21, a program ROM 22 that stores a program executed by the CPU 21, a work RAM 23 that stores data obtained by executing the program, and an instruction from the CPU 21. A DMA 24 that collectively transfers data stored in the work RAM 23, an I / F 25 that receives data transferred by the DMA 24, and a geometry calculation processing unit 26 that performs coordinate calculation processing based on the data received by the I / F 25 A rendering processing unit 27 that generates a display image based on data received by the I / F 25, a palette processing unit 28 that appropriately supplies color information based on a plurality of types of color palettes to the rendering processing unit 27, and an image storage unit A plurality of frame memories provided in 20 A selector unit 29 for switching, and a video output section 30 for outputting to the liquid crystal monitor 6 to display images. The CPU 21, the program ROM 22, the work RAM 23, the DMA 24, and the I / F 25 are connected to the same data bus, and the character storage unit 18 that stores objects, textures, and the like is independent of the data bus described above. It is connected to the geometry calculation processing unit 26 and the rendering processing unit via a data bus.
[0030]
The program ROM 22 is a program that is first executed by the CPU 21 when the gaming machine is powered on, a plurality of types of programs for displaying according to the types of commands sent from the control board 1, and map data The data of the mask pattern for making the color palette and the texture translucent are stored. For example, a program for performing display sets an object and a viewpoint in the world coordinate system in order to realize a display mode according to a command by referring to a prepared table or performing arithmetic processing on the referenced data. Setting information for deriving is derived. The display program includes not only a program that is executed alone, but also a program that generates a task for performing display according to the type of command by combining a plurality of tasks, for example. The setting information includes the coordinate value for placing the object in the world coordinate system, the rotation angle that indicates the posture of the object placed in the world coordinate system by the amount of rotation from the reference posture of the object, The coordinate value for setting the viewpoint in the world, the rotation angle for rotating the line of sight in order to set the line of sight of the viewpoint in the world coordinate system (for example, the z axis) in a predetermined direction, the object, texture, and background stored in the character storage unit 18 It is information for generating a display image for one screen to be displayed on the display screen 6a as well as information including various data such as storage addresses of images and the like.
[0031]
The CPU 21 is a central processing unit that manages and controls the entire image display device 7 using a control program stored in the program ROM 22, and mainly executes a program corresponding to a command sent from the control board 1. In order to display a predetermined display mode on the display screen 6a, processing for setting an object and a viewpoint in the world coordinate system is performed. Specifically, the CPU 21 sequentially writes setting information obtained by executing a display program for performing display corresponding to the command in accordance with the type of command received by the I / F 17 to the work RAM 23, The DMA 24 is instructed to transfer setting information in the work RAM 23 at every interrupt processing interval (for example, 1/30 seconds or 1/60 seconds).
[0032]
The work RAM 23 temporarily stores setting information that is an execution result obtained by the CPU 21. The DMA 24 is a so-called direct memory access controller that can transfer the data stored in the work RAM 23 without the processing in the CPU 21. That is, the DMA 24 collectively transfers the setting information stored in the work RAM 23 to the I / F 25 based on the transfer start instruction from the CPU 21.
[0033]
The I / F 25 receives the setting information transferred by the DMA 24. The I / F 25 performs coordinate operations such as the storage address of the object stored in the character storage unit 18 included in the setting information, the arrangement coordinate value for arranging the object in the world coordinate system, and the arrangement coordinate value for setting the viewpoint. Is supplied to the geometry calculation processing unit 26, and data of a storage address such as a texture stored in the character storage unit 18 included in the setting information to be image drawn is supplied to the rendering processing unit 27. Further, the I / F 25 gives the palette processing unit 28 a color palette for instructing the hue of the texture included in the setting information.
[0034]
The geometry calculation processing unit 26 performs coordinate calculation processing accompanying movement or rotation of a three-dimensional coordinate point based on data given from the I / F 25. Specifically, the geometry calculation processing unit 26 reads out an object composed of a plurality of polygons arranged in the local coordinate system based on the storage address of the object stored in the character storage unit 18. Then, based on the coordinate value where the object with the posture rotated based on the rotation angle data is arranged, the coordinate value of each polygon of the object in the world coordinate system when arranged in the world coordinate system is calculated. Here, the local coordinate system is an object-specific coordinate system in which an object having a reference posture is set. Further, the coordinate value of each polygon of the object in the viewpoint coordinate system based on the viewpoint set based on the coordinate value of the viewpoint and the rotation angle is calculated. Furthermore, projection information including two-dimensional coordinate values of each polygon of the object on the projection plane when the object is projected onto the projection plane set perpendicular to the line of sight based on the viewpoint is calculated. Then, the geometry calculation processing unit 26 gives the projection information to the rendering processing unit 27.
[0035]
The palette processing unit 28 includes a palette RAM (not shown) that stores a plurality of types of color palettes composed of a plurality of types of color information written by the CPU 21, and the color palette data instructed from the CPU 21 through the I / F 25. This is given to the rendering processing unit 27. Giving a color palette means giving the storage address of the color palette stored in the palette RAM, for example, to the rendering processing unit 27, and the rendering processing unit 27 stores the display image when the display image is generated. Refer to color information. Each color information is determined by a combination of red (R), green (G), and blue (B). When the color palette data size is, for example, 16 bits, each value of 0 to 15 is used. Is assigned predetermined color information. Further, each data of the color palette, that is, each palette is assigned to each dot constituting the texture, and the entire texture is drawn by drawing each dot with the color information of each palette. It should be noted that by sequentially changing the color information assigned to each palette of this color palette, it is possible to generate a plurality of types of textures having different hues in stages.
[0036]
The rendering processing unit 27 first reads a background image based on a storage address where the background image in the character storage unit 18 is stored, and draws the background image in a frame memory provided in the image storage unit 20. Then, each polygon of the object based on the projection information is expanded in the frame memory. Furthermore, the rendering processing unit 27 renders the texture read from the character storage unit 18 on an area corresponding to each polygon in the frame memory based on the texture storage address in the character storage unit 18 and the data of the color palette. . At this time, if an identification symbol to be erased from the display screen 6a is drawn, the rendering processing unit 27 partially thins out the texture color information with the mask pattern instructed by the CPU 21 to make it translucent. As a result, a display image in which images of symbols corresponding to various objects are drawn on the background image is generated in the frame memory. This display image is a display image having a predetermined aspect ratio, for example, an aspect ratio of 3: 4, depending on the capacity of the frame memory. In the above-described geometry calculation processing unit 26 and rendering processing unit 27, clipping processing for determining a portion to be displayed on the screen, hidden surface processing for determining a visible portion and an invisible portion according to the front-rear relationship of the polygon, and light from the light source Processing such as shading calculation processing for calculating the state of hitting and the state of reflection is also performed as appropriate.
[0037]
The selector unit 29 selects a plurality of frame memories as appropriate. Specifically, the selector unit 29 is, for example, a first frame memory or a second frame memory, which is a plurality of frame memories provided in the image storage unit 20 when an image is drawn by the rendering processing unit 27 described above. Select one of the frame memories. In this case, a display image is generated in the selected frame memory. On the other hand, the selector unit 29 reads a display image for which a display image has already been generated from the frame memory on the side where drawing has not been performed, and sends the display image to the video output unit 30. The selector unit 29 sequentially switches between the reading-side frame memory and the drawing-side frame memory. The video output unit 30 converts the display image sent from the selector unit 29 into a video signal and outputs the video signal to the liquid crystal monitor 6.
[0038]
The image storage unit 20 is a so-called video RAM that stores a display image generated by the rendering processing unit 27. The image storage unit 20 constitutes a so-called double buffer provided with a first frame memory and a second frame memory which are storage areas for storing display images for one screen, for example. Note that the number of frame memories provided in the image storage unit 20 is not limited to two, and may be any number as long as it is one or more.
[0039]
The liquid crystal monitor 6 includes a screen 6 a that displays a display image output from the video output unit 30, and is attached so that the screen 6 a is exposed on the board surface of the game board 2. The display screen 6a is, for example, a so-called wide screen with an aspect ratio of 9:16, and the liquid crystal monitor 6 uses the display image output from the video output unit 30 with an aspect ratio of 3: 4 as the aspect ratio of the display screen 6a. In addition, the display image is displayed on the display screen 6a. The liquid crystal monitor 6 also has a function of displaying a display image having an aspect ratio of 3: 4 as it is, and appropriately changes the aspect ratio of the display image displayed on the display screen 6a according to the gaming state. You can also. The liquid crystal monitor 6 corresponds to display means in the present invention.
[0040]
Processing performed in the above-described image display device 7 will be described with reference to the flowchart shown in FIG.
[0041]
Step T1 (Understanding commands)
The I / F 17 sequentially receives commands sent from the control board 1 and sequentially passes the commands to the three-dimensional image processing unit 19. The three-dimensional image processing unit 19 stores the command in a command buffer (not shown) provided in the work RAM 23. Further, each time there is an interrupt process from the liquid crystal monitor 6, the three-dimensional image processing unit 19 reads a command stored in the command buffer and executes a program in the program ROM 22 corresponding to the command to execute one screen worth. Display images are sequentially generated. By executing the program, the following steps are executed in the three-dimensional image processing unit 19. The interrupt process described above is performed in synchronization with, for example, a vertical scanning signal every 1/30 seconds or 1/60 seconds of the liquid crystal monitor 6.
[0042]
Step T2 (Set viewpoint in world coordinate system)
The three-dimensional image processing unit 19 sets an attention point for determining an area in the world coordinate system to be displayed on the display screen. This point of interest is set at a position that substantially matches the arrangement position of a specific object arranged in the world coordinate system, for example. Furthermore, a viewpoint for displaying the state in the world coordinate system on the display screen 6a of the liquid crystal monitor 6 is set based on the attention point. This viewpoint is the origin of the three-dimensional coordinate system, and is set so that the direction of the line of sight from the viewpoint faces the point of interest. The line of sight is, for example, the z-axis of the coordinate system with the viewpoint as the origin. A coordinate system centered on this viewpoint is called a viewpoint coordinate system. Hereinafter, a concept and a specific calculation method until a viewpoint having a line of sight directed to the attention point is set in the world coordinate system will be described.
[0043]
When a plurality of identification symbols are displayed on the display screen 6a, a plurality of objects OJ1 to OJ6 are arranged at respective arrangement positions in the world coordinate system as shown in FIG. The three-dimensional image processing unit 19 obtains the coordinate values (WP x , WP y , WP z ) of the arrangement position WP in the world coordinate system of the object OJ3 for displaying the identification symbol displayed near the center of the display screen 6a. Ask. For example, in the case of the pachinko machine of this embodiment, the coordinate value of the arrangement position WP is obtained by referring to the coordinate value of the world coordinate system prepared in advance in the program. For example, in the case of a gaming machine other than a pachinko machine, it is obtained based on an input signal from an input means such as a controller. The three-dimensional image processing unit 19 sets the coordinate values (WP x , WP y , WP z ) of the arrangement position WP as the coordinate values of the attention point.
[0044]
As shown in FIG. 7, the three-dimensional image processing unit 19 sets a new three-dimensional coordinate system with the attention point arrangement position WP as the origin O in the world coordinate system. Then, as shown in FIG. 8A, the new three-dimensional coordinate system is rotated around each two-dimensional axis of the new three-dimensional coordinate system. For example, a new three-dimensional coordinate system is rotated by θ x ° about the x axis and θ y ° about the y axis. For example, in the case of the pachinko machine of this embodiment, the rotation angles θ x ° and θ y ° are obtained by referring to rotation angle data prepared in advance in the program. For example, in the case of a gaming machine other than a pachinko machine, it is obtained based on an input signal from an input means such as a controller. As a result, as shown in FIG. 8B, the z-axis, which is another one-dimensional axis of the new coordinate system, is displaced according to the center of the point of interest, and the z-axis faces an arbitrary direction. Further, as shown in FIG. 8C, the distance L from the point of interest on the z-axis of the new three-dimensional coordinate system is based on the data of the distance L from the point of interest to the viewpoint given in advance. The new coordinate system is moved to the arranged position P 0 . At this time, the z-axis of the new three-dimensional coordinate system is moved so as to face the point of interest. In this embodiment, the direction of the line of sight is described as being on the positive side of the z axis, but the present invention is not limited to this. For example, the direction of the line of sight may be on the negative side of the z axis. it can. In this embodiment, the arrangement position WP of the attention point is made to coincide with the arrangement position of the object J, but the present invention is not limited to this. For example, the arrangement position WP of the attention point is set to an arbitrary position. be able to. Specifically, the three-dimensional image processing unit 19 performs the coordinate value of the above-described attention point arrangement position WP, the rotation angles θ x and θ y around each axis of the new coordinate system, and the distance L from the attention point. Are substituted into the following equation (1).
[0045]
(P 0X, P 0Y, P 0Z) = (Lsinθ y cosθ x + WP x, Lsinθ x + WP y, Lcosθ y cosθ x + WP z) ... (1)
[0046]
The three-dimensional image processing unit 19 calculates the coordinate values (P 0X , P 0Y , P 0Z ) in the world coordinate system of the origin O of the three-dimensional coordinate system in which the target point is on the z axis by the above-described equation (1). Then , the new three-dimensional coordinate system is moved to the arrangement position P 0 of the world coordinate system specified by the coordinate values (P 0X , P 0Y , P 0Z ). A new three-dimensional coordinate system at the arrangement position P 0 of the world coordinate system is set as a viewpoint SP having a line of sight facing the point of interest. A state in the world coordinate system in the direction in which the line of sight from the viewpoint SP is directed is displayed on the display screen 6 a of the liquid crystal monitor 6. By rotating the viewpoint coordinate system by a predetermined angle around the x-axis and y-axis of the viewpoint coordinate system centered on the viewpoint SP, the line of sight (z-axis) is oscillated according to the rotation angle around each axis. Can be made. Thereby, the projection plane described later can be arbitrarily swung and displaced.
[0047]
Step T3 (place and change objects)
The three-dimensional image processing unit 19 reads out the objects OJ1 to OJ6 for displaying a plurality of identification symbols on the display screen 6a from the character storage unit 18, respectively. Then, as shown in FIG. 9, the three-dimensional image processing unit 19 uses the world coordinates in accordance with the coordinate values based on the coordinate values (P 0X , P 0Y , P 0Z ) of the arrangement position P 0 of the viewpoint SP. seeking the coordinate values in the system, arranged respectively each object OJ1~OJ6 them to each position P 1 to P 6 based on each coordinate value. The three-dimensional image processing unit 19 calculates the data of the portion represented by ΔP of the coordinate value of the arrangement position of each object, or refers to the data prepared in advance in the program ROM 22 and the value of ΔP and the viewpoint A coordinate value in the world coordinate system is obtained from the coordinate value of the SP.
[0048]
Specifically, the object OJ1 is placed at the placement position P 1 (P 0X + ΔP 1X , P 0Y + ΔP 1Y , P 0Z + ΔP 1Z ) in the world coordinate system, and the placement position P 2 (P 0X + ΔP 2X , P 0Y + ΔP 2Y , The object OJ2 is located at P 0Z + ΔP 2Z ), the object OJ3 is located at the placement position P 3 (P 0X + ΔP 3X , P 0Y + ΔP 3Y , P 0Z + ΔP 3Z ), and the placement position P 4 (P 0X + ΔP 4X , P 0Y + ΔP 4Y , The object OJ4 is placed at P 0Z + ΔP 4Z ), the object OJ5 is placed at the placement position P 5 (P 0X + ΔP 5X , P 0Y + ΔP 5Y , P 0Z + ΔP 5Z ), and the placement position P 6 (P 0X + ΔP 6X , P 0Y + ΔP 6Y , The objects OJ6 are respectively arranged at P 0Z + ΔP 6Z ). For convenience, the shape of each object is illustrated in a spherical shape in FIG. 6 and the like, but the shape of each object is formed in a three-dimensional shape corresponding to the shape of each identification symbol. Further, in this embodiment, since the objects OJ1 to OJ6 are arranged with the viewpoint SP as a reference, even when the arrangement position of the viewpoint SP and the line-of-sight direction are displaced, that is, when the point of interest is moved, The identification symbols displayed by the objects OJ1 to OJ6 can be displayed at a certain position on the display screen 6a.
[0049]
Further, when moving an arbitrary object among the objects OJ1 to OJ6, the three-dimensional image processing unit 19 sequentially updates the coordinate value of the x-axis component of the arrangement position of the arbitrary object for each interrupt process ( An arbitrary object is moved in the horizontal direction by subtracting or adding coordinate values. As a result, the object moves in the world coordinate system, so that the identification symbol displayed by the object also moves on the display screen 6a. Similarly, if the coordinate value of the y-axis component of the arrangement position of an arbitrary object is sequentially updated, the object is arbitrarily moved in the vertical direction, and if the coordinate value of the z-axis component is sequentially updated, the object is arbitrarily moved in the depth direction. Can do. The process in step T3 will be described later in detail.
[0050]
Step T4 (deformation correction of the viewpoint coordinate system)
The three-dimensional image processing unit 19 uses the coordinate values of the arrangement positions P 1 to P 6 of the objects OJ1 to OJ6 arranged in the world coordinate system as the coordinate values of the viewpoint coordinate system with the viewpoint SP as a reference, that is, the origin. Convert. That is, only the component represented by the above-described coordinate value Δ is extracted. Here, since the aspect ratio of the display image generated in the frame memory by the rendering processing unit 27 is 3: 4, when this display image is displayed on the display screen 6a having the aspect ratio of 9:16, the display image is extended. This causes the negative effect that the resulting image is displayed. Therefore, by deforming and correcting the viewpoint coordinate system according to the aspect ratio of the display image and the aspect ratio of the display screen, each identification symbol and the like arranged in the viewpoint coordinate system is deformed.
[0051]
Specifically, the three-dimensional image processing unit 19 calculates a deformation correction value for correcting the deformation of the viewpoint coordinate system. This deformation correction value is a magnification value for enlarging or reducing the vertical width or horizontal width of each object OJ1 to OJ6. The deformation correction value can be calculated by the following equation (2) where the aspect ratio of the display screen 6a is A: B and the aspect ratio of the display image is a: b. The deformation correction value calculated by the following equation (2) is a magnification for deforming and correcting the horizontal width of an object or the like when the horizontal width of the display image is deformed according to the screen based on the vertical magnification of the display image. This value is a magnification value for correcting the deformation of the vertical width of each of the objects OJ1 to OJ6 when the vertical width of the display image is deformed according to the screen.
[0052]
(A × b) ÷ (a × B) (2)
[0053]
When the aspect ratio of the display image generated in the frame memory is 3: 4 and the aspect ratio of the display screen 6a is 9:16, the aspect ratio of the display image is 9:16 on the display screen 6a. Since it is displayed, it is displayed as if the horizontal width of the display image is enlarged by 4/3 times. At this time, the horizontal width of the identification symbol displayed by each of the objects OJ1 to OJ6 included in the display image is also enlarged by 4/3 times. Here, by substituting each value of the aspect ratio of the display image and the display screen 6a into the expression (2), the width of each of the objects OJ1 to OJ6 is indicated by 3/4 (hereinafter referred to as “3/4 times”). ) To calculate the deformation correction value of the magnification value to be reduced. Further, the three-dimensional image processing unit 19 reduces the horizontal direction (x-axis direction) of the viewpoint coordinate system to 3/4 times based on the deformation correction value. As a result, each of the objects OJ1 to OJ6 is reduced to 3/4 times in the x-axis direction of the viewpoint coordinate system. In this embodiment, the viewpoint coordinate system is deformed and corrected in step T4. However, the processes after step T4 can be performed without correcting the deformation.
[0054]
Step T5 (projection on the projection plane)
As illustrated in FIG. 9, the three-dimensional image processing unit 19 sets a projection plane TM perpendicular to the z axis that is the direction of the line of sight from the viewpoint, between the viewpoint SP and the objects OJ1 to OJ6. Since the projection plane TM is perpendicular to the z-axis of the viewpoint coordinate system and the z value is fixed, it can be handled as a two-dimensional coordinate value on the projection plane TM. The projection plane TM has an area corresponding to a frame memory provided in the image storage unit 20.
[0055]
Further, the three-dimensional image processing unit 19 performs perspective projection or parallel projection of the objects OJ1 to OJ6 according to the moving direction of the objects OJ1 to OJ6 projected on the projection plane TM. The use of perspective projection and parallel projection will be described in detail later. Thereby, each vertex of each polygon constituting each of the objects OJ1 to OJ6 is projected so as to be perspectively moved or translated on the projection plane TM, and the three-dimensional coordinate value of each vertex is two-dimensional on the projection plane TM. Converted to the coordinate value of. The three-dimensional image processing unit 19 acquires the projection information of the objects OJ1 to OJ6 in the world coordinate system when the projection of all the objects is completed.
[0056]
Here, the perspective projection means that the objects OJ1 to OJ6 are projected from the viewpoint SP. Specifically, the vertices of the polygons of the objects OJ1 to OJ6 move linearly toward the viewpoint SP. To project as if. Accordingly, for example, the images of the objects OJ1 to OJ6 are displayed so as to change according to the distance from the viewpoint SP. Parallel projection refers to projecting the objects OJ1 to OJ6 as they are viewed from the projection plane TM. Specifically, the vertices of the polygons of the objects OJ1 to OJ6 are linearly perpendicular to the projection plane TM. Projecting to move to. Thereby, regardless of the distance from the viewpoint SP, the images of the objects OJ1 to OJ6 are always displayed at a constant size. The process in step T5 will also be described in detail later. Note that when the player wants to identify the gaming state, in order to make the identification symbol easy to identify, the object displaying the identification symbol is projected in parallel, but in other cases, the stereoscopic effect is expressed more. In order to do this, it is preferable to project the object displaying the identification symbol in perspective. Further, in the present embodiment, the auxiliary symbols other than the identification symbols are not particularly described, but the perspective projection or the parallel projection can be similarly applied to the auxiliary symbols. Step T5 corresponds to the function of the projection means in the present invention.
[0057]
Step T6 (generate display image)
First, the three-dimensional image processing unit 19 reads a background image stored in the character storage unit 18 and draws the background image in a frame memory in the image storage unit 20. This background image is an image for displaying the state of the sea and the seabed, for example.
[0058]
Next, the three-dimensional image processing unit 19 addresses in the frame memory of the image storage unit 20 corresponding to the coordinate values of the vertices of the polygons of the objects OJ1 to OJ6 included in the projection information, that is, the respective items in the frame memory. The position of each polygon of the objects OJ1 to OJ6 is obtained. Then, the texture read from the character storage unit 18 is drawn on each polygon while being deformed according to each polygon. As a result, a display image is generated in the frame memory in which identification symbols and the like that are images of the objects OJ1 to OJ6 are superimposed on the background image.
[0059]
Further, when the specific identification symbol displayed on the display screen 6a is gradually disappeared, the three-dimensional image processing unit 19 sequentially applies mask patterns M1 to M9 described later from the program ROM 22 every predetermined number of interrupt processes. read out. And the texture affixed on the specific object for displaying a specific identification symbol is processed in order by mask pattern M1-M9. Specifically, each of the mask patterns M1 to M9 is sequentially superimposed on the texture after being deformed according to each polygon of a specific object, and a non-display portion is provided by each of the mask patterns M1 to M9. Draw on each polygon. Thereby, it can display so that the identification symbol displayed by a specific object may disappear gradually. The process in step T6 will be described later in detail. Step T6 corresponds to the function of the display image generating means in the present invention.
[0060]
Step T7 (display)
The three-dimensional image processing unit 19 outputs the display image generated in the frame memory to the liquid crystal monitor 6 via the video output unit 30. The liquid crystal monitor 6 sequentially displays the display image with the aspect ratio of 3: 4 sent from the three-dimensional image processing unit 19 for each interrupt process in accordance with the display screen 6a with the aspect ratio of 9:16. By executing steps T1 to T7 described above, a display image as shown in FIG. 10 is displayed on the display screen 6a. As shown in FIG. 10, on the display screen 6a, for example, identification symbols G1 to G5 that are images of the above-described objects OJ1 to OJ5 are displayed in front of a background image HG showing the state of the seabed. At this time, the object OJ6 arranged outside the projection plane TM is not projected on the projection plane TM, and thus is not displayed on the display screen 6a. It should be noted that steps T1 to T7 described above can be repeated to display a display mode such as a normal variation in which all the identification symbols are varied or a reach in which only a specific identification symbol is varied.
[0061]
Next, the reach that is actually displayed on the pachinko machine according to the present embodiment will be described with reference to the flowchart shown in FIG. 11 and each display mode shown in FIGS. The processing performed in the processing unit 19, particularly the processing in steps T3, T5, and T6 described above will be described in detail with reference to FIGS.
[0062]
Step U1 (stops the upper and lower region identification symbols)
First, as shown in FIG. 12 (a), the display screen 6a is vertically divided into three areas of an upper area A, a middle area B, and a lower area C in the vertical direction. A plurality of types of identification symbols are displayed so as to fluctuate within A to C. Specifically, in the upper area A, the identification symbols assigned with the symbol numbers 1 to 9 are displayed so as to appear from the right side of the display screen 6a in the order of 9 to 1 and move to the left side. In B and the lower area C, the identification symbols assigned with the symbol numbers 1 to 9 are displayed in order of 1 to 9 so as to appear from the right side of the display screen 6a and move to the left side. In the following description, identification symbols assigned symbol numbers 1 to 9 that move in the upper region A are identified symbols A1 to A9, and identification symbols that are assigned symbol numbers 1 to 9 that move in the middle region B are used. Are identified symbols B1 to B9, and identified symbols assigned symbol numbers 1 to 9 that move in the lower region C are identified symbols C1 to C9. Furthermore, objects for displaying identification symbols to which symbol numbers 1 to 9 are assigned are objects J1 to J9.
[0063]
In the normal variation described above, the three-dimensional image processing unit 19 arranges a plurality of types of objects for displaying a plurality of types of identification symbols in the world coordinate system. By sequentially updating the coordinate value of the x component of each arrangement position of each object, each object is moved in the horizontal direction so as to cross the projection plane TM. The three-dimensional image processing unit 19 sequentially projects these moving objects in parallel on the projection plane TM. As a result, a plurality of types of identification symbols that move in the horizontal direction in the areas A to C are displayed on the display screen 6a. In parallel projection, as shown in FIG. 19, when each object J2 is arranged at each arrangement position P 1 , P 3 , P 4 , the form of each object J2 is relative to the projection plane TM. This is a projection method for projecting so as to appear vertically. Thereby, the identification symbols A2, B2, and C2 displayed by the objects J2 are displayed on the display screen 6a in the same state as the objects J2 are viewed from the projection plane TM.
[0064]
As shown in FIG. 16A, the three-dimensional image processing unit 19 places objects J1 and J3 unrelated to reach at placement positions P 2 and P 5 , and object J2 related to reach at placement positions P 1 and P 4. At the time when each of the objects J1 to J3 is arranged, the updating of the coordinate values of the x components of the arrangement positions P 1 , P 2 , P 4 and P 5 is stopped, and the movement of the objects J1 to J3 is stopped. Thereby, on the display screen 6a, the horizontal movement of the identification symbols A2 and A1 of the upper area A and the identification symbols C2 and C3 of the lower area C is stopped. At this time, since the identification symbol A2 and the identification symbol C2 are aligned vertically on the display screen 6a, the player recognizes that the shift from normal variation to reach has been made.
[0065]
Step U2 (movement and disappearance of predetermined identification symbol)
3-dimensional image processing unit 19, as shown in FIG. 16 (a), in order to move the object J2 disposed in positions P 4 to the position of the position P 5, the coordinates of the x component of the position P 5 The coordinate value of the x component at the arrangement position P 4 is sequentially updated until it substantially matches the value. Thereby, on the display screen 6a, as shown in FIGS. 12A to 12C, the identification symbol C2 of the lower region C moves to the right.
[0066]
Moreover, three-dimensional image processing unit 19, an object J1 arranged at the arrangement position P 2, is provided a non-visible portion of the patch Keru texture to each polygon of the object J3 disposed in position P 5, further The non-display portion is changed according to the movement of the identification symbol C2, and when the identification symbol C2 overlaps the identification symbol C3, the entire texture is hidden and the identification symbols C3 and A1 are erased. Further, when the three-dimensional image processing unit 19 eliminates the identification symbols C3 and A1, the three-dimensional image processing unit 19 also stops the arrangement of the objects J3 and J1. In addition, the process which erase | eliminates a texture is a process which provides the non-display part in the target texture by superimposing the mask patterns M1-M9 mentioned later on a texture in order.
[0067]
The principle of the process of eliminating the predetermined identification symbol described above will be described with reference to FIGS. In order to facilitate understanding of this process, a process when a trapezoidal image shown in FIG. 21 is displayed on the display screen 6a instead of the identification symbols C3 and A1 will be described. FIG. 21 illustrates how the image displayed in a trapezoid shape gradually disappears. As shown in FIG. 21A, the display screen 6a displays a three-dimensional image obtained by viewing a substantially square plane G lying in a predetermined space from diagonally above. Further, as shown in FIGS. 21B to 21D, the display screen 6a displays a state in which the hue of the image on the plane G gradually fades and disappears as time elapses.
[0068]
The above-described three-dimensional image of the plane G is displayed by a polygon and a texture pasted on the polygon. In this embodiment, polygons will be described, but the same applies to an object composed of one or a plurality of polygons. Specifically, as shown in FIG. 22, the image of the plane G displayed on the display screen 6a includes, for example, one rectangular polygon GP (see FIG. 22A) set in the local coordinate system, It is generated with a texture T (see FIG. 22A) which is an image pasted on the polygon GP. The polygon GP is composed of four vertices P1 to P4 represented by three-dimensional coordinate values in the local coordinate system. The texture T is composed of an image surrounded by vertices P1 to P4 that coincide with the vertices P1 to P4 of the polygon GP. The polygon GP and the texture T are stored in the character storage unit 18.
[0069]
As shown in FIG. 23, the three-dimensional image processing unit 19 reads a polygon GP from the character storage unit 18 and arranges the polygon GP in a world coordinate system that is a virtual three-dimensional space. Furthermore, the three-dimensional image processing unit 19 sets a viewpoint SP for displaying the state in the world coordinate system, and sets a projection plane TM perpendicular to the line of sight from the viewpoint SP (in the z-axis direction in the drawing). Then, the vertices P1 to P4 of the polygon GP in the world coordinate system are respectively perspective projected onto the projection plane TM. As a result, as shown in FIG. 24, a substantially square polygon GP in the world coordinate system is projected in a trapezoidal shape on the projection plane TM, and the vertices P1 to P3 of the polygon GP are two-dimensional coordinate values on the projection plane TM. Is converted to
[0070]
As shown in FIG. 25A, the three-dimensional image processing unit 19 deforms the shape of the texture T read from the character storage unit 18 so as to match the shape of the polygon GP on the projection plane TM, and the polygon GP. Affix to That is, drawing is performed so that the vertices P1 to P4 of the polygon GP and the vertices P1 to P4 of the texture T coincide with each other. When the drawing is completed, the display image generated in the projection plane TM, that is, in the frame memory is sent to the liquid crystal monitor 6. Thus, the image of the plane G shown in FIG. 21A is displayed on the display screen 6a of the liquid crystal monitor 6.
[0071]
A plurality of types of mask patterns are stored in the program ROM 22 of the three-dimensional image processing unit 19 described above. The plurality of types of mask patterns are for applying a non-displayed portion that is not displayed on the display screen 6a to the texture T after being deformed so as to act on the texture T after being deformed according to the polygon GP. The non-display portion provided in the texture T is changed stepwise until the entire texture T is not displayed so that the plane G which is an image of the polygon GP to which the texture T is pasted is gradually disappeared. ing.
[0072]
Specifically, mask patterns M <b> 1 to M <b> 9 shown in FIG. 26 are stored in the program ROM 22. The portion indicated by reference numeral 60 (indicated by the downward slanted line in the figure) of the mask patterns M1 to M9 is data for providing a non-display portion on the texture T, and the portion indicated by reference numeral 61 is an image of the texture T. The remaining portion, that is, the portion displayed on the display screen 6a. More specifically, the mask pattern M1 is stored in the program ROM 22 as 8-byte data of 00H, 11H, 00H, 00H, 00H, 11H, 00H, and 00H. For example, since 11H is a hexadecimal number, when it is expressed in binary, it becomes “00010001”, where “1” corresponds to the portion of reference numeral 60 and “0” corresponds to the portion of reference numeral 61. Similarly, the mask pattern M2 is 8 bytes of 00H, 11H, 00H, 44H, 00H, 11H, 00H, 44H, and the mask pattern M3 is 8 bytes of 00H, 55H, 00H, 55H, 00H, 55H, 00H, 55H. The mask pattern M4 is 8 bytes of 22H, 55H, 88H, 55H, 22H, 55H, 88H, 55H, and the mask pattern M5 is 8 bytes of AAH, 55H, AAH, 55H, AAH, 55H, AAH, 55H, mask. The pattern M6 is 8 bytes of BBH, DDH, AAH, 55H, BBH, DDH, AAH, 55H, and the mask pattern M7 is 8 bytes of BBH, FFH, AAH, 77H, BBH, FFH, AAH, 77H, mask pattern M8 Are BBH, FFH, EEH, FFH, BBH, FFH, EEH, FF 8 bytes, the mask pattern M9 is, FFH, FFH, FFH, FFH, FFH, FFH, FFH, is stored respectively in the program in the ROM22 as 8-byte data of FFH. In this embodiment, nine mask patterns changing in nine steps are used. However, the present invention is not limited to this, and any number of mask patterns changing in two or more steps may be used. Moreover, it is not limited to the pattern of each of these mask patterns.
[0073]
The three-dimensional image processing unit 19 draws the texture T in which the portion of the reference numeral 60 overlapping the texture T is not displayed on the polygon GP by sequentially superimposing these mask patterns M1 to M9 on the texture T after deformation. . For example, the case where the mask pattern M5 is used will be described as an example. As shown in FIG. 25A, the maximum pattern M5 is formed on the texture T so that a non-display portion is provided on the entire texture T after deformation. Repeat. As a result, as shown in FIG. 25B, the texture T can be in a state where, for example, non-display portions are provided in a zigzag pattern, and the display screen 6a is drawn by drawing the texture T on the polygon GP. The image of the plane G having a zigzag pattern can be displayed. As shown in FIGS. 21A to 21D, the mask patterns M1 to M9 are applied to the texture T in such an order that the number of non-display parts increases stepwise. A display mode in which the G image disappears gradually can be realized. In this embodiment, the case where the number of non-display portions increases stepwise has been described. However, for example, a mask pattern in which the area of the non-display portions increases stepwise can be used. When such a mask pattern is used, as shown in FIGS. 27A to 27D, a display in which a non-display part spreads from one point on the image of the plane G to the periphery thereof and the image disappears. An aspect can also be displayed.
[0074]
By performing the above-described processing on the textures affixed to the objects J3 and J1, respectively, the identification symbols C2 and A1 gradually disappear according to the movement of the identification symbol C2, as shown in FIGS. Display as you go.
[0075]
Step U3 (stops the middle region identification symbol with the same type)
As shown in FIG. 16B, the three-dimensional image processing unit 19 continuously updates the coordinate values of the x components of the arrangement positions P 5 and P 6 of the objects J8 and J9 to move the objects J8 and J9. Let Further, an object J8, J9 moves projection plane TM outside are sequentially disposed (not shown) outside the projection plane TM a new object J1~J7 position P 7 to P 13, each of those positions P 7 to P By sequentially updating the coordinate values of the 13 x components, the objects J1 to J7 are similarly moved in the horizontal direction. As a result, as shown in FIG. 12C, a plurality of types of identification symbols B1 to B9 are displayed on the display screen 6a so as to sequentially move in the horizontal direction in the middle region B.
[0076]
As shown in FIG. 17A, the three-dimensional image processing unit 19 moves the coordinate value of the x component of the arrangement position P 8 of the object J2 when the object J2 moves to almost the center of the projection plane TM. stop updating is stopped at the position of the position P 8 which object J2 is shown. As a result, as shown in FIG. 13A, the identification symbols A2, B2, and C2 are displayed obliquely on the display screen 6a. At this time, the pachinko machine causes the player to recognize these identification symbols A2, B2, and C3 as winning identification symbols. Further, in order to increase the player's interest, the pachinko machine changes the winning identification symbols A2, B2, and C3 again to make a big hit with different types of identification symbols. The following steps will explain such a process of changing again. Note that, in cases other than the reach described in this embodiment, the steps up to here may be completed.
[0077]
Step U4 (rotate all identification symbols and move in the depth direction)
As shown in FIG. 20A, the three-dimensional image processing unit 19 rotates each object J2 by, for example, 90 ° around the y-axis centered on each of the placement positions P 1 , P 8 , P 4 , Is directed in the depth direction with respect to the projection plane TM. Note that the rotation angle of each object J2 is arbitrary, and for example, it can be rotated by an arbitrary angle around an arbitrary axis centering on each arrangement position. Preferably, as described above, the traveling direction side of the object J2 is directed to the back side. This process corresponds to the function of the object rotation means.
[0078]
The three-dimensional image processing unit 19 generates a display image in which each object J2 is projected in parallel on the projection plane TM as shown in FIG. 19A until each object J2 is rotated. Thereby, the display mode as shown in FIGS. 13A to 13B is displayed on the display screen 6a. In FIG. 13 (b), in order to make it easier for the player to identify the type of identification symbol, only the portion of symbol number “2” attached to each identification symbol A2, B2, C2 faces the front. However, for example, it can be displayed in the same manner as the identification symbols A2, B2, and C2.
[0079]
As shown in FIGS. 19B and 20B, the three-dimensional image processing unit 19 converts the objects J2 arranged at the arrangement positions P 1 , P 8 , and P 4 into the arrangement positions P 1 , A new arrangement position P 1 ′, P 8 ′, P 4 ′, which is an arrangement position on the projection plane TM side with respect to P 8 and P 4 , is newly arranged, and the projection method of each object J2 is changed from parallel projection to perspective projection. Change and generate the display image. In other words, each object J2 arranged at the arrangement positions P 1 ′, P 8 ′, P 4 ′ is perspective-projected on the projection plane TM and displayed in substantially the same display mode as the display mode shown in FIG. . Arrangement positions P 1 ′, P 8 ′, and P 4 ′ are, for example, identification symbols A2, B2, and C2 projected in parallel on the projection plane TM shown in FIG. 19A and the projection plane TM shown in FIG. The identification symbols A2, B2, and C2 that are perspective-projected on the display screen 6 are displayed at substantially the same position and substantially the same size on the display screen 6a.
[0080]
Further, the three-dimensional image processing unit 19 sequentially updates the coordinate values of the new placement positions P 1 ′, P 8 ′, and P 4 ′ where the respective objects J2 are placed, and FIG. 17B and FIG. As shown in c), each object J2 is moved in the depth direction with respect to the projection plane TM. As a result, each object J2 is projected so as to gradually become smaller as it moves away from the projection plane TM, so that identification symbols A2, B2, and C2 are displayed on the display screen 6a as shown in FIG. A display mode in which the user swims toward the back side of the screen 6a is displayed. The identification symbols A2, B2, and C2 are reduced to a state in which the player cannot be identified. The three-dimensional image processing unit 19 displays the coordinate values of the arrangement positions P 1 ′, P 8 ′, and P 4 ′ when the identification symbols A2, B2, and C2 are displayed in a small size that the player cannot identify. Is stopped, and the movement of each object J2 is stopped.
[0081]
Step U5 (moves another kind of identification symbol toward you)
The three-dimensional image processing unit 19 replaces each object J2 of the identification symbols A2, B2, and C2 displayed so as to be indistinguishable with another type of object J1 newly read from the character storage unit 18. That is, when the movement of each object J2 is stopped, the placement of the object J2 is stopped, and another kind of object J1 is newly placed at the placement positions P 1 ′, P 8 ′, P 4 ′. Further, as shown in FIG. 20D, the three-dimensional image processing unit 19 sequentially updates the arrangement positions P 1 ′, P 8 ′, and P 4 ′ so that each object J1 faces the projection plane TM. Move to just before the projection plane TM. The immediately preceding coordinate values on the projection planes of the arrangement positions P 1 ′, P 8 ′, and P 4 ′ can be arbitrarily determined. For example, the player seems to display the image of the object J2 closest to the display screen 6a. It is a coordinate value that can be felt. As a result, each object J1 is projected so as to gradually increase as it approaches the projection plane TM. Therefore, as shown in FIG. 14A, the identification symbol A1 displayed by each object J1 is displayed on the display screen 6a. , B1, C1 are displayed in such a manner that each swims toward the display screen 6a. And in the position immediately before each object J1 on the projection plane TM, identification symbol A1, B1, C1 is displayed larger than the display mode of identification symbol A2, B2, C2 displayed previously.
[0082]
Further, as shown in FIG. 20D, the three-dimensional image processing unit 19 further stops the placement positions P 1 ′, P 8 ′, and P 4 ′ after stopping each object J1 immediately before the projection plane TM. As shown in FIG. 20 (e), the objects J2 immediately before the projection plane TM are moved backward to a predetermined position by updating sequentially. The predetermined position can be arbitrarily determined as long as the image is displayed so that the image of the object J2 displayed on the display screen is slightly retracted. As described above, the process from moving each object J2 to the position immediately before the projection plane TM and further retracting it corresponds to the function of the object moving means in the present invention. Further, the three-dimensional image processing unit 19 reciprocally rotates the viewpoint coordinate system by a predetermined angle around, for example, the y-axis and the x-axis of the viewpoint coordinate system centered on the viewpoint SP until the object is retracted, Continue to displace the z-axis. At this time, as shown in FIG. 18A, the projection plane TM set perpendicular to the z-axis continues to be displaced, for example, vertically and horizontally around the viewpoint SP. The process of swinging and displacing the projection plane TM corresponds to the function of the projection plane swinging means in the present invention. As a result, each object J1 is perspectively projected on the projection plane TM in a state of swinging displacement, and on the display screen 6a, as shown in FIGS. 14B and 14C, the identification that has moved toward the display screen 6a is identified. A display mode is displayed in which the symbols A1, B1, and C1 collide with the display screen 6a and the display screen 6a swings due to the reaction. Thereafter, the three-dimensional image processing unit 19 stops the swing of the viewpoint coordinate system, and displays the identification symbols A1, B1, C1 displayed by the object J1 on the display screen 6a as shown in FIG. Let In the present embodiment, the projection plane TM is continuously swung and displaced while the object J2 is retracted. However, the present invention is not limited to this. For example, each object J2 is immediately before the projection plane TM. The projection plane TM can be oscillated and displaced only when it is stopped.
[0083]
Step U6 (confirmed with the final winning identification symbol)
The three-dimensional image processing unit 19 converts the objects J1 arranged at the arrangement positions P 1 ′, P 8 ′, P 4 ′ to the arrangement positions P 1 , P 8 , P 4 shown in FIG. While arranging again, the projection method of each object J1 is changed from perspective projection to parallel projection, and the display image is generated. That is, the objects J1 arranged at the arrangement positions P 1 , P 8 , P 4 are projected in parallel on the projection plane TM and displayed in the display mode shown in FIG. Thereby, the final winning identification symbol is determined. Through the above steps U1 to U6, the series of reach display modes shown in FIGS. 12 to 15 are displayed.
[0084]
In the pachinko machine of the embodiment described above, each identification symbol is moved horizontally on the display screen, and after the movement is stopped, each identification symbol is further moved to the back side of the display screen. Can make you feel interesting. In addition, when the identification symbol is moved in the horizontal direction, since the object for displaying the identification symbol is projected in parallel, it is possible to easily identify a plurality of types of identification symbols to the player. On the other hand, when the identification symbol is moved to the back side, since the object is projected in perspective, a three-dimensional effect can be obtained as a whole of the plurality of identification symbols, and the interest of the player can be increased. Furthermore, after the identification symbol is moved to the back side of the display screen so that it cannot be identified, the identification symbol is replaced with another type of identification symbol, and the identification symbol is moved to a state where it can be identified. Later, since the identification symbol is the final winning symbol, the player's interest can be further increased. In addition, a display mode in which the identification symbol moving toward the display screen collides with the display screen and rebounds by the reaction is displayed, and the projection plane TM is oscillated and displaced so that the inside of the display screen 6a is changed. Since it is made to shake, a player's interest can further be increased.
[0085]
In the above-described embodiment, the liquid crystal monitor has been described. However, for example, a CRT monitor or an LED monitor can be used instead of the liquid crystal monitor.
[0086]
In the above-described embodiments, the pachinko machine has been described as the gaming machine. However, the present invention is not limited to this, and can be modified to a gaming machine such as a slot machine or a coin game machine.
[0087]
【The invention's effect】
As is clear from the above description, according to the present invention, after an object is moved to the position immediately before the projection plane (that is, the second position close to the projection plane) , the projection is performed in conjunction with the movement of the object. plane is swung displaced Rutotomoni, perspective projection object based on the second object moving means maintains its rocking displacements during the movement from the second position to a predetermined position in the depth direction, the object is moved to the predetermined position In this case, the swing displacement is finished, so that a realistic display mode can be realized in which the image displayed by the object collides with the display screen and the display screen swings due to the reaction caused by the collision. As a result, the player's interest can be made permanent.
[Brief description of the drawings]
FIG. 1 is an external view showing a schematic configuration of a pachinko machine according to an embodiment.
FIG. 2 is a functional block diagram of the pachinko machine according to the embodiment.
FIG. 3 is a functional block diagram of a three-dimensional image processing unit.
FIG. 4 is a flowchart showing processing on a control board of a pachinko machine.
FIG. 5 is a flowchart showing processing in the image display device of the pachinko machine.
FIG. 6 is a diagram illustrating a state in which a plurality of objects are arranged in the world coordinate system.
FIG. 7 is a diagram showing how attention points are set.
FIG. 8 is a diagram illustrating a state until a viewpoint is set based on a point of interest.
FIG. 9 is a diagram showing a state of a projection plane and a plurality of objects in the world coordinate system.
FIG. 10 is a diagram illustrating a state in which an image of an object is displayed on a display screen.
FIG. 11 is a flowchart showing the flow of reach in a pachinko machine.
FIG. 12 is a diagram showing a state until an identification symbol is temporarily stopped at the time of reach;
FIG. 13 is a diagram showing a state where the once stopped identification symbol starts moving toward the back.
FIG. 14 is a diagram illustrating a state in which an identification symbol that has returned to the near side collides with a display screen.
FIG. 15 is a diagram showing a state in which a jackpot identification symbol is confirmed.
FIG. 16 is a diagram illustrating a state in which an object for displaying an identification symbol is temporarily stopped when reaching;
FIG. 17 is a diagram illustrating a state in which an object that has once stopped starts to move toward the back.
FIG. 18 is a diagram showing a state where the projection plane is swung.
FIG. 19 is a diagram illustrating a state in which an object is subjected to parallel projection and perspective projection.
FIG. 20 is a diagram illustrating a state in which an object is moved with respect to the projection plane.
FIG. 21 is a diagram showing one display mode on the display screen.
FIG. 22 is a diagram illustrating a state of a polygon and a texture.
FIG. 23 is a diagram illustrating a state in which polygons are arranged in the world coordinate system.
FIG. 24 is a diagram illustrating a state in which a polygon is projected onto a projection plane.
FIG. 25 is a diagram illustrating a state in which a mask pattern is applied to a deformed texture.
FIG. 26 is a diagram showing a plurality of types of mask patterns.
FIG. 27 is a diagram showing a display mode in a modified example.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Control base 6 ... Liquid crystal monitor 6a ... Display screen 7 ... Image display apparatus 18 ... Character memory | storage part 19 ... Three-dimensional image processing part 20 ... Image storage part 22 ... Program ROM
J1 to J9 ... Object A ... Upper area B on the display screen ... Middle area C on the display screen ... Lower areas A1 to A9 on the display screen ... Identification symbols B1 to B9 displayed on the upper area ... Identification symbols displayed on the middle area C1 to C9 ... Identification symbols SP displayed in the lower area ... Viewpoint

Claims (2)

仮想3次元空間内に配置されたオブジェクトを配置し、そのオブジェクトを前記仮想3次元空間内の所与の視点からの視線に基づいて設定された投影平面に投影し、該投影平面に投影された画像に基づいて生成された少なくとも1画面分の表示画像を記憶する画像記憶手段と、該画像記憶手段に記憶された表示画像を表示装置に出力表示する画像表示手段とを備えた遊技機において、
前記画像表示手段は、
前記投影平面に対して平行投影され該投影平面から奥行き方向に第1の距離離間した第1位置に配置される前記オブジェクトに所定動作を行わせるオブジェクト動作手段と、
前記第1位置に配置される前記オブジェクトの投影方法を、前記平行投影から透視投影に切り替える第1投影方法切替手段と、
前記第1位置に配置される前記透視投影オブジェクトを、前記投影平面方向に移動させ、前記第1位置より前記投影平面に近接した第2位置で停止させる第1オブジェクト移動手段と、
前記透視投影オブジェクトを前記第2位置から奥行き方向に所定距離離間した所定位置まで移動させる第2オブジェクト移動手段と、
前記第1オブジェクト移動手段に基づいて前記オブジェクトが第2位置まで移動されたタイミングで前記投影平面を所定方向に揺動変位させると共に、前記第2オブジェクト移動手段に基づいて前記オブジェクトが前記第2位置から前記所定位置まで移動する間前記揺動変位を維持し、前記オブジェクトが前記所定位置まで移動した場合に前記揺動変位を終了する投影平面揺動手段と、
前記所定位置に配置される前記オブジェクトの投影方法を、前記透視投影から前記平行投影に切り替える第2投影方法切替手段とによって生成された揺動表示画像を前記表示装置に表示する
とを特徴とする遊技機。
The arranged in the virtual three-dimensional space object arranged to project the object to the set projection plane based on the line of sight from a given viewpoint of the virtual three-dimensional space, it is projected on the projection plane In a gaming machine comprising image storage means for storing a display image for at least one screen generated based on an image, and image display means for outputting and displaying the display image stored in the image storage means on a display device ,
The image display means includes
Object operation means for causing the object to perform a predetermined operation that is parallel-projected with respect to the projection plane and disposed at a first position separated from the projection plane by a first distance in the depth direction;
First projection method switching means for switching a projection method of the object arranged at the first position from the parallel projection to the perspective projection;
A first object moving means for moving the perspective projection object arranged at the first position in the direction of the projection plane and stopping at a second position closer to the projection plane than the first position;
Second object moving means for moving the perspective projection object from the second position to a predetermined position spaced a predetermined distance in the depth direction;
The projection plane is swung and displaced in a predetermined direction at the timing when the object is moved to the second position based on the first object moving means, and the object is moved to the second position based on the second object moving means. A projection plane swinging means for maintaining the swing displacement during the movement to the predetermined position and ending the swing displacement when the object moves to the predetermined position;
A swing display image generated by a second projection method switching unit that switches the projection method of the object arranged at the predetermined position from the perspective projection to the parallel projection is displayed on the display device.
The gaming machine which is characterized a call.
請求項1に記載の遊技機において、
前記画像記憶手段は、前記1画面分の表示画像を記憶する記憶領域を複数備え、
前記画像表示手段は、前記複数の記憶領域のうちの1つを選択し、該選択された記憶領域に記憶された表示画像を前記表示装置に出力するものである
ことを特徴とする遊技機。
In the gaming machine according to claim 1,
The image storage means includes a plurality of storage areas for storing display images for the one screen,
The image display means selects one of the plurality of storage areas and outputs a display image stored in the selected storage area to the display device.
A gaming machine characterized by that.
JP2003009730A 2003-01-17 2003-01-17 Game machine Expired - Fee Related JP4032977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003009730A JP4032977B2 (en) 2003-01-17 2003-01-17 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003009730A JP4032977B2 (en) 2003-01-17 2003-01-17 Game machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP24707099A Division JP4032574B2 (en) 1999-09-01 1999-09-01 Game machine

Publications (2)

Publication Number Publication Date
JP2003236179A JP2003236179A (en) 2003-08-26
JP4032977B2 true JP4032977B2 (en) 2008-01-16

Family

ID=27785715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003009730A Expired - Fee Related JP4032977B2 (en) 2003-01-17 2003-01-17 Game machine

Country Status (1)

Country Link
JP (1) JP4032977B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6743894B2 (en) * 2016-08-10 2020-08-19 ソニー株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2003236179A (en) 2003-08-26

Similar Documents

Publication Publication Date Title
JP4507293B2 (en) Game machine
JP2001070544A (en) Game machine
JP4404171B2 (en) Game machine
JP4507311B2 (en) Game machine
JP4032574B2 (en) Game machine
JP4089102B2 (en) Game machine
JP4032977B2 (en) Game machine
JP4487347B2 (en) Game machine
JP3991517B2 (en) Game machine
JP4122983B2 (en) Game machine
JP4483893B2 (en) Game machine
JP4487348B2 (en) Game machine
JP5300166B2 (en) Game machine
JP3770234B2 (en) Game machine
JP4089434B2 (en) Game machine
JP4401081B2 (en) Game machine
JP3733948B2 (en) Image display device
JP4475499B2 (en) Game machine
JP3997653B2 (en) Image display device
JP4655333B2 (en) Game machine
JP4518099B2 (en) Game machine
JP3991866B2 (en) Game machine
JP3991516B2 (en) Game machine
JP2001346987A (en) Game machine
JP2003175214A (en) Game machine

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees