JP4401081B2 - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP4401081B2
JP4401081B2 JP2003002088A JP2003002088A JP4401081B2 JP 4401081 B2 JP4401081 B2 JP 4401081B2 JP 2003002088 A JP2003002088 A JP 2003002088A JP 2003002088 A JP2003002088 A JP 2003002088A JP 4401081 B2 JP4401081 B2 JP 4401081B2
Authority
JP
Japan
Prior art keywords
image
display
texture
displayed
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003002088A
Other languages
Japanese (ja)
Other versions
JP2003210778A (en
Inventor
和博 藤沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2003002088A priority Critical patent/JP4401081B2/en
Publication of JP2003210778A publication Critical patent/JP2003210778A/en
Application granted granted Critical
Publication of JP4401081B2 publication Critical patent/JP4401081B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、パチンコ機、スロットマシンあるいはコイン遊技機などの遊技機関する。
【0002】
【従来の技術】
この種の遊技機として一般的に知られているものに、例えばパチンコ機がある。このパチンコ機には、多数個のパチンコ球を取得することができる遊技者にとって有利な大当たり状態と、パチンコ球を消費する遊技者にとって不利な通常状態との2つの遊技状態がある。いずれの状態においても遊技者の面白味を永続させるために、臨場感のある表示態様を遊技状態に応じて表示している。特に、通常状態における表示態様には、遊技者が遊技状態を識別するための2次元の画像である識別図柄を単に変動させる通常変動と、大当たり状態の発生を遊技者に予感させるように識別図柄を変動させるリーチとがある。これら各表示態様では、例えば遠近法などを用いて描かれた2次元の画像である識別図柄を表示画面上で拡大または縮小、移動させたりすることにより、遊技者が臨場感を感じることができるようにしている
【0003】
【発明が解決しようとする課題】
しかしながら、上述した従来のパチンコ機においては、次のような問題がある。
従来のパチンコ機では、表示画面上で2次元の画像である識別図柄を単に拡大または縮小、移動させていので、全体として臨場感が乏しく遊技者が臨場感を感じることができないという問題が生じていた
【0005】
本発明は、このような事情に鑑みてなされたものであって、徐々に消滅する識別図柄の画像を比較的簡単な処理で表示して臨場感のある映像を遊技者に提供することができる遊技機を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明は、このような目的を達成するために、次のような構成をとる。
本発明の構成は、複数のポリゴンで形成されたオブジェクトを記憶した第1記憶手段と、前記オブジェクトの各ポリゴンに対応させるテクスチャを記憶した第2記憶手段と、前記第1記憶手段から読み出したオブジェクトを仮想3次元空間内に配置するオブジェクト配置手段と、前記仮想3次元空間内に配置されたオブジェクトを投影平面に投影する投影手段と、前記第2記憶手段に記憶されるテクスチャを前記オブジェクトの形状に合わせて変化させて前記オブジェクトに対応させる貼付け処理を行うテクスチャ貼付手段と、前記オブジェクトに対応させられた前記テクスチャに対して作用させるデータであって、該テクスチャが透明となる透明領域の面積が異なるよう複数設けられた透明パターンデータを記憶した第3記憶手段と、前記オブジェクトと該オブジェクトに対応させられたテクスチャとを備えて構成される識別図柄の画像を含む表示画像を生成する表示画像生成手段とによって生成された少なくとも1画面分の表示画像を記憶する画像記憶手段と、該画像記憶手段に記憶された表示画像を表示装置に出力表示する画像表示手段と、を備えた遊技機であって、前記画像表示手段は、前記オブジェクトに対応させられた前記テクスチャの透明領域の面積が増加するよう前記透明パターンデータを複数使用して、前記識別図柄が中心から周囲に向かって徐々に非表示となる画像を前記画像記憶手段から読み出して前記表示装置に出力表示することを特徴とするものである
【0016】
【作用】
本発明の作用は次のとおりである。
オブジェクト配置手段は、第1記憶手段に記憶されている複数のポリゴンで形成されたオブジェクトを読み出し、そのオブジェクトを仮想3次元空間内に配置する。投影手段は、投影平面に仮想3次元空間内のオブジェクトを投影する。テクスチャ貼付手段は、第2記憶手段に記憶されるテクスチャをオブジェクトの形状に合わせて変化させてそのオブジェクトに対応させる貼付け処理を行う。第3記憶手段は、オブジェクトに対応させられたテクスチャに対して作用させるデータであって、該テクスチャが透明となる透明領域の面積が異なるよう複数設けられた透明パターンデータを記憶する。表示画像生成手段は、オブジェクトと該オブジェクトに対応させられたテクスチャとを備えて構成される識別図柄の画像を含む表示画像を生成する。画像記憶手段は、これらによって生成された少なくとも1画面分の表示画像を記憶する。画像表示手段は、画像記憶手段に記憶された表示画像を表示装置に出力表示する。さらにこの画像表示手段は、オブジェクトに対応させられたテクスチャの透明領域の面積が増加するよう透明パターンデータを複数使用して、識別図柄が中心から周囲に向かって徐々に非表示となる画像を画像記憶手段から読み出して表示装置に出力表示する。
【0017】
【発明の実施の形態】
以下、図面を参照して本発明の一実施例を説明する。
画像表示装置を備える遊技機としてパチンコ機を例に採って説明する。図1は本実施例に係るパチンコ機の概略構成を示す正面図であり、図2はパチンコ機に備える制御基盤および画像表示装置の概略構成を示す機能ブロック図であり、図3は画像表示装置における3次元画像処理部の概略構成を示す機能ブロック図である。
【0018】
本実施例に係るパチンコ機は、パチンコ機の全体を制御する制御基盤1(図2参照)を備える遊技盤2と、遊技盤2が取り付けられた枠体3と、遊技盤2の下側に設けられた上受け皿4と、上受け皿4に貯留したパチンコ球を遊技盤2の盤面に発射する図示しない発射装置が連結された回転式ハンドル5と、上受け皿4の下側に設けられた下受け皿8と、遊技者が遊技状態を識別する識別図柄、およびその遊技状態における演出効果を高めるために表示される識別図柄以外の図柄を表示する液晶モニタ6の表示画面6aが遊技盤2の盤面のほぼ中央に配置されるように搭載された画像表示装置7(図2参照)とを備えている。表示画面6aには、所定の模様が描かれた背景上で1または複数個の識別図柄や補助図柄の変動(移動,回転,変形等)が、遊技機における遊技状態に応じて表示される。なお、パチンコ機には、遊技者が多数個のパチンコ球を取得することができる大当たり状態と、遊技者がパチンコ球を消費する通常状態との2種類の遊技状態がある。通常状態には、複数個の識別図柄が単に変動する表示態様である通常変動と、大当たり状態の発生の有無に関係なく、大当たり状態が発生するかのような表示態様であるリーチとが表示される。一方、大当たり状態には、主に補助図柄が表示され、そのラウンド毎に異なる表示態様が表示される。また、パチンコ機における遊技が行われていない場合には、デモンストレーションなどの表示が行われる。ここで、識別図柄とは、パチンコ機における大当たりやリーチ等の遊技状態を遊技者に認識させるためのいわゆる図柄番号または図柄番号が付けられた図柄の画像をいい、補助図柄とは大当たりやリーチ等においてその演出効果を高めるために表示される識別図柄以外の図柄をいう。
【0019】
遊技盤2には、回転式ハンドル5によって発射されたパチンコ球を盤面に案内するレール2aと、パチンコ球を不特定箇所に誘導する複数本の図示しないクギと、クギによって誘導されてきたパチンコ球が入賞する複数個の入賞口2bと、遊技盤2のほぼ中央付近に誘導されてきたパチンコ球が入賞する始動口2cと、特定の遊技状態において比較的多数のパチンコ球を一時に入賞させることができる大入賞口2dとが設けられている。各入賞口2b、始動口2cおよび大入賞口2d内には、パチンコ球の入球を検出する入賞検出センサ11(図2参照)がそれぞれ設けられている。入賞検出センサ11がパチンコ球の入球を検出すると、遊技盤2に備える制御基盤1によって所定個数のパチンコ球が上受け皿4に供給される。また、始動口2c内には、始動開始センサ12(図2参照)が設けられている。さらに、大入賞口2dには、開閉式ソレノイド13(図2参照)が設けられており、この開閉式ソレノイド13の動作によって、大入賞口2dが 閉自在に構成されている。なお、上述したものの他に始動口2cに入球したパチンコ球の個数を記憶する例えば保留ランプ等を備えるが、この実施例ではその説明を省略する。
【0020】
上受け皿4は、受け皿形状になっており、パチンコ球が供給される球供給口4aから供給されたパチンコ球を貯留する。また、球供給口4aが配置された上受け皿4の反対側には、パチンコ球をレール2aに向けて発射する発射装置に連通する図示しない球送り口が設けられている。さらに、上受け皿4の上部には、貯留したパチンコ球を下受け皿8に移すための球抜きボタン4bが設けられており、この球抜きボタン4bを押すことで、上受け皿4に貯留したパチンコ球を下受け皿8に移すことができる。下受け皿8は、受け皿形状になっており、上受け皿4から移されてきたパチンコ球を受け止める。なお、下受け皿8には、その中に貯留したパチンコ球を抜く図示しない球抜きレバーが設けられている。
【0021】
回転式ハンドル5には、パチンコ球をレール2aに向けて発射する発射装置が連結されている。回転式ハンドル5を回転させることにより、発射装置はその回転量に応じた強さでパチンコ球を発射する。なお、遊技者が回転式ハンドル5を回転させた状態で保持することにより、発射装置はパチンコ球を所定の間隔ごとに一個ずつ発射する。
【0022】
図2に示すように、遊技盤2に備える制御基盤1は、メモリおよびCPU等で構成されるマイクロコンピュータである主制御部16と、遊技機における遊技状態を決定する値を出力するカウンタ14と、始動口2c(図1参照)でパチンコ球の入球を検出する始動開始センサ12と、入賞口2b等(図1参照)でパチンコ球の入球を検出する入賞検出センサ11と、大入賞口2d(図1参照)を開閉する開閉式ソレノイド13と、画像表示装置7のI/F(インターフェイス)17に情報流通可能に接続されるI/F(インターフェイス)15などを備えて構成されている。この制御基盤1は、上述した入賞口2bや始動口2cの球検出センサの検出に基づいて所定量のパチンコ玉を供給したり、図示しないランプやスピーカを作動させたりする各種のイベントを実行するものである。また、制御基盤1は、遊技状態に応じた表示態様を指示するための各種のコマンドをI/F15を通じて画像表示装置7に送信する。
【0023】
具体的に、制御基盤1で行なわれる処理について図4に示すフローチャートを参照しながら詳細に説明する。
ステップS1(入球を検出)
遊技者は、回転式ハンドル5によってパチンコ球を遊技盤2内に打ち込み、パチンコ遊技を開始する。遊技盤2内に打ち込まれた一部のパチンコ球は盤面の中央付近まで導かれ、始動口2cに入球する。パチンコ球が始動口2cに入球すると、始動口2c内に入球した球を検出する始動開始センサ12は、始動開始信号を主制御部16に送るとともに、始動口2c内に設けられた入賞検出センサ11は、入賞信号を主制御部16に送る。なお、この実施例では、始動開始センサ12と入賞検出センサ11とは、同一のセンサによって併用される。また、入賞口2bにパチンコ球が入球した場合にも、各入賞口2bの入賞検出センサ11は、入賞信号を主制御部16に送る。
【0024】
ステップS2(パチンコ球を供給)
主制御部16は、入賞検出センサ11からの入賞信号を検出すると、図示しないパチンコ球供給機構を稼働させて、所定数量のパチンコ球を球供給口4aを通じて上受け皿4に供給する。
【0025】
ステップS3(大当たり抽選)
主制御部16は、始動開始センサ12からの始動開始信号を検出すると、カウンタ14の出力値を読取り、大当たり抽選を行う。大当たり抽選では、カウンタ14の出力値が所定値であれば、「大当たり」を発生させる。一方、カウンタ14の出力値が所定値以外であれば、「はずれ」である通常の遊技状態を継続する。
【0026】
ステップS4(コマンドを送信)
主制御部16は、通常の遊技状態または特定の遊技状態に応じた表示態様を決定し、その表示態様に応じたコマンドをI/F15を介して画像表示装置7に送信する。コマンドは、画像表示装置7に所定の表示プログラムを実行させる命令であり、その表示プログラムの実行により遊技状態に応じた表示パターンが表示画面6aに表示される。例えば、大当たりの場合には、主制御部16は、所定のリーチの開始を指示するコマンドを送信し、所定時間経過後に、そのリーチの最終段階で停止させる大当たりの識別図柄の種類を指示するコマンドを送信する。これにより、画像表示装置7の表示画面6aには、コマンドで指示された種類のリーチが表示された後に、さらにコマンドで指示された種類の大当たりの識別図柄で停止するように表示される。このとき、主制御部16は、表示画面6aにおいて大当たりの識別図柄の停止が表示された後に、開閉式ソレノイド13に開放信号を与えて大入賞口2dを開放して、遊技者が多数個のパチンコ球を取得できる状態にする。さらに、この遊技状態において、制御基盤1は例えば約10個の球が大入賞口2dに入賞したのを1ラウンドとして、そのラウンドが終了するたびにそのラウンドの終了または次のラウンドの開始を指示するコマンドを画像表示装置7に送信する。これにより、表示画面6aには、ラウンドごとに異なるパターンの表示態様が表示される。一方、ハズレの場合には、リーチの最終段階で停止させるハズレの識別図柄の種類を指示するコマンド、または通常の遊技状態時に変動されている識別図柄をハズレの識別図柄で停止させるためのコマンドを画像表示装置7に送信する。これにより、表示画面6aには、リーチを表示した後にハズレの識別図柄で停止するように、または通常変動後にハズレの識別図柄で停止するように表示される。
【0027】
ステップS5(新たな入球検出?)
主制御部16は、始動開始センサ12からの新たな始動開始信号の有無(新たな入球)を検出するまで待機する。新たな始動開始信号がなければ、この処理を終了して新たな始動開始信号が検出されるまで待機する。上述したステップS1〜S5を実行する制御基盤1は、いわば遊技状態発生手段に相当する。なお、識別図柄の変動(リーチ、通常変動等)中にパチンコ球の入球を始動開始センサ12が検出し、その入球したパチンコ球の個数を記憶する上述で説明を省略した保留ランプが点灯している場合には、その保留ランプの点灯を新たな始動開始信号として検出する。新たな始動開始信号があれば、ステップS2〜S4を繰り返し行なう。
【0028】
画像表示装置7は、図2に示すように、制御基盤1から送られてきたコマンドを受信するI/F17と、そのコマンドに基づいて仮想3次元空間であるワールド座標系に配置される3次元情報であるオブジェクト、そのオブジェクトの模様の画像情報であるテクスチャおよび背景画像を記憶するキャラクタ記憶部18と、受信したコマンドに応じたプログラムを実行して、ワールド座標系にオブジェクトを設定するとともに、そのオブジェクトにテクスチャを貼付けた表示画像を生成する3次元画像処理部19と、3次元画像処理部19で生成された表示画像を一時的に記憶する画像記憶部20と、その表示画像を表示する液晶モニタ6とを備えている。なお、ワールド座標系とは、本発明における仮想3次元空間に相当する3次元の座標系である。オブジェクトとは、ワールド座標系に配置される3次元の仮想物体であり、複数のポリゴンによって構成された3次元情報である。ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。テクスチャとは、オブジェクトの各ポリゴンに貼付ける画像であり、テクスチャがオブジェクトに貼付けられることにより、オブジェクトに対応する画像、例えば識別図柄や補助図柄や背景などが生成される。
【0029】
I/F17は、制御基盤1のI/F15に情報流通可能に接続されており、制御基盤1から送られてくるコマンドを受信するものである。I/F17は、受信したコマンドを3次元画像処理部19に順次渡す。
【0030】
キャラクタ記憶部18は、3次元画像処理部19から適宜読み出される3次元情報であるオブジェクトおよびそのオブジェクトの2次元の画像であるテクスチャを記憶するメモリである。具体的には、キャラクタ記憶部18には、大当たり時の当たり識別図柄例えば魚やタコなどの模様のテクスチャと、大当たりのラウンドの回数を示すラウンド表示図柄のテクスチャと、そのラウンド時に演出用に表示される補助図柄例えば海亀の模様のテクスチャなどの種々のテクスチャとともに、それら各テクスチャが貼付けられる1または複数のポリゴンで構成された複数種類のオブジェクトが記憶されている。さらに、キャタクタ記憶部18には、液晶モニタ6の表示画面6aの背景として表示される例えば海底の珊瑚礁の模様が描かれた背景画像も記憶されている。これら各オブジェクト、テクスチャおよび背景画像の各データは、表示画像の生成時に3次元画像処理部19によって適宜読み出される。なお、オブジェクトやテクスチャを記憶するキャラクタ記憶部18は、本発明における第1記憶手段および第2記憶手段に相当する。
【0031】
3次元画像処理部19は、画像表示装置全体を制御管理するCPU(中央処理装置)、CPUにおける演算結果等を適宜記憶するメモリ、液晶モニタ6に出力する画像を生成する画像データプロセッサなどで構成されるものである。3次元画像処理部19は、コマンドに応じた表示態様を実現するために、本発明の仮想3次元空間に相当する3次元の座標系であるワールド座標系内に、視点およびキャラクタ記憶部18から読み出した各種のオブジェクトを配置し、そのオブジェクトを変動させたり視点を変位させる、いわゆるジオメトリ演算処理を行う。また、ワールド座標系内のオブジェクトを視点からの視線に基づく投影平面に投影した2次元座標情報である投影情報を生成する。その投影情報に基づいて、画像記憶部20に設けられたフレームメモリ内における各オブジェクトの各ポリゴンの頂点に相当する位置すなわちフレームメモリ内のアドレスを求める。そして、キャラクタ記憶部18から読み出したテクスチャを各オブジェクトの各ポリゴンの頂点に合うように変形させて、そのテクスチャをフレームメモリ内の各アドレスに基づいて描画する。このとき、そのテクスチャが表示画面6a上から消滅する識別図柄のオブジェクトに貼付けるテクスチャである場合には、所定のマスクパターンによって半透明状態にする。全てのオブジェクトへのテクスチャの描画が終了すると、画像記憶部20のフレームメモリ内に表示画像が生成され、その表示画像を液晶モニタ6に出力する。なお、後の説明で明らかになるが、3次元画像処理部19は、本発明におけるオブジェクト配置手段、投影手段、表示画像生成手段および第3記憶手段に相当する。
【0032】
3次元画像処理部19は、例えば次のように構成されている。以下、3次元画像処理部19の一例について図3を参照しながら詳細に説明する。
図3に示すように、3次元画像処理部19は、CPU21と、CPU21によって実行されるプログラムを記憶したプログラムROM22と、プログラムの実行によって得られたデータを記憶するワークRAM23と、CPU21の指示によってワークRAM23に記憶したデータを一括して転送するDMA24と、DMA24によって転送されたデータを受信するI/F25と、そのI/F25によって受信したデータに基づいて座標演算処理を行うジオメトリ演算処理部26と、I/F25によって受信したデータ等に基づいて表示画像を生成するレンダリング処理部27と、複数種類のカラーパレットに基づく色情報をレンダリング処理部27に適宜与えるパレット処理部28と、画像記憶部20内に設けられた複数のフレームメモリを切り換えるセレクタ部29と、表示画像を液晶モニタ6に出力するビデオ出力部30とを備えている。また、上述したCPU21とプログラムROM22とワークRAM23とDMA24とI/F25とは同一のデータバスに接続されており、オブジェクトおよびテクスチャ等を記憶したキャラクタ記憶部18は、上述したデータバスとは独立したデータバスを介してジオメトリ演算処理部26およびレンダリング処理部に接続されている。
【0033】
プログラムROM22は、遊技機に電源が投入された際にCPU21によって最初に実行されるプログラムや、制御基盤1から送られてくるコマンドの種類に応じた表示を行うための複数種類のプログラム、マップデータ、カラーパレットおよびテクスチャを半透明にするマスクパターンのデータなどを記憶したものである。表示を行うためのプログラムは、例えば予め用意されたテーブルを参照したり、参照したデータに演算処理を施すことで、コマンドに応じた表示態様を実現するためにワールド座標系にオブジェクトおよび視点を設定するための設定情報を導出するものである。表示プログラムには、単独で実行されるプログラムだけでなく、例えば複数個のタスクを組み合わせることで、コマンドの種類に応じた表示を行うためのタスクを生成するようなものも含まれる。また、設定情報は、ワールド座標系内にオブジェクトを配置するための座標値、ワールド座標系内に配置するオブジェクトの姿勢をそのオブジェクトの基準姿勢からの回転量で指示する回転角度、ワールド座標系内に視点を設定するための座標値、ワールド座標系における視点の視線(例えばz軸)を所定方向に定めるために視線を回転させる回転角度、キャラクタ記憶部18内に記憶されたオブジェクト、テクスチャ、背景画像などの格納アドレスなど各種のデータを含む情報であるとともに、表示画面6aに表示する一画面分の表示画像を生成するための情報である。
【0034】
CPU21は、プログラムROM22に記憶された制御プログラムによって画像表示装置7の全体を管理・制御する中央演算処理装置であり、主に、制御基盤1から送られてきたコマンドに応じたプログラムを実行することで、表示画面6aに所定の表示態様を表示するために、ワールド座標系内にオブジェクトおよび視点を設定する処理などを行うものである。具体的には、CPU21は、I/F17によって受信したコマンドの種類に応じて、そのコマンドに対応する表示を行うための表示プログラムを実行して得られた設定情報をワークRAM23に順次書き込み、所定の割り込み処理間隔(例えば1/30秒や1/60秒)ごとに、ワークRAM23内の設定情報の転送をDMA24に指示するものである。
【0035】
ワークRAM23は、CPU21によって得られた実行結果である設定情報を一時的に記憶するものである。また、DMA24は、CPU21での処理を介さずワークRAM23内に記憶されたデータを転送することができる、いわゆるダイレクトメモリアクセスコントローラである。つまり、DMA24は、CPU21からの転送開始の指示に基づいて、ワークRAM23に記憶された設定情報を一括してI/F25へ転送する。
【0036】
I/F25は、DMA24によって転送されてきた設定情報を受信する。I/F25は、設定情報に含まれる、キャラクタ記憶部18に記憶されたオブジェクトの格納アドレスや、オブジェクトをワールド座標系に配置するため配置座標値や、視点を設定する配置座標値などの座標演算の対象となるデータをジオメトリ演算処理部26に与えるとともに、画像描画の対象となる設定情報に含まれるキャラクタ記憶部18に記憶された基本テクスチャデータなどの格納アドレスのデータをレンダリング処理部27に与える。さらに、I/F25は、設定情報に含まれているテクスチャの色合いを指示するためのカラーパレットをパレット処理部28に与える。
【0037】
ジオメトリ演算処理部26は、I/F25から与えられたデータに基づいて、3次元の座標点の移動や回転等に伴う座標演算処理を行うものである。具体的には、ジオメトリ演算処理部26は、キャラクタ記憶部18内に記憶されたオブジェクトの格納アドレスに基づいて、ローカル座標系に配置された複数のポリゴン構成されたオブジェクトを読み出し、回転角度に基づいて回転させた姿勢のオブジェクトを配置座標値に基づいてワールド座標系に配置する際のワールド座標系におけるオブジェクトの各ポリゴンの座標値を算出する。ローカル座標系とは、基準の姿勢のオブジェクトが設定されるオブジェクト独自の座標系である。さらに、視点の配置座標値および回転角度に基づいて設定される視点を基準とする視点座標系におけるオブジェクトの各ポリゴンの座標値を算出する。さらに、視点に基づく視線に垂直に設定された投影平面にオブジェクトを投影した際の投影平面上のオブジェクトの各ポリゴンの2次元の座標値を含む投影情報を算出する。そして、ジオメトリ演算処理部26は、投影情報をレンダリング処理部27に与える。
【0038】
パレット処理部28は、CPU21によって書き込まれる複数種類の色情報で構成される複数種類のカラーパレットを格納する図示しないパレットRAMを備えており、CPU21からI/F25を通じて指示されたカラーパレットのデータをレンダリング処理部27に与えるものである。カラーパレットを与えるとは、例えばパレットRAMに記憶されたカラーパレットの格納アドレスをレンダリング処理部27に与えることをいい、レンダリング処理部27は、表示画像を生成する際にその格納アドレスに記憶された色情報を参照する。なお、各色情報は、赤色(R),緑色(G),青色(B)の組合せによって決定されるものであり、カラーパレットのデータサイズが例えば16ビットの場合には、0〜15の各値に所定の色情報が割り当てられる。また、カラーパレットの各データすなわち各パレットは、テクスチャを構成する各ドットに割り当てられており、各パレットの色情報で各ドットを描画することで、テクスチャの全体が描画される。なお、このカラーパレットの各パレットに割り当てられている色情報を順次変更することで、段階的に色合いが異なる複数種類のテクスチャを生成することもできる。
【0039】
レンダリング処理部27は、まず、キャラクタ記憶部18内の背景画像が格納されている格納アドレスに基づいて背景画像を読み出し、その背景画像を画像記憶部20内に設けられたフレームメモリ内に描画し、そのフレームメモリ内に投影情報に基づくオブジェクトの各ポリゴンを展開する。さらに、レンダリング処理部27は、キャラクタ記憶部18内のテクスチャの格納アドレスとカラーパレットのデータに基づいて、キャラクタ記憶部18から読み出したテクスチャをフレームメモリ内の各ポリゴンに相当する領域上に描画する。このとき、表示画面6a上から消滅させる識別図柄を描画するのであれば、レンダリング処理部27は、CPU21から指示されたマスクパターンによってテクスチャの色情報を部分的に間引いて半透明状態にする。これにより、フレームメモリ内には、背景画像上に各種のオブジェクトに対応する図柄の画像が描画された表示画像が生成される。この表示画像は、フレームメモリの容量にもよるが、所定の縦横比例えば縦横比が3:4の表示画像である。なお、上述したジオメトリ演算処理部26およびレンダリング処理部27では、画面に表示する部分を決定するクリッピング処理、ポリゴンの前後関係によって見える部分と見えない部分とを判定する隠面処理、光源からの光の当たり具合や反射の様子を演算するシェーディング計算処理などの処理も適宜行われる。
【0040】
セレクタ部29は、複数のフレームメモリを適宜選択するものである。具体的には、セレクタ部29は、上述したレンダリング処理部27によって画像の描画が行われる際には、画像記憶部20内に設けられた複数のフレームメモリである例えば第1フレームメモリまたは第2フレームメモリのいずれか一方を選択する。この場合には、その選択されている側のフレームメモリ内に表示画像が生成される。一方、セレクタ部29は、描画が行われていない側のフレームメモリから既に表示画像の生成が終わっている表示画像を読み出し、その表示画像をビデオ出力部30に送る。なお、セレクタ部29は、読み出し側のフレームメモリと、描画側のフレームメモリとを順次切り換える。ビデオ出力部30は、セレクタ部29から送られてきた表示画像をビデオ信号に変換して液晶モニタ6に出力する。
【0041】
画像記憶部20は、レンダリング処理部27によって生成される表示画像を記憶するいわゆるビデオRAMである。画像記憶部20には、例えば一画面分の表示画像を記憶する記憶領域である第1フレームメモリと、第2フレームメモリとが設けられたいわゆるダブルバッファを構成している。なお、画像記憶部20に設けるフレームメモリは、2つに限定されるものではなく、1つ以上であれば幾つでもよい。
【0042】
液晶モニタ6は、ビデオ出力部30から出力された表示画像を表示する画面6aを備えており、その画面6aが遊技盤2の盤面に露出するように取り付けられている。その表示画面6aは例えば縦横比が9:16のいわゆるワイド画面であり、液晶モニタ6は、ビデオ出力部30から出力されてきた縦横比が3:4の表示画像を表示画面6aの縦横比に合わせて、表示画面6aに表示画像を表示する。また、液晶モニタ6には、縦横比が3:4の表示画像をそのまま表示する機能をも備えており、遊技状態に応じて表示画面6aに表示される表示画像の縦横比を適宜変化させることもできる。なお、液晶モニタ6は、本発明における表示手段に相当する。
【0043】
まず、本発明の理解を容易にするために、図5に示す表示態様が表示される場合の処理について説明する。図5は台形状に表示された画像が徐々に消滅する様子を図示したものである。図5(a)に示すように、表示画面6aには、所定空間内に横たわったほぼ正方形の平面Gを手前斜め上から見た3次元の画像が表示されている。また、図5(b)〜(d)に示すように、表示画面6aには、時間の経過に従って、その平面Gの画像の色合いが徐々に薄くなり消滅する様子が表示される。
【0044】
上述した平面Gの3次元の画像は、ポリゴンおよびそのポリゴンに貼付けられるテクスチャによって表示される。なお、この実施例では、ポリゴンについて説明するが、1または複数のポリゴンで構成されるオブジェクトでも同じである。具体的には、表示画面6aに表示される平面Gの画像は、図6に示すように、例えばローカル座標系に設定された1枚の四角形のポリゴンGP(図6(a)参照)と、そのポリゴンGPに貼付けられる画像であるテクスチャT(図6(b)参照)とで生成される。ポリゴンGPは、ローカル座標系における3次元の座標値で表される4つの頂点P1〜P4で構成されている。テクスチャTは、ポリゴンGPの頂点P1〜P4に一致する頂点P1〜P4で囲まれる画像で構成されている。ポリゴンGPおよびテクスチャTは、キャラクタ記憶部18に記憶されている。
【0045】
図7に示すように、3次元画像処理部19は、キャラクタ記憶部18からポリゴンGPを読み出し、そのポリゴンGPを仮想3次元空間であるワールド座標系に配置する。さらに、3次元画像処理部19は、ワールド座標系内の様子を表示するための視点SPを設定し、その視点SPからの視線(図ではz軸方向)に垂直な投影平面TMを設定する。そして、ワールド座標系におけるポリゴンGPの頂点P1〜P4を投影平面TMにそれぞれ透視投影する。これにより、図8に示すように、投影平面TMには、ワールド座標系においてほぼ正方形のポリゴンGPが台形状に投影され、ポリゴンGPの頂点P1〜P3が投影平面TM上の2次元の座標値に変換される。
【0046】
図9(a)に示すように、3次元画像処理部19は、投影平面TM上のポリゴンGPの形状に合うように、キャラクタ記憶部18から読み出したテクスチャTの形状を変形し、そのポリゴンGPに貼付ける。つまり、ポリゴンGPの各頂点P1〜P4と、テクスチャTの各頂点P1〜P4とがそれぞれ一致するように描画する。そして、その描画が終了すると、投影平面TM内すなわちフレームメモリ内に生成された表示画像を液晶モニタ6に送る。これにより、液晶モニタ6の表示画面6aには、図5(a)に示した平面Gの画像が表示される。
【0047】
上述した3次元画像処理部19のプログラムROM22内には、複数種類のマスクパターンが記憶されている。これら複数種類のマスクパターンは、ポリゴンGPに合わせて変形された後のテクスチャTに作用させて、表示画面6aに表示されない非表示の部分を変形後のテクスチャTに設けるためのものであり、さらに、テクスチャTが貼付けられるポリゴンGPの画像である平面Gを徐々に消滅させるように、テクスチャT全体が表示されなくなるまでそのテクスチャTに設けた非表示の部分を段階的に変化させるように構成されている。
【0048】
具体的には、図10に示すマスクパターンM1〜M9がプログラムROM22内に記憶されている。マスクパターンM1〜M9の符号60(図中、右下がり斜線部分)の示す部分は、テクスチャT上に非表示の部分を設けるためのデータであり、符号61の示す部分は、テクスチャTの画像が残る部分すなわち表示画面6aに表示される部分である。より具体的には、マスクパターンM1は、00H,11H,00H,00H,00H,11H,00H,00Hの8バイトのデータとしてプログラムROM22内に記憶されている。例えば11Hは16進数であるので、これを2進数で表すと「00010001」となり、「1」が符号60の部分に、「0」が符号61の部分にそれぞれ相当する。同様に、マスクパターンM2は、00H,11H,00H,44H,00H,11H,00H,44Hの8バイト、マスクパターンM3は、00H,55H,00H,55H,00H,55H,00H,55Hの8バイト、マスクパターンM4は、22H,55H,88H,55H,22H,55H,88H,55Hの8バイト、マスクパターンM5は、AAH,55H,AAH,55H,AAH,55H,AAH,55Hの8バイト、マスクパターンM6は、BBH,DDH,AAH,55H,BBH,DDH,AAH,55Hの8バイト、マスクパターンM7は、BBH,FFH,AAH,77H,BBH,FFH,AAH,77Hの8バイト、マスクパターンM8は、BBH,FFH,EEH,FFH,BBH,FFH,EEH,FFHの8バイト、マスクパターンM9は、FFH,FFH,FFH,FFH,FFH,FFH,FFH,FFHの8バイトのデータとしてプログラムROM22内にそれぞれ記憶されている。なお、この実施例では9段階に変化する9枚のマスクパターンを利用したが、本願発明はこれに限定されるものなく、2段階以上に変化する複数のマスクパターンであれば幾つでもよい。また、これら各マスクパターンのパターンに限定されるものではない。
【0049】
3次元画像処理部19は、これら各マスクパターンM1〜M9を、変形後のテクスチャTに順次重ねることで、テクスチャTに重なった符号60の部分を非表示にしたテクスチャTをポリゴンGPに描画する。例えば、マスクパターンM5を利用する場合を例にとって説明すると、図9(a)に示すように、変形後のテクスチャT上の全体に非表示の部分を設けるように、テクスチャT上にマクスパターンM5を重ねる。これにより、図9(b)に示すように、テクスチャTを例えば非表示の部分が千鳥状に設けられた状態にすることができ、このテクスチャTをポリゴンGPに描画することで、表示画面6aに千鳥状の模様の平面Gの画像を表示させることができる。このように、非表示の部分の個数が段階的に増加するような順番で、マスクパターンM1〜M9をテクスチャTに作用させることで、図5(a)〜(d)に示すように、平面Gの画像が徐々に消滅するような表示態様を実現することができる。なお、この実施例では、非表示の部分の個数が段階的に増加する場合について説明したが、例えば非表示の部分の面積が段階的に広がるようなマスクパターンを用いることもできる。このようなマスクパターンを用いれば、図11(a)〜(d)に示すように、平面Gの画像上の一点からその周囲に非表示の部分が広がって、その画像が消滅するような表示態様を表示することもできる。また、図11とは逆に、画像の周縁から中央に向かって消滅させるようなマスクパターンを用いてもよい。さらに、画像の周縁の一端から他端に向かって消滅させるようなマスクパターンでもよい。
【0050】
次に、上述した処理を利用した本実施例に係るパチンコ機で実際に表示される表示態様について、図12,図13を参照しながら説明する。
液晶モニタ6の表示画面6aには、制御基盤1から送られてきたコマンドに基づいて、例えば図12(a)〜(c),図13(a)〜(c)に示すような表示態様が表示される。この表示態様は、パチンコ機における通常変動からリーチへ移行する際の一態様である。ここで、表示画面6aには、図12,図13に示すように、表示画面6a内を縦方向に3つに分けた上段領域A,中段領域B,下段領域Cのそれぞれの領域内に複数種類の識別図柄が表示されている。これら各領域A〜Cには、それぞれ1〜9の連番の図柄番号が付けられた複数種類の識別図柄が表示される。
【0051】
通常変動時の上段領域Aおよび中段領域Cでは、1〜9の図柄番号が付けられた識別図柄が、1〜9の順番に表示画面6aに現れるように右側から左側へと移動するように表示される。通常変動時の下段領域Cでは、1〜9の図柄番号が付けられた識別図柄が、9〜1の順番に表示画面6aに現れるように右側から左側へと移動するように表示される。そして、各領域A〜Bにおける識別図柄の移動が停止することで、一回の通常変動が終了する。このとき、上段領域A、下段領域C、中段領域Bの識別図柄の順番でそのの移動が停止するが、上段領域Aおよび下段領域Cで停止した識別図柄が縦または斜め方向に同種のものであれば、通常変動からリーチへ移行して、リーチが開始される。リーチ時には、中段領域Bにおける識別図柄のみが移動して、最終的に縦または横方向に全て同種の識別図柄で停止すると、大当たり状態が発生することになる。以下、通常変動からリーチへ移行する際の表示態様について具体的に説明する。
【0052】
図12(a)は、通常変動時において、上段領域Aおよび下段領域Cの右側で、同種の識別図柄が停止した様子を示すものであり、中段領域Bの識別図柄は横方向に移動し続けている。例えば、表示画面6aの上段領域Aには、その左側に図柄番号「1」が付けられたタコの画像である識別図柄A1が、その右側に図柄番号「9」が付けられた蟹の画像である識別図柄A9が停止している。また、下段領域Cには、その左側に図柄番号「1」が付けられたタコの画像である識別図柄C1が、その右側には図柄番号「2」が付けられたハリセンボンの画像である識別図柄C2が停止している。一方、中段領域Bでは、図柄番号「7」が付けられたセイウチの画像である識別図柄B7や魚の画像である識別図柄B8等が右側から左側へ移動している。したがって、同種のタコの識別図柄A1,C1が、表示画面6aの左側で縦に揃った状態である。この同種の識別図柄A1,C1で揃ったものをリーチに関係する識別図柄といい、それ以外の例えば識別図柄A9,C2をリーチに関係のない識別図柄という。例えば識別図柄A9,C2等は、本発明におけるリーチに関係する識別以外の識別図柄に相当する。
【0053】
図12(b),(c),図13(a)〜(c)に示すように、下段領域Cの左側で停止していた識別図柄C1は、左側から右側へ移動する。さらに、この識別図柄C1の移動に従って、リーチに関係がない識別図柄A9,C2は徐々に消滅する。これにより、リーチに関係する識別図柄を遊技者に正確に認識させることができ、遊技者を惑わせることがなく遊技者の面白味を永続させることができる。また、下段領域Cの右側にまで識別図柄C1が移動したことによって、中段領域Bの中央で停止する識別図柄の種類によって大当たり状態になるか否かが決定する。なお、この図では現れていないが、リーチ時に中段領域Bにおける識別図柄の大きさが通常変動時の大きさに比べて大きく表示されている。このように、本パチンコ機では、リーチに特定の識別図柄の大きさを変化(拡大または縮小)させる大きさ可変手段の機能を備えている。
【0054】
次に、上述した図12,図13に示す表示態様を実現するために画像表示装置7で行なわれる処理を図14に示すフローチャートを参照しながら詳細に説明する。
【0055】
ステップT1(コマンドの把握)
I/F17は、制御基盤1から送られてくるコマンドを順次受信して、そのコマンドを3次元画像処理部19に順次渡す。3次元画像処理部19は、そのコマンドをワークRAM23に設けた図示しないコマンドバッファ内に記憶する。さらに、3次元画像処理部19は、液晶モニタ6からの割り込み処理があるたびに、コマンドバッファ内に記憶したコマンドを読み出し、そのコマンドに対応するプログラムROM22内のプログラムを実行して1画面分の表示画像を順次生成する。そのプログラムの実行によって、3次元画像処理部19内では、以下のステップが実行される。なお、上述した割り込み処理は液晶モニタ6の1/30秒または1/60秒ごとの例えば垂直走査信号に同期して行われる。
【0056】
ステップT2(ワールド座標系に視点を設定)
3次元画像処理部19は、表示画面に表示するワールド座標系内の位置を決めるための注目点を設定する。この注目点は、例えばワールド座標系に配置される特定のオブジェクトの配置位置にほぼ一致するような位置に設定される。さらに、その注目点に基づいてワールド座標系内の様子を液晶モニタ6の表示画面6aに表示するための視点を設定する。この視点は3次元の座標系の原点であり、視点からの視線の方向が注目点を向くように設定される。視線は、視点を原点とした座標系の例えばz軸である。以下、注目点に向いた視線を有する視点をワールド座標系に設定するまでの概念および具体的な算出方法について説明する。
【0057】
表示画面6aに識別図柄が表示される初期の状態において、図15に示すように、識別図柄A1等を表示するためのオブジェクトJ1等が、ワールド座標系内にそれぞれ配置される場合に、3次元画像処理部19は、表示画面6aのほぼ中央付近に識別図柄B7〔図12(a)参照〕を表示するためのオブジェクトJ7のワールド座標系における配置位置WPの座標値(WPx ,WPy ,WPz )を求める。この配置位置WPの座標値は、例えば本実施例のパチンコ機の場合にはプログラム内に予め用意されたワールド座標系の座標値を参照したり、例えばパチンコ機以外の遊技機の場合にはコントローラ等の入力手段からの入力信号に基づいて算出したりして求められるものである。3次元画像処理部19は、配置位置WPの座標値(WPx ,WPy ,WPz )を注目点の座標値として設定する。
【0058】
3次元画像処理部19は、図16に示すように、注目点の配置位置WPを原点Oとする新たな3次元の座標系をワールド座標系内に設定する。また、図17(a)に示すように、新たな3次元の座標系の2次元の各軸周りにその新たな3次元の座標系を回転させる。例えば、新たな3次元の座標系をx軸周りにθx °,y軸周りにθy °だけ回転させる。回転角度θx °,θy °は、例えば本実施例のパチンコ機の場合にはプログラム内に予め用意された回転角度のデータを参照したり、例えばパチンコ機以外の遊技機の場合にはコントローラ等の入力手段からの入力信号に基づいて算出したりして求められるものである。これにより、図17(b)に示すように、新たな座標系の他の一次元の軸であるz軸が、注目点を中心に各回転角度に応じて変位して、そのz軸が任意方向を向く。さらに、図17(c)に示すように、予め与えられている注目点から視点までの距離Lのデータに基づいて、新たな3次元の座標系のz軸上の注目点から距離Lだけ離れた配置位置P0 に、新たな座標系を移動させる。このとき、新たな3次元の座標系のz軸が注目点を向くように移動される。なお、本実施例では、視線の方向がz軸のプラス側になるように説明するが、これに限定されるものではなく、例えば視線の方向がz軸のマイナス側になるようにすることもできる。具体的には、3次元画像処理部19は、上述した注目点の配置位置WPの座標値と、新たな座標系の各軸周りの回転角度θx ,θy と、注目点からの距離Lとの各値を、次式(1)に示す式に代入する。
【0059】
(P0X, P0Y, P0Z)=(Lsinθy cosθx +WPx
,Lsinθx +WPy ,Lcosθy cosθx +WPz ) … (1)
【0060】
3次元画像処理部19は、上述した式(1)によって、注目点がz軸にある3次元の座標系の原点Oのワールド座標系における座標値(P0X, P0Y, P0Z)を算出し、その座標値(P0X, P0Y, P0Z)で特定されるワールド座標系の配置位置P0 に新たな3次元の座標系を移動させる。このワールド座標系の配置位置P0 における新たな3次元の座標系を、注目点を向く視線を有する視点SPとする。後の説明で明らかになるように、視点SPからの視線が向いた方向のワールド座標系内の様子が液晶モニタ6の表示画面6aに表示される。なお、この実施例では、注目点は移動させる場合について説明しないが、例えば適宜注目点を移動させることにより、視線の方向を変位させることもできる。ステップT2は、本いわば注目点設定手段および視線設定手段の機能である。
【0061】
ステップT3(各オブジェクトを配置)
3次元画像処理部19は、表示画面6aに識別図柄A1,C1(図12参照)をそれぞれ表示するためのオブジェクトJ1と、識別図柄A9(図12参照)を表示するためのオブジェクトJ9と、識別図柄B7(図12参照)を表示するためのオブジェクトB7と、識別図柄B8(図12参照)を表示するためのオブジェクトJ8と、識別図柄C2(図12参照)を表示するためのオブジェクトJ2とをキャラクタ記憶部18からそれぞれ読み出す。そして、図18に示すように、3次元画像処理部19は、各識別図柄が図12(a)で図示した表示画面6a上の各位置に表示されるように、視点SPの配置位置P0 の座標値(P0X, P0Y, P0Z)を基準とする各座標値に応じて、ワールド座標系内の各座標値を求めて、それら各座標値に基づく各配置位置に各オブジェクトJ1,J2,J7〜J9をそれぞれ配置する。
【0062】
具体的には、ワールド座標系内の配置位置P2 (P0X+ΔP2X,P0Y+ΔP2Y,P0Z+ΔP2Z)と配置位置P4 (P0X+ΔP4X,P0Y+ΔP4Y,P0Z+ΔP4Z)とにそれぞれオブジェクトJ1を、配置位置P1 (P0X+ΔP1X,P0Y+ΔP1Y,P0Z+ΔP1Z)にオブジェクトJ9を、配置位置P3 (P0X+ΔP3X,P0Y+ΔP3Y,P0Z+ΔP3Z)にオブジェクトJ2を、配置位置P5 (P0X+ΔP5X,P0Y+ΔP5Y,P0Z+ΔP5Z)にオブジェクトJ7を、配置位置P6 (P0X+ΔP6X,P0Y+ΔP6Y,P0Z+ΔP6Z)にオブジェクトJ8を、それぞれ配置する。さらに、貝の図柄を表示するためのオブジェクトをそれぞれの配置位置に配置する。なお、図18では便宜上各オブジェクトの形態を球体形状で図示しているが、各オブジェクトの形状はそれぞれの画像の形状に応じた3次元形状で形成されている。また、本実施例では、視点SPを基準として各オブジェクトJ1等を配置しているので、視点SPの配置位置や視線方向を変位させた場合すなわち注目点を移動させた場合であっても、各オブジェクトJ1等によって表示される識別図柄を表示画面6a上の一定の位置に表示させることができる。
【0063】
次に、表示画面6aの中段領域Bに表示される識別図柄B7,B8を表示するためのオブジェクトJ7,J8の配置位置P5 ,P6 の各X軸成分の座標値を割り込み処理ごとに順次更新(座標値を減算または加算)して、オブジェクトJ7,J8の各配置位置P5 ,P6 の位置を横方向(図18中の矢印で示す)に徐々に移動させる。さらに、図19に示すように、識別図柄C1を表示するためのオブジェクトJ1の配置位置P4 の座標値が、オブジェクトJ2の配置位置P3 の座標値に一致するまで、配置位置P4 の座標値を変化させて、オブジェクトJ1を配置位置P3 にまで移動させる。オブジェクトJ1の配置位置P4 の座標値が配置位置P3 の座標値に一致した時点で、オブジェクトJ2およびオブジェクトJ9の配置を止める。なお、ステップT3は、本発明におけるオブジェクト配置手段の機能に相当する。また、上述した移動方向は横方向に限らず、配置位置のX,Y,Zの各座標値を適宜更新することで、所定方向例えば縦,斜め,奥から手前方向にも同様に移動させることができる。
【0064】
ステップT4(視点座標系を変形補正)
3次元画像処理部19は、ワールド座標系内に配置された各オブジェクトJ1,J2,J7〜J9(以下、単に「オブジェクトJ1等」とよぶ)の配置位置P1 等の座標値を、視点SPを基準すなわち原点とする視点座標系の座標値に変換する。ここで、レンダリング処理部27によってフレームメモリ内に生成される表示画像の縦横比は3:4であるので、この表示画像を縦横比が9:16の表示画面6aに表示すると、表示画像が間延びした画像となるという弊害が生じる。そこで、表示画像の縦横比と、表示画面の縦横比とをに応じて、視点座標系を変形補正することにより、その視点座標系内に配置された各図柄等を変形させる。
【0065】
具体的には、3次元画像処理部19は、視点座標系を変形補正するための変形補正値を算出する。この変形補正値は、各オブジェクトJ1等の縦幅または横幅を拡大もしくは縮小するための倍率値である。変形補正値は、表示画面6aの縦横比をA:B、表示画像の縦横比をa:bとすると、次式(2)によって算出することができる。なお、次式(2)で算出される変形補正値は、表示画像の縦倍率を基準にして、その横幅を画面に合わせて変形した場合には、オブジェクト等の横幅を変形補正するための倍率値であり、表示画像の横倍率を基準にして、その縦幅を画面に合わせて変形した場合には、各オブジェクトJ1等の縦幅を変形補正するための倍率値である。
【0066】
(A×b)÷(a×B) …(2)
【0067】
フレームメモリ内に生成される表示画像の縦横比が3:4であり、表示画面6aの縦横比が9:16である場合には、表示画面6aには表示画像の縦横比が9:16で表示されるので、表示画像の横幅が4/3倍に拡大されたように表示される。このとき、表示画像に含まれるオブジェクトJ1〜J3の図柄の横幅も4/3倍に拡大される。ここで、式(2)に表示画像および表示画面6aの縦横比の各値を代入することで、各オブジェクトJ1〜J3の横幅を4分の3倍(以下、「3/4倍」と示す)に縮小する倍率値の変形補正値を算出する。さらに、3次元画像処理部19は、変形補正値に基づいて視点座標系の横方向(x軸方向)を3/4倍に縮小する。その結果、各オブジェクトJ1等は、視点座標系のx軸方向に3/4倍に縮小される。なお、この実施例では、ステップT4によって視点座標系を変形補正したが、変形補正することなくステップT4以降の処理を行うこともできる。
【0068】
ステップT5(投影平面に投影)
3次元画像処理部19は、視点SPとオブジェクトJ1等との間に、視点座標系の視線の方向であるz軸に垂直な投影平面TMを設定する(図18等参照)。投影平面TMは、視点座標系のz軸に垂直であり、z値が固定されているので、投影平面TM上では2次元の座標系として取り扱うことができる。この投影平面TMは、画像記憶部20内に設けられたフレームメモリに対応する領域を有している。
【0069】
さらに、3次元画像処理部19は、投影平面TMに各オブジェクトJ1等を透視投影または平行投影する。これにより、各オブジェクトJ1等をそれぞれ構成する各ポリゴンの各頂点は、投影平面TMに透視移動または平行移動するように投影され、各頂点の3次元の座標値が投影平面TM上の2次元の座標値に変換される。3次元画像処理部19は、全てのオブジェクトの投影が終了することにより、ワールド座標系内の各オブジェクトの投影情報を取得する。なお、本実施例では、遊技者が把握するための識別図柄を認識しすくするためには、各オブジェクトJ1等を平行投影し、例えばより立体感を表現するためには、各オブジェクトJ1等を透視投影することが好ましい。さらに、本実施例では、特に識別図柄以外の補助図柄について説明していないが、補助図柄にも同様に透視投影または平行投影を適用することができる。ステップT5は、本発明における投影手段の機能に相当する。
【0070】
ステップT6(表示画像を生成)
まず、3次元画像処理部19は、キャラクタ記憶部18に記憶されている背景画像を読み出し、その背景画像を画像記憶部20内のフレームメモリ内に描画する。この背景画像は、図12,13に図示したような例えば海中および海底の様子を表示する画像である。
【0071】
次に、3次元画像処理部19は、投影情報に含まれる各オブジェクトJ1等の各ポリゴンの各頂点の座標値に対応する画像記憶部20のフレームメモリ内のアドレス、すなわちフレームメモリ内の各オブジェクトJ1〜J3の各ポリゴンの位置を求める。そして、キャラクタ記憶部18から読み出したテクスチャを各ポリゴンに合わせて変形させながら各ポリゴンに描画する。これにより、背景画像上に、各オブジェクトJ1等の画像すなわち識別図柄A1等が重ねられた表示画像がフレームメモリ内に生成される。
【0072】
さらに、3次元画像処理部19は、プログラムROM22内から上述したマスクパターンM1〜M9を所定回数の割り込み処理ごとに順次読み出す。そして、ステップT3におけるオブジェクトJ1が配置位置P4 から配置位置P3 へ移動するのに従って、オブジェクトJ2,J9の各ポリゴンに合わせて変形後のテクスチャに、各マスクパターンM1〜M9を順次作用させる。それら各マスクパターンM1〜M9によって非表示の部分が設けられたテクスチャを各ポリゴンに描画する。これにより、図12,図13に示したように、識別図柄A9,C2を徐々に消滅するように表示することができる。なお、ステップT6は、本発明における表示画像生成手段の機能に相当する。
【0073】
ステップT7(表示)
3次元画像処理部19は、フレームメモリ内に生成された表示画像をビデオ出力部30を介して液晶モニタ6に出力する。液晶モニタ6は、割り込み処理ごとに3次元画像処理部19から送られてくる縦横比が3:4の表示画像を、縦横比が9:16の表示画面6aに合わせて順次表示する。その結果、図12(a)〜(c)および図13(a)〜(c)に示した表示態様が表示される。
【0074】
上述したパチンコ機では、ポリゴンの形状にあわせて変形後すなわちポリゴンにテクスチャを描画するときに、複数種類のマスクパターンM1〜M9によってテクスチャに非表示の部分を設けるとともに、テクスチャが貼付けられた画像が徐々に消滅するように、その非表示の部分を変化させているので、比較的簡単な処理で、例えばリーチに無関係の識別図柄が消滅するような面白味のある表示態様を表示することができ、遊技者の面白味を永続させることができる。また、一度揃った識別図柄を移動させるとともに、その識別図柄の移動に従ってリーチに無関係の識別図柄を消滅させているので、遊技者の面白味をより永続させることができる。
【0075】
なお、上述した実施例では、液晶モニタについて説明したが、例えば、液晶モニタの代わりにCRTモニタや、LEDモニタなどにすることもできる。
【0076】
また、上述した実施例では、識別図柄の透明度が変化して消滅するようにしたが、例えば、図11に示したように、、識別図柄の一部の非表示の部分の面積が広がって消滅するようにすることもできる。
【0077】
また、上述した実施例では、遊技機としてパチンコ機について説明したが、本発明はこれに限定されるものではなく、例えばスロットマシン、コインゲーム機などの遊技機に変形実施することができる。
【0078】
【発明の効果】
以上の説明から明らかなように、本発明によれば、識別図柄が徐々に非表示となる画像を、画像記憶手段から読み出して表示装置に表示することができ臨場感のある表を実現することができる。
【図面の簡単な説明】
【図1】実施例に係るパチンコ機の概略構成を示す外観図である。
【図2】実施例に係るパチンコ機の機能ブロック図である。
【図3】3次元画像処理部の機能ブロック図である。
【図4】パチンコ機の制御基盤での処理を示すフローチャートである。
【図5】表示画面6aにおける一表示態様を示す図である。
【図6】ポリゴンとテクスチャとの様子を示す図である。
【図7】ポリゴンをワールド座標系内に配置した様子を示す図である。
【図8】ポリゴンを投影平面に投影した様子を示す図である。
【図9】変形させたテクスチャにマスクパターンを作用させる様子を示す図である。
【図10】複数種類のマスクパターンを示す図である。
【図11】変形例における一表示態様を示す図である。
【図12】パチンコ機における実際の表示態様を示す図である。
【図13】パチンコ機における実際の表示態様の続きを示す図である。
【図14】画像表示装置での処理を示すフローチャートである。
【図15】ワールド座標系内に各オブジェクトを配置した様子を示す図である。
【図16】オブジェクトの配置位置に注目点を設定した様子を示す図である。
【図17】注目点に基づいて視点を設定する様子を示す図である。
【図18】ワールド座標系内の視点と各オブジェクトとの関係を示す図である。
【図19】ワールド座標系内の視点と各オブジェクトとの関係を示す図である。
【符号の説明】
1 … 制御基盤
6 … 液晶モニタ
6a… 表示画面
7 … 画像表示装置
18 … キャラクタ記憶部
19 … 3次元画像処理部
20 … 画像記憶部
22 … プログラムROM
M1〜M9 … マスクパターン
SP … 視点
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a gaming machine such as a pachinko machine, a slot machine or a coin gaming machine.InRelated.
[0002]
[Prior art]
  For example, there is a pachinko machine that is generally known as this type of gaming machine. This pachinko machine has two game states, a jackpot state that is advantageous for a player who can acquire a large number of pachinko balls and a normal state that is disadvantageous for a player who consumes pachinko balls. In any state, in order to perpetuate the interest of the player, a realistic display mode is displayed according to the game state. In particular, the display mode in the normal state includes a normal variation that simply changes the identification symbol, which is a two-dimensional image for the player to identify the gaming state, and an identification symbol that makes the player feel the occurrence of the jackpot state. And reach to fluctuate. In each of these display modes, for example, the player can feel a sense of realism by enlarging, reducing, or moving an identification symbol, which is a two-dimensional image drawn using a perspective method, on the display screen. Like.
[0003]
[Problems to be solved by the invention]
  However, the conventional pachinko machine described above has the following problems.
  In conventional pachinko machines, the identification pattern, which is a two-dimensional image, is simply enlarged, reduced, or moved on the display screen.etcAs a result, there was a problem that the player was unable to feel a sense of reality because the sense of reality was poor overall..
[0005]
  The present invention has been made in view of such circumstances, and gradually disappears.Identification patternDisplay images with relatively simple processingTo provide players with realistic imagesIt is an object to provide a gaming machine that can be used.
[0006]
[Means for Solving the Problems]
  In order to achieve such an object, the present invention has the following configuration.
  The configuration of the present invention includes a first storage means for storing an object formed by a plurality of polygons, and each polygon of the object.CorrespondSecond storage means storing texture, object placement means for placing an object read from the first storage means in a virtual three-dimensional space, and projecting the object placed in the virtual three-dimensional space onto a projection plane Matching the texture stored in the projection means and the second storage means with the shape of the objectchangeLet the objectPerform the corresponding paste processTexture pasting means;An area of a transparent region that is data to be applied to the texture corresponding to the object and in which the texture is transparentMultiple were provided so thatTransparent pattern dataA third storage means for storing the object and the objectAnd an identification pattern composed of a texture corresponding to the objectAn image storage means for storing a display image for at least one screen generated by a display image generation means for generating a display image including the image, and a display image stored in the image storage means is output and displayed on a display device. Image display meansWhen,The image display means includes:The area of the transparent area of the texture corresponding to the object isSaid to increaseTransparent pattern dataUsing multipleThe identification symbol is gradually hidden from the center toward the periphery.the imageRead from the image storage meansThe output is displayed on the display device..
[0016]
[Action]
  The operation of the present invention is as follows.
  The object placement unit reads an object formed by a plurality of polygons stored in the first storage unit, and places the object in the virtual three-dimensional space. The projection unit projects an object in the virtual three-dimensional space onto the projection plane.The texture pasting means changes the texture stored in the second storage means in accordance with the shape of the object and performs pasting processing to correspond to the object. The third storage means stores data to be applied to the texture corresponding to the object, and a plurality of transparent pattern data provided so that the areas of the transparent regions where the texture is transparent are different. The display image generation means generates a display image including an image of an identification symbol configured to include an object and a texture corresponding to the object. The image storage means stores at least one screen display image generated by these. The image display means outputs and displays the display image stored in the image storage means on the display device. Further, the image display means uses a plurality of transparent pattern data so as to increase the area of the transparent region of the texture corresponding to the object, and displays an image in which the identification pattern is gradually hidden from the center toward the periphery. The data is read from the storage means and output and displayed on the display device.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below with reference to the drawings.
A pachinko machine will be described as an example of a gaming machine equipped with an image display device. FIG. 1 is a front view showing a schematic configuration of a pachinko machine according to the present embodiment, FIG. 2 is a functional block diagram showing a schematic configuration of a control board and an image display device provided in the pachinko machine, and FIG. 3 is an image display device. It is a functional block diagram which shows schematic structure of the three-dimensional image process part in FIG.
[0018]
The pachinko machine according to this embodiment includes a game board 2 provided with a control board 1 (see FIG. 2) for controlling the entire pachinko machine, a frame 3 to which the game board 2 is attached, and a lower side of the game board 2. An upper receiving tray 4 provided, a rotary handle 5 connected to an unillustrated launching device for launching pachinko balls stored in the upper receiving tray 4 to the surface of the game board 2, and a lower provided on the lower side of the upper receiving tray 4 A display screen 6a of the liquid crystal monitor 6 for displaying a receiving tray 8, an identification symbol for identifying the gaming state by the player, and a symbol other than the identification symbol that is displayed to enhance the effect in the gaming state is a board surface of the gaming board 2 And an image display device 7 (see FIG. 2) mounted so as to be arranged at substantially the center. On the display screen 6a, one or a plurality of identification symbols and changes in auxiliary symbols (movement, rotation, deformation, etc.) on the background on which a predetermined pattern is drawn are displayed according to the gaming state in the gaming machine. The pachinko machine has two types of game states, a jackpot state in which the player can acquire a large number of pachinko balls and a normal state in which the player consumes the pachinko balls. In the normal state, a normal variation that is a display mode in which a plurality of identification symbols simply change, and a reach that is a display mode as if a big hit state occurs regardless of whether or not a big hit state has occurred are displayed. The On the other hand, in the jackpot state, auxiliary symbols are mainly displayed, and a different display mode is displayed for each round. In addition, when a game is not performed in the pachinko machine, a demonstration or the like is displayed. Here, the identification symbol refers to the image of a symbol number or symbol number attached to allow the player to recognize the gaming state such as jackpot or reach in the pachinko machine, and the auxiliary symbol is a jackpot or reach etc. The symbol other than the identification symbol displayed in order to enhance the effect.
[0019]
The game board 2 includes a rail 2a for guiding a pachinko ball launched by the rotary handle 5 to the board surface, a plurality of non-illustrated nails that guide the pachinko ball to unspecified places, and a pachinko ball that has been induced by the nail. A plurality of winning holes 2b for winning, a starting hole 2c for winning a pachinko ball guided near the center of the game board 2, and a relatively large number of pachinko balls to be awarded at a time in a specific gaming state. And a large winning opening 2d that can be used. A winning detection sensor 11 (see FIG. 2) for detecting the entrance of a pachinko ball is provided in each winning opening 2b, start opening 2c, and large winning opening 2d. When the winning detection sensor 11 detects the entrance of the pachinko ball, a predetermined number of pachinko balls are supplied to the upper tray 4 by the control board 1 provided in the game board 2. A start start sensor 12 (see FIG. 2) is provided in the start port 2c. Furthermore, an open / close solenoid 13 (see FIG. 2) is provided at the special winning opening 2d. The operation of the open / close solenoid 13 allows the special winning opening 2d to be closed. In addition to what has been described above, for example, a holding lamp or the like for storing the number of pachinko balls that have entered the start port 2c is provided, but description thereof is omitted in this embodiment.
[0020]
The upper receiving tray 4 has a receiving tray shape, and stores the pachinko balls supplied from the ball supply port 4a to which the pachinko balls are supplied. Further, on the opposite side of the upper tray 4 where the ball supply port 4a is disposed, a ball feed port (not shown) that communicates with a launching device that launches a pachinko ball toward the rail 2a is provided. Furthermore, a ball removal button 4b for transferring the stored pachinko balls to the lower tray 8 is provided at the upper part of the upper tray 4 and the pachinko balls stored in the upper tray 4 are pressed by pressing this ball removal button 4b. Can be transferred to the lower tray 8. The lower receiving tray 8 has a receiving tray shape and receives a pachinko ball transferred from the upper receiving tray 4. In addition, the lower tray 8 is provided with a ball removal lever (not shown) for removing the pachinko balls stored therein.
[0021]
The rotary handle 5 is connected to a launching device that launches a pachinko ball toward the rail 2a. By rotating the rotary handle 5, the launching device launches a pachinko ball with a strength corresponding to the amount of rotation. Note that when the player holds the rotary handle 5 in a rotated state, the launching device launches one pachinko ball at a predetermined interval.
[0022]
As shown in FIG. 2, the control board 1 provided in the game board 2 includes a main control unit 16 that is a microcomputer including a memory and a CPU, and a counter 14 that outputs a value that determines a gaming state in the gaming machine. A start start sensor 12 for detecting the entrance of a pachinko ball at the start port 2c (see FIG. 1), a winning detection sensor 11 for detecting the entrance of the pachinko ball at the winning port 2b (see FIG. 1), and a big prize An open / close solenoid 13 that opens and closes the mouth 2d (see FIG. 1), an I / F (interface) 15 that is connected to an I / F (interface) 17 of the image display device 7 so that information can be distributed, and the like. Yes. The control board 1 supplies a predetermined amount of pachinko balls based on the detection of the ball detection sensors at the winning opening 2b and the start opening 2c described above, and executes various events for operating a lamp and a speaker (not shown). Is. In addition, the control board 1 transmits various commands for instructing a display mode according to the gaming state to the image display device 7 through the I / F 15.
[0023]
Specifically, the processing performed in the control board 1 will be described in detail with reference to the flowchart shown in FIG.
Step S1 (detects the incoming ball)
A player drives a pachinko ball into the game board 2 with the rotary handle 5 and starts a pachinko game. A part of the pachinko balls driven into the game board 2 are led to the vicinity of the center of the board surface and enter the starting port 2c. When the pachinko ball enters the start port 2c, the start sensor 12 that detects the ball that has entered the start port 2c sends a start signal to the main control unit 16 and also receives a prize provided in the start port 2c. The detection sensor 11 sends a winning signal to the main control unit 16. In this embodiment, the start sensor 12 and the winning detection sensor 11 are used together by the same sensor. Even when a pachinko ball enters the winning opening 2b, the winning detection sensor 11 of each winning opening 2b sends a winning signal to the main control unit 16.
[0024]
Step S2 (supplying pachinko balls)
When detecting a winning signal from the winning detection sensor 11, the main control unit 16 operates a pachinko ball supply mechanism (not shown) to supply a predetermined amount of pachinko balls to the upper tray 4 through the ball supply port 4a.
[0025]
Step S3 (Lottery lottery)
When the main controller 16 detects a start signal from the start sensor 12, the main controller 16 reads the output value of the counter 14 and performs a lottery lottery. In the big hit lottery, if the output value of the counter 14 is a predetermined value, “big hit” is generated. On the other hand, if the output value of the counter 14 is other than the predetermined value, the normal gaming state of “out of” is continued.
[0026]
Step S4 (send command)
The main control unit 16 determines a display mode according to the normal gaming state or a specific gaming state, and transmits a command according to the display mode to the image display device 7 via the I / F 15. The command is an instruction for causing the image display device 7 to execute a predetermined display program, and a display pattern corresponding to the gaming state is displayed on the display screen 6a by executing the display program. For example, in the case of a jackpot, the main control unit 16 transmits a command instructing the start of a predetermined reach, and a command instructing the type of jackpot identification symbol to be stopped at the final stage of the reach after a predetermined time has elapsed. Send. As a result, the reach of the type designated by the command is displayed on the display screen 6a of the image display device 7 and then displayed so as to stop at the jackpot identification symbol of the type designated by the command. At this time, the main control unit 16 gives a release signal to the open / close solenoid 13 to open the big winning opening 2d after the stop of the jackpot identification symbol is displayed on the display screen 6a, so that the player has a number of players. Make the pachinko ball ready. Further, in this gaming state, the control board 1 gives, for example, that about 10 balls have won a prize winning opening 2d as one round, and each round ends or the start of the next round is instructed. The command is transmitted to the image display device 7. Thereby, the display mode of a different pattern for every round is displayed on the display screen 6a. On the other hand, in the case of losing, a command for instructing the type of identification symbol of losing to be stopped at the final stage of reach, or a command for stopping the identification symbol that is fluctuated in the normal gaming state with the identifying symbol of losing. It transmits to the image display device 7. As a result, the display screen 6a is displayed so as to stop at the losing identification symbol after displaying the reach, or to stop at the losing identification symbol after normal fluctuation.
[0027]
Step S5 (new entry detection?)
The main control unit 16 waits until it detects the presence or absence of a new start signal from the start sensor 12 (new entry). If there is no new start signal, this process is terminated and the process waits until a new start signal is detected. The control board 1 that executes the above-described steps S1 to S5 corresponds to a game state generating means. Note that the start-up sensor 12 detects the entrance of the pachinko ball during the variation of the identification symbol (reach, normal variation, etc.), and stores the number of the pachinko balls that have entered the hold lamp, which is omitted from the above description. If it is, the lighting of the holding lamp is detected as a new start signal. If there is a new start signal, steps S2 to S4 are repeated.
[0028]
As shown in FIG. 2, the image display device 7 includes an I / F 17 that receives a command sent from the control board 1, and a 3D that is arranged in a world coordinate system that is a virtual 3D space based on the command. A character storage unit 18 that stores an object that is information, a texture and background image that is image information of the pattern of the object, and executes a program according to the received command to set the object in the world coordinate system, and A three-dimensional image processing unit 19 that generates a display image in which a texture is pasted on an object, an image storage unit 20 that temporarily stores the display image generated by the three-dimensional image processing unit 19, and a liquid crystal that displays the display image And a monitor 6. The world coordinate system is a three-dimensional coordinate system corresponding to the virtual three-dimensional space in the present invention. An object is a three-dimensional virtual object arranged in the world coordinate system, and is three-dimensional information composed of a plurality of polygons. A polygon is a polygonal plane defined by vertices of a plurality of three-dimensional coordinates. A texture is an image that is pasted on each polygon of an object. By pasting a texture on an object, an image corresponding to the object, such as an identification symbol, an auxiliary symbol, or a background, is generated.
[0029]
The I / F 17 is connected to the I / F 15 of the control board 1 so as to be able to distribute information, and receives commands sent from the control board 1. The I / F 17 sequentially passes the received commands to the three-dimensional image processing unit 19.
[0030]
The character storage unit 18 is a memory that stores an object that is three-dimensional information that is appropriately read from the three-dimensional image processing unit 19 and a texture that is a two-dimensional image of the object. Specifically, the character storage unit 18 displays a jackpot identification pattern such as a fish or octopus texture, a round display pattern texture indicating the number of jackpot rounds, and a presentation effect during the round. Along with various textures such as a texture of a sea turtle pattern, a plurality of types of objects composed of one or a plurality of polygons to which each texture is pasted are stored. Further, the character storage unit 18 also stores a background image on which, for example, a seabed coral reef pattern is displayed as the background of the display screen 6 a of the liquid crystal monitor 6. The data of each object, texture, and background image is appropriately read out by the three-dimensional image processing unit 19 when the display image is generated. The character storage unit 18 that stores objects and textures corresponds to the first storage unit and the second storage unit in the present invention.
[0031]
The three-dimensional image processing unit 19 includes a CPU (central processing unit) that controls and manages the entire image display device, a memory that appropriately stores calculation results in the CPU, an image data processor that generates an image to be output to the liquid crystal monitor 6, and the like. It is what is done. In order to realize a display mode according to the command, the three-dimensional image processing unit 19 includes a viewpoint and character storage unit 18 in a world coordinate system that is a three-dimensional coordinate system corresponding to the virtual three-dimensional space of the present invention. Various read-out objects are arranged, and so-called geometry calculation processing is performed in which the objects are changed or the viewpoint is displaced. Also, projection information that is two-dimensional coordinate information obtained by projecting an object in the world coordinate system onto a projection plane based on the line of sight from the viewpoint is generated. Based on the projection information, a position corresponding to the vertex of each polygon of each object in the frame memory provided in the image storage unit 20, that is, an address in the frame memory is obtained. Then, the texture read from the character storage unit 18 is deformed so as to match the vertex of each polygon of each object, and the texture is drawn based on each address in the frame memory. At this time, if the texture is a texture to be attached to an object of an identification symbol that disappears from the display screen 6a, the texture is made translucent by a predetermined mask pattern. When the drawing of the texture on all objects is completed, a display image is generated in the frame memory of the image storage unit 20 and the display image is output to the liquid crystal monitor 6. As will be apparent from the following description, the three-dimensional image processing unit 19 corresponds to an object placement unit, a projection unit, a display image generation unit, and a third storage unit in the present invention.
[0032]
The three-dimensional image processing unit 19 is configured as follows, for example. Hereinafter, an example of the three-dimensional image processing unit 19 will be described in detail with reference to FIG.
As illustrated in FIG. 3, the three-dimensional image processing unit 19 includes a CPU 21, a program ROM 22 that stores a program executed by the CPU 21, a work RAM 23 that stores data obtained by executing the program, and an instruction from the CPU 21. A DMA 24 that collectively transfers data stored in the work RAM 23, an I / F 25 that receives data transferred by the DMA 24, and a geometry calculation processing unit 26 that performs coordinate calculation processing based on the data received by the I / F 25 A rendering processing unit 27 that generates a display image based on data received by the I / F 25, a palette processing unit 28 that appropriately supplies color information based on a plurality of types of color palettes to the rendering processing unit 27, and an image storage unit A plurality of frame memories provided in 20 A selector unit 29 for switching, and a video output section 30 for outputting to the liquid crystal monitor 6 to display images. The CPU 21, the program ROM 22, the work RAM 23, the DMA 24, and the I / F 25 are connected to the same data bus, and the character storage unit 18 that stores objects, textures, and the like is independent of the data bus described above. It is connected to the geometry calculation processing unit 26 and the rendering processing unit via a data bus.
[0033]
The program ROM 22 is a program that is first executed by the CPU 21 when the gaming machine is powered on, a plurality of types of programs for displaying according to the types of commands sent from the control board 1, and map data The data of the mask pattern for making the color palette and the texture translucent are stored. For example, a program for performing display sets an object and a viewpoint in the world coordinate system in order to realize a display mode according to a command by referring to a prepared table or performing arithmetic processing on the referenced data. Setting information for deriving is derived. The display program includes not only a program that is executed alone, but also a program that generates a task for performing display according to the type of command by combining a plurality of tasks, for example. The setting information includes the coordinate value for placing the object in the world coordinate system, the rotation angle that indicates the posture of the object placed in the world coordinate system by the amount of rotation from the reference posture of the object, The coordinate value for setting the viewpoint in the world, the rotation angle for rotating the line of sight in order to set the line of sight of the viewpoint in the world coordinate system (for example, the z axis) in a predetermined direction, the object, texture, and background stored in the character storage unit 18 It is information for generating a display image for one screen to be displayed on the display screen 6a as well as information including various data such as storage addresses of images and the like.
[0034]
The CPU 21 is a central processing unit that manages and controls the entire image display device 7 using a control program stored in the program ROM 22, and mainly executes a program corresponding to a command sent from the control board 1. In order to display a predetermined display mode on the display screen 6a, processing for setting an object and a viewpoint in the world coordinate system is performed. Specifically, the CPU 21 sequentially writes setting information obtained by executing a display program for performing display corresponding to the command in accordance with the type of command received by the I / F 17 to the work RAM 23, The DMA 24 is instructed to transfer setting information in the work RAM 23 at every interrupt processing interval (for example, 1/30 seconds or 1/60 seconds).
[0035]
The work RAM 23 temporarily stores setting information that is an execution result obtained by the CPU 21. The DMA 24 is a so-called direct memory access controller that can transfer the data stored in the work RAM 23 without the processing in the CPU 21. That is, the DMA 24 collectively transfers the setting information stored in the work RAM 23 to the I / F 25 based on the transfer start instruction from the CPU 21.
[0036]
The I / F 25 receives the setting information transferred by the DMA 24. The I / F 25 performs coordinate operations such as a storage address of an object stored in the character storage unit 18 included in the setting information, an arrangement coordinate value for arranging the object in the world coordinate system, and an arrangement coordinate value for setting a viewpoint. Is provided to the geometry calculation processing unit 26, and data of a storage address such as basic texture data stored in the character storage unit 18 included in the setting information to be image drawn is provided to the rendering processing unit 27. . Further, the I / F 25 provides the palette processing unit 28 with a color palette for instructing the color of the texture included in the setting information.
[0037]
The geometry calculation processing unit 26 performs coordinate calculation processing accompanying movement or rotation of a three-dimensional coordinate point based on data given from the I / F 25. Specifically, the geometry calculation processing unit 26 reads a plurality of polygon-configured objects arranged in the local coordinate system based on the storage address of the object stored in the character storage unit 18, and based on the rotation angle. The coordinate value of each polygon of the object in the world coordinate system when the object of the rotated posture is arranged in the world coordinate system based on the arrangement coordinate value is calculated. The local coordinate system is an object-specific coordinate system in which an object having a reference posture is set. Further, the coordinate value of each polygon of the object in the viewpoint coordinate system based on the viewpoint set based on the arrangement coordinate value and the rotation angle of the viewpoint is calculated. Furthermore, projection information including two-dimensional coordinate values of each polygon of the object on the projection plane when the object is projected onto the projection plane set perpendicular to the line of sight based on the viewpoint is calculated. Then, the geometry calculation processing unit 26 gives the projection information to the rendering processing unit 27.
[0038]
The palette processing unit 28 includes a palette RAM (not shown) that stores a plurality of types of color palettes composed of a plurality of types of color information written by the CPU 21, and the color palette data instructed from the CPU 21 through the I / F 25. This is given to the rendering processing unit 27. Giving a color palette means giving the storage address of the color palette stored in the palette RAM, for example, to the rendering processing unit 27, and the rendering processing unit 27 stores the display image when the display image is generated. Refer to color information. Each color information is determined by a combination of red (R), green (G), and blue (B). When the color palette data size is, for example, 16 bits, each value of 0 to 15 is used. Is assigned predetermined color information. Further, each data of the color palette, that is, each palette is assigned to each dot constituting the texture, and the entire texture is drawn by drawing each dot with the color information of each palette. It should be noted that by sequentially changing the color information assigned to each palette of this color palette, it is possible to generate a plurality of types of textures having different hues in stages.
[0039]
The rendering processing unit 27 first reads a background image based on a storage address where the background image in the character storage unit 18 is stored, and draws the background image in a frame memory provided in the image storage unit 20. Then, each polygon of the object based on the projection information is expanded in the frame memory. Furthermore, the rendering processing unit 27 renders the texture read from the character storage unit 18 on an area corresponding to each polygon in the frame memory based on the texture storage address in the character storage unit 18 and the data of the color palette. . At this time, if an identification symbol to be erased from the display screen 6a is drawn, the rendering processing unit 27 partially thins out the texture color information with the mask pattern instructed by the CPU 21 to make it translucent. As a result, a display image in which images of symbols corresponding to various objects are drawn on the background image is generated in the frame memory. This display image is a display image having a predetermined aspect ratio, for example, an aspect ratio of 3: 4, depending on the capacity of the frame memory. In the above-described geometry calculation processing unit 26 and rendering processing unit 27, clipping processing for determining a portion to be displayed on the screen, hidden surface processing for determining a visible portion and an invisible portion according to the front-rear relationship of the polygon, and light from the light source Processing such as shading calculation processing for calculating the state of hitting and the state of reflection is also performed as appropriate.
[0040]
The selector unit 29 selects a plurality of frame memories as appropriate. Specifically, the selector unit 29 is, for example, a first frame memory or a second frame memory, which is a plurality of frame memories provided in the image storage unit 20 when an image is drawn by the rendering processing unit 27 described above. Select one of the frame memories. In this case, a display image is generated in the selected frame memory. On the other hand, the selector unit 29 reads a display image for which a display image has already been generated from the frame memory on the side where drawing has not been performed, and sends the display image to the video output unit 30. The selector unit 29 sequentially switches between the reading-side frame memory and the drawing-side frame memory. The video output unit 30 converts the display image sent from the selector unit 29 into a video signal and outputs the video signal to the liquid crystal monitor 6.
[0041]
The image storage unit 20 is a so-called video RAM that stores a display image generated by the rendering processing unit 27. The image storage unit 20 constitutes a so-called double buffer provided with a first frame memory and a second frame memory which are storage areas for storing display images for one screen, for example. Note that the number of frame memories provided in the image storage unit 20 is not limited to two, and may be any number as long as it is one or more.
[0042]
The liquid crystal monitor 6 includes a screen 6 a that displays a display image output from the video output unit 30, and is attached so that the screen 6 a is exposed on the board surface of the game board 2. The display screen 6a is, for example, a so-called wide screen with an aspect ratio of 9:16, and the liquid crystal monitor 6 uses the display image output from the video output unit 30 with an aspect ratio of 3: 4 as the aspect ratio of the display screen 6a. In addition, the display image is displayed on the display screen 6a. The liquid crystal monitor 6 also has a function of displaying a display image having an aspect ratio of 3: 4 as it is, and appropriately changes the aspect ratio of the display image displayed on the display screen 6a according to the gaming state. You can also. The liquid crystal monitor 6 corresponds to display means in the present invention.
[0043]
First, in order to facilitate understanding of the present invention, processing when the display mode shown in FIG. 5 is displayed will be described. FIG. 5 illustrates how the image displayed in the trapezoidal shape gradually disappears. As shown in FIG. 5A, the display screen 6a displays a three-dimensional image obtained by viewing a substantially square plane G lying in a predetermined space from diagonally above. Further, as shown in FIGS. 5B to 5D, the display screen 6a displays a state in which the hue of the image on the plane G gradually fades and disappears as time elapses.
[0044]
The above-described three-dimensional image of the plane G is displayed by a polygon and a texture pasted on the polygon. In this embodiment, polygons will be described, but the same applies to an object composed of one or a plurality of polygons. Specifically, as shown in FIG. 6, the image of the plane G displayed on the display screen 6a includes, for example, one rectangular polygon GP (see FIG. 6A) set in the local coordinate system, It is generated with the texture T (see FIG. 6B) which is an image pasted on the polygon GP. The polygon GP is composed of four vertices P1 to P4 represented by three-dimensional coordinate values in the local coordinate system. The texture T is composed of an image surrounded by vertices P1 to P4 that coincide with the vertices P1 to P4 of the polygon GP. The polygon GP and the texture T are stored in the character storage unit 18.
[0045]
As shown in FIG. 7, the three-dimensional image processing unit 19 reads the polygon GP from the character storage unit 18 and arranges the polygon GP in the world coordinate system which is a virtual three-dimensional space. Furthermore, the three-dimensional image processing unit 19 sets a viewpoint SP for displaying the state in the world coordinate system, and sets a projection plane TM perpendicular to the line of sight from the viewpoint SP (in the z-axis direction in the drawing). Then, the vertices P1 to P4 of the polygon GP in the world coordinate system are respectively perspective projected onto the projection plane TM. As a result, as shown in FIG. 8, a substantially square polygon GP in the world coordinate system is projected in a trapezoidal shape on the projection plane TM, and the vertices P1 to P3 of the polygon GP are two-dimensional coordinate values on the projection plane TM. Is converted to
[0046]
As shown in FIG. 9A, the three-dimensional image processing unit 19 deforms the shape of the texture T read from the character storage unit 18 so as to match the shape of the polygon GP on the projection plane TM, and the polygon GP. Affix to That is, drawing is performed so that the vertices P1 to P4 of the polygon GP and the vertices P1 to P4 of the texture T coincide with each other. When the drawing is completed, the display image generated in the projection plane TM, that is, in the frame memory is sent to the liquid crystal monitor 6. Thereby, the image of the plane G shown in FIG. 5A is displayed on the display screen 6a of the liquid crystal monitor 6.
[0047]
A plurality of types of mask patterns are stored in the program ROM 22 of the three-dimensional image processing unit 19 described above. The plurality of types of mask patterns are for applying a non-displayed portion that is not displayed on the display screen 6a to the texture T after being deformed so as to act on the texture T after being deformed according to the polygon GP. The non-display portion provided in the texture T is changed stepwise until the entire texture T is not displayed so that the plane G which is an image of the polygon GP to which the texture T is pasted is gradually disappeared. ing.
[0048]
Specifically, mask patterns M <b> 1 to M <b> 9 shown in FIG. 10 are stored in the program ROM 22. The portion indicated by reference numeral 60 (indicated by the downward slanted line in the figure) of the mask patterns M1 to M9 is data for providing a non-display portion on the texture T, and the portion indicated by reference numeral 61 is an image of the texture T. The remaining portion, that is, the portion displayed on the display screen 6a. More specifically, the mask pattern M1 is stored in the program ROM 22 as 8-byte data of 00H, 11H, 00H, 00H, 00H, 11H, 00H, and 00H. For example, since 11H is a hexadecimal number, when it is expressed in binary, it becomes “00010001”, where “1” corresponds to the portion of reference numeral 60 and “0” corresponds to the portion of reference numeral 61. Similarly, the mask pattern M2 is 8 bytes of 00H, 11H, 00H, 44H, 00H, 11H, 00H, 44H, and the mask pattern M3 is 8 bytes of 00H, 55H, 00H, 55H, 00H, 55H, 00H, 55H. The mask pattern M4 is 8 bytes of 22H, 55H, 88H, 55H, 22H, 55H, 88H, 55H, and the mask pattern M5 is 8 bytes of AAH, 55H, AAH, 55H, AAH, 55H, AAH, 55H, mask. The pattern M6 is 8 bytes of BBH, DDH, AAH, 55H, BBH, DDH, AAH, 55H, and the mask pattern M7 is 8 bytes of BBH, FFH, AAH, 77H, BBH, FFH, AAH, 77H, mask pattern M8 Are BBH, FFH, EEH, FFH, BBH, FFH, EEH, FF 8 bytes, the mask pattern M9 is, FFH, FFH, FFH, FFH, FFH, FFH, FFH, is stored respectively in the program in the ROM22 as 8-byte data of FFH. In this embodiment, nine mask patterns changing in nine steps are used. However, the present invention is not limited to this, and any number of mask patterns changing in two or more steps may be used. Moreover, it is not limited to the pattern of each of these mask patterns.
[0049]
The three-dimensional image processing unit 19 draws the texture T in which the portion of the reference numeral 60 overlapping the texture T is not displayed on the polygon GP by sequentially superimposing these mask patterns M1 to M9 on the texture T after deformation. . For example, the case where the mask pattern M5 is used will be described as an example. As shown in FIG. 9A, the maximum pattern M5 is formed on the texture T so that a non-display portion is provided on the entire texture T after deformation. Repeat. As a result, as shown in FIG. 9B, the texture T can be in a state where, for example, non-displayed portions are provided in a staggered pattern, and the display screen 6a is drawn by drawing the texture T on the polygon GP. The image of the plane G having a zigzag pattern can be displayed. As shown in FIGS. 5A to 5D, the mask patterns M1 to M9 are applied to the texture T in such an order that the number of non-display portions increases stepwise. A display mode in which the G image disappears gradually can be realized. In this embodiment, the case where the number of non-display portions increases stepwise has been described. However, for example, a mask pattern in which the area of the non-display portions increases stepwise can be used. When such a mask pattern is used, as shown in FIGS. 11A to 11D, a display in which a non-display part spreads from one point on the image of the plane G to the periphery thereof and the image disappears. An aspect can also be displayed. In contrast to FIG. 11, a mask pattern that disappears from the periphery of the image toward the center may be used. Furthermore, a mask pattern that disappears from one end of the peripheral edge of the image toward the other end may be used.
[0050]
Next, display modes actually displayed on the pachinko machine according to the present embodiment using the above-described processing will be described with reference to FIGS.
The display screen 6a of the liquid crystal monitor 6 has display modes as shown in FIGS. 12A to 12C and FIGS. 13A to 13C based on commands sent from the control board 1. FIG. Is displayed. This display mode is one mode when shifting from normal fluctuation to reach in a pachinko machine. Here, as shown in FIGS. 12 and 13, the display screen 6 a includes a plurality of display screens 6 a in the upper region A, the middle region B, and the lower region C divided into three in the vertical direction. The type of identification symbol is displayed. In each of these areas A to C, a plurality of types of identification symbols with sequential symbol numbers 1 to 9 are displayed.
[0051]
In the upper region A and the middle region C at the time of normal fluctuation, the identification symbols with the symbol numbers 1 to 9 are displayed so as to move from the right side to the left side so that they appear on the display screen 6a in the order of 1 to 9. Is done. In the lower region C at the time of normal fluctuation, the identification symbols assigned symbol numbers 1 to 9 are displayed so as to move from the right side to the left side so as to appear on the display screen 6a in the order 9 to 1. Then, when the movement of the identification symbol in each of the areas A to B is stopped, one normal variation is completed. At this time, the movement of the upper stage area A, the lower stage area C, and the middle stage area B is stopped in the order of the identification symbols, but the identification symbols stopped in the upper stage region A and the lower stage region C are of the same type in the vertical or diagonal direction. If there is, the shift is made from normal fluctuation to reach, and reach is started. At the time of reach, if only the identification symbols in the middle area B move and finally stop at the same type of identification symbols in the vertical or horizontal direction, a big hit state will occur. Hereinafter, a display mode when shifting from normal variation to reach will be described in detail.
[0052]
FIG. 12A shows a state where the same type of identification symbol has stopped on the right side of the upper region A and the lower region C during normal fluctuation, and the identification symbol of the middle region B continues to move in the horizontal direction. ing. For example, in the upper area A of the display screen 6a, an identification symbol A1 which is an image of an octopus with a symbol number “1” on the left side is an image of an eagle with a symbol number “9” on the right side. A certain identification symbol A9 is stopped. Further, in the lower area C, an identification symbol C1 which is an image of an octopus with a symbol number “1” on the left side thereof, and an identification symbol which is an image of a harisenbon with a symbol number “2” on the right side thereof. C2 is stopped. On the other hand, in the middle region B, an identification symbol B7, which is an image of a walrus with a symbol number “7”, an identification symbol B8, which is an image of a fish, and the like move from the right side to the left side. Therefore, the identification patterns A1 and C1 of the same kind of octopus are vertically aligned on the left side of the display screen 6a. A combination of the same kinds of identification symbols A1 and C1 is called an identification symbol related to reach, and other identification symbols A9 and C2 are called identification symbols not related to reach. For example, the identification symbols A9, C2, etc. correspond to identification symbols other than the identification related to the reach in the present invention.
[0053]
As shown in FIGS. 12B, 12 </ b> C, and 13 </ b> A to 13 </ b> C, the identification symbol C <b> 1 that has stopped on the left side of the lower region C moves from the left side to the right side. Furthermore, according to the movement of the identification symbol C1, the identification symbols A9 and C2 that are not related to reach gradually disappear. Thereby, it is possible to make the player accurately recognize the identification symbol related to the reach, and it is possible to make the player's interests permanent without confusing the player. Further, when the identification symbol C1 has moved to the right side of the lower region C, whether or not a big hit state is determined according to the type of the identification symbol that stops at the center of the middle region B is determined. Although not shown in this figure, the size of the identification symbol in the middle region B during the reach is displayed larger than the size in the normal variation. As described above, the present pachinko machine has a function of a size changing means for changing (enlarging or reducing) the size of a specific identification symbol to reach.
[0054]
Next, processing performed in the image display device 7 to realize the display modes shown in FIGS. 12 and 13 will be described in detail with reference to the flowchart shown in FIG.
[0055]
Step T1 (Understanding commands)
The I / F 17 sequentially receives commands sent from the control board 1 and sequentially passes the commands to the three-dimensional image processing unit 19. The three-dimensional image processing unit 19 stores the command in a command buffer (not shown) provided in the work RAM 23. Further, each time there is an interrupt process from the liquid crystal monitor 6, the three-dimensional image processing unit 19 reads a command stored in the command buffer and executes a program in the program ROM 22 corresponding to the command to execute one screen worth. Display images are sequentially generated. By executing the program, the following steps are executed in the three-dimensional image processing unit 19. The interrupt process described above is performed in synchronization with, for example, a vertical scanning signal every 1/30 seconds or 1/60 seconds of the liquid crystal monitor 6.
[0056]
Step T2 (Set viewpoint in world coordinate system)
The three-dimensional image processing unit 19 sets an attention point for determining a position in the world coordinate system to be displayed on the display screen. This point of interest is set at a position that substantially matches the arrangement position of a specific object arranged in the world coordinate system, for example. Furthermore, a viewpoint for displaying the state in the world coordinate system on the display screen 6a of the liquid crystal monitor 6 is set based on the attention point. This viewpoint is the origin of the three-dimensional coordinate system, and is set so that the direction of the line of sight from the viewpoint faces the point of interest. The line of sight is, for example, the z axis of the coordinate system with the viewpoint as the origin. Hereinafter, a concept and a specific calculation method until a viewpoint having a line of sight directed to the attention point is set in the world coordinate system will be described.
[0057]
In the initial state where the identification symbol is displayed on the display screen 6a, as shown in FIG. 15, when the objects J1 and the like for displaying the identification symbol A1 and the like are respectively arranged in the world coordinate system, the three-dimensional The image processing unit 19 displays the coordinate value (WP) of the arrangement position WP in the world coordinate system of the object J7 for displaying the identification symbol B7 [see FIG. 12 (a)] in the vicinity of the center of the display screen 6a.x, WPy, WPz) For example, in the case of the pachinko machine of this embodiment, the coordinate value of the arrangement position WP refers to the coordinate value of the world coordinate system prepared in advance in the program, or the controller in the case of a gaming machine other than the pachinko machine, for example. Or the like based on an input signal from the input means. The three-dimensional image processing unit 19 uses the coordinate value (WP) of the arrangement position WP.x, WPy, WPz) Is set as the coordinate value of the point of interest.
[0058]
As shown in FIG. 16, the three-dimensional image processing unit 19 sets a new three-dimensional coordinate system having the origin point O as the target point arrangement position WP in the world coordinate system. Also, as shown in FIG. 17A, the new three-dimensional coordinate system is rotated around each two-dimensional axis of the new three-dimensional coordinate system. For example, a new three-dimensional coordinate system is θ around the x axis.x°, θ around y-axisyRotate only °. Rotation angle θx°, θyFor example, in the case of the pachinko machine of this embodiment, the rotation angle data prepared in advance in the program is referred to, or in the case of a gaming machine other than the pachinko machine, an input signal from an input means such as a controller Or calculated based on the above. As a result, as shown in FIG. 17B, the z axis, which is another one-dimensional axis of the new coordinate system, is displaced according to each rotation angle around the point of interest, and the z axis is arbitrary. Turn to the direction. Further, as shown in FIG. 17C, the distance L from the point of interest on the z-axis of the new three-dimensional coordinate system is separated based on the data of the distance L from the point of interest to the viewpoint given in advance. Placement position P0Next, move the new coordinate system. At this time, the z-axis of the new three-dimensional coordinate system is moved so as to face the point of interest. In this embodiment, the line-of-sight direction is described as being on the positive side of the z-axis, but the present invention is not limited to this. For example, the line-of-sight direction may be on the negative side of the z-axis. it can. Specifically, the three-dimensional image processing unit 19 calculates the coordinate value of the above-described attention point arrangement position WP and the rotation angle θ around each axis of the new coordinate system.x, ΘyAnd the distance L from the point of interest are substituted into the following equation (1).
[0059]
(P0X, P0Y, P0Z) = (Lsinθycosθx+ WPx
, Lsinθx+ WPy, L cos θycosθx+ WPz(1)
[0060]
The three-dimensional image processing unit 19 uses the above-described equation (1) to calculate the coordinate value (P0X, P0Y, P0Z) And its coordinate value (P0X, P0Y, P0ZThe position P of the world coordinate system specified by0To move the new three-dimensional coordinate system. Position P of this world coordinate system0A new three-dimensional coordinate system at is a viewpoint SP having a line of sight facing the point of interest. As will become clear later, the state in the world coordinate system in the direction in which the line of sight from the viewpoint SP is directed is displayed on the display screen 6 a of the liquid crystal monitor 6. In this embodiment, the case where the attention point is moved will not be described, but the direction of the line of sight can also be displaced by appropriately moving the attention point, for example. Step T2 is a function of attention point setting means and line-of-sight setting means.
[0061]
Step T3 (place each object)
The three-dimensional image processing unit 19 identifies an object J1 for displaying the identification symbols A1 and C1 (see FIG. 12) on the display screen 6a, an object J9 for displaying the identification symbol A9 (see FIG. 12), and an identification. An object B7 for displaying the symbol B7 (see FIG. 12), an object J8 for displaying the identification symbol B8 (see FIG. 12), and an object J2 for displaying the identification symbol C2 (see FIG. 12). Read from the character storage unit 18 respectively. Then, as shown in FIG. 18, the three-dimensional image processing unit 19 sets the position SP of the viewpoint SP so that each identification symbol is displayed at each position on the display screen 6a shown in FIG. Coordinate value (P0X, P0Y, P0ZThe coordinate values in the world coordinate system are obtained in accordance with the coordinate values with reference to), and the objects J1, J2, J7 to J9 are arranged at the arrangement positions based on the coordinate values.
[0062]
Specifically, the placement position P in the world coordinate system2(P0X+ ΔP2X, P0Y+ ΔP2Y, P0Z+ ΔP2Z) And placement position PFour(P0X+ ΔP4X, P0Y+ ΔP4Y, P0Z+ ΔP4Z) And the position J1(P0X+ ΔP1X, P0Y+ ΔP1Y, P0Z+ ΔP1Z) With the object J9 and the position PThree(P0X+ ΔP3X, P0Y+ ΔP3Y, P0Z+ ΔP3Z) To place the object J2Five(P0X+ ΔP5X, P0Y+ ΔP5Y, P0Z+ ΔP5Z) To place the object J7 at the position P6(P0X+ ΔP6X, P0Y+ ΔP6Y, P0Z+ ΔP6Z), The objects J8 are respectively arranged. Furthermore, an object for displaying the design of the shellfish is arranged at each arrangement position. In FIG. 18, the shape of each object is illustrated as a spherical shape for convenience, but the shape of each object is formed in a three-dimensional shape corresponding to the shape of each image. Further, in the present embodiment, the objects J1 and the like are arranged based on the viewpoint SP. Therefore, even when the arrangement position and the line-of-sight direction of the viewpoint SP are displaced, that is, when the attention point is moved, The identification symbol displayed by the object J1 or the like can be displayed at a certain position on the display screen 6a.
[0063]
Next, the arrangement position P of the objects J7 and J8 for displaying the identification symbols B7 and B8 displayed in the middle area B of the display screen 6a.Five, P6The coordinate values of the respective X-axis components are sequentially updated for each interrupt process (the coordinate values are subtracted or added), and the arrangement positions P of the objects J7 and J8Five , P6Is gradually moved in the lateral direction (indicated by an arrow in FIG. 18). Further, as shown in FIG. 19, until the coordinate value of the arrangement position P4 of the object J1 for displaying the identification symbol C1 matches the coordinate value of the arrangement position P3 of the object J2, the arrangement position PFourThe coordinate value of is changed, and the object J1 is placed at the placement position P.ThreeMove to. Arrangement position P of object J1FourIs the arrangement position PThreeThe arrangement of the object J2 and the object J9 is stopped when the coordinate value is matched. Step T3 corresponds to the function of the object placement means in the present invention. In addition, the moving direction described above is not limited to the horizontal direction, and the coordinate values of the X, Y, and Z of the arrangement position are updated as appropriate, so that the moving direction can be similarly moved from the vertical direction, the diagonal direction, and the back direction in the same way. Can do.
[0064]
Step T4 (deformation correction of the viewpoint coordinate system)
The three-dimensional image processing unit 19 uses the viewpoint SP as a coordinate value such as an arrangement position P1 of each of the objects J1, J2, J7 to J9 (hereinafter simply referred to as “object J1 etc.”) arranged in the world coordinate system. It is converted into the coordinate value of the viewpoint coordinate system that is the reference, that is, the origin. Here, since the aspect ratio of the display image generated in the frame memory by the rendering processing unit 27 is 3: 4, when this display image is displayed on the display screen 6a having the aspect ratio of 9:16, the display image is extended. This causes the negative effect that the resulting image is displayed. Therefore, by deforming and correcting the viewpoint coordinate system according to the aspect ratio of the display image and the aspect ratio of the display screen, the symbols and the like arranged in the viewpoint coordinate system are deformed.
[0065]
Specifically, the three-dimensional image processing unit 19 calculates a deformation correction value for correcting the deformation of the viewpoint coordinate system. This deformation correction value is a magnification value for enlarging or reducing the vertical width or horizontal width of each object J1 or the like. The deformation correction value can be calculated by the following equation (2) where the aspect ratio of the display screen 6a is A: B and the aspect ratio of the display image is a: b. The deformation correction value calculated by the following equation (2) is a magnification for deforming and correcting the horizontal width of an object or the like when the horizontal width of the display image is deformed according to the screen based on the vertical magnification of the display image. This is a magnification value for deforming and correcting the vertical width of each object J1 etc. when the vertical width of the display image is deformed according to the screen with reference to the horizontal magnification of the display image.
[0066]
(A × b) ÷ (a × B) (2)
[0067]
When the aspect ratio of the display image generated in the frame memory is 3: 4 and the aspect ratio of the display screen 6a is 9:16, the aspect ratio of the display image is 9:16 on the display screen 6a. Since it is displayed, it is displayed as if the horizontal width of the display image is enlarged by 4/3 times. At this time, the horizontal width of the symbols of the objects J1 to J3 included in the display image is also enlarged by 4/3 times. Here, by substituting each value of the aspect ratio of the display image and the display screen 6a into Expression (2), the width of each of the objects J1 to J3 is indicated by 3/4 (hereinafter referred to as “3/4 times”). ) To calculate the deformation correction value of the magnification value to be reduced. Further, the three-dimensional image processing unit 19 reduces the horizontal direction (x-axis direction) of the viewpoint coordinate system to 3/4 times based on the deformation correction value. As a result, each object J1 and the like are reduced to 3/4 times in the x-axis direction of the viewpoint coordinate system. In this embodiment, the viewpoint coordinate system is deformed and corrected in step T4. However, the processes after step T4 can be performed without correcting the deformation.
[0068]
Step T5 (projection on the projection plane)
The three-dimensional image processing unit 19 sets a projection plane TM perpendicular to the z axis that is the direction of the line of sight of the viewpoint coordinate system between the viewpoint SP and the object J1 and the like (see FIG. 18 and the like). Since the projection plane TM is perpendicular to the z-axis of the viewpoint coordinate system and the z value is fixed, it can be handled as a two-dimensional coordinate system on the projection plane TM. The projection plane TM has an area corresponding to a frame memory provided in the image storage unit 20.
[0069]
Further, the three-dimensional image processing unit 19 performs perspective projection or parallel projection of each object J1 and the like on the projection plane TM. Thereby, each vertex of each polygon constituting each object J1 and the like is projected so as to be perspectively moved or translated on the projection plane TM, and the three-dimensional coordinate value of each vertex is two-dimensionally projected on the projection plane TM. Converted to coordinate values. The three-dimensional image processing unit 19 acquires the projection information of each object in the world coordinate system when the projection of all the objects is completed. In this embodiment, in order to recognize the identification pattern for the player to grasp, each object J1 etc. is projected in parallel, for example, in order to express more stereoscopic effect, each object J1 etc. Perspective projection is preferable. Further, in the present embodiment, the auxiliary symbols other than the identification symbols are not particularly described, but the perspective projection or the parallel projection can be similarly applied to the auxiliary symbols. Step T5 corresponds to the function of the projection means in the present invention.
[0070]
Step T6 (generate display image)
First, the three-dimensional image processing unit 19 reads a background image stored in the character storage unit 18 and draws the background image in a frame memory in the image storage unit 20. This background image is an image that displays, for example, the state of the sea and the seabed as illustrated in FIGS.
[0071]
Next, the three-dimensional image processing unit 19 addresses the address in the frame memory of the image storage unit 20 corresponding to the coordinate value of each vertex of each polygon such as each object J1 included in the projection information, that is, each object in the frame memory. The positions of the polygons J1 to J3 are obtained. Then, the texture read from the character storage unit 18 is drawn on each polygon while being deformed according to each polygon. As a result, a display image in which an image of each object J1 or the like, that is, the identification symbol A1 or the like is superimposed on the background image is generated in the frame memory.
[0072]
Further, the three-dimensional image processing unit 19 sequentially reads the above-described mask patterns M1 to M9 from the program ROM 22 every predetermined number of interrupt processes. Then, the object J1 in step T3 is placed at the placement position P.FourTo placement position PThreeThe mask patterns M1 to M9 are sequentially applied to the texture after deformation according to the polygons of the objects J2 and J9. A texture provided with a non-display portion by the mask patterns M1 to M9 is drawn on each polygon. Thereby, as shown in FIGS. 12 and 13, the identification symbols A9 and C2 can be displayed so as to disappear gradually. Step T6 corresponds to the function of the display image generation means in the present invention.
[0073]
Step T7 (display)
The three-dimensional image processing unit 19 outputs the display image generated in the frame memory to the liquid crystal monitor 6 via the video output unit 30. The liquid crystal monitor 6 sequentially displays the display image with the aspect ratio of 3: 4 sent from the three-dimensional image processing unit 19 for each interrupt process in accordance with the display screen 6a with the aspect ratio of 9:16. As a result, the display modes shown in FIGS. 12A to 12C and FIGS. 13A to 13C are displayed.
[0074]
In the pachinko machine described above, when a texture is drawn after being deformed according to the shape of the polygon, that is, when the texture is drawn on the polygon, a non-display portion is provided on the texture by a plurality of types of mask patterns M1 to M9, and an image on which the texture is pasted is displayed. Since the non-display part is changed so as to disappear gradually, it is possible to display an interesting display mode in which an identification symbol unrelated to reach, for example, disappears by a relatively simple process. The fun of the player can be made permanent. In addition, since the identification symbols once aligned are moved and the identification symbols irrelevant to the reach are extinguished according to the movement of the identification symbols, the player's interest can be made more permanent.
[0075]
In the above-described embodiment, the liquid crystal monitor has been described. However, for example, a CRT monitor or an LED monitor can be used instead of the liquid crystal monitor.
[0076]
Further, in the above-described embodiment, the transparency of the identification symbol is changed and disappears. However, as shown in FIG. 11, for example, the area of the non-display part of the identification symbol spreads and disappears. You can also do it.
[0077]
In the above-described embodiments, the pachinko machine has been described as the gaming machine. However, the present invention is not limited to this, and can be modified to a gaming machine such as a slot machine or a coin game machine.
[0078]
【The invention's effect】
  As is clear from the above description, according to the present invention,Identification pattern isgraduallyRead the hidden image from the image storageCan be displayed on the display device,Realistic tableIndicationCan be realized.
[Brief description of the drawings]
FIG. 1 is an external view showing a schematic configuration of a pachinko machine according to an embodiment.
FIG. 2 is a functional block diagram of the pachinko machine according to the embodiment.
FIG. 3 is a functional block diagram of a three-dimensional image processing unit.
FIG. 4 is a flowchart showing processing on a control board of a pachinko machine.
FIG. 5 is a diagram showing one display mode on the display screen 6a.
FIG. 6 is a diagram illustrating a state of a polygon and a texture.
FIG. 7 is a diagram illustrating a state in which polygons are arranged in a world coordinate system.
FIG. 8 is a diagram illustrating a state in which a polygon is projected onto a projection plane.
FIG. 9 is a diagram illustrating a state in which a mask pattern is applied to a deformed texture.
FIG. 10 is a diagram showing a plurality of types of mask patterns.
FIG. 11 is a diagram showing one display mode in a modified example.
FIG. 12 is a diagram showing an actual display mode in a pachinko machine.
FIG. 13 is a diagram showing a continuation of an actual display mode in a pachinko machine.
FIG. 14 is a flowchart showing processing in the image display apparatus.
FIG. 15 is a diagram illustrating a state in which each object is arranged in the world coordinate system.
FIG. 16 is a diagram illustrating a state in which an attention point is set at an object arrangement position;
FIG. 17 is a diagram illustrating how a viewpoint is set based on a point of interest.
FIG. 18 is a diagram illustrating a relationship between a viewpoint in the world coordinate system and each object.
FIG. 19 is a diagram illustrating a relationship between a viewpoint in the world coordinate system and each object.
[Explanation of symbols]
1 ... Control infrastructure
6 ... LCD monitor
6a ... Display screen
7: Image display device
18 ... Character storage
19 ... 3D image processing unit
20 ... Image storage unit
22 ... Program ROM
M1 to M9 ... Mask pattern
SP… Viewpoint

Claims (2)

複数のポリゴンで形成されたオブジェクトを記憶した第1記憶手段と、前記オブジェクトの各ポリゴンに対応させるテクスチャを記憶した第2記憶手段と、前記第1記憶手段から読み出したオブジェクトを仮想3次元空間内に配置するオブジェクト配置手段と、前記仮想3次元空間内に配置されたオブジェクトを投影平面に投影する投影手段と、前記第2記憶手段に記憶されるテクスチャを前記オブジェクトの形状に合わせて変化させて前記オブジェクトに対応させる貼付け処理を行うテクスチャ貼付手段と、前記オブジェクトに対応させられた前記テクスチャに対して作用させるデータであって、該テクスチャが透明となる透明領域の面積が異なるよう複数設けられた透明パターンデータを記憶した第3記憶手段と、前記オブジェクトと該オブジェクトに対応させられたテクスチャとを備えて構成される識別図柄の画像を含む表示画像を生成する表示画像生成手段とによって生成された少なくとも1画面分の表示画像を記憶する画像記憶手段と、
該画像記憶手段に記憶された表示画像を表示装置に出力表示する画像表示手段と、を備えた遊技機であって、
前記画像表示手段は、
前記オブジェクトに対応させられた前記テクスチャの透明領域の面積が増加するよう前記透明パターンデータを複数使用して、前記識別図柄が中心から周囲に向かって徐々に非表示となる画像を前記画像記憶手段から読み出して前記表示装置に出力表示することを特徴とする遊技機。
First storage means for storing an object formed by a plurality of polygons, second storage means for storing a texture corresponding to each polygon of the object, and an object read from the first storage means in a virtual three-dimensional space Changing the texture stored in the second storage means in accordance with the shape of the object, the object placing means arranged in the object, the projection means for projecting the object arranged in the virtual three-dimensional space onto the projection plane, and the second storage means A plurality of texture pasting means for performing pasting processing corresponding to the object, and data to be applied to the texture corresponding to the object , wherein a plurality of transparent areas having different textures are provided. a third storage means for storing transparent pattern data, said object and said An image storage means for storing the display image of the at least one screen generated by the display image generating means for generating a display image including the image of the composed identification symbols and a texture that is made to correspond to objects,
Image display means for outputting display the display image stored in said image storage means on the display device, a gaming machine having a
The image display means includes
Using the plurality of the transparent pattern data so that the area of the transparent region of the texture corresponding to the object increases, an image in which the identification pattern is gradually hidden from the center toward the periphery is displayed in the image storage unit. A game machine that is read out from the display and displayed on the display device.
請求項1に記載の遊技機において、前記遊技機はパチンコ機であることを特徴とする遊技機。  The gaming machine according to claim 1, wherein the gaming machine is a pachinko machine.
JP2003002088A 2003-01-08 2003-01-08 Game machine Expired - Fee Related JP4401081B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003002088A JP4401081B2 (en) 2003-01-08 2003-01-08 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003002088A JP4401081B2 (en) 2003-01-08 2003-01-08 Game machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP24706899A Division JP4404171B2 (en) 1999-09-01 1999-09-01 Game machine

Publications (2)

Publication Number Publication Date
JP2003210778A JP2003210778A (en) 2003-07-29
JP4401081B2 true JP4401081B2 (en) 2010-01-20

Family

ID=27656058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003002088A Expired - Fee Related JP4401081B2 (en) 2003-01-08 2003-01-08 Game machine

Country Status (1)

Country Link
JP (1) JP4401081B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4937681B2 (en) * 2006-09-01 2012-05-23 株式会社三共 Game machine

Also Published As

Publication number Publication date
JP2003210778A (en) 2003-07-29

Similar Documents

Publication Publication Date Title
JP4404171B2 (en) Game machine
JP2001070544A (en) Game machine
JP4089102B2 (en) Game machine
JP4401081B2 (en) Game machine
JP4122983B2 (en) Game machine
JP3758643B2 (en) Game machine
JP3991517B2 (en) Game machine
JP4518099B2 (en) Game machine
JP4655333B2 (en) Game machine
JP4475499B2 (en) Game machine
JP4032574B2 (en) Game machine
JP4487347B2 (en) Game machine
JP3618247B2 (en) Image display method and apparatus, and game machine
JP4483893B2 (en) Game machine
JP4089434B2 (en) Game machine
JP2005103314A (en) Game machine
JP4032977B2 (en) Game machine
JP2002301234A (en) Game machine
JP5300166B2 (en) Game machine
JP4122644B2 (en) Game machine
JP2010046524A (en) Game machine
JP3991866B2 (en) Game machine
JP3997653B2 (en) Image display device
JP3770234B2 (en) Game machine
JP2010253279A (en) Game machine

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20070220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071129

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071207

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090914

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091027

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151106

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees