JP2004073835A - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP2004073835A
JP2004073835A JP2003146087A JP2003146087A JP2004073835A JP 2004073835 A JP2004073835 A JP 2004073835A JP 2003146087 A JP2003146087 A JP 2003146087A JP 2003146087 A JP2003146087 A JP 2003146087A JP 2004073835 A JP2004073835 A JP 2004073835A
Authority
JP
Japan
Prior art keywords
display
image
objects
viewpoint
gaming machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003146087A
Other languages
Japanese (ja)
Inventor
Tsutomu Iida
飯田 勉
Makoto Banno
番野 誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Original Assignee
Sanyo Bussan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd filed Critical Sanyo Bussan Co Ltd
Priority to JP2003146087A priority Critical patent/JP2004073835A/en
Publication of JP2004073835A publication Critical patent/JP2004073835A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Pinball Game Machines (AREA)
  • Display Devices Of Pinball Game Machines (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game machine which prevents causing complexity of display image production control and reduces processing responsibilities of display direction preparation. <P>SOLUTION: According to this game machine, a three-dimensional image processing part 30 changes a set position of a parallel projection object in a virtual three-dimensional coordinate space to a fluoroscopic projection object to produce plural kinds of display representations different in relative positional relation between the fluoroscopic projection object and the parallel projection object. There can be thus provided the game machine which can prevent causing complexity of display image production control attributing to change in a set position of the fluoroscopic projection object in the virtual three-dimensional coordinate space to the parallel projection object and reduces the processing responsibilities of display direction preparation. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、パチンコ機やスロットマシンなどの遊技機に関する。
【0002】
【従来の技術】
パチンコ機などに代表される遊技機では、遊技盤に設けられた始動口に球が入賞すること(始動入賞)により、遊技盤中の表示装置に表示される図柄が変動を開始し、所定時間経過後に停止した図柄の態様が予め定められた大当り図柄となった場合に、遊技者にとって有利となる状態例えば大当り状態となるものが知られている。このような遊技機では、近年、表示演出の高度化に伴い、仮想3次元座標空間を使用した3D(3次元)表示演出をするものが登場してきている。この3D表示演出とは、次のようなものである。2次元の絵柄画像に対応する、複数のポリゴンで構成される3次元情報であるオブジェクトを、仮想3次元座標空間内に配置して変動させて、その変動の様子を仮想3次元座標空間内の所与の視点に基づいて表示する、つまり、視点とオブジェクトとの間に設定された投影平面にこのオブジェクトを透視投影し、この投影平面における表示画像を表示するという表示演出である。
【0003】
【発明が解決しようとする課題】
しかしながら、上述した従来のパチンコ機においては、次のような問題がある。
すなわち、生成すべき表示演出の種類(内容)に応じて、仮想3次元座標空間内でのオブジェクトの配置を異ならせて、このオブジェクトを視点との間の投影平面に透視投影してそれぞれの表示画像を生成していかなければならないが、このような表示画像生成制御が煩雑になり、表示演出生成の処理負担が増大するという問題がある。
【0004】
本発明は、このような事情に鑑みてなされたものであって、表示画像生成制御の煩雑さを発生させず、表示演出生成の処理負担を低減した遊技機を提供することを目的とする。
【0005】
【課題を解決するための手段】
本発明は、このような目的を達成するために、次のような構成を採る。
すなわち、請求項1に記載の発明は、仮想3次元座標空間内に配置された、複数個のポリゴンで構成された3次元情報である第1,第2オブジェクトを、前記仮想3次元座標空間の所定位置の視点と前記第1,第2オブジェクトとの間に設定された投影平面に投影する投影手段と、前記投影平面における表示画像を表示する表示手段とを備えた遊技機において、前記投影平面に透視投影される前記第1オブジェクトを前記仮想3次元座標空間内の所定位置に設定する第1オブジェクト設定手段と、指示された表示演出の種類に応じて、前記投影平面に平行投影される前記第2オブジェクトが前記第1オブジェクトに対して相対的に変位するように、前記第2オブジェクトの位置を設定する第2オブジェクト設定手段とを備えることを特徴とするものである。
【0006】
(作用・効果)請求項1に記載の発明によれば、第1オブジェクト設定手段は、投影平面に透視投影される第1オブジェクトを仮想3次元座標空間内の所定位置に設定し、第2オブジェクト設定手段は、指示された表示演出の種類に応じて、投影平面に平行投影される第2オブジェクトが第1オブジェクトに対して相対的に変位するように、第2オブジェクトの位置を設定する。つまり、仮想3次元座標空間内での第2オブジェクト(以下、適宜に「平行投影オブジェクト」と呼ぶ)の設定位置を第1オブジェクト(以下、適宜に「透視投影オブジェクト」と呼ぶ)に対して変更するようにして、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係が異なる複数種類の表示演出を生成しているので、仮想3次元座標空間内での透視投影オブジェクトの設定位置を平行投影オブジェクトに対して変更することに起因する表示画像生成制御の煩雑さを発生させないようにできる。また、透視投影オブジェクトを平行投影オブジェクトに対して位置変更せずとも、平行投影オブジェクトを透視投影オブジェクトに対して位置変更することで、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係を明確に表現した表示演出を生成することができる。したがって、表示画像生成制御の煩雑さを発生させることなく、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係が異なる複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。
【0007】
なお、本明細書は、次のような遊技機に係る発明も開示している。
【0008】
(1)請求項1に記載の遊技機において、
前記の指示された表示演出の種類が、前記視点から見た前記第1,第2オブジェクトの位置関係が前後に異なる表示演出の種類である場合には、前記第2オブジェクト設定手段は、前記の指示された表示演出の種類に応じて、前記第2オブジェクトを、前記第1オブジェクトと前記投影平面との間の所定位置または前記第1オブジェクトの前記視点側とは反対側の所定位置に設定することを特徴とする遊技機。
【0009】
前記(1)に記載の発明によれば、指示された表示演出の種類が、視点から見た第1,第2オブジェクトの位置関係が前後に異なる表示演出の種類である場合には、第2オブジェクト設定手段は、指示された表示演出の種類に応じて、第2オブジェクトを、第1オブジェクトと投影平面との間の所定位置または第1オブジェクトの視点側とは反対側の所定位置に設定する。つまり、仮想3次元座標空間内での第2オブジェクト(平行投影オブジェクト)の設定位置を、第1オブジェクト(透視投影オブジェクト)の前後の位置に変更するようにして、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係が前後に異なる複数種類の表示演出を生成しているので、仮想3次元座標空間内での透視投影オブジェクトの設定位置を平行投影オブジェクトに対して変更することに起因する表示画像生成制御の煩雑さを発生させないようにできる。また、透視投影オブジェクトを平行投影オブジェクトに対して前後に位置変更せずとも、平行投影オブジェクトを透視投影オブジェクトに対して前後に位置変更することで、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係が前後に異なることを明確に表現した表示演出を生成することができる。したがって、表示画像生成制御の煩雑さを発生させることなく、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係が前後に異なる複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。
【0010】
(2)請求項1に記載の遊技機、または、前記(1)に記載の遊技機において、
前記第2オブジェクトは、遊技状態を識別させるための識別情報とし、
前記第1オブジェクトは、前記識別情報とは別の表示情報とすることを特徴とする遊技機。
【0011】
前記(2)に記載の発明によれば、第2オブジェクトは、遊技状態を識別させるための識別情報とし、第1オブジェクトは、識別情報とは別の表示情報とする。つまり、仮想3次元座標空間内での識別情報(平行投影オブジェクト)の設定位置を表示情報(透視投影オブジェクト)に対して変更するようにして、表示情報(透視投影オブジェクト)と識別情報(平行投影オブジェクト)との相対位置関係が異なる複数種類の表示演出を生成しているので、仮想3次元座標空間内での表示情報(透視投影オブジェクト)の設定位置を識別情報(平行投影オブジェクト)に対して変更することに起因する表示画像生成制御の煩雑さを発生させないようにできる。また、表示情報(透視投影オブジェクト)を識別情報(平行投影オブジェクト)に対して位置変更せずとも、識別情報(平行投影オブジェクト)を表示情報(透視投影オブジェクト)に対して位置変更することで、表示情報(透視投影オブジェクト)と識別情報(平行投影オブジェクト)との相対位置関係を明確に表現した表示演出を生成することができる。したがって、表示画像生成制御の煩雑さを発生させることなく、表示情報(透視投影オブジェクト)と識別情報(平行投影オブジェクト)との相対位置関係が異なる複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。
【0012】
(3)請求項1に記載の遊技機、または、前記(1)または(2)に記載の遊技機において、
前記仮想3次元座標空間内に設定された視点を変位させる視点変位手段を備えていることを特徴とする遊技機。
【0013】
前記(3)に記載の発明によれば、視点変位手段は、仮想3次元座標空間内に設定された視点を変位させて、その視点から第1,第2オブジェクトを見る角度すなわち状態を変化させるので、表示画面には、視点の変位に伴って第1,第2オブジェクトが種々の方向から表示されることになり、仮想3次元座標空間内での第1オブジェクト(透視投影オブジェクト)の設定位置を第2オブジェクト(平行投影オブジェクト)に対して変更することに起因する表示画像生成制御の煩雑さを発生させることなく、より臨場感のある複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。例えば、この複数種類の表示演出の一つとしては、第2オブジェクト(平行投影オブジェクト)が第1オブジェクト(透視投影オブジェクト)の手前側に存在し、視点の変位に伴って第1,第2オブジェクトが種々の方向から表示されるという表示演出があり、別のものとしては、第2オブジェクト(平行投影オブジェクト)が第1オブジェクト(透視投影オブジェクト)の奥側に存在し、視点の変位に伴って第1,第2オブジェクトが種々の方向から表示される表示演出があり、種々の表示演出が挙げられる。
【0014】
(4)請求項1に記載の遊技機、または、前記(1)から(3)のいずれかに記載の遊技機において、
前記第1オブジェクト設定手段は、前記第1オブジェクトが前記投影平面上で所定方向に移動するように、前記第1オブジェクトを前記仮想3次元座標空間内に設定することを特徴とする遊技機。
【0015】
前記(4)に記載の発明によれば、第1オブジェクト設定手段は、第1オブジェクトが投影平面上で所定方向に移動するように、この第1オブジェクトの仮想3次元座標空間内での設定位置が順次に更新されるので、仮想3次元座標空間内での第1オブジェクト(透視投影オブジェクト)の設定位置を第2オブジェクト(平行投影オブジェクト)に対して変更することに起因する表示画像生成制御の煩雑さを発生させることなく、第1オブジェクトが表示画面上で移動するという臨場感のある複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。例えば、この複数種類の表示演出の一つとしては、第2オブジェクト(平行投影オブジェクト)が第1オブジェクト(透視投影オブジェクト)の手前側に存在し、第1オブジェクト(透視投影オブジェクト)が移動するという表示演出があり、別のものとしては、第2オブジェクト(平行投影オブジェクト)が第1オブジェクト(透視投影オブジェクト)の奥側に存在し、第1オブジェクト(透視投影オブジェクト)が移動するという表示演出があり、種々の表示演出が挙げられる。
【0016】
(5)請求項1に記載の遊技機、または、前記(1)から(4)のいずれかに記載の遊技機において、
前記第2オブジェクト設定手段は、前記第2オブジェクトが前記投影平面上で所定方向に移動するように、前記第2オブジェクトを前記仮想3次元座標空間内に設定することを特徴とする遊技機。
【0017】
前記(5)に記載の発明によれば、第2オブジェクト設定手段は、第2オブジェクトが投影平面上で所定方向に移動するように、この第2オブジェクトの仮想3次元座標空間内での設定位置が順次に更新されるので、仮想3次元座標空間内での第1オブジェクト(透視投影オブジェクト)の設定位置を第2オブジェクト(平行投影オブジェクト)に対して変更することに起因する表示画像生成制御の煩雑さを発生させることなく、第2オブジェクトが表示画面上で移動するという臨場感のある複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。例えば、この複数種類の表示演出の一つとしては、第2オブジェクト(平行投影オブジェクト)が第1オブジェクト(透視投影オブジェクト)の手前側に存在し、第2オブジェクト(平行投影オブジェクト)が移動するという表示演出があり、別のものとしては、第2オブジェクト(平行投影オブジェクト)が第1オブジェクト(透視投影オブジェクト)の奥側に存在し、第2オブジェクト(平行投影オブジェクト)が移動するという表示演出があり、種々の表示演出が挙げられる。
【0018】
(6)請求項1に記載の遊技機、または、前記(1)から(5)のいずれかに記載の遊技機において、
前記遊技機はパチンコ機であることを特徴とする遊技機。
【0019】
前記(6)に記載の遊技機によれば、表示演出生成の処理負担を低減した、興趣性に優れたパチンコ機を提供できる。なお、パチンコ機の基本構成としては操作ハンドルを備え、その操作ハンドルの操作に応じて有価物体の一例である球を所定の遊技領域に発射し、球が遊技領域内の所定の位置に配設された作動口に入賞(または作動ゲートを通過)することを必要条件として、表示装置において動的表示されている識別情報(図柄等)が所定時間後に確定停止されるものが挙げられる。また、特別遊技状態の発生時には、遊技領域内の所定の位置に配設された可変入賞装置(特定入賞口)が所定の態様で開放されて球を入賞可能とし、その入賞個数に応じた有価価値(景品球のみならず、磁気カードへ書き込まれるデータ等も含む)が付与されるものが挙げられる。
【0020】
(7)請求項1に記載の遊技機、または、前記(1)から(5)のいずれかに記載の遊技機において、
前記遊技機はスロットマシンであることを特徴とする遊技機。
【0021】
前記(7)に記載の遊技機によれば、表示演出生成の処理負担を低減した、興趣性に優れたスロットマシンを提供できる。なお、スロットマシンの基本構成としては、「複数の識別情報からなる識別情報列を動的表示した後に識別情報を確定表示する可変表示手段を備え、始動用操作手段(例えば操作レバー)の操作に起因して識別情報の動的表示が開始され、停止用操作手段(例えばストップボタン)の操作に起因して、あるいは、所定時間経過することにより、識別情報の動的表示が停止され、その停止時の確定識別情報が特定識別情報であることを必要条件として、遊技者に有利な特別遊技状態を発生させる特別遊技状態発生手段とを備えた遊技機」となる。この場合、有価物体はコイン、メダル等が代表例として挙げられる。
【0022】
(8)請求項1に記載の遊技機、または、前記(1)から(5)のいずれかに記載の遊技機において、
前記遊技機はパチンコ機とスロットマシンとを融合させたものであることを特徴とする遊技機。
【0023】
前記(8)に記載の遊技機によれば、表示演出生成の処理負担を低減した、興趣性に優れた、パチンコ機とスロットマシンとを融合させたものを提供できる。
なお、この融合させたものの基本構成としては、「複数の識別情報からなる識別情報列を動的表示した後に識別情報を確定表示する可変表示手段を備え、始動用操作手段(例えば操作レバー)の操作に起因して識別情報の動的表示が開始され、停止用操作手段(例えばストップボタン)の操作に起因して、あるいは、所定時間経過することにより、識別情報の動的表示が停止され、その停止時の確定識別情報が特定識別情報であることを必要条件として、遊技者に有利な特別遊技状態を発生させる特別遊技状態発生手段とを備え、有価物体として球を使用するとともに、前記識別情報の動的表示の開始に際しては所定数の球を必要とし、特別遊技状態の発生に際しては多くの球が払い出されるように構成されている遊技機」となる。
【0024】
【発明の実施の形態】
以下、図面を参照して本発明の実施例を説明する。
本実施例では、遊技機の一例として弾球遊技機の一種であるパチンコ機、特に、第1種パチンコ遊技機を用いて説明する。なお、本発明を第3種パチンコ遊技機(権利物とも呼ばれる)や、コイン遊技機、スロットマシン等の他の遊技機に用いることは、当然に可能である。
【0025】
図1は、本実施例のパチンコ機の概略正面図であり、図2はパチンコ機の遊技盤の概略正面図である。本実施例のパチンコ機Pは、図1に示すように、遊技盤1と、球を貯留する上受け皿2および下受け皿3と、球を遊技盤1へ発射するための発射ハンドル4とを備えている。遊技盤1は、前面枠1aに嵌め込まれたポリカーボネート製の透明板1bに覆われている。
【0026】
図2に示すように、遊技盤1の周囲には、球が入賞することにより5個から15個の球が払い出される複数の普通入賞口5が設けられている。また、遊技盤1の中央には、複数種類の識別情報としての図柄等を表示する液晶ディスプレイ(以下単に「LCD」と略す)6が設けられている。このLCD6の表示画面6a(図11,図13参照)は、例えば、横方向に3分割されており、つまり、左列,中列,右列の3列で構成されており、3分割された各列の表示領域において、それぞれ上から下へ垂直方向にスクロールしながら図柄の変動表示が行われる。
【0027】
LCD6の上方には、表面に「○」と「×」との普通図柄が表示された2つのLED(発光ダイオード)9a,9bで構成された普通図柄表示装置9が配設されている。この普通図柄表示装置9では、遊技領域に打ち込まれた球がLCD6の両側に配設されたゲート10を通過した場合に、「○」と「×」とのLED9a,9bを交互に点灯させる変動表示が行われる。かかる変動表示が「○」のLED9aで終了した場合には、当りとなってLCD6の下方の普通電動役物7が所定時間(例えば0.5秒間)二点鎖線で示すように開放され、この普通電動役物7に球が入り易くなる。
【0028】
LCD6の下方に配設された普通電動役物7には、図柄作動口(第1種始動口)7aが設けられ、球がこの図柄作動口7aを通過することにより、前記したLCD6の変動表示が開始される。図柄作動口7aの下方には、特定入賞口(大入賞口)8が設けられている。この特定入賞口8は、LCD6の変動後の表示結果が予め定められた図柄の組み合わせの1つと一致する場合に、大当たりとなって、球が入賞しやすいように所定時間(例えば、30秒経過するまで、あるいは、球が10個入賞するまで)開放される入賞口である。
【0029】
この特定入賞口8内には、Vゾーン8aが設けられており、特定入賞口8の開放中に、球がVゾーン8a内を通過すると、継続権が成立して、特定入賞口8の閉鎖後、再度、その特定入賞口8が所定時間(又は、特定入賞口8に球が所定個数入賞するまで)開放される。この特定入賞口8の開閉動作は、最高で16回(16ラウンド)繰り返し可能にされており、開閉動作の行われ得る状態が、いわゆる所定の遊技価値が付与された状態(特別遊技状態)である。
【0030】
なお、第3種パチンコ遊技機において所定の遊技価値が付与された状態(特別遊技状態)とは、LCD6の変動後の表示結果が予め定められた図柄の組み合わせの1つと一致する場合に、特定入賞口が所定時間開放されることをいう。この特定入賞口の開放中に、球がその特定入賞口内へ入賞すると、特定入賞口とは別に設けられた大入賞口が所定時間、所定回数開放される。
【0031】
また、パチンコ機Pは、図3に示すように、このパチンコ機P全体を制御する制御基盤11と、LCD6(図2参照)を有する画像表示装置21とを備えている。まず、制御基盤11について説明し、その後に画像表示装置21について説明する。
【0032】
制御基盤11は、メモリや中央演算処理装置(以下、『CPU』と呼ぶ)等で構成されるマイクロコンピュータである主制御部12と、普通入賞口5(図2参照)へ入賞した球をそれぞれ検出する普通入賞スイッチ13と、図柄作動口(第1種始動口)7a(図2参照)を通過した球を検出する第1種始動口スイッチ14と、特定入賞口8内のVゾーン8a(図2参照)へ入賞した球を検出するVカウントスイッチ15と、特定入賞口8内のVゾーン8a以外へ入賞した球を検出する10カウントスイッチ16と、特定の値を出力するカウンタ17と、特定入賞口8を開閉する開閉ソレノイド18と、画像表示装置21のインターフェイス22に通信可能に接続されるインターフェイス19とを備えている。
【0033】
以下、制御基盤11で行われる処理について、図5のフローチャートを参照して説明する。
【0034】
ステップS1では、遊技者は、発射ハンドル4によって球を遊技盤1内に発射し、遊技を開始する。遊技盤1内に打ち込まれた一部の球は普通電動役物7にまで導かれ、普通電動役物7の図柄作動口7aを通過することにより、第1種始動口スイッチ14が球を検出し、始動開始信号を主制御部12に送信するとともに、入賞信号を主制御部12に送信する。また、普通入賞口5へ球が入賞した場合にも、普通入賞スイッチ13が球を検出し、入賞信号を主制御部12に送信する。
【0035】
ステップS2では、主制御部12が入賞信号を受信すると、図示しない払出モータを稼動させて、所定数量の球を上受け皿2に供給する。
【0036】
ステップS3では、主制御部12が、第1種始動口スイッチ14からの始動開始信号を受信すると、カウンタ17からの出力値を読み取り、大当たり抽選を行う。大当たり抽選では、カウンタ17の出力値が所定値であれば、『大当たり』、すなわち特別遊技状態を発生させる。カウンタ17からの出力値が所定値でなければ、『ハズレ』、すなわち通常の遊技状態を継続する。
【0037】
ステップS4では、主制御部12は、インターフェイス19を介して、特別または通常の遊技状態に応じたコマンドを画像表示装置21に送信する。このコマンドは、画像表示装置21のLCD6に所定の表示結果を実行させる命令である。例えば、大当たりの場合には、主制御部21は、所定のリーチの開始を指示するコマンドを送信し、所定時間経過後に、そのリーチの最終段階で停止させて表示する大当たりの図柄の種類を指示するコマンドを送信する。これにより、画像表示装置21は、コマンドで指示された種類のリーチを表示した後に、さらにコマンドで指示された種類の大当たりの図柄で停止するように表示する。主制御部12は、画像表示装置21で大当たりの図柄の停止が表示された後に、開閉ソレノイド18に開放信号によって特定入賞口8を開放させ、遊技者が多数個の球を取得することができる状態にする。さらに、ラウンドが終了するたびに、そのラウンドの終了を指示するコマンドを画像表示装置21に送信する。これにより、画像表示装置21は、ラウンドごとに異なる表示態様を表示する。一方、ハズレの場合には、リーチ表示の最終段階で停止させるハズレの図柄の種類を指示するコマンドを画像表示装置21に送信する。これにより、画像表示装置21は、リーチを表示した後に、ハズレの図柄で停止するように表示させる。
【0038】
ステップS5では、主制御部12は、第1種始動口スイッチ14からの新たな始動開始信号の有無を受信するまで、すなわち球の入賞を検出するまで、待機する。新たな開始始動信号を受信すれば、ステップS2〜S4を繰り返し行う。
【0039】
次に、画像表示装置21の具体的構成について、図3を参照して説明する。画像表示装置21は、制御基盤11のインターフェイス19に通信可能に接続されるインターフェイス22と、CPU23と、このCPU23によって実行される制御プログラムを記憶するROM24と、CPU23が制御プログラムを実行して得られた各種のデータ等を一時的に記憶するRAM25と、前述のインターフェイス22,CPU23,ROM24,RAM25および後述する描画処理部29を接続するバス26と、描画処理部29で使用されるモデルデータやテクスチャデータを記憶するキャラクタROM27と、描画処理部29で生成された視野画像を一時的に記憶するビデオRAM28と、そのビデオRAM28内の視野画像を表示するLCD6と、視野画像を生成する描画処理部29とを備えている。
なお、インターフェイス22、CPU23、ROM24、RAM25、バス26、および描画処理部29で3次元画像処理部30を構成している。
【0040】
この3次元画像処理部30は、受信したコマンドに応じたプログラムを実行して、ワールド座標系にオブジェクトを配置するとともに、そのオブジェクトにテクスチャを貼り付けた表示画像を生成する機能を果たす。上述した3次元画像処理部30が本発明における投影手段、第1オブジェクト設定手段および第2オブジェクト設定手段に相当する。
【0041】
なお、ワールド座標系とは、本発明における仮想3次元座標空間に相当する3次元の座標系である。オブジェクトとは、ワールド座標系に配置される3次元の仮想物体であり、オブジェクト独自の座標系であるローカル座標系に配置される複数のポリゴンによって構成された3次元の画像形態情報である。ポリゴンとは、複数個の3次元座標の頂点で定義される多角形平面である。テクスチャとは、オブジェクトの各ポリゴンに貼り付ける画像情報であり、テクスチャがオブジェクトに貼り付けられることにより、オブジェクトに対応する絵柄画像、例えば識別図柄や、識別図柄以外の図柄である補助図柄や、背景などが生成される。
【0042】
ここで、絵柄画像とは、遊技状態を識別させるための識別図柄や、識別図柄以外の図柄である補助図柄や、パチンコ機Pの表示画面6a全体に表示させる背景などのことをいう。識別図柄とは、パチンコ機Pにおける大当たりやリーチ等を遊技者に認識させるためのいわゆる図柄番号または図柄番号が付けられた図柄の画像をいう。補助図柄とは、大当りやリーチなどにおいてその演出効果を高めるために表示される識別図柄以外の図柄の画像をいう。
【0043】
インターフェイス22は、制御基盤11から送られてくるコマンドを受信するものである。インターフェイス22は、受信したコマンドをCPU23や描画処理部29に順次渡す。
【0044】
ROM24は、パチンコ機Pに電源が投入された際にCPU23によって最初に実行される制御プログラムや、制御基盤11から送られてくるコマンドの種類に応じた表示を行うための複数種類の表示プログラムなどを記憶する。
【0045】
CPU23は、ROM24に記憶された制御プログラムによって画像表示装置21の全体を管理・制御する中央演算処理装置であって、主に、制御基盤11から送られてきたコマンドに応じた表示プログラムを実行することで、ワールド座標系内にオブジェクトおよび視点を配置する処理などを行う。具体的に、CPU23は、インターフェイス22によって受信したコマンドの種類に応じて、そのコマンドに対応するための表示プログラムを実行して得られた設定情報をRAM25に順次書込み、所定の割り込み処理間隔(例えば1/30秒や1/60秒)ごとに、RAM25内の設定情報の転送を指示する。この所定の割り込み処理間隔が1フレームであって、この1フレームごとに画面の書き換えが行われる。
【0046】
RAM25は、CPU23によって得られた実行結果である設定情報を一時的に記憶する。
【0047】
キャラクタROM27は、3次元画像処理部30から適宜読み出される3次元の画像形態情報であるオブジェクトやポリゴンおよびテクスチャを記憶するメモリである。例えば、キャラクタROM27は、大当たり時における当り識別図柄などの模様のテクスチャと、大当たりのラウンド回数を示すラウンド表示図柄のテクスチャと、演出用に表示される識別図柄以外の図柄である補助図柄や背景画像などの種々のテクスチャとともに、それら各テクスチャが貼り付けられる単数または複数のポリゴンで構成された複数種類のオブジェクトを記憶している。また、キャラクタROM27は、LCD6の表示画面6a(図11,図13参照)の背景として表示される背景画像を記憶している。
【0048】
次に、3次元画像処理部30内の描画処理部29の具体的構成、およびビデオRAM28について、図4を参照して説明する。描画処理部29は、バス26を介して受信したデータに基づいて座標演算処理を行うジオメトリ演算処理部31と、バス26を介して受信したデータに基づいて表示画像を生成するレンダリング処理部32と、複数種類のカラーパレットに基づく色情報をレンダリング処理部32に適宜与えるパレット処理部33と、ビデオRAM28内に設けられた複数のフレームメモリを切り換えるセレクタ部34と、表示画像をLCD6に出力するビデオ出力部35とを備えている。
【0049】
なお、ジオメトリ演算処理とは、コマンドに応じた表示態様を実現するために、本発明の仮想3次元座標空間に相当する3次元の座標系であるワールド座標系内に、視点およびキャラクタROM27から読み出した各種のオブジェクトを配置し、そのオブジェクトを変動(移動,回転,縮小,拡大,変形など)させたり視点を変位させる処理である。
【0050】
ジオメトリ演算処理部31は、バス26を介して受信したデータに基づいて、3次元の座標点の移動や回転等に伴う座標演算処理を行うものである。具体的には、ジオメトリ演算処理部31は、キャラクタROM27内に記憶されたオブジェクトの格納アドレスに基づいて、ローカル座標系に配置された複数のポリゴンから構成されたオブジェクトを読み出し、回転角度に基づいて回転させた姿勢のオブジェクトを座標値に基づいてワールド座標系に配置する際のワールド座標系におけるオブジェクトの各ポリゴンの座標値を算出する。さらに、視点の座標値および回転角度に基づいて設定される視点を基準とする視点座標系内のオブジェクトの各ポリゴンの座標値を算出する。さらに、視点に基づく視線に垂直に設定された投影平面に表示領域内のオブジェクトを投影した際の、その投影平面上の各ポリゴンの2次元の座標値を含む投影情報を算出する。そして、ジオメトリ演算処理部31は、投影情報をレンダリング処理部32に与える。
【0051】
パレット処理部33は、CPU23によって書き込まれる複数種類の色情報で構成される複数種類のカラーパレットを格納する図示しないパレットRAMを備えており、CPU23からバス26を介して指示されたカラーパレットのデータをレンダリング処理部32に与える。カラーパレットを与えるとは、例えばパレットRAM(図示省略)に記憶されたカラーパレットの格納アドレスをレンダリング処理部32に与えることをいい、レンダリング処理部32は、表示画像を生成する際にその格納アドレスに記憶された色情報を参照する。なお、各色情報は、赤色(R),緑色(G),青色(B)の組合せによって決定されるものであり、カラーパレットのデータサイズが例えば16ビットの場合には、0〜15の各値に所定の色情報が割り当てられる。また、カラーパレットの各データすなわち各パレットは、テクスチャを構成する各ドットに割り当てられており、各パレットの色情報で各ドットを描画することで、テクスチャの全体が描画される。なお、このカラーパレットの各パレットに割り当てられている色情報を順次変更することで、段階的に色合いが異なる複数種類のテクスチャを生成することもできる。
【0052】
レンダリング処理部32は、まず、キャラクタROM27内の背景画像が格納されている格納アドレスに基づいて背景画像を読み出し、その背景画像をビデオRAM28内に設けられたフレームメモリ内に描画し、そのフレームメモリ内に投影情報に基づくオブジェクトの各ポリゴンを展開する。さらに、レンダリング処理部32は、キャラクタROM27内のテクスチャの格納アドレスとカラーパレットのデータとに基づいて、キャラクタROM27から読み出したテクスチャをフレームメモリ内の各ポリゴンに相当する領域上に描画する。これにより、フレームメモリ内には、背景画像上に各種のオブジェクトに対応する図柄の画像が描画された表示画像が生成される。この表示画像は、フレームメモリの容量にもよるが、所定の縦横比例えば縦横比が3:4の表示画像である。なお、上述したジオメトリ演算処理部31およびレンダリング処理部32では、画面に表示する部分を決定するクリッピング処理、ポリゴンの前後関係によって見える部分と見えない部分とを判定する隠面処理、光源からの光の当たり具合や反射の様子を演算するシェーディング計算処理などの処理も適宜行われる。
【0053】
セレクタ部34は、複数のフレームメモリを適宜選択する。具体的には、セレクタ部34は、上述したレンダリング処理部32によって画像の描画が行われる際には、ビデオRAM28内に設けられた複数のフレームメモリである例えば第1フレームメモリまたは第2フレームメモリのいずれか一方を選択する。この場合には、その選択されている側のフレームメモリ内に表示画像が生成される。一方、セレクタ部34は、描画が行われていない側のフレームメモリから既に表示画像の生成が終わっている表示画像を読み出し、その表示画像をビデオ出力部35に送る。なお、セレクタ部34は、読み出し側のフレームメモリと、描画側のフレームメモリとを順次切り換える。ビデオ出力部35は、セレクタ部34から送られてきた表示画像をビデオ信号に変換してLCD6に出力する。
【0054】
ビデオRAM28は、レンダリング処理部32によって生成される表示画像を記憶する。ビデオRAM28は、例えば一画面分の表示画像を記憶する記憶領域である第1フレームメモリと、第2フレームメモリとが設けられたいわゆるダブルバッファを構成している。なお、ビデオRAM28に設けるフレームメモリは、2つに限定されるものではなく、1つ以上であれば幾つでもよい。
【0055】
LCD6は、ビデオ出力部35から出力された表示画像を表示する表示画面6a(図11,図13参照)を備えている。その表示画面は例えば縦横比が9:16のいわゆるワイド画面であり、LCD6は、ビデオ出力部35から出力されてきた縦横比が3:4の表示画像を表示画面6aの縦横比に合わせて、表示画面6aに表示画像を表示する。また、LCD6には、縦横比が3:4の表示画像をそのまま表示する機能をも備えており、遊技状態に応じて表示画面6aに表示される表示画像の縦横比を適宜変化させることもできる。なお、LCD6は、本発明における表示手段に相当する。
【0056】
次に、画像表示装置21で行われる処理について、図6のフローチャートを参照して説明する。
【0057】
ステップT1では、インターフェイス22は、制御基盤11から順に送られてくるコマンドを順次受信して、そのコマンドをバス26に接続された各処理部に順次渡す。渡されたコマンドはRAM25に設けた図示しないコマンドバッファ内に記憶する。さらに、LCD6からの割り込み処理があるたびに、コマンドバッファ内に記憶されたコマンドが読み出され、そのコマンドに対応するROM24内のプログラムが実行されて、1画面分の表示画像が順次生成される。そのプログラムの実行によって、3次元画像処理部30内では、以下のステップが実行される。なお、上述した割り込み処理はLCD6の1/30秒または1/60秒ごとに、例えば垂直走査信号に同期して行われる。
【0058】
ステップT2では、3次元画像処理部30は、LCD6の表示画面6aに表示するワールド座標系内の位置を決めるための注目点を設定する。この注目点は、例えばワールド座標系に配置される特定のオブジェクトの配置位置にほぼ一致するような位置に設定される。さらに、その注目点に基づいてワールド座標系内の様子をLCD6の表示画面6aに表示するための視点を設定する。この視点は3次元の座標系の原点であり、視点からの視線の方向が注目点を向くように設定される。視線は、視点を原点とした座標系の例えばz軸である。以下、注目点に向いた視線を有する視点をワールド座標系に設定するまでの概念および具体的な算出方法について説明する。
【0059】
LCD6の表示画面6aに識別図柄や補助図柄などの複数個の絵柄画像を表示する場合には、図7に示すように、複数個のオブジェクトOJ1〜OJ6がワールド座標系内のそれぞれの配置位置に配置される。3次元画像処理部30は、表示画面6aのほぼ中央付近に表示される絵柄画像を表示するためのオブジェクトOJ3のワールド座標系における配置位置WPの座標値(WPx ,WP ,WP )を求める。この配置位置WPの座標値は、例えば本実施例のパチンコ機Pの場合にはプログラム内に予め用意されたワールド座標系の座標値を参照することで求める。例えばパチンコ機P以外の遊技機の場合には、コントローラ等の入力手段からの入力信号に基づいて求める。3次元画像処理部30は、配置位置WPの座標値(WPx ,WP ,WP )を注目点の座標値として設定する。
【0060】
3次元画像処理部30は、図8に示すように、注目点の配置位置WPを原点Oとする新たな3次元の座標系をワールド座標系内に設定する。そして、図9(a)に示すように、新たな3次元の座標系の2次元の各軸周りにその新たな3次元の座標系を回転させる。例えば、新たな3次元の座標系をx軸周りにθx °,y軸周りにθy °だけ回転させる。回転角度θ °,θy °は、例えば本実施例のパチンコ機Pの場合にはプログラム内に予め用意された回転角度のデータを参照することで求める。例えばパチンコ機P以外の遊技機の場合には、コントローラ等の入力手段からの入力信号に基づいて求める。これにより、図9(c)に示すように、予め与えられている注目点から視点までの距離Lのデータに基づいて、新たな3次元の座標系のz軸上の注目点から距離Lだけ離れた配置位置P に、新たな座標系を移動させる。このとき、新たな3次元の座標系のz軸が注目点を向くように移動される。なお、本明細書では、視線の方向がz軸のプラス側になるように説明するが、これに限定されるものではなく、例えば視線の方向がz軸のマイナス側になるようにすることもできる。また、本実施例では、注目点の配置位置WPをオブジェクトOJ3の配置位置と一致するようにしたが、これに限定されるものではなく、例えば注目点の配置位置WPは任意の位置に設定することができる。具体的には、3次元画像処理部30は、上述した注目点の配置位置WPの座標値と、新たな座標系の各軸周りの回転角度θ ,θy と、注目点からの距離Lとの各値を、次式(1)に示す式に代入する。
【0061】
(P0X,P0Y,P0Z)=(Lsinθy cosθ +WP ,Lsinθ+WPy ,Lcosθy cosθ +WPz )  … (1)
【0062】
3次元画像処理部30は、上述した式(1)によって、注目点がz軸にある3次元の座標系の原点Oのワールド座標系における座標値(P0X,P0Y,P0Z)を算出し、その座標値(P0X,P0Y,P0Z)で特定されるワールド座標系の配置位置P0 に新たな3次元の座標系を移動させる。このワールド座標系の配置位置P0 における新たな3次元の座標系を、注目点を向く視線を有する視点SPとする。この視点SPからの視線が向いた方向のワールド座標系内の様子がLCD6の表示画面6aに表示される。
【0063】
また、本実施例では、後述する視点座標系のx軸とy軸とを、ワールド座標系のX軸とY軸とに、さらに、上述した新たな座標系のx軸とy軸とにもそれぞれ一致させて、視点座標系のz軸を、新たな座標系のz軸に一致させるとともに、ワールド座標系のZ軸とは逆方向に一致させている。これによって、θx °は180°,θy °は0°にそれぞれ設定される。また、このとき、視点SPからの視線方向を変更させるときには、ワールド座標系内でオブジェクトOJ1〜OJ6をワールド座標系でX軸周り,Y軸周りに回転させている。
【0064】
ステップT3では、3次元画像処理部30は、表示画面6aに複数個の絵柄画像を表示するためのオブジェクトOJ1〜OJ6をキャラクタROM27からそれぞれ読み出す。そして、図10に示すように、3次元画像処理部30は、視点SPの配置位置P0 の座標値(P0X,P0Y,P0Z)を基準とする各座標値に応じて、ワールド座標系内の各座標値を求めて、それら各座標値に基づく各配置位置P1 〜P6 に各オブジェクトOJ1〜OJ6をそれぞれ配置する。なお、3次元画像処理部30は、各オブジェクトの配置位置の座標値のΔPで表した部分のデータを算出、またはROM24内に予め用意されたデータを参照して、そのΔPの値と視点SPの座標値とからワールド座標系における座標値を求める。
【0065】
具体的には、ワールド座標系内の配置位置P1 (P0X+ΔP1X,P0y+ΔP1Y,P0Z+ΔP1Z)にオブジェクトOJ1を、配置位置P2 (P0X+ΔP2X,P0Y+ΔP2Y,P0Z+ΔP2Z)にオブジェクトOJ2を、配置位置P3 (P0X+ΔP3X,P0Y+ΔP3Y,P0Z+ΔP3Z)にオブジェクトOJ3を、配置位置P4 (P0X+ΔP4X,P0Y+ΔP4Y,P0Z+ΔP4Z)にオブジェクトOJ4を、配置位置P5 (P0X+ΔP5X,P0Y+ΔP5Y,P0Z+ΔP5Z)にオブジェクトOJ5を、配置位置P6 (P0X+ΔP6X,P0Y+ΔP6Y,P0Z+ΔP6Z)にオブジェクトOJ6を、それぞれ配置する。なお、便宜上図7などでは各オブジェクトの形態を球体形状で図示しているが、各オブジェクトの形状はそれぞれの絵柄画像の形状に応じた3次元形状で形成されている。また、本実施例では、視点SPを基準として各オブジェクトOJ1〜OJ6を配置しているので、視点SPの配置位置や視線方向を変位させた場合すなわち注目点を移動させた場合であっても、各オブジェクトOJ1〜OJ6によって表示される絵柄画像を、表示画面6a上の一定の位置に表示させることができる。
【0066】
さらに、3次元画像処理部30は、各オブジェクトOJ1〜OJ6の中の任意のオブジェクトを移動させる場合には、その任意のオブジェクトの配置位置のx軸成分の座標値を割り込み処理ごとに順次更新(座標値を減算または加算)することで、任意のオブジェクトを横方向へ移動させる。これにより、オブジェクトがワールド座標系内を移動するので、そのオブジェクトによって表示される絵柄画像も表示画面6a上を移動する。同様にして、任意のオブジェクトの配置位置のy軸成分の座標値を順次更新すればオブジェクトを縦方向へ、z軸成分の座標値を順次更新すればオブジェクトを奥行き方向へそれぞれ任意に移動させることができる。なお、ステップT3における処理については後で詳細に説明する。
【0067】
ステップT4では、3次元画像処理部30は、ワールド座標系内に配置された各オブジェクトOJ1〜OJ6の各配置位置P1 〜P6 の座標値を、視点SPを基準すなわち原点とする視点座標系の座標値に変換する。つまり、上述した座標値のΔで表された成分だけを抜き出す。ここで、レンダリング処理部32によってフレームメモリ内に生成される表示画像の縦横比は3:4であるので、この表示画像を縦横比が9:16の表示画面6aに表示すると、表示画像が間延びした画像となるという弊害が生じる。そこで、表示画像の縦横比と、表示画面6aの縦横比とに応じて、視点座標系を変形補正することにより、その視点座標系内に配置された各絵柄画像などを変形させる。
【0068】
具体的には、3次元画像処理部30は、視点座標系を変形補正するための変形補正値を算出する。この変形補正値は、各オブジェクトOJ1〜OJ6の縦幅または横幅を拡大もしくは縮小するための倍率値である。変形補正値は、表示画面6aの縦横比をA:B、表示画像の縦横比をa:bとすると、次式(2)によって算出することができる。なお、次式(2)で算出される変形補正値は、表示画像の縦倍率を基準にして、その横幅を画面に合わせて変形した場合には、オブジェクト等の横幅を変形補正するための倍率値であり、表示画像の横倍率を基準にして、その縦幅を画面に合わせて変形した場合には、各オブジェクトOJ1〜OJ6の縦幅を変形補正するための倍率値である。
【0069】
(A×b)÷(a×B)  …(2)
【0070】
フレームメモリ内に生成される表示画像の縦横比が3:4であり、表示画面6aの縦横比が9:16である場合には、表示画面6aには表示画像の縦横比が9:16で表示されるので、表示画像の横幅が4/3倍に拡大されたように表示される。このとき、表示画像に含まれる各オブジェクトOJ1〜OJ6で表示される絵柄画像の横幅も4/3倍に拡大される。ここで、式(2)に表示画像および表示画面6aの縦横比の各値を代入することで、各オブジェクトOJ1〜OJ6の横幅を4分の3倍(以下、「3/4倍」と示す)に縮小する倍率値の変形補正値を算出する。さらに、3次元画像処理部30は、変形補正値に基づいて視点座標系の横方向(x軸方向)を3/4倍に縮小する。その結果、各オブジェクトOJ1〜OJ6は、視点座標系のx軸方向に3/4倍に縮小される。なお、この実施例では、ステップT4によって視点座標系を変形補正したが、変形補正することなくステップT4以降の処理を行うこともできる。
【0071】
ステップT5では、3次元画像処理部30は、図10に示すように、視点SPと、オブジェクトOJ1〜OJ6との間に、視点からの視線の方向であるz軸に垂直な投影平面TMを設定する。投影平面TMは、視点座標系のz軸に垂直であり、z値が固定されているので、投影平面TM上では2次元の座標値として取り扱うことができる。この投影平面TMは、ビデオRAM28内に設けられたフレームメモリに対応する領域を有している。
【0072】
さらに、3次元画像処理部30は、投影平面TMに投影される各オブジェクトOJ1〜OJ6の移動方向に応じて、それら各オブジェクトOJ1〜OJ6を透視投影または平行投影する。これにより、各オブジェクトOJ1〜OJ6をそれぞれ構成する各ポリゴンの各頂点は、投影平面TMに透視移動または平行移動するように投影され、各頂点の3次元の座標値が投影平面TM上の2次元の座標値に変換される。3次元画像処理部30は、全てのオブジェクトの投影が終了することにより、ワールド座標系内の各オブジェクトOJ1〜OJ6の投影情報を取得する。
【0073】
ここで、透視投影とは、各オブジェクトOJ1〜OJ6を視点SPから見た状態で投影することをいい、具体的にはオブジェクトOJ1〜OJ6の各ポリゴンの頂点が視点SPへ向けて直線的に移動されるように投影することをいう。これにより、例えば視点SPからの距離に応じてオブジェクトOJ1〜OJ6の各画像が変化するように表示される。平行投影とは、オブジェクトOJ1〜OJ6を投影平面TMから見たそのままの状態で投影することをいい、具体的にはオブジェクトOJ1〜OJ6の各ポリゴンの頂点が投影平面TMに対して垂直に直線的に移動するように投影することをいう。これにより、視点SPからの距離に関わらず、オブジェクトOJ1〜OJ6の各画像は常に一定の大きさで表示される。
【0074】
なお、遊技者に遊技状態を識別させたい場合には、例えば絵柄画像のうちの識別図柄を識別し易くするために、識別図柄を表示するオブジェクトを平行投影する。それ以外の場合には、例えば絵柄画像のうちの補助図柄や背景画像を、より立体感を表現するために、これらの画像を表示するオブジェクトを透視投影することが好ましい。なお、ステップT5における処理についても後で詳細に説明する。
【0075】
ステップT6では、まず、3次元画像処理部30は、キャラクタROM27に記憶されている背景画像を読み出し、その背景画像をビデオRAM28内のフレームメモリ内に描画する。この背景画像は、例えば夜景の様子を表示する画像である。
【0076】
次に、3次元画像処理部30は、投影情報に含まれる各オブジェクトOJ1〜OJ6の各ポリゴンの各頂点の座標値に対応するビデオRAM28のフレームメモリ内のアドレス、すなわちフレームメモリ内の各オブジェクトOJ1〜OJ6の各ポリゴンの位置を求める。そして、キャラクタROM27から読み出したテクスチャを各ポリゴンに合わせて変形させながら各ポリゴンに描画する。このとき、視点SPから遠い位置に設定されたオブジェクトの順番に、そのオブジェクトの各ポリゴンに貼り付けるためのテクスチャを読み出す。このテクスチャは、図13に示すように、識別図柄としての麻雀牌の模様など画像や、補助図柄としてのキャラクタ(例えば、龍)の模様など画像や、背景の模様などの画像である。この読み出されたテクスチャを、そのテクスチャの貼り付け対象であるポリゴンの形状に合せて変形し、そのテクスチャをフレームバッファ内の対応するアドレスに描画する。これにより、背景画像上に、各オブジェクトOJ1〜OJ6の画像である絵柄画像が重ねられた表示画像がフレームメモリ内に生成される。
【0077】
ステップT7では、3次元画像処理部30は、フレームメモリ内に生成された表示画像を、ビデオ出力部35を介してLCD6に出力する。LCD6は、割り込み処理ごとに3次元画像処理部30から送られてくる縦横比が3:4の表示画像を、縦横比が9:16の表示画面6aに合わせて順次表示する。上述したステップT1〜T7が実行されることによって、表示画面6aには、図11に示すような表示画像が表示される。図11に示すように、表示画面6aには、例えば夜景の様子を示す背景画像HGの前面に、上述した各オブジェクトOJ1〜OJ5の画像である絵柄画像G1〜G5が表示される。このとき、投影平面TM外に配置されているオブジェクトOJ6は、投影平面TMに投影されないので、表示画面6aには表示されない。なお、上述したステップT1〜T7を繰り返して、全ての識別図柄を変動させる通常変動や、特定の識別図柄だけが変動させるリーチなどの表示態様を表示することができるとともに、その他の遊技状態に応じて絵柄画像や背景画像を表示することができる。
【0078】
次に、本発明の1つの特徴点である2種類の表示態様の生成、つまり、本実施例に係るパチンコ機Pで実際に表示される2種類の表示態様の生成について、図12〜図17を用いて説明するとともに、上述したステップT3およびT5における処理についても具体的に説明する。図12は、LCDの表示画面に表示される第1,第2の表示態様を生成する処理を示すフローチャートである。図13,図14は、第1の表示態様を示す図である。図15(a)は、第1の表示態様の場合の各オブジェクトのワールド座標系への配置状態を示す図であり、図15(b)は、第2の表示態様の場合の各オブジェクトのワールド座標系への配置状態を示す図である。図16,図17は、第2の表示態様を示す図である。第1の表示態様は、図13,図14に示すように、龍に関する絵柄画像63が牌に関する絵柄画像61の背後側に位置して変動するパターンであり、第2の表示態様は、図16,図17に示すように、龍に関する絵柄画像63が牌に関する絵柄画像61の手前側に位置して変動するパターンである。
【0079】
まず、最初に、第1の表示態様について説明する。LCD6の表示画面6aには、制御基盤11から送られてきたコマンドに基づいて、図13,図14に示すような表示態様が、図13(a)〜図13(c),図14(a)〜図14(c)の順に表示される。図13(a)に示すように、LCD6の表示画面6a内には、遊技状態を識別させるための識別図柄(例えば(麻雀)牌に関する識別図柄)を示した絵柄画像61、識別図柄間に配置された補助的な識別図柄(これが揃っても大当り状態にならない識別図柄)である絵柄画像62、キャラクタ(例えば龍)に関する絵柄画像63、夜景の様子を示した背景画像(図示省略)がそれぞれ表示されている。例えば(麻雀)牌に関する識別図柄である絵柄画像61が、表示画面6a内の右列R,中列M,左列Lのそれぞれの領域内に表示されて、通常回転時には各列R,M,Lに表示される絵柄画像61がそれぞれ縦方向に低速または高速で移動する。また、移動する各絵柄画像61の間には絵柄画像62が位置するように表示されており、この絵柄画像62(例えばサイコロに関する図柄)が表示画面6a内に表示されている。例えば、縦方向に変動していた右列Rおよび左列Lの識別図柄が停止し、表示画面6aの斜め方向または横方向のいずれかで同一種類で揃うように停止、つまりリーチが発生すると、中列Mの識別図柄だけが縦方向に変動を続けるように表示される。図13(a)では、横方向のラインで右列Rおよび左列Lの「七萬」が揃ったリーチ状態となっている。
【0080】
このようにリーチが発生すると、図13(b)に示すように、2匹の龍(絵柄画像63)が絵柄画像61,62の奥側(背後)で、かつ、表示画面6aの下側から現れ、表示画面6a内の端縁から中央に向かってそれぞれ移動する。龍を示す絵柄画像63は、牌やサイコロを示す絵柄画像61,62の奥側(背後)に位置するため、絵柄画像63のうちの絵柄画像61,62の背後になる部分は、絵柄画像61,62により隠れて見えなくなっている。
【0081】
そして、図13(c)および図14(a)〜(c)に示すように、それぞれの龍が、表示画面6aの絵柄画像61,62の奥側で、かつ、下側から上側に螺旋状に旋回移動しながら、牌に関する識別図柄の絵柄画像61やサイコロに関する補助的な識別図柄である絵柄画像62を破壊していき、図14(c)に示すように、表示画面6a内の中央から端縁に向かって移動して、表示画面6aから消える。ここで言う「第1の表示態様」はこのようなものである。
【0082】
ステップU1では、図13に示す龍に関する絵柄画像63を表示画面6aに表示させるために、3次元画像処理部30は、キャラクタROM27に予め記憶されている、この龍のオブジェクトを読み出す。この龍のオブジェクトは、投影平面に透視投影されるオブジェクト(以下、適宜に「補助オブジェクトOC」と呼ぶ)であり、図15(a)に示すように、ワールド座標系内の所定位置に配置する。また、便宜上、図15(a)では補助オブジェクトの形態を多角体形状で図示しているが、補助オブジェクトOCの形状は絵柄画像63の形状に応じた3次元形状で形成されている。上述した補助オブジェクトOCが本発明における第1オブジェクトに相当する。
【0083】
ステップU2では、図13に示す牌に関する絵柄画像61やサイコロに関する絵柄画像62を表示画面6aに表示させるために、3次元画像処理部30は、キャラクタROM27に予め記憶されている、これらの牌やサイコロのオブジェクトを読み出す。これらの牌やサイコロのオブジェクトは、投影平面に平行投影されるオブジェクト(以下、適宜に「識別オブジェクトOB1〜OB3」と呼ぶ)である。この識別オブジェクトOB1〜OB3は、図15(a)に示すように、ワールド座標系内の所定位置に配置された補助オブジェクトOCの手前側の所定位置に配置する。また、便宜上、図15(a)では識別オブジェクトOB1〜OB3の形態を球体形状で図示しているが、識別オブジェクトOB1〜OB3の形状は絵柄画像61,62の形状に応じた3次元形状で形成されている。上述した識別オブジェクトOB1〜OB3が本発明における第2オブジェクトに相当する。
【0084】
これらの補助,識別オブジェクトOC,OB1〜OB3の初期の配置位置、フレームごとの回転角度のデータ(θx °,θy °,θz °)、および1フレームごとの補助,識別オブジェクトOC,OB1〜OB3の移動量(すなわち移動速度)は、ROM24内に記憶されており、この記憶されたデータに基づいて補助,識別オブジェクトOC,OB1〜OB3を移動させるように表示プログラムはプログラミングされている。
【0085】
かかる手順によって補助,識別オブジェクトOC,OB1〜OB3をワールド座標系内に配置し、補助,識別オブジェクトOC,OB1〜OB3の各座標をそれぞれ変換することでこれらの補助,識別オブジェクトOC,OB1〜OB3の形態を変換する。具体的には、この第1の表示態様のように、龍に関する絵柄画像63を、牌に関する絵柄画像61およびサイコロに関する絵柄画像62の後方に位置させて変動させるときには、龍に関するオブジェクト(補助オブジェクトOC)よりも視点に近い側の位置に、牌やサイコロに関するオブジェクト(識別オブジェクトOB1〜OB3)を配置させて、この補助オブジェクトOCを識別オブジェクトOB1〜OB3の背後の位置で変動させることで、龍に関する絵柄画像63が、図13,14に示すように、牌やサイコロに関する絵柄画像61,62の背後で表示画面6a内を移動するという様子が表示される。
【0086】
また、図13(b)に示すように、龍に関する絵柄画像63が、牌に関する絵柄画像61や、サイコロに関する絵柄画像62を破壊するときに、破壊させている龍の頭、すなわち先頭オブジェクトを、破壊の対象である牌またはサイコロに関するオブジェクトと同じ位置に配置させるようにしてもよい。
【0087】
なお、本実施例においては、視点を変更しなかったが、図9,図10,図15に示すような視点SPの配置位置や視線方向を変位させたり、注目点を移動させたりすることもできる。このように視点SPや注目点を移動させることで、絵柄画像61〜63を視点SPから遠ざけたり近づけることができる。
【0088】
ワールド座標系でオブジェクトを配置/変動することでオブジェクトの形態を変更すると、ステップU3では、3次元画像処理部30は、割り込み処理ごとに、図15(a)に示す投影平面TM(スクリーン座標)に、牌やサイコロに関する識別オブジェクトOB1〜OB3や龍に関する補助オブジェクトOCを平行,透視投影する。すなわち、1フレームごとに投影平面TMに、識別オブジェクトOB1〜OB3を平行投影するとともに、補助オブジェクトOCを透視投影することになる。
【0089】
また、これらのオブジェクトを投影平面TMに投影する際には、3次元画像処理部30は、キャラクタROM27に記憶されている背景画像を読み出し、その背景画像をビデオRAM28内のフレームメモリ内に描画する。本実施例では、背景画像は、夜景の様子を表示する画像である。
【0090】
投影平面TMに投影された、これらのオブジェクトに基づいて、投影情報を取得し、フレームメモリ内の各オブジェクトの各ポリゴンの位置を求め、キャラクタROM27から読み出したテクスチャを各ポリゴンに合わせて変形させながら各ポリゴンに描画する。
【0091】
上述のように、投影されたオブジェクトにテクスチャの描画を行うことで、ステップU4での貼付が行われる。このとき、視点SPから遠い位置に設定されたオブジェクトの順番に、そのオブジェクトの各ポリゴンのテクスチャを貼り付ける。このようにして、テクスチャをオブジェクトに貼付けて、さらに他のレンダリング処理、例えばクリッピング処理や隠面処理などを行い、キャタクタROM27に記憶されている背景画像に合わせこむことで、図13,図14に示す表示態様を表現することができる。1フレームごと、すなわち割り込み処理ごとにオブジェクトの形態を変換して、テクスチャを、形態変換されたオブジェクトの形態に応じて順に貼り付ける。オブジェクトの形態が順に変換されるたびに、その都度、テクスチャがオブジェクトに貼付けられてビデオ出力部35によって龍に関する絵柄画像63としてLCD6の表示画面6aに表示出力される。テクスチャをオブジェクトに順に貼り付けることで絵柄画像63が変動しているようにLCD6に出力して、ビデオ出力部35は、その絵柄画像63の変動を表示出力する。
【0092】
次に、第2の表示態様について説明する。LCD6の表示画面6aには、制御基盤11から送られてきたコマンドに基づいて、図16,図17に示すような表示態様が、図16(a)〜図16(c),図17(a)〜図17(c)の順に表示される。この第2の表示態様は、図16(a)においては、前述の図13(a)と同様に横方向のラインで右列Rおよび左列Lの「七萬」が揃ったリーチ状態となっているが、この後行われる演出が前述の第1の表示態様とは異なるのである。
【0093】
このようにリーチが発生すると、図16(b)に示すように、2匹の龍(絵柄画像63)が絵柄画像61,62の手前側で、かつ、表示画面6aの下側から現れ、表示画面6a内の端縁から中央に向かってそれぞれ移動する。牌やサイコロを示す絵柄画像61,62は、龍を示す絵柄画像63の奥側(背後)に位置するため、絵柄画像61,62のうちの絵柄画像63の背後になる部分は、絵柄画像63により隠れて見えなくなっている。
【0094】
そして、図16(c)および図17(a)〜(c)に示すように、それぞれの龍が、表示画面6aの絵柄画像61,62の手前側で、かつ、下側から上側に螺旋状に旋回移動していき、図17(c)に示すように、表示画面6a内の中央から端縁に向かって移動して、表示画面6aから消える。ここで言う「第2の表示態様」はこのようなものである。
【0095】
ステップU1では、図16に示す龍に関する絵柄画像63を表示画面6aに表示させるために、3次元画像処理部30は、キャラクタROM27に予め記憶されている、この龍のオブジェクトを読み出す。この龍のオブジェクトは、投影平面に透視投影される補助オブジェクトOCであり、図15(b)に示すように、ワールド座標系内の図15(a)と同一の位置に配置する。
【0096】
ステップU2では、図16に示す牌に関する絵柄画像61やサイコロに関する絵柄画像62を表示画面6aに表示させるために、3次元画像処理部30は、キャラクタROM27に予め記憶されている、これらの牌やサイコロのオブジェクトを読み出す。これらの牌やサイコロのオブジェクトは、投影平面に平行投影される識別オブジェクトOB1〜OB3である。この識別オブジェクトOB1〜OB3は、図15(b)に示すように、ワールド座標系内の図15(a)と同一の位置に配置された補助オブジェクトOCの背後側の所定位置に配置する。
【0097】
これらの補助,識別オブジェクトOC,OB1〜OB3の初期の配置位置、フレームごとの回転角度のデータ(θx °,θy °,θz °)、および1フレームごとの補助,識別オブジェクトOC,OB1〜OB3の移動量(すなわち移動速度)は、ROM24内に記憶されており、この記憶されたデータに基づいて補助,識別オブジェクトOC,OB1〜OB3を移動させるように表示プログラムはプログラミングされている。
【0098】
かかる手順によって補助,識別オブジェクトOC,OB1〜OB3をワールド座標系内に配置し、補助,識別オブジェクトOC,OB1〜OB3の各座標をそれぞれ変換することでこれらの補助,識別オブジェクトOC,OB1〜OB3の形態を変換する。具体的には、この第2の表示態様のように、龍に関する絵柄画像63を、牌に関する絵柄画像61およびサイコロに関する絵柄画像62の手前側に位置させて変動させるときには、龍に関するオブジェクト(補助オブジェクトOC)よりも視点から遠い側の位置に、牌やサイコロに関するオブジェクト(識別オブジェクトOB1〜OB3)を配置させて、この補助オブジェクトOCを識別オブジェクトOB1〜OB3の手前側の位置で変動させることで、龍に関する絵柄画像63が、図16,17に示すように、牌やサイコロに関する絵柄画像61,62の手前側で表示画面6a内を移動するという様子が表示される。
【0099】
また、第2の表示態様では、図16,図17に示すように、牌に関する絵柄画像61やサイコロに関する絵柄画像62を左列L、右列R、中列Mの順に消去しているが、前述の第1の表示態様と同様に絵柄画像61,62を破壊して消去するようにしてもよい。この場合には、龍に関する絵柄画像63が、牌に関する絵柄画像61や、サイコロに関する絵柄画像62を破壊するときに、破壊させている龍の頭、すなわち先頭オブジェクトを、破壊の対象である牌またはサイコロに関するオブジェクトと同じ位置に配置させるようにしてもよい。
【0100】
なお、本実施例においては、視点を変更しなかったが、図9,図10,図15に示すような視点SPの配置位置や視線方向を変位させたり、注目点を移動させたりすることもできる。このように視点SPや注目点を移動させることで、絵柄画像61〜63を視点SPから遠ざけたり近づけることができる。
【0101】
ワールド座標系でオブジェクトを配置/変動することでオブジェクトの形態を変更すると、ステップU3では、3次元画像処理部30は、割り込み処理ごとに、図15(b)に示す投影平面TM(スクリーン座標)に、牌やサイコロに関する識別オブジェクトOB1〜OB3や龍に関する補助オブジェクトOCを平行,透視投影する。すなわち、1フレームごとに投影平面TMに、識別オブジェクトOB1〜OB3を平行投影するとともに、補助オブジェクトOCを透視投影することになる。
【0102】
また、これらのオブジェクトを投影平面TMに投影する際には、3次元画像処理部30は、キャラクタROM27に記憶されている背景画像を読み出し、その背景画像をビデオRAM28内のフレームメモリ内に描画する。本実施例では、背景画像は、夜景の様子を表示する画像である。
【0103】
投影平面TMに投影された、これらのオブジェクトに基づいて、投影情報を取得し、フレームメモリ内の各オブジェクトの各ポリゴンの位置を求め、キャラクタROM27から読み出したテクスチャを各ポリゴンに合わせて変形させながら各ポリゴンに描画する。
【0104】
上述のように、投影されたオブジェクトにテクスチャの描画を行うことで、ステップU4での貼付が行われる。このとき、視点SPから遠い位置に設定されたオブジェクトの順番に、そのオブジェクトの各ポリゴンのテクスチャを貼り付ける。このようにして、テクスチャをオブジェクトに貼付けて、さらに他のレンダリング処理、例えばクリッピング処理や隠面処理などを行い、キャタクタROM27に記憶されている背景画像に合わせこむことで、図16,図17に示す表示態様を表現することができる。1フレームごと、すなわち割り込み処理ごとにオブジェクトの形態を変換して、テクスチャを、形態変換されたオブジェクトの形態に応じて順に貼り付ける。オブジェクトの形態が順に変換されるたびに、その都度、テクスチャがオブジェクトに貼付けられてビデオ出力部35によって龍に関する絵柄画像63としてLCD6の表示画面6aに表示出力される。テクスチャをオブジェクトに順に貼り付けることで絵柄画像63が変動しているようにLCD6に出力して、ビデオ出力部35は、その絵柄画像63の変動を表示出力する。
【0105】
以上より、上述したパチンコ機Pによれば、3次元画像処理部30は、投影平面TMに透視投影される補助オブジェクトOCを仮想3次元座標空間内の所定位置に設定し、指示された表示演出の種類が、視点SPから見た補助オブジェクトOC,識別オブジェクトOB1〜OB3の位置関係が前後に異なる表示演出の種類である場合には、この表示演出の種類に応じて、投影平面TMに平行投影される識別オブジェクトOB1〜OB3を、補助オブジェクトOCと投影平面TMとの間の所定位置または補助オブジェクトOCの視点SP側とは反対側の所定位置に設定する。つまり、仮想3次元座標空間内での識別オブジェクトOB1〜OB3の設定位置を、補助オブジェクトOCの前後の位置に変更するようにして、補助オブジェクトOCと識別オブジェクトOB1〜OB3との相対位置関係が前後に異なる複数種類の表示演出を生成しているので、仮想3次元座標空間内での補助オブジェクトOCの設定位置を識別オブジェクトOB1〜OB3に対して変更することに起因する表示画像生成制御の煩雑さを発生させないようにできる。また、補助オブジェクトOCを識別オブジェクトOB1〜OB3に対して前後に位置変更せずとも、識別オブジェクトOB1〜OB3を補助オブジェクトOCに対して前後に位置変更することで、補助オブジェクトOCと識別オブジェクトOB1〜OB3との相対位置関係が前後に異なることを明確に表現した表示演出を生成することができる。したがって、表示画像生成制御の煩雑さを発生させることなく、補助オブジェクトOCと識別オブジェクトOB1〜OB3との相対位置関係が前後に異なる複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。
【0106】
また、識別オブジェクトOB1〜OB3は、遊技状態を識別させるための識別情報とし、補助オブジェクトOCは、識別情報とは別の表示情報(例えば、龍のキャラクタ画像)とする。つまり、仮想3次元座標空間内での識別情報(平行投影オブジェクト)の設定位置を表示情報(透視投影オブジェクト)に対して変更するようにして、表示情報(透視投影オブジェクト)と識別情報(平行投影オブジェクト)との相対位置関係が異なる複数種類の表示演出を生成しているので、仮想3次元座標空間内での表示情報(透視投影オブジェクト)の設定位置を識別情報(平行投影オブジェクト)に対して変更することに起因する表示画像生成制御の煩雑さを発生させないようにできる。また、表示情報(透視投影オブジェクト)を識別情報(平行投影オブジェクト)に対して位置変更せずとも、識別情報(平行投影オブジェクト)を表示情報(透視投影オブジェクト)に対して位置変更することで、表示情報(透視投影オブジェクト)と識別情報(平行投影オブジェクト)との相対位置関係を明確に表現した表示演出を生成することができる。したがって、表示画像生成制御の煩雑さを発生させることなく、表示情報(透視投影オブジェクト)と識別情報(平行投影オブジェクト)との相対位置関係が異なる複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。
【0107】
3次元画像処理部30は、補助オブジェクトOCが投影平面TM上で所定方向に移動するように、この補助オブジェクトOCの仮想3次元座標空間内での設定位置が順次に更新されるので、仮想3次元座標空間内での補助オブジェクトOCの設定位置を識別オブジェクトOB1〜OB3に対して変更することに起因する表示画像生成制御の煩雑さを発生させることなく、補助オブジェクトOCが表示画面上で移動するという臨場感のある複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。例えば、この複数種類の表示演出の一つとしては、識別オブジェクトOB1〜OB3が補助オブジェクトOCの手前側に存在し、補助オブジェクトOCが移動するという表示演出があり、別のものとしては、識別オブジェクトOB1〜OB3が補助オブジェクトOCの奥側に存在し、補助オブジェクトOCが移動するという表示演出があり、種々の表示演出が挙げられる。
【0108】
3次元画像処理部30は、識別オブジェクトOB1〜OB3が投影平面上で所定方向に移動するように、この識別オブジェクトOB1〜OB3の仮想3次元座標空間内での設定位置が順次に更新されるので、仮想3次元座標空間内での補助オブジェクトOCの設定位置を識別オブジェクトOB1〜OB3に対して変更することに起因する表示画像生成制御の煩雑さを発生させることなく、第2オブジェクトが表示画面上で移動するという臨場感のある複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。
例えば、この複数種類の表示演出の一つとしては、識別オブジェクトOB1〜OB3が補助オブジェクトOCの手前側に存在し、識別オブジェクトOB1〜OB3が移動するという表示演出があり、別のものとしては、識別オブジェクトOB1〜OB3が補助オブジェクトOCの奥側に存在し、識別オブジェクトOB1〜OB3が移動するという表示演出があり、種々の表示演出が挙げられる。
【0109】
なお、上述した実施例では、LCD(液晶)ディスプレイであったが、例えば、液晶モニタの代わりにCRTモニタや、LEDモニタなどにすることもできる。
【0110】
本発明は、上記実施形態に限られることはなく、下記のように変形実施することができる。
【0111】
(1)上述した実施例では、補助オブジェクトOCの前後の位置に識別オブジェクトOB1〜OB3を配置することで、種類の異なる表示演出を生成しているが、このような前後の位置に限定されるものではなく、識別オブジェクトOB1〜OB3が補助オブジェクトOCに対して相対的に変位するように、識別オブジェクトOB1〜OB3の位置を配置するようにしてもよい。例えば、補助オブジェクトOCの前後以外の位置(例えば左右の位置、上下の位置等)に、識別オブジェクトOB1〜OB3を配置してもよい。
【0112】
(2)上述した実施例では、視点を変更しなかったが、図9,図10,図15に示すような視点SPの配置位置や視線方向を変位させたり、注目点を移動させたりしてもよい。このように視点SPや注目点を移動させることで、絵柄画像61〜63を視点SPから遠ざけたり近づけることができる。具体的には、3次元画像処理部30でのステップT2(図6参照)にて視点SPを変更する機能等が本発明の視点変位手段に相当する。3次元画像処理部30により、仮想3次元座標空間内に設定された視点SPを変位させて、その視点SPから補助オブジェクトOC,識別オブジェクトOB1〜OB3を見る角度すなわち状態を変化させるので、表示画面6aには、視点SPの変位に伴って補助オブジェクトOC,識別オブジェクトOB1〜OB3が種々の方向から表示されることになり、仮想3次元座標空間内での補助オブジェクトOCの設定位置を識別オブジェクトOB1〜OB3に対して変更することに起因する表示画像生成制御の煩雑さを発生させることなく、より臨場感のある複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。例えば、この複数種類の表示演出の一つとしては、識別オブジェクトOB1〜OB3が補助オブジェクトOCの手前側に存在し、視点の変位に伴って補助オブジェクトOC,識別オブジェクトOB1〜OB3が種々の方向から表示されるという表示演出があり、別のものとしては、識別オブジェクトOB1〜OB3が補助オブジェクトOCの奥側に存在し、視点の変位に伴って補助オブジェクトOC,識別オブジェクトOB1〜OB3が種々の方向から表示される表示演出があり、種々の表示演出が挙げられる。
【0113】
(3)上述した実施例では、表示情報を、キャラクタ(例えば龍)に関する絵柄画像63(図13,14参照)としているが、龍以外の種々のキャラクタの絵柄画像を表示画像としてもよい。このキャラクタとしては、人(老人、成人、幼児、乳児、男性や女性などの人)であってもよいし、動物、植物等の現実の生き物、あるいは空想上の生き物、ロボット、風や空気など背景に属するような生き物以外のもの等、種々の表示情報を採り得ることは言うまでもない。
【0114】
(4)上述した実施例では、LCD6の表示画面6aの左列L、中列M、右列Rの3列の各図柄を一定方向(例えば、上から下)に変動表示させるタイプとしているが、3列以外の複数列の各図柄を一定方向(例えば、上から下)に変動表示させるタイプとしてもよい。また、上述した実施例では、LCD6の表示画面6aの左列L、中列M、右列Rの各図柄を上から下に変動表示させるタイプとしているが、LCD6の表示画面6aを例えば上段、中段、下段の縦3段に分け、各段での各図柄を右から左(あるいは左から右)に変動表示させるタイプとしてもよい。
【0115】
(5)上述した実施例では、龍に関する絵柄画像63は、図13,図14に示す第1の表示態様と、図16,図17に示す第2の表示態様とにおいて、全く同一の動作をしているが、第1の表示態様と第2の表示態様とにおいて、異なる動作をするようにしてもよい。
【0116】
(6)本発明を上記実施例とは異なるタイプのパチンコ機等に実施してもよい。例えば、一度大当たりすると、それを含めて複数回(例えば2回、3回)大当たり状態が発生するまで、大当たり期待値が高められるようなパチンコ機(通称、2回権利物、3回権利物と称される。)として実施してもよい。また、大当たり図柄が表示された後に、所定の領域に球を入賞されることを必要条件として特別遊技状態となるパチンコ機として実施してもよい。さらに、パチンコ機以外にも、アレンジボール型パチンコ、雀球、いわゆるパチンコ機とスロットマシンとが融合した遊技機等の各種遊技機として実施するようにしてもよい。
【0117】
なお、スロットマシンは、例えばコインを投入して図柄有効ラインを決定させた状態で操作レバーを操作することにより図柄が変動され、ストップボタンを操作することにより図柄が停止されて確定されるものである。従って、スロットマシンの基本概念としては、「複数の図柄からなる図柄列を変動表示した後に図柄を確定表示する可変表示手段を備え、始動用操作手段(例えば操作レバー)の操作に起因して図柄の変動が開始され、停止用操作手段(例えばストップボタン)の操作に起因して、あるいは、所定時間経過することにより、図柄の変動が停止され、その停止時の確定図柄が特定図柄であることを必要条件として、遊技者に有利な特別遊技状態を発生させる特別遊技状態発生手段とを備えたスロットマシン」となり、この場合、有価物体はコイン、メダル等が代表例として挙げられる。
【0118】
なお、パチンコ機とスロットマシンとが融合した遊技機の具体例としては、複数の図柄からなる図柄列を変動表示した後に図柄を確定表示する可変表示手段を備えており、球打出用のハンドルを備えていないものが挙げられる。この場合、所定の操作(ボタン操作)に基づく所定量の球の投入の後、例えば操作レバーの操作に起因して図柄の変動が開始され、例えばストップボタンの操作に起因して、あるいは、所定時間経過することにより、図柄の変動が停止され、その停止時の確定図柄がいわゆる大当たり図柄であることを必要条件として遊技者に有利な大当たり状態が発生させられ、遊技者には、下部の受け皿に多量の球が払い出されるものである。
【0119】
【発明の効果】
以上の説明から明らかなように、本発明によれば、仮想3次元座標空間内での平行投影オブジェクトの設定位置を、透視投影オブジェクトに対して変更するようにして、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係が異なる複数種類の表示演出を生成しているので、仮想3次元座標空間内での透視投影オブジェクトの設定位置を平行投影オブジェクトに対して変更することに起因する表示画像生成制御の煩雑さを発生させないようにできる。また、透視投影オブジェクトを平行投影オブジェクトに対して位置変更せずとも、平行投影オブジェクトを透視投影オブジェクトに対して位置変更することで、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係を明確に表現した表示演出を生成することができる。したがって、表示画像生成制御の煩雑さを発生させることなく、透視投影オブジェクトと平行投影オブジェクトとの相対位置関係が異なる複数種類の表示演出を生成することができ、表示演出生成の処理負担を低減した遊技機を得ることができる。
【図面の簡単な説明】
【図1】本発明の実施例のパチンコ機の概略正面図である。
【図2】パチンコ機の遊技盤の概略正面図である。
【図3】実施例に係るパチンコ機の機能ブロック図である。
【図4】3次元画像処理部の機能ブロック図である。
【図5】パチンコ機の制御基盤での処理を示すフローチャートである。
【図6】パチンコ機の画像表示装置での処理を示すフローチャートである。
【図7】ワールド座標系に複数個のオブジェクトを配置した様子を示す図である。
【図8】注目点を設定した様子を示す図である。
【図9】注目点に基づいて、視点を設定するまでの様子を示す図である。
【図10】ワールド座標系における投影平面と複数個のオブジェクトとの様子を示す図である。
【図11】表示画面にオブジェクトの画像が表示された様子を示す図である。
【図12】本実施例に係るパチンコ機のLCDの表示画面に表示される第1,第2の表示態様を生成する処理を示すフローチャートである。
【図13】(a)〜(c)は第1の表示態様を示す図である。
【図14】(a)〜(c)は図13(c)に続いて表示される第1の表示態様を示す図である。
【図15】(a)は第1の表示態様の場合の各オブジェクトのワールド座標系への配置状態を示す図であり、(b)は第2の表示態様の場合の各オブジェクトのワールド座標系への配置状態を示す図である。
【図16】(a)〜(c)は第2の表示態様を示す図である。
【図17】(a)〜(c)は図16(c)に続いて表示される第2の表示態様を示す図である。
【符号の説明】
6 … LCD
6a… 表示画面
11 … 制御基盤
21 … 画像表示装置
24 … ROM
27 … キャラクタROM
30 … 3次元画像処理部
61〜63 … 絵柄画像
P … パチンコ機
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to gaming machines such as pachinko machines and slot machines.
[0002]
[Prior art]
In a gaming machine typified by a pachinko machine or the like, a symbol displayed on a display device in the gaming board starts to fluctuate when a ball wins in a starting port provided in the gaming board (start winning a prize) for a predetermined time. It is known that when the design of the symbol stopped after the elapse becomes a predetermined big hit symbol, a state that is advantageous to the player, for example, a big hit state is achieved. In recent years, as such gaming machines, with the advancement of display effects, those that perform 3D (three-dimensional) display effects using a virtual three-dimensional coordinate space have appeared. This 3D display effect is as follows. An object, which is three-dimensional information composed of a plurality of polygons and corresponds to a two-dimensional picture image, is arranged and changed in a virtual three-dimensional coordinate space, and the state of the change is displayed in the virtual three-dimensional coordinate space. This is a display effect of displaying based on a given viewpoint, that is, perspectively projecting the object on a projection plane set between the viewpoint and the object, and displaying a display image on the projection plane.
[0003]
[Problems to be solved by the invention]
However, the conventional pachinko machine described above has the following problems.
That is, the arrangement of objects in the virtual three-dimensional coordinate space is made different according to the type (contents) of the display effect to be generated, and this object is perspectively projected on a projection plane between the viewpoint and the respective display. Images must be generated, but there is a problem that such display image generation control becomes complicated and the processing load of display effect generation increases.
[0004]
The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a gaming machine that does not cause complicated display image generation control and reduces the processing load of display effect generation.
[0005]
[Means for Solving the Problems]
The present invention employs the following configuration to achieve such an object.
That is, according to the first aspect of the present invention, the first and second objects, which are three-dimensional information composed of a plurality of polygons, are arranged in a virtual three-dimensional coordinate space. A gaming machine comprising: projection means for projecting onto a projection plane set between a viewpoint at a predetermined position and the first and second objects; and display means for displaying a display image on the projection plane. First object setting means for setting the first object to be perspectively projected to a predetermined position in the virtual three-dimensional coordinate space, and the first object to be parallel-projected to the projection plane in accordance with a type of a designated display effect. And a second object setting means for setting a position of the second object so that the second object is displaced relative to the first object. It is intended.
[0006]
According to the first aspect of the present invention, the first object setting means sets the first object perspectively projected on the projection plane at a predetermined position in the virtual three-dimensional coordinate space, and sets the second object The setting means sets the position of the second object such that the second object projected parallel to the projection plane is displaced relative to the first object in accordance with the designated type of display effect. That is, the setting position of the second object (hereinafter, appropriately referred to as “parallel projection object”) in the virtual three-dimensional coordinate space is changed with respect to the first object (hereinafter, appropriately referred to as “perspective projection object”). Since a plurality of types of display effects in which the relative positional relationship between the perspective projection object and the parallel projection object is different are generated, the set position of the perspective projection object in the virtual three-dimensional coordinate space is set to the parallel projection object. On the other hand, it is possible to prevent the display image generation control from being complicated due to the change. Also, by changing the position of the parallel projection object with respect to the perspective projection object without changing the position of the perspective projection object with respect to the parallel projection object, the relative positional relationship between the perspective projection object and the parallel projection object is clearly expressed. The generated display effect can be generated. Therefore, it is possible to generate a plurality of types of display effects in which the relative positional relationship between the perspective projection object and the parallel projection object is different without causing the complexity of the display image generation control, and reduce the processing load of the display effect generation. You can get a gaming machine.
[0007]
In addition, this specification also discloses the invention related to the following gaming machines.
[0008]
(1) In the gaming machine according to claim 1,
When the indicated display effect type is a display effect type in which the positional relationship between the first and second objects as viewed from the viewpoint is different between front and rear, the second object setting means may include The second object is set at a predetermined position between the first object and the projection plane or at a predetermined position on the opposite side of the viewpoint side of the first object according to the instructed display effect type. A gaming machine characterized by that:
[0009]
According to the invention described in the above (1), if the indicated display effect type is a display effect type in which the positional relationship between the first and second objects as viewed from the viewpoint is different between front and rear, The object setting means sets the second object at a predetermined position between the first object and the projection plane or at a predetermined position on the opposite side of the viewpoint side of the first object, according to the type of the indicated display effect. . That is, the set position of the second object (parallel projection object) in the virtual three-dimensional coordinate space is changed to a position before and after the first object (perspective projection object), so that the perspective projection object and the parallel projection object Generates a plurality of types of display effects in which the relative positional relationship is different before and after, so that the display image generation resulting from changing the set position of the perspective projection object in the virtual three-dimensional coordinate space with respect to the parallel projection object Control complexity can be avoided. Also, by changing the position of the parallel projection object back and forth with respect to the perspective projection object without changing the position of the perspective projection object back and forth with respect to the parallel projection object, the relative positional relationship between the perspective projection object and the parallel projection object is changed. Can produce a display effect that clearly expresses the difference between before and after. Therefore, it is possible to generate a plurality of types of display effects in which the relative positional relationship between the perspective projection object and the parallel projection object is different before and after without causing the complexity of the display image generation control, thereby reducing the processing load of the display effect generation. A reduced gaming machine can be obtained.
[0010]
(2) In the gaming machine according to claim 1, or in the gaming machine according to (1),
The second object is identification information for identifying a game state,
A gaming machine, wherein the first object is display information different from the identification information.
[0011]
According to the invention described in the above (2), the second object is identification information for identifying a game state, and the first object is display information different from the identification information. That is, the setting position of the identification information (parallel projection object) in the virtual three-dimensional coordinate space is changed with respect to the display information (perspective projection object), so that the display information (perspective projection object) and the identification information (parallel projection object) are changed. Since a plurality of types of display effects having different relative positional relations with the object (object) are generated, the setting position of the display information (perspective projection object) in the virtual three-dimensional coordinate space is determined with respect to the identification information (parallel projection object). It is possible to prevent the display image generation control from being complicated due to the change. Also, by changing the position of the identification information (parallel projection object) relative to the display information (perspective projection object) without changing the position of the display information (perspective projection object) with respect to the identification information (parallel projection object), A display effect that clearly expresses the relative positional relationship between the display information (perspective projection object) and the identification information (parallel projection object) can be generated. Therefore, it is possible to generate a plurality of types of display effects in which the relative positional relationship between the display information (perspective projection object) and the identification information (parallel projection object) is different without causing the complexity of the display image generation control. A gaming machine with a reduced processing load for effect generation can be obtained.
[0012]
(3) In the gaming machine according to claim 1, or in the gaming machine according to (1) or (2),
A gaming machine comprising a viewpoint displacing means for displacing a viewpoint set in the virtual three-dimensional coordinate space.
[0013]
According to the invention described in the above (3), the viewpoint displacing means displaces the viewpoint set in the virtual three-dimensional coordinate space and changes the angle at which the first and second objects are viewed from the viewpoint, that is, the state. Therefore, on the display screen, the first and second objects are displayed from various directions according to the displacement of the viewpoint, and the setting position of the first object (perspective projection object) in the virtual three-dimensional coordinate space , A plurality of types of display effects having a more realistic feeling can be generated without causing the complexity of the display image generation control caused by changing the second object (parallel projection object). A gaming machine with a reduced processing load for generation can be obtained. For example, as one of the plurality of types of display effects, the second object (parallel projection object) exists in front of the first object (perspective projection object), and the first and second objects are displaced with the displacement of the viewpoint. Is displayed from various directions. As another example, the second object (parallel projection object) exists behind the first object (perspective projection object), and the second object (parallel projection object) is located at the back side. There are display effects in which the first and second objects are displayed from various directions, and various display effects are given.
[0014]
(4) In the gaming machine according to claim 1, or in the gaming machine according to any one of (1) to (3),
The gaming machine, wherein the first object setting means sets the first object in the virtual three-dimensional coordinate space so that the first object moves in a predetermined direction on the projection plane.
[0015]
According to the invention described in the above (4), the first object setting means sets the position of the first object in the virtual three-dimensional coordinate space so that the first object moves in a predetermined direction on the projection plane. Are sequentially updated, so that the setting position of the first object (perspective projection object) in the virtual three-dimensional coordinate space is changed with respect to the second object (parallel projection object). It is possible to generate a plurality of types of display effects with a sense of realism that the first object moves on the display screen without causing complexity, and to obtain a gaming machine in which the processing load of display effect generation is reduced. it can. For example, as one of the plurality of types of display effects, the second object (parallel projection object) exists in front of the first object (perspective projection object), and the first object (perspective projection object) moves. There is a display effect, in which a second object (parallel projection object) exists behind the first object (perspective projection object) and the first object (perspective projection object) moves. There are various display effects.
[0016]
(5) In the gaming machine according to claim 1, or in the gaming machine according to any one of (1) to (4),
The gaming machine, wherein the second object setting means sets the second object in the virtual three-dimensional coordinate space so that the second object moves in a predetermined direction on the projection plane.
[0017]
According to the invention described in the above (5), the second object setting means sets the set position of the second object in the virtual three-dimensional coordinate space so that the second object moves in a predetermined direction on the projection plane. Are sequentially updated, so that the setting position of the first object (perspective projection object) in the virtual three-dimensional coordinate space is changed with respect to the second object (parallel projection object). It is possible to generate a plurality of types of display effects with a sense of realism that the second object moves on the display screen without causing complexity, and to obtain a gaming machine in which the processing load of the display effect generation is reduced. it can. For example, as one of the plurality of types of display effects, the second object (parallel projection object) exists in front of the first object (perspective projection object), and the second object (parallel projection object) moves. There is a display effect, in which a second object (parallel projection object) exists behind the first object (perspective projection object) and the second object (parallel projection object) moves. There are various display effects.
[0018]
(6) In the gaming machine according to claim 1, or in the gaming machine according to any one of (1) to (5),
The gaming machine, wherein the gaming machine is a pachinko machine.
[0019]
According to the gaming machine described in (6), it is possible to provide a pachinko machine which is excellent in amusement and has a reduced processing load for generating a display effect. The pachinko machine has an operation handle as a basic configuration, and fires a ball, which is an example of a valuable object, to a predetermined game area in accordance with the operation of the operation handle, and the ball is disposed at a predetermined position in the game area. As a prerequisite for winning a prize (or passing through the activating gate) to the activated operating port, there is a case where identification information (a symbol or the like) dynamically displayed on the display device is fixedly stopped after a predetermined time. In addition, when a special game state occurs, a variable winning device (specific winning opening) disposed at a predetermined position in the game area is opened in a predetermined mode to enable a ball to win, and a value corresponding to the winning number is obtained. A value (including data written on a magnetic card as well as a prize ball) is given.
[0020]
(7) In the gaming machine according to claim 1, or in the gaming machine according to any one of (1) to (5),
The gaming machine, wherein the gaming machine is a slot machine.
[0021]
According to the gaming machine described in (7), it is possible to provide a slot machine which is reduced in processing load for generating a display effect and which is excellent in interest. Note that the basic configuration of the slot machine is as follows: "variable display means for determining and displaying the identification information after dynamically displaying an identification information string composed of a plurality of pieces of identification information is provided for operating the starting operation means (for example, the operation lever). The dynamic display of the identification information is started due to the operation, and the dynamic display of the identification information is stopped due to the operation of the stop operation means (for example, the stop button) or after a predetermined time has elapsed. A game machine having special game state generating means for generating a special game state advantageous to the player, on the condition that the fixed identification information at the time is the specific identification information. In this case, coins and medals are typical examples of valuable objects.
[0022]
(8) In the gaming machine according to claim 1, or in the gaming machine according to any one of (1) to (5),
A gaming machine, wherein the gaming machine is a combination of a pachinko machine and a slot machine.
[0023]
According to the gaming machine described in the above (8), it is possible to provide a combination of a pachinko machine and a slot machine, which has a reduced processing load for generating a display effect and is excellent in interest.
As a basic configuration of the united product, "variable display means for dynamically displaying an identification information string composed of a plurality of identification information and then confirming and displaying the identification information is provided. The dynamic display of the identification information is started due to the operation, and the dynamic display of the identification information is stopped due to the operation of the stop operation means (for example, a stop button) or after a predetermined time has elapsed, A special game state generating means for generating a special game state advantageous to the player on condition that the fixed identification information at the time of the stop is the specific identification information, and using a ball as a valuable object, The game machine is configured so that a predetermined number of balls are required at the start of the dynamic display of information, and many balls are paid out when a special game state occurs.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In this embodiment, a pachinko machine, which is a kind of a ball-and-ball game machine, will be described as an example of a game machine, in particular, a first-type pachinko game machine. Note that it is naturally possible to use the present invention for other gaming machines such as a third-type pachinko gaming machine (also referred to as a right), a coin gaming machine, and a slot machine.
[0025]
FIG. 1 is a schematic front view of a pachinko machine of the present embodiment, and FIG. 2 is a schematic front view of a game board of the pachinko machine. As shown in FIG. 1, the pachinko machine P of this embodiment includes a game board 1, an upper tray 2 and a lower tray 3 for storing balls, and a firing handle 4 for firing balls to the game board 1. ing. The game board 1 is covered with a transparent plate 1b made of polycarbonate fitted into the front frame 1a.
[0026]
As shown in FIG. 2, around the game board 1, there are provided a plurality of ordinary winning openings 5 from which 5 to 15 balls are paid out when the balls are won. In the center of the game board 1, a liquid crystal display (hereinafter simply referred to as "LCD") 6 for displaying a plurality of types of design information as identification information is provided. The display screen 6a of the LCD 6 (see FIGS. 11 and 13) is, for example, divided into three in the horizontal direction, that is, is constituted by three columns of a left column, a middle column, and a right column, and is divided into three. In the display area of each column, the symbols are displayed while being scrolled vertically from top to bottom.
[0027]
Above the LCD 6, a normal symbol display device 9 composed of two LEDs (light emitting diodes) 9a and 9b on the surface of which normal symbols "O" and "X" are displayed is arranged. In the ordinary symbol display device 9, when the ball hit into the game area passes through the gates 10 provided on both sides of the LCD 6, the variation that the LEDs 9a and 9b of "o" and "x" are alternately turned on. Display is performed. When the variation display is completed by the LED 9a of “○”, the ordinary electric accessory 7 below the LCD 6 is opened as indicated by a two-dot chain line for a predetermined time (for example, 0.5 second). Usually, the ball easily enters the electric accessory 7.
[0028]
The ordinary motorized accessory 7 disposed below the LCD 6 is provided with a symbol operation port (first-type start port) 7a, and when the ball passes through the symbol operation port 7a, the above-mentioned fluctuation display of the LCD 6 is performed. Is started. A specific winning port (large winning port) 8 is provided below the symbol operating port 7a. When the display result after the change of the LCD 6 matches one of the predetermined symbol combinations, the specific winning opening 8 becomes a big hit and a predetermined time (for example, 30 seconds after the lapse of 30 seconds) so that the ball can easily win. The winning opening is opened until the player wins or until 10 balls are won.
[0029]
The specific winning opening 8 is provided with a V zone 8a. When the ball passes through the V zone 8a while the specific winning opening 8 is open, a continuation right is established and the specific winning opening 8 is closed. Thereafter, the specific winning opening 8 is opened again for a predetermined time (or until a predetermined number of balls are won in the specific winning opening 8). The opening and closing operation of the specific winning opening 8 can be repeated up to 16 times (16 rounds), and the state in which the opening and closing operation can be performed is a state in which a so-called predetermined game value is given (special game state). is there.
[0030]
It should be noted that a state in which a predetermined game value is provided in the third-type pachinko gaming machine (special game state) is a state in which the display result after the fluctuation of the LCD 6 matches one of a predetermined combination of symbols. It means that the winning opening is opened for a predetermined time. If the ball wins inside the specific winning opening while the specific winning opening is being opened, the special winning opening provided separately from the specific winning opening is opened for a predetermined time and a predetermined number of times.
[0031]
As shown in FIG. 3, the pachinko machine P includes a control board 11 for controlling the entire pachinko machine P, and an image display device 21 having an LCD 6 (see FIG. 2). First, the control board 11 will be described, and then the image display device 21 will be described.
[0032]
The control board 11 includes a main control unit 12 which is a microcomputer including a memory, a central processing unit (hereinafter, referred to as a “CPU”), and a ball which has won the ordinary winning opening 5 (see FIG. 2). A normal winning switch 13 for detecting, a first-type starting-port switch 14 for detecting a ball passing through a symbol operating port (first-type starting port) 7a (see FIG. 2), and a V-zone 8a in the specific winning port 8 ( A V-count switch 15 for detecting a ball which has won a prize, a 10-count switch 16 for detecting a ball which has won a prize other than the V zone 8a in the specific prize opening 8, a counter 17 for outputting a specific value, An opening / closing solenoid 18 for opening and closing the specific winning opening 8 and an interface 19 communicably connected to an interface 22 of the image display device 21 are provided.
[0033]
Hereinafter, the processing performed by the control board 11 will be described with reference to the flowchart of FIG.
[0034]
In step S1, the player shoots a ball into the game board 1 with the firing handle 4 and starts a game. Some of the balls driven into the game board 1 are guided to the ordinary electric accessory 7, and pass through the symbol operating port 7a of the ordinary electric accessory 7, so that the first-type starting port switch 14 detects the ball. Then, a start start signal is transmitted to the main control unit 12, and a winning signal is transmitted to the main control unit 12. Also, when a ball has won the normal winning opening 5, the normal winning switch 13 detects the ball and transmits a winning signal to the main control unit 12.
[0035]
In step S2, when the main control unit 12 receives the winning signal, a payout motor (not shown) is operated to supply a predetermined number of balls to the upper tray 2.
[0036]
In step S3, when the main control unit 12 receives the start start signal from the first-type start port switch 14, the main control unit 12 reads the output value from the counter 17 and performs a jackpot lottery. In the jackpot lottery, if the output value of the counter 17 is a predetermined value, a "big hit", that is, a special game state is generated. If the output value from the counter 17 is not the predetermined value, "losing", that is, the normal game state is continued.
[0037]
In step S <b> 4, the main control unit 12 transmits a command corresponding to a special or normal game state to the image display device 21 via the interface 19. This command is an instruction for causing the LCD 6 of the image display device 21 to execute a predetermined display result. For example, in the case of a jackpot, the main control unit 21 transmits a command instructing the start of a predetermined reach, and after a predetermined time elapses, instructs the type of the jackpot symbol to be stopped and displayed at the final stage of the reach. Send a command to do so. As a result, the image display device 21 displays the reach of the type specified by the command, and then displays the reach at the big hit symbol of the type specified by the command. After the stop of the big hit symbol is displayed on the image display device 21, the main control unit 12 causes the opening / closing solenoid 18 to open the specific winning opening 8 by an opening signal, so that the player can acquire many balls. State. Further, each time the round ends, a command instructing the end of the round is transmitted to the image display device 21. Thereby, the image display device 21 displays a different display mode for each round. On the other hand, in the case of a loss, a command indicating the type of the design of the loss to be stopped at the final stage of the reach display is transmitted to the image display device 21. As a result, after displaying the reach, the image display device 21 displays the reach so as to stop at the lost symbol.
[0038]
In step S5, the main control unit 12 waits until receiving the presence or absence of a new start start signal from the first-type start port switch 14, that is, until detecting a winning of the ball. When a new start signal is received, steps S2 to S4 are repeated.
[0039]
Next, a specific configuration of the image display device 21 will be described with reference to FIG. The image display device 21 is obtained by an interface 22 communicably connected to an interface 19 of the control board 11, a CPU 23, a ROM 24 storing a control program executed by the CPU 23, and the CPU 23 executing the control program. RAM 25 for temporarily storing various data and the like, a bus 26 for connecting the above-mentioned interface 22, CPU 23, ROM 24, RAM 25 and a drawing processing unit 29 described later, and model data and texture used by the drawing processing unit 29. A character ROM 27 for storing data, a video RAM 28 for temporarily storing a visual field image generated by the rendering processing unit 29, an LCD 6 for displaying a visual field image in the video RAM 28, and a rendering processing unit 29 for generating a visual field image. And
The interface 22, the CPU 23, the ROM 24, the RAM 25, the bus 26, and the drawing processor 29 constitute a three-dimensional image processor 30.
[0040]
The three-dimensional image processing unit 30 executes a program according to the received command, and has a function of arranging an object in the world coordinate system and generating a display image in which a texture is pasted on the object. The above-described three-dimensional image processing unit 30 corresponds to the projection unit, the first object setting unit, and the second object setting unit in the present invention.
[0041]
Note that the world coordinate system is a three-dimensional coordinate system corresponding to a virtual three-dimensional coordinate space in the present invention. An object is a three-dimensional virtual object arranged in a world coordinate system, and is three-dimensional image form information constituted by a plurality of polygons arranged in a local coordinate system which is a unique coordinate system of the object. A polygon is a polygon plane defined by a plurality of vertices of three-dimensional coordinates. The texture is image information to be pasted on each polygon of the object.When the texture is pasted on the object, a picture image corresponding to the object, for example, an identification design, an auxiliary design which is a design other than the identification design, or a background Is generated.
[0042]
Here, the picture image refers to an identification symbol for identifying a game state, an auxiliary symbol that is a symbol other than the identification symbol, a background displayed on the entire display screen 6a of the pachinko machine P, and the like. The identification symbol refers to a so-called symbol number or an image of a symbol with a symbol number for allowing a player to recognize a jackpot, a reach, and the like in the pachinko machine P. The auxiliary symbol is an image of a symbol other than the identification symbol displayed to enhance the effect of the effect in a big hit or a reach.
[0043]
The interface 22 receives a command sent from the control board 11. The interface 22 sequentially passes the received commands to the CPU 23 and the drawing processing unit 29.
[0044]
The ROM 24 includes a control program that is first executed by the CPU 23 when the pachinko machine P is powered on, a plurality of types of display programs for performing display according to the type of command sent from the control board 11, and the like. Is stored.
[0045]
The CPU 23 is a central processing unit that manages and controls the entire image display device 21 according to a control program stored in the ROM 24, and mainly executes a display program corresponding to a command sent from the control board 11. Thus, processing for arranging the object and the viewpoint in the world coordinate system is performed. Specifically, the CPU 23 sequentially writes setting information obtained by executing a display program corresponding to the command into the RAM 25 in accordance with the type of the command received by the interface 22, and sets a predetermined interrupt processing interval (for example, The transfer of the setting information in the RAM 25 is instructed every 1/30 second or 1/60 second). The predetermined interrupt processing interval is one frame, and the screen is rewritten every frame.
[0046]
The RAM 25 temporarily stores setting information, which is an execution result obtained by the CPU 23.
[0047]
The character ROM 27 is a memory that stores objects, polygons, and textures, which are three-dimensional image form information that is appropriately read from the three-dimensional image processing unit 30. For example, the character ROM 27 stores the texture of a pattern such as a hit identification symbol at the time of a jackpot, the texture of a round display symbol indicating the number of rounds of the jackpot, and an auxiliary symbol or background image which is a symbol other than the identification symbol displayed for the effect. In addition to various textures such as the above, a plurality of types of objects constituted by one or a plurality of polygons to which the respective textures are pasted are stored. The character ROM 27 stores a background image displayed as a background on the display screen 6a of the LCD 6 (see FIGS. 11 and 13).
[0048]
Next, a specific configuration of the drawing processing unit 29 in the three-dimensional image processing unit 30 and the video RAM 28 will be described with reference to FIG. The drawing processing unit 29 includes a geometry calculation processing unit 31 that performs a coordinate calculation process based on the data received via the bus 26, and a rendering processing unit 32 that generates a display image based on the data received via the bus 26. A palette processing unit 33 for appropriately providing color information based on a plurality of types of color palettes to the rendering processing unit 32; a selector unit 34 provided in the video RAM 28 for switching a plurality of frame memories; and a video for outputting a display image to the LCD 6. And an output unit 35.
[0049]
Note that the geometry calculation processing is to read from the viewpoint and the character ROM 27 into a world coordinate system, which is a three-dimensional coordinate system corresponding to a virtual three-dimensional coordinate space of the present invention, in order to realize a display mode according to a command. In this process, various objects are arranged, and the objects are changed (moved, rotated, reduced, enlarged, deformed, etc.) and the viewpoint is displaced.
[0050]
The geometry calculation processing unit 31 performs a coordinate calculation process associated with movement or rotation of a three-dimensional coordinate point based on data received via the bus 26. Specifically, the geometry calculation processing unit 31 reads an object composed of a plurality of polygons arranged in the local coordinate system based on the storage address of the object stored in the character ROM 27, and reads the object based on the rotation angle. When the object in the rotated posture is arranged in the world coordinate system based on the coordinate values, the coordinate values of each polygon of the object in the world coordinate system are calculated. Further, the coordinate value of each polygon of the object in the viewpoint coordinate system based on the viewpoint set based on the coordinate value and the rotation angle of the viewpoint is calculated. Further, projection information including two-dimensional coordinate values of each polygon on the projection plane when the object in the display area is projected on a projection plane set perpendicular to the line of sight based on the viewpoint is calculated. Then, the geometry calculation processing unit 31 gives the projection information to the rendering processing unit 32.
[0051]
The palette processing unit 33 includes a palette RAM (not shown) that stores a plurality of types of color palettes composed of a plurality of types of color information written by the CPU 23. Is given to the rendering processing unit 32. Giving a color palette means giving a storage address of the color palette stored in, for example, a palette RAM (not shown) to the rendering processing unit 32. The rendering processing unit 32 stores the storage address when a display image is generated. Refer to the color information stored in. Each color information is determined by a combination of red (R), green (G), and blue (B). If the data size of the color pallet is, for example, 16 bits, each value of 0 to 15 is set. Are assigned predetermined color information. Further, each data of the color palette, that is, each palette is assigned to each dot constituting the texture, and by rendering each dot with the color information of each palette, the entire texture is rendered. By sequentially changing the color information assigned to each of the color palettes, a plurality of types of textures having different shades can be generated stepwise.
[0052]
The rendering processing unit 32 first reads the background image based on the storage address where the background image in the character ROM 27 is stored, draws the background image in a frame memory provided in the video RAM 28, and draws the background image in the frame memory. Each polygon of the object based on the projection information is developed. Further, the rendering processing unit 32 draws the texture read from the character ROM 27 on an area corresponding to each polygon in the frame memory based on the storage address of the texture in the character ROM 27 and the data of the color palette. As a result, a display image in which images of symbols corresponding to various objects are drawn on the background image is generated in the frame memory. This display image is a display image having a predetermined aspect ratio, for example, an aspect ratio of 3: 4, though it depends on the capacity of the frame memory. Note that the above-described geometry calculation processing unit 31 and rendering processing unit 32 perform clipping processing for determining a part to be displayed on the screen, hidden surface processing for determining a part that can be seen or not due to the context of polygons, and light from a light source. Processing such as shading calculation processing for calculating the degree of hit and the state of reflection is also performed as appropriate.
[0053]
The selector unit 34 appropriately selects a plurality of frame memories. Specifically, when the rendering unit 32 draws an image, the selector unit 34 includes a plurality of frame memories provided in the video RAM 28, such as a first frame memory or a second frame memory. Select one of In this case, a display image is generated in the selected frame memory. On the other hand, the selector unit 34 reads a display image for which a display image has already been generated from the frame memory on which drawing is not performed, and sends the display image to the video output unit 35. The selector unit 34 sequentially switches between the frame memory on the reading side and the frame memory on the drawing side. The video output unit 35 converts the display image sent from the selector unit 34 into a video signal and outputs the video signal to the LCD 6.
[0054]
The video RAM 28 stores a display image generated by the rendering processing unit 32. The video RAM 28 constitutes a so-called double buffer provided with, for example, a first frame memory as a storage area for storing a display image for one screen and a second frame memory. The number of frame memories provided in the video RAM 28 is not limited to two, but may be any number as long as it is one or more.
[0055]
The LCD 6 includes a display screen 6a (see FIGS. 11 and 13) for displaying a display image output from the video output unit 35. The display screen is, for example, a so-called wide screen having an aspect ratio of 9:16. The LCD 6 adjusts a display image having an aspect ratio of 3: 4 output from the video output unit 35 to the aspect ratio of the display screen 6a. The display image is displayed on the display screen 6a. The LCD 6 also has a function of displaying a display image having an aspect ratio of 3: 4 as it is, so that the aspect ratio of the display image displayed on the display screen 6a can be appropriately changed according to the game state. . The LCD 6 corresponds to a display unit in the present invention.
[0056]
Next, processing performed by the image display device 21 will be described with reference to the flowchart in FIG.
[0057]
In step T1, the interface 22 sequentially receives commands sequentially sent from the control board 11, and sequentially passes the commands to the processing units connected to the bus 26. The passed command is stored in a command buffer (not shown) provided in the RAM 25. Further, each time there is an interrupt process from the LCD 6, the command stored in the command buffer is read out, the program in the ROM 24 corresponding to the command is executed, and a display image for one screen is sequentially generated. . By executing the program, the following steps are executed in the three-dimensional image processing unit 30. The above-described interrupt processing is performed every 1/30 second or 1/60 second of the LCD 6, for example, in synchronization with a vertical scanning signal.
[0058]
In step T2, the three-dimensional image processing unit 30 sets a point of interest for determining a position in the world coordinate system displayed on the display screen 6a of the LCD 6. This point of interest is set, for example, at a position that substantially matches the arrangement position of a specific object arranged in the world coordinate system. Further, a viewpoint for displaying the state in the world coordinate system on the display screen 6a of the LCD 6 is set based on the point of interest. This viewpoint is the origin of the three-dimensional coordinate system, and is set so that the direction of the line of sight from the viewpoint is directed to the point of interest. The line of sight is, for example, the z-axis of a coordinate system whose origin is the viewpoint. Hereinafter, a concept and a specific calculation method for setting a viewpoint having a line of sight toward a point of interest in the world coordinate system will be described.
[0059]
When displaying a plurality of pattern images such as identification symbols and auxiliary symbols on the display screen 6a of the LCD 6, as shown in FIG. 7, a plurality of objects OJ1 to OJ6 are located at respective arrangement positions in the world coordinate system. Be placed. The three-dimensional image processing unit 30 determines the coordinate value (WP) of the arrangement position WP in the world coordinate system of the object OJ3 for displaying the picture image displayed near the center of the display screen 6a. x , WP y , WP z ). For example, in the case of the pachinko machine P of this embodiment, the coordinate value of the arrangement position WP is obtained by referring to the coordinate value of the world coordinate system prepared in advance in the program. For example, in the case of a gaming machine other than the pachinko machine P, it is determined based on an input signal from an input means such as a controller. The three-dimensional image processing unit 30 determines the coordinate value (WP) of the arrangement position WP. x , WP y , WP z ) Is set as the coordinate value of the point of interest.
[0060]
As shown in FIG. 8, the three-dimensional image processing unit 30 sets a new three-dimensional coordinate system in which the arrangement position WP of the point of interest is the origin O in the world coordinate system. Then, as shown in FIG. 9A, the new three-dimensional coordinate system is rotated around each two-dimensional axis of the new three-dimensional coordinate system. For example, a new three-dimensional coordinate system is set to θ around the x-axis. x °, around the y axis y Rotate by °. Rotation angle θ x °, θ y For example, in the case of the pachinko machine P of the present embodiment, ° is obtained by referring to rotation angle data prepared in advance in the program. For example, in the case of a gaming machine other than the pachinko machine P, it is determined based on an input signal from an input means such as a controller. Thereby, as shown in FIG. 9C, based on the data of the distance L from the point of interest to the viewpoint given in advance, the distance L from the point of interest on the z-axis of the new three-dimensional coordinate system is obtained. Remote location P 0 Then, a new coordinate system is moved. At this time, the z-axis of the new three-dimensional coordinate system is moved so as to face the target point. In the present specification, the direction of the line of sight is described as being on the positive side of the z-axis, but is not limited to this. For example, the direction of the line of sight may be on the negative side of the z-axis. it can. Further, in the present embodiment, the arrangement position WP of the target point coincides with the arrangement position of the object OJ3. However, the present invention is not limited to this. For example, the arrangement position WP of the target point is set to an arbitrary position. be able to. Specifically, the three-dimensional image processing unit 30 calculates the coordinate value of the above-described target point arrangement position WP and the rotation angle θ around each axis of the new coordinate system. x , Θ y And the distance L from the point of interest are substituted into the following equation (1).
[0061]
(P 0X , P 0Y , P 0Z ) = (L sin θ) y cos θ x + WP x , L sin θ x + WP y , Lcos θ y cos θ x + WP z )… (1)
[0062]
The three-dimensional image processing unit 30 uses the above equation (1) to calculate the coordinate value (P 0X , P 0Y , P 0Z ) Is calculated and its coordinate value (P 0X , P 0Y , P 0Z ) The arrangement position P of the world coordinate system specified by 0 Is moved to a new three-dimensional coordinate system. Position P of this world coordinate system 0 Is a viewpoint SP having a line of sight facing the point of interest. The state in the world coordinate system in the direction in which the line of sight from the viewpoint SP is directed is displayed on the display screen 6a of the LCD 6.
[0063]
In this embodiment, the x-axis and the y-axis of the viewpoint coordinate system, which will be described later, are set to the X-axis and the Y-axis of the world coordinate system, and further, the x-axis and the y-axis of the new coordinate system described above. By making them match each other, the z-axis of the viewpoint coordinate system is made to coincide with the z-axis of the new coordinate system, and is made to coincide with the Z-axis of the world coordinate system in the opposite direction. This gives θ x ° is 180 °, θ y ° is set to 0 °. At this time, when changing the direction of the line of sight from the viewpoint SP, the objects OJ1 to OJ6 are rotated around the X axis and the Y axis in the world coordinate system in the world coordinate system.
[0064]
In step T3, the three-dimensional image processing unit 30 reads objects OJ1 to OJ6 for displaying a plurality of picture images on the display screen 6a from the character ROM 27, respectively. Then, as shown in FIG. 10, the three-dimensional image processing unit 30 0 Coordinate value (P 0X , P 0Y , P 0Z ) Is determined in accordance with each coordinate value based on each coordinate value in the world coordinate system, and each arrangement position P based on each coordinate value is determined. 1 ~ P 6 , The objects OJ1 to OJ6 are respectively arranged. The three-dimensional image processing unit 30 calculates data of a portion represented by ΔP of the coordinate value of the arrangement position of each object, or refers to data prepared in advance in the ROM 24, and determines the value of ΔP and the viewpoint SP. And the coordinate value in the world coordinate system from the coordinate value of.
[0065]
Specifically, the arrangement position P in the world coordinate system 1 (P 0X + ΔP 1X , P 0y + ΔP 1Y , P 0Z + ΔP 1Z ) At the position P 2 (P 0X + ΔP 2X , P 0Y + ΔP 2Y , P 0Z + ΔP 2Z ) And the object OJ2 at the placement position P 3 (P 0X + ΔP 3X , P 0Y + ΔP 3Y , P 0Z + ΔP 3Z ) At the position P 4 (P 0X + ΔP 4X , P 0Y + ΔP 4Y , P 0Z + ΔP 4Z ) And the object OJ4 at the placement position P 5 (P 0X + ΔP 5X , P 0Y + ΔP 5Y , P 0Z + ΔP 5Z ), The object OJ5 is placed at the position P 6 (P 0X + ΔP 6X , P 0Y + ΔP 6Y , P 0Z + ΔP 6Z ), The object OJ6 is arranged. For convenience, the shape of each object is shown in a spherical shape in FIG. 7 and the like, but the shape of each object is formed in a three-dimensional shape corresponding to the shape of each picture image. Further, in the present embodiment, since the objects OJ1 to OJ6 are arranged with reference to the viewpoint SP, even when the arrangement position or the line of sight of the viewpoint SP is displaced, that is, even when the point of interest is moved, The picture image displayed by each of the objects OJ1 to OJ6 can be displayed at a fixed position on the display screen 6a.
[0066]
Further, when moving an arbitrary object among the objects OJ1 to OJ6, the three-dimensional image processing unit 30 sequentially updates the coordinate value of the x-axis component of the arrangement position of the arbitrary object for each interruption process ( By subtracting or adding coordinate values, an arbitrary object is moved in the horizontal direction. As a result, the object moves in the world coordinate system, so that the picture image displayed by the object also moves on the display screen 6a. Similarly, by sequentially updating the coordinate value of the y-axis component of the arrangement position of an arbitrary object, the object can be moved arbitrarily in the depth direction by sequentially updating the coordinate value of the z-axis component. Can be. The processing in step T3 will be described later in detail.
[0067]
In step T4, the three-dimensional image processing unit 30 determines the respective arrangement positions P of the respective objects OJ1 to OJ6 arranged in the world coordinate system. 1 ~ P 6 Are converted into coordinate values of a viewpoint coordinate system with the viewpoint SP as a reference, that is, the origin. That is, only the component represented by the coordinate value Δ is extracted. Here, since the aspect ratio of the display image generated in the frame memory by the rendering processing unit 32 is 3: 4, when this display image is displayed on the display screen 6a having the aspect ratio of 9:16, the display image is extended. There is a problem that the image is changed. Therefore, by modifying the viewpoint coordinate system according to the aspect ratio of the display image and the aspect ratio of the display screen 6a, each picture image or the like arranged in the viewpoint coordinate system is transformed.
[0068]
Specifically, the three-dimensional image processing unit 30 calculates a deformation correction value for correcting deformation of the viewpoint coordinate system. This deformation correction value is a magnification value for enlarging or reducing the vertical width or the horizontal width of each of the objects OJ1 to OJ6. Assuming that the aspect ratio of the display screen 6a is A: B and the aspect ratio of the display image is a: b, the deformation correction value can be calculated by the following equation (2). Note that the deformation correction value calculated by the following equation (2) is a magnification for deforming and correcting the width of an object or the like when the width is deformed according to the screen based on the vertical magnification of the display image. This value is a magnification value for correcting the vertical width of each of the objects OJ1 to OJ6 when the vertical width is deformed in accordance with the screen based on the horizontal magnification of the display image.
[0069]
(A × b) ÷ (a × B) (2)
[0070]
If the aspect ratio of the display image generated in the frame memory is 3: 4 and the aspect ratio of the display screen 6a is 9:16, the aspect ratio of the display image is 9:16 on the display screen 6a. Since the image is displayed, the image is displayed as if the width of the display image was enlarged to 4/3 times. At this time, the width of the picture image displayed by each of the objects OJ1 to OJ6 included in the display image is also enlarged to 4/3 times. Here, by substituting each value of the aspect ratio of the display image and the display screen 6a into the expression (2), the width of each of the objects OJ1 to OJ6 is three-fourths (hereinafter, referred to as “3/4”). ) Is calculated. Further, the three-dimensional image processing unit 30 reduces the horizontal direction (x-axis direction) of the viewpoint coordinate system to / times based on the deformation correction value. As a result, each of the objects OJ1 to OJ6 is reduced by a factor of 3/4 in the x-axis direction of the viewpoint coordinate system. In this embodiment, the viewpoint coordinate system is deformed and corrected in step T4. However, the processing after step T4 can be performed without performing deformation correction.
[0071]
In step T5, the three-dimensional image processing unit 30 sets a projection plane TM perpendicular to the z-axis, which is the direction of the line of sight from the viewpoint, between the viewpoint SP and the objects OJ1 to OJ6, as shown in FIG. I do. Since the projection plane TM is perpendicular to the z-axis of the viewpoint coordinate system and has a fixed z value, it can be treated as a two-dimensional coordinate value on the projection plane TM. The projection plane TM has an area corresponding to a frame memory provided in the video RAM 28.
[0072]
Further, the three-dimensional image processing unit 30 performs perspective projection or parallel projection of each of the objects OJ1 to OJ6 according to the moving direction of each of the objects OJ1 to OJ6 projected on the projection plane TM. Thereby, each vertex of each polygon constituting each of the objects OJ1 to OJ6 is projected on the projection plane TM so as to move in a see-through or parallel manner, and the three-dimensional coordinate values of each vertex are two-dimensional on the projection plane TM. Is converted to The three-dimensional image processing unit 30 acquires the projection information of each of the objects OJ1 to OJ6 in the world coordinate system when the projection of all the objects is completed.
[0073]
Here, the perspective projection refers to projecting each of the objects OJ1 to OJ6 from the viewpoint SP. Specifically, the vertices of each polygon of the objects OJ1 to OJ6 move linearly toward the viewpoint SP. Projection is performed as follows. Thereby, for example, each image of the objects OJ1 to OJ6 is displayed so as to change according to the distance from the viewpoint SP. The parallel projection refers to projecting the objects OJ1 to OJ6 as they are viewed from the projection plane TM. Specifically, the vertices of each polygon of the objects OJ1 to OJ6 are linearly perpendicular to the projection plane TM. Refers to projecting to move to. Thereby, regardless of the distance from the viewpoint SP, the images of the objects OJ1 to OJ6 are always displayed in a fixed size.
[0074]
When the player wants the player to identify the game state, for example, an object for displaying the identification symbol is projected in parallel in order to easily identify the identification symbol in the picture image. In other cases, for example, it is preferable to perspectively project an object displaying these images in order to express the auxiliary design and the background image in the picture image in a more three-dimensional manner. The processing in step T5 will also be described later in detail.
[0075]
In step T6, first, the three-dimensional image processing unit 30 reads a background image stored in the character ROM 27 and draws the background image in a frame memory in the video RAM 28. This background image is, for example, an image that displays a night scene.
[0076]
Next, the three-dimensional image processing unit 30 determines the address in the frame memory of the video RAM 28 corresponding to the coordinate value of each vertex of each polygon of each object OJ1 to OJ6 included in the projection information, that is, each object OJ1 in the frame memory. The position of each polygon of .about.OJ6 is obtained. Then, the texture read from the character ROM 27 is drawn on each polygon while being deformed according to each polygon. At this time, textures to be attached to each polygon of the object are read out in the order of the objects set at positions far from the viewpoint SP. As shown in FIG. 13, the texture is an image such as a mahjong tile pattern as an identification pattern, an image such as a character (for example, a dragon) pattern as an auxiliary pattern, or an image such as a background pattern. The read texture is deformed according to the shape of the polygon to which the texture is to be pasted, and the texture is drawn at a corresponding address in the frame buffer. Thus, a display image in which a picture image, which is an image of each of the objects OJ1 to OJ6, is superimposed on the background image is generated in the frame memory.
[0077]
In step T7, the three-dimensional image processing unit 30 outputs the display image generated in the frame memory to the LCD 6 via the video output unit 35. The LCD 6 sequentially displays the display image having the aspect ratio of 3: 4 sent from the three-dimensional image processing unit 30 for each interruption process according to the display screen 6a having the aspect ratio of 9:16. By executing steps T1 to T7 described above, a display image as shown in FIG. 11 is displayed on the display screen 6a. As shown in FIG. 11, on the display screen 6a, for example, picture images G1 to G5, which are images of the above-described objects OJ1 to OJ5, are displayed in front of a background image HG indicating a night scene. At this time, the object OJ6 arranged outside the projection plane TM is not displayed on the display screen 6a because it is not projected on the projection plane TM. In addition, by repeating the above-described steps T1 to T7, it is possible to display a display mode such as a normal variation in which all the identification symbols fluctuate or a reach in which only a specific identification symbol fluctuates, and according to other game states. To display a picture image or a background image.
[0078]
Next, generation of two types of display modes as one feature of the present invention, that is, generation of two types of display modes actually displayed on the pachinko machine P according to the present embodiment, will be described with reference to FIGS. , And the processes in steps T3 and T5 described above are also specifically described. FIG. 12 is a flowchart showing a process for generating the first and second display modes displayed on the display screen of the LCD. FIG. 13 and FIG. 14 are diagrams showing the first display mode. FIG. 15A is a diagram illustrating an arrangement state of each object in the world coordinate system in the first display mode, and FIG. 15B is a view illustrating a world of each object in the second display mode. It is a figure showing the arrangement state on a coordinate system. 16 and 17 are diagrams showing a second display mode. The first display mode is a pattern in which a picture image 63 relating to a dragon fluctuates behind the pattern image 61 relating to a tile, as shown in FIGS. As shown in FIG. 17, the pattern image 63 relating to the dragon fluctuates at a position in front of the pattern image 61 relating to the tile.
[0079]
First, the first display mode will be described. On the display screen 6a of the LCD 6, based on the command sent from the control board 11, the display modes as shown in FIGS. 13 and 14 are shown in FIGS. 13 (a) to 13 (c) and 14 (a). 14) to FIG. 14 (c). As shown in FIG. 13A, in the display screen 6a of the LCD 6, a pattern image 61 showing an identification symbol for identifying a game state (for example, an identification symbol relating to a (mahjong) tile) is arranged between the identification symbols. A picture image 62, which is a supplementary discrimination symbol (a discrimination symbol that does not become a big hit even if it is completed), a picture image 63 relating to a character (for example, a dragon), and a background image (not shown) showing the night view Have been. For example, a picture image 61, which is an identification pattern relating to a (mahjong) tile, is displayed in each of the right column R, the middle column M, and the left column L in the display screen 6a. The picture image 61 displayed in L moves in the vertical direction at low speed or high speed, respectively. Further, a pattern image 62 is displayed so as to be located between the moving pattern images 61, and the pattern image 62 (for example, a pattern relating to dice) is displayed in the display screen 6a. For example, when the identification symbols of the right column R and the left column L that fluctuate in the vertical direction stop, and stop so that the same type is aligned in either the diagonal direction or the horizontal direction of the display screen 6a, that is, when reach occurs, Only the identification symbol in the middle row M is displayed so as to continue to change in the vertical direction. In FIG. 13A, the reach state is such that “Seven thousand” in the right column R and the left column L are aligned in the horizontal line.
[0080]
When the reach occurs in this way, as shown in FIG. 13B, two dragons (picture images 63) are behind (behind) the picture images 61 and 62 and from below the display screen 6a. And moves from the edge to the center of the display screen 6a. Since the picture image 63 showing the dragon is located on the back side (behind) of the picture images 61 and 62 showing the tiles and dice, the part of the picture image 63 behind the picture images 61 and 62 is the picture image 61. , 62, which are hidden and invisible.
[0081]
Then, as shown in FIG. 13 (c) and FIGS. 14 (a) to 14 (c), each dragon is spiraled from the lower side to the upper side at the back of the picture images 61 and 62 on the display screen 6a. While turning, the pattern image 61 of the identification symbol relating to the tile and the pattern image 62 which is the auxiliary identification symbol relating to the dice are destroyed, and as shown in FIG. 14 (c), from the center of the display screen 6a. It moves toward the edge and disappears from the display screen 6a. The “first display mode” referred to here is like this.
[0082]
In step U1, the three-dimensional image processing unit 30 reads out the dragon object stored in the character ROM 27 in advance in order to display the picture image 63 relating to the dragon shown in FIG. 13 on the display screen 6a. The dragon object is an object that is perspectively projected on a projection plane (hereinafter, appropriately referred to as “auxiliary object OC”), and is arranged at a predetermined position in the world coordinate system as shown in FIG. . In addition, for convenience, the form of the auxiliary object is illustrated in a polygonal shape in FIG. 15A, but the shape of the auxiliary object OC is formed in a three-dimensional shape corresponding to the shape of the picture image 63. The above-described auxiliary object OC corresponds to a first object in the present invention.
[0083]
In step U2, the three-dimensional image processing unit 30 displays the tile image 61 related to the tiles and the pattern image 62 related to the dice shown in FIG. Read the dice object. These tiles and dice objects are objects projected parallel to the projection plane (hereinafter, appropriately referred to as “identification objects OB1 to OB3”). As shown in FIG. 15A, the identification objects OB1 to OB3 are arranged at a predetermined position on the near side of the auxiliary object OC arranged at a predetermined position in the world coordinate system. For convenience, the shape of the identification objects OB1 to OB3 is illustrated in a spherical shape in FIG. 15A, but the shape of the identification objects OB1 to OB3 is formed in a three-dimensional shape corresponding to the shapes of the picture images 61 and 62. Have been. The above-described identification objects OB1 to OB3 correspond to the second object in the present invention.
[0084]
These auxiliary data, the initial arrangement positions of the identification objects OC and OB1 to OB3, and the rotation angle data (θ x °, θ y °, θ z °), and the amount of movement of the auxiliary and identification objects OC and OB1 to OB3 (that is, the moving speed) for each frame is stored in the ROM 24, and based on the stored data, the auxiliary and identification objects OC and OB1 are stored. The display program is programmed to move ~ OB3.
[0085]
According to this procedure, the auxiliary and identification objects OC and OB1 to OB3 are arranged in the world coordinate system, and the coordinates of the auxiliary and identification objects OC and OB1 to OB3 are respectively converted to convert these auxiliary and identification objects OC and OB1 to OB3. Is converted. Specifically, as in the first display mode, when the pattern image 63 relating to the dragon is positioned behind the pattern image 61 relating to the tile and the pattern image 62 relating to the dice and is changed, an object relating to the dragon (the auxiliary object OC) is used. ), The objects related to tiles and dice (identification objects OB1 to OB3) are arranged at positions closer to the viewpoint, and the auxiliary object OC is changed at a position behind the identification objects OB1 to OB3, whereby the dragons are related. As shown in FIGS. 13 and 14, a state in which the picture image 63 moves on the display screen 6a behind the picture images 61 and 62 related to tiles and dice is displayed.
[0086]
Further, as shown in FIG. 13B, when the picture image 63 relating to the dragon destroys the picture image 61 relating to the tile and the picture image 62 relating to the dice, the head of the destroyed dragon, that is, the leading object, You may make it arrange | position at the same position as the object regarding the tile or dice to be destroyed.
[0087]
In this embodiment, the viewpoint is not changed. However, as shown in FIGS. 9, 10, and 15, the arrangement position and the line of sight of the viewpoint SP may be displaced, and the point of interest may be moved. it can. By moving the viewpoint SP or the point of interest in this way, the picture images 61 to 63 can be moved away from or closer to the viewpoint SP.
[0088]
When the form of the object is changed by arranging / changing the object in the world coordinate system, in step U3, the three-dimensional image processing unit 30 sets the projection plane TM (screen coordinates) shown in FIG. Then, identification objects OB1 to OB3 relating to tiles and dice and auxiliary objects OC relating to dragons are parallel and perspectively projected. That is, the identification objects OB1 to OB3 are parallel projected onto the projection plane TM for each frame, and the auxiliary object OC is perspectively projected.
[0089]
When projecting these objects on the projection plane TM, the three-dimensional image processing unit 30 reads a background image stored in the character ROM 27 and draws the background image in a frame memory in the video RAM 28. . In the present embodiment, the background image is an image for displaying a night scene.
[0090]
The projection information is acquired based on these objects projected on the projection plane TM, the position of each polygon of each object in the frame memory is obtained, and the texture read from the character ROM 27 is deformed according to each polygon. Draw on each polygon.
[0091]
As described above, the rendering in step U4 is performed by drawing the texture on the projected object. At this time, the texture of each polygon of the object is pasted in the order of the object set at a position far from the viewpoint SP. In this manner, the texture is pasted on the object, and further rendering processing such as clipping processing and hidden surface processing is performed to match the background image stored in the cataracter ROM 27. The display mode shown can be expressed. The form of the object is converted for each frame, that is, for each interrupt process, and textures are pasted in order according to the form of the object whose form has been converted. Each time the form of the object is sequentially converted, the texture is attached to the object and displayed on the display screen 6a of the LCD 6 as the picture image 63 relating to the dragon by the video output unit 35. By pasting the texture on the object in order, the picture image 63 is output to the LCD 6 as if it fluctuates, and the video output unit 35 displays and outputs the fluctuation of the picture image 63.
[0092]
Next, the second display mode will be described. On the display screen 6a of the LCD 6, based on the command sent from the control board 11, the display modes as shown in FIGS. 16 and 17 are shown in FIGS. 16 (a) to 16 (c) and 17 (a). ) To FIG. 17 (c). In the second display mode, in FIG. 16A, the reach state is such that “Seven thousand” in the right column R and the left column L are aligned in a horizontal line as in FIG. However, the effect performed thereafter is different from the above-described first display mode.
[0093]
When the reach occurs in this way, as shown in FIG. 16B, two dragons (picture images 63) appear from the front of the picture images 61 and 62 and from below the display screen 6a, and are displayed. It moves from the edge in the screen 6a toward the center. Since the picture images 61 and 62 showing tiles and dice are located on the back side (behind) of the picture image 63 showing the dragon, the part of the picture images 61 and 62 that is behind the picture image 63 is the picture image 63. Is hidden by the sight.
[0094]
Then, as shown in FIG. 16 (c) and FIGS. 17 (a) to 17 (c), each dragon is spirally arranged from the lower side to the upper side in front of the picture images 61 and 62 on the display screen 6a. As shown in FIG. 17C, the display screen 6a moves from the center toward the edge and disappears from the display screen 6a. The “second display mode” referred to here is like this.
[0095]
In step U1, the three-dimensional image processing unit 30 reads out the dragon object stored in the character ROM 27 in advance in order to display the picture image 63 relating to the dragon shown in FIG. 16 on the display screen 6a. This dragon object is an auxiliary object OC that is perspectively projected on the projection plane, and is arranged at the same position in the world coordinate system as in FIG. 15A, as shown in FIG.
[0096]
In step U2, the three-dimensional image processing unit 30 stores these tiles, which are stored in the character ROM 27 in advance, in order to display the pattern image 61 relating to the tiles and the pattern image 62 relating to the dice shown in FIG. Read the dice object. These tiles and dice objects are identification objects OB1 to OB3 that are projected parallel to the projection plane. As shown in FIG. 15B, the identification objects OB1 to OB3 are arranged at predetermined positions behind the auxiliary object OC arranged at the same position as in FIG. 15A in the world coordinate system.
[0097]
These auxiliary data, the initial arrangement positions of the identification objects OC and OB1 to OB3, and the rotation angle data (θ x °, θ y °, θ z °), and the amount of movement of the auxiliary and identification objects OC and OB1 to OB3 (that is, the moving speed) for each frame is stored in the ROM 24, and based on the stored data, the auxiliary and identification objects OC and OB1 are stored. The display program is programmed to move ~ OB3.
[0098]
According to this procedure, the auxiliary and identification objects OC and OB1 to OB3 are arranged in the world coordinate system, and the coordinates of the auxiliary and identification objects OC and OB1 to OB3 are respectively converted to convert these auxiliary and identification objects OC and OB1 to OB3. Is converted. Specifically, as in the second display mode, when the pattern image 63 relating to the dragon is positioned in front of the pattern image 61 relating to the tile and the pattern image 62 relating to the dice and is changed, an object relating to the dragon (the auxiliary object) is used. By arranging objects (identification objects OB1 to OB3) related to tiles and dice at a position farther from the viewpoint than (OC), the auxiliary object OC is changed at a position in front of the identification objects OB1 to OB3. As shown in FIGS. 16 and 17, a state is displayed in which the picture image 63 relating to the dragon moves on the display screen 6a in front of the picture images 61 and 62 relating to tiles and dice.
[0099]
In the second display mode, as shown in FIGS. 16 and 17, the picture image 61 related to tiles and the picture image 62 related to dice are deleted in the order of left column L, right column R, and middle column M. The pattern images 61 and 62 may be destroyed and deleted as in the first display mode described above. In this case, when the design image 63 relating to the dragon destroys the design image 61 relating to the tile and the design image 62 relating to the dice, the head of the destroyed dragon, that is, the leading object is replaced with the tile or the tile to be destroyed. You may make it arrange | position at the same position as the object regarding a dice.
[0100]
In this embodiment, the viewpoint is not changed. However, as shown in FIGS. 9, 10, and 15, the arrangement position and the line of sight of the viewpoint SP may be displaced, and the point of interest may be moved. it can. By moving the viewpoint SP or the point of interest in this way, the picture images 61 to 63 can be moved away from or closer to the viewpoint SP.
[0101]
When the form of the object is changed by arranging / changing the object in the world coordinate system, in step U3, the three-dimensional image processing unit 30 sets the projection plane TM (screen coordinates) shown in FIG. Then, identification objects OB1 to OB3 relating to tiles and dice and auxiliary objects OC relating to dragons are parallel and perspectively projected. That is, the identification objects OB1 to OB3 are parallel projected onto the projection plane TM for each frame, and the auxiliary object OC is perspectively projected.
[0102]
When projecting these objects on the projection plane TM, the three-dimensional image processing unit 30 reads a background image stored in the character ROM 27 and draws the background image in a frame memory in the video RAM 28. . In the present embodiment, the background image is an image for displaying a night scene.
[0103]
The projection information is acquired based on these objects projected on the projection plane TM, the position of each polygon of each object in the frame memory is obtained, and the texture read from the character ROM 27 is deformed according to each polygon. Draw on each polygon.
[0104]
As described above, the rendering in step U4 is performed by drawing the texture on the projected object. At this time, the texture of each polygon of the object is pasted in the order of the object set at a position far from the viewpoint SP. In this manner, the texture is pasted on the object, and further rendering processing such as clipping processing or hidden surface processing is performed to match the background image stored in the cataracter ROM 27. The display mode shown can be expressed. The form of the object is converted for each frame, that is, for each interrupt process, and textures are pasted in order according to the form of the object whose form has been converted. Each time the form of the object is sequentially converted, the texture is attached to the object and displayed on the display screen 6a of the LCD 6 as the picture image 63 relating to the dragon by the video output unit 35. By pasting the texture on the object in order, the picture image 63 is output to the LCD 6 as if it fluctuates, and the video output unit 35 displays and outputs the fluctuation of the picture image 63.
[0105]
As described above, according to the above-described pachinko machine P, the three-dimensional image processing unit 30 sets the auxiliary object OC which is perspectively projected on the projection plane TM at a predetermined position in the virtual three-dimensional coordinate space, and instructs the designated display effect. Is a type of display effect in which the positional relationship between the auxiliary object OC and the identification objects OB1 to OB3 as viewed from the viewpoint SP is different before and after, parallel projection is performed on the projection plane TM in accordance with the type of the display effect. The identification objects OB1 to OB3 are set at predetermined positions between the auxiliary object OC and the projection plane TM or at predetermined positions opposite to the viewpoint SP of the auxiliary object OC. That is, the setting positions of the identification objects OB1 to OB3 in the virtual three-dimensional coordinate space are changed to positions before and after the auxiliary object OC, and the relative positional relationship between the auxiliary object OC and the identification objects OB1 to OB3 is changed. , The complexity of the display image generation control caused by changing the setting position of the auxiliary object OC in the virtual three-dimensional coordinate space with respect to the identification objects OB1 to OB3. Can be prevented from occurring. Further, the position of the identification object OB1 to OB3 is changed to the front and rear with respect to the auxiliary object OC without changing the position of the auxiliary object OC to and from the identification object OB1 to OB3. It is possible to generate a display effect that clearly expresses that the relative positional relationship with the OB3 is different before and after. Therefore, it is possible to generate a plurality of types of display effects in which the relative positional relationship between the auxiliary object OC and the identification objects OB1 to OB3 is different before and after without complicating the display image generation control. A gaming machine with reduced burden can be obtained.
[0106]
The identification objects OB1 to OB3 are identification information for identifying a game state, and the auxiliary object OC is display information (for example, a dragon character image) different from the identification information. That is, the setting position of the identification information (parallel projection object) in the virtual three-dimensional coordinate space is changed with respect to the display information (perspective projection object), so that the display information (perspective projection object) and the identification information (parallel projection object) are changed. Since a plurality of types of display effects having different relative positional relations with the object (object) are generated, the setting position of the display information (perspective projection object) in the virtual three-dimensional coordinate space is determined with respect to the identification information (parallel projection object). It is possible to prevent the display image generation control from being complicated due to the change. Also, by changing the position of the identification information (parallel projection object) relative to the display information (perspective projection object) without changing the position of the display information (perspective projection object) with respect to the identification information (parallel projection object), A display effect that clearly expresses the relative positional relationship between the display information (perspective projection object) and the identification information (parallel projection object) can be generated. Therefore, it is possible to generate a plurality of types of display effects in which the relative positional relationship between the display information (perspective projection object) and the identification information (parallel projection object) is different without causing the complexity of the display image generation control. A gaming machine with a reduced processing load for effect generation can be obtained.
[0107]
The three-dimensional image processing unit 30 sequentially updates the set position of the auxiliary object OC in the virtual three-dimensional coordinate space so that the auxiliary object OC moves in a predetermined direction on the projection plane TM. The auxiliary object OC moves on the display screen without causing the complexity of the display image generation control caused by changing the setting position of the auxiliary object OC in the dimensional coordinate space with respect to the identification objects OB1 to OB3. It is possible to generate a plurality of types of display effects with a sense of realism, and it is possible to obtain a gaming machine in which the processing load of display effect generation is reduced. For example, one of the plurality of types of display effects is a display effect in which the identification objects OB1 to OB3 exist in front of the auxiliary object OC and the auxiliary object OC moves. There is a display effect in which the objects OB1 to OB3 exist behind the auxiliary object OC, and the auxiliary object OC moves, and various display effects are given.
[0108]
The three-dimensional image processing unit 30 sequentially updates the set positions of the identification objects OB1 to OB3 in the virtual three-dimensional coordinate space so that the identification objects OB1 to OB3 move in a predetermined direction on the projection plane. The second object can be displayed on the display screen without causing the complexity of the display image generation control caused by changing the setting position of the auxiliary object OC in the virtual three-dimensional coordinate space with respect to the identification objects OB1 to OB3. It is possible to generate a plurality of types of display effects with a sense of realism of moving, and it is possible to obtain a gaming machine in which the processing load of display effect generation is reduced.
For example, as one of the plurality of types of display effects, there is a display effect in which the identification objects OB1 to OB3 exist in front of the auxiliary object OC, and the identification objects OB1 to OB3 move. There is a display effect in which the identification objects OB1 to OB3 exist behind the auxiliary object OC, and the identification objects OB1 to OB3 move, and various display effects are given.
[0109]
In the above-described embodiment, the LCD (liquid crystal) display is used. However, for example, a CRT monitor or an LED monitor may be used instead of the liquid crystal monitor.
[0110]
The present invention is not limited to the above embodiment, but can be modified as follows.
[0111]
(1) In the above-described embodiment, different types of display effects are generated by arranging the identification objects OB1 to OB3 at positions before and after the auxiliary object OC, but the display effects are limited to such positions before and after. Instead, the positions of the identification objects OB1 to OB3 may be arranged such that the identification objects OB1 to OB3 are relatively displaced with respect to the auxiliary object OC. For example, the identification objects OB1 to OB3 may be arranged at positions other than the front and back of the auxiliary object OC (for example, left and right positions, up and down positions, etc.).
[0112]
(2) In the above-described embodiment, the viewpoint is not changed. However, as shown in FIGS. 9, 10, and 15, the arrangement position and the line of sight of the viewpoint SP are displaced, and the point of interest is moved. Is also good. By moving the viewpoint SP or the point of interest in this way, the picture images 61 to 63 can be moved away from or closer to the viewpoint SP. Specifically, the function of changing the viewpoint SP in step T2 (see FIG. 6) in the three-dimensional image processing unit 30 corresponds to the viewpoint displacing means of the present invention. Since the viewpoint SP set in the virtual three-dimensional coordinate space is displaced by the three-dimensional image processing unit 30 and the angle at which the auxiliary object OC and the identification objects OB1 to OB3 are viewed from the viewpoint SP is changed, that is, the state is changed. 6a, the auxiliary object OC and the identification objects OB1 to OB3 are displayed from various directions according to the displacement of the viewpoint SP, and the set position of the auxiliary object OC in the virtual three-dimensional coordinate space is indicated by the identification object OB1. ~ OB3, it is possible to generate a plurality of types of display effects with a more realistic sensation without causing the complexity of display image generation control caused by changing the display image generation control, thereby reducing the processing load of display effect generation. You can get a gaming machine. For example, as one of the plurality of types of display effects, the identification objects OB1 to OB3 exist in front of the auxiliary object OC, and the auxiliary object OC and the identification objects OB1 to OB3 are moved from various directions according to the displacement of the viewpoint. There is a display effect of being displayed, and as another thing, the identification objects OB1 to OB3 are present on the back side of the auxiliary object OC, and the auxiliary object OC and the identification objects OB1 to OB3 are moved in various directions with the displacement of the viewpoint. , And various display effects.
[0113]
(3) In the embodiment described above, the display information is the picture image 63 (see FIGS. 13 and 14) relating to the character (for example, dragon). However, the picture image of various characters other than the dragon may be used as the display image. This character may be a person (an old man, an adult, an infant, a baby, a man or a woman, etc.), a real creature such as an animal or a plant, or a fantasy creature, a robot, wind or air. It goes without saying that various kinds of display information such as creatures belonging to the background can be adopted.
[0114]
(4) In the above-described embodiment, the left column L, the middle column M, and the right column R of the display screen 6a of the LCD 6 are of a type in which each symbol is variably displayed in a fixed direction (for example, from top to bottom). Alternatively, a type in which symbols in a plurality of rows other than the three rows are variably displayed in a fixed direction (for example, from top to bottom) may be used. Also, in the above-described embodiment, the left column L, the middle column M, and the right column R of the display screen 6a of the LCD 6 are of a type in which the symbols are variably displayed from top to bottom. It may be of a type in which the symbols are divided into three vertical rows of a middle row and a lower row, and each symbol in each row is variably displayed from right to left (or left to right).
[0115]
(5) In the embodiment described above, the picture image 63 relating to the dragon performs exactly the same operation in the first display mode shown in FIGS. 13 and 14 and the second display mode shown in FIGS. However, different operations may be performed between the first display mode and the second display mode.
[0116]
(6) The present invention may be implemented in a pachinko machine or the like of a type different from the above-described embodiment. For example, once a jackpot has been hit, a pachinko machine (commonly known as a twice-rights item or a three-times right item) can increase the jackpot expectation value until a jackpot condition occurs a plurality of times (for example, two or three times). ). Further, the pachinko machine may be implemented as a pachinko machine which enters a special game state on condition that a ball is won in a predetermined area after the big hit symbol is displayed. Further, in addition to the pachinko machine, the present invention may be implemented as various game machines such as an arrangement ball type pachinko machine, a sparrow ball, and a game machine in which a so-called pachinko machine and a slot machine are combined.
[0117]
In the slot machine, for example, a symbol is fluctuated by operating the operation lever in a state where a coin is inserted and a symbol valid line is determined, and the symbol is stopped and determined by operating a stop button. is there. Therefore, the basic concept of the slot machine is as follows: "variable display means for variably displaying a symbol row composed of a plurality of symbols and then displaying the symbols in a fixed manner is provided, and the symbol is caused by the operation of the starting operation means (for example, the operation lever). Is started, and the fluctuation of the symbol is stopped due to the operation of the stop operation means (for example, the stop button) or after a predetermined time has elapsed, and the fixed symbol at the time of the stop is the specific symbol. And a special game state generating means for generating a special game state advantageous to the player "as a necessary condition. In this case, coins, medals and the like are typical examples of valuable objects.
[0118]
In addition, as a specific example of a gaming machine in which a pachinko machine and a slot machine are integrated, a variable display means for confirming and displaying a symbol after variably displaying a symbol row including a plurality of symbols is provided, and a handle for hitting a ball is provided. Those not provided. In this case, after throwing in a predetermined amount of balls based on a predetermined operation (button operation), a change in the symbol is started, for example, due to operation of an operation lever, and, for example, due to operation of a stop button, or With the passage of time, the fluctuation of the symbol is stopped, and a jackpot state advantageous to the player is generated on condition that the final symbol at the time of the stop is a so-called jackpot symbol, and a lower tray is provided to the player. A large number of balls are paid out.
[0119]
【The invention's effect】
As is apparent from the above description, according to the present invention, the perspective projection object and the parallel projection object are changed by changing the set position of the parallel projection object in the virtual three-dimensional coordinate space with respect to the perspective projection object. Image generation control resulting from changing the set position of the perspective projection object in the virtual three-dimensional coordinate space with respect to the parallel projection object because a plurality of types of display effects having different relative positional relationships with respect to the parallel projection object are generated. Can be prevented from occurring. Also, by changing the position of the parallel projection object with respect to the perspective projection object without changing the position of the perspective projection object with respect to the parallel projection object, the relative positional relationship between the perspective projection object and the parallel projection object is clearly expressed. The generated display effect can be generated. Therefore, it is possible to generate a plurality of types of display effects in which the relative positional relationship between the perspective projection object and the parallel projection object is different without causing the complexity of the display image generation control, and reduce the processing load of the display effect generation. You can get a gaming machine.
[Brief description of the drawings]
FIG. 1 is a schematic front view of a pachinko machine according to an embodiment of the present invention.
FIG. 2 is a schematic front view of a game board of the pachinko machine.
FIG. 3 is a functional block diagram of the pachinko machine according to the embodiment.
FIG. 4 is a functional block diagram of a three-dimensional image processing unit.
FIG. 5 is a flowchart showing processing on a control platform of the pachinko machine.
FIG. 6 is a flowchart showing processing in the image display device of the pachinko machine.
FIG. 7 is a diagram showing a state where a plurality of objects are arranged in a world coordinate system.
FIG. 8 is a diagram showing a state in which a point of interest is set.
FIG. 9 is a diagram showing a state until a viewpoint is set based on a point of interest.
FIG. 10 is a diagram illustrating a state of a projection plane and a plurality of objects in a world coordinate system.
FIG. 11 is a diagram illustrating a state where an image of an object is displayed on a display screen.
FIG. 12 is a flowchart illustrating a process of generating first and second display modes displayed on the LCD display screen of the pachinko machine according to the embodiment.
FIGS. 13A to 13C are diagrams showing a first display mode.
FIGS. 14A to 14C are diagrams showing a first display mode displayed after FIG. 13C.
FIG. 15A is a diagram showing an arrangement state of each object in a world coordinate system in a first display mode, and FIG. 15B is a view showing a world coordinate system of each object in a second display mode. FIG. 7 is a diagram showing a state of being arranged in the camera.
FIGS. 16A to 16C are diagrams showing a second display mode.
FIGS. 17A to 17C are diagrams showing a second display mode displayed after FIG. 16C.
[Explanation of symbols]
6 LCD
6a ... Display screen
11… control base
21 ... Image display device
24… ROM
27… Character ROM
30 ... 3D image processing unit
61-63… Picture image
P… Pachinko machine

Claims (3)

仮想3次元座標空間内に配置された、複数個のポリゴンで構成された3次元情報である第1,第2オブジェクトを、前記仮想3次元座標空間の所定位置の視点と前記第1,第2オブジェクトとの間に設定された投影平面に投影する投影手段と、前記投影平面における表示画像を表示する表示手段とを備えた遊技機において、
前記投影平面に透視投影される前記第1オブジェクトを前記仮想3次元座標空間内の所定位置に設定する第1オブジェクト設定手段と、
指示された表示演出の種類に応じて、前記投影平面に平行投影される前記第2オブジェクトが前記第1オブジェクトに対して相対的に変位するように、前記第2オブジェクトの位置を設定する第2オブジェクト設定手段と
を備えることを特徴とする遊技機。
The first and second objects, which are three-dimensional information composed of a plurality of polygons and are arranged in the virtual three-dimensional coordinate space, are moved from the viewpoint at a predetermined position in the virtual three-dimensional coordinate space to the first and second objects. In a gaming machine comprising: a projection unit that projects onto a projection plane set between objects, and a display unit that displays a display image on the projection plane.
First object setting means for setting the first object perspectively projected on the projection plane at a predetermined position in the virtual three-dimensional coordinate space;
Setting a position of the second object such that the second object projected parallel to the projection plane is displaced relative to the first object in accordance with the type of the indicated display effect; A gaming machine comprising: an object setting unit.
請求項1に記載の遊技機において、
前記の指示された表示演出の種類が、前記視点から見た前記第1,第2オブジェクトの位置関係が前後に異なる表示演出の種類である場合には、前記第2オブジェクト設定手段は、前記の指示された表示演出の種類に応じて、前記第2オブジェクトを、前記第1オブジェクトと前記投影平面との間の所定位置または前記第1オブジェクトの前記視点側とは反対側の所定位置に設定することを特徴とする遊技機。
The gaming machine according to claim 1,
When the indicated display effect type is a display effect type in which the positional relationship between the first and second objects as viewed from the viewpoint is different between front and rear, the second object setting means may include The second object is set at a predetermined position between the first object and the projection plane or at a predetermined position on the opposite side of the viewpoint side of the first object according to the instructed display effect type. A gaming machine characterized by that:
請求項1または2に記載の遊技機において、
前記第2オブジェクトは、遊技状態を識別させるための識別情報とし、
前記第1オブジェクトは、前記識別情報とは別の表示情報とすることを特徴とする遊技機。
The gaming machine according to claim 1 or 2,
The second object is identification information for identifying a game state,
A gaming machine, wherein the first object is display information different from the identification information.
JP2003146087A 2003-05-23 2003-05-23 Game machine Pending JP2004073835A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003146087A JP2004073835A (en) 2003-05-23 2003-05-23 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003146087A JP2004073835A (en) 2003-05-23 2003-05-23 Game machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002236532A Division JP2004078470A (en) 2002-08-14 2002-08-14 Game machine

Publications (1)

Publication Number Publication Date
JP2004073835A true JP2004073835A (en) 2004-03-11

Family

ID=32025648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003146087A Pending JP2004073835A (en) 2003-05-23 2003-05-23 Game machine

Country Status (1)

Country Link
JP (1) JP2004073835A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013220170A (en) * 2012-04-16 2013-10-28 Sophia Co Ltd Game machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013220170A (en) * 2012-04-16 2013-10-28 Sophia Co Ltd Game machine

Similar Documents

Publication Publication Date Title
JP3758643B2 (en) Game machine
JP3760931B2 (en) Game machine
JP2001070544A (en) Game machine
JP2002336462A (en) Game machine
JP4089102B2 (en) Game machine
JP4122983B2 (en) Game machine
JP2002011173A (en) Game machine
JP3991517B2 (en) Game machine
JP2004073835A (en) Game machine
JP2003126452A (en) Game machine
JP2004078470A (en) Game machine
JP2004073422A (en) Game machine
JP4487347B2 (en) Game machine
JP2004057557A (en) Game machine
JP2004065657A (en) Game machine
JP3760930B2 (en) Game machine
JP4032574B2 (en) Game machine
JP3733949B2 (en) Game machine
JP2004073839A (en) Game machine
JP4089434B2 (en) Game machine
JP4032977B2 (en) Game machine
JP4487348B2 (en) Game machine
JP2004054743A (en) Game machine
JP2003117144A (en) Game machine
JP2004057810A (en) Game machine

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070209

A25B Written notification of impossibility to examine because of no request for precedent application

Free format text: JAPANESE INTERMEDIATE CODE: A2522

Effective date: 20070213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071002