JP2000293708A - Picture display device - Google Patents

Picture display device

Info

Publication number
JP2000293708A
JP2000293708A JP11094667A JP9466799A JP2000293708A JP 2000293708 A JP2000293708 A JP 2000293708A JP 11094667 A JP11094667 A JP 11094667A JP 9466799 A JP9466799 A JP 9466799A JP 2000293708 A JP2000293708 A JP 2000293708A
Authority
JP
Japan
Prior art keywords
image
data
background
coordinate system
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11094667A
Other languages
Japanese (ja)
Inventor
Kazuhiro Fujisawa
和博 藤沢
Kota Makino
剛太 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Bussan Co Ltd
Irem Software Engineering Inc
Original Assignee
Sanyo Bussan Co Ltd
Irem Software Engineering Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Bussan Co Ltd, Irem Software Engineering Inc filed Critical Sanyo Bussan Co Ltd
Priority to JP11094667A priority Critical patent/JP2000293708A/en
Publication of JP2000293708A publication Critical patent/JP2000293708A/en
Pending legal-status Critical Current

Links

Landscapes

  • Pinball Game Machines (AREA)
  • Display Devices Of Pinball Game Machines (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To realistically display the background of a three-dimensional picture. SOLUTION: Two-dimensional background picture data stored in a character ROM are read out and a background picture is plotted in the frame memory of a video RAM (U1 and U2). Model data in the character ROM are read out and an object is arranged on a world coordinate system, and then, the object is projected upon a screen coordinate system (U3-U6). Texture data in the character ROM are read out and a visual field picture to which a texture is stuck is generated at the position in the frame memory corresponding to each polygon of the projected object (U8). The visual field picture in which the object is plotted on the background picture is displayed on a displaying means (liquid crystal monitor) be occurrence of interruption (U9 and U10). Consequently, the pattern of the background picture is displayed without being smashed by reduction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、パチンコ機、スロ
ットマシン、コイン遊技機あるいはビデオゲーム機など
の遊技機に搭載される画像表示装置に係り、特に、仮想
3次元空間におけるオジェクトを表示する視野画像内に
背景画像を合わせて表示する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display device mounted on a game machine such as a pachinko machine, a slot machine, a coin game machine or a video game machine, and more particularly to a visual field for displaying an object in a virtual three-dimensional space. The present invention relates to a technique for displaying a background image in an image.

【0002】[0002]

【従来の技術】従来、遊技機において遊技者が識別する
識別図柄が3次元の画像である場合には、識別図柄に相
当する複数のポリゴンで形成されたオブジェクトを仮想
3次元空間内に配置して、その仮想3次元空間内の様子
を所与の視点に基づく視野画像に変換して、その視野画
像を画像表示装置の画面に表示している。また、識別図
柄の背面に背景を表示する場合には、仮想3次元空間内
に配置されたオブジェクトの背面に背景画像を貼付ける
ためのオブジェクトを設定することで、視野画像におけ
る識別図柄の背面に背景が表示される。
2. Description of the Related Art Conventionally, when an identification symbol identified by a player in a gaming machine is a three-dimensional image, an object formed by a plurality of polygons corresponding to the identification symbol is arranged in a virtual three-dimensional space. Then, the appearance in the virtual three-dimensional space is converted into a visual field image based on a given viewpoint, and the visual field image is displayed on the screen of the image display device. Also, when displaying the background behind the identification symbol, an object for pasting the background image is set on the back of the object arranged in the virtual three-dimensional space. The background is displayed.

【0003】具体的には、例えば図12に示すような多
数個のリングの描かれたテクスチャである背景画像HT
を背景として表示する場合について説明する。図13に
示すように、まず、視野画像における識別図柄に相当す
るオブジェクトB1,B2を仮想3次元空間であるワー
ルド座標系内に設定する。次に、ワールド座標系内の所
与の視点SPから離れた位置に設定されたオブジェクト
B2よりも、奥側に設定されたオブジェクトB1のさら
に奥側に、背景画像HTを貼付けるための背景オブジェ
クトOHを設定する。視点SPを基準とする2次元の投
影平面であるスクリーン座標系に投影範囲SCに含まれ
る各オブジェクトB1,B2,OHをそれぞれ透視投影
する。さらに、スクリーン座標系に投影された各オブジ
ェクトB1,B2,OHの各ポリゴンにテクスチャを貼
付けて視野画像を生成する。このとき、背景オブジェク
トOHには、背景オブジェクトOH上の投影範囲SC内
に相当する背景画像HTの部分の画像が貼付けられる。
その結果、図14に示すように、背景画像HTの一部の
画像上に、オブジェクトB1,B2に相当する画像であ
る識別図柄S1,S2が描かれた視野画像がモニタに表
示される。
More specifically, for example, a background image HT which is a texture in which a number of rings are drawn as shown in FIG.
Will be described as a background. As shown in FIG. 13, first, objects B1 and B2 corresponding to identification symbols in a visual field image are set in a world coordinate system which is a virtual three-dimensional space. Next, a background object for pasting the background image HT further to the back side of the object B1 set to the back side than the object B2 set to a position away from the given viewpoint SP in the world coordinate system Set OH. Each of the objects B1, B2, and OH included in the projection range SC is perspectively projected on a screen coordinate system that is a two-dimensional projection plane based on the viewpoint SP. Further, a texture is attached to each polygon of each of the objects B1, B2, and OH projected on the screen coordinate system to generate a visual field image. At this time, an image of a part of the background image HT corresponding to the projection range SC on the background object OH is pasted on the background object OH.
As a result, as shown in FIG. 14, a visual field image in which identification symbols S1 and S2, which are images corresponding to the objects B1 and B2, are drawn on a partial image of the background image HT is displayed on the monitor.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
た従来の遊技機の画像表示装置においては、次のような
問題がある。視野画像における背景は、識別図柄S1,
S2の背面側に表示する必要があるので、背景オブジェ
クトOHを仮想3次元空間に配置したオブジェクトB
1,B2よりも奥側に設定する必要がある。つまり、仮
想3次元空間の所与の視点から見て、各オブジェクトB
1,B2よりもさらに離れた位置に背景オブジェクトを
設定するので、スクリーン座標系に投影された背景オブ
ジェクトOHは各オブジェクトB1,B2より小さく投
影される。すなわち、その小さく投影された背景オブジ
ェクトOHに貼付けられる部分の背景画像HTの画像も
その大きさに合わせて縮小される。その結果、図14に
示したように、画面に表示される視野画像における背景
は、図12に示した背景画像HTの模様に比べて、その
模様が小さく表示されるという問題がある。この問題に
よって、例えば、背景画像が写真などの細かな模様を含
む画像である場合には、実際に画面に表示される際に、
その写真の細かな模様が潰れて見にくくなり、写真本来
のリアルな表示を実現することが困難になるという問題
が生じる。
However, the above-described conventional image display device for a game machine has the following problems. The background in the visual field image is the identification symbol S1,
Since the object B needs to be displayed on the back side of S2, the object B in which the background object OH is arranged in the virtual three-dimensional space
1 and B2 need to be set on the back side. That is, when viewed from a given viewpoint in the virtual three-dimensional space, each object B
Since the background object is set at a position further away from the objects B1 and B2, the background object OH projected on the screen coordinate system is projected smaller than the objects B1 and B2. That is, the image of the background image HT of the portion to be pasted on the small projected background object OH is also reduced according to its size. As a result, as shown in FIG. 14, the background in the visual field image displayed on the screen has a problem that the pattern is displayed smaller than the pattern of the background image HT shown in FIG. Due to this problem, for example, when the background image is an image including a fine pattern such as a photograph, when actually displayed on the screen,
There is a problem that the fine pattern of the photograph is crushed and difficult to see, and it is difficult to realize a realistic display inherent in the photograph.

【0005】本発明は、このような事情に鑑みてなされ
たものであって、3次元の画像における背景をリアルに
表示することができる画像表示装置を提供することを目
的とする。
The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image display device capable of displaying a background in a three-dimensional image realistically.

【0006】[0006]

【課題を解決するための手段】本発明は、このような目
的を達成するために、次のような構成をとる。 1.本発明の構成は、複数のポリゴンで形成されたオブ
ジェクトと、前記オブジェクトの各ポリゴンに貼付ける
模様が描かれたテクスチャとを少なくとも記憶する記憶
手段と、前記記憶手段に記憶されたオブジェクトを仮想
3次元空間内に設定するオブジェクト設定手段と、前記
仮想3次元空間内の所与の視点に基づく視線方向を前記
視点を中心に回転させる視線回転手段と、前記回転され
た視線方向を基準とする2次元の投影平面を設定し、そ
の投影平面に前記オブジェクトを投影する投影手段と、
前記投影平面に投影されたオブジェクトの各ポリゴンに
前記記憶手段に記憶されたテクスチャを貼付けた視野画
像を、前記投影平面に相当する画像生成領域内に生成す
る視野画像生成手段と、前記画像生成領域内の視野画像
を表示手段に出力して、前記視線方向の回転に伴う前記
仮想3次元空間内の様子を表示する表示出力手段とを備
えた画像表示装置において、前記記憶手段は、さらに、
前記視野画像におけるオブジェクトの背面側に表示され
る背景画像を記憶しており、前記視野画像を生成する前
の前記画像生成領域内に、前記記憶手段に記憶された背
景画像を設定する背景画像設定手段を備えたことを特徴
とするものである。
The present invention has the following configuration in order to achieve the above object. 1. According to a configuration of the present invention, a storage unit that stores at least an object formed by a plurality of polygons and a texture in which a pattern to be attached to each polygon of the object is drawn; Object setting means for setting in a three-dimensional space; gaze rotation means for rotating a gaze direction based on a given viewpoint in the virtual three-dimensional space around the viewpoint; and 2 based on the rotated gaze direction. Projecting means for setting a three-dimensional projection plane and projecting the object on the projection plane;
A field-of-view image generation unit that generates a field-of-view image in which a texture stored in the storage unit is attached to each polygon of an object projected on the projection plane in an image generation area corresponding to the projection plane; A display output unit that outputs a visual field image in the display unit to a display unit and displays a state in the virtual three-dimensional space accompanying the rotation of the line-of-sight direction, wherein the storage unit further includes:
A background image setting that stores a background image displayed on the back side of the object in the view image, and sets the background image stored in the storage unit in the image generation area before generating the view image. It is characterized by having means.

【0007】2.上記構成1に記載の画像表示装置にお
いて、前記装置は、さらに、前記記憶手段に記憶された
背景画像上の一部の領域を表示領域として設定する表示
領域設定手段を備え、前記背景画像設定手段は、前記視
野画像を生成する前の前記画像生成領域内に、前記表示
領域内に含まれる背景画像を設定するものである。この
構成によれば、表示領域設定手段は、記憶手段に記憶さ
れた背景画像上の一部の領域を表示領域として設定す
る。背景画像設定手段は、視野画像生成手段によって視
野画像が画像生成領域内に生成される前に、背景画像の
一部である表示領域内の背景画像を画像生成領域内に設
定する。視野画像生成手段は、投影されたオブジェクト
の各ポリゴンにテクスチャを貼付けた視野画像を、背景
画像が設定された画像生成領域に上書き生成する。表示
出力手段は、その画像生成領域内の視野画像を表示手段
に出力する。表示手段は、視線方向の回転に伴う仮想3
次元空間内の様子とともに背景画像を表示する。その結
果、仮想3次元空間内に配置したオブジェクトによって
背景を表示する場合に比べて、背景の模様をよりリアル
に表示することができる。また、仮想3次元空間内に背
景を表示するためのオブジェクトを設定しないので、画
像表示装置における処理を高速化することもできる。
[0007] 2. The image display device according to the above configuration 1, further comprising a display area setting unit that sets a partial area on the background image stored in the storage unit as a display region, wherein the background image setting unit Is for setting a background image included in the display area in the image generation area before generating the visual field image. According to this configuration, the display area setting unit sets a partial area on the background image stored in the storage unit as a display area. The background image setting means sets a background image in a display area, which is a part of the background image, in the image generation area before the visual field image is generated in the image generation area by the visual field image generation means. The field-of-view image generation means generates a field-of-view image in which texture is attached to each polygon of the projected object over an image generation area in which a background image is set. The display output means outputs the visual field image in the image generation area to the display means. The display means is a virtual 3 accompanying the rotation in the line of sight.
The background image is displayed together with the state in the dimensional space. As a result, the background pattern can be displayed more realistically than when the background is displayed by an object arranged in the virtual three-dimensional space. Further, since an object for displaying the background is not set in the virtual three-dimensional space, the processing in the image display device can be speeded up.

【0008】3.上記構成2に記載の画像表示装置にお
いて、前記装置は、さらに、前記仮想3次元空間におけ
る視線方向の回転角度に基づいて、前記記憶手段に記憶
された背景画像上の表示領域を移動させるための移動量
を算出する移動量算出手段を備え、前記背景画像設定手
段は、前記視野画像を生成する前の前記画像生成領域内
に、前記移動量に基づいて移動させた表示領域内に含ま
れる背景画像を設定するものである。この構成によれ
ば、移動量算出手段は、視線回転手段によって回転され
た視線方向の回転角度に基づいて、背景画像上の表示領
域を移動させるための移動量を算出する。背景画像設定
手段は、移動量に応じて表示領域を移動させ、その移動
後の表示領域内に含まれる背景画像を、視野画像生成手
段によって視野画像が生成される前の画像生成領域内に
設定する。視野画像生成手段は、投影されたオブジェク
トの各ポリゴンにテクスチャを貼付けた視野画像を、背
景画像が設定された画像生成領域に上書き生成する。表
示出力手段は、その画像生成領域内の視野画像を表示手
段に出力する。表示手段は、視線方向の回転に伴う仮想
3次元空間内の様子とともに、視野方向の回転とともに
移動する背景画像を表示する。その結果、視線方向の回
転に伴って視線画像内で移動するオブジェクトと同様に
背景を移動させることができるので、自然な表示を実現
することができる。また、仮想3次元空間内に背景を表
示するためのオブジェクトを設定しないので、画像表示
装置における処理を高速化することもできる。
[0008] 3. 3. The image display device according to Configuration 2, wherein the device further moves a display area on a background image stored in the storage unit based on a rotation angle of a line of sight in the virtual three-dimensional space. A moving amount calculating unit that calculates a moving amount, wherein the background image setting unit includes: a background included in a display region moved based on the moving amount in the image generation region before generating the visual field image. This is for setting an image. According to this configuration, the movement amount calculation unit calculates the movement amount for moving the display area on the background image based on the rotation angle in the line of sight rotated by the line of sight rotation unit. The background image setting means moves the display area according to the movement amount, and sets a background image included in the moved display area in the image generation area before the visual field image is generated by the visual field image generating means. I do. The field-of-view image generation means generates a field-of-view image in which texture is attached to each polygon of the projected object over an image generation area in which a background image is set. The display output means outputs the visual field image in the image generation area to the display means. The display means displays a background image that moves with the rotation in the viewing direction together with the state in the virtual three-dimensional space accompanying the rotation in the viewing direction. As a result, the background can be moved in the same manner as the object moving in the line-of-sight image with the rotation of the line-of-sight direction, so that a natural display can be realized. Further, since an object for displaying the background is not set in the virtual three-dimensional space, the processing in the image display device can be speeded up.

【0009】4.上記構成3に記載の画像表示装置にお
いて、前記移動量算出手段は、前記視線方向に垂直に交
わる第1軸の回転角度に基づいて、前記視線方向および
第1軸にそれぞれ垂直に交わる第2軸の方向に前記表示
領域を移動させるための移動量を算出するとともに、前
記2軸の回転角度に基づいて、前記第1軸の方向に前記
表示領域を移動させるための移動量を算出するものであ
る。この構成によれば、移動算出手段は、視線方向が第
2軸を中心に回転する場合には仮想3次元空間内におけ
るその視線方向に基づく視界が第1軸方向に移動するの
で、その第1軸方向に背景画像上の表示領域を移動させ
るための移動量を算出する一方、視線方向が第1軸を中
心に回転する場合には仮想3次元空間内におけるその視
線方向に基づく視界が第2軸方向に移動するので、その
第2軸方向に背景画像上の表示領域を移動させるための
移動量を算出する。その結果、仮想3次元空間内の視線
方向の回転に応じて、視線画像内の背景をより正確に移
動させることができるので、より自然な表示を実現する
ことができる。
4. In the image display device according to the third aspect, the movement amount calculation unit may include a second axis perpendicular to the line of sight and the first axis, based on a rotation angle of the first axis perpendicular to the line of sight. Calculating the amount of movement for moving the display area in the direction of and calculating the amount of movement for moving the display area in the direction of the first axis based on the rotation angles of the two axes. is there. According to this configuration, when the line-of-sight direction rotates around the second axis, the view based on the line-of-sight direction in the virtual three-dimensional space moves in the first axis direction. While calculating the amount of movement for moving the display area on the background image in the axial direction, if the line of sight rotates around the first axis, the field of view based on the line of sight in the virtual three-dimensional space becomes the second field. Since it moves in the axial direction, a movement amount for moving the display area on the background image in the second axis direction is calculated. As a result, the background in the line-of-sight image can be more accurately moved in accordance with the rotation in the line-of-sight direction in the virtual three-dimensional space, so that a more natural display can be realized.

【0010】5.上記構成1ないし構成4のいずれかに
記載の画像表示装置において、前記記憶手段に記憶され
た背景画像は、その左右両端の模様が連続して円筒状に
なるように構成された画像である。この構成によれば、
記憶手段に記憶された背景画像は、円筒状になるように
その左右両端の模様が連続しているので、その背景画像
の横幅が視野方向の一回転分に相当する。その結果、視
線画像内において、横方向の回転において切れ目の無い
背景を表示することができる。
[0010] 5. In the image display device according to any one of the first to fourth aspects, the background image stored in the storage means is an image configured such that the patterns at both left and right ends are continuously cylindrical. According to this configuration,
Since the left and right ends of the background image stored in the storage means are continuous in a cylindrical shape, the width of the background image corresponds to one rotation in the viewing direction. As a result, it is possible to display a seamless background in the horizontal rotation in the line-of-sight image.

【0011】6.上記構成1ないし構成4のいずれかに
記載の画像表示装置において、前記記憶手段に記憶され
た背景画像は、その上下両端の模様が連続するととも
に、その左右両端の模様が連続して球状になるように構
成された画像である。この構成によれば、記憶手段に記
憶された背景画像は、球状になるようにその上下両端お
よび左右両端の模様がそれぞれ連続しているので、その
背景画像の縦幅および横幅が視野方向の一回転分に相当
する。その結果、視線画像内において、縦横方向の回転
において切れ目の無い背景を表示することができる。
6. In the image display device according to any one of the above-described Configurations 1 to 4, the background image stored in the storage unit may have a continuous pattern at both upper and lower ends and a continuous spherical shape at both left and right ends. The image is configured as follows. According to this configuration, since the background image stored in the storage means has a continuous pattern at both the upper and lower ends and the left and right ends so as to be spherical, the vertical width and the horizontal width of the background image are the same as those in the viewing direction. It corresponds to the rotation. As a result, it is possible to display a seamless background in the line-of-sight image in the vertical and horizontal rotations.

【0012】7.上記構成1ないし構成6のいずれかに
記載の画像表示装置を備える遊技機である。この遊技機
によれば、上記構成1ないし構成6のいずれかに記載の
画像表示装置によって、視線方向の回転に伴う仮想3次
元空間内の様子を背景とともに表示する。その結果、遊
技者はリアルな表示態様を見ることができるので、遊技
者の面白味を永続させることができる。
7. A game machine including the image display device according to any one of the above-described configurations 1 to 6. According to this gaming machine, the image display device according to any one of the above-described configurations 1 to 6, displays the state in the virtual three-dimensional space accompanying the rotation in the line-of-sight direction together with the background. As a result, the player can see a realistic display mode, so that the interest of the player can be made permanent.

【0013】8.上記構成7において、前記遊技機はパ
チンコ機である。中でも、パチンコ機の基本構成として
は、操作ハンドルを備えておりそのハンドル操作に応じ
て遊技球を所定の遊技領域に発射させ、遊技球が遊技領
域内の所定の位置に配置された作動口に入賞することを
必要条件として遊技機用表示装置における図柄画像の変
動が開始することが挙げられる。また、特定遊技状態発
生中には遊技領域内の所定の位置に配置された入賞口が
所定の態様で開放されて遊技球を入賞可能として、その
入賞個数に応じた有価価値(景品球のみならず、磁気カ
ードへの書き込む等も含む)が付与されることが挙げら
れる。その結果、遊技者の面白味を永続させることがで
きる。
8. In the above configuration 7, the gaming machine is a pachinko machine. Above all, as a basic configuration of a pachinko machine, an operation handle is provided, and in response to the operation of the handle, a game ball is fired at a predetermined game area, and the game ball is provided at an operating port arranged at a predetermined position in the game area. The change of the symbol image on the display device for a game machine is started as a necessary condition for winning. During the occurrence of the specific game state, the winning opening arranged at a predetermined position in the game area is opened in a predetermined mode to enable the game balls to be won, and the value corresponding to the number of the winnings (for example, if only premium balls are used). Not including writing on a magnetic card). As a result, the fun of the player can be made permanent.

【0014】9.複数のポリゴンで形成されたオブジェ
クトを仮想3次元空間内に設定する過程と、前記仮想3
次元空間内の所与の視点に基づく視線方向を前記視点を
中心に回転させる過程と、前記回転された視線方向を基
準とする2次元の投影平面を設定し、その投影平面に前
記オブジェクトを投影する過程と、前記投影平面に投影
されたオブジェクトの各ポリゴンにテクスチャを貼付け
た視野画像を、前記投影平面に相当する画像生成領域内
に生成する過程と、前記画像生成領域内の視野画像を表
示手段に出力して、前記視線方向の回転に伴う前記仮想
3次元空間内の様子を表示する過程とを備えた画像表示
方法において、前記視野画像におけるオブジェクトの背
面側に表示される背景画像上の一部の領域を表示領域と
して設定する過程と、前記仮想3次元空間における視線
方向の回転角度に基づいて、前記背景画像上の表示領域
を移動させるための移動量を算出する過程と、前記視野
画像を生成する前の前記画像生成領域内に、前記移動量
に基づいて移動させた表示領域内に含まれる背景画像を
設定する過程とを備えたことを特徴とするものである。
この方法によれば、仮想3次元空間内に複数のポリゴン
で形成されたオブジェクトを設定する。その仮想3次元
空間内の所与の視点を中心として回転する視線方向に基
づく2次元の投影平面を設定する。その2次元の投影平
面にオブジェクトを投影する。そのオブジェクトの背面
側に表示される背景画像の一部の領域を表示領域として
設定する。視線方向の回転角度に基づいて移動量を算出
する。その移動量に基づいて表示領域を移動させて、そ
の移動後の表示領域内の背景画像を、投影平面に相当す
る画像生成領域内に設定する。その背景画像が設定され
た画像生成領域内に、投影平面に投影されたオブジェク
トを書き込み、そのオブジェクトの各ポリゴンにテクス
チャを貼付けた視野画像を生成する。その視野画像を表
示手段に表示出力する。その結果、視線方向の回転に伴
って視線画像内で移動するオブジェクトと同様に背景を
移動させることができるので、自然な表示を実現するこ
とができる。また、仮想3次元空間内に背景を表示する
ためのオブジェクトを設定しないので、画像表示処理を
高速化することもできる。
9. Setting an object formed by a plurality of polygons in a virtual three-dimensional space;
Rotating a gaze direction based on a given viewpoint in the three-dimensional space around the viewpoint, setting a two-dimensional projection plane based on the rotated gaze direction, and projecting the object on the projection plane And generating a view image in which texture is attached to each polygon of the object projected on the projection plane in an image generation area corresponding to the projection plane, and displaying the view image in the image generation area. Outputting to the means and displaying a state in the virtual three-dimensional space accompanying the rotation of the line-of-sight direction, the background image displayed on the back side of the object in the visual field image. Setting a partial area as a display area, and moving a display area on the background image based on a rotation angle of a line-of-sight direction in the virtual three-dimensional space. Calculating a moving amount, and setting a background image included in a display region moved based on the moving amount in the image generation region before generating the visual field image. It is a feature.
According to this method, an object formed by a plurality of polygons is set in a virtual three-dimensional space. A two-dimensional projection plane is set based on a line-of-sight direction that rotates about a given viewpoint in the virtual three-dimensional space. The object is projected on the two-dimensional projection plane. A partial area of the background image displayed on the back side of the object is set as a display area. The movement amount is calculated based on the rotation angle in the line-of-sight direction. The display area is moved based on the movement amount, and a background image in the display area after the movement is set in an image generation area corresponding to a projection plane. The object projected on the projection plane is written in the image generation area in which the background image is set, and a field-of-view image in which texture is attached to each polygon of the object is generated. The field-of-view image is displayed on the display means. As a result, the background can be moved in the same manner as the object moving in the line-of-sight image with the rotation of the line-of-sight direction, so that a natural display can be realized. Further, since no object for displaying the background is set in the virtual three-dimensional space, the image display processing can be sped up.

【0015】10.複数のポリゴンで形成されたオブジ
ェクトを仮想3次元空間内に設定するステップと、前記
仮想3次元空間内の所与の視点に基づく視線方向を前記
視点を中心に回転させるステップと、前記回転された視
線方向を基準とする2次元の投影平面を設定し、その投
影平面に前記オブジェクトを投影するステップと、前記
投影平面に投影されたオブジェクトの各ポリゴンにテク
スチャを貼付けた視野画像を、前記投影平面に相当する
画像生成領域内に生成するステップと、前記画像生成領
域内の視野画像を表示手段に出力して、前記視線方向の
回転に伴う前記仮想3次元空間内の様子を表示するステ
ップとをコンピュータに実行させるためのプログラムを
記憶した記憶媒体において、前記視野画像におけるオブ
ジェクトの背面側に表示される背景画像上の一部の領域
を表示領域として設定するステップと、前記仮想3次元
空間における視線方向の回転角度に基づいて、前記背景
画像上の表示領域を移動させるための移動量を算出する
ステップと、前記視野画像を生成する前の前記画像生成
領域内に、前記移動量に基づいて移動させた表示領域内
に含まれる背景画像を設定するステップとをコンピュー
タに実行させるためのプログラムを記憶したものであ
る。この構成によれば、記憶媒体に記憶させたプログラ
ムをコンピュータに読み込ませることにより、このコン
ピュータが上記構成8の方法発明を実行する。その結
果、上記構成8に記載の方法発明をコンピュータに実行
させることができる。
10. Setting an object formed by a plurality of polygons in a virtual three-dimensional space; rotating a line of sight based on a given viewpoint in the virtual three-dimensional space around the viewpoint; Setting a two-dimensional projection plane based on the line-of-sight direction, projecting the object on the projection plane, and displaying a field-of-view image in which texture is attached to each polygon of the object projected on the projection plane; Generating an image in the image generation area corresponding to the following, and outputting a visual field image in the image generation area to a display unit to display a state in the virtual three-dimensional space accompanying the rotation in the line-of-sight direction. In a storage medium storing a program to be executed by a computer, a background image displayed on the back side of the object in the visual field image Setting a partial area above as a display area, and calculating a movement amount for moving the display area on the background image based on a rotation angle of a line-of-sight direction in the virtual three-dimensional space; Setting a background image included in a display area moved based on the movement amount in the image generation area before generating the visual field image. is there. According to this configuration, the computer executes the method invention of the above configuration 8 by reading the program stored in the storage medium into the computer. As a result, the computer can execute the method invention described in the above configuration 8.

【0016】[0016]

【作用】本発明の作用は次のとおりである。記憶手段
は、複数のポリゴンで形成されたオブジェクトと、その
オブジェクトの各ポリゴンに貼付けるテクスチャと、背
景画像とを少なくとも記憶する。オブジェクト設定手段
は、仮想3次元空間内に記憶手段に記憶されたオブジェ
クトを設定する。視線回転手段は、仮想3次元空間内の
所与の視点を中心として、その視点に基づく視線方向を
回転させる。投影手段は、回転された視線方向を基準と
する2次元の投影平面を設定し、その投影平面にオブジ
ェクトを投影する。背景画像設定手段は、投影平面に相
当する画像生成領域内に記憶手段に記憶された背景画像
を設定する。視野画像生成手段は、画像生成領域に設定
された背景画像上に、投影平面に投影されたオブジェク
トの各ポリゴンにテクスチャを貼付けた視野画像を生成
する。表示出力手段は、背景画像を含む視野画像を表示
手段に出力する。表示手段は、視線方向の回転に伴う仮
想3次元空間内の様子を背景とともに表示する。
The operation of the present invention is as follows. The storage means stores at least an object formed by a plurality of polygons, a texture to be attached to each polygon of the object, and a background image. The object setting means sets an object stored in the storage means in the virtual three-dimensional space. The gaze rotation unit rotates a gaze direction based on a given viewpoint in the virtual three-dimensional space. The projection unit sets a two-dimensional projection plane based on the rotated line-of-sight direction, and projects the object on the projection plane. The background image setting means sets the background image stored in the storage means in an image generation area corresponding to the projection plane. The visual field image generating means generates a visual field image in which a texture is attached to each polygon of the object projected on the projection plane on the background image set in the image generating area. The display output means outputs a visual field image including the background image to the display means. The display means displays the state in the virtual three-dimensional space accompanying the rotation in the line-of-sight direction together with the background.

【0017】[0017]

【発明の実施の形態】以下、図面を参照して本発明の一
実施例を説明する。3次元の画像を表示する画像表示装
置を備えた遊技機として、パチンコ機を例に採って説明
する。なお、本発明に係る遊技機は、パチンコ機に限定
されるものではなく、例えば、スロットマシン、コイン
遊技機あるいはビデオゲーム機などにも適用することが
できる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. A pachinko machine will be described as an example of a gaming machine provided with an image display device for displaying a three-dimensional image. Note that the gaming machine according to the present invention is not limited to a pachinko machine, and can be applied to, for example, a slot machine, a coin gaming machine, a video game machine, and the like.

【0018】図1は本実施例に係るパチンコ機の概略構
成を示す正面図であり、図2はパチンコ機に備える制御
基盤および画像表示装置の概略構成を示すブロック図で
ある。
FIG. 1 is a front view showing a schematic configuration of a pachinko machine according to the present embodiment, and FIG. 2 is a block diagram showing a schematic configuration of a control board and an image display device provided in the pachinko machine.

【0019】本実施例のパチンコ機は、パチンコ機の全
体を制御する制御基盤1(図2参照)を備える遊技盤7
と、遊技盤7が取り付けられた枠体3と、遊技盤7の下
側に設けられた上受け皿4と、上受け皿4に貯留したパ
チンコ球を遊技盤7の盤面に発射する図示しない発射装
置が連結された回転式ハンドル5と、上受け皿4の下側
に設けられた下受け皿6と、遊技者が遊技状態を識別す
る識別図柄を表示する液晶モニタ4の画面4aが遊技盤
7の盤面のほぼ中央に配置されるように搭載された画像
表示装置2とを備えている。なお、画面4aには、3次
元の画像である複数個の識別図柄の変位(移動,回転.
変形等)の様子や、識別図柄以外の図柄の変位の様子
が、遊技機における遊技状態に応じて表示される。識別
図柄とは、遊技機の遊技状態を遊技者に認識させるため
の画像である。例えば、変位している3個の識別図柄が
同じ種類で停止すれば特定の遊技状態が発生したことを
遊技者に認識させる一方、3個の識別図柄が異なる種類
で停止すれば通常の遊技状態が維持されることを遊技者
に認識させる。後の説明で明らかになるように、識別図
柄は、仮想3次元空間に配置された3次元のオブジェク
トを2次元で表示した画像であり、画像表示装置2にお
いてそのオブジェクトを仮想3次元空間内で変位させる
ことにより、画面4a上で識別図柄を変位させて表示す
るものである。また、特定の遊技状態とは、多数個のパ
チンコ球を取得できる遊技者に有利な状態であり、通常
の遊技状態とは、パチンコ球を消費する遊技者に不利な
状態をいう。
The pachinko machine of this embodiment has a game board 7 having a control board 1 (see FIG. 2) for controlling the entire pachinko machine.
A frame 3 on which the game board 7 is mounted, an upper tray 4 provided below the game board 7, and a firing device (not shown) for firing the pachinko balls stored in the upper tray 4 onto the game board 7. Is connected to a rotary handle 5, a lower tray 6 provided below the upper tray 4, and a screen 4a of the liquid crystal monitor 4 for displaying an identification symbol for identifying a game state by a player. And an image display device 2 mounted so as to be disposed substantially at the center of the image display device. The screen 4a displays displacements (movement, rotation,...) Of a plurality of identification symbols that are three-dimensional images.
Deformation, etc.) and the displacement of symbols other than the identification symbol are displayed according to the gaming state of the gaming machine. The identification symbol is an image for causing the player to recognize the gaming state of the gaming machine. For example, if three displaced identification symbols stop in the same type, the player recognizes that a specific game state has occurred. On the other hand, if the three identification symbols stop in different types, the normal game state. Is maintained by the player. As will be apparent from the following description, the identification symbol is an image in which a three-dimensional object arranged in the virtual three-dimensional space is displayed two-dimensionally, and the object is displayed on the image display device 2 in the virtual three-dimensional space. By displacing, the identification symbol is displaced and displayed on the screen 4a. Further, the specific game state is a state that is advantageous to a player who can obtain a large number of pachinko balls, and the normal game state is a state that is disadvantageous to a player who consumes pachinko balls.

【0020】遊技盤7には、回転式ハンドル5によって
発射されたパチンコ球を盤面に案内するレール7aと、
パチンコ球を不特定箇所に誘導する複数本の図示しない
クギと、クギによって誘導されてきたパチンコ球が入賞
する複数個の入賞口7bと、遊技盤7のほぼ中央付近に
誘導されてきたパチンコ球が入賞する始動口7cと、特
定の遊技状態において比較的多数のパチンコ球を同時に
入賞させることができる大入賞口7dとが設けられてい
る。各入賞口7b、始動口7cおよび大入賞口7d内に
は、パチンコ球の入球を検出する入賞検出センサ11
(図2参照)がそれぞれ設けられている。入賞検出セン
サ11がパチンコ球の入球を検出すると、遊技盤7に備
える制御基盤1によって所定個数のパチンコ球が上受け
皿4に供給される。また、始動口7c内には、始動開始
センサ12(図2参照)が設けられている。さらに、大
入賞口7dには、開閉式ソレノイド13(図2参照)が
設けられており、この開閉式ソレノイド13の動作によ
って、大入賞口7dが開閉自在に構成されている。な
お、上述したものの他に始動口7cに入球したパチンコ
球の個数を記憶する例えば保留ランプ等を備えるが、こ
の実施例ではその説明を省略する。
The game board 7 has a rail 7a for guiding the pachinko ball fired by the rotary handle 5 to the board surface,
A plurality of nails (not shown) for guiding pachinko balls to unspecified locations, a plurality of winning holes 7b for winning pachinko balls guided by the nails, and a pachinko ball guided substantially near the center of the game board 7 Is provided, and a large winning opening 7d is provided in which a relatively large number of pachinko balls can be simultaneously won in a specific game state. Each of the winning opening 7b, the starting opening 7c and the special winning opening 7d has a winning detecting sensor 11 for detecting the entry of a pachinko ball.
(See FIG. 2). When the winning detection sensor 11 detects the entry of a pachinko ball, a predetermined number of pachinko balls are supplied to the upper tray 4 by the control board 1 provided in the game board 7. A start start sensor 12 (see FIG. 2) is provided in the start port 7c. Further, an opening / closing solenoid 13 (see FIG. 2) is provided in the special winning opening 7d, and the operation of the opening / closing solenoid 13 allows the special winning opening 7d to be freely opened and closed. It should be noted that, in addition to the above, a holding lamp or the like for storing the number of pachinko balls entered into the starting port 7c is provided, but the description thereof is omitted in this embodiment.

【0021】上受け皿4は、受け皿形状になっており、
パチンコ球が供給される球供給口4aから供給されたパ
チンコ球を貯留する。また、球供給口4aが配置された
上受け皿4の反対側には、パチンコ球をレール7aに向
けて発射する発射装置に連通する図示しない球送り口が
設けられている。さらに、上受け皿4の上部には、貯留
したパチンコ球を下受け皿6に移すための球抜きボタン
4bが設けられており、この球抜きボタン4bを押すこ
とで、上受け皿4に貯留したパチンコ球を下受け皿6に
移すことができる。下受け皿6は、受け皿形状になって
おり、上受け皿4から移されてきたパチンコ球を受け止
める。なお、下受け皿6には、その中に貯留したパチン
コ球を抜く図示しない球抜きレバーが設けられている。
The upper receiving tray 4 has a receiving tray shape.
The pachinko balls supplied from the ball supply port 4a to which the pachinko balls are supplied are stored. Further, on the opposite side of the upper tray 4 where the ball supply port 4a is arranged, a ball feed port (not shown) is provided which communicates with a launching device which launches a pachinko ball toward the rail 7a. Further, on the upper part of the upper receiving tray 4, a ball removing button 4b for transferring the stored pachinko balls to the lower receiving tray 6 is provided, and by pressing the ball removing button 4b, the pachinko balls stored in the upper receiving tray 4 are pressed. Can be transferred to the lower tray 6. The lower receiving tray 6 has a receiving tray shape and receives the pachinko balls transferred from the upper receiving tray 4. The lower tray 6 is provided with a ball removal lever (not shown) for removing the pachinko balls stored therein.

【0022】回転式ハンドル5には、パチンコ球をレー
ル7aに向けて発射する発射装置が連結されている。回
転式ハンドル5を回転させることにより、発射装置はそ
の回転量に応じた強さでパチンコ球を発射する。なお、
このときパチンコ球は所定の間隔ごとに一個ずつ発射さ
れる。
The rotary handle 5 is connected to a firing device for firing a pachinko ball toward the rail 7a. By rotating the rotary handle 5, the launching device launches a pachinko ball with a strength corresponding to the amount of rotation. In addition,
At this time, the pachinko balls are fired one by one at predetermined intervals.

【0023】遊技盤7に備える制御基盤1は、上述した
入賞口7bや始動口7cの球検出センサの検出に基づい
て所定量のパチンコ玉を供給したり、図示しないランプ
やスピーカを作動させたりする各種のイベントを実行す
るものである。また、この制御基盤1は、画像表示装置
2に情報流通可能に接続されており、画像表示装置2に
備える画面4aに遊技状態を示す識別図柄を表示するた
めのコマンド等を画像表示装置2に送信するものであ
る。
The control board 1 provided on the game board 7 supplies a predetermined amount of pachinko balls based on the detection of the ball detecting sensor at the winning port 7b or the starting port 7c, or operates a lamp or speaker (not shown). To execute various events. The control board 1 is connected to the image display device 2 so that information can be distributed, and a command or the like for displaying an identification symbol indicating a game state is displayed on the screen 4a of the image display device 2. What to send.

【0024】画像表示装置2は、画面4aを備える液晶
モニタ4と、液晶モニタ4に識別図柄を表示するCPU
22等を備えて構成されている。
The image display device 2 includes a liquid crystal monitor 4 having a screen 4a, and a CPU for displaying an identification symbol on the liquid crystal monitor 4.
22 and the like.

【0025】以下、図2に示す制御基盤1のブロック図
と、制御基盤1で行なわれる処理の概要を図3に示すフ
ローチャートとを参照しながら説明する。
Hereinafter, a block diagram of the control board 1 shown in FIG. 2 and an outline of the processing performed by the control board 1 will be described with reference to a flowchart shown in FIG.

【0026】図2に示すように、制御基盤1は、メモリ
およびCPU等で構成されるマイクロコンピュータであ
る主制御部16と、遊技機における遊技状態を決定する
値を出力するカウンタ14と、始動口7c(図1参照)
でパチンコ球の入球を検出する始動開始センサ12と、
入賞口7b等(図1参照)でパチンコ球の入球を検出す
る入賞検出センサ11と、大入賞口7d(図1参照)を
開閉する開閉式ソレノイド13と、画像表示装置2のイ
ンターフェイス21に情報流通可能に接続されるインタ
ーフェイス15などを備えて構成されている。
As shown in FIG. 2, the control board 1 includes a main control unit 16 which is a microcomputer including a memory and a CPU, a counter 14 for outputting a value for determining a game state in the gaming machine, Mouth 7c (see FIG. 1)
A start start sensor 12 for detecting the entry of a pachinko ball with
The winning detection sensor 11 for detecting the entry of a pachinko ball at the winning opening 7b or the like (see FIG. 1), the open / close solenoid 13 for opening and closing the large winning opening 7d (see FIG. 1), and the interface 21 of the image display device 2. It is provided with an interface 15 and the like which are connected so that information can be distributed.

【0027】以下、制御基盤1の各ブロックで行なわれ
る処理を図3のフローチャートを参照しながら詳細に説
明する。 ステップS1(入球を検出) 遊技者は、回転式ハンドル5によってパチンコ球を遊技
盤7内に打ち込み、パチンコ遊技を開始する。遊技盤7
内に打ち込まれた一部のパチンコ球は盤面の中央付近ま
で導かれ、始動口7cに入球する。パチンコ球が始動口
7cに入球すると、始動口7c内に入球した球を検出す
る始動開始センサ12は、始動開始信号を主制御部16
に送るとともに、始動口7c内に設けられた入賞検出セ
ンサ11は、入賞信号を主制御部16に送る。なお、こ
の実施例では、始動開始センサ12と入賞検出センサ1
1とは、同一のセンサによって併用される。また、入賞
口7bにパチンコ球が入球した場合にも、各入賞口7b
の入賞検出センサ11は、入賞信号を主制御部16に送
る。
Hereinafter, the processing performed in each block of the control board 1 will be described in detail with reference to the flowchart of FIG. Step S1 (Detection of Incoming Ball) The player hits the pachinko ball into the gaming board 7 with the rotary handle 5, and starts the pachinko game. Gaming board 7
A part of the pachinko ball hit into the inside is guided to near the center of the board and enters the starting port 7c. When the pachinko ball enters the start port 7c, the start start sensor 12 that detects the ball that has entered the start port 7c outputs a start start signal to the main control section 16c.
And the winning detection sensor 11 provided in the starting port 7c sends a winning signal to the main controller 16. In this embodiment, the start start sensor 12 and the winning detection sensor 1
1 is used together by the same sensor. Also, when a pachinko ball enters the winning opening 7b, each winning opening 7b
The winning detection sensor 11 sends a winning signal to the main control unit 16.

【0028】ステップS2(パチンコ球を供給) 主制御部16は、入賞検出センサ11からの入賞信号を
検出すると、図示しないパチンコ球供給機構を稼働させ
て、所定数量のパチンコ球を球供給口4aを通じて上受
け皿4に供給する。
Step S2 (Pachinko ball supply) When the main control unit 16 detects a winning signal from the winning detection sensor 11, it activates a pachinko ball supply mechanism (not shown) to supply a predetermined number of pachinko balls to the ball supply port 4a. To the upper tray 4

【0029】ステップS3(大当たり抽選) 主制御部16は、始動開始センサ12からの始動開始信
号を検出すると、この時のカウンタ14の出力値を読取
り、大当たり抽選を行う。大当たり抽選では、カウンタ
14の出力値が所定値であれば、「大当たり」すなわち
特定の遊技状態を発生させる。一方、カウンタ14の出
力値が所定値以外であれば、「はずれ」すなわち通常の
遊技状態を継続する。
Step S3 (big hit lottery) When the main control unit 16 detects the start start signal from the start start sensor 12, the main controller 16 reads the output value of the counter 14 at this time and performs a big hit lottery. In the jackpot lottery, if the output value of the counter 14 is a predetermined value, a "big hit", that is, a specific game state is generated. On the other hand, if the output value of the counter 14 is other than the predetermined value, “missing”, that is, the normal game state is continued.

【0030】ステップS4(コマンドを送信) 主制御部16は、通常の遊技状態または特定の遊技状態
に応じたコマンドをインターフェイス15を介して画像
表示装置2に送信する。コマンドは、画像表示装置2に
所定の表示プログラムを実行させる命令である。例え
ば、大当たりの場合には、主制御部16は、所定のリー
チの開始を指示するコマンドを送信し、所定時間経過後
に、そのリーチの最終段階で停止させる大当たりの識別
図柄の種類を指示するコマンドを送信する。これによ
り、画像表示装置2は、コマンドで指示された種類のリ
ーチを表示した後に、さらにコマンドで指示された種類
の大当たりの識別図柄で停止するように表示する。主制
御部16は、画像表示装置2で大当たりの識別図柄の停
止が表示された後、開閉式ソレノイド13に開放信号を
与えて大入賞口7dを開放して、遊技者が多数個のパチ
ンコ球を取得できる状態にする。さらに、この遊技状態
において、制御基盤1は例えば約10個の球が大入賞口
7dに入賞したのを1ラウンドとして、そのラウンドが
終了するたびにそのラウンドの終了または次のラウンド
の開始を指示するコマンドを画像表示装置2に送信す
る。これにより、画像表示装置2は、ラウンドごとに異
なるパターンの表示態様を表示する。一方、ハズレの場
合には、識別図柄の通常の変動またはリーチ表示の最終
段階で停止させるハズレの識別図柄の種類を指示するコ
マンドを画像表示装置2に送信する。これにより、画像
表示装置2は、リーチを表示した後に、ハズレの識別図
柄で停止するように表示させる。
Step S4 (Transmit Command) The main controller 16 transmits a command corresponding to a normal game state or a specific game state to the image display device 2 via the interface 15. The command is a command for causing the image display device 2 to execute a predetermined display program. For example, in the case of a jackpot, the main control unit 16 transmits a command for instructing the start of a predetermined reach, and after a predetermined time has elapsed, a command for instructing the type of the jackpot identification symbol to be stopped at the final stage of the reach. Send Thus, after displaying the reach of the type specified by the command, the image display device 2 further displays the reach of the type designated by the command so as to stop at the jackpot identification symbol. After the stoppage of the jackpot identification symbol is displayed on the image display device 2, the main control unit 16 gives an opening signal to the open / close solenoid 13 to open the big winning opening 7d, and the player can use a large number of pachinko balls. In a state where it can be obtained. Further, in this game state, the control base 1 sets, for example, about 10 balls that have won the special winning opening 7d as one round, and instructs the end of the round or the start of the next round each time the round ends. The command is transmitted to the image display device 2. Thereby, the image display device 2 displays a display mode of a different pattern for each round. On the other hand, in the case of a loss, a command is sent to the image display device 2 to indicate the normal change of the identification symbol or the type of the identification symbol of the loss to be stopped at the final stage of the reach display. As a result, after displaying the reach, the image display device 2 displays the reach so as to stop at the identification pattern of the loss.

【0031】ステップS5(新たな入球検出?) 主制御部16は、始動開始センサ12からの新たな始動
開始信号の有無(新たな入球)を検出するまで待機す
る。なお、識別図柄の変動(リーチ、通常の変動等)中
にパチンコ球の入球を始動開始センサ12が検出し、そ
の入球したパチンコ球の個数を記憶する上述で説明を省
略した保留ランプが点灯している場合には、その保留ラ
ンプの点灯を新たな始動開始信号として検出する。新た
な始動開始信号があれば、ステップT2〜T4を繰り返
し行なう。新たな始動開始信号がなければ、この処理を
終了して新たな始動開始信号が検出されるまで待機す
る。なお、上述したステップS1〜S5を実行する制御
基盤1は、遊技機の遊技状態における表示態様を指示す
るいわば表示態様指示手段である。
Step S5 (New ball detection?) The main controller 16 waits until it detects the presence or absence of a new start signal from the start sensor 12 (new ball). It should be noted that the start lamp 12 detects the entry of the pachinko ball during the variation of the identification symbol (reach, normal variation, etc.), and the above-described holding lamp for storing the number of the entered pachinko balls is used. When it is lit, the lighting of the holding lamp is detected as a new start start signal. If there is a new start start signal, steps T2 to T4 are repeated. If there is no new start start signal, this process is terminated and the process stands by until a new start start signal is detected. In addition, the control base 1 that executes the above-described steps S1 to S5 is a so-called display mode instruction unit that instructs a display mode in the gaming state of the gaming machine.

【0032】以下、図2および図4に示すブロック図を
参照しながら画像表示装置2について説明する。図4
は、VDP27の概略内部構成を示すブロック図であ
る。図2に示すように、画像表示装置2は、CPU22
と、CPU22に接続された第1データバス23と、C
PU22によって実行されるプログラムを記憶し、第1
データバス23を介してCPU22に接続されたプログ
ラムROM24と、CPU22がプログラムを実行して
得られた各種のデータを記憶するワークRAM25と、
CPU22の指示によってワークRAM25に記憶され
たデータをVDP27に転送するDMA26と、DMA
26によって第1データバス23を介して転送されてき
たデータに基づく視野画像を生成するVDP27と、V
DP27に接続された第2データバス28と、VDP2
7で利用されるモデルデータ、テクスチャデータおよび
背景画像データを記憶したキャラクタROM29と、V
DP27で生成された視野画像を一時的に記憶するビデ
オRAM30と、そのビデオRAM30内の視野画像を
表示する液晶モニタ4とを備えている。なお、キャラク
タROM29は、本発明における記憶手段に相当し、そ
のキャラクタROM29に記憶されたモデルデータは本
発明におけるオブジェクトに、テクスチャデータは本発
明におけるテクスチャに、背景画像データは本発明にお
ける背景画像に相当する。また、CPU22は、オブジ
ェクト設定手段、視線回転手段、背景画像設定手段、表
示領域設定手段および移動量算出手段に相当し、VDP
27は、投影手段、視野画像生成手段および表示出力手
段に相当し、液晶モニタ4は、表示手段に相当する。
Hereinafter, the image display device 2 will be described with reference to the block diagrams shown in FIGS. FIG.
Is a block diagram showing a schematic internal configuration of the VDP 27. As shown in FIG. 2, the image display device 2 includes a CPU 22
A first data bus 23 connected to the CPU 22;
Storing a program executed by the PU 22;
A program ROM 24 connected to the CPU 22 via the data bus 23, a work RAM 25 for storing various data obtained by the CPU 22 executing the program,
A DMA 26 for transferring data stored in the work RAM 25 to the VDP 27 in accordance with an instruction from the CPU 22;
26, a VDP 27 for generating a visual field image based on the data transferred through the first data bus 23,
A second data bus 28 connected to DP 27 and VDP 2
A character ROM 29 storing model data, texture data and background image data used in
The video RAM 30 temporarily stores the visual field image generated by the DP 27, and the liquid crystal monitor 4 that displays the visual field image in the video RAM 30. The character ROM 29 corresponds to a storage unit in the present invention. The model data stored in the character ROM 29 is an object in the present invention, the texture data is a texture in the present invention, and the background image data is a background image in the present invention. Equivalent to. The CPU 22 corresponds to an object setting unit, a line-of-sight rotation unit, a background image setting unit, a display area setting unit, and a movement amount calculation unit.
27 corresponds to a projection unit, a visual field image generation unit and a display output unit, and the liquid crystal monitor 4 corresponds to a display unit.

【0033】CPU22は、プログラムROM24に記
憶された制御プログラムによって画像表示装置2の全体
を管理・制御する中央演算処理装置であり、特に、VD
P27に対してオブジェクト単位の変位を指示したり、
液晶モニタ4の画面4aに表示されるオブジェクトであ
る識別図柄の背面に表示される背景画像等を指示するも
のである。具体的には、CPU22は、インターフェイ
ス21によって受信したコマンドの種類に応じて、その
コマンドに対応する表示を行うための表示プログラムを
実行し、表示プログラムの実行結果をワークRAM25
に順次書き込み、所定の割り込み間隔(例えば1/6
0)ごとに、VDP27への実行結果を転送をDMA2
6に指示するものである。所定割り込み間隔内の実行結
果は、オブジェクト単位で指示したオブジェクトを配置
したワールド座標系内の構成や、識別図柄の背面に表示
する背景画像などであり、VDP27によって1画面分
の視野画像を生成させるためのデータである。例えば、
その実行結果には、ワールド座標系内にオブジェクトを
配置するための3次元の配置座標データや、オブジェク
トを回転させるための姿勢回転データや、オブジェクト
を複数のポリゴンで形成するためのモデルデータおよび
各ポリゴンに貼付けるための模様が描かれたテクスチャ
のテクスチャデータが記憶されたキャラクタROM29
の格納アドレスや、ワールド座標系内のオブジェクトを
2次元の視線画像に変換するための視点座標データおよ
び視線回転データや、視野画像における最背面に表示さ
れる背景画像が記憶されたキャラクタROM29内の格
納アドレスなどのデータが含まれている。なお、ワール
ド座標系とは、複数個のオブジェクトを配置するための
仮想3次元空間に対応した座標系である。ローカル座標
系とは、オブジェクト固有の独立した座標系である。ポ
リゴンとは、本発明における仮想3次元空間に相当する
いわゆるワールド座標系に配置される複数個の3次元の
座標の頂点で定義される多角形平面をいう。オブジェク
トとは、複数のポリゴンによって形成された仮想物体を
いう。モデルデータとは、ローカル座標系において複数
のポリゴンによってオブジェクトを形成するためのデー
タ、すなわち複数個の3次元の座標データ群である。ま
た、テクスチャデータとは、視線座標系に基づく2次元
のスクリーン面に投影されたポリゴンに貼付けられる各
種の模様が描かれた2次元の画像データである。視線座
標系とは、ワールド座標系内の所与の視点を基準にする
座標系である。
The CPU 22 is a central processing unit that manages and controls the entire image display device 2 by a control program stored in a program ROM 24.
Instruct P27 for displacement in object units,
It designates a background image or the like displayed on the back of the identification symbol, which is an object displayed on the screen 4a of the liquid crystal monitor 4. Specifically, the CPU 22 executes a display program for performing a display corresponding to the command according to the type of the command received by the interface 21, and stores the execution result of the display program in the work RAM 25.
At a predetermined interrupt interval (for example, 1/6
0), the execution result is transferred to the VDP 27 by DMA2.
6. The execution result within the predetermined interruption interval is a configuration in the world coordinate system in which the object specified in the object unit is arranged, a background image displayed on the back of the identification symbol, and the like, and the VDP 27 generates a view image for one screen. Data for For example,
The execution results include three-dimensional arrangement coordinate data for arranging the object in the world coordinate system, posture rotation data for rotating the object, model data for forming the object by a plurality of polygons, and Character ROM 29 storing texture data of a texture on which a pattern to be attached to a polygon is drawn
Of the character ROM 29 in which the storage address of the object, viewpoint coordinate data and line-of-sight rotation data for converting an object in the world coordinate system into a two-dimensional line-of-sight image, and a background image displayed at the back of the field-of-view image are stored. It contains data such as the storage address. The world coordinate system is a coordinate system corresponding to a virtual three-dimensional space for arranging a plurality of objects. The local coordinate system is an independent coordinate system unique to an object. The polygon is a polygon plane defined by a plurality of vertices of three-dimensional coordinates arranged in a so-called world coordinate system corresponding to a virtual three-dimensional space in the present invention. An object is a virtual object formed by a plurality of polygons. The model data is data for forming an object by a plurality of polygons in the local coordinate system, that is, a group of a plurality of three-dimensional coordinate data. The texture data is two-dimensional image data in which various patterns to be pasted on a polygon projected on a two-dimensional screen surface based on a visual line coordinate system are drawn. The line-of-sight coordinate system is a coordinate system based on a given viewpoint in the world coordinate system.

【0034】プログラムROM24は、遊技機に電源が
投入された際にCPU22によって最初に実行される制
御プログラムや、制御基盤1から送られてくるコマンド
の種類に応じた表示を行うための複数種類の表示プログ
ラムなどを記憶したものである。表示プログラムは、例
えば予め用意されたテーブルを参照したり、参照したデ
ータに演算処理を施すことで、コマンドに応じた表示態
様を実現するための各種のデータや、視野画像の最背面
に表示する背景画像の格納アドレス等を導出するもので
ある。表示プログラムには、単独で実行されるプログラ
ムだけでなく、例えば複数個のタスクを組み合わせるこ
とで、コマンドの種類に応じた表示を行うためのタスク
を生成するようなものも含まれる。なお、表示プログラ
ムを記憶したプログラムROM24は、本発明における
記憶媒体に相当する。
The program ROM 24 is provided with a plurality of types of control programs to be executed first by the CPU 22 when the game machine is powered on, and a plurality of types of displays for displaying commands according to the types of commands sent from the control board 1. A display program and the like are stored. The display program refers to, for example, a table prepared in advance, or performs arithmetic processing on the referenced data, thereby displaying various data for realizing a display mode according to the command, and displaying the data on the rearmost side of the visual field image. This is for deriving the storage address of the background image and the like. The display program includes not only a program that is executed independently but also a program that generates a task for performing display according to the type of command by combining a plurality of tasks, for example. Note that the program ROM 24 storing the display program corresponds to a storage medium in the present invention.

【0035】ワークRAM25は、第1データバス23
を介して接続されたCPU22によって得られた実行結
果である配置座標データ、姿勢回転データ、モデルデー
タおよびテクスチャデータ並びに背景画像データが記憶
されたキャラクタROM26内の格納アドレスなどの各
種のデータを一時的に記憶するものである。
The work RAM 25 includes a first data bus 23
Various data such as storage addresses in the character ROM 26 in which the arrangement coordinate data, posture rotation data, model data, texture data, and background image data, which are execution results obtained by the CPU 22 connected via the CPU 22, are temporarily stored. Is to be stored.

【0036】DMA26は、CPU22で処理を介さず
メモリ内のデータを転送することができる、いわゆるダ
イレクトメモリアクセスコントローラである。つまり、
DMA26は、CPU22からの転送開始の指示に基づ
いて、ワークRAM25に記憶されたデータを一括して
VDP27に転送する。
The DMA 26 is a so-called direct memory access controller capable of transferring data in a memory without any processing by the CPU 22. That is,
The DMA 26 collectively transfers the data stored in the work RAM 25 to the VDP 27 based on a transfer start instruction from the CPU 22.

【0037】VDP27は、いわゆるジオメトリ演算処
理およびレンダリング処理機能を備えた画像データプロ
セッサであり、特に、複数個の3次元の座標データ群で
あるモデルデータをCPU22および第1データバス2
3を介さずに読み出し、それら座標データに対してそれ
ぞれジオメトリ演算処理およびレンダリング処理を施す
機能、およびオブジェクトの各ポリゴンにテクスチャを
貼付ける前に、後述するビデオRAM30に設けられた
フレームメモリ内に背景画像を生成する機能を備えてい
る。
The VDP 27 is an image data processor having so-called geometry calculation processing and rendering processing functions. In particular, the VDP 27 transfers model data, which is a group of a plurality of three-dimensional coordinate data, to the CPU 22 and the first data bus 2.
3 and a function of performing a geometric calculation process and a rendering process on the coordinate data, respectively, and before attaching a texture to each polygon of the object, a background is stored in a frame memory provided in a video RAM 30 described later. It has a function to generate images.

【0038】図4に示すように、VDP27は、DMA
26によって第1データバス23を介して送られてきた
データを受信するインターフェイス27aを備えてい
る。インターフェイス27aは、キャラクタROM29
に記憶されたモデルデータの格納アドレスや、オブジェ
クトをワールド座標系に配置するためのデータや、ワー
ルド座標系を視線座標系に変換するためのデータなどを
ジオメトリ演算処理部27cに与え、キャラクタROM
29に記憶されたテクスチャデータおよび背景画像デー
タの格納アドレス等をレンダリング処理部27dに与え
る。さらに、インターフェイス27aは、CPU22側
から送られてくる各種のデータに含まれているテクスチ
ャデータの色情報を指定するカラーパレットデータをパ
レット処理部27bに与える。
As shown in FIG. 4, VDP 27
26, an interface 27a for receiving data transmitted through the first data bus 23. The interface 27a has a character ROM 29
The storage address of the model data stored in the ROM, the data for arranging the object in the world coordinate system, the data for converting the world coordinate system to the visual axis coordinate system, and the like are provided to the geometry calculation processing unit 27c, and the character ROM is provided.
The storage addresses of the texture data and the background image data stored in the memory 29 are given to the rendering processing unit 27d. Further, the interface 27a provides the palette processing unit 27b with color pallet data specifying the color information of the texture data included in the various data sent from the CPU 22 side.

【0039】ジオメトリ演算処理部27cは、与えられ
た格納アドレスから複数のポリゴンでオブジェクトを形
成するためのモデルデータを読み出し、そのモデルデー
タに含まれる各ポリゴンに対して、姿勢回転データおよ
び配置座標データ等に基づくジオメトリ演算を施すもの
である。すなわち、ジオメトリ演算処理部27cは、姿
勢回転データに基づいて、基準の姿勢であるローカル座
標系に配置されたオブジェクトの各ポリゴンを回転させ
る。また、その回転後の各ポリゴンで形成されたオブジ
ェクトを配置座標データに基づいてワールド座標系に配
置した際の各ポリゴンの座標データを算出する。さら
に、カメラデータに基づくワールド座標系内の所与の視
点に基づく視線方向を基準にした2次元の投影平面へそ
のオブジェクトを投影した際の各ポリゴンの2次元の座
標データを算出する。そして、ジオメトリ演算処理部2
7cは、算出した2次元の座標データをレンダリング処
理部27dに与える。
The geometry operation processing section 27c reads model data for forming an object from a plurality of polygons from a given storage address, and performs posture rotation data and arrangement coordinate data for each polygon included in the model data. And the like to perform a geometry operation based on the above. That is, the geometry calculation processing unit 27c rotates each polygon of the object arranged in the local coordinate system, which is the reference posture, based on the posture rotation data. Further, the coordinate data of each polygon when the object formed by each polygon after the rotation is arranged in the world coordinate system based on the arrangement coordinate data is calculated. Further, two-dimensional coordinate data of each polygon when the object is projected on a two-dimensional projection plane based on a line of sight based on a given viewpoint in a world coordinate system based on camera data is calculated. Then, the geometry operation processing unit 2
7c gives the calculated two-dimensional coordinate data to the rendering processing unit 27d.

【0040】パレット処理部27bは、CPU22によ
って例えば初期化時に予め書き込まれた複数種類の色情
報であるカラーパレットを保持する図示しないパレット
RAMを備えており、インターフェイス27aから与え
られたカラーパレットデータに応じたカラーパレットを
レンダリング処理部27dに与えるものである。なお、
色情報は、赤色(R),緑色(G),青色(B)の組合
せによって決定されるものである。カラーパレットを与
えるとは、例えばパレットRAMに記憶されたカラーパ
レットの格納アドレスをレンダリング処理部27dに与
えることをいい、レンダリング処理部27dは、視野画
像を生成する際にその格納アドレスに記憶された色情報
を参照する。
The pallet processing unit 27b includes a pallet RAM (not shown) for holding a color pallet, which is a plurality of types of color information previously written by the CPU 22 at the time of initialization, for example. The corresponding color palette is provided to the rendering processing unit 27d. In addition,
The color information is determined by a combination of red (R), green (G), and blue (B). Giving a color palette means giving the storage address of the color palette stored in, for example, the palette RAM to the rendering processing unit 27d, and the rendering processing unit 27d stores the storage address at the storage address when generating the visual field image. Refer to color information.

【0041】レンダリング処理部27dは、まず、背景
画像データの格納アドレスに基づいて、キャラクタRO
M29内の格納アドレスに記憶された背景画像データを
読み出し、その背景画像データに基づく背景画像を生成
する。さらに、テクスチャデータの格納アドレスに基づ
いて、キャラクタROM29内の格納アドレスに記憶さ
れたテクスチャデータを読み出し、そのテクスチャデー
タとジオメトリ演算処理部27cから与えられた各ポリ
ゴンの2次元座標データとカラーパレット等に基づい
て、投影平面に投影された各ポリゴンにテクスチャを貼
付けた画像を背景画像上に上書きした視野画像を生成す
るものである。このとき、レンダリング処理部27d
は、セレクタ部27eによって交互に選択されるRAM
29内の第1フレームメモリ30aまたは第2フレーム
メモリ30bに、背景画像およびテクスチャを貼付けた
画像を書き込む。セレクタ部27eは、書き込みが行わ
れていないフレーム側から視野画像を読み出し、その視
野画像をビデオ出力部27fに送る。ビデオ出力部27
fは、その視野画像を液晶モニタ4に出力する。なお、
ジオメトリ演算処理部27cおよびレンダリング処理部
27dでは、画面に表示する部分を決定するクリッピン
グ処理、ポリゴンの前後関係によって見える部分と見え
ない部分とを判定する隠面処理、光源からの光の当たり
具合や反射の様子を演算するシェーディング計算処理な
どの処理も行われる。
The rendering processing unit 27d first determines the character RO based on the storage address of the background image data.
The background image data stored at the storage address in M29 is read, and a background image based on the background image data is generated. Further, based on the storage address of the texture data, the texture data stored at the storage address in the character ROM 29 is read, and the texture data, the two-dimensional coordinate data of each polygon provided from the geometry operation processing unit 27c, the color palette, etc. , A field-of-view image is generated by overwriting a background image with an image obtained by pasting a texture on each polygon projected on the projection plane. At this time, the rendering processing unit 27d
Is a RAM that is alternately selected by the selector unit 27e
In the first frame memory 30a or the second frame memory 30b in the memory 29, an image to which a background image and a texture are pasted is written. The selector unit 27e reads out the visual field image from the frame side where writing is not performed, and sends the visual field image to the video output unit 27f. Video output unit 27
f outputs the visual field image to the liquid crystal monitor 4. In addition,
The geometry calculation processing unit 27c and the rendering processing unit 27d include a clipping process for determining a portion to be displayed on the screen, a hidden surface process for determining a visible portion and a non-visible portion depending on the context of polygons, and a condition of light from a light source. Processing such as shading calculation processing for calculating the state of reflection is also performed.

【0042】キャラクタROM29は、ローカル座標系
におけるオブジェクトを複数のポリゴンによって形成す
るモデルデータや、そのモデルデータに含まれる各ポリ
ゴンに貼付ける模様であるテクスチャデータや、視野画
像における背景画像である2次元の背景画像データを記
憶するものであり、第2データバス28を介してVDP
27に接続されている。なお、図11に示すように、背
景画像Bは、その左右両端の模様が連続するように描か
れており、その左右両端が繋がれると円筒形(図10の
2点鎖線で示す)を構成するような画像である。
The character ROM 29 stores model data that forms an object in the local coordinate system by a plurality of polygons, texture data that is a pattern attached to each polygon included in the model data, and two-dimensional that is a background image in the visual field image. And stores the background image data of the VDP through the second data bus 28.
27. As shown in FIG. 11, the background image B is drawn so that the patterns at the left and right ends are continuous, and forms a cylindrical shape (shown by a two-dot chain line in FIG. 10) when the left and right ends are connected. It is an image that you do.

【0043】ビデオRAM30は、VDP27のレンダ
リング処理部27dによって生成される視野画像を順次
記憶するものであり、上述したように一画面分の視野画
像をそれぞれ記憶する記憶領域である第1フレームメモ
リ30aと第2フレームメモリ30bとが設けられたい
わゆるダブルバッファを構成している。なお、ビデオR
AM30に設けられたフレームメモリは、本発明におけ
る画像生成領域に相当する。
The video RAM 30 sequentially stores the visual field images generated by the rendering processor 27d of the VDP 27. As described above, the first frame memory 30a is a storage area for storing one screen of visual field images. And a second frame memory 30b. In addition, video R
The frame memory provided in the AM 30 corresponds to an image generation area in the present invention.

【0044】液晶モニタ4は、VDP27から出力され
た視野画像を表示する画面4aを備えており、その画面
4aが遊技盤7の盤面に露出するように取り付けられて
いる。液晶モニタ4は、本発明における表示手段に相当
する。
The liquid crystal monitor 4 has a screen 4 a for displaying a visual field image output from the VDP 27, and is mounted such that the screen 4 a is exposed on the game board 7. The liquid crystal monitor 4 corresponds to a display unit in the present invention.

【0045】制御基盤1側から送られてきたコマンドに
基づいて、画像表示装置2で行なわれる処理を図5〜図
8に示すフローチャートを参照しながら詳細に説明す
る。図5〜図7は主にCPU22での処理を示すフロー
チャートであり、図8は主にVDP27での処理を示す
フローチャートである。また、本実施例では、制御基盤
1から送られてきたコマンドに基づいて、例えば図9に
示すような表示態様を実現する場合について説明する。
この表示態様は、図9(a)に示すように、液晶モニタ
4の画面4aの左側部分に左識別図柄A1が、画面4a
の中央部分に中識別図柄A2が、画面4aの右側部分に
右識別図柄A3がそれぞれ背景Ba上に表示されてお
り、これら各識別図柄A1〜A3とともに背景Baが、
図9(b)に示すように、画面4a内を右方向に移動し
たように表示されるものである。
The processing performed by the image display device 2 based on the command sent from the control board 1 will be described in detail with reference to flowcharts shown in FIGS. 5 to 7 are flowcharts mainly showing processing in the CPU 22, and FIG. 8 is a flowchart mainly showing processing in the VDP 27. In the present embodiment, a case will be described in which, for example, a display mode as shown in FIG. 9 is realized based on a command sent from the control board 1.
As shown in FIG. 9A, this display mode is such that a left identification symbol A1 is displayed on the left portion of the screen 4a of the liquid crystal monitor 4 on the screen 4a.
The middle identification symbol A2 is displayed on the background Ba on the right side of the screen 4a, and the middle identification symbol A2 is displayed on the background Ba, and the background Ba along with each of these identification symbols A1 to A3.
As shown in FIG. 9B, the image is displayed as if it were moved rightward on the screen 4a.

【0046】まず、図5を参照しながら、CPU22側
での処理について説明する。 ステップT1(CPU,RAM等の初期化) 遊技機の電源投入によって、画像表示装置2では初期化
が行われる。具体的には、CPU22がプログラムRO
M24に記憶された制御プログラムを実行することによ
って、バス幅、割り込み処理などの初期設定や、ワーク
RAM25に「0」のデータを書き込む初期化が行われ
る。
First, the processing on the CPU 22 side will be described with reference to FIG. Step T1 (Initialization of CPU, RAM, etc.) When the power of the gaming machine is turned on, the image display device 2 is initialized. Specifically, the CPU 22 executes the program RO
By executing the control program stored in the M24, initialization such as bus width and interrupt processing, and initialization for writing “0” data to the work RAM 25 are performed.

【0047】ステップT2(受信したコマンドに応じた
表示プログラムを選択) インターフェイス21は、制御基盤1から送られてくる
コマンドを順次受信して、そのコマンドをCPU22に
順次渡す。CPU22は、受け取ったコマンドを例えば
ワークRAM25に設けたコマンドバッファ内に記憶す
る。さらに、CPU22は、コマンドバッファ内に記憶
されたコマンドの種類を把握し、そのコマンドに応じた
表示プログラムをプログラムROM24内から選択し、
その表示プログラムを実行する。その表示プログラムの
実行によって、CPU22では、以下のステップが実行
され、図9に示したような表示態様を実現する。
Step T2 (select a display program according to the received command) The interface 21 sequentially receives the commands sent from the control board 1, and sequentially passes the commands to the CPU 22. The CPU 22 stores the received command in a command buffer provided in the work RAM 25, for example. Further, the CPU 22 grasps the type of the command stored in the command buffer, selects a display program corresponding to the command from the program ROM 24,
Execute the display program. By executing the display program, the CPU 22 executes the following steps to realize a display mode as shown in FIG.

【0048】ステップT3(オブジェクトの設定) CPU22は、左識別図柄A1に対応するオブジェクト
OA1と、中識別図柄A2に対応するオブジェクトOA
2と、右識別図柄A3に対応するオブジェクトOA3と
をワールド座標系にそれぞれ設定するための各種のデー
タをワークRAM25内に書き込む。以下、ステップT
3で行われる処理について、図6に示すフローチャート
を参照しながら説明する。
Step T3 (Setting of Object) The CPU 22 determines the object OA1 corresponding to the left identification symbol A1 and the object OA corresponding to the middle identification symbol A2.
2 and various kinds of data for setting the object OA3 corresponding to the right identification symbol A3 in the world coordinate system are written in the work RAM 25. Hereinafter, step T
The processing performed in step 3 will be described with reference to the flowchart shown in FIG.

【0049】ステップT31(オブジェクトを配置) CPU22は、図10(a)に示すように、左識別図柄
A1に対応するオブジェクトOA1と、中識別図柄A2
に対応するオブジェクトOA2と、右識別図柄A3に対
応するオブジェクトOA3とをワールド座標系内のそれ
ぞれの配置位置に配置するために、その配置位置の配置
座標データを導出する。この配置座標データは、表示プ
ログラム内に予め用意された例えばテーブルを参照する
ことで導出される。配置座標データは、ワールド座標系
における座標(X,Y,Z)形式のデータである。ま
た、CPU22は、各オブジェクトの姿勢を決定するた
めの回転角度データを配置座標データと同様に導出す
る。この回転角度データは、ローカル座標系における各
オブジェクトを、x,y,zの各軸周りにそれぞれ回転
させるための回転角度のデータである。例えば、回転角
度データが、オブジェクトOA1をy軸周りに45°、
x軸周りに45°、z軸周りに30°回転させるための
データである場合には、基準の姿勢であるローカル座標
系のオブジェクトOA1が、そのy軸周りに45°回転
され、次に、そのx軸周りに45°回転され、さらに、
そのz軸周りに30°回転される。その結果、ローカル
座標系において、y軸周りに45°、x軸周りに45
°、z軸周りに30°に傾いた姿勢のオブジェクトOA
1が、上述した配置座標データで指示されたワールド座
標系内の座標に配置される。なお、ステップT31は、
新たなコマンドが受信された場合にだけ実行され、新た
なコマンドが受信されることなく、ステップT3が繰り
返し実行される場合には、後述するステップT32〜T
35が繰り返し実行される。
Step T31 (Place Object) As shown in FIG. 10A, the CPU 22 sets an object OA1 corresponding to the left identification symbol A1 and a middle identification symbol A2.
In order to arrange the object OA2 corresponding to the object identification number OA2 and the object OA3 corresponding to the right identification symbol A3 at the respective arrangement positions in the world coordinate system, arrangement coordinate data of the arrangement positions is derived. This arrangement coordinate data is derived by referring to, for example, a table prepared in advance in the display program. The arrangement coordinate data is data in a coordinate (X, Y, Z) format in the world coordinate system. Further, the CPU 22 derives rotation angle data for determining the orientation of each object in the same manner as the arrangement coordinate data. The rotation angle data is rotation angle data for rotating each object in the local coordinate system around each of the x, y, and z axes. For example, the rotation angle data indicates that the object OA1 is 45 ° around the y axis,
If the data is to rotate 45 ° around the x-axis and 30 ° around the z-axis, the object OA1 in the local coordinate system, which is the reference posture, is rotated 45 ° around its y-axis. Rotated 45 degrees around its x axis,
It is rotated 30 ° about its z-axis. As a result, in the local coordinate system, 45 ° around the y axis and 45 ° around the x axis.
Object OA tilted at 30 ° around ° and z axes
1 is arranged at the coordinates in the world coordinate system specified by the above-described arrangement coordinate data. Step T31 includes:
It is executed only when a new command is received, and when Step T3 is repeatedly executed without receiving a new command, Steps T32 to T
35 is repeatedly executed.

【0050】ステップT32(オブジェクトの配置位置
を更新) CPU22は、ワールド座標系における各オブジェクト
の配置位置を更新する。具体的には、CPU22は、表
示プログラム内に予め用意された例えばテーブルを参照
したり、演算式を演算処理することによって、各オブジ
ェクトOA1〜OA3の新たな配置位置の配置座標デー
タを導出する。演算式を利用する場合には、現在の配置
位置の配置座標データに所定値を加算又は減算するよう
にして、新たな配置位置の配置座標データを順次算出す
る。このようにして、配置位置の配置座標データを順次
更新することにより、ワールド座標系において、各オブ
ジェクトOA1〜OA3を移動させることができる。な
お、本実施例では、説明の便宜のために、各オブジェク
トOA1〜OA3の配置座標データを同一の値に維持し
て、各オブジェクトOA1〜OA3をワールド座標系内
で停止させた状態とする。
Step T32 (Update the Arrangement Position of Objects) The CPU 22 updates the arrangement position of each object in the world coordinate system. Specifically, the CPU 22 derives arrangement coordinate data of a new arrangement position of each of the objects OA1 to OA3 by referring to, for example, a table prepared in advance in the display program, or by performing an arithmetic operation on an arithmetic expression. When an arithmetic expression is used, a predetermined value is added to or subtracted from the arrangement coordinate data of the current arrangement position, and the arrangement coordinate data of a new arrangement position is sequentially calculated. Thus, by sequentially updating the arrangement coordinate data of the arrangement position, each object OA1 to OA3 can be moved in the world coordinate system. In the present embodiment, for the sake of convenience of description, the arrangement coordinate data of each of the objects OA1 to OA3 is maintained at the same value, and the objects OA1 to OA3 are stopped in the world coordinate system.

【0051】ステップT33(オブジェクトの回転角度
を更新) CPU22は、ローカル座標系における各オブジェクト
の回転角度を更新する。具体的には、CPU22は、表
示プログラム内に予め用意された例えばテーブルを参照
したり、演算式を演算処理することによって、各オブジ
ェクトOA1〜OA3の回転角度データを導出する。演
算式を利用する場合には、現在の回転角度データに含ま
れる各軸周りの回転角度に所定値を加算または減算する
ことにより、回転角度データを順次算出する。このよう
にして、回転角度データを順次更新し、その回転角度デ
ータに応じた姿勢の各オブジェクトOA1〜OA3を順
次配置することで、オブジェクトOA1〜OA3を自在
に回転させることができる。なお、本実施例では、説明
の便宜のために、各オブジェクトOA1〜OA3の回転
角度データを同一の値に維持して、各オブジェクトOA
1〜OA3をワールド座標系内で停止させた状態とす
る。
Step T33 (Update the Rotation Angle of the Object) The CPU 22 updates the rotation angle of each object in the local coordinate system. Specifically, the CPU 22 derives the rotation angle data of each of the objects OA1 to OA3 by referring to, for example, a table prepared in advance in the display program or by performing an arithmetic operation on an arithmetic expression. When an arithmetic expression is used, the rotation angle data is sequentially calculated by adding or subtracting a predetermined value to or from a rotation angle around each axis included in the current rotation angle data. In this way, by sequentially updating the rotation angle data and sequentially arranging the objects OA1 to OA3 having postures corresponding to the rotation angle data, the objects OA1 to OA3 can be freely rotated. In this embodiment, for convenience of explanation, the rotation angle data of each of the objects OA1 to OA3 is maintained at the same value,
1 to OA3 are stopped in the world coordinate system.

【0052】ステップT34(姿勢回転データを生成) CPU22は、ステップT34で導出された回転角度デ
ータに基づいて、オブジェクトを回転させるためにVD
P27に与える姿勢回転データを生成する。なお、回転
角度データは、ローカル座標系の各軸ごとの回転角度を
示す単なる角度のデータであるので、これらのデータ単
体では3次元の座標データを回転させることができな
い。そこで、回転角度データに基づいて、3次元の座標
データを回転可能にする行列形式の姿勢回転データを生
成する。
Step T34 (Generate Posture Rotation Data) Based on the rotation angle data derived in Step T34, the CPU 22 generates a VD for rotating the object.
Generate posture rotation data to be given to P27. Since the rotation angle data is merely angle data indicating a rotation angle for each axis of the local coordinate system, three-dimensional coordinate data cannot be rotated by itself. Therefore, based on the rotation angle data, posture rotation data in a matrix format that enables rotation of the three-dimensional coordinate data is generated.

【0053】ここで、回転角度データには、オブジェク
トをy軸周りにθy °、x軸周りにθx °、z軸周りに
θz °回転させるための回転角度であるので、各軸周り
の回転角度ごとに回転行列が求められる。そこで、行列
(1)にy軸周りの回転を示すy軸回転行列を、行列
(2)にx軸周りの回転を示すx軸回転行列を、行列
(3)にz軸周りの回転を示すz軸回転行列をそれぞれ
示す。
Here, the rotation angle data is a rotation angle for rotating the object by θ y ° around the y axis, θ x ° around the x axis, and θ z ° around the z axis. A rotation matrix is obtained for each rotation angle of. Therefore, matrix (1) shows a y-axis rotation matrix showing rotation about the y-axis, matrix (2) shows an x-axis rotation matrix showing rotation about the x-axis, and matrix (3) shows rotation about the z-axis. Each shows a z-axis rotation matrix.

【0054】[0054]

【数1】 (Equation 1)

【0055】[0055]

【数2】 (Equation 2)

【0056】[0056]

【数3】 (Equation 3)

【0057】各回転行列(1)〜(3)を乗算すること
で、全回転行列を求める。この全回転行列を行列(4)
に示す。
The total rotation matrix is obtained by multiplying each of the rotation matrices (1) to (3). Matrix (4)
Shown in

【0058】[0058]

【数4】 (Equation 4)

【0059】CPU22は、回転角度データに含まれる
各軸周りの回転角度(θx ,θy z )を、全回転行
例の各角度要素(Cosθx 等)に代入して、3×3の
回転行列形式の姿勢回転データを生成する。
The CPU 22 substitutes the rotation angles (θ x , θ y , θ z ) around the respective axes contained in the rotation angle data into the respective angle elements (Cos θ x, etc.) of all the rotation rows, thereby obtaining 3 × 3 is generated.

【0060】ステップT35(データをワークRAMに
書き込む) CPU22は、ワールド座標系に配置する各オブジェク
トのモデルデータが記憶されたキャラクタROM29内
の格納アドレスと、各モデルデータに含まれる各ポリゴ
ンに貼付けるテクスチャデータが記憶されたキャラクタ
ROM29内の格納アドレスと、ワールド座標系におけ
る各オブジェクトの配置位置の配置座標データおよび姿
勢回転データとをワークRAM25に書き込む。
Step T35 (Write Data to Work RAM) The CPU 22 pastes the storage address in the character ROM 29 where the model data of each object to be arranged in the world coordinate system is stored, and the polygon included in each model data. The storage address in the character ROM 29 where the texture data is stored, the arrangement coordinate data of the arrangement position of each object in the world coordinate system, and the posture rotation data are written in the work RAM 25.

【0061】ステップT4(背景を設定) CPU22は、ワールド座標系内における視点ととも
に、その視点に基づく視線方向を設定し、その視点を中
心として視線方向を回転させる。このときの視線方向の
回転角度に基づいて、画面4aに表示される背景Baが
移動するように表示するためのデータをワークRAM2
5内に書き込む。以下、ステップT4で行われる処理に
ついて、図7に示すフローチャートを参照しながら説明
する。
Step T4 (Setting a Background) The CPU 22 sets a viewpoint in the world coordinate system and a line of sight based on the viewpoint, and rotates the line of sight around the viewpoint. The work RAM 2 stores data for displaying the background Ba displayed on the screen 4a so as to move based on the rotation angle of the line of sight at this time.
Write in 5. Hereinafter, the processing performed in step T4 will be described with reference to the flowchart shown in FIG.

【0062】ステップT41(視点および視線方向の設
定) CPU22は、図10(a)に示すように、ワールド座
標系内に視点SPを設定し、その視点SPから各オブジ
ェクトOA1〜OA3へ向いた例えばz軸を視線方向と
する視線座標系を設定する。具体的には、CPU22
は、表示プログラムを実行することで、ワールド座標系
における視点SPを設定するための座標である視点座標
データを導出する。この視点座標データは、ワールド座
標系における座標(X,Y,Z)形式のデータである。
また、CPU22は、視点SPを中心とするz軸を視線
方向とする視線座標系を設定し、その視線方向を各オブ
ジェクトOA1〜OA3へ向けるための回転角度データ
を導出する。この視線方向の回転角度データは、視線座
標系におけるz軸である視線方向を、その視線座標系の
x,y,z軸の各軸周りにそれぞれ回転させるための回
転角度のデータである。
Step T41 (Setting of Viewpoint and Viewing Direction) As shown in FIG. 10A, the CPU 22 sets a viewpoint SP in the world coordinate system, and moves from the viewpoint SP to each of the objects OA1 to OA3. A line-of-sight coordinate system that sets the z-axis as the line-of-sight direction is set. Specifically, the CPU 22
Derives viewpoint coordinate data which is coordinates for setting the viewpoint SP in the world coordinate system by executing a display program. The viewpoint coordinate data is data in a coordinate (X, Y, Z) format in the world coordinate system.
Further, the CPU 22 sets a line-of-sight coordinate system in which the line of sight is the z-axis centered on the viewpoint SP, and derives rotation angle data for directing the line-of-sight direction to each of the objects OA1 to OA3. The rotation angle data of the line-of-sight direction is rotation angle data for rotating the line-of-sight direction, which is the z-axis in the line-of-sight coordinate system, around each of the x, y, and z axes of the line-of-sight coordinate system.

【0063】ステップT42(背景画像上に表示領域を
設定) CPU22は、画面4aに相当する領域である表示領域
を、キャラクタROM29に記憶された背景画像上に設
定する。具体的には、図11(a)に示すように、CP
U22は、表示プログラムの実行によって、2次元の背
景画像データである背景画像B上の2次元の表示基準点
P1の座標(Δx,Δy)を導出し、その表示基準点P
1を頂点として含む矩形の表示領域BFを設定する。
(Δx,Δy)は、背景画像Bの左上角を原点とした場
合の表示基準点P1の初期の座標データである。なお、
ステップT41,42は、新たなコマンドが受信された
場合に実行され、新たなコマンドを受信されることな
く、ステップT4が繰り返し実行される場合には、後述
するステップT43〜T47が繰り返し実行される。
Step T42 (Setting Display Area on Background Image) The CPU 22 sets a display area corresponding to the screen 4a on the background image stored in the character ROM 29. Specifically, as shown in FIG.
U22 derives the coordinates (Δx, Δy) of the two-dimensional display reference point P1 on the background image B, which is two-dimensional background image data, by executing the display program.
A rectangular display area BF including 1 as a vertex is set.
(Δx, Δy) is initial coordinate data of the display reference point P1 when the origin is the upper left corner of the background image B. In addition,
Steps T41 and T42 are executed when a new command is received. When step T4 is repeatedly executed without receiving a new command, steps T43 to T47 described later are repeatedly executed. .

【0064】ステップT43(視線方向の回転角度を更
新) CPU22は、視線方向の回転角度を更新する。具体的
には、CPU22は、表示プログラム内に予め用意され
た例えばテーブルを参照したり、演算式を演算処理する
ことによって、視線方向の回転角度データを導出する。
演算式を利用する場合には、最新の回転角度データに含
まれる各軸周りの回転角度に所定値を加算または減算す
ることにより、視線方向の回転角度データを順次算出す
る。
Step T43 (Update the rotation angle in the line of sight) The CPU 22 updates the rotation angle in the line of sight. Specifically, the CPU 22 derives the rotation angle data in the line-of-sight direction by referring to, for example, a table prepared in advance in the display program or performing arithmetic processing on an arithmetic expression.
When an arithmetic expression is used, the rotation angle data in the line-of-sight direction is sequentially calculated by adding or subtracting a predetermined value to or from the rotation angle around each axis included in the latest rotation angle data.

【0065】ステップT44(視線回転データを生成) CPU22は、ステップT43で導出された視線方向の
回転角度データに基づいて、視線座標系を回転させるた
めにVDP27に与える視線回転データを生成する。な
お、視線方向の回転角度データは、視線座標系における
各軸ごとの単なる角度のデータであるので、これらのデ
ータ単体では視線座標系を回転させることができない。
そこで、視線座標系の視線方向であるz軸の単位ベクト
ル(0,0,1)に作用させるための行列形式の視線回
転データを、視線方向の回転角度データに基づいて生成
する。視線回転データは、上述したステップT34で求
められた全回転行列(4)に含まれる各角度要素(Co
sθx 等)に、視線方向の回転角度データに含まれる各
軸周りの回転角度(θx ,θy , θz )を代入すること
により生成する。
Step T44 (Generate Line-of-Sight Rotation Data) The CPU 22 generates line-of-sight rotation data to be given to the VDP 27 to rotate the line-of-sight coordinate system based on the rotation angle data of the line-of-sight direction derived in step T43. Note that the rotation angle data of the line-of-sight direction is simply data of an angle for each axis in the line-of-sight coordinate system, so that the line-of-sight coordinate system cannot be rotated by itself.
Therefore, line-of-sight rotation data in a matrix format for acting on a unit vector (0, 0, 1) on the z-axis, which is the line-of-sight direction in the line-of-sight coordinate system, is generated based on the rotation angle data in the line-of-sight direction. The line-of-sight rotation data is obtained from each angle element (Co) included in the total rotation matrix (4) obtained in step T34 described above.
the S.theta x, etc.), the rotational angle (theta x around each axis included in the rotation angle data of the sight line direction, theta y, is generated by substituting the theta z).

【0066】上述した全回転行列(4)を視線座標系に
おけるz軸の単位ベクトルに乗じることで、視線方向を
自在に回転させることができる。例えば、視線座標系の
y軸周りにθy 度だけ回転させるための視線回転データ
を、視線座標系におけるz軸の単位ベクトルに乗じるこ
とで、図10(b)に示すように、視線方向をy軸周り
にθy 度だけ回転させることができる。また、視線方向
の回転に伴って、視界範囲TMが左に移動する。
The line-of-sight direction can be freely rotated by multiplying the above-described full rotation matrix (4) by the unit vector of the z-axis in the line-of-sight coordinate system. For example, by multiplying the line-of-sight rotation data for rotating about the y-axis of the line-of-sight coordinate system by θ y degrees with the unit vector of the z-axis in the line-of-sight coordinate system, as shown in FIG. It can be rotated about the y-axis by θ y degrees. Further, with the rotation in the line-of-sight direction, the field of view range TM moves to the left.

【0067】ステップT45(回転角度に基づいて表示
領域の移動量を算出) CPU22は、視線方向の回転角度データに含まれる各
軸周りの回転角度に基づいて、表示領域BFの移動量を
算出する。本実施例では、移動量として、表示基準点P
1の移動後の座標を算出する場合について説明する。例
えば、視線方向(z軸)を、x軸を回転軸として反時計
周り(または時計周り)にθx 度、y軸を回転軸として
反時計周り(または時計周り)にθy 度だけ回転する場
合には、移動後の表示基準点P1の座標は、以下の式で
算出される。ここで、背景画像Bは、横幅がDドット、
縦幅がHドットで構成されている。すなわち、(0,
0)〜(D,H)の範囲の2次元の座標系に背景画像が
展開されている。
Step T45 (Calculate the amount of movement of the display area based on the rotation angle) The CPU 22 calculates the amount of movement of the display area BF based on the rotation angles around each axis included in the rotation angle data in the line-of-sight direction. . In the present embodiment, the display reference point P
The case of calculating the coordinates after the movement of No. 1 will be described. For example, the line of sight (z axis) is rotated by θ x degrees counterclockwise (or clockwise) with the x axis as the rotation axis, and θ y degrees counterclockwise (or clockwise) with the y axis as the rotation axis. In this case, the coordinates of the display reference point P1 after the movement are calculated by the following equations. Here, the background image B has a width of D dots,
The vertical width is composed of H dots. That is, (0,
The background image is developed in a two-dimensional coordinate system ranging from (0) to (D, H).

【0068】 Bx=a×D×θy ÷360+Δx ・・・(1) By=b×Sinθx +Δy ・・・(2) Bx:表示基準点P1の移動後の背景画像B上のx座標 By:表示基準点P1の移動後の背景画像B上のy座標 Δx,Δy:移動前の表示基準点P1の座標 a,b:任意の定数Bx = a × D × θ y ÷ 360 + Δx (1) By = b × Sin θ x + Δy (2) Bx: x coordinate on background image B after movement of display reference point P1 : Y coordinate on background image B after movement of display reference point P1 Δx, Δy: coordinates of display reference point P1 before movement a, b: arbitrary constant

【0069】CPU22は、上述した式(1)および
(2)に、回転角度θx ,θy を代入することで、背景
画像B上を移動後の表示基準点P1の座標を算出する。
なお、任意の定数a,bの値を変化させると、表示領域
BKの移動量が変化する。したがって、任意の定数a,
bを大きくすると、画面4aにおける背景Baの移動量
が大きくなる(速く移動する)一方、任意の定数a,b
を小さくすると、背景Baの移動が小さくなる(遅く移
動する)ので、任意の定数a,bの値を変化させること
によって、より臨場感のある表示態様を実現することが
できる。
The CPU 22 calculates the coordinates of the display reference point P1 after moving on the background image B by substituting the rotation angles θ x and θ y into the above equations (1) and (2).
When the values of the constants a and b are changed, the moving amount of the display area BK changes. Therefore, any constant a,
As b increases, the amount of movement of the background Ba on the screen 4a increases (moves faster), while arbitrary constants a and b
Is smaller, the movement of the background Ba is smaller (moves more slowly), so that a more realistic display mode can be realized by changing the values of the constants a and b.

【0070】ステップT46(表示領域を移動) CPU22は、移動後の表示基準点P1を頂点として含
む矩形の表示領域BFを再度設定する。これにより、図
11(b)に示すように、表示領域BFが背景画像B上
を移動する。
Step T46 (moving the display area) The CPU 22 sets again the rectangular display area BF including the moved display reference point P1 as a vertex. This causes the display area BF to move on the background image B as shown in FIG.

【0071】ステップT47(データをワークRAMに
書き込む) CPU22は、視点SPの視点座標データおよび視線回
転データと、背景画像B上における表示基準位置P1の
座標に相当するキャラクタROM29内の格納アドレス
とをワークRAM25に書き込む。したがって、液晶モ
ニタ4の画面4aに表示される背景Baの模様が表示領
域BFの移動方向とは逆方向に移動するように表示され
る。
Step T47 (write data to work RAM) The CPU 22 stores the viewpoint coordinate data and the line-of-sight rotation data of the viewpoint SP, and the storage address in the character ROM 29 corresponding to the coordinates of the display reference position P1 on the background image B. Write to the work RAM 25. Therefore, the background Ba pattern displayed on the screen 4a of the liquid crystal monitor 4 is displayed so as to move in a direction opposite to the moving direction of the display area BF.

【0072】ステップT5(割り込み発生?) CPU22は、例えば液晶モニタ4の垂直走査信号(例
えば1/60秒)ごとに行われる割り込みを待ち、割り
込みが発生するとステップT6に移行する。なお、ステ
ップT5では、垂直走査信号(例えば1/60秒)ごと
の割り込みによりステップT6に移行するようにした
が、3次元の画像を比較的低速なCPUで扱う場合に
は、例えば、垂直走査信号が2回発生するごと(例えば
1/30秒)ごとにステップT6に移行するように構成
することが好ましい。
Step T5 (Interruption Occurred?) The CPU 22 waits for an interrupt performed, for example, every vertical scanning signal (for example, 1/60 second) of the liquid crystal monitor 4, and when an interrupt occurs, the CPU 22 proceeds to Step T6. In step T5, the process shifts to step T6 by interruption every vertical scanning signal (for example, 1/60 second). However, when a three-dimensional image is handled by a relatively low-speed CPU, for example, vertical scanning is performed. It is preferable that the process shifts to step T6 every time a signal is generated twice (for example, every 1/30 second).

【0073】ステップT6(データをDMA転送) CPU22は、DMA26にワークRAM25内に記憶
されたデータの転送を指示する。DMA26は、その指
示によってワークRAM25内のデータをVDP27に
一括して送信する。具体的には、ワークRAM25から
転送されるデータには、上述したワールド座標系に配置
する各オブジェクトのモデルデータが記憶されたキャラ
クタROM29内の格納アドレスと、各モデルデータに
含まれる各ポリゴンに貼付けるテクスチャデータが記憶
されたキャラクタROM29内の格納アドレスと、ワー
ルド座標系における各オブジェクトの配置位置の配置座
標データおよび姿勢回転データと、視点SPの視点座標
データおよび視線回転データと、背景画像B上における
表示基準位置P1の座標に相当するキャラクタROM2
9内の格納アドレスとが含まれる。
Step T6 (DMA Transfer of Data) The CPU 22 instructs the DMA 26 to transfer the data stored in the work RAM 25. The DMA 26 collectively transmits the data in the work RAM 25 to the VDP 27 according to the instruction. Specifically, the data transferred from the work RAM 25 includes a storage address in the character ROM 29 where model data of each object to be arranged in the above-described world coordinate system is stored, and a paste to each polygon included in each model data. Addresses stored in the character ROM 29 in which texture data is stored, arrangement coordinate data and orientation rotation data of the arrangement position of each object in the world coordinate system, viewpoint coordinate data and viewpoint rotation data of the viewpoint SP, and Character ROM2 corresponding to the coordinates of the display reference position P1 in
9 is included.

【0074】ステップT7(新たなコマンドを受信?) CPU22は、ワークRAM25内のコマンドバッファ
を把握して、新たなコマンドを受信していれば、ステッ
プT2に移行する一方、新たなコマンドを受信していな
ければ、ステップT3に移行する。
Step T7 (Reception of New Command?) The CPU 22 grasps the command buffer in the work RAM 25, and if a new command has been received, proceeds to step T2 while receiving a new command. If not, the process proceeds to step T3.

【0075】次に、図8を参照しながら、VDP27側
での処理について説明する。 ステップU1(データを受信?) VDP27は、ワークRAM25内のデータの受信を待
ち、データの受信があると、ステップU2に移行する。
Next, processing on the VDP 27 side will be described with reference to FIG. Step U1 (Receive Data?) The VDP 27 waits for reception of data in the work RAM 25, and upon receiving data, shifts to step U2.

【0076】ステップU2(表示領域内の背景画像デー
タの読み出し) VDP27は、表示基準点P1の座標に相当するキャラ
クタROM29内の格納アドレスのデータに基づいて、
背景画像B上の表示領域BF内に含まれる背景画像デー
タだけをキャラクタROM29内から読み出す。
Step U2 (Reading of Background Image Data in Display Area) The VDP 27 calculates the background image data based on the data of the storage address in the character ROM 29 corresponding to the coordinates of the display reference point P1.
Only the background image data included in the display area BF on the background image B is read from the character ROM 29.

【0077】ステップU3(フレームメモリに背景を描
画) VDP27は、キャラクタROM29内から読み出した
背景画像データに基づいて、ビデオRAM30の第1フ
レームメモリ30aまたは第2フレームメモリ30b内
に背景画像を描画する。したがって、ワールド座標系に
配置したオブジェクトに背景画像のテクスチャを貼付け
る場合に比べて、キャラクタROM29内に記憶された
背景画像Bの模様が縮小されることなく略同等の大きさ
で描画される。
Step U3 (Draw Background in Frame Memory) The VDP 27 draws a background image in the first frame memory 30a or the second frame memory 30b of the video RAM 30 based on the background image data read from the character ROM 29. . Therefore, the pattern of the background image B stored in the character ROM 29 is drawn in substantially the same size without being reduced as compared with the case where the texture of the background image is pasted on the object arranged in the world coordinate system.

【0078】ステップU4(モデルデータの読み出し
?) VDP27は、受信したキャラクタRAM29内のモデ
ルデータの格納アドレスに基づいて、ワールド座標系に
配置するオブジェクトのモデルデータを読み出す。
Step U4 (Read Model Data?) The VDP 27 reads the model data of the object arranged in the world coordinate system based on the received storage address of the model data in the character RAM 29.

【0079】ステップU5(各ポリゴンを回転させて、
ワールド座標系にオブジェクトを配置) VDP27は、モデルデータに含まれる各ポリゴンの頂
点の座標データに受信した姿勢回転データを乗じて、回
転後の各頂点の座標データを算出する。具体的には、回
転後の座標(X’,Y’,Z’)は、回転前の座標
(X’,Y’,Z’)×(上述した3×3の回転行列形
式の姿勢回転データ)で求められ、この式を用いた演算
をモデルデータに含まれる全ポリゴンの頂点に対して行
う。これにより、オブジェクトが回転した状態のモデル
データが得られる。VDP27は、オブジェクトの配置
位置の配置座標データと、回転後のモデルデータとに基
づいて、そのオブジェクトをワールド座標系に配置す
る。つまり、オブジェクトのモデルデータに含まれる各
ポリゴンのローカル座標系の座標データをワールド座標
系の座標データに変換する。なお、本実施例では、各オ
ブジェクトを回転させていなので、各オブジェクトが回
転することなく、ローカル座標系のオブジェクトの座標
データがワールド座標系の座標データに単に変換され
る。
Step U5 (rotating each polygon,
The VDP 27 calculates the coordinate data of each vertex after rotation by multiplying the coordinate data of the vertex of each polygon included in the model data by the received attitude rotation data. Specifically, the coordinates (X ′, Y ′, Z ′) after rotation are the coordinates (X ′, Y ′, Z ′) before rotation × (the above-described posture rotation data in the 3 × 3 rotation matrix format). ), And the calculation using this equation is performed on the vertices of all the polygons included in the model data. Thereby, model data in a state where the object is rotated is obtained. The VDP 27 arranges the object on the world coordinate system based on the arrangement coordinate data of the arrangement position of the object and the rotated model data. That is, the coordinate data in the local coordinate system of each polygon included in the model data of the object is converted into the coordinate data in the world coordinate system. In this embodiment, since each object is rotated, the coordinate data of the object in the local coordinate system is simply converted to the coordinate data in the world coordinate system without rotating each object.

【0080】ステップU6(スクリーン座標系に投影) VDP27は、図10に示すように、ワールド座標系の
各オブジェクトを視点SPを基準とした視線座標系に変
換する。ここでは、ワールド座標系における各オブジェ
クトのモデルデータに含まれる各ポリゴンの座標データ
を視線座標系の座標データに変換する。さらに、その視
線座標系における各オブジェクトを、視線座標系の視線
方向(z軸)に垂直に設定されたスクリーン座標系であ
る投影平面SCに透視投影する。投影平面SCは、画面
4aに表示するための座標系であり、視界範囲TM内に
含まれる各オブジェクトが投影される。ここでは、視線
座標系の各オブジェクトの各ポリゴンの座標データを、
スクリーン座標系の2次元の座標データに変換する。
Step U6 (Projection to Screen Coordinate System) The VDP 27 converts each object in the world coordinate system into a line-of-sight coordinate system based on the viewpoint SP, as shown in FIG. Here, the coordinate data of each polygon included in the model data of each object in the world coordinate system is converted into the coordinate data of the line-of-sight coordinate system. Further, each object in the line-of-sight coordinate system is perspectively projected on a projection plane SC which is a screen coordinate system set perpendicular to the line-of-sight direction (z-axis) of the line-of-sight coordinate system. The projection plane SC is a coordinate system for displaying on the screen 4a, and each object included in the view range TM is projected. Here, the coordinate data of each polygon of each object in the line of sight
It is converted into two-dimensional coordinate data of a screen coordinate system.

【0081】ステップU7(テクスチャデータの読み出
し) VDP27は、受信したキャラクタRAM29内の格納
アドレスに基づいて、各オブジェクトのモデルデータに
含まれるポリゴンに貼付けるテクスチャデータを読み出
す。
Step U7 (Reading of Texture Data) The VDP 27 reads the texture data to be attached to the polygon included in the model data of each object based on the received storage address in the character RAM 29.

【0082】ステップU8(テクスチャデータの貼付
け) VDP27は、投影平面SC上に投影されたオブジェク
トのポリゴンの形状に合わせて、テクスチャデータを変
形させた後に、そのテクスチャデータをポリゴンに貼付
ける。すなわち、VDP27は、投影平面SCに相当す
る背景画像が描画されたフレームメモリに対して、テク
スチャの描画を行う。その結果、第1フレームメモリ3
0aまたは第2フレームメモリ30b内には、背景画像
上に各オブジェクトが描画された視野画像が生成され
る。
Step U8 (Paste of Texture Data) The VDP 27 deforms the texture data in accordance with the shape of the polygon of the object projected on the projection plane SC, and then pastes the texture data to the polygon. That is, the VDP 27 draws the texture in the frame memory in which the background image corresponding to the projection plane SC is drawn. As a result, the first frame memory 3
A field-of-view image in which each object is drawn on a background image is generated in 0a or the second frame memory 30b.

【0083】ステップU9(割り込み発生?) VDP27は、例えば液晶モニタ4の垂直走査信号(例
えば1/60秒)ごとに行われる割り込みを待ち、割り
込みが発生すると、ビデオRAM30内のフレームメモ
リ内に記憶した視野画像を液晶モニタ4に出力する。
Step U9 (Interruption Occurred?) The VDP 27 waits for an interrupt performed, for example, every vertical scanning signal (for example, 1/60 second) of the liquid crystal monitor 4, and when the interrupt occurs, stores it in the frame memory of the video RAM 30. The obtained visual field image is output to the liquid crystal monitor 4.

【0084】ステップU10(表示) 液晶モニタ4は、VDP27から出力される視野画像を
順次表示することで、図9に示したように、オブジェク
トの画像である識別図柄とともに背景Baが、画面4a
内を左方向へ移動する様子を表示する。
Step U10 (Display) The liquid crystal monitor 4 sequentially displays the visual field images output from the VDP 27, and as shown in FIG. 9, the background Ba together with the identification pattern which is the image of the object is displayed on the screen 4a.
It shows how to move to the left inside.

【0085】上述した遊技機の画像表示装置2によれ
ば、仮想3次元空間(ワールド座標系)に配置したオブ
ジェクトを利用することなく、キャラクタROM29に
記憶された背景画像に基づいた背景を画面4aに表示し
ているので、背景の模様をそのままの大きさで表示でき
るとともに、いわゆるジオメトリ演算処理を減らすこと
ができる。その結果、表示プログラムをプログラムした
者のイメージ通りに背景を表示させることができ、さら
に、画像表示装置2全体として処理を高速化させること
ができる。また、視線方向の回転角度に基づいて画面4
aにおける背景を移動させるので、よりリアルな表示を
実現できる。さらに、画面4aにおける背景の移動量を
変化させることもできるので、臨場感のある表示態様を
実現することができる。その結果、この画像表示装置を
備えた遊技機を遊技する遊技者は、よりリアルな表示態
様を見ることができるので、遊技者の面白味を永続させ
ることができる。
According to the image display device 2 of the gaming machine described above, the background based on the background image stored in the character ROM 29 is displayed on the screen 4a without using the object arranged in the virtual three-dimensional space (world coordinate system). , The background pattern can be displayed in the same size, and the so-called geometry calculation processing can be reduced. As a result, the background can be displayed according to the image of the person who programmed the display program, and the processing speed of the entire image display device 2 can be increased. Also, based on the rotation angle of the line of sight, the screen 4
Since the background in a is moved, more realistic display can be realized. Further, the amount of movement of the background on the screen 4a can be changed, so that a realistic display mode can be realized. As a result, the player playing the gaming machine equipped with the image display device can see a more realistic display mode, and can keep the player's interest perpetual.

【0086】なお、上記実施例では、キャラクタROM
29に記憶された背景画像Bは、その左右両側の模様が
連続するように描かれた円筒状の画像であったが、例え
ば、背景画像Bは、その上下両側および左右両側の模様
が連続するように描かれた球状の画像としてもよい。そ
の場合には、表示領域BFの表示基準点P1の移動後の
座標を以下の演算式によって求める。
In the above embodiment, the character ROM
The background image B stored in the memory 29 is a cylindrical image in which the patterns on the left and right sides are drawn continuously. For example, in the background image B, the patterns on the upper and lower sides and left and right sides are continuous. It may be a spherical image drawn as described above. In that case, the coordinates after the movement of the display reference point P1 of the display area BF are obtained by the following arithmetic expressions.

【0087】 Bx=a×D×θy ÷360+Δx ・・・(1) By=b×H×θx ÷360+Δy ・・・(3)Bx = a × D × θ y 60360 + Δx (1) By = b × H × θ x ÷ 360 + Δy (3)

【0088】式(1),(3)によって、球状になるよ
うに構成された背景画像B上の表示領域BFの移動量表
示基準点P1の移動後の座標を算出することができる。
このように構成すれば、画面4aにおいて、上下左右に
切れ目の無い背景を表示させることができる。
The coordinates after movement of the movement reference point P1 of the display area BF on the spherical background image B can be calculated by the equations (1) and (3).
With this configuration, it is possible to display a seamless background vertically, horizontally, and horizontally on the screen 4a.

【0089】また、遊技機としてパチンコ機について説
明したが、本発明はこれに限定されるものではなく、例
えばアケードゲーム機、家庭用ビデオゲーム機、メダル
遊技機などの各種の遊技機に変形実施することができ
る。この場合には、制御基盤1からのコマンドを、例え
ばコントローラからの入力信号に置き換えて、その入力
信号に応じた表示を行う表示プログラムを実行するよう
にすればよい。
Although the pachinko machine has been described as a gaming machine, the present invention is not limited to this. For example, the present invention is applied to various gaming machines such as arcade game machines, home video game machines, and medal game machines. can do. In this case, a command from the control board 1 may be replaced with, for example, an input signal from the controller, and a display program for performing display according to the input signal may be executed.

【0090】[0090]

【発明の効果】以上の説明から明らかなように、本発明
によれば、仮想3次元空間内に設定されたオブジェクト
を利用することなく背景を表示することができるので、
仮想3次元空間内に配置したオブジェクトによって背景
を表示する場合に比べて、背景画像をよりリアルに表示
することができるとともに、画像表示装置における処理
を高速化することができる。
As is apparent from the above description, according to the present invention, a background can be displayed without using an object set in a virtual three-dimensional space.
Compared to the case where the background is displayed by the objects arranged in the virtual three-dimensional space, the background image can be displayed more realistically, and the processing in the image display device can be sped up.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例に係るパチンコ機の概略構成を示す外観
図である。
FIG. 1 is an external view showing a schematic configuration of a pachinko machine according to an embodiment.

【図2】実施例に係るパチンコ機のブロック図である。FIG. 2 is a block diagram of the pachinko machine according to the embodiment.

【図3】パチンコ機の制御基盤の処理を示すフローチャ
ートである。
FIG. 3 is a flowchart showing processing of a control board of the pachinko machine.

【図4】画像表示装置におけるVDPの機能ブロック図
である。
FIG. 4 is a functional block diagram of a VDP in the image display device.

【図5】画像表示装置のCPUで行われる処理を示すフ
ローチャートである。
FIG. 5 is a flowchart illustrating a process performed by a CPU of the image display device.

【図6】ステップT3での処理を示すフローチャートで
ある。
FIG. 6 is a flowchart showing a process in step T3.

【図7】ステップT4での処理を示すフローチャートで
ある。
FIG. 7 is a flowchart showing a process in step T4.

【図8】画像表示装置のVDPで行われる処理を示すフ
ローチャートである。
FIG. 8 is a flowchart illustrating a process performed by the VDP of the image display device.

【図9】画像表示装置に表示される画面の様子を示す図
である。
FIG. 9 is a diagram illustrating a state of a screen displayed on the image display device.

【図10】ワールド座標系にオブジェクトを配置した様
子を示す図である。
FIG. 10 is a diagram illustrating a state where an object is arranged in a world coordinate system.

【図11】背景画像上に表示領域を設定した様子を示す
図である。
FIG. 11 is a diagram showing a state where a display area is set on a background image.

【図12】従来例の背景画像を示す図である。FIG. 12 is a diagram showing a background image of a conventional example.

【図13】従来例のワールド座標系にオブジェクトを配
置した様子を示す図である。
FIG. 13 is a diagram illustrating a state in which objects are arranged in a world coordinate system in a conventional example.

【図14】従来例の画面の様子を示す図である。FIG. 14 is a diagram showing a state of a screen of a conventional example.

【符号の説明】[Explanation of symbols]

1 … 制御基盤 2 … 画像表示装置 4 … 液晶モニタ 4a… 画面 22 … CPU 24 … プログラムROM 25 … ワークRAM 26 … DMA 27 … VDP 29 … キャラクタROM 30 … ビデオRAM DESCRIPTION OF SYMBOLS 1 ... Control board 2 ... Image display device 4 ... Liquid crystal monitor 4a ... Screen 22 ... CPU 24 ... Program ROM 25 ... Work RAM 26 ... DMA 27 ... VDP 29 ... Character ROM 30 ... Video RAM

───────────────────────────────────────────────────── フロントページの続き (72)発明者 牧野 剛太 石川県松任市福留町655番地 アイレムソ フトウェアエンジニアリング株式会社内 Fターム(参考) 2C001 AA00 AA02 AA13 BA00 BA01 BA05 BB00 BB03 BB06 BD00 BD06 CB01 CC03 2C088 AA34 AA35 AA36 EB55 5B050 AA10 BA09 EA12 EA19 EA27 EA28 EA30 FA02  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Gota Makino 655 Fukudome-cho, Matsuto City, Ishikawa Pref. AA36 EB55 5B050 AA10 BA09 EA12 EA19 EA27 EA28 EA30 FA02

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 複数のポリゴンで形成されたオブジェク
トと、前記オブジェクトの各ポリゴンに貼付ける模様が
描かれたテクスチャとを少なくとも記憶する記憶手段
と、前記記憶手段に記憶されたオブジェクトを仮想3次
元空間内に設定するオブジェクト設定手段と、前記仮想
3次元空間内の所与の視点に基づく視線方向を前記視点
を中心に回転させる視線回転手段と、前記回転された視
線方向を基準とする2次元の投影平面を設定し、その投
影平面に前記オブジェクトを投影する投影手段と、前記
投影平面に投影されたオブジェクトの各ポリゴンに前記
記憶手段に記憶されたテクスチャを貼付けた視野画像
を、前記投影平面に相当する画像生成領域内に生成する
視野画像生成手段と、前記画像生成領域内の視野画像を
表示手段に出力して、前記視線方向の回転に伴う前記仮
想3次元空間内の様子を表示する表示出力手段とを備え
た画像表示装置において、 前記記憶手段は、さらに、前記視野画像におけるオブジ
ェクトの背面側に表示される背景画像を記憶しており、 前記視野画像を生成する前の前記画像生成領域内に、前
記記憶手段に記憶された背景画像を設定する背景画像設
定手段を備えたことを特徴とする画像表示装置。
1. A storage unit for storing at least an object formed by a plurality of polygons and a texture in which a pattern to be pasted on each polygon of the object is drawn, and a virtual three-dimensional object stored in the storage unit. Object setting means for setting in a space, gaze rotation means for rotating a gaze direction based on a given viewpoint in the virtual three-dimensional space around the viewpoint, and two-dimensional with respect to the rotated gaze direction Projecting means for projecting the object on the projection plane, and a field-of-view image obtained by pasting the texture stored in the storage means on each polygon of the object projected on the projection plane. A visual field image generating means for generating a visual field image in the image generating area corresponding to A display output unit configured to display a state in the virtual three-dimensional space with the rotation of the line of sight, wherein the storage unit further includes a background displayed on the back side of the object in the view image. An image display device that stores an image, and further includes a background image setting unit that sets a background image stored in the storage unit in the image generation area before generating the visual field image.
JP11094667A 1999-04-01 1999-04-01 Picture display device Pending JP2000293708A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11094667A JP2000293708A (en) 1999-04-01 1999-04-01 Picture display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11094667A JP2000293708A (en) 1999-04-01 1999-04-01 Picture display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002374656A Division JP2003203246A (en) 2002-12-25 2002-12-25 Image display device

Publications (1)

Publication Number Publication Date
JP2000293708A true JP2000293708A (en) 2000-10-20

Family

ID=14116606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11094667A Pending JP2000293708A (en) 1999-04-01 1999-04-01 Picture display device

Country Status (1)

Country Link
JP (1) JP2000293708A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239150A (en) * 2001-02-19 2002-08-27 Heiwa Corp Game machine
JP2002346106A (en) * 2001-05-29 2002-12-03 Sanyo Product Co Ltd Game machine
JP2011087984A (en) * 2011-02-04 2011-05-06 Sanyo Product Co Ltd Game machine

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239150A (en) * 2001-02-19 2002-08-27 Heiwa Corp Game machine
JP2002346106A (en) * 2001-05-29 2002-12-03 Sanyo Product Co Ltd Game machine
JP2011087984A (en) * 2011-02-04 2011-05-06 Sanyo Product Co Ltd Game machine

Similar Documents

Publication Publication Date Title
JP4665292B2 (en) Game machine
JP4329154B2 (en) Game machine
JP2000325584A (en) Game machine
JP2000293708A (en) Picture display device
JP3618247B2 (en) Image display method and apparatus, and game machine
JP4665293B2 (en) Game machine
JP4507311B2 (en) Game machine
JP2000312749A (en) Game machine
JP4590662B2 (en) Game machine
JP4682398B2 (en) Game machine
JP3991517B2 (en) Game machine
JP4122983B2 (en) Game machine
JP2003203246A (en) Image display device
JP3767553B2 (en) Image display device
JP4998586B2 (en) Game machine
JP5300166B2 (en) Game machine
JP3770234B2 (en) Game machine
JP3733948B2 (en) Image display device
JP3997653B2 (en) Image display device
JP5003791B2 (en) Game machine
JP3991516B2 (en) Game machine
JP4655333B2 (en) Game machine
JP4682397B2 (en) Game machine
JP3975913B2 (en) Game machine
JP4475499B2 (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070717

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071211