JPH06238063A - Game cartridge and game device using this - Google Patents

Game cartridge and game device using this

Info

Publication number
JPH06238063A
JPH06238063A JP5055076A JP5507693A JPH06238063A JP H06238063 A JPH06238063 A JP H06238063A JP 5055076 A JP5055076 A JP 5055076A JP 5507693 A JP5507693 A JP 5507693A JP H06238063 A JPH06238063 A JP H06238063A
Authority
JP
Japan
Prior art keywords
texture
coordinates
information
vertex
perspective transformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5055076A
Other languages
Japanese (ja)
Inventor
Masami Onda
正己 恩田
Hiroyuki Murata
弘幸 村田
Takashi Yokota
隆 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP5055076A priority Critical patent/JPH06238063A/en
Publication of JPH06238063A publication Critical patent/JPH06238063A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To provide a game cartridge capable of expressing a fine and high quality image at real time with hardly changing a game machine body, and a game device using this. CONSTITUTION:A game cartridge 1 is formed in such a manner as to be attachable to and detachable from a game machine body 800. In a first memory part 780, the image constitution data for constituting a game space and a determined program data are stored. An auxiliary arithmetic processing part 710 reads the image constitution data and operates texture coordinate and luminance information, which are then stored in a field buffer part in a second memory part 790. Thereafter, this is read to form a pseudo three-dimensional image constitution data through a texture information memory part in the second memory part 790. This pseudo three-dimensional image constitution data is outputted to the game machine body 800, whereby a pseudo three-dimensional image subjected to texture mapping can be formed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、特に家庭用ビデオゲー
ム機に使用されるゲーム用カートリッジ及びこれを用い
たゲーム装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game cartridge used in a home video game machine, and a game machine using the same.

【0002】[0002]

【従来の技術】従来、家庭用ビデオゲーム機、ゲーム用
パーソナルコンピュータ等のゲーム装置としては、図2
8に示されるような構成のゲーム装置が使用されてい
る。このゲーム装置は、同図に示すように、ゲーム空間
を構成するプログラム等を記憶し画像情報を出力するゲ
ーム用カートリッジ500と、この画像情報を用いて実
際にテレビ、CRT等の表示装置518に表示する画像
を合成出力するゲーム機本体510とから構成されてい
る。そして、実際にプレーヤがゲームを行うには、この
ゲーム用カートリッジ500を、コネクタ506により
ゲーム機本体510に差込み接続して使用することとな
る。
2. Description of the Related Art Conventionally, as a game device such as a home video game machine or a game personal computer, FIG.
A game device having a configuration as shown in 8 is used. As shown in the figure, this game device is used for a game cartridge 500 that stores a program or the like that configures a game space and outputs image information, and a display device 518 such as a television or a CRT that actually uses this image information. The game machine main body 510 synthesizes and outputs the image to be displayed. Then, in order for the player to actually play the game, this game cartridge 500 is used by being inserted and connected to the game machine main body 510 by the connector 506.

【0003】ここで、ゲーム用カートリッジ500内に
は、プログラムROM502とキャラクタジェネレータ
504とが内蔵されている。
Here, the game cartridge 500 contains a program ROM 502 and a character generator 504.

【0004】プログラムROM502には、表示すべき
ゲーム画面を形成するためのゲームプログラムが記憶さ
れている。
The program ROM 502 stores a game program for forming a game screen to be displayed.

【0005】また、キャラクタジェネレータ504に
は、表示すべきキャラクタの画像情報が記憶されてい
る。具体的には、例えばゲームキャラクタ、背景画面を
構成する物、レーシングゲームにおけるレーシングカー
等の実際の画像情報が記憶されている。但し、レーシン
グカー等の大きなオブジェクトは、例えばタイヤ、ハン
ドル、ウイング等に分割されたオブジェクトとして記憶
されている。
The character generator 504 also stores image information of the character to be displayed. Specifically, for example, actual image information of a game character, an object constituting a background screen, a racing car in a racing game, etc. is stored. However, a large object such as a racing car is stored as an object divided into, for example, a tire, a steering wheel, and a wing.

【0006】ゲーム機本体510は、ゲーム機全体の制
御を行うCPU512、実際にテレビ等の表示装置51
8に出力する映像データを形成する映像処理部514、
表示装置518に表示すべき画像情報をドット単位で記
憶するビデオRAM516、プレーヤが使用するコント
ローラ等の操作部520、その他、音声を合成するサウ
ンドジェネレータ(図示せず)、ワークエリアを確保す
るためのワークRAM(図示せず)等を含んで構成され
ている。
The game console body 510 includes a CPU 512 for controlling the entire game console, and a display device 51 such as a television actually.
A video processing unit 514 that forms video data to be output to
A video RAM 516 that stores image information to be displayed on the display device 518 in dot units, an operation unit 520 such as a controller used by the player, a sound generator (not shown) that synthesizes voice, and a work area for securing a work area. It is configured to include a work RAM (not shown) and the like.

【0007】さて、本ゲーム装置は、以上の構成により
以下のような動作をする。
Now, this game device operates as follows with the above configuration.

【0008】まず、電源が投入されると、CPU512
によりプログラムROM502からゲームプログラムが
ロードされる。
First, when the power is turned on, the CPU 512
Causes the game program to be loaded from the program ROM 502.

【0009】CPU512は、ロードされたプログラム
及び操作部520より入力されたプレーヤからの操作信
号にしたがって、ゲーム画面、即ち、例えば(1/6
0)秒毎に表示装置518に表示すべき画像を形成す
る。
The CPU 512, in accordance with the loaded program and the operation signal from the player input from the operation unit 520, displays a game screen, that is, (1/6).
An image to be displayed on the display device 518 is formed every 0) seconds.

【0010】具体的には、映像処理部514は、CPU
512からの命令に基づいて、表示装置518に表示画
像を形成するためのデータ、例えばキャラクタナンバ、
パレットナンバ等のデータをビデオRAM516上に形
成する。映像処理部514はこのデータをビデオRAM
516上に形成した後、このデータを表示画像の各ドッ
ト毎に読み出す。
Specifically, the video processing unit 514 is a CPU.
Based on a command from 512, data for forming a display image on the display device 518, for example, a character number,
Data such as a palette number is formed on the video RAM 516. The image processing unit 514 sends this data to the video RAM.
After being formed on 516, this data is read for each dot of the display image.

【0011】次に、このビデオRAM516から読み出
されたデータ、例えばキャラクタナンバに基づいて、キ
ャラクタジェネレータ504から実際に表示すべき画像
情報、即ちゲームキャラクタ、背景、レーシングカー等
の画像情報が読み出される。そして、この画像情報とパ
レットナンバ等のデータを用いて、表示画像の各ドット
に対応するRGBデータを合成し、これを表示装置51
8に表示する。これを(1/60)秒毎に行うことで、
所定のゲーム画面を形成することが可能となる。
Next, based on the data read from the video RAM 516, for example, the character number, the image information to be actually displayed, that is, the image information of the game character, the background, the racing car, etc. is read from the character generator 504. . Then, using this image information and data such as a palette number, RGB data corresponding to each dot of the display image is combined, and this is combined with the display device 51.
Display on 8. By doing this every (1/60) seconds,
It is possible to form a predetermined game screen.

【0012】[0012]

【発明が解決しようとする課題】さて、以上の従来のゲ
ーム装置、例えば家庭用ビデオゲーム機では、2次元画
像しか合成できなかった。例えば、この家庭用ビデオゲ
ーム機でシューティングゲーム、ドライビングゲーム等
を実現する場合には、図29(a)に示すように、プレ
ーヤが操作するマイシップ530、敵機532等を上側
から見た画像を合成することとなる。この結果、マイシ
ップ530、敵機532は2次元空間でしか動くことし
かできないため、臨場感の溢れるゲーム空間を演出する
ことができなかった。即ち、この種のシューティングゲ
ーム、ドライビングゲームにおいては、より臨場感、緊
張感溢れるゲームを実現するためには、形成されるゲー
ム空間、マイシップ530、敵機532等を3次元で表
現することが望ましい。
By the way, in the above conventional game device, for example, a home video game machine, only two-dimensional images can be synthesized. For example, in the case of realizing a shooting game, a driving game, or the like with this home-use video game machine, as shown in FIG. It will be synthesized. As a result, since the Myship 530 and the enemy aircraft 532 can only move in the two-dimensional space, it was not possible to produce a game space full of realism. That is, in this type of shooting game and driving game, in order to realize a more realistic and tense game, it is desirable to represent the formed game space, myship 530, enemy aircraft 532, etc. in three dimensions. .

【0013】特に、シューティングゲーム、ドライビン
グゲーム等では、図29(b)に示すような仮想3次元
空間を形成し、この仮想3次元空間の任意の位置に、マ
イシップ530、敵機532等を配置してゲーム空間を
形成することが望ましい。即ち、このような仮想3次元
空間を形成することで、プレーヤは操作部520への操
作信号により任意の視点位置、視点方向における表示画
像を見ることができ、非常に臨場感溢れるゲームを楽し
むことができるからである。
In particular, in a shooting game, a driving game, etc., a virtual three-dimensional space as shown in FIG. 29B is formed, and a myship 530, an enemy aircraft 532, etc. are arranged at arbitrary positions in this virtual three-dimensional space. Therefore, it is desirable to form a game space. That is, by forming such a virtual three-dimensional space, the player can see the display image at an arbitrary viewpoint position and viewpoint by an operation signal to the operation unit 520, and enjoy a very realistic game. Because you can

【0014】さて、このような仮想3次元空間を形成し
て疑似3次元画像を得る手法として、例えばマイシップ
530、敵機532をポリゴンに分割したデータとして
表現し、これを仮想3次元空間に配置し、これに対して
視点座標変換等の所定の3次元演算を行い疑似3次元画
像を得る手法が考えられる。
Now, as a method of forming such a virtual three-dimensional space to obtain a pseudo three-dimensional image, for example, myship 530 and enemy aircraft 532 are represented as data divided into polygons, which are arranged in the virtual three-dimensional space. Then, a method of obtaining a pseudo three-dimensional image by performing a predetermined three-dimensional calculation such as a viewpoint coordinate conversion on this is conceivable.

【0015】しかし、この手法では、以下のような問題
が生じる。
However, this method has the following problems.

【0016】図30には、プレーヤ302が操作部30
4を用いて3次元オブジェクト332を操作し、これを
スクリーン306に透視変換し疑似3次元画像を得る画
像合成装置が示されている。そして、同図に示すよう
に、この3次元オブジェクト332の各面には、例えば
格子状、縞状の模様等のテクスチャが施されている。こ
のような各面にテクスチャが施された3次元オブジェク
トの画像合成をする場合には、ポリゴンを、例えば (1)
〜(80)に分割して((41)〜(80)は図示せず)、この全て
のポリゴンに対して回転、並進、透視変換及び各ポリゴ
ンの輪郭線の演算、ポリゴン内部の色つぶし等の処理を
行わなければならない。従って、非常に多くの数のポリ
ゴンを処理する必要が生じることとなる。ところが、ゲ
ーム装置のようにリアルタイムで画像合成を行う必要が
ある装置では、例えば1フィールド(1/60秒)毎に
全てのポリゴンの処理を行い、表示画面の描画を終了し
なければならない。従って、このようにテクスチャが施
された3次元物体332を描くためには、装置を構成す
るハードの処理スピードを大幅に向上させるか、もしく
は、装置のハードを大規模化して並列演算処理により処
理せざろう得なかった。
In FIG. 30, the player 302 has an operation unit 30.
4, an image synthesizing device for manipulating a three-dimensional object 332 by using 4 and performing perspective transformation on the screen 306 to obtain a pseudo three-dimensional image is shown. Then, as shown in the figure, each surface of the three-dimensional object 332 is provided with a texture such as a lattice pattern or a striped pattern. When synthesizing an image of a three-dimensional object whose surfaces are textured as described above, polygons are defined by, for example, (1)
Divide into (80) ((41) to (80) are not shown), rotate, translate, perspective transform, calculate contour line of each polygon, color crush inside polygon etc. Must be processed. Therefore, it becomes necessary to process a very large number of polygons. However, in a device such as a game device that needs to perform image composition in real time, for example, all polygons must be processed for each field (1/60 seconds) and the drawing of the display screen must be completed. Therefore, in order to draw the textured three-dimensional object 332, the processing speed of the hardware configuring the device is significantly improved, or the hardware of the device is enlarged and processed by parallel arithmetic processing. I couldn't get it.

【0017】更に、前記した図30に示すように、3次
元オブジェクト332を3次元ポリゴンの固まりとして
表現した場合、各3次元ポリゴンの境界における輝度情
報の連続性が問題となる。例えば複数の3次元ポリゴン
を用いて球を表現しようとする場合、3次元ポリゴン内
の全ドットが全て同じ輝度に設定されると、実際は「丸
み」を表現したいのに、各3次元ポリゴンの境界が「丸
み」として表現されない事態も生じた。
Further, when the three-dimensional object 332 is expressed as a cluster of three-dimensional polygons as shown in FIG. 30, continuity of luminance information at the boundary of each three-dimensional polygon becomes a problem. For example, in the case of expressing a sphere using a plurality of 3D polygons, if all dots in the 3D polygon are all set to have the same brightness, the "roundness" is actually expressed, but the boundary of each 3D polygon is expressed. There was also a situation where was not expressed as "roundness."

【0018】ところで、通常、家庭用ビデオゲーム機で
は、プレーヤが異なったゲームを楽しもうとする場合に
は、高価なゲーム機本体510を取り替えず、廉価なゲ
ーム用カートリッジ500のみを別のゲーム用カートリ
ッジに取り替えてプレイするのが普通である。しかしな
がら、ゲーム機本体510自体は、上記したようにテク
スチャリングされ、3次元ポリゴンの境界も「丸み」と
して表現された微細で高画質な3次元画像を形成できる
ように構成されていない。従って、このような構成の家
庭用ビデオゲーム機では、新たにゲーム機本体を買い換
えなければ、このように繊細で高画質な3次元ゲームを
楽しむことができなかった。
By the way, normally, in a home video game machine, when a player wants to enjoy different games, the expensive game machine main body 510 is not replaced and only the inexpensive game cartridge 500 is used for another game. It is usual to replace with a cartridge and play. However, the game machine body 510 itself is not configured to form a fine and high-quality three-dimensional image in which the boundaries of the three-dimensional polygons are expressed as “rounded” by being textured as described above. Therefore, in the home video game machine having such a configuration, such a delicate and high-quality three-dimensional game cannot be enjoyed unless the game machine body is newly replaced.

【0019】本発明は、このような従来の課題に鑑みな
されたものであり、その目的とするところは、ゲーム機
本体をほとんど変更することなく、繊細で高画質な画像
をリアルタイムに表現できるゲーム用カートリッジ及び
これを用いたゲーム装置を提供することにある。
The present invention has been made in view of the above conventional problems, and an object of the present invention is to provide a game in which a delicate and high-quality image can be expressed in real time without changing the main body of the game machine. A cartridge for game and a game device using the same.

【0020】[0020]

【課題を解決するための手段】請求項1の発明は、ゲー
ム機本体に着脱自在に装着され、ゲーム機本体と一体と
なってゲーム装置が形成されるゲーム用カートリッジで
あって、ゲーム空間を構成する画像構成データ及び所定
のプログラムデータが記憶される第1の記憶部と、前記
第1の記憶部より画像構成データを読み出し、この画像
構成データに所定の3次元演算処理を行い所定の投影面
に透視変換されたデータを形成し、出力する補助演算処
理部と、前記補助演算処理部より出力されたデータを記
憶し、これにより疑似3次元画像構成データを形成する
書換え可能な第2の記憶部とを含み、前記画像構成デー
タは、3次元ポリゴンの頂点座標、3次元ポリゴンの各
頂点に対応しテクスチャ情報供給用に設定された頂点テ
クスチャ座標を含む頂点画像情報の集合として表現さ
れ、前記補助演算処理部は、前記3次元ポリゴンの各頂
点座標を前記投影面上に透視変換し透視変換頂点座標を
求め、この透視変換頂点座標により形成されるポリゴン
を構成する各ドットの透視変換表示座標を演算する表示
座標演算手段と、前記頂点テクスチャ座標により形成さ
れるポリゴンを構成する各ドットの読み出し用テクスチ
ャ座標を求める第1のテクスチャ座標演算手段とを含
み、前記第2の記憶部は、前記読み出し用テクスチャ座
標により読み出されるテクスチャマッピング用の所定の
テクスチャ情報が記憶されたテクスチャ情報記憶手段
と、前記透視変換表示座標に、前記テクスチャ情報記憶
手段より読み出されたテクスチャ情報を対応させること
により画像情報を合成する画像情報形成手段と、を含ん
で形成されることを特徴とする。
According to a first aspect of the present invention, there is provided a game cartridge which is detachably mounted on a game machine main body and which forms a game device integrally with the game machine main body. A first storage unit in which image configuration data to be configured and predetermined program data are stored, and image configuration data is read from the first storage unit, and a predetermined three-dimensional arithmetic processing is performed on the image configuration data to perform a predetermined projection A rewritable second that forms a perspective-transformed data on a surface and outputs it, and stores the data output from the auxiliary computation processing unit and thereby forms pseudo three-dimensional image configuration data. The image configuration data includes vertex coordinates of a three-dimensional polygon, and vertex texture coordinates set for texture information supply corresponding to each vertex of the three-dimensional polygon. Expressed as a set of vertex image information, the auxiliary calculation processing unit perspective-transforms each vertex coordinate of the three-dimensional polygon on the projection surface to obtain a perspective-transformation vertex coordinate, and a polygon formed by the perspective-transformation vertex coordinate. Display coordinate calculation means for calculating the perspective transformation display coordinates of the respective dots constituting the above, and first texture coordinate calculation means for obtaining the read-out texture coordinates for the respective dots forming the polygon formed by the vertex texture coordinates. The second storage unit stores texture information storage means in which predetermined texture information for texture mapping read by the read texture coordinates is stored, and the perspective information display coordinates in the second storage unit. Image information forming means for synthesizing image information by associating the generated texture information Characterized in that it is formed including the, the.

【0021】請求項2の発明は、前記第1のテクスチャ
座標演算手段に代えて、前記頂点テクスチャ座標を前記
透視変換頂点座標に対して線形な透視変換頂点テクスチ
ャ座標に透視変換し、この透視変換頂点テクスチャ座標
により形成されるポリゴンを構成する各ドットの透視変
換テクスチャ座標を線形補間演算し、演算された透視変
換テクスチャ座標を逆透視変換して読み出し用テクスチ
ャ座標を求める第2のテクスチャ座標演算手段を備える
ことを特徴とする。
According to a second aspect of the present invention, instead of the first texture coordinate calculating means, the vertex texture coordinates are perspective-transformed into perspective transformation vertex texture coordinates that are linear with respect to the perspective transformation vertex coordinates, and the perspective transformation is performed. Second texture coordinate calculation means for linearly interpolating the perspective transformation texture coordinates of each dot forming the polygon formed by the vertex texture coordinates, and performing inverse perspective transformation on the calculated perspective transformation texture coordinates to obtain read texture coordinates. It is characterized by including.

【0022】請求項3の発明は、前記表示座標演算手段
は、前記透視変換頂点座標を線形補間することにより、
透視変換頂点座標により形成されるポリゴンの輪郭線と
各走査線とが交差する点である左右輪郭点の透視変換表
示座標を演算し、この左右輪郭点の透視変換表示座標を
線形補間することにより、左右輪郭点を結ぶ走査線上の
各ドットの透視変換表示座標を線形補間演算するように
形成され、前記テクスチャ座標演算手段は、前記透視変
換頂点テクスチャ座標を線形補間することにより、透視
変換頂点座標により形成されるポリゴンの輪郭線と各走
査線とが交差する点である左右輪郭点の透視変換テクス
チャ座標を演算し、この左右輪郭点の透視変換テクスチ
ャ座標を線形補間することにより、左右輪郭点を結ぶ走
査線上の各ドットの透視変換テクスチャ座標を線形補間
演算するように形成されることを特徴とする。
According to a third aspect of the present invention, the display coordinate calculating means linearly interpolates the perspective transformation vertex coordinates,
By calculating the perspective transformation display coordinates of the left and right contour points, which are the points where the contour line of the polygon formed by the perspective transformation vertex coordinates and each scanning line, and by linearly interpolating the perspective transformation display coordinates of the left and right contour points. , The perspective transformation display coordinates of each dot on the scanning line connecting the left and right contour points are linearly interpolated, and the texture coordinate computing means linearly interpolates the perspective transformation vertex texture coordinates to obtain the perspective transformation vertex coordinates. By calculating the perspective transformation texture coordinates of the left and right contour points, which are the points where the contour line of the polygon formed by and each scanning line intersect, and linearly interpolating the perspective transformation texture coordinates of the left and right contour points, the left and right contour points It is characterized in that it is formed so that the perspective transformation texture coordinates of each dot on the scanning line connecting the lines are calculated by linear interpolation.

【0023】請求項4の発明は、前記画像情報形成手段
は、前記透視変換表示座標位置に、前記テクスチャ情報
記憶手段の読み出し用テクスチャ座標を記憶するフィー
ルドバッファ部を有し、前記フィールドバッファ部から
前記テクスチャ座標を読み出し、このテクスチャ座標に
より前記テクスチャ情報記憶手段に記憶されたテクスチ
ャ情報を読み出し、画像情報を合成することを特徴をす
る。
According to a fourth aspect of the present invention, the image information forming means has a field buffer portion for storing the read texture coordinates of the texture information storage means at the perspective transformation display coordinate position. It is characterized in that the texture coordinates are read out, the texture information stored in the texture information storage means is read out by the texture coordinates, and the image information is combined.

【0024】請求項5の発明は、前記表示座標演算手段
は、各ドットの透視変換表示座標を間引く間引き演算手
段を含み、前記テクスチャ座標演算手段は、各ドットの
テクスチャ座標を間引く間引き演算手段を含み、前記画
像情報形成手段は、前記フィールドバッファ部の相隣合
う前記透視変換表示座標位置に記憶された前記読み出し
用テクスチャ座標より、間引かれたテクスチャ座標を補
間する補間演算手段を含むことを特徴とする。
According to a fifth aspect of the present invention, the display coordinate calculation means includes thinning-out calculation means for thinning out the perspective transformation display coordinates of each dot, and the texture coordinate calculation means comprises thinning-out calculation means for thinning out the texture coordinates of each dot. Including, the image information forming means includes an interpolation calculating means for interpolating the thinned texture coordinates from the read-out texture coordinates stored at the adjacent perspective transformation display coordinate positions of the field buffer section. Characterize.

【0025】請求項6の発明は、ゲーム機本体に着脱自
在に装着され、ゲーム機本体と一体となってゲーム装置
が形成されるゲーム用カートリッジであって、ゲーム空
間を構成する画像構成データ及び所定のプログラムデー
タが記憶される第1の記憶部と、前記第1の記憶部より
画像構成データを読み出し、この画像構成データに所定
の3次元演算処理を行い所定の投影面に透視変換された
データを形成し、出力する補助演算処理部と、前記補助
演算処理部より出力されたデータを記憶し、これにより
疑似3次元画像構成データを形成する書換え可能な第2
の記憶部とを含み、前記画像構成データは、3次元ポリ
ゴンの頂点座標、3次元ポリゴンの各頂点に対応して設
定された頂点輝度情報を含む頂点画像情報の集合として
表現され、前記補助演算処理部は、前記3次元ポリゴン
の各頂点座標を前記投影面上に透視変換し透視変換頂点
座標を求め、この透視変換頂点座標により形成されるポ
リゴンを構成する各ドットの透視変換表示座標を演算す
る表示座標演算手段と、前記頂点輝度情報により形成さ
れるポリゴンを構成する各ドットの輝度情報を求める第
1の輝度情報演算手段とを含み、前記第2の記憶部は、
前記透視変換表示座標に、前記輝度情報演算手段により
演算された輝度情報を対応させることにより画像情報を
合成する画像情報形成手段と、を含んで形成されること
を特徴とする。
According to a sixth aspect of the present invention, there is provided a game cartridge which is detachably mounted on the game machine main body and which forms a game device integrally with the game machine main body. A first storage unit in which predetermined program data is stored, and image configuration data is read from the first storage unit, and the image configuration data is subjected to predetermined three-dimensional arithmetic processing and perspective-transformed to a predetermined projection plane. An auxiliary arithmetic processing unit that forms and outputs data, and a rewritable second that stores the data output from the auxiliary arithmetic processing unit and thereby forms pseudo three-dimensional image constituent data.
The image forming data is expressed as a set of vertex image information including vertex brightness information set corresponding to the vertex coordinates of the three-dimensional polygon and each vertex of the three-dimensional polygon. The processing unit perspective-transforms each vertex coordinate of the three-dimensional polygon on the projection surface to obtain perspective-transformation vertex coordinates, and calculates perspective-transformation display coordinates of each dot forming a polygon formed by the perspective transformation vertex coordinates. And a first brightness information calculation unit that obtains brightness information of each dot forming a polygon formed by the vertex brightness information, and the second storage unit includes:
An image information forming unit that combines image information by associating the brightness information calculated by the brightness information calculating unit with the perspective conversion display coordinates is formed.

【0026】請求項7の発明は、前記第1の輝度情報演
算手段に代えて、前記頂点輝度情報を前記透視変換頂点
座標に対して線形な透視変換頂点輝度情報に透視変換
し、この透視変換頂点輝度情報により形成されるポリゴ
ンを構成する各ドットの透視変換輝度情報を線形補間演
算し、演算された透視変換輝度情報を逆透視変換して輝
度情報を求める第2の輝度情報演算手段を備えることを
特徴とする。
According to a seventh aspect of the invention, instead of the first luminance information calculating means, the vertex luminance information is perspective-transformed into perspective transformation vertex luminance information which is linear with respect to the perspective transformation vertex coordinates, and this perspective transformation is performed. A second brightness information calculating unit is provided which linearly interpolates the perspective conversion brightness information of each dot forming the polygon formed by the vertex brightness information, and inversely perspective-converts the calculated perspective conversion brightness information to obtain the brightness information. It is characterized by

【0027】請求項8の発明は、前記表示座標演算手段
は、前記透視変換頂点座標を線形補間することにより、
透視変換頂点座標により形成されるポリゴンの輪郭線と
各走査線とが交差する点である左右輪郭点の透視変換表
示座標を演算し、この左右輪郭点の透視変換表示座標を
線形補間することにより、左右輪郭点を結ぶ走査線上の
各ドットの透視変換表示座標を線形補間演算するように
形成され、前記輝度情報演算手段は、前記透視変換頂点
輝度情報を線形補間することにより、透視変換頂点座標
により形成されるポリゴンの輪郭線と各走査線とが交差
する点である左右輪郭点の透視変換輝度情報を演算し、
この左右輪郭点の透視変換輝度情報を線形補間すること
により、左右輪郭点を結ぶ走査線上の各ドットの透視変
換輝度情報を線形補間演算するように形成されることを
特徴とする。
According to the invention of claim 8, the display coordinate calculation means linearly interpolates the perspective transformation vertex coordinates,
By calculating the perspective transformation display coordinates of the left and right contour points, which are the points where the contour line of the polygon formed by the perspective transformation vertex coordinates and each scanning line, and by linearly interpolating the perspective transformation display coordinates of the left and right contour points. , The perspective transformation display coordinates of each dot on the scanning line connecting the left and right contour points are linearly interpolated, and the luminance information computing means linearly interpolates the perspective transformation vertex luminance information to obtain the perspective transformation vertex coordinates. Calculate the perspective conversion luminance information of the left and right contour points, which are the points where the contour line of the polygon formed by and each scanning line intersect,
The perspective conversion brightness information of the left and right contour points is linearly interpolated, and the perspective conversion brightness information of each dot on the scanning line connecting the left and right contour points is linearly interpolated.

【0028】請求項9の発明は、前記画像情報形成手段
は、前記透視変換表示座標位置に、前記輝度情報を記憶
するフィールドバッファ部を有し、前記フィールドバッ
ファ部から前記輝度情報を読み出し、これにより画像情
報を形成を合成することを特徴をするゲーム用カートリ
ッジ。
According to a ninth aspect of the present invention, the image information forming means has a field buffer section for storing the brightness information at the perspective conversion display coordinate position, and reads the brightness information from the field buffer section. A game cartridge characterized by synthesizing image information by means of.

【0029】請求項10の発明は、前記表示座標演算手
段は、各ドットの透視変換表示座標を間引く間引き演算
手段を含み、前記輝度情報演算手段は、各ドットの輝度
情報を間引く間引き演算手段を含み、前記画像情報形成
手段は、前記フィールドバッファ部の相隣合う前記透視
変換表示座標位置に記憶された前記輝度情報より、間引
かれた輝度情報を補間する補間演算手段を含むことを特
徴とする。
According to a tenth aspect of the present invention, the display coordinate calculation means includes thinning-out calculation means for thinning out perspective conversion display coordinates of each dot, and the luminance information calculation means is thinning-out calculation means for thinning out the luminance information of each dot. In addition, the image information forming means includes an interpolation calculating means for interpolating the thinned luminance information from the luminance information stored at the adjacent perspective transformation display coordinate positions of the field buffer section. To do.

【0030】請求項11の発明は、前記フィールドバッ
ファ部の前記透視変換表示座標位置には、ポリゴンを識
別するためのポリゴン識別番号がさらに記憶され、前記
間引き演算手段は、各ドットが、ポリゴンの輪郭線上の
ドットである場合、又は、他のポリゴンとの境界線上の
ドットである場合には、間引き演算を行わず、前記補間
演算手段は、相隣合う前記透視変換表示座標位置に記憶
されたポリゴン識別番号が同一である場合には補間演算
を行い、ポリゴン識別番号が異なる場合には補間演算を
行わないことを特徴とする。
According to an eleventh aspect of the present invention, a polygon identification number for identifying a polygon is further stored at the perspective conversion display coordinate position of the field buffer section, and the thinning-out calculation means determines that each dot is a polygon. If it is a dot on the contour line, or if it is a dot on the boundary with another polygon, the thinning calculation is not performed, and the interpolation calculation means is stored at the adjacent perspective conversion display coordinate positions. When the polygon identification numbers are the same, the interpolation calculation is performed, and when the polygon identification numbers are different, the interpolation calculation is not performed.

【0031】請求項12の発明は、前記補間演算手段
は、間引かれた情報を、その両隣の透視変換表示座標位
置に記憶された画像情報を線形補間することにより補間
することを特徴とする。
According to a twelfth aspect of the present invention, the interpolation calculation means interpolates the thinned information by linearly interpolating the image information stored in the perspective conversion display coordinate positions on both sides thereof. .

【0032】請求項13の発明は、請求項1乃至12の
いずれかのゲーム用カートリッジと、このゲーム用カー
トリッジが着脱自在に装着されるゲーム機本体とを含む
ゲーム装置であって、前記ゲーム機本体は、前記補助演
算処理部における3次元演算処理で使用されるプレーヤ
からの操作信号が入力される操作部と、前記第1の記憶
部又は第2の記憶部からのプログラムデータにより起動
する中央処理部と、前記画像構成データ又は演算された
疑似3次元画像構成データより表示画像を形成する映像
処理部と、を含むことを特徴とする。
A thirteenth aspect of the present invention is a game machine including the game cartridge according to any one of the first to twelfth aspects and a game machine main body to which the game cartridge is detachably mounted. The main body has a central portion which is activated by an operation unit to which an operation signal from the player used in the three-dimensional arithmetic processing in the auxiliary arithmetic processing unit is input and program data from the first storage unit or the second storage unit. It is characterized by including a processing section and a video processing section for forming a display image from the image configuration data or the calculated pseudo three-dimensional image configuration data.

【0033】[0033]

【作用】本発明に係るゲーム用カートリッジよれば、第
1の記憶部に記憶された画像構成データに対して、補助
処理演算部にて所定の演算処理を行い、これを書換え可
能な第2の記憶部に記憶させ、疑似3次元画像を合成出
力することができる。この場合、補助演算処理部及び第
2の記憶部では、3次元ポリゴンの各頂点に与えられた
頂点テクスチャ座標によりポリゴンに所定のテクスチャ
マッピング処理を施すことができる。従って、従来、行
えなかった繊細で高画質な画像合成を、ゲーム機本体の
構成をほとんど変更することなく行うことができる。
According to the game cartridge of the present invention, the auxiliary processing operation unit performs a predetermined operation process on the image configuration data stored in the first storage unit, and the rewritable second operation is possible. The pseudo three-dimensional image can be composited and output by storing it in the storage unit. In this case, the auxiliary calculation processing unit and the second storage unit can perform a predetermined texture mapping process on the polygon based on the vertex texture coordinates given to each vertex of the three-dimensional polygon. Therefore, it is possible to perform delicate and high-quality image composition, which could not be performed conventionally, without changing the configuration of the game machine body.

【0034】この場合、第1のテクスチャ情報演算手段
に代えて第2のテクスチャ情報演算手段を備えれば、ポ
リゴンの位置座標に関する座標系のみならず、これに対
応するテクスチャ座標の座標系についても透視変換され
る。従って、各座標系間の関係がリニアに保たれるた
め、遠近感、直線性を損なうことのないポリゴンに対す
るテクスチャマッピングをハードの負担を重くすること
なく実現できる。
In this case, if the second texture information calculating means is provided in place of the first texture information calculating means, not only the coordinate system relating to the position coordinates of the polygon but also the coordinate system of the texture coordinates corresponding thereto is provided. Perspective-transformed. Therefore, since the relationship between the coordinate systems is kept linear, texture mapping for polygons that does not impair perspective and linearity can be realized without increasing the hardware burden.

【0035】また、画像情報形成手段にフィールドバッ
ファ部を設け、これに読み出し用テクスチャ座標を記憶
させれば、ハードの負担を低減できる間引き・補間の手
法を画像の質をそれほど劣化させることなく実現でき
る。
If a field buffer unit is provided in the image information forming means and the read texture coordinates are stored in the field buffer unit, a thinning / interpolation method capable of reducing the load on the hardware can be realized without deteriorating the image quality so much. it can.

【0036】また、本発明に係るゲーム用カートリッジ
よれば、補助演算処理部及び第2の記憶部において、3
次元ポリゴンの各頂点に与えられた頂点輝度情報により
ポリゴン内の輝度情報が求められ、これにより、ポリゴ
ン境界での輝度情報の連続性が担保される。従って、上
記と同様、従来、行えなかった繊細で高画質な画像合成
を、ゲーム機本体の構成をほとんど変更することなく行
うことができる。
Further, according to the game cartridge of the present invention, in the auxiliary arithmetic processing section and the second storage section,
The brightness information in the polygon is obtained from the vertex brightness information given to each vertex of the three-dimensional polygon, and thus the continuity of the brightness information at the polygon boundary is secured. Therefore, similar to the above, it is possible to perform delicate and high-quality image composition, which could not be performed conventionally, without changing the configuration of the game machine body.

【0037】この場合、第1の輝度情報演算手段に代え
て第2の輝度情報演算手段を備えれば、各座標系間の関
係がリニアに保たれる。従って、輝度変化に遠近感があ
り、3次元物体が回転等した場合にも画像のリアリティ
ーを損うことない輝度情報の演算をハードの負担を重く
することなく実現できる。
In this case, if the second brightness information calculating means is provided in place of the first brightness information calculating means, the relationship between the coordinate systems is kept linear. Therefore, it is possible to realize the calculation of the luminance information that does not impair the image reality even when the three-dimensional object rotates such that there is a sense of perspective in the change in luminance without increasing the burden on the hardware.

【0038】また、画像情報形成手段にフィールドバッ
ファ部を設け、これに輝度情報を記憶させれば、ハード
の負担を低減できる間引き・補間の手法を画像の質をそ
れほど劣化させることなく実現できる。
If a field buffer unit is provided in the image information forming means and the brightness information is stored in the field buffer unit, a thinning / interpolation method capable of reducing the load on the hardware can be realized without deteriorating the image quality.

【0039】[0039]

【実施例】【Example】

(実施例の目次) A.手法 1.手法1 2.手法2 3.手法3 4.手法4 B.第1の実施例 1.実施例の概要 2.具体例 (1) プロセッサ部 (2) フィールドバッファ部 (3) アトリビュートRAM部 (4) テクスチャ情報記憶部 C.第2の実施例 1.実施例の概要 (1) 概要 (2) 構成及び動作の概要 2.具体例 (1) 間引き演算手段 (2) 補間演算手段の構成 (3) 補間演算手段の動作 A.手法 図1、図2には、本発明にかかるゲーム用カートリッジ
及びこれを用いたゲーム装置の好適な実施例が示され
る。以下、本実施例における画像合成の手法について、
まず説明する 1.手法1 前述したように本発明は、高価なゲーム機本体800自
体の構成をなるべく変更することなく、繊細で高画質な
画像を合成できるゲーム用カートリッジ及びこれを用い
たゲーム装置を提供することを目的としている。この目
的を達成するため、本実施例におけるゲーム用カートリ
ッジ1は、図1に示すように、第1の記憶部780、補
助演算処理部710、第2の記憶部790とを含んで構
成されている。そして、第1の記憶部780に記憶され
ている画像構成データを、補助演算処理部710にて画
像合成処理し、これを第2の記憶部790に記憶し、疑
似3次元画像構成データとしてゲーム機本体800に出
力し、これを映像処理して表示装置に映像出力する手法
を用いている。
(Table of Contents of Examples) A. Method 1. Method 1 2. Method 2 3. Method 3 4. Method 4 B. First Embodiment 1. Outline of Examples 2. Specific example (1) Processor section (2) Field buffer section (3) Attribute RAM section (4) Texture information storage section C. Second embodiment 1. Outline of Examples (1) Outline (2) Outline of Configuration and Operation 2. Specific example (1) Thinning calculation means (2) Configuration of interpolation calculation means (3) Operation of interpolation calculation means A. Method FIG. 1 and FIG. 2 show a preferred embodiment of a game cartridge according to the present invention and a game device using the same. Hereinafter, regarding the image synthesizing method in this embodiment,
First of all, 1. Method 1 As described above, the present invention provides a game cartridge that can combine a delicate and high-quality image without changing the configuration of the expensive game machine body 800 as much as possible, and a game device using the same. Has an aim. In order to achieve this object, the game cartridge 1 in the present embodiment is configured to include a first storage unit 780, an auxiliary calculation processing unit 710, and a second storage unit 790, as shown in FIG. There is. Then, the image composition data stored in the first storage unit 780 is subjected to image composition processing by the auxiliary calculation processing unit 710, and this is stored in the second storage unit 790, and is stored as pseudo three-dimensional image composition data in the game. A method is used in which the image is output to the machine body 800, the image is processed and the image is output to the display device.

【0040】このような手法を採用すれば、ゲーム機本
体800の構成はほとんど変更することなく、繊細で高
画質な3次元画像の合成が可能となる。なお、補助演算
処理部710内の画像形成部740及び第2の記憶部7
90の構成については、図2に示される。
By adopting such a method, it is possible to synthesize a delicate and high-quality three-dimensional image with almost no change in the configuration of the game machine main body 800. The image forming unit 740 and the second storage unit 7 in the auxiliary calculation processing unit 710.
The configuration of 90 is shown in FIG.

【0041】以下、この補助演算処理部710、第2の
記憶部790にて行う繊細で高画質な3次元画像合成の
手法について、手法2と手法3に分けて説明する。 2.手法2 まず、本実施例では、3次元画像を構成するポリゴン
に、テクスチャ情報記憶部42に記憶されるテクスチャ
情報をテクスチャマッピングする手法を採用している。
このテクスチャマッピング手法によれば、処理するポリ
ゴン数を増やすことなく、画像の模様、色彩等をよりき
め細かなものとすることができる。即ち、テクスチャ情
報記憶部42に記憶されているテクスチャ情報をより繊
細で、綿密なものとするだけで、ハードの負担をそれほ
ど増やすことなく、より繊細で高画質な画像を得ること
ができるわけである。このため、本実施例では、第1の
記憶部780に記憶される3次元ポリゴンの各頂点に、
あらかじめ頂点テクスチャ座標を与えておく。そして、
画像供給部712において、この頂点テクスチャ座標に
対する所定の3次元演算処理を行った後、画像形成部7
40において、ポリゴンの各ドットを構成するテクスチ
ャ座標を演算する。そして、このテクスチャ座標を用い
て第2の記憶部790に設けられたテクスチャ情報記憶
部42から対応するテクスチャ情報を呼び出して、これ
をポリゴンにはり付けている。
Hereinafter, the method of delicate and high-quality three-dimensional image composition performed by the auxiliary calculation processing unit 710 and the second storage unit 790 will be described separately for Method 2 and Method 3. 2. Method 2 First, in the present embodiment, a method is used in which the texture information stored in the texture information storage unit 42 is texture-mapped to the polygons forming the three-dimensional image.
According to this texture mapping method, the pattern, color, etc. of an image can be made finer without increasing the number of polygons to be processed. That is, it is possible to obtain a more delicate and high-quality image without increasing the load on the hardware only by making the texture information stored in the texture information storage unit 42 more delicate and detailed. is there. Therefore, in this embodiment, each vertex of the three-dimensional polygon stored in the first storage unit 780 is
The vertex texture coordinates are given in advance. And
In the image supply unit 712, after performing a predetermined three-dimensional calculation process on the vertex texture coordinates, the image forming unit 7
At 40, the texture coordinates forming each dot of the polygon are calculated. Then, using the texture coordinates, the corresponding texture information is called from the texture information storage unit 42 provided in the second storage unit 790 and attached to the polygon.

【0042】図26には、このテクスチャマッピングに
よりテクスチャをはり付けた表示画像の一例が示され
る。同図は、本実施例をドライビングゲームに適用した
場合の例である。同図に示すように、道路820にはタ
イル状のテクスチャが、側道822には芝生状のテクス
チャが、家824には煉瓦状のテクスチャが施されてい
る。この場合、例えば、道路820を画像合成をする場
合には、このタイル状のテクスチャ情報をテクスチャ情
報記憶部42に記憶させておく。そして、道路820を
構成するポリゴンに、このタイル状のテクスチャ情報を
はり付けることで図26に示すような画像を合成するこ
とになる。
FIG. 26 shows an example of a display image on which a texture is attached by this texture mapping. This figure shows an example in which the present embodiment is applied to a driving game. As shown in the figure, the road 820 has a tile-like texture, the side road 822 has a grass-like texture, and the house 824 has a brick-like texture. In this case, for example, when image-synthesizing the road 820, the tiled texture information is stored in the texture information storage unit 42. Then, by attaching the tiled texture information to the polygons forming the road 820, an image as shown in FIG. 26 is synthesized.

【0043】さて、本発明者は、このテクスチャマッピ
ング手法を用いて、疑似3次元画像の画像合成を行った
場合、以下の問題点が生ずることを発見した。即ち、マ
ッピングされたテクスチャの模様の遠近感、及び、直線
性に関する問題点である。
The inventor of the present invention has found that the following problems occur when image synthesis of pseudo three-dimensional images is performed using this texture mapping method. That is, it is a problem regarding perspective and linearity of the mapped texture pattern.

【0044】図3には、このテクスチャマッピングの遠
近感に関する問題点について示される。
FIG. 3 shows the problem of perspective in this texture mapping.

【0045】図3(a)に示すように、テクスチャ13
36を、ただ単に線形補間によりポリゴン1340には
り付けた場合、多面体1334におけるテクスチャは、
スクリーン上において同図(b)に示すように見えるこ
とになる。しかし、実際には多面体1334におけるテ
クスチャは、同図(c)に示すように見えるべきであ
る。即ち、同図(a)に示すようにテクスチャはり付け
ると、多面体1334上のテクスチャの遠近感が失われ
ていることがわかる。これは、例えば、同図(a)にお
ける、テクスチャ模様の間隔d0 〜d3 がそのまま線形
に補間されていることからも理解される。
As shown in FIG. 3A, the texture 13
If 36 is simply attached to the polygon 1340 by linear interpolation, the texture in the polyhedron 1334 becomes
On the screen, it looks as shown in FIG. However, in reality, the texture in the polyhedron 1334 should look as shown in FIG. That is, it can be seen that when the texture is pasted as shown in FIG. 9A, the perspective of the texture on the polyhedron 1334 is lost. This can be understood, for example, from the fact that the intervals d0 to d3 of the texture pattern are linearly interpolated as they are in FIG.

【0046】更に、ただ単に線形補間によりテクスチャ
をはり付けると、テクスチャを構成する模様の直線性が
損なわれるという現象も生じる。即ち、3次元上での直
線が、スクリーン上で直線とはならなくなり例えば折れ
曲がって見えることとなる。この様子が図4に示され
る。即ち、スクリーン上において実際には図4(a)に
示すように見えるべき画像が、同図(b)のように見え
てしまう。このように、ただ単に、線形補間によりテク
スチャをはり付けると、テクスチャを構成する模様の直
線性が大幅に損なわれ、画質に大幅な劣化が生じること
となる。
Further, when the texture is simply pasted by the linear interpolation, there occurs a phenomenon that the linearity of the pattern forming the texture is impaired. That is, a straight line in three dimensions does not become a straight line on the screen and appears to be bent, for example. This is shown in FIG. That is, an image that should actually look like the one shown in FIG. 4A on the screen looks like the one shown in FIG. Thus, if the texture is simply pasted by the linear interpolation, the linearity of the pattern forming the texture is significantly impaired, and the image quality is significantly deteriorated.

【0047】この遠近感及び直線性の問題は、スクリー
ン上におけるテクスチャが非線形であるにもかかわら
ず、線形補間している点に原因がある。
The perspective and linearity problems are caused by the fact that the texture on the screen is non-linear, but linearly interpolated.

【0048】以上のような、遠近感、直線性の問題を解
決するものとして、例えばテクスチャリングを行う面を
細分化してテクスチャマッピングを行う手法が考えられ
る。この手法によれば細分化された面内でのデプス(Z
値)の知識が要求されないため、この細分化をより微細
にすることにより、上記した遠近感、直線性の問題を解
決できることになる。
As a solution to the above-mentioned problems of perspective and linearity, for example, a method of subdividing a surface to be textured and performing texture mapping can be considered. According to this method, the depth (Z
Since the knowledge of (value) is not required, the problem of perspective and linearity described above can be solved by making this subdivision finer.

【0049】しかし、この手法によった場合、画質の向
上を図るべく細分化の程度を増すにしたがって演算量が
増大してしまうという問題がある。
However, according to this method, there is a problem that the amount of calculation increases as the degree of subdivision increases to improve the image quality.

【0050】また、テクスチャをはり付ける場合の補間
を、線形ではなく例えば2次関数により行う手法も考え
られる。この手法によればハード上の負担が減るという
利点があり遠近感もある程度解消されるが、完全にはこ
の問題は解消されず、また、はり付けたテクスチャが歪
むという新たな問題も生じる。
Further, it is also possible to consider a method in which the interpolation in the case of attaching the texture is not linear but, for example, a quadratic function. According to this method, the burden on the hardware is reduced and the perspective is resolved to some extent, but this problem is not completely resolved, and a new problem arises that the pasted texture is distorted.

【0051】以上のように、従来の手法によっては、画
質の向上を図るべく遠近感、直線性などが損なわれない
ようにしながら、しかも同時にハード上の負担もあまり
大きくならないような装置を実現することは非常に困難
であった。
As described above, according to the conventional method, it is possible to realize a device in which perspective and linearity are not impaired in order to improve the image quality, and at the same time, the burden on the hardware is not so large. It was very difficult.

【0052】本発明者は、このような困難性を生みだし
ている要因は、X、Y座標のみ透視変換され、Z座標及
びテクスチャ座標TX 、TY については透視変換されて
いないことにあるのではないかと考えた。即ち、X、Y
座標のみが透視変換され、Z、TX 、TY が透視変換さ
れていないため、この5つの座標が非線形な関係にな
り、上記した困難性を生み出しているわけである。
The present inventor does not mean that the factor that causes such difficulty is that only the X and Y coordinates are perspective-transformed, and the Z coordinates and the texture coordinates TX and TY are not perspective-transformed. I thought. That is, X, Y
Since only the coordinates are perspective-transformed and Z, TX and TY are not perspective-transformed, these five coordinates have a non-linear relationship, which causes the above-mentioned difficulties.

【0053】そこで、本実施例では、X、Y座標系のみ
ならず、Z、TX 、TY 座標系も透視変換して、5つの
座標系を線形な関係にしておき、その後に、この座標系
上で線形補間する手法によりテクスチャマッピングを行
っている。そして、この手法をハード上で実現するため
に、5つの座標系の透視変換は、ポリゴンの各頂点座標
を透視変換することにより行なっている。そして、この
透視変換された頂点座標を線形補間するにより表示画面
の各ドットの画像情報を求めている。
Therefore, in the present embodiment, not only the X and Y coordinate systems but also the Z, TX and TY coordinate systems are perspective-transformed so that the five coordinate systems have a linear relationship, and then this coordinate system is used. Texture mapping is performed by the above linear interpolation method. Then, in order to realize this method on hardware, perspective transformation of the five coordinate systems is performed by perspective transformation of each vertex of the polygon. Then, the image information of each dot on the display screen is obtained by linearly interpolating the perspective-transformed vertex coordinates.

【0054】従って、この手法によれば、負担の重い演
算である透視変換はポリゴンの各頂点に対して行えばよ
く、この負担の重い演算の回数を減らすことができる。
また、演算回数、即ち演算すべきデータの最も多い表示
画面の各ドットの画像情報の演算は線形補間演算により
行うことができる。この結果、ハードの負担を従来のテ
クスチャマッピング手段によるものより大幅に減らすこ
とができ、しかも同時に、遠近感、直線性などを損なう
ことのない質の高い画像情報を形成することが可能とな
る。
Therefore, according to this method, the perspective transformation, which is a heavy-duty operation, may be performed on each vertex of the polygon, and the number of heavy-duty operations can be reduced.
Further, the number of calculations, that is, the calculation of the image information of each dot on the display screen having the largest amount of data to be calculated can be performed by linear interpolation calculation. As a result, the burden on the hardware can be significantly reduced as compared with the conventional texture mapping means, and at the same time, it is possible to form high-quality image information that does not impair perspective and linearity.

【0055】ここで、透視変換とは、3次元画像を2次
元のスクリーン306上に投影変換することをいい、 X* =X×(h/Z) Y* =Y×(h/Z) の変換式によりX座標、Y座標が変換される。
Here, the perspective transformation means projecting and transforming a three-dimensional image on a two-dimensional screen 306, where X * = X × (h / Z) Y * = Y × (h / Z). The X coordinate and the Y coordinate are converted by the conversion formula.

【0056】ここに、hは視点とスクリーンの距離であ
り、視点を原点とする座標系を用いている。
Here, h is the distance between the viewpoint and the screen, and a coordinate system having the viewpoint as the origin is used.

【0057】XとYとは線形であり、X* とY* もまた
線形である。
X and Y are linear, and X * and Y * are also linear.

【0058】透視変換という概念をより一般化して、次
のように考える。いま新たな座標Wを想定し、WとX、
あるいはWとYが線形であるとする。W* とX* 、ある
いはW* とY* もまた線形となるような、WからW*
の変換を、Wの透視変換と考える。すると、 W* =pW/Z+q/Z+r という一般式が導かれる。ここに、p、q、rはそれぞ
れ任意の定数である。
The concept of perspective transformation is generalized and considered as follows. Assuming a new coordinate W, W and X,
Alternatively, assume that W and Y are linear. The transformation from W to W * such that W * and X * or W * and Y * are also linear is considered as the perspective transformation of W. Then, the general formula W * = pW / Z + q / Z + r is derived. Here, p, q, and r are arbitrary constants.

【0059】このWに、テクスチャ座標やZ座標や輝度
情報を当てはめると、全ての座標の線形化が実現する。
テクスチャ座標Tx及びTy、そして輝度情報BRIの
場合は、p=h、q=r=0として、 Tx* =Tx×(h/z) Ty* =Ty×(h/z) BRI* =BRI×(h/z) と定義すると、X及びYの透視変換と乗数が共通化でき
る。ただし、Zの透視変換に関しては、上記と同様にす
ると、Z* は定数hに等しくなってしまうので、特に、
p=r=0、q=hとして、 Z* =h/Z と定義すると、これは他の座標系の透視変換の乗数その
ものであり、設計上都合がよい。つまり、Zをまず透視
変換し、それを乗数として、他の座標系を透視変換すれ
ばよい。 3.手法3 また、本実施例では、3次元オブジェクトを構成する各
3次元ポリゴンの境界における輝度情報の連続性を損な
わないようグーローシェーディング手法等により輝度情
報を演算している。
By applying texture coordinates, Z coordinates and luminance information to this W, linearization of all coordinates is realized.
In the case of texture coordinates Tx and Ty, and brightness information BRI, p = h and q = r = 0, and Tx * = Tx * (h / z) Ty * = Ty * (h / z) BRI * = BRI * If (h / z) is defined, the perspective transformation of X and Y and the multiplier can be made common. However, regarding the perspective transformation of Z, if Z * is the same as the above, Z * becomes equal to the constant h.
When p = r = 0 and q = h and Z * = h / Z is defined, this is a multiplier itself of the perspective transformation of another coordinate system, which is convenient in design. In other words, Z may be first perspective-transformed, and the other coordinate system may be perspective-transformed by using Z as a multiplier. 3. Method 3 In this embodiment, the brightness information is calculated by the Gouraud shading method or the like so as not to impair the continuity of the brightness information at the boundary of each three-dimensional polygon forming the three-dimensional object.

【0060】即ち、通常、この種の画像合成装置におい
ては、疑似3次元画像の各ドットでの輝度情報について
も演算し、最終的にテレビ等で表示する際に、別に演算
されたカラーコードと合成しながらこれを出力してい
る。この際に、特に問題となるのは、輝度情報の連続性
に関する問題である。即ち、疑似曲面、つまり物体表面
がポリゴンで構成されているにも関わらず、「丸み」を
表現したい場合が多々ある。例えば、輝度情報を各ポリ
ゴン毎にもたせている従来の画像合成装置では、各ポリ
ゴン間での輝度を連続なものとしなければ、ポリゴンと
ポリゴンの境界線が、画像上に表れてしまい前記した
「丸み」が得られない。
That is, normally, in this kind of image synthesizing device, the luminance information at each dot of the pseudo three-dimensional image is also calculated, and when it is finally displayed on a television or the like, the color code calculated separately is used. This is being output while synthesizing. At this time, a particular problem is a problem regarding continuity of luminance information. That is, there are many cases in which "roundness" is desired to be expressed even though the pseudo curved surface, that is, the surface of the object is composed of polygons. For example, in a conventional image synthesizing apparatus that applies brightness information to each polygon, unless the brightness between the polygons is continuous, the boundary line between the polygons appears on the image and the above-mentioned " I can't get roundness.

【0061】そこで、この輝度情報の連続性を保つべ
く、本実施例ではグローシェーディング手法等によりこ
れを解決している。この手法では、輝度情報はポリゴン
の各頂点に与えられている。そして、この各頂点に与え
られた輝度情報を補間演算することにより表示画面上で
の各ドットでの輝度情報を演算する手法を採っている。
従って、上記したようなポリゴン間での輝度情報の不連
続化といった問題は生じない。従って、例えば複数の3
次元ポリゴンを用いて球を表現した場合、境界が「丸
み」として表現された現実に近い球の画像を形成するこ
とができることになる。
Therefore, in order to maintain the continuity of the brightness information, this is solved by the glow shading method or the like in this embodiment. In this method, the brightness information is given to each vertex of the polygon. Then, a method of calculating the brightness information at each dot on the display screen by interpolating the brightness information given to each vertex is adopted.
Therefore, the problem of discontinuity of brightness information between polygons as described above does not occur. Thus, for example, a plurality of 3
When a sphere is represented by using a three-dimensional polygon, it is possible to form an image of a sphere whose boundary is represented as “roundness” and which is close to reality.

【0062】このグーローシェーディング手法等により
輝度情報を演算するために、本実施例では、第1の記憶
部780に記憶される3次元ポリゴンの各頂点に、あら
かじめ所定の頂点輝度情報を与えてておく。そして、画
像供給部712において、この頂点輝度情報に対する所
定の3次元演算処理を行った後、画像形成部740にお
いて、この頂点輝度情報から、ポリゴン内の各ドットの
輝度情報を補間演算により求めている。これにより、各
3次元ポリゴンの境界における輝度情報の連続性が保た
れ、境界における「丸み」を表現することが可能とな
る。
In order to calculate the luminance information by this Gouraud shading method or the like, in this embodiment, predetermined vertex luminance information is given to each vertex of the three-dimensional polygon stored in the first storage unit 780 in advance. Keep it. Then, after the image supply unit 712 performs a predetermined three-dimensional calculation process on the vertex luminance information, the image forming unit 740 calculates the luminance information of each dot in the polygon from the vertex luminance information by interpolation calculation. There is. As a result, the continuity of the brightness information at the boundary of each three-dimensional polygon is maintained, and it becomes possible to express the “roundness” at the boundary.

【0063】さて、本発明者は、このグーローシェーデ
ィング手法等を用いて、疑似3次元画像の画像合成を行
った場合、以下の問題点が生ずることを発見した。即
ち、前記したテクスチャマッピングにおける透視変換に
よって生じた問題と同様の問題が、この輝度情報の線形
補間演算においても生じることが判明した。この点につ
いて、図3を用いて説明する。
The inventor of the present invention has found that the following problems occur when image synthesis of pseudo three-dimensional images is performed by using the Gouraud shading method or the like. That is, it has been found that the same problem as the problem caused by the perspective transformation in the texture mapping described above also occurs in the linear interpolation calculation of the luminance information. This point will be described with reference to FIG.

【0064】例えば、図3(a)において、ポリゴンの
頂点である点A、B、C、Dでの輝度情報が与えられて
いる場合を考える。この場合、点Mでの輝度を求めるの
に、例えばただ単に線形補間により求めるとすれば、点
Cでの輝度と点Dでの輝度の平均値を求め、これを点M
での輝度とする。しかし、3次元画像を疑似3次元画像
に透視変換したときに、画面上で実際に上記した輝度を
持つべきドットは、同図(b)における点Eではなく、
同図(C)における点Fでなければならない。即ち、輝
度情報をただ単に線形補間により求めた場合、実際に表
示されるべき輝度情報により構成される画像と異なった
輝度情報が形成されることになってしまう。従って、例
えば同図(b)の点Eにおける輝度は、例えば多面体1
334が回転等してその奥行き情報(Z値)が変化して
も、2次元スクリーン上での点Eの位置に固定されてし
まい、多面体が回転しているという実感があまり感じら
れなくなってしまう問題も生じる。
For example, in FIG. 3A, consider the case where the luminance information is given at the points A, B, C and D which are the vertices of the polygon. In this case, if the brightness at the point M is simply calculated by linear interpolation, the average value of the brightness at the point C and the brightness at the point D is calculated, and the average value is calculated.
And the brightness. However, when the three-dimensional image is perspective-transformed into a pseudo three-dimensional image, the dot that should actually have the above-mentioned brightness on the screen is not the point E in FIG.
It must be the point F in FIG. That is, when the brightness information is simply obtained by linear interpolation, brightness information different from the image formed by the brightness information to be actually displayed will be formed. Therefore, for example, the brightness at the point E in FIG.
Even if the depth information (Z value) changes due to rotation of the 334 or the like, the depth information (Z value) is fixed at the position of the point E on the two-dimensional screen, and it becomes difficult to feel that the polyhedron is rotating. Problems also arise.

【0065】このような問題が生じた理由は、前記
(1)で述べたものと同様の原因による。即ち、ただ単
に線形補間をしたのでは、X、Y座標については透視変
換されるが、輝度情報については透視変換されておら
ず、これら座標系の間で線形な関係が保たれなくなって
しまっているからである。そこで本実施例では、この輝
度情報の演算においても、まずポリゴンの各頂点におけ
る輝度情報を透視変換し、この透視変換された頂点座標
に基づき各ドットにおける輝度情報を線形補間演算して
いる。これにより、物体の輝度情報についても、実際の
3次元物体において見えるべき輝度を忠実に再現でき、
前記(1)で述べたテクスチャ手法における遠近感、直
線性の向上と相まって、画質をより忠実に、リアリティ
ーを高めて再現することが可能となる。
The reason why such a problem occurs is the same as that described in the above (1). That is, if the linear interpolation is simply performed, the X and Y coordinates are perspective-transformed, but the luminance information is not perspective-transformed, and a linear relationship cannot be maintained between these coordinate systems. Because there is. Therefore, in this embodiment, also in the calculation of this brightness information, the brightness information at each vertex of the polygon is first perspective-transformed, and the brightness information at each dot is linearly interpolated based on the vertex coordinates that have been perspective-transformed. As a result, even with respect to the brightness information of the object, it is possible to faithfully reproduce the brightness that should be seen in the actual three-dimensional object,
Combined with the improved perspective and linearity in the texture method described in (1) above, it is possible to reproduce images with higher fidelity and increased reality.

【0066】しかも、この手法には、このように画質の
向上が図れるのにもかかわらず、ハード上の負担も少な
くて済むという利点がある。即ち、まず、この手法によ
る輝度情報演算は、前記したTX 、TY 座標の演算と全
く同様の構成のハードで実現できる。従って、ハードの
制御回路及び制御信号を共通化でき、新たにハードの制
御回路及び制御信号を設ける必要がない。従って、ハー
ドの負担を軽減することができる。また、この手法によ
れば、輝度情報の演算とTX 、TY 座標の演算とを、並
列に行うことができる。これにより、全画像情報の描画
スピードに影響を与えることなくこの輝度情報演算を実
現できることとなり、ハードの負担を軽減することがで
きる。 4.手法4 さて、本実施例は、主に家庭用ビデオゲーム機に適用さ
れるものである。しかも、前記したテクスチャマッピン
グ手法、グーローシェーディング手法等の高度な画像処
理のほとんど全てを、ゲーム用カートリッジ1内の補助
演算処理部710、第2の記憶部790にて行わなけれ
ばならない。従って、家庭用ビデオゲーム機に要求され
るコスト、面積上の問題からも、この補助演算処理部7
10、第2の記憶部790における演算処理の負担をい
かにして軽くするかが大きな技術的課題となる。
Moreover, this method has an advantage that the burden on the hardware can be reduced although the image quality can be improved as described above. That is, first, the brightness information calculation by this method can be realized by the hardware having exactly the same configuration as the above-described calculation of the TX and TY coordinates. Therefore, the hardware control circuit and the control signal can be shared, and it is not necessary to newly provide the hardware control circuit and the control signal. Therefore, the burden on the hardware can be reduced. Moreover, according to this method, the calculation of the luminance information and the calculation of the TX and TY coordinates can be performed in parallel. As a result, this brightness information calculation can be realized without affecting the drawing speed of all image information, and the burden on the hardware can be reduced. 4. Method 4 The present embodiment is mainly applied to a home video game machine. Moreover, almost all of the advanced image processing such as the texture mapping method and the Gouraud shading method must be performed by the auxiliary calculation processing unit 710 and the second storage unit 790 in the game cartridge 1. Therefore, in view of the cost and area problems required for the home video game machine, the auxiliary arithmetic processing unit 7
10. How to reduce the load of the arithmetic processing in the second storage unit 790 is a major technical issue.

【0067】さて、このような演算処理の負担を軽くす
るには、補助演算処理部710において最も数の多いデ
ータの演算処理、即ち、表示画面の各ドットにおける位
置座標、テクスチャ情報、輝度情報等の補間演算の回数
を少なくすればよい。このためには、これらのデータを
間引きして演算して、出力する際にこれを補間すること
が1つの有効な手段となる。
In order to reduce the load of such arithmetic processing, the arithmetic processing of the largest number of data in the auxiliary arithmetic processing unit 710, that is, the position coordinates at each dot of the display screen, texture information, brightness information, etc. It suffices to reduce the number of interpolation calculations of. For this purpose, one effective means is to thin out these data, calculate, and interpolate this when outputting.

【0068】しかし、従来のビットマップ方式の画像合
成装置では、いわゆるフィールドバッファと呼ばれるメ
モリには、カラー情報自体が記憶されていた。このよう
なカラー情報自体がフィールドバッファに記憶される構
成により、前記の間引き・補間手法の演算を行おうとす
ると、次のような問題が生じる。即ち、まず、フィール
ドバッファに記憶されるカラー情報が、カラーコードつ
まり符号化されたカラー情報である場合は、補間するこ
と自体が不可能であり、この場合は、全く論外である。
次に、記憶されるカラー情報が、RGB出力等のカラー
情報である場合は、合成された画像の質が極度に悪化す
るという事態が生じる。この理由は以下の通りである。
However, in the conventional bit map type image synthesizing device, the color information itself is stored in the so-called field buffer. Due to the configuration in which the color information itself is stored in the field buffer, the following problems occur when the calculation of the thinning / interpolation method is performed. That is, first, when the color information stored in the field buffer is a color code, that is, encoded color information, interpolation itself is impossible, and in this case, it is completely out of the question.
Next, when the stored color information is color information such as RGB output, a situation occurs in which the quality of the combined image is extremely deteriorated. The reason for this is as follows.

【0069】テクスチャ情報は表示したい画像に応じて
任意に与えられるものである。従って、そのデータの並
びには、線形性はおろか、何らの数学的規則性もない。
この結果、これを間引くということは、画像情報自体の
欠落を意味する。そして、この欠落した画像情報は補間
によってこれを取り戻すことは不可能である。従って、
合成された画質は、データの抜けを生じるなど極度に悪
化することになる。
The texture information is given arbitrarily according to the image to be displayed. Therefore, there is no mathematical regularity, let alone linearity, in the data sequence.
As a result, thinning out this means that the image information itself is missing. Then, it is impossible to recover this missing image information by interpolation. Therefore,
The combined image quality will be extremely deteriorated, such as data loss.

【0070】本第2の実施例では、フィールドバッファ
部に、カラー情報そのものではなく、テクスチャ情報記
憶手段に対する読み出し用テクスチャ座標TX 、TY を
記憶している。この読み出し用テクスチャ座標は全段の
プロセッサ部において間引きして演算されている。そし
て、読み出す際には、このテクスチャ座標を線形補間し
て、間の点のテクスチャ座標を求め、これによりテクス
チャ記憶手段からテクスチャ情報を読み出している。こ
の場合、スクリーン上でのテクスチャ座標は非線形なデ
ータであるが、微小部分ではこのように線形に補間して
も、画質をほとんど悪化させることがなく、良質な画像
を得ることができる。
In the second embodiment, not the color information itself but the read texture coordinates TX and TY for the texture information storage means are stored in the field buffer section. The read texture coordinates are thinned out and calculated in the processor units of all stages. Then, at the time of reading, the texture coordinates are linearly interpolated to obtain the texture coordinates of the points between them, and the texture information is read from the texture storage means. In this case, the texture coordinates on the screen are non-linear data, but even if the linear interpolation is performed in such a small portion, the image quality is hardly deteriorated and a high-quality image can be obtained.

【0071】このように本第2の実施例では、画質を良
好なものに保ちつつ、1つのデータを間引く毎に、最も
データ量の多い演算の回数を1/2以下にすることがで
き、ハードの負担を大幅に減少させることが可能とな
り、家庭用のビデオゲーム機に最適なハードウエア構成
を提供できることとなる。 B. 第1の実施例 1. 実施例の概要 図1には、本発明の実施例のブロック図が示される。
As described above, in the second embodiment, the number of operations with the largest amount of data can be reduced to ½ or less each time one data is thinned out while keeping the image quality good. It is possible to significantly reduce the load of hardware, and it is possible to provide an optimal hardware configuration for a home video game machine. B. First Embodiment 1. Outline of Embodiment FIG. 1 shows a block diagram of an embodiment of the present invention.

【0072】図1に示すように、本実施例に係るゲーム
用カートリッジ1は、コネクタ798を介してゲーム機
本体800に着脱自在となるように形成され、補助演算
処理部710、第1の記憶部780、第2の記憶部79
0を含んで構成される。
As shown in FIG. 1, the game cartridge 1 according to the present embodiment is formed so as to be attachable to and detachable from the game machine main body 800 via a connector 798, and has an auxiliary arithmetic processing section 710 and a first memory. Unit 780, second storage unit 79
It is configured to include 0.

【0073】ここで、ゲーム機本体800は、中央処理
部802、映像処理部804、ビデオRAM806、操
作部808を含んで構成されるが、ゲーム機本体800
の構成及び動作は、前記した従来例とほぼ同様であるた
め、ここでは説明を省略する。
Here, the game machine body 800 includes a central processing unit 802, a video processing unit 804, a video RAM 806, and an operation unit 808.
Since the configuration and the operation of are substantially the same as those of the conventional example described above, the description thereof will be omitted here.

【0074】さて、第1の記憶部780は、ROM等の
不揮発性メモリで形成され、プログラムデータ及び画像
構成データが格納されている。ここで、プログラムデー
タとしは、中央処理部802及び処理部714等を起動
するためのプログラム及び所定のゲーム空間を形成する
ためのプログラムが格納されている。
The first storage section 780 is formed of a non-volatile memory such as a ROM and stores program data and image configuration data. Here, as the program data, a program for starting the central processing unit 802, the processing unit 714 and the like and a program for forming a predetermined game space are stored.

【0075】従って、この第1の記憶部780に格納さ
れているプログラムデータの内容を書き換えることによ
り、種々のゲーム、例えば、シューティングゲーム、レ
ーシングゲーム、格闘技ゲーム、RPGゲーム、スポー
ツゲーム、戦闘シュミレーションゲーム等のゲーム空間
を形成することが可能となる。即ち、別のゲーム空間を
形成する場合においても、ゲーム機本体800自体を変
更する必要がなく、プログラムデータ及び画像構成デー
タ、具体的には第1の記憶部780のROMマスクを変
更するのみで、別のゲームを提供できることになる。従
って、プレーヤは、ゲーム用カートリッジ1を差し替え
るだけで、別のゲームを楽しむことができることにな
る。
Therefore, by rewriting the contents of the program data stored in the first storage unit 780, various games such as shooting games, racing games, martial arts games, RPG games, sports games, battle simulation games, etc. It becomes possible to form a game space such as. That is, even when another game space is formed, it is not necessary to change the game machine main body 800 itself, and it is only necessary to change the program data and the image configuration data, specifically, the ROM mask of the first storage unit 780. , Will be able to offer another game. Therefore, the player can enjoy another game only by replacing the game cartridge 1.

【0076】ここで、画像構成データとは、ゲーム空間
を構成する画像データで形成されるものであり、本実施
例ではポリゴンの集合として表現された3次元オブジェ
クトとして、記憶されている。図27には、この3次元
オブジェクトの具体例が示される。即ち、同図に示すよ
うに、マイシップを表す3次元オブジェクト300は、
翼を表すポリゴン362、364、366等、本体を表
すポリゴン368等、エンジンを表すポリゴン370等
の集合として表現され、第1の記憶部780に記憶され
る。この場合、記憶される実際のデータは、頂点画像情
報、即ち各ポリゴンの頂点座標、頂点テクスチャ座標、
頂点輝度情報及び各種の付随データであり、補助演算処
理部710では、これらの頂点画像情報に対して各種の
3次元座標演算が行われることになる。
Here, the image configuration data is formed by image data that configures the game space, and is stored as a three-dimensional object represented as a set of polygons in this embodiment. FIG. 27 shows a specific example of this three-dimensional object. That is, as shown in the figure, the three-dimensional object 300 representing myship is
It is represented as a set of polygons 362, 364, 366, etc. representing the wings, polygon 368, etc. representing the main body, polygons 370, etc. representing the engine, and stored in the first storage unit 780. In this case, the actual data stored is the vertex image information, that is, the vertex coordinates of each polygon, the vertex texture coordinates,
It is the vertex brightness information and various accompanying data, and the auxiliary computation processing unit 710 performs various three-dimensional coordinate computations on these vertex image information.

【0077】第1の記憶部780には、このようなマイ
シップを表す3次元オブジェクト300の他、雲、山等
の背景、敵機、ミサイルを表す3次元オブジェクトな
ど、ゲーム空間を構成する全ての画像情報が画像構成デ
ータとして記憶されている補助演算処理部710は、ゲ
ーム機本体800が従来行っていた画像処理を補助する
ためにゲーム用カートリッジ1内に新たに設けられたも
のであり、画像供給部712、画像形成部740を含ん
で構成される。
In the first storage unit 780, in addition to the three-dimensional object 300 representing such a myship, three-dimensional objects representing backgrounds such as clouds and mountains, enemy planes, and missiles, all of the game space is constructed. The auxiliary arithmetic processing unit 710 in which the image information is stored as image configuration data is newly provided in the game cartridge 1 to assist the image processing that the game machine main body 800 has conventionally performed. The supply unit 712 and the image forming unit 740 are included.

【0078】ここで、画像供給部712は、全体の制御
及び各種の処理を行う処理部714、3次元空間での座
標変換を行う座標変換部716、クリッピング処理部7
18、透視変換部720、ソーティング処理部722を
含んで構成される。
Here, the image supply unit 712 is a processing unit 714 that performs overall control and various processes, a coordinate conversion unit 716 that performs coordinate conversion in a three-dimensional space, and a clipping processing unit 7.
18, a perspective conversion unit 720, and a sorting processing unit 722.

【0079】また、画像形成部740は、図2に示すよ
うに、プロセッサ部30、ペイントRAM36を含んで
構成される。
The image forming section 740, as shown in FIG. 2, includes a processor section 30 and a paint RAM 36.

【0080】第2の記憶部790は、補助演算処理部7
10で演算処理された結果を記憶するものであり、書換
え可能なメモリを含んで形成される。具体的には、図2
に示すように、書換え可能なメモリで構成されるフィー
ルドバッファ部40、テクスチャ情報記憶部42、アト
リビュートRAM部38を含んで形成される。
The second storage unit 790 is the auxiliary arithmetic processing unit 7.
The result of arithmetic processing in 10 is stored, and it is formed including a rewritable memory. Specifically, FIG.
As shown in FIG. 5, the rewritable memory includes a field buffer unit 40, a texture information storage unit 42, and an attribute RAM unit 38.

【0081】なお、この第2の記憶部790は、画像情
報のみならず、補助演算処理部710で変更されたプロ
グラムデータ、画像構成データを記憶することもでき
る。
The second storage section 790 can store not only image information but also program data and image configuration data changed by the auxiliary arithmetic processing section 710.

【0082】このように本実施例では、従来は単なる書
換え不可能なキャラクタジェネレータ504にすぎなか
った第2の記憶部790が、書換え可能なメモリを含ん
で形成されるように変更されている。そして、この第2
の記憶部790には、前記したように補助演算処理部7
10で処理されたデータが順次書き込まれる。従って、
従来は変更することが不可能であったキャラクタ情報等
の画像情報、プログラムデータ等をゲーム進行中に変更
し、このデータを用いてゲーム空間を形成することがで
きる。この結果、従来、ゲーム機本体800そのものを
変更しなければ不可能であったゲーム空間の3次元化、
仮想3次元空間の設定、テクスチャマッピング、グーロ
ーシェーディング等の輝度情報の演算処理、設定された
ゲームプログラム自体の変更、使用する画像構成データ
の変更等を行うことが可能となる。そして、これらの処
理は、以下に述べるように、主に補助演算処理部71
0、第2の記憶部790で行われるため、ゲーム機本体
800の中央処理部802の大きな負担をかけることな
くこれらの処理を行うことが可能となる。
As described above, in the present embodiment, the second storage unit 790, which was conventionally only the non-rewritable character generator 504, is modified to include a rewritable memory. And this second
In the storage unit 790, the auxiliary arithmetic processing unit 7
The data processed in 10 is sequentially written. Therefore,
Image information such as character information, program data, etc., which could not be changed conventionally, can be changed while the game is in progress, and a game space can be formed using this data. As a result, three-dimensionalization of the game space, which has been impossible until now without changing the game machine body 800 itself,
It is possible to perform setting of a virtual three-dimensional space, calculation processing of brightness information such as texture mapping, Gouraud shading, change of set game program itself, change of image configuration data to be used, and the like. Then, these processes are mainly performed by the auxiliary arithmetic processing unit 71, as described below.
0 and the second storage unit 790, it is possible to perform these processes without imposing a heavy load on the central processing unit 802 of the game machine body 800.

【0083】以下、図5、図6等を用いて補助演算処理
部710、第2の記憶部790の構成及び動作の概要を
説明する。
Below, an outline of the configuration and operation of the auxiliary operation processing section 710 and the second storage section 790 will be explained using FIG. 5, FIG. 6 and the like.

【0084】3次元オブジェクト300に関する画像情
報は、前記したようにポリゴンに分割された多面体とし
て表現され、この各頂点座標、頂点テクスチャ座標、頂
点輝度情報及び付随データ等が第1の記憶部780に記
憶されている。そして、この各頂点座標及び付随データ
は、処理部714により読み出され、所定のデータフォ
ーマット例えば図6に示すデータフォーマットに変換さ
れる。
The image information about the three-dimensional object 300 is represented as a polyhedron divided into polygons as described above, and the vertex coordinates, vertex texture coordinates, vertex brightness information, and associated data are stored in the first storage unit 780. Remembered Then, each vertex coordinate and the associated data are read by the processing unit 714 and converted into a predetermined data format, for example, the data format shown in FIG.

【0085】図6(a)には、このデータフォーマット
の全体図が示されている。同図に示すように、処理され
るデータは、フレームデータを先頭に、このフレーム内
に表示される全ての3次元オブジェクトのオブジェクト
データが連なるようにして構成されている。そして、こ
のオブジェクトデータの後には、この3次元オブジェク
トを構成するポリゴンのポリゴンデータが更に連なるよ
うに構成されている。
FIG. 6A shows an overall view of this data format. As shown in the figure, the data to be processed is configured such that the frame data is at the head and the object data of all three-dimensional objects displayed in this frame are continuous. Then, after this object data, polygon data of polygons forming the three-dimensional object is further arranged.

【0086】ここで、フレームデータとは、フレームご
とに変化するパラメータにより形成されるデータをい
い、1フレーム内の全ての3次元オブジェクトに共通な
データであるプレーヤの視点位置・角度・視野角情報、
モニタの角度・大きさ情報、光源の情報等のデータより
構成される。これらのデータは1フレームごとに設定さ
れ、例えば表示画面上にウィンドウ等を形成した場合
は、ウィンドウごとに異なるフレームデータが設定され
る。これにより表示画面上に例えばレーシングゲームで
あれバックミラーや、レーシングカーを上から見た画面
等を形成することができる。
Here, the frame data refers to data formed by parameters that change for each frame, and is information common to all three-dimensional objects in one frame, which is the viewpoint position / angle / viewing angle information of the player. ,
It consists of data such as monitor angle / size information and light source information. These data are set for each frame. For example, when a window or the like is formed on the display screen, different frame data is set for each window. As a result, it is possible to form a rearview mirror in a racing game, a screen of a racing car viewed from above, or the like on the display screen.

【0087】また、オブジェクトデータとは、3次元オ
ブジェクトごとに変化するパラメータにより形成される
データをいい、3次元オブジェクト単位での位置情報、
回転情報等のデータより構成される。
The object data refers to data formed by parameters that change for each three-dimensional object, and position information in units of three-dimensional objects,
It is composed of data such as rotation information.

【0088】また、ポリゴンデータとは、ポリゴンの画
像情報等により形成されるデータをいい、図6(b)に
示すようにヘッダ、頂点輝度情報I0 〜I3 、頂点テク
スチャ座標TX0、TY0〜TX3、TY3、頂点座標X0 、Y
0 、Z0 〜X3 、Y3 、Z3等、その他の付属データに
より構成される。
Further, the polygon data means data formed by image information of polygons and the like, and as shown in FIG. 6B, a header, vertex luminance information I0 to I3, vertex texture coordinates TX0, TY0 to TX3, TY3, vertex coordinates X0, Y
0, Z0 to X3, Y3, Z3, etc., and other auxiliary data.

【0089】座標演算部16は、以上のフォーマットの
データを読み出し、操作部808から中央処理部802
を介して入力された操作信号にしたがって、この各頂点
座標等に対し各種の演算処理を行っている。以下、この
演算処理を詳しく説明する。
The coordinate calculation unit 16 reads out the data in the above format, and the operation unit 808 to the central processing unit 802 reads it.
Various arithmetic processes are performed on the respective vertex coordinates and the like in accordance with the operation signal input via the. Hereinafter, this arithmetic processing will be described in detail.

【0090】例えばシューティングゲームを例にとれ
ば、図5に示すように、第1の記憶部780から読み出
されたマイシップ、敵機、ビル、山等を表す3次元オブ
ジェクト300、332、334が、ワールド座標系
(XW 、YW 、ZW )で表現される仮想3次元空間上に
配置される。その後、これらの3次元オブジェクトを表
す画像情報は、プレーヤ302の視点を基準とした視点
座標系(Xv、Yv、Zv)へと座標変換される。ここ
で、視点座標系における座標Zvは奥行きを表すもので
は、Zvの値が大きいものほど疑似3次元画像において
奥に位置されることとなる。
Taking a shooting game as an example, as shown in FIG. 5, three-dimensional objects 300, 332, 334 representing myships, enemy planes, buildings, mountains, etc. read from the first storage unit 780 are displayed. , Are arranged in a virtual three-dimensional space represented by the world coordinate system (XW, YW, ZW). After that, the image information representing these three-dimensional objects is coordinate-converted into a viewpoint coordinate system (Xv, Yv, Zv) with the viewpoint of the player 302 as a reference. Here, the coordinate Zv in the viewpoint coordinate system represents the depth, and the larger the value of Zv, the deeper it is located in the pseudo three-dimensional image.

【0091】次に、クリッピング処理部718にて、い
わゆるクリッピング処理と呼ばれる画像処理が行われ
る。ここで、クリッピング処理とはプレーヤ302の視
野外(又は3次元空間上で開かれたウィンドウの視野
外)にある画像情報、即ち前方・後方・右側・下方・左
側・上方のクリッピング面340、342、344、3
46、348、350により囲まれ領域(以下表示領域
2とする)の外にある画像情報を除去する画像処理をい
う。つまり、本装置によりその後の処理に必要とされる
画像情報は、プレーヤ302の視野内にある画像情報の
みである。従って、クリッピング処理によりこれ以外の
情報をあらかじめ除去すれば、その後の処理の負担を大
幅に減らすことができることとなる。
Next, the clipping processing section 718 performs image processing called so-called clipping processing. Here, the clipping processing is image information outside the field of view of the player 302 (or outside the field of view of the window opened in the three-dimensional space), that is, the front / rear / right / down / left / up clipping planes 340 and 342. 344, 3
This is image processing for removing image information outside an area (hereinafter referred to as display area 2) surrounded by 46, 348, and 350. That is, the image information required by the present apparatus for the subsequent processing is only the image information within the visual field of the player 302. Therefore, if the other information is removed in advance by the clipping process, the load of the subsequent process can be significantly reduced.

【0092】次に、透視変換部720にて、表示領域2
内にある物体に対してのみ、スクリーン座標系(XS 、
YS )への透視変換が行われ、次段のソーティング処理
部722へとデータが出力される。
Next, in the perspective conversion unit 720, the display area 2
Only for objects inside is the screen coordinate system (XS,
YS) is perspective-converted, and the data is output to the sorting processing unit 722 at the next stage.

【0093】ソーティング処理部722では、各ポリゴ
ンに対する優先順位が設定され、その後のポリゴンの処
理はこの優先順位にしたがって行われることになる。
In the sorting processing section 722, the priority order is set for each polygon, and the subsequent processing of the polygons will be carried out in accordance with this priority order.

【0094】次にソーティング処理部722から、画像
形成部740にソーティング後のデータが出力される。
この場合、ソーティング処理部722からは、透視変換
されたポリゴンの頂点座標VX* 、VY* 、VZ* 、ポ
リゴンの各頂点に対応した頂点テクスチャ座標VTX 、
VTY 及び頂点輝度情報VBRIが出力される。また、
アトリビュートデータ、即ちポリゴン内の全てのドット
に共通する画像情報も出力される。
Next, the sorting processing section 722 outputs the sorted data to the image forming section 740.
In this case, the sorting processing unit 722 outputs the vertex coordinates VX * , VY * , VZ * of the perspective-transformed polygon, the vertex texture coordinates VTX corresponding to the respective vertices of the polygon,
VTY and vertex brightness information VBRI are output. Also,
Attribute data, that is, image information common to all dots in the polygon is also output.

【0095】なお、ここで頂点テクスチャ座標VTX 、
VTY とは、ポリゴンにはり付けるテクスチャ情報のア
ドレスを指定するものである。具体的にいえば、図1の
テクスチャ情報記憶部42のアドレスを指定するもので
ある。テクスチャ情報記憶部42により構成されるテク
スチャ記憶平面は、後述するように図16に示すような
構造となっている。このテクスチャ記憶平面には、ポリ
ゴンにはり付けるべきテクスチャ情報があらかじめ記憶
されている。ここで、テクスチャ情報とは、前述した図
26の道路820にはり付けるタイル状のテクスチャ、
側道822にはり付ける芝生状のテクスチャ、家824
にはり付ける煉瓦状のテクスチャ等を表す画像情報をい
う。但し、テクスチャ記憶平面には、これらのタイル
状、アスファルト状、煉瓦状のテクスチャに限らず任意
の形状のテクスチャ情報を記憶しておくことができる。
Here, the vertex texture coordinates VTX,
VTY designates an address of texture information to be attached to a polygon. Specifically, the address of the texture information storage unit 42 of FIG. 1 is designated. The texture storage plane configured by the texture information storage unit 42 has a structure shown in FIG. 16 as described later. Texture information to be attached to polygons is stored in advance in this texture storage plane. Here, the texture information is a tiled texture to be attached to the road 820 of FIG.
House 824, grassy texture sticking to the side road 822
Image information that represents a brick-like texture or the like to be attached to. However, the texture storage plane can store texture information of any shape, not limited to these tile-shaped, asphalt-shaped, and brick-shaped textures.

【0096】本第1の実施例においては、このテクスチ
ャ情報をテクスチャ座標により読み出して、読み出され
たテクスチャ情報をポリゴンの各ドットに対応づけるこ
とでテクスチャマッピングを行なっている。そして、本
第1の実施例では、このテクスチャ情報のポリゴンの各
ドットへの対応づけを、ポリゴンの各頂点に対応するテ
クスチャ座標、即ちテクスチャ頂点座標のみを指定し
て、これを行っている。頂点以外の他のドットへの対応
づけは、テクスチャ頂点座標を補間して他のドットに対
応づけられるべきテクスチャ座標を求め、この補間され
たテクスチャ座標によりテクスチャ情報を読み出すこと
によって行えるからである。
In the first embodiment, this texture information is read by the texture coordinates, and the read texture information is associated with each dot of the polygon to perform texture mapping. Then, in the first embodiment, the correspondence of this texture information to each dot of the polygon is performed by designating only the texture coordinates corresponding to each vertex of the polygon, that is, the texture vertex coordinates. This is because associating with dots other than the vertex can be performed by interpolating texture vertex coordinates to obtain texture coordinates that should be associated with other dots, and reading texture information from the interpolated texture coordinates.

【0097】さて、画像形成部740では、まず、前記
優先順位に従って、透視変換頂点座標VX* 、VY*
メインプロセッサ32へ入力される。また、透視変換頂
点座標VZ* 、頂点テクスチャ座標VTX 、VTY 及び
頂点輝度情報VBRIがコプロセッサ32に入力され
る。また、各ポリゴンに共通のアトリビュートデータが
第2の記憶部790内のアトリビュートRAM部38に
入力される。
In the image forming section 740, the perspective transformation vertex coordinates VX * and VY * are first input to the main processor 32 according to the priority order. Further, the perspective transformation vertex coordinates VZ * , vertex texture coordinates VTX, VTY, and vertex brightness information VBRI are input to the coprocessor 32. In addition, attribute data common to each polygon is input to the attribute RAM unit 38 in the second storage unit 790.

【0098】メインプロセッサ32では、透視変換頂点
座標VX* 、VY* を線形補間演算することにより、ポ
リゴンを構成する全てのドットの透視変換表示座標
* 、Y* が演算され、プロセッサ部30がら出力され
る。
In the main processor 32, the perspective transformation display coordinates X * , Y * of all the dots forming the polygon are calculated by linearly interpolating the perspective transformation vertex coordinates VX * , VY * , and the processor unit 30 is operated. Is output.

【0099】コプロセッサ34では、透視変換頂点座標
VZ* は線形補間され、頂点テクスチャ座標VTX 、V
TY 及び頂点輝度情報VBRIは、透視変換され、その
後線形補間演算されることにより、それぞれ、透視変換
表示座標Z* 、透視変換テクスチャ座標TX * 、TY *
及び透視変換輝度情報BRI* が演算される。この場合
の演算は、メインプロセッサ32での演算結果を利用し
ながら行われる。
In the coprocessor 34, the perspective transformation vertex coordinates VZ * are linearly interpolated to obtain vertex texture coordinates VTX, VTX.
The TY and the vertex luminance information VBRI are perspective-transformed, and then linearly interpolated to obtain the perspective transformation display coordinates Z * , the perspective transformation texture coordinates TX * , and TY * , respectively .
And the perspective conversion luminance information BRI * are calculated. The calculation in this case is performed using the calculation result in the main processor 32.

【0100】なお、本実施例では、コプロセッサ部34
には、透視変換されていない頂点テクスチャ座標及び頂
点輝度情報を入力する構成としたが、本発明はこれに限
らず、例えば、頂点テクスチャ座標、頂点輝度情報を透
視変換部720にて透視変換して、コプロセッサ部34
に入力する構成としても構わない。
In the present embodiment, the coprocessor unit 34
, The vertex texture coordinates and the vertex luminance information that have not been perspective-transformed are input. However, the present invention is not limited to this, and, for example, the vertex texture coordinates and vertex luminance information are perspective-transformed by the perspective transformation unit 720. The coprocessor unit 34
It may be configured to input to.

【0101】次に、透視変換テクスチャ座標TX * 、T
Y * 、透視変換輝度情報BRI* は、透視変換表示座標
* を利用して、テクスチャ座標TX 、TY 、輝度情報
BRIに逆透視変換され、プロセッサ部30より出力さ
れる。このように逆透視変換するのは、テクスチャ情報
記憶部42からテクスチャ情報を読み出すには、透視変
換されていないテクスチャ座標が必要とされるからであ
る。
Next, perspective transformation texture coordinates TX * , T
The Y * and perspective transformation luminance information BRI * are inverse perspective transformed into texture coordinates TX, TY and luminance information BRI using the perspective transformation display coordinates Z *, and output from the processor unit 30. The inverse perspective transformation is performed in this manner because texture coordinates that have not been perspective transformed are required to read the texture information from the texture information storage unit 42.

【0102】なお、メインプロセッサ32には、ペイン
トRAM36が接続されている。このペイントRAM3
6は、既に演算処理が終了して塗りつぶしてしまったド
ットの演算処理を省略するために用いられるものであ
る。即ち、本第1の実施例においては、画像の描画はポ
リゴン毎に行われ、手前のポリゴンよりこの描画処理が
行われる。従って、既に描画が終了して塗りつぶされて
しまったドットについての演算処理は、次のフィールド
の描画まで行う必要がない。そこで、この演算処理を省
略することにより、演算回数を大幅に減らすことがで
き、ハードの負担を軽くすることができる。
A paint RAM 36 is connected to the main processor 32. This paint RAM3
6 is used to omit the calculation processing of dots that have already been filled after the calculation processing has been completed. That is, in the first embodiment, the image drawing is performed for each polygon, and this drawing process is performed for the polygon in front. Therefore, it is not necessary to perform the calculation process for the dots which have already been drawn and are filled until the drawing of the next field. Therefore, by omitting this calculation process, the number of calculations can be significantly reduced and the burden on the hardware can be reduced.

【0103】このペイントRAM36で構成される記憶
平面は表示画面のドットに1対1に対応しており、各ド
ットに対して例えば1ビット単位で終了フラッグと呼ば
れるデータが記憶される構造となっている。この終了フ
ラッグは、各ドットの演算処理が終了したか否かを表示
するために使用されるフラッグである。即ち、演算処理
が終了したドットについては、例えば1がメインプロセ
ッサ32により書き込まれる。そして、メインプロセッ
サ32はこの終了フラッグを常にモニターしており、こ
の終了フラッグが1となっているドットについての演算
処理を行わないようにしている。これにより、既に塗り
つぶされた領域につていのポリゴンの演算処理をその後
行う必要がなくなり、処理速度の大幅な高速化が図れる
こととなる。
The storage plane formed by the paint RAM 36 corresponds to the dots on the display screen one to one, and for each dot, for example, data called an end flag is stored in 1-bit units. There is. This end flag is a flag used to display whether or not the calculation processing of each dot is completed. That is, for the dot for which the arithmetic processing has been completed, for example, 1 is written by the main processor 32. Then, the main processor 32 constantly monitors this end flag, and does not perform the arithmetic processing for the dot whose end flag is 1. As a result, it is not necessary to subsequently perform the calculation processing of the polygons in the already filled area, and the processing speed can be significantly increased.

【0104】第2の記憶部790は、図2に示すように
フィールドバッファ部40、テクスチャ情報記憶部4
2、アトリビュートデータ部38を含んで構成される。
The second storage section 790 stores the field buffer section 40 and the texture information storage section 4 as shown in FIG.
2. The attribute data section 38 is included.

【0105】フィールドバッファ部40内には、テレビ
等の表示装置の表示スクリーンの各ドットに1対1に対
応する記憶領域で構成されるビデオRAMが内蔵されて
いる。そして、コプロセッサ34で演算されたテクスチ
ャ座標TX 、TY 、輝度情報BRIは、メインプロセッ
サ32で演算された表示座標X* 、Y* をアドレスとし
て、このビデオRAMの各記憶領域に記憶される。
The field buffer section 40 has a built-in video RAM composed of a storage area in which each dot on the display screen of a display device such as a television corresponds to each dot. The texture coordinates TX and TY and the brightness information BRI calculated by the coprocessor 34 are stored in the respective storage areas of the video RAM with the display coordinates X * and Y * calculated by the main processor 32 as addresses.

【0106】なお、フィールドバッファ部40内には、
ポリゴン識別番号発生器が内蔵されており、この発生器
より出力されたポリゴン識別番号PNも、前記したビデ
オRAMの各ビットに記憶される。そしてフィールドバ
ッファ部40からTX 、TY、BRIが出力されるのに
同期して、このポリゴン識別番号PNもアトリビュート
RAM部38に出力される。アトリビュートRAM部3
8は、このポリゴン識別番号PNにしたがって、各ポリ
ゴンに共通のアトリビュートデータを出力することとな
る。
In the field buffer section 40,
A polygon identification number generator is built in, and the polygon identification number PN output from this generator is also stored in each bit of the above video RAM. The polygon identification number PN is also output to the attribute RAM unit 38 in synchronization with the output of TX, TY, and BRI from the field buffer unit 40. Attribute RAM section 3
8 outputs the attribute data common to each polygon according to this polygon identification number PN.

【0107】但し、本発明は、必ずしも、この第1の実
施例のようにアトリビュートデータをゲーム用カートリ
ッジ1側で指定する構成とする必要はなく、ゲーム機本
体800側でパレットナンバ等のアトリビュートデータ
を指定する構成としてもよい。
However, according to the present invention, it is not always necessary to specify the attribute data on the game cartridge 1 side as in the first embodiment, and the attribute data such as the palette number on the game machine main body 800 side. May be specified.

【0108】テクスチャ情報記憶部42内には、記憶手
段が内蔵され、この記憶手段の各ビットには、あらかじ
めカラーコード等のテクスチャ情報が記憶されている。
そして、フィールドバッファ部40から入力されたテク
スチャ座標TX 、TY をアドレスとして、このテクスチ
ャ情報が読み出され、このカラーコードが出力されるこ
とになる。
A storage unit is built in the texture information storage unit 42, and texture information such as a color code is stored in advance in each bit of this storage unit.
The texture information is read out using the texture coordinates TX and TY input from the field buffer unit 40 as addresses, and the color code is output.

【0109】最後に、これらの出力データは、映像処理
部804に出力され、表示装置に映像出力される。
Finally, these output data are output to the image processing unit 804 and output to the display device as an image.

【0110】なお、図2に示す本第1の実施例では、フ
ィールドバッファ部40から読み出されたテクスチャ座
標によりテクスチャ情報記憶部42からカラーデータを
読み出す構成としたが、本発明はこれに限らず、例え
ば、プロセッサ部30で演算されたテクスチャ座標を用
いて、直接テクスチャ情報記憶部42からテクスチャ情
報を読み出し、このテクスチャ情報をフィールドバッフ
ァ部40に記憶する構成としてもよい。
In the first embodiment shown in FIG. 2, the color data is read from the texture information storage unit 42 by the texture coordinates read from the field buffer unit 40, but the present invention is not limited to this. Alternatively, for example, the texture information may be directly read from the texture information storage unit 42 using the texture coordinates calculated by the processor unit 30, and the texture information may be stored in the field buffer unit 40.

【0111】図8には、本第1の実施例の動作を示すフ
ローチャートが示され、図7には、このフローチャート
のフロー1100,1200及び1300で実行される
演算手法が視覚的に示されている。以下、この図8及び
図7を用いて、主に画像形成部740、第2の記憶部7
90において行われる演算処理の概要を説明する。
FIG. 8 is a flow chart showing the operation of the first embodiment, and FIG. 7 is a visual representation of the calculation method executed in the flows 1100, 1200 and 1300 of this flow chart. There is. The image forming unit 740 and the second storage unit 7 will be mainly described below with reference to FIGS. 8 and 7.
The outline of the arithmetic processing performed at 90 will be described.

【0112】実施例では、画像供給部712において、
図8に示すフロー1000に示す動作が実行される。そ
して、ソーティング処理部722からは、各ポリゴン毎
にポリゴンデータが出力される。このとき、各ポリゴン
には予め優先順位が与えられており、ソーティング処理
部722からは、優先順位にしたがって、各ポリゴンの
データが出力される。このとき出力される各ポリゴンの
ポリゴンデータは、各ポリゴンの透視変換頂点座標、各
頂点に対応した頂点テクスチャ座標を含む。
In the embodiment, in the image supply unit 712,
The operation shown in the flow 1000 shown in FIG. 8 is executed. Then, the sorting processing unit 722 outputs polygon data for each polygon. At this time, the respective polygons are given priorities in advance, and the sorting processing unit 722 outputs the data of the respective polygons in accordance with the priorities. The polygon data of each polygon output at this time includes perspective transformation vertex coordinates of each polygon and vertex texture coordinates corresponding to each vertex.

【0113】このときソーティング処理部722から出
力される各ポリゴンの透視変換頂点座標VX* ,VY*
はメインプロセッサ32へ入力され、ここでフロー11
00に従った演算が実行される。即ち、左右輪郭点が演
算され、左右輪郭点に囲まれた走査線上における各ドッ
トの透視変換表示座標X* 、Y* が演算され、ポリゴン
を構成する全てのドットについての演算が終了するまで
上記演算が繰り返される。そして、このようにして演算
された各ドットの透視変換表示座標X* ,Y*は、フィ
ールドバッファ40への書き込みアドレスとして出力さ
れる。そして、この書き込みアドレスで指定されたフィ
ールドバッファ部40内には、ポリゴン識別番号PNが
そのデータの1つとして書き込まれる。
At this time, the perspective transformation vertex coordinates VX * , VY * of each polygon output from the sorting processing section 722 .
Is input to the main processor 32, where flow 11
The calculation according to 00 is executed. That is, the left and right contour points are calculated, the perspective transformation display coordinates X * , Y * of each dot on the scanning line surrounded by the left and right contour points are calculated, and the calculation is performed until all the dots forming the polygon are finished. The calculation is repeated. Then, the perspective transformation display coordinates X * , Y * of each dot calculated in this way are output as a write address to the field buffer 40. Then, the polygon identification number PN is written as one of the data in the field buffer unit 40 designated by this write address.

【0114】また、このフロー1100に示す動作と平
行して、コプロセッサ34により、フロー1200,1
300に示す動作が実行される。
Further, in parallel with the operation shown in the flow 1100, the coprocessor 34 causes the flows 1200, 1
The operation shown at 300 is performed.

【0115】すなわち、ソーティング処理部722から
ポリゴンの各頂点に対応する頂点テクスチャ座標VTX
,VTY と、透視変換頂点座標VZ* と後述する輝度
情報とが入力される。
That is, the vertex texture coordinates VTX corresponding to each vertex of the polygon from the sorting processing unit 722.
, VTY, perspective transformation vertex coordinates VZ *, and brightness information described later.

【0116】そして、コプロセッサ34では、フロー1
200に従って、頂点テクスチャ座標VTX 、VTY か
ら透視変換頂点テクスチャ座標VTX * ,VTY * が求
められる。次に、この透視変換頂点テクスチャ座標VT
X * ,VTY * から左右輪郭点が演算され、この左右輪
郭点に挾まれる走査線上の各ドット毎の透視変換テクス
チャ座標TX * ,TY * が演算され、ポリゴンを構成す
る全てのドットについての演算が終了するまで上記演算
が繰り返される。
Then, in the coprocessor 34, the flow 1
In accordance with 200, perspective transformation vertex texture coordinates VTX * , VTY * are obtained from the vertex texture coordinates VTX, VTY. Next, this perspective transformation vertex texture coordinate VT
The left and right contour points are calculated from X * , VTY *, and the perspective transformation texture coordinates TX * , TY * for each dot on the scanning line sandwiched between these left and right contour points are calculated, and all the dots that form the polygon are calculated. The above calculation is repeated until the calculation is completed.

【0117】このような演算と平行して、コプロセッサ
34では、フロー1300の演算動作が行われ、ポリゴ
ンの透視変換表示座標Z* の演算が対応する各ドット毎
に行われる。
In parallel with the above operation, the coprocessor 34 performs the operation of flow 1300, and the operation of the polygon perspective conversion display coordinates Z * is performed for each corresponding dot.

【0118】そして、フロー1200のステップ34に
おいて、各ドット毎に求めた透視変換テクスチャ座標T
X * ,TY * を、透視変換表示座標Z* を用い、逆透視
変換し、テクスチャ座標TX ,TY として出力する。こ
の様に出力されたテクスチャ座標TX ,TY は、前記フ
ロー1100のステップ23で出力されるフィールドバ
ッファ部40の書き込みアドレス位置へ書き込まれるこ
とになる。
Then, in step 34 of the flow 1200, the perspective transformation texture coordinate T obtained for each dot is calculated.
X * and TY * are inverse perspective transformed using perspective transformation display coordinates Z * and output as texture coordinates TX and TY. The texture coordinates TX and TY thus output are written in the write address position of the field buffer unit 40 output in step 23 of the flow 1100.

【0119】このようにして、フィールドバッファ部4
0には、フロー1100で指定されたアドレス位置、す
なわちポリゴンを構成する各ドットのアドレス位置に、
当該アドレスに対応したテクスチャ座標TX ,TY とポ
リゴン識別番号PNが書き込まれることになる。
In this way, the field buffer unit 4
At 0, at the address position specified in the flow 1100, that is, the address position of each dot forming the polygon,
The texture coordinates TX and TY and the polygon identification number PN corresponding to the address are written.

【0120】また、このような書き込み動作と平行し
て、フロー1500の動作に従い、アトリビュートRA
M部38にはソーティング処理部722から出力される
各ポリゴンのアトリビュートデータが順次記憶される。
In parallel with such a write operation, the attribute RA
Attribute data of each polygon output from the sorting processing unit 722 is sequentially stored in the M unit 38.

【0121】このような一連の動作を、ソーティング処
理部722から各ポリゴンのポリゴンデータが出力され
る毎に繰り返して行い、フィールドバッファ40及びア
トリビュートRAM38へのデータの書き込みが繰り返
して行われる。
The series of operations as described above is repeated every time polygon data of each polygon is output from the sorting processing section 722, and the data is repeatedly written to the field buffer 40 and the attribute RAM 38.

【0122】このようにして、一画面分のデータの書き
込みが終了すると、次にフィールドバッファ部40,ア
トリビュートRAM部38からのデータの読み出しが開
始される。但し、本第1の実施例においては、フィール
ドバッファ部40及びアトリビュートRAM部38にお
ける画像情報の記憶空間は、2画面分を記憶できるよう
に構成されている。従って、実際には、この書き込みと
読み出しは同時に行われており、これにより、演算処理
時間の効率化が図られている。
When the writing of the data for one screen is completed in this way, the reading of the data from the field buffer section 40 and the attribute RAM section 38 is started next. However, in the first embodiment, the storage space of the image information in the field buffer unit 40 and the attribute RAM unit 38 is configured to store two screens. Therefore, in reality, this writing and reading are performed at the same time, which improves the efficiency of the calculation processing time.

【0123】まず、フィールドバッファ部40からは、
例えばディスプレイの水平走査に同期して、各ドット毎
に書き込まれたテクスチャ座標TX ,TY が読出しアド
レスとしてテクスチャ情報記憶部42へ向け出力され
る。そして、これと共に、ポリゴン識別番号PNが読出
しアドレスとして、アトリビュートRAM部38へ向け
出力される。
First, from the field buffer section 40,
For example, in synchronization with the horizontal scanning of the display, the texture coordinates TX and TY written for each dot are output to the texture information storage unit 42 as read addresses. Along with this, the polygon identification number PN is output as a read address to the attribute RAM section 38.

【0124】これにより、テクスチャ情報記憶部42か
らは、当該アドレスに指定されていカラーコードが出力
され、さらにアトリビュートRAM部38からは、ポリ
ゴン識別番号PNに対応したアトリビュートデータが出
力される。これにより、これらのデータがゲーム機本体
800に出力されることになる。なお、アトリビュート
データに関しては、前記したように必ずしもゲーム用カ
ートリッジ1側で指定する構成とする必要はない。
As a result, the texture information storage section 42 outputs the color code designated at the address, and the attribute RAM section 38 outputs the attribute data corresponding to the polygon identification number PN. As a result, these data are output to the game machine body 800. The attribute data does not necessarily have to be specified on the game cartridge 1 side as described above.

【0125】図7には、以上の演算処理のうち、図8の
フローチャートのフロー1100,1200及び130
0で実行される演算処理が視覚的に示されている。
FIG. 7 shows a flow 1100, 1200 and 130 of the flow chart of FIG.
The arithmetic processing executed at 0 is shown visually.

【0126】図7(a)において、多面体48の頂点例
えばA、B、C、Dに対して、テクスチャ座標VTa 、
VTb 、VTc 、VTd が対応づけられている。この頂
点テクスチャ座標VTa 〜VTd は、頂点A〜Dにより
形成されるポリゴンにはり付けるテクスチャ情報のアド
レスを指定するものである。即ち、具体的にいえば、テ
クスチャ情報記憶部42内に記憶されているテクスチャ
情報を読み出すためのアドレスを指定するテクスチャ座
標である。
In FIG. 7A, the texture coordinates VTa, VTa, for vertices A, B, C, D of the polyhedron 48, for example,
VTb, VTc, and VTd are associated with each other. The vertex texture coordinates VTa to VTd designate addresses of texture information to be attached to the polygon formed by the vertices A to D. That is, specifically, the texture coordinates specify an address for reading the texture information stored in the texture information storage unit 42.

【0127】図7(b)、(f)において、この頂点座
標A〜D、頂点テクスチャ座標VTa 〜VTd は、透視
変換頂点座標A* 〜D* 、透視変換頂点テクスチャ座標
VTa * 〜VTd * に透視変換される。これにより、X
Y座標系のみならず、Tx 、TY 座標系も透視変換され
ることとなり、各座標系間の線形性が保たれることとな
る。
In FIGS. 7B and 7F, the vertex coordinates A to D and the vertex texture coordinates VTa to VTd are converted into perspective transformation vertex coordinates A * to D * and perspective transformation vertex texture coordinates VTa * to VTd * . Perspective-transformed. This gives X
Not only the Y coordinate system but also the Tx and TY coordinate systems are perspective-transformed, and the linearity between the coordinate systems is maintained.

【0128】なお、本実施例では、頂点座標の透視変換
は透視変換部720にて行い、頂点テクスチャ座標、頂
点輝度情報の透視変換はコプロッサ部34にて行う構成
としている。但し、本発明はこれに限らず、例えば頂点
テクスチャ座標、頂点輝度情報の透視変換を透視変換部
720にて行う構成としても構わない。
In this embodiment, the perspective transformation of the vertex coordinates is performed by the perspective transformation unit 720, and the perspective transformation of the vertex texture coordinates and the vertex luminance information is performed by the coprocessor unit 34. However, the present invention is not limited to this, and the perspective conversion unit 720 may perform the perspective conversion of vertex texture coordinates and vertex luminance information, for example.

【0129】次に、図7(c)、(g)に示すように、
透視変換頂点座標A* 〜D* 、及び、透視変換頂点テク
スチャ座標VTa * 〜VTd * により形成されるポリゴ
ンの輪郭点が線形補間演算される。即ち、図7(d)、
(h)における左右輪郭点座標L* 、R* 、及び、左右
輪郭点テクスチャ座標Tl * 、Tr * の線形補間演算が
行われる。
Next, as shown in FIGS. 7C and 7G,
The contour points of the polygon formed by the perspective transformation vertex coordinates A * to D * and the perspective transformation vertex texture coordinates VTa * to VTd * are linearly interpolated. That is, FIG. 7 (d),
The linear interpolation calculation of the left and right contour point coordinates L * , R * and the left and right contour point texture coordinates Tl * , Tr * in (h) is performed.

【0130】次に、図7(d)、(h)に示すように、
前記左右輪郭点座標L* 、R* 、及び、左右輪郭点テク
スチャ座標Tl * 、Tr * により、これらの左右輪郭点
を結ぶ走査線上の各ドットの座標が線形補間演算され
る。
Next, as shown in FIGS. 7D and 7H,
The coordinates of each dot on the scanning line connecting these left and right contour points are linearly interpolated by the left and right contour point coordinates L * , R * and the left and right contour point texture coordinates Tl * , Tr * .

【0131】上記した、図7(c)、(g)及び
(d)、(h)の演算処理は順次繰り返され、最終的に
は、図7(e)、(i)に示すように、ポリゴンを構成
する全てのドットの透視変換表示座標X* 、Y* 及び透
視変換テクスチャ座標Tx * 、TY* の線形補間演算が
行われる。
The above-mentioned arithmetic processing of FIGS. 7C, 7G, 7D, and 7H is sequentially repeated, and finally, as shown in FIGS. 7E and 7I, Linear interpolation calculation is performed on the perspective transformation display coordinates X * , Y * and the perspective transformation texture coordinates Tx * , TY * of all the dots forming the polygon.

【0132】次に、図7(j)に示すように、透視変換
テクスチャ座標TX * 、TY * を、テクスチャ座標TX
、TY に逆透視変換し、このテクスチャ座標TX 、TY
を用いて、前記したテクスチャ情報記憶部42からカ
ラーコードが読み出される。
Next, as shown in FIG. 7 (j), the perspective transformation texture coordinates TX * and TY * are converted into texture coordinates TX .
, TY by inverse perspective transformation, and the texture coordinates TX, TY
Is used to read the color code from the texture information storage unit 42.

【0133】以上のようにして、読み出されたカラーコ
ードを、透視変換表示座標X* 、Y* に対応させる。こ
れにより、図7(k)に示すように、スクリーン上に画
像が合成され、遠近感、直線性が損なわれないテクスチ
ャマッピングが可能となる。
As described above, the read color code is made to correspond to the perspective conversion display coordinates X * , Y * . As a result, as shown in FIG. 7K, the images are combined on the screen, and the texture mapping that does not impair the perspective and the linearity can be performed.

【0134】なお、図7には、透視変換表示座標Z* 座
標及び輝度情報BRIの演算方法については示されてい
ないが、両者の演算は、図7におけるTX 、TY の演算
方法とほぼ同様な演算方法により行われる。このよう
に、輝度情報の補間演算についても、TX 、TY と同様
の方法により行うことにより、前述したように、これら
の座標系間の関係をリニアに保つことができ、よりリア
リティーの高い画像を合成することが可能となる。
Although the calculation method of the perspective transformation display coordinates Z * coordinates and the brightness information BRI is not shown in FIG. 7, the calculation of both is almost the same as the calculation method of TX and TY in FIG. The calculation method is used. As described above, by performing the interpolation calculation of the brightness information by the same method as TX and TY, as described above, the relationship between these coordinate systems can be kept linear, and a more realistic image can be obtained. It becomes possible to synthesize.

【0135】また、図1、図2に示す実施例では、フィ
ールドバッファ部40に、テクスチャ情報ではなくテク
スチャ座標TX ,TY を書き込む構成としているが、本
発明はこれに限られるものではない。例えば、テクスチ
ャ情報記憶部42をコプロセッサ34とフィールドバッ
ファ部40との間に設け、テクスチャ情報記憶部42か
ら出力されるカラー情報例えばカラーコードをフィール
ドバッファ部40へ直接書き込むような構成としてもよ
い。このようにしても、前記図1、図2に示す実施例と
同様にして、良好な画像合成を行うことができる。 2.具体例 次に本第1の実施例における画像形成部740及び第2
の記憶部790の具体的構成及び動作について説明す
る。なお、ここでは、ハードウェアの簡略化のため、ポ
リゴンは4角形のみに限定しているが、ポリゴンの形状
としては任意の形のものを使用できる。 (1)プロセッサ部 まず、図9を用いて、プロセッサ部30の説明をする。
同図に示すように、プロセッサ部30は、メインプロセ
ッサ32、コプロセッサ34を含にで構成される。ここ
で、メインプロセッサ32は、制御回路70及び除算器
72を含み、主に透視変換表示座標X* 、Y* の演算
と、プロセッサ部30全体の制御を行っている。また、
コプロセッサ34は、積和演算器74、76、78、8
0と除算器82、84、86とを含み、主に透視変換表
示座標Z* 、読み出し用テクスチャ座標TX 、TY 、及
び、輝度情報BRIの演算を制御回路70の指示に従っ
て行っている。
In the embodiments shown in FIGS. 1 and 2, the texture coordinates TX and TY are written in the field buffer section 40 instead of the texture information, but the present invention is not limited to this. For example, the texture information storage unit 42 may be provided between the coprocessor 34 and the field buffer unit 40, and the color information output from the texture information storage unit 42, such as a color code, may be directly written in the field buffer unit 40. . Even in this case, good image composition can be performed in the same manner as the embodiment shown in FIGS. 1 and 2. 2. Specific Example Next, the image forming section 740 and the second
The specific configuration and operation of the storage unit 790 will be described. Although the polygons are limited to quadrangles for the sake of hardware simplification, any polygonal shape can be used. (1) Processor Unit First, the processor unit 30 will be described with reference to FIG.
As shown in the figure, the processor unit 30 includes a main processor 32 and a coprocessor 34. Here, the main processor 32 includes a control circuit 70 and a divider 72, and mainly performs the calculation of the perspective transformation display coordinates X * , Y * and controls the entire processor unit 30. Also,
The coprocessor 34 uses the product-sum calculators 74, 76, 78, 8
0 and dividers 82, 84 and 86, and mainly calculates perspective transformation display coordinates Z * , read texture coordinates TX and TY, and brightness information BRI according to an instruction from the control circuit 70.

【0136】以下、プロセッサ部30における演算処理
の詳細について、図10〜12を用いて説明する。ここ
で、図10には各演算処理の流れが示され、図11に
は、輪郭及び輪郭点についての演算処理が図示され、図
12には、走査線及び各ドットについての演算処理が図
示される。
Details of the arithmetic processing in the processor section 30 will be described below with reference to FIGS. Here, the flow of each calculation process is shown in FIG. 10, the calculation process for the contour and the contour point is shown in FIG. 11, and the calculation process for the scanning line and each dot is shown in FIG. It

【0137】なお、輝度情報BRIについての演算処理
は、テクスチャ座標TX 、TY についての演算処理とほ
ぼ同様の処理によって行われるため、図10〜12にお
いては、これを省略している。 頂点の演算(図10) まず、制御回路70に、ソーティング処理部722から
優先順位に従ってポリゴンデータが入力される。制御回
路70は、ポリゴンデータの内、透視変換頂点座標VX
* 、VY* のみを読み込み、その他のデータを、コプロ
セッサ34及びアトリビュートRAM部38に、読み込
むように指示を与える。即ち、頂点テクスチャ座標VT
X 、VTY 、頂点輝度情報VBRI及び透視変換頂点座
標Z* は、コプロセッサ34に読み込まれ、パレットナ
ンバーPAL、カラーZ値CZ等のアトリビュートデー
タはアトリビュートRAM部38に読み込まれ、内部の
記憶手段に記憶される。
Since the arithmetic processing for the brightness information BRI is almost the same as the arithmetic processing for the texture coordinates TX and TY, it is omitted in FIGS. Calculation of Vertices (FIG. 10) First, polygon data is input to the control circuit 70 from the sorting processing unit 722 according to the priority order. The control circuit 70 controls the perspective transformation vertex coordinates VX of the polygon data.
Only * and VY * are read, and an instruction to read other data is given to the coprocessor 34 and the attribute RAM unit 38. That is, the vertex texture coordinate VT
X, VTY, vertex brightness information VBRI, and perspective transformation vertex coordinates Z * are read by the coprocessor 34, and attribute data such as the palette number PAL and the color Z value CZ are read by the attribute RAM unit 38 and stored in the internal storage means. Remembered.

【0138】制御回路70では、読み込まれた透視変換
頂点座標VX* 、VY* から、Y座標を基準に画面上で
一番上にある座標(図11(a)におけるA* 点の座
標)が検出され、内部レジスタに記憶される。
In the control circuit 70, from the read perspective transformation vertex coordinates VX * , VY * , the coordinates at the top on the screen (the coordinates of the point A * in FIG. 11A) are based on the Y coordinate. Detected and stored in internal register.

【0139】また、積和演算器76、78、80では、
頂点テクスチャ座標VTX 、VTY、VBRIの透視変
換が行われ、内部レジスタに記憶される。この場合、こ
の透視変換は、図10に示すように、透視変換頂点座
標VZ* (=h/VZ)を乗算することによって以下の
ようにして演算される。
In addition, in the product-sum calculators 76, 78, 80,
The vertex texture coordinates VTX, VTY, and VBRI are perspective-transformed and stored in an internal register. In this case, this perspective transformation is calculated as follows by multiplying the perspective transformation vertex coordinates VZ * (= h / VZ) as shown in FIG.

【0140】VTX * =VTX ×VZ* VTY * =VTY ×VZ* VBRI* =VBRI×VZ* そして、内部レジスタに空きが生じたら、直ちに次のポ
リゴンデータがソーティング処理部722から入力さ
れ、前記頂点の演算が繰り返される。このように本第1
の実施例では、演算前及び演算後のデータが内部レジス
タに一時的に記憶される構造となっており、これにより
パイプライン動作が可能となっている。
VTX * = VTX * VZ * VTY * = VTY * VZ * VBRI * = VBRI * VZ * Then, when a space is created in the internal register, the next polygon data is immediately input from the sorting processing unit 722, and the vertex The operation of is repeated. This way the first book
In this embodiment, the data before and after the operation is temporarily stored in the internal register, which enables the pipeline operation.

【0141】なお、Z座標の透視変換は、X、Y座標に
ついての透視変換とは異なり、Z座標に(h/Z)因子
を乗算するのではなく、(h/Z)因子そのものを透視
変換後の座標値としてこれを求めている。このように演
算しても、透視投影変換後の、X、Y、Z座標間での線
形な関係は保たれるからである。 輪郭線の計算(図10) 制御回路70では、まず、頂点A* を始点、頂点B*
終点として、各座標値の両点間の差が求められる。即
ち、図11(b)に示されるように、以下の演算が行わ
れる。
Unlike the perspective transformation for the X and Y coordinates, the perspective transformation of the Z coordinate does not multiply the Z coordinate by the (h / Z) factor, but the perspective transformation of the (h / Z) factor itself. This is obtained as the coordinate value later. This is because the linear relationship between the X, Y, and Z coordinates after perspective projection conversion can be maintained even with such calculation. Calculation of Contour Line (FIG. 10) In the control circuit 70, first, the difference between the two coordinate values is obtained with the vertex A * as the start point and the vertex B * as the end point. That is, the following calculation is performed as shown in FIG.

【0142】ΔX* =Xb * −Xa * ΔY* =Yb * −Ya * 制御回路70は、上記の演算をすると同時に、積和演算
器74〜80に対して、図11(b)(c)に示すよう
に、以下の演算処理を行うように指示する。
.DELTA.X * = Xb * -Xa * .DELTA.Y * = Yb * -Ya * The control circuit 70 performs the above-mentioned calculation and, at the same time, sends the sum-of-products calculators 74 to 80 to FIGS. As shown in, an instruction is given to perform the following arithmetic processing.

【0143】ΔZ* =Zb * −Za * ΔTX * =TXb* −TXa* ΔTY * =TYb* −TYa* ΔBRI* =BRIb * −BRIa * 以上の演算が終了すると、制御回路70、積和演算器7
4〜80では、始点及び終点を更新し、辺B* * 、C
* * 、D* * に対して、上記と全く同様の演算処理
を行い、全輪郭線の演算を完了する。
ΔZ * = Zb * -Za * ΔTX * = TXb * -TXa * ΔTY * = TYb * -TYa * ΔBRI * = BRIb * -BRia * When the above operations are completed, the control circuit 70 and the product-sum operator 7
In 4 to 80, the start point and the end point are updated, and the sides B * C * , C
The same calculation processing as described above is performed on * D * and D * A * , and the calculation of all contour lines is completed.

【0144】以上の演算結果は全て内部のレジスタに記
憶され、次に述べる輪郭点の演算に用いられることとな
る。 輪郭点の演算(図10) まず、左輪郭の第1辺A* * が選択され、左輪郭点P
m * (Xm * 、Ym *、Zm * )、Tm * (TXm* 、TY
m* )、BRIm * の演算が行われる。この左輪郭点の
演算は、Ym * を基準にしてを行われる。即ちYm *
座標値をYa *より順次変化させ、他の座標値はこれを
線形補間することにより求めてゆく。
All the above calculation results are stored in the internal register and will be used for the calculation of the contour points described below. Calculation of Contour Point (FIG. 10) First, the first side A * B * of the left contour is selected, and the left contour point P
m * (Xm * , Ym * , Zm * ), Tm * (TXm * , TY)
m * ) and BRIm * are calculated. The calculation of the left contour point is performed on the basis of Ym * . That is, the coordinate value of Ym * is sequentially changed from Ya * , and the other coordinate values are obtained by linear interpolation.

【0145】まず、制御回路70及び除算器72にて、
左輪郭点の係数Mが以下のように演算される。
First, in the control circuit 70 and the divider 72,
The coefficient M of the left contour point is calculated as follows.

【0146】M=(Ym * −Ya * )/ΔY* この係数Mは、図11(b)における3角形A* *
* と3角形A* * * との相似比に当たるものであ
り、Y座標を基準に演算される。また、この係数Mは、
制御回路70より積和演算器74〜80に出力される。
M = (Ym * -Ya * ) / ΔY * This coefficient M is a triangle A * B * O in FIG. 11 (b).
* A are those striking similarity ratio of triangles A * P * Q *, it is computed based on the Y coordinate. Also, this coefficient M is
It is output from the control circuit 70 to the product-sum calculators 74 to 80.

【0147】次に、左輪郭点のX座標Xm * が、この係
数Mにより図11(b)における3角形の相似関係を利
用して以下のように演算される。
Next, the X coordinate Xm * of the left contour point is calculated by the coefficient M as follows using the similarity relationship of the triangle in FIG. 11 (b).

【0148】Xm * =Xa * +M×ΔX* 係数Mを受け取った、積和演算器74〜80では、Z座
標Zm * 、左輪郭点に対応するテクスチャ座標TXm*
TYm* 及び輝度情報BRIm * が、係数Mにより、図1
1(b)(c)における3角形の相似関係を利用して以
下のように演算される。
Xm * = Xa * + M × ΔX * The sum of products calculators 74 to 80 which have received the coefficient M have Z coordinate Zm * , texture coordinate TXm * corresponding to the left contour point,
TYm * and luminance information BRIm * are calculated by the coefficient M as shown in FIG.
It is calculated as follows using the similarity relation of the triangles in 1 (b) and (c).

【0149】Zm * =Za * +M×ΔZ* TXm* =TXa* +M×ΔTX * TYm* =TYa* +M×ΔTY * BRIm * =BRIa * +M×ΔBRI* なお、上記演算は、Ym * を基準に行われるため、Ym
* については、上記演算を行われず、そのまま左輪郭点
の座標となる。
Zm * = Za * + M × ΔZ * TXm * = TXa * + M × ΔTX * TYm * = TYa * + M × ΔTY * BRIm * = BRIA * + M × ΔBRI * The above calculation is based on Ym *. Because it is done, Ym
For * , the above calculation is not performed and the coordinates of the left contour point are used as they are.

【0150】左輪郭点の演算が終了すると、次に上記と
全く同様の方法にて、右輪郭点の演算を行われる。
When the calculation of the left contour point is completed, the calculation of the right contour point is then performed by the same method as above.

【0151】以上の演算結果は左右輪郭点対のデータと
して内部レジスタに記憶される。内部レジスタに空きが
あれば、次の輪郭点対の演算が行われる。即ち、Y*
走査線間隔だけ増加させて、上記の演算を繰り返すこと
になる。
The above calculation results are stored in the internal register as the data of the pair of left and right contour points. If the internal register has a vacancy, the next contour point pair is calculated. That is, Y * is increased by the scanning line interval and the above calculation is repeated.

【0152】Y* が終点のY* (=Yb * )の座標と一
致したならば、着目する辺A* *を例えば辺B* *
に更新して、前記処理を続行する。但し、ΔY* =0の
場合は、直ちに辺の再更新を行う。
If Y * coincides with the coordinate of Y * (= Yb * ) at the end point, the side A * B * of interest is, for example, side B * C *.
And the process is continued. However, if ΔY * = 0, the edge is immediately re-updated.

【0153】左右の着目する辺が接したならば、その点
がポリゴンの最下端(C* )となる。そして、左右輪郭
点がこの最下端に到達すると、ひとつのポリゴンの処理
が終了することとなる。 走査線の演算(図10) 次に、上記のようにして求められた左右輪郭点より、走
査線、即ち、左右輪郭点の差が求められる。
If the left and right sides of interest touch each other, that point becomes the lowermost edge (C * ) of the polygon. Then, when the left and right contour points reach the bottom end, the processing of one polygon is completed. Scan Line Calculation (FIG. 10) Next, the difference between the scan lines, that is, the left and right contour points, is obtained from the left and right contour points obtained as described above.

【0154】ここで、説明を簡易にするために、左輪郭
点の透視変換表示座標をL* (Xl* 、Yl * 、Zl
* )とし、左輪郭点に対応する透視変換テクスチャ座
標及び透視変換輝度情報をTl * (TXl* 、TYl* )及
びBRIl * とする。また、右輪郭点の透視変換表示座
標をR* (Xr * 、Yr * 、Zr * )とし、右輪郭点に
対応する透視変換テクスチャ座標及び透視変換輝度情報
をTr * (TXr* 、TYr*)及びBRIr * とする。
Here, in order to simplify the explanation, the perspective transformation display coordinates of the left contour point are set to L * (Xl * , Yl * , Zl ) .
* ), And the perspective transformation texture coordinates and perspective transformation luminance information corresponding to the left contour point are Tl * (TXl * , TYl * ) and BRIl * . Further, the perspective transformation display coordinates of the right contour point are set to R * (Xr * , Yr * , Zr * ), and the perspective transformation texture coordinates and perspective transformation luminance information corresponding to the right contour point are set to Tr * (TXr * , TYr * ). And BRIr * .

【0155】制御回路70では、図12(a)に示すよ
うに以下の演算が行われる。
In the control circuit 70, the following calculation is performed as shown in FIG.

【0156】ΔX* =Xr * −Xl * 制御回路70は、上記の演算をすると同時に、積和演算
器74〜80に対して、図12(a)(b)に示すよう
に、以下の演算処理を行うように指示する。
The ΔX * = Xr * -Xl * control circuit 70 performs the above-mentioned calculation and, at the same time, performs the following calculation on the product-sum calculators 74 to 80 as shown in FIGS. Instruct to perform processing.

【0157】ΔZ* =Zr * −Zl * ΔTX * =TXr* −TXl* ΔTY * =TYr* −TYl* ΔBRI* =BRIr * −BRIl * ドットの演算(図10) 最後に、走査線上の各ドットの透視変換表示座標である
Pn * (Xn * 、Yn* 、Zn * )、透視変換テクスチ
ャ座標Tn * (TXn* 、TYn* )及び透視変換輝度情報
BRIn * の演算が行われる。この走査線上の各ドット
の演算は、Xn* を基準にしてを行われる。即ちXn *
の座標値をXl * より順次変化させ、他の座標値はこれ
を線形補間することにより求めてゆく。
ΔZ * = Zr * -Zl * ΔTX * = TXr * -TXl * ΔTY * = TYr * -TYl * ΔBRI * = BRIr * -BRIl * Dot calculation (FIG. 10) Finally, each dot on the scanning line Of Pn * (Xn * , Yn * , Zn * ), the perspective conversion texture coordinates Tn * (TXn * , TYn * ), and the perspective conversion luminance information BRIn * are calculated. The calculation of each dot on this scanning line is performed with reference to Xn * . That is, Xn *
The coordinate value of is sequentially changed from Xl * , and the other coordinate values are obtained by linear interpolation.

【0158】まず、制御回路70及び除算器72にて、
係数Nが以下のように演算される。
First, in the control circuit 70 and the divider 72,
The coefficient N is calculated as follows.

【0159】N=(Xn * −Xl * )/ΔX* この係数Nは、図12(a)における線分L* * と線
分L* Pn * との線分比に当たるものであり、X座標を
基準に演算される。また、この係数Nは、制御回路70
より積和演算器74〜80に出力される。
N = (Xn * -Xl * ) / ΔX * This coefficient N corresponds to the line segment ratio between the line segment L * R * and the line segment L * Pn * in FIG. It is calculated based on the coordinates. The coefficient N is determined by the control circuit 70.
It is output to the product-sum calculators 74-80.

【0160】係数Nを受け取った、積和演算器74〜8
0では、走査線上の各ドットのZ座標Zn * 、走査線上
の各ドットに対応するテクスチャ座標TXn* 、TYn*
び輝度情報BRIn * が、係数Nにより、図12(a)
(b)における線分比を利用して以下のように演算され
る。
Received the coefficient N, the product-sum calculators 74 to 8
At 0, the Z coordinate Zn * of each dot on the scanning line, the texture coordinates TXn * , TYn * corresponding to each dot on the scanning line, and the brightness information BRIn * are calculated by the coefficient N as shown in FIG.
It is calculated as follows using the line segment ratio in (b).

【0161】Zn * =Zl * +N×ΔZ* TXn* =TXl* +N×ΔTX * TYn* =TYl* +N×ΔTY * BRIn * =BRIl * +N×ΔBRI* 次に、Xn * の値が増加し、上記内の演算を繰り返
す。そして、最終的に、走査線上の左右輪郭点間の全て
のドットについての演算が終わるまで処理が続けられ
る。
Zn * = Zl * + N × ΔZ * TXn * = TXl * + N × ΔTX * TYn * = TYl * + N × ΔTY * BRIn * = BRIL * + N × ΔBRI * Then, the value of Xn * increases, The above calculation is repeated. Then, finally, the processing is continued until the calculation is completed for all the dots between the left and right contour points on the scanning line.

【0162】なお、上記演算は、Xn * を基準に行われ
るため、また、Yn * については走査線上で一定である
ため、Xn * 、Yn * については、上記演算を行われ
ず、Xn * 、Yn * が、そのまま走査線上の各ドットの
表示座標となる。 逆透視変換(図10) テクスチャ座標及び輝度情報の逆透視変換は、除算器8
2、84、86により行われる。この逆透視変換は、
で求めたZ n* を用いて、以下のように演算される。
[0162] The above operation is for performed based on the Xn *, In addition, since the Yn * is constant at scanning line, Xn *, for Yn * is not performed the operation, Xn *, Yn * Indicates the display coordinates of each dot on the scanning line as it is. Inverse perspective transformation (FIG. 10) The inverse perspective transformation of texture coordinates and luminance information is performed by the divider 8
2, 84, 86. This inverse perspective transformation is
Using Z n * obtained in step 1, the following calculation is performed.

【0163】TXn=TXn* /Zn * TYn=TYn* /Zn * BRIn =BRIn * /Zn * 以上のように、〜の演算がパイプライン処理で行わ
れる。そして、ソーティング処理部722からのポリゴ
ンデータを全て入力し、〜の全ての処理が完了する
と、プロセッサ部30の1画面分の処理が完了すること
となる。
TXn = TXn * / Zn * TYn = TYn * / Zn * BRIn = BRIn * / Zn * As described above, the operations (1) to (4) are performed by pipeline processing. Then, when all the polygon data from the sorting processing unit 722 is input and all the processes of to are completed, the processing for one screen of the processor unit 30 is completed.

【0164】なお、及びで行った補間演算は、DD
Aによる手法を用いて行うことも可能である。例えば
におけるZn * の演算を例にとれば、Z0 * =Zl *
初期値とし、差分dZ* =ΔZ* /ΔX* を求めておい
て、Zn+1 * =Zn * +dZ* なる加算を繰り返すこと
により補間演算をする手法である。
The interpolation calculation performed in and is DD
It is also possible to use the method according to A. For example, in the calculation of Zn * in the example, the difference dZ * = ΔZ * / ΔX * is obtained with Z0 * = Zl * as an initial value, and the addition of Zn + 1 * = Zn * + dZ * is repeated. This is a method of performing interpolation calculation.

【0165】以上のように演算された、各ドットの表示
座標Xn * 、Yn * はフィールドバッファ部40に出力
され、フィールドバッファ部40に内蔵されるビデオR
AMのアドレスとして利用される。
The display coordinates Xn * , Yn * of each dot calculated as described above are output to the field buffer section 40, and the video R stored in the field buffer section 40 is output.
It is used as an AM address.

【0166】また、テクスチャ座標Tx 、TY 及び輝度
情報BRIもフィールドバッファ部40に出力され、ビ
デオRAM上の前記したアドレス位置に書き込まれ、記
憶される。
Further, the texture coordinates Tx, TY and the brightness information BRI are also output to the field buffer section 40 and written and stored in the above-mentioned address position on the video RAM.

【0167】また、必要に応じて、Zn * も、Zn =h
/Zn * と逆透視変換することができる。この、Zn 、
Zn * は、例えばキャラクタディスプレイ等の他の画像
との合成に利用したり、Zバッファアルゴリズムへの応
用として利用したりすることができる。
If necessary, Zn * is also Zn = h
Inverse perspective conversion is possible with / Zn * . This, Zn,
Zn * can be used for composition with other images such as a character display, or can be used as an application to a Z buffer algorithm.

【0168】ところで、本実施例では、上記における
ドットの演算を、終了フラッグ記憶手段を用いて行って
いるため、更に大幅な高速化が可能となっている。以
下、この終了フラッグ記憶手段について説明する。な
お、ここにおいて、ポリゴンの処理がスクリーンより手
前のものから順に行われていることが、この高速化を可
能とするための前提となっている。
By the way, in the present embodiment, since the dot calculation in the above is performed by using the end flag storage means, it is possible to further increase the speed. The end flag storage means will be described below. Note that, here, it is a premise for enabling this speedup that the polygons are processed in order from the one before the screen.

【0169】終了フラッグ記憶手段は本実施例において
はRAM、即ちペイントRAM36を用いて構成され
る。このペイントRAM36と制御回路70に含まれる
周辺回路とから構成されるペイントRAM回路のブロッ
ク図を図25に示す。
The end flag storage means is constituted by using a RAM, that is, a paint RAM 36 in this embodiment. FIG. 25 shows a block diagram of a paint RAM circuit composed of the paint RAM 36 and peripheral circuits included in the control circuit 70.

【0170】ペイントRAM36は、例えば2画面分の
「終了フラッグ」を記憶できるよう構成されている。こ
こで、終了フラッグとは、着目するドットの演算処理が
終了しているか否かを表示するためのフラッグであり、
1ドットに1ビットが対応するようにペイントRAM3
6に記憶される。この終了フラッグは、1画面の処理の
最初に、1画面分の全てが0にクリアされる。そして、
演算処理が終了すると1にセットされ、着目するドット
の演算処理が終了したことを表示することとなる。
The paint RAM 36 is constructed so as to be able to store, for example, two screens of "end flag". Here, the end flag is a flag for displaying whether or not the calculation processing of the dot of interest is completed,
Paint RAM3 so that 1 bit corresponds to 1 dot
6 is stored. This end flag is cleared to 0 for one screen at the beginning of the processing for one screen. And
When the arithmetic processing is completed, the value is set to 1, which indicates that the arithmetic processing of the dot of interest has been completed.

【0171】ペイントRAM36は、複数ビット例えば
16ビットのデータバスをもち、同時に例えば16ビッ
ト分のデータのアクセスが可能となっている。そして、
ドットの演算においては、常にこのペイントRAM36
が参照される。従って、これにより終了フラッグを16
ドット単位で参照することが可能となる。そして、終了
フラッグが1であるドットに対しては、そのドットの演
算を行わず、当該ドットは高速に、即ち最大で16ドッ
ト分スキップされることとなる。従って、演算すべきポ
リゴン上のドットが、他のポリゴンの奥に隠れている場
合は、X座標を単にインクリメントして演算する場合に
比べて、例えば約16倍の高速処理が期待できることに
なる。
The paint RAM 36 has a data bus of a plurality of bits, for example 16 bits, and can simultaneously access data of 16 bits, for example. And
When calculating dots, the paint RAM 36 is always used.
Is referred to. Therefore, this will set the end flag to 16
It is possible to refer to each dot. Then, for a dot whose end flag is 1, that dot is not calculated, and the dot is skipped at high speed, that is, for a maximum of 16 dots. Therefore, when the dots on the polygon to be calculated are hidden behind other polygons, for example, about 16 times faster processing can be expected compared to the case where the calculation is performed by simply incrementing the X coordinate.

【0172】なお、本実施例において、ペイントRAM
36が2画面構成となっているのは、ドットの演算に伴
うペイントRAM36に対するアクセスと、前記1画面
分のクリアとを、並行してこれを行うためである。
In this embodiment, the paint RAM
36 has a two-screen configuration so that access to the paint RAM 36 accompanying dot calculation and clearing for one screen can be performed in parallel.

【0173】以下、図25に示すペイントRAM回路の
ブロック図に基づき、その構成及び動作の概要を説明す
る。
An outline of the structure and operation of the paint RAM circuit shown in FIG. 25 will be described below.

【0174】まず、ペイントRAM回路に、輪郭点の演
算で生成された左輪郭点のX* 座標及び右輪郭点のX*
座標が入力される。ここで、それぞれの座標はそれぞれ
10ビットのデータで構成されているとする。この右輪
郭点のX* 座標は、右輪郭点X* 座標用のレジスタ25
0に記憶される。また、左輪郭点X* 座標のうち、下位
4ビットは左輪郭点X* 座標下位用のレジスタ252に
記憶され、上位6ビットは、X* 座標上位用のカウンタ
254のカウントのための初期値となる。そして、この
カウンタ254の出力は、輪郭点Y* 座標及びバンク切
り替え信号と共に、ペイントRAM36のアドレスA0
〜A14に入力され、ペイントRAM36のアドレスを
指定することとなる。即ち、カウンタ254は、4ビッ
ト毎に、即ち16ドット毎に前記アドレスをカウントア
ップすることとなる。これにより、ペイントRAM36
からは、データ即ち着目する16ドットに対応する終了
フラッグ群が16ドット毎に読みだされ、双方向バッフ
ァ262を介して、読み出し用のレジスタ264に記憶
されることとなる。
First, in the paint RAM circuit, the X * coordinate of the left contour point and the X * of the right contour point generated by the calculation of the contour point .
The coordinates are entered. Here, it is assumed that each coordinate is composed of 10-bit data. X * coordinate of this right contour point, register for the right outline point X * coordinate 25
Stored in 0. Further, of the left contour point X * coordinates, the lower 4 bits are stored in the left contour point X * coordinate lower register 252, and the upper 6 bits are an initial value for counting by the X * coordinate upper counter 254. Becomes The output of the counter 254 is the address A0 of the paint RAM 36 together with the contour point Y * coordinate and the bank switching signal.
Is input to A14 and the address of the paint RAM 36 is designated. That is, the counter 254 counts up the address every 4 bits, that is, every 16 dots. As a result, the paint RAM 36
From this, data, that is, the end flag group corresponding to 16 dots of interest is read out every 16 dots and stored in the read register 264 via the bidirectional buffer 262.

【0175】一方、マスクパターン発生回路256は、
着目する16ドットの内、左右輪郭点の内側にあるもの
を1とし、外側にあるものを0とする同じく16ドット
毎のマスクパターンを生成している。そして、書き込み
ORゲート258にて、読み出し用のレジスタ264に
記憶された前記データと、このマスクパターンとの論理
和がとられる。この結果、「空きドット」即ち、これか
ら新たに処理しようとしているドットの終了フラッグが
1に更新された書き込みデータが生成されることにな
る。そして、この書き込みデータは、書き込み用のレジ
スタ260に記憶された後、双方向バッファ262を介
して、ペイントRAM36に書き戻される。これによ
り、ペイントRAM36内に記憶されている終了フラッ
グのデータのうち、着目する16ドットのデータが更新
されることとなる。
On the other hand, the mask pattern generation circuit 256
Of the 16 dots of interest, those inside the left and right contour points are set to 1, and those outside are set to 0, and a mask pattern is generated for every 16 dots. Then, the write OR gate 258 takes the logical sum of the data stored in the read register 264 and this mask pattern. As a result, "empty dots", that is, write data in which the end flag of the dot to be newly processed is updated to 1 is generated. The write data is stored in the write register 260 and then written back to the paint RAM 36 via the bidirectional buffer 262. As a result, of the end flag data stored in the paint RAM 36, the 16-dot data of interest is updated.

【0176】一方、このマスクパターンは、反転回路2
66にて反転され、読み出しORゲート270にて、読
み出し用のレジスタ264に記憶されたデータと論理和
がとられる。この結果、左右輪郭点の外側のドットが1
となり、空きドットのみが0となるデータが生成される
こととなる。ここに、これを仮に「空きドットデータ」
と呼ぶこととする。この空きドットデータは、空きドッ
ト検出ループ282に入力される。
On the other hand, this mask pattern is used in the inverting circuit 2
The data is inverted at 66 and is ORed with the data stored in the read register 264 at the read OR gate 270. As a result, the dots outside the left and right contour points are 1
Therefore, data in which only empty dots are 0 is generated. Here, suppose this is "empty dot data".
Will be called. This empty dot data is input to the empty dot detection loop 282.

【0177】空きドット検出ループ282において、マ
ルチプレクサ292は、塗りつぶし用のレジスタ274
を初期化する時のみ前記空きドットデータを取り込み、
それ以外の時は帰還ループからのデータを取り込むよう
に構成されている。これにより自己ループが形成される
こととなる。塗りつぶし用のレジスタ274に記憶され
た空きドットデータは、プライオリティエンコーダ27
6に入力される。このプライオリティエンコーダ276
は、空きドットのうち、最もX* 座標の値が小さいドッ
トを検出し、これを4ビットのデータとして出力する。
そして、空きドットのX* 座標、即ち演算処理を行うべ
きドットのX* 座標は、この4ビットのデータの上位
に、X* 座標上位カウンタ254からの6ビットデータ
を付け加えることにより形成されることとなる。
In the empty dot detection loop 282, the multiplexer 292 uses the fill register 274.
Only when initializing, import the empty dot data,
At other times, it is configured to capture the data from the feedback loop. As a result, a self loop is formed. The empty dot data stored in the filling register 274 is stored in the priority encoder 27.
6 is input. This priority encoder 276
Detects the dot with the smallest X * coordinate value among the empty dots and outputs it as 4-bit data.
Then, the X * coordinate of the empty dot, that is, the X * coordinate of the dot to be subjected to the arithmetic processing is formed by adding 6-bit data from the X * coordinate upper counter 254 to the upper part of this 4-bit data. Becomes

【0178】プライオリティエンコーダ276の出力
は、デコーダ280に入力され、このデコーダ280に
おいて、「着目するドットのみが1となるデータ」が生
成される。このデータと塗りつぶし用のレジスタ274
の出力とが、ORゲート278にて論理和がとられ、
「空きドットデータのうち、着目するドットのみが1に
更新されたデータ」が生成される。この更新データは、
マルチプレクサ272を介して塗りつぶしレジスタ27
4に書き戻される。この空きドット検出ループ282に
おける一連の動作は、塗りつぶしレジスタ274の内容
が全ビット1になるまで続けられる。
The output of the priority encoder 276 is input to the decoder 280, and in this decoder 280, "data in which only the dot of interest is 1" is generated. This data and the register 274 for filling
Is ORed with the output of the OR gate 278,
“Of the empty dot data, only the dot of interest is updated to 1” is generated. This update data is
Fill register 27 via multiplexer 272
It is written back to 4. The series of operations in the empty dot detection loop 282 is continued until the content of the fill register 274 becomes all 1s.

【0179】空きドット検出ループ282内での動作が
終了すると、カウンタ254のカウントアップにより、
次の16ドットのデータがペイントRAMより読み出さ
れ、上記した処理が繰り返される。
When the operation in the empty dot detection loop 282 is completed, the counter 254 counts up,
The next 16-dot data is read from the paint RAM, and the above processing is repeated.

【0180】そして、16ドットのデータの中に右輪郭
点が含まれていないかどうかが検出され、含まれていた
ならば、次の処理からは新たな左右輪郭点のX* 座標が
入力され、処理が繰り返されることになる。 (2)フィールドバッファ部 第2の記憶部790に内蔵されたフィールドバッファ部
40は、図9に示すように、ビデオRAM100、10
2、104、106と、これらのビデオRAMをコント
ロールするフィールドバッファコントローラ90、9
2、94、96を含んで構成される。
Then, it is detected whether or not the right contour point is included in the 16-dot data, and if it is included, the X * coordinate of the new left and right contour points is input from the next processing. The process is repeated. (2) Field Buffer Unit The field buffer unit 40 incorporated in the second storage unit 790 is, as shown in FIG.
2, 104, 106 and field buffer controllers 90, 9 for controlling these video RAMs
2, 94, 96 are included.

【0181】この、ビデオRAM100〜106により
構成されるフィールドバッファ空間には、テレビ等の表
示装置の表示スクリーンの各ドットに1対1に対応する
データが格納される。本第1の実施例において、このフ
ィールドバッファ空間に格納されるデータは、コプロセ
ッサ34で演算されたテクスチャ座標TX 、TY 、輝度
情報BRI及びポリゴン識別番号PNであり、書き込む
べきアドレスは、メインプロセッサ32で演算された表
示座標X* 、Y* により決定される。
Data corresponding to each dot on a display screen of a display device such as a television is stored in the field buffer space constituted by the video RAMs 100 to 106 in a one-to-one correspondence. In the first embodiment, the data stored in this field buffer space are the texture coordinates TX, TY calculated by the coprocessor 34, the brightness information BRI and the polygon identification number PN, and the address to be written is the main processor. It is determined by the display coordinates X * and Y * calculated in 32.

【0182】なお、ビデオRAMは、マルチポートRA
M構成となっており、ランダムポート(RAM)、シリ
アルポート(SAM)に分かれている。本実施例では、
フィールドバッファ空間へのデータの書き込みは、ラン
ダムアクセスにより行われ、読み出しはドットクロック
に同期してシリアルに行われる。また、フィールドバッ
ファ空間は、書き込み用のバンク及び読みだし用のバン
クの2つのバンクに分割され、1フィールド(1/60
秒)毎に、バンクの切り替えを行っている。
The video RAM is a multiport RA.
It has an M configuration and is divided into a random port (RAM) and a serial port (SAM). In this embodiment,
Writing of data to the field buffer space is performed by random access, and reading is performed serially in synchronization with the dot clock. The field buffer space is divided into two banks, a writing bank and a reading bank, and is divided into 1 field (1/60
The bank is switched every second).

【0183】図13には、このフィールドバッファ部4
0の周辺回路及び周辺回路との接続の詳細が示され、図
14には、フィールドバッファ部40を構成するフィー
ルドバッファコントローラ90〜96の内部回路の一例
が示される。また、図15には、フィールドバッファ部
40に対する、データの書き込みシーケンスが示され
る。
FIG. 13 shows the field buffer unit 4
0 shows the peripheral circuits and the details of the connection with the peripheral circuits, and FIG. 14 shows an example of the internal circuits of the field buffer controllers 90 to 96 that form the field buffer unit 40. Further, FIG. 15 shows a data write sequence for the field buffer unit 40.

【0184】図13に示されるようにフィールドバッフ
ァ部40には、以下の信号が入力される。即ち、制御回
路70からは、透視変換表示座標X* 、Y* がアドレス
AI0〜9として、また、XPFIR、XVW、XHW
がフィールドバッファコントローラ90〜96の制御信
号として入力される。また、除算器82〜86からは、
テクスチャ座標TX 、TY 及びBRIが、フィールドバ
ッファコントローラ92〜96のそれぞれの入力データ
DI0〜11として、入力される。この他、フィールド
バッファ部40には、プログラムレジスタのプログラム
信号、クロック、同期信号等が入力される。
The following signals are input to the field buffer unit 40 as shown in FIG. That is, from the control circuit 70, the perspective conversion display coordinates X * , Y * are set as the addresses AI0-9, and XPFIR, XVW, XHW.
Is input as a control signal of the field buffer controllers 90 to 96. Also, from the dividers 82-86,
The texture coordinates TX, TY and BRI are input as the respective input data DI0-11 of the field buffer controllers 92-96. In addition, the program signal of the program register, the clock, the synchronizing signal, and the like are input to the field buffer unit 40.

【0185】また、図13に示されるように、フィール
ドバッファ部40からは、以下の信号が出力される。即
ち、制御回路70等で構成されるプロセッサ部30に対
しては、データ書き込みの禁止を指令するXWAIT信
号が出力される。また、テクスチャ情報記憶部42に
は、読み込みデータであるテクスチャ座標TX 、TY が
出力される。また、アトリビュートRAM部38には、
ポリゴン識別番号PNが出力される。
Further, as shown in FIG. 13, the following signals are output from the field buffer section 40. That is, the XWAIT signal for instructing prohibition of data writing is output to the processor unit 30 including the control circuit 70 and the like. Further, the texture information storage unit 42 outputs the texture coordinates TX and TY which are read data. Further, the attribute RAM unit 38 has
The polygon identification number PN is output.

【0186】フィールドバッファコントローラ90〜9
6の内部回路は、図14に示す構成となっている。
Field buffer controllers 90-9
The internal circuit of 6 has the configuration shown in FIG.

【0187】ここで、本第1の実施例におけるフィール
ドバッファコントローラは、マスターモード、スレーブ
モード、拡張モードの3つのモードを備えており、本第
1の実施例では、ポリゴン識別番号PNを取り扱うフィ
ールドバッファコントローラ90をマスターモードに
て、テクスチャ座標TX 、TY を取り扱うフィールドバ
ッファコントローラ92〜94をスレーブモードにて、
輝度情報BRIを取り扱うフィールドバッファコントロ
ーラ96を拡張モードとして使用している。これによ
り、スレーブ・拡張モードで使用されるフィールドバッ
ファコントローラ92〜96は、マスターモードで使用
されるフィールドバッファコントローラ90の支配の下
に同期して制御され、大きなフィールドバッファ空間を
同じ回路構成のフィールドバッファコントローラ90〜
96により同時に制御することが可能となる。この場
合、図14に示すように、マスター、スレーブ、拡張の
切り替えは、XMASTER信号を用いてセレクタ11
6により行われる。即ち、マスターモードの時は、PN
カウンタ118により発生されるポリゴン識別番号PN
が、セレクタ116によりセレクトされ、データQue
ue124に入力される。逆に、スレーブ・拡張モード
の時は、DI0〜11がセレクトされ、データQueu
e124に入力される。
Here, the field buffer controller in the first embodiment has three modes of the master mode, the slave mode, and the extension mode. In the first embodiment, the field handling the polygon identification number PN is used. The buffer controller 90 is in the master mode, the field buffer controllers 92 to 94 which handle texture coordinates TX and TY are in the slave mode,
The field buffer controller 96 that handles the brightness information BRI is used as the extended mode. As a result, the field buffer controllers 92 to 96 used in the slave / expansion mode are controlled in synchronization under the control of the field buffer controller 90 used in the master mode, and a large field buffer space is used for fields of the same circuit configuration. Buffer controller 90-
96 allows simultaneous control. In this case, as shown in FIG. 14, the master, the slave, and the extension are switched using the selector 11 by using the XMASTER signal.
6 is performed. That is, in master mode, PN
Polygon identification number PN generated by counter 118
Is selected by the selector 116, and data Que
It is input to ue124. On the contrary, in the slave / extended mode, DI0 to 11 are selected and the data Queue is selected.
It is input to e124.

【0188】フィールドバッファコントローラ90〜9
6に入力されたクロック信号及び外部同期信号は、内部
クロック&同期信号発生回路134に入力され、この回
路において内部クロック及び一群の同期信号が発生さ
れ、フィールドバッファコントローラ90〜96内の制
御信号として用いられる。また、プログラム信号は、プ
ログラマブルレジスタ132に入力され、これにより、
コントローラ内の内部パラメータ郡が決定される。
Field buffer controllers 90-9
The clock signal and the external synchronization signal input to 6 are input to the internal clock & synchronization signal generation circuit 134, in which the internal clock and a group of synchronization signals are generated and used as control signals in the field buffer controllers 90 to 96. Used. In addition, the program signal is input to the programmable register 132, so that
The internal parameter group in the controller is determined.

【0189】アドレス信号AI0〜9、入力データDI
0〜11、制御信号XPFIR、XVW、XHWは、ラ
ッチ110、112、114により一時ラッチされる。
Address signals AI0-9, input data DI
0 to 11 and the control signals XPFIR, XVW, and XHW are temporarily latched by the latches 110, 112, and 114.

【0190】XPFIRは、PNカウンタ118をカウ
ントアップするために用いられ、このPNカウンタ11
8のカウントアップ値により、ポリゴンの識別番号PN
が決定される。即ち、XPFIRは、図15に示すよう
に、新たなポリゴンの処理を開始する毎にXPFIR=
Lとなるように、メインプロセッサ32の制御回路70
より出力され、XPFIR=LとなるとPNカウンタ1
18がカウントアップする。そして、1フィールド内の
全てのポリゴンの処理が終了すると、PNカウンタ11
8はリセットされる。これにより、ポリゴンの優先順位
が高い順に、0、1、2、3、4……というようにポリ
ゴン識別番号PNが、各ポリゴンに設定されることにな
る。
XPFIR is used to count up the PN counter 118.
With the count-up value of 8, the polygon identification number PN
Is determined. That is, XPFIR is, as shown in FIG. 15, XPFIR = every time processing of a new polygon is started.
The control circuit 70 of the main processor 32 so that it becomes L.
Output, and when XPFIR = L, PN counter 1
18 counts up. When the processing of all polygons in one field is completed, the PN counter 11
8 is reset. As a result, the polygon identification number PN is set for each polygon, such as 0, 1, 2, 3, 4, ...

【0191】このように本第1の実施例においては、外
部からポリゴン識別番号PNを入力しなくても、内部に
おいて、即ちフィールドバッファコントローラ90にお
いて、ポリゴン識別番号PNを発生させることができ
る。そして、このポリゴン識別番号PNを利用すること
により、ポリゴンを画像上に表示するデータのうち、ポ
リゴンを構成する各ドットに共通のデータと、共通でな
いデータを分けて処理することが可能となり、ハードの
負担を大幅に軽減することが可能となる。
As described above, in the first embodiment, the polygon identification number PN can be generated internally, that is, in the field buffer controller 90 without inputting the polygon identification number PN from the outside. By using this polygon identification number PN, it becomes possible to separately process data common to each dot forming the polygon and non-common data among the data for displaying the polygon on the image. It is possible to significantly reduce the burden of.

【0192】アドレス信号AI0〜9、入力データDI
0〜11は、8段FIFO120の座標Queue12
2及びデータQueue124に一旦蓄積され、その後
ビデオRAMに格納される。この場合、アドレス信号A
I0〜9を、Xアドレスとして認識するかYアドレスと
して認識するかは、Queueコントローラ126に入
力された制御信号XVW及びXHWにより選択される。
即ち、図15に示すように、XVW=L、XHW=Hの
時は、AI0〜9は、Yアドレスとして認識され、XV
W=H、XHW=Lの時は、AI0〜9は、Xアドレス
として認識される。更に、XVW、XHWは、入力デー
タDI0〜11が有効なデータであるかどうかの識別信
号ともなっている。
Address signals AI0-9, input data DI
0 to 11 are coordinates Queue12 of the 8-stage FIFO 120
2 and data Queue 124, and then stored in the video RAM. In this case, the address signal A
Whether the I0 to 9 are recognized as the X address or the Y address is selected by the control signals XVW and XHW input to the Queue controller 126.
That is, as shown in FIG. 15, when XVW = L and XHW = H, AI0-9 are recognized as Y addresses, and XV
When W = H and XHW = L, AI0-9 are recognized as X addresses. Furthermore, XVW and XHW also serve as identification signals as to whether the input data DI0 to DI11 are valid data.

【0193】シーケンサ130は、8段FIFO120
に蓄積されているデータをモニターしており、これによ
り、外部に対してはXWAIT信号を、8段FIFO1
20に対しては、読み出し制御信号を出力して、データ
制御を行っている。また、ビデオRAMを制御するため
のシーケンス信号も、このシーケンサ130により生成
されている。
The sequencer 130 includes an 8-stage FIFO 120.
The data stored in the monitor is monitored, so that the XWAIT signal can be sent to the outside and the 8-stage FIFO1
A read control signal is output to 20 to control data. A sequence signal for controlling the video RAM is also generated by this sequencer 130.

【0194】8段FIFO120に蓄えられたX、Yデ
ータはRAMアドレス発生回路136へ、Tx 、TY 、
BRIデータはレジスタ138へ、それぞれ、ディレイ
回路128を介して出力される。そして、レジスタ13
8に蓄えられたデータは、RAMアドレス発生回路13
6より発生されたRAMアドレスにしたがって、ビデオ
RAMに書き込まれることとなる。
The X and Y data stored in the 8-stage FIFO 120 is sent to the RAM address generation circuit 136, where Tx, TY,
The BRI data is output to the register 138 via the delay circuit 128, respectively. And register 13
The data stored in 8 is stored in the RAM address generation circuit 13
According to the RAM address generated from 6, the data is written in the video RAM.

【0195】また、シーケンサ130からのシーケンス
信号も、ディレイ回路128を介してRAM制御信号発
生回路140及びSAM制御回路142に出力され、そ
れぞれの回路にて書き込み用ポートであるRAMの制御
信号及び読み込み用ポートであるSAMの制御信号が発
生されることとなる。
Further, the sequence signal from the sequencer 130 is also output to the RAM control signal generation circuit 140 and the SAM control circuit 142 via the delay circuit 128, and the control signal and the read operation of the RAM, which is a write port, are performed in each circuit. A control signal for the SAM, which is the port for use, is generated.

【0196】端子146は、入出力切り替え可能な双方
向データバスとなっている。そして、シリアルポートS
AMの初期化を行う際には、出力端子に切り替わりSA
Mクリアコード発生回路144にて発生されたクリアコ
ードが出力され、メモリの初期化が行われる。また、S
AMよりデータを読み込む際には、入力端子に切り替わ
りSAMに記憶されているデータが入力される。この入
力されたデータは、シリアル出力D0〜11としてフィ
ールドバッファコントローラ90〜96から出力される
こととなる。即ち、フィールドバッファコントローラ9
0の出力であるポリゴン識別番号PNはアトリビュート
RAM部38へ、フィールドバッファコントローラ9
2、94の出力であるテクスチャ情報TX 、TY はテク
スチャ情報記憶部42へと、それぞれ出力されることと
なる。
The terminal 146 is a bidirectional data bus whose input and output can be switched. And the serial port S
When the AM is initialized, the output terminal is switched to SA
The clear code generated by the M clear code generation circuit 144 is output, and the memory is initialized. Also, S
When reading data from the AM, the data is stored in the SAM after being switched to the input terminal. The input data will be output from the field buffer controllers 90 to 96 as serial outputs D0 to D11. That is, the field buffer controller 9
The polygon identification number PN, which is an output of 0, is sent to the attribute RAM unit 38 by the field buffer controller 9
The texture information TX and TY which are the outputs of 2, 94 are respectively output to the texture information storage unit 42.

【0197】なお、後述する第2の実施例においては、
この端子146と、DO0〜11のシリアルデータ出力
との間には、補間回路が挿入され、出力データの補間が
行われている。
In the second embodiment described later,
An interpolation circuit is inserted between the terminal 146 and the serial data outputs of DO0 to 11, and the output data is interpolated.

【0198】図15には、フィールドバッファ部40に
対するデータの書き込みシーケンスが示される。図15
に示されるように、画像データは、XPFIR=Lとな
る毎にポリゴン毎に書き込まれる。また、1枚のポリゴ
ンのデータが1ラインずつ組にして書き込まれるよう
に、アドレスAI0〜9が、XVW信号及びXHW信号
を用いて制御されている。 (3)アトリビュートRAM部 アトリビュートRAM部38は、図9に示すように、ア
トリビュートRAM部152及びアトリビュートデータ
制御部150を有する。
FIG. 15 shows a data write sequence for the field buffer section 40. Figure 15
As shown in, the image data is written for each polygon every time XPFIR = L. Further, the addresses AI0 to 9 are controlled by using the XVW signal and the XHW signal so that the data of one polygon is written line by line. (3) Attribute RAM Unit The attribute RAM unit 38 has an attribute RAM unit 152 and an attribute data control unit 150, as shown in FIG.

【0199】ソーティング処理部722より入力された
パレットナンバーPAL、カラーZ値CZ等のアトリビ
ュートデータは、アトリビュートデータ制御部150に
入力され、このアトリビュートデータ制御部150によ
り、アトリビュートRAM152に格納される。そして
アトリビュートRAM152からの読み込みは、フィー
ルドバッファ部40から入力されるポリゴン識別番号P
Nにしたがって行われ、ポリゴン毎のデータとして出力
されることとなる。
Attribute data such as the palette number PAL and the color Z value CZ input from the sorting processing unit 722 is input to the attribute data control unit 150, and stored in the attribute RAM 152 by the attribute data control unit 150. Then, the reading from the attribute RAM 152 is performed by the polygon identification number P input from the field buffer unit 40.
It is performed according to N and is output as data for each polygon.

【0200】なお、テクスチャ情報記憶部42内の記憶
空間のブロック指定を行うためのブロック番号BNも、
このアトリビュート制御回路150より発生されテクス
チャ記憶部42に出力される。
The block number BN for designating the block of the storage space in the texture information storage unit 42 is also
It is generated from the attribute control circuit 150 and output to the texture storage unit 42.

【0201】また、これらのアトリビュートデータを、
ゲーム機本体800側で指定するように構成した場合
は、このアトリビュートRAM部152は必要なくな
る。 (4)テクスチャ情報記憶部 第2の記憶部790に内蔵されるテクスチャ情報記憶部
42は、図9に示すように、キャラクタコード記憶部1
60及びキャラクタジェネレータ164を含む。このテ
クスチャ情報記憶部42には、フィールドバッファ部4
0からのテクスチャ座標Tx 、TY により実際の画面を
表示するための例えばカラーコードが記憶されており、
記憶部のスピードを補うために2段構成となっている。
これらの記憶部を構成するものとしては、例えばマスク
ROM、EEPROM、SRAM、DRAM等を用いる
ことができる。特に、RAMを用いて、このRAMに記
憶される内容を例えば1フィールド(1/60秒)毎に
書き換えれば、自身の画像をフィードバックしてまたテ
クスチャにモニターする等特有の画像効果を得ることが
可能となる。
In addition, these attribute data are
When the game machine main body 800 is configured to specify, the attribute RAM unit 152 becomes unnecessary. (4) Texture Information Storage Unit The texture information storage unit 42 built in the second storage unit 790, as shown in FIG.
60 and a character generator 164. In the texture information storage unit 42, the field buffer unit 4
For example, a color code for displaying an actual screen with the texture coordinates Tx and TY from 0 is stored,
It has a two-stage structure to compensate for the speed of the storage unit.
A mask ROM, an EEPROM, an SRAM, a DRAM, or the like can be used as a component of these storage units. In particular, by using a RAM and rewriting the contents stored in this RAM, for example, every one field (1/60 second), it is possible to obtain a unique image effect such as feeding back an image of itself and monitoring it with a texture. It will be possible.

【0202】図16には、このテクスチャ情報記憶部4
2により構成されるテクスチャ記憶平面の一例が示され
る。
FIG. 16 shows the texture information storage unit 4
An example of a texture storage plane constituted by 2 is shown.

【0203】このテクスチャ記憶平面は、例えば図16
に示すような階層構造となっており、これにより、少な
い容量の記憶部により広いテクスチャ記憶平面を表現す
ることができる。即ち、テクスチャ記憶平面は例えば1
6のブロックに分割され、各ブロックは、256×25
6のキャラクタに分割されている。そして、このキャラ
クタは16×16のドットに分割され、各キャラクタに
は、テクスチャ記憶平面を構成するための絵柄が記憶さ
れている。そして、この絵柄を用いてテクスチャ記憶平
面が全て埋められることとなる。
This texture storage plane is, for example, as shown in FIG.
The hierarchical structure as shown in FIG. 4 allows a wide texture storage plane to be represented by a storage unit having a small capacity. That is, the texture storage plane is, for example, 1
It is divided into 6 blocks, and each block is 256 × 25.
It is divided into 6 characters. Then, this character is divided into 16 × 16 dots, and a pattern for forming a texture storage plane is stored in each character. Then, this texture is used to fill the entire texture memory plane.

【0204】図16に示すように、ポリゴンへのテクス
チャリングは、ポリゴンにはり付けたいテクスチャの各
頂点座標を指定することにより行われる。但し、ブロッ
ク間にまたがるポリゴンの指定をすることはできない。
As shown in FIG. 16, the texturing to the polygon is performed by designating the vertex coordinates of the texture to be attached to the polygon. However, it is not possible to specify polygons that span blocks.

【0205】図17には、テクスチャ情報記憶部42に
おけるデータの流れの一例が示される。
FIG. 17 shows an example of the data flow in the texture information storage section 42.

【0206】本第1の実施例において、テクスチャ情報
記憶部42には、それぞれ12ビットのテクスチャX座
標TX0〜TX11 及び16ビットのテクスチャY座標TY0
〜TY15 が、計28ビットのデータとして入力される。
In the first embodiment, the texture information storage unit 42 stores 12-bit texture X coordinates TX0 to TX11 and 16-bit texture Y coordinates TY0, respectively.
~ TY15 is input as a total of 28-bit data.

【0207】ここでテクスチャ座標の下位ビットTX0〜
TX3及びTY0〜TY3は、キャラクタジェネレータ164
におけるキャラクタのアドレスを指定するために使用さ
れ、テクスチャY座標の上位ビットTY12 〜TY15 は、
テクスチャ記憶平面でのブロック番号BNを指定するた
めに使用されている。即ち、上位ビットTY12 〜TY15
によりテクスチャ記憶平面のブロックが指定され、TX4
〜TX11 及びTY4〜TY11 によりブロック内のキャラク
タのアドレスが指定される。これにより、キャラクタコ
ードCC0 〜CC12がキャラクタコード記憶部160か
ら読み出されることとなる。一方、下位ビットTX0〜T
X3及びTY0〜TY3は、キャラクタ記憶部160をバイパ
スし、前記キャラクタコードCC0 〜CC12と結合し
て、キャラクタジェネレータ164に入力される。そし
て、キャラクタジェネレータ164からは、最終的な出
力である例えば8ビットのカラーコードがゲーム機本体
800に出力されることとなる。 (5)最終出力 図18には、フィールドバッファ部40及びアトリビュ
ートRAM部38へのデータ書き込み後、ゲーム機本体
800に疑似3次元画像構成データを出力するまでの信
号の流れが示されている。
Here, the lower bits TX0 to
TX3 and TY0 to TY3 are character generators 164.
Used to specify the address of the character in, the high order bits TY12 to TY15 of the texture Y coordinate are
It is used to specify the block number BN in the texture storage plane. That is, the upper bits TY12 to TY15
Specifies a block in the texture memory plane, and TX4
.About.TX11 and TY4 to TY11 specify the addresses of the characters in the block. As a result, the character codes CC0 to CC12 are read from the character code storage section 160. On the other hand, the lower bits TX0 to T
X3 and TY0 to TY3 bypass the character storage unit 160, are combined with the character codes CC0 to CC12, and are input to the character generator 164. Then, the final output of, for example, an 8-bit color code is output from the character generator 164 to the game machine body 800. (5) Final Output FIG. 18 shows a signal flow after the data is written in the field buffer unit 40 and the attribute RAM unit 38 and before the pseudo three-dimensional image configuration data is output to the game machine body 800.

【0208】即ち、以下のような信号の流れにしたがっ
て、最終的な疑似3次元画像構成データが出力される。 フィールドバッファ部40から1ドット毎のデータ
(PN、TX 、TY 、BRI)が出力される。 アトリビュートデータRAM部38から、前記ポリゴ
ン識別番号PNに対応したポリゴンのアトリビュートデ
ータ(BN、PAL、CZ)が出力される。
That is, the final pseudo three-dimensional image constituent data is output according to the following signal flow. Data (PN, TX, TY, BRI) for each dot is output from the field buffer unit 40. The attribute data RAM unit 38 outputs the polygon attribute data (BN, PAL, CZ) corresponding to the polygon identification number PN.

【0209】なお、ここでパレットナンバーPALは、
パレットテーブルを指定するためのナンバーである。ま
た、カラーZ値CZは、奥行き変化による色変化に対応
するために用いられるものである。 TX 、TY 、BNがテクスチャ情報記憶部42に入力
され、対応したカラーデータCOLが出力される。この
場合、アトリビュートRAM部38を経由するBNとタ
イミングを合わせるため、TX 、TY はディレイ回路1
68を介してテクスチャ情報記憶部42に入力される。 COL、PAL、BRI、CZは、ディレイ回路17
0、172、174によりタイミング合わせが行われ、
同時にゲーム機本体800に出力される。
[0209] Here, the pallet number PAL is
It is a number for specifying the palette table. The color Z value CZ is used to cope with a color change due to a depth change. TX, TY, and BN are input to the texture information storage unit 42, and the corresponding color data COL is output. In this case, TX and TY are set to the delay circuit 1 in order to match the timing with the BN passing through the attribute RAM section 38.
It is input to the texture information storage unit 42 via 68. COL, PAL, BRI, and CZ are delay circuits 17
The timing is adjusted by 0, 172, 174,
At the same time, it is output to the game machine body 800.

【0210】なお、本実施例では、PAL、CZ等のア
トリビュートデータについても第2の記憶部790に格
納する構成としたが、本発明では、これらのアトリビュ
ートデータを必ずしも格納する構成とする必要はない。
この場合は、これらのデータはゲーム機本体800側で
決めることになる。 C.第2の実施例 1.実施例の概要 (1)概要 本第2の実施例では、各ドットの位置座標X、Y、テク
スチャ座標Tx、TY、輝度情報BRIを演算する際
に、予め定められた間引き率に間引いて演算し、出力す
る際にこれを補間している。これにより最も数の多いデ
ータの演算の回数を減少させることができる。
In this embodiment, the attribute data such as PAL and CZ is also stored in the second storage section 790. However, in the present invention, it is not always necessary to store these attribute data. Absent.
In this case, these data are determined by the game machine body 800 side. C. Second embodiment 1. Outline of Embodiment (1) Outline In the present second embodiment, when the position coordinates X and Y of each dot, the texture coordinates Tx and TY, and the brightness information BRI are calculated, the calculation is performed by thinning out to a predetermined thinning rate. However, this is interpolated when outputting. This makes it possible to reduce the number of calculations for the largest number of data.

【0211】また、本第2の実施例では、フィールドバ
ッファに記憶されるデータは、カラーデータCOLでは
なく、テクスチャ座標TX 、TY である。従って、前記
間引き・補間の処理が可能となる。即ち、これらは、微
少区間では線形と見なしてよいため、平均値を求めるな
ど簡易な線形補間により補間処理を行うことができ、ハ
ードの負担を大幅に軽減できることとなる。 (2)構成及び動作の概要 図19には、本第2の実施例の概略図が示される。図1
9に示されるように、本第2の実施例は、前記第1の実
施例の構成とほぼ同じ構成となっている。本第1の実施
例と違うの点は、本第2の実施例では、間引き演算手段
及び補間演算手段を含む点である。
Further, in the second embodiment, the data stored in the field buffer is not the color data COL but the texture coordinates TX and TY. Therefore, the thinning / interpolation processing can be performed. That is, since these can be regarded as linear in a minute section, interpolation processing can be performed by simple linear interpolation such as obtaining an average value, and the burden on hardware can be significantly reduced. (2) Outline of Configuration and Operation FIG. 19 shows a schematic diagram of the second embodiment. Figure 1
As shown in FIG. 9, the second embodiment has almost the same structure as that of the first embodiment. The difference from the first embodiment is that the second embodiment includes thinning calculation means and interpolation calculation means.

【0212】本第2の実施例における間引き演算手段
は、プロセッサ部30に含まれている。具体的には、プ
ロセッサ部30における走査線上の各ドットの演算を行
う際に、間引いて演算することによりこれを実現してい
る。この間引き演算動作は、図20に示すように例えば
以下のルールにしたがって行われる。
The thinning-out calculation means in the second embodiment is included in the processor section 30. Specifically, this is realized by thinning out the calculation when calculating each dot on the scanning line in the processor unit 30. This decimation calculation operation is performed according to the following rules, for example, as shown in FIG.

【0213】まず、データの間引きは、水平方向(X方
向)に例えば1ドット毎に(例えばXが偶数のドット
を)間引き処理する。但し、以下の場合は間引き処理を
行わない。
First, the data is thinned out by, for example, dot by dot in the horizontal direction (X direction) (for example, dots in which X is an even number). However, the thinning processing is not performed in the following cases.

【0214】ポリゴンの輪郭のドット 他のポリゴンとの境界線のドット 画面左右点のドット 以上のルールに従って、間引かれたフィールドバッファ
上のデータのイメージが図20に示される。この図に示
すように、上記〜に該当するドットについては、間
引き処理が行われず、それ以外のドットは、1ドット毎
に間引かれている。
20. Dots on the outline of a polygon Dots on the boundary with another polygon Dots on the left and right points of the screen An image of the data on the field buffer thinned out according to the above rules is shown in FIG. As shown in this figure, the thinning processing is not performed on the dots corresponding to the above items, and the other dots are thinned out every one dot.

【0215】なお、ここで、空きドットとは、上記ルー
ルに従って、間引かれたドット及び、ポリゴンの描かれ
ないところ即ち背景になる部分をいい、例えばTX =T
Y =FFFhに設定されている。このフィールドバッフ
ァは、1画面分のデータの書き込み開始時に、全ドット
がクリア(全ビット1)され、前記したFFFhの値が
全ドットに設定されることとなる。
Here, the empty dot means a thinned dot and a portion where the polygon is not drawn, that is, a background portion according to the above rule, for example, TX = T.
Y = FFFh is set. In this field buffer, all dots are cleared (all bits are 1) at the start of writing data for one screen, and the above-mentioned value of FFFh is set to all dots.

【0216】本第2の実施例における補間演算手段は、
図19に示すように、フィールドバッファ部40の出力
に補間回路180、182、184を接続することによ
り実現される。ここで、補間回路180は輝度情報BR
Iの補間を行うものであり、補間回路182は、テクス
チャ座標TX 、TY の補間を行うものである。また、補
間回路184は、ポリゴン識別番号PNの補間を行うも
のである。具体的には、これらの補間回路180、18
2、184による補間動作は、図21に示すように例え
ば以下のようなルールにしたがって行われる。即ち、補
間処理は次の様なドットに対して行われる。
The interpolation calculation means in the second embodiment is
As shown in FIG. 19, it is realized by connecting interpolation circuits 180, 182, 184 to the output of the field buffer unit 40. Here, the interpolation circuit 180 determines that the brightness information BR
The interpolation circuit 182 interpolates the texture coordinates TX and TY. The interpolation circuit 184 is for interpolating the polygon identification number PN. Specifically, these interpolation circuits 180, 18
The interpolation operation by 2,184 is performed according to the following rules, for example, as shown in FIG. That is, the interpolation process is performed on the following dots.

【0217】空きドット、即ちTX =TY =FFFh
であり、かつ、 右隣と左隣のドットのポリゴン識別番号が同じである
ドット補間処理は、上記のような空きドットに対して以
下のような補間処理を行う。
Empty dot, that is, TX = TY = FFFh
In addition, in the dot interpolation processing in which the right and left adjacent dots have the same polygon identification number, the following interpolation processing is performed on the above-described empty dot.

【0218】ポリゴン識別番号PNを両隣のPNと同
じ値にする。
The polygon identification number PN is set to the same value as the PN on both sides.

【0219】テクスチャ座標TX 、TY 及び輝度情報
BRIは両隣のTX 、TY 及びBRIの平均値に設定す
る。
The texture coordinates TX, TY and the brightness information BRI are set to the average value of TX, TY and BRI on both sides.

【0220】図21には、上記ルールに従って補間処理
を行った場合の一例が示される。図21に示すように、
補間処理は、ポリゴン識別番号PNが同じであるドット
に囲まれた空きドットに対して行われる。即ち、図21
においては、空きドットであり左右のドットのポリゴン
識別番号PNがともに0であるドットに対して補間処理
が行われる。これに対して、空きドットであっても左右
のドットのポリゴン識別番号PNが異なるドットに対し
ては補間処理は行われない。このようなドットは間引か
れたドットではなく、ポリゴン間の隙間だからである。
FIG. 21 shows an example in which the interpolation processing is performed according to the above rule. As shown in FIG.
The interpolation process is performed on empty dots surrounded by dots having the same polygon identification number PN. That is, FIG.
In, the interpolation processing is performed on the dots that are empty dots and the polygon identification numbers PN of the left and right dots are both 0. On the other hand, interpolation processing is not performed on dots having different polygon identification numbers PN of the left and right dots even if they are empty dots. This is because such dots are not thinned dots but gaps between polygons.

【0221】補間処理を行うべきドットに対しては、図
21に示すように次のような補間処理が行われる。ま
ず、補間回路184にて、左右のドットのポリゴン識別
番号PNと同じ値が、空きドットのポリゴン識別番号と
して設定される。即ち、この例ではPN=0に設定され
る。
For dots to be interpolated, the following interpolating process is performed as shown in FIG. First, in the interpolation circuit 184, the same value as the polygon identification number PN of the left and right dots is set as the polygon identification number of the empty dot. That is, in this example, PN = 0 is set.

【0222】また、補間回路182にて、左右のドット
のテクスチャ座標TX 、TY の例えば平均値が求めら
れ、この値が空きドットのテクスチャ座標TX 、TY と
して設定される。この例では、TX =150、TY =3
0の値が設定されることとなる。
Further, the interpolation circuit 182 obtains, for example, an average value of the texture coordinates TX and TY of the left and right dots, and sets the values as the texture coordinates TX and TY of the empty dot. In this example, TX = 150, TY = 3
A value of 0 will be set.

【0223】同様にして、補間回路180にて、左右の
ドットの輝度情報BRIの例えば平均値が求められ、こ
の値が空きドットの輝度情報BRIとして設定される。
この例では、BRI=48の値が設定されることとな
る。 2.具体例 以下、本第2の実施例の具体例を説明する。なお、前記
第1の実施例と共通の部分についての説明は、以下省略
する。 (1)間引き演算手段 本第2の実施例における間引き演算手段は、プロセッサ
部30に含まれる。但し、本第2の実施例においては、
プロセッサ部30の構成を、第1の実施例におけるプロ
セッサ部30の構成とほぼ同様な構成にしたままで、こ
の間引き演算手段をプロセッサ部30に含ませることが
できる。
Similarly, the interpolation circuit 180 obtains, for example, the average value of the brightness information BRI of the left and right dots, and sets this value as the brightness information BRI of the empty dot.
In this example, the value of BRI = 48 is set. 2. Specific Example Hereinafter, a specific example of the second embodiment will be described. The description of the same parts as those of the first embodiment will be omitted below. (1) Thinning-out calculation means The thinning-out calculation means in the second embodiment is included in the processor unit 30. However, in the second embodiment,
This thinning-out operation means can be included in the processor unit 30 while keeping the configuration of the processor unit 30 substantially the same as the configuration of the processor unit 30 in the first embodiment.

【0224】即ち、本第2の実施例における間引き処理
は、図10において走査線上の各ドットの演算を行う
際に行われる。そして、これは走査線上の各ドットの演
算を行う際に使用される演算用カウンタのカウントアッ
プ値を変化させることにより行われる。例えば、間引き
率を1/2とする場合には、このカウントアップ値を2
とする。また、間引き率を1/3とする場合には、この
カウントアップ値を3とすればよい。これにより、走査
線上のドットの演算が2ドット毎、3ドット毎に行われ
ることとなり、間引き演算処理が可能となる。つまり、
本第2の実施例では、ほとんどハードの構成を変更する
ことなく、この間引き演算手段を実現できることとな
る。
That is, the thinning-out process in the second embodiment is performed when the calculation of each dot on the scanning line in FIG. 10 is performed. Then, this is performed by changing the count-up value of the calculation counter used when calculating each dot on the scanning line. For example, when the thinning rate is set to 1/2, this count-up value is set to 2
And Further, when the thinning rate is 1/3, this count-up value may be 3. As a result, the dots on the scanning line are calculated every two dots and every three dots, and the thinning calculation process can be performed. That is,
In the second embodiment, this thinning-out operation means can be realized without changing the hardware configuration.

【0225】なお、本第2の実施例では、走査線上の各
ドットの演算を行う際に、間引きを行っているが、本発
明はこれに限られるものではない。例えば、この間引き
処理を図10の輪郭点を演算する際に行ってもよい。
この場合は、輪郭点を演算する際に使用される演算用カ
ウンタのカウントアップ値を変化させることで、この間
引き率を変更することができることとなる。 (2)補間演算手段の構成 図19に示す本第2の実施例の概要においては、補間演
算手段を構成する補間回路180、182、184を、
フィールドバッファ部40の外部に設ける構成について
説明した。これに対し、本第2の実施例の具体例では、
この補間回路180、182、184を、フィールドバ
ッファ部40の内部に設ける構成としている。具体的に
は、補間回路は、図9におけるフィールドバッファコン
トローラ90〜96の内部にそれぞれ設けられる。図2
2には、この補間回路が内蔵されたフィールドバッファ
コントローラ90〜96の内部回路が示される。図22
に示されるように、本具体例においては、前記した補間
回路180、182、184は、同じ回路構成で形成さ
れる補間回路190によりそれぞれ置き換えられてい
る。即ち、本具体例における補間回路190は、テクス
チャ座標TX 、TY 、輝度情報BRI、ポリゴン識別番
号PNの補間を同じ回路構成で全て処理できるように構
成されている。
In the second embodiment, the thinning is performed when the calculation of each dot on the scanning line is performed, but the present invention is not limited to this. For example, this thinning-out process may be performed when the contour points in FIG. 10 are calculated.
In this case, the thinning-out rate can be changed by changing the count-up value of the calculation counter used when calculating the contour points. (2) Configuration of Interpolation Computation Means In the outline of the second embodiment shown in FIG. 19, the interpolation circuits 180, 182, 184 constituting the interpolation computation means are
The configuration provided outside the field buffer unit 40 has been described. On the other hand, in the specific example of the second embodiment,
The interpolation circuits 180, 182, 184 are provided inside the field buffer unit 40. Specifically, the interpolation circuits are provided inside the field buffer controllers 90 to 96 in FIG. 9, respectively. Figure 2
Reference numeral 2 shows the internal circuit of the field buffer controllers 90 to 96 in which this interpolation circuit is incorporated. FIG. 22
As shown in FIG. 5, in the present specific example, the interpolation circuits 180, 182, 184 described above are each replaced by an interpolation circuit 190 formed of the same circuit configuration. That is, the interpolation circuit 190 in this example is configured so that the interpolation of the texture coordinates TX, TY, the brightness information BRI, and the polygon identification number PN can all be processed by the same circuit configuration.

【0226】図22に示されるフィールドバッファコン
トローラの内部回路は、第1の実施例におけるフィール
ドバッファコントローラの内部回路と、補間回路190
が付加されている点を除き、同じ回路により構成されて
いる。
The internal circuit of the field buffer controller shown in FIG. 22 is the same as the internal circuit of the field buffer controller in the first embodiment and the interpolation circuit 190.
It is configured by the same circuit except that is added.

【0227】ビデオRAM100〜106より端子14
6を介して読み出されるDS0〜11のデータ、即ちテ
クスチャ情報TX 、TY 、輝度情報BRI、ポリゴン識
別番号PNは、補間回路190に入力される。そして、
補間回路190内にて所定の補間処理が行われた後、シ
リアルデータ出力D00〜11としてフィールドバッフ
ァコントローラ90〜96から出力されることとなる。
この時、補間回路190の制御は補間制御信号XEQ、
XNULI、XNULBにより行われている。
From the video RAMs 100 to 106, the terminal 14
The data of DS0 to 11 read out via 6, that is, the texture information TX, TY, the brightness information BRI, and the polygon identification number PN are input to the interpolation circuit 190. And
After a predetermined interpolation process is performed in the interpolation circuit 190, serial data outputs D00 to 11 are output from the field buffer controllers 90 to 96.
At this time, the interpolation circuit 190 is controlled by the interpolation control signal XEQ,
It is carried out by XNULI and XNULL.

【0228】図23には、この補間回路190の内部回
路の一例が示される。図23において、符号192〜2
14に示すものは、例えばDーフリップフロップ等のデ
ータのシフト機能をもつもので構成される。また、符号
220、222、224はインバータを、符号226、
228はNOR等の論理演算回路を示す。空きドット判
定回路230は、テクスチャ座標TX 、TY が空きドッ
トか否かを判定する回路であり、ポリゴンナンバー一致
判定回路232は、隣合うドットのポリゴン識別番号P
Nが一致するか否かを判定する回路である。また、平均
値演算回路234は、線形補間処理を行う際に、隣合う
ドットのテクスチャ座標TX 、TY 及び輝度情報BRI
の平均値を求めるための回路である。また、マルチプレ
クサ236は、補間処理を行ったデータを出力するか、
もとのデータを出力するかを選択するための回路であ
る。
FIG. 23 shows an example of the internal circuit of the interpolation circuit 190. In FIG. 23, reference numerals 192 to 2
Reference numeral 14 indicates a device having a data shift function, such as a D-flip flop. Reference numerals 220, 222, and 224 denote inverters, and reference numeral 226,
Reference numeral 228 indicates a logical operation circuit such as NOR. The empty dot determination circuit 230 is a circuit for determining whether or not the texture coordinates TX and TY are empty dots, and the polygon number coincidence determination circuit 232 is a polygon identification number P of the adjacent dots.
It is a circuit that determines whether or not N matches. Further, the average value calculation circuit 234, when performing the linear interpolation processing, has texture coordinates TX and TY of adjacent dots and brightness information BRI.
This is a circuit for obtaining the average value of. In addition, the multiplexer 236 outputs the interpolated data,
This is a circuit for selecting whether to output the original data.

【0229】なお、本第2の実施例では、第1の実施例
と同様に、ポリゴン識別番号PNを取り扱うフィールド
バッファコントローラ90をマスターモードにて、テク
スチャ座標TX 、TY データを取り扱うフィールドバッ
ファコントローラ92〜94をスレーブモードにて、輝
度情報BRIを取り扱うフィールドバッファコントロー
ラ96を拡張モードにて使用している。この場合、補間
処理を行うためには、補間を行うドットの前後のドット
のPN、TX 、TY 、BRIの値を参照する必要があ
り、マスター、スレーブ、拡張の4つのフィールドバッ
ファコントローラ90〜96の間でデータのコミニュケ
ーションを行う必要がある。この役目を果たすのが、補
間制御信号XNULB、XNULI、XEQであり、そ
れぞれ端子216、217、218にてフィールドバッ
ファコントローラ90〜96に接続されている。
In the second embodiment, as in the first embodiment, the field buffer controller 90 which handles the polygon identification number PN is set in the master mode and the field buffer controller 92 which handles the texture coordinate TX and TY data. 9 to 94 are used in the slave mode, and the field buffer controller 96 that handles the brightness information BRI is used in the extended mode. In this case, in order to perform the interpolation processing, it is necessary to refer to the values of PN, TX, TY, and BRI of the dots before and after the dot to be interpolated, and the four field buffer controllers 90 to 96 of master, slave, and expansion. It is necessary to communicate data between them. Interpolation control signals XNULL, XNULL, and XEQ play this role, and are connected to the field buffer controllers 90 to 96 at terminals 216, 217, and 218, respectively.

【0230】ここで、XEQ端子218は、双方向バッ
ファとなっている。そして、マスターモードのフィール
ドバッファコントローラ(PN)90からは、隣合うド
ットのポリゴン識別番号PNが同一かどうかを示す信号
がXEQ信号として出力される。また、スレーブ・拡張
モードのフィールドバッファコントローラ92〜96で
は、このXEQ信号が入力され、補間回路内での補間処
理のために使用されることとなる。
Here, the XEQ terminal 218 is a bidirectional buffer. Then, from the master mode field buffer controller (PN) 90, a signal indicating whether or not the polygon identification numbers PN of adjacent dots are the same is output as an XEQ signal. Further, in the slave / extended mode field buffer controllers 92 to 96, this XEQ signal is input and used for interpolation processing in the interpolation circuit.

【0231】XNULB端子216も双方向バッファと
なっている。そして、スレーブモードのフィールドバッ
ファコントローラ92からは、各ドットのTX の値がX
NULB(X)信号として出力される。また、同じくス
レーブモードのフィールドバッファコントローラ94か
らは、各ドットのTYの値がXNULB(Y)信号とし
て出力される。また、マスター・拡張モードのフィール
ドバッファコントローラ90、96では、例えば前記X
NULB(X)信号が入力され、空きドットであるかど
うかの判定のために使用されることとなる。更に、XN
ULI端子217は、全てのフィールドバッファコント
ローラ90〜96にて入力端子となっており、例えば前
記XNULB(Y)信号が入力される。
The XNULL terminal 216 is also a bidirectional buffer. Then, from the slave mode field buffer controller 92, the value of TX of each dot is X.
It is output as a NULL (X) signal. Also, the TY value of each dot is output as the XNULLB (Y) signal from the field buffer controller 94 in the slave mode. In the master / extended mode field buffer controllers 90 and 96, for example, the X
The NULLB (X) signal is input and used to determine whether or not it is an empty dot. Furthermore, XN
The ULI terminal 217 serves as an input terminal in all the field buffer controllers 90 to 96, and receives the XNUMB (Y) signal, for example.

【0232】そして、各ドットが空きドットであるかど
うかは、XNULB端子216及びXNULI端子21
7から入力された前記XNULB(X)信号及びXNU
LB(Y)信号の双方より判断される。即ち、XNUL
B(X)信号及びXNUKB(Y)信号の値が共に例え
ばFFFhである場合は、そのドットは空きドットであ
ると判断され、論理回路226、228等により補間デ
ータ選択指令がマルチプレクサ236に出力され、平均
値演算回路234により補間されたデータが選択され出
力されることとなる。 (3)補間演算手段の動作 図24には、フィールドバッファ40内のビデオRAM
から読み出されたデータが、フィールドバッファコント
ローラ内で補間処理を受けて出力されるまでの様子が示
されている。
Whether or not each dot is an empty dot is determined by the XNULL terminal 216 and the XNULL terminal 21.
XNULB (X) signal and XNU input from
It is determined from both LB (Y) signals. That is, XNUL
When the values of the B (X) signal and the XNUKB (Y) signal are both FFFh, it is determined that the dot is an empty dot, and the logic circuits 226 and 228 output the interpolation data selection command to the multiplexer 236. The data interpolated by the average value calculation circuit 234 will be selected and output. (3) Operation of Interpolation Calculation Means FIG. 24 shows a video RAM in the field buffer 40.
It is shown that the data read from is subjected to interpolation processing in the field buffer controller and is output.

【0233】図24に示すように、本第2の実施例で
は、以下の7つのフェーズ(#0〜#6)によるパイプ
ライン処理で補間処理を行っている。 #0 SAM読み出しフェーズ SAM読み出し用クロックSCの立ち上がりで、マルチ
ポートビデオRAMから対応するドットのデータが出力
される。 #1 SAMデータ取り込みフェーズ DS0〜11端子に到達したデータをSCに同期してフ
ィールドバッファコントローラ90〜96内に取り込
む。 #2 空きドット判定フェーズ スレーブモードのフィールドバッファコントローラ9
2、94が、TX 、TYの値が空白コード、即ちFFF
hであるかどうかをチェックし、XNULB信号を出力
する。 #3 間引きドット判定フェーズ マスターモードのフィールドバッファコントローラ90
が、両隣のドットのポリゴン識別番号PNを比較し、一
致したかどうかをXEQ信号として出力する。 #4、#5 補間処理フェーズ ポリゴン識別番号PN、テクスチャ座標TX 、TY 、輝
度情報BRIの補間を、両隣の平均値を求めることによ
り行う。但し、補間処理を行わないドットに関しては、
マルチプレクサ236にて、何も処理を行わずそのまま
データを通過させる。 #6 データの出力フェーズ ドットクロックDCKの立ち上がりに同期してデータを
出力する。なお、図24にて、〜は以下のことを示
している。 SCの立ち上がりによりビデオRAMからデータが読
み出される(フェーズ#0) フィールドバッファコントローラ90〜96内にデー
タが取り込まれる(フェーズ#1) データ(C)に対応したXNULBの出力が行われる
(フェーズ#2) データ(C)に対応したXEQの出力が行われる(フ
ェーズ#3) 補間処理を受けたデータが出力される なお、本発明は上記実施例に限定されるものではなく、
本発明の要旨の範囲内で種々の変形実施が可能である。
As shown in FIG. 24, in the second embodiment, the interpolation processing is performed by the pipeline processing by the following seven phases (# 0 to # 6). # 0 SAM Read Phase At the rising edge of the SAM read clock SC, the corresponding dot data is output from the multiport video RAM. # 1 SAM data fetching phase Data arriving at the terminals DS0-11 are fetched in the field buffer controllers 90-96 in synchronization with SC. # 2 Empty dot determination phase Slave mode field buffer controller 9
2 and 94 are blank codes with TX and TY values, that is, FFF
It is checked whether it is h, and the XNULLB signal is output. # 3 thinning dot determination phase Master mode field buffer controller 90
Compares the polygon identification numbers PN of the dots on both sides, and outputs whether they match or not as an XEQ signal. # 4, # 5 Interpolation processing phase Polygon identification number PN, texture coordinates TX, TY, and brightness information BRI are interpolated by obtaining average values of both sides. However, for dots that do not undergo interpolation processing,
The multiplexer 236 passes the data as it is without performing any processing. # 6 Data output phase Data is output in synchronization with the rising edge of the dot clock DCK. Note that, in FIG. 24, ~ indicates the following. Data is read from the video RAM at the rising edge of SC (phase # 0). Data is taken into the field buffer controllers 90 to 96 (phase # 1). XNULB corresponding to data (C) is output (phase # 2). ) XEQ output corresponding to data (C) is performed (phase # 3) Data subjected to interpolation processing is output Note that the present invention is not limited to the above embodiment,
Various modifications can be made within the scope of the present invention.

【0234】例えば、本発明における線形補間演算は上
記したものに限らず、例えばDDAを用いて線形補間演
算してもよい。
For example, the linear interpolation calculation according to the present invention is not limited to the above-described one, and the linear interpolation calculation may be performed using DDA, for example.

【0235】また、テクスチャ情報記憶手段を構成する
記憶装置としては、EEPROMに限らず、SRAM、
DRAM、マスクROM等、各種の記憶装置を使用する
ことができる。あるいは、テクスチャ情報を数式あるい
は手順の形で記憶した関数発生器で置き換えることも可
能である。
Further, the storage device constituting the texture information storage means is not limited to the EEPROM, but SRAM,
Various storage devices such as DRAM and mask ROM can be used. Alternatively, it is also possible to replace the texture information with a function generator that stores it in the form of an equation or procedure.

【0236】また、間引き演算手段における間引き率と
しては1/2に限らず、画質の許す限り、例えば1/
3、1/4等各種の間引き率を採用することができる。
そして、この場合の間引き補間の手段としては、例えば
直線補間等を用いることができる。
The decimation rate in the decimation calculation means is not limited to 1/2, but may be, for example, 1 / so long as the image quality permits.
Various thinning rates such as 3 and 1/4 can be adopted.
Then, as the thinning-out interpolation means in this case, for example, linear interpolation or the like can be used.

【0237】また、本発明によりポリゴンにテクスチャ
マッピングされるテクスチャの形状としては、このポリ
ゴンと同一の形状もしくは相似形状のものには限られ
ず、任意の形状のテクスチャをマッピングすることがで
きる。例えば、ポリゴンの形状と全く異なる形状のテク
スチャをマッピングすることにより、テクスチャを歪ま
せるなど特殊な画像効果を得ることもできる。
The shape of the texture that is texture-mapped to the polygon according to the present invention is not limited to the same shape or a similar shape to this polygon, and a texture of any shape can be mapped. For example, by mapping a texture having a shape that is completely different from the shape of the polygon, it is possible to obtain a special image effect such as distorting the texture.

【0238】また、上記実施例では、演算における「走
査線」と「CRTの走査線」とを特に区別していなかっ
たが、例えばビデオRAMのSAM容量等のハードウェ
ア上の制約しだいでは、両走査線が別個のものであっ
て、例えば直交しているように場合も考えられる。
In the above embodiment, the "scan line" and the "CRT scan line" in the calculation are not particularly distinguished. However, depending on the hardware restrictions such as the SAM capacity of the video RAM, both of them may be used. It is also conceivable that the scan lines are separate, for example orthogonal.

【0239】また、本発明における第1の記憶部、補助
演算処理部、第2の記憶部、ゲーム機本体の接続関係
は、前記した実施例の接続関係に限らず種々の接続関係
とすることができる。例えば、第1の記憶部、第2の記
憶部との接続のためのバスラインを、補助処理演算部と
ゲーム機本体とで共有する構成としてもよい。このよう
な構成とすれば、このバスラインの支配権を、補助処理
演算部とゲーム機本体とで相互に変更することで、第2
の記憶部、第2の記憶部を共有することができ、処理の
分担等が可能となり、処理効率を大幅に向上させること
ができることになる。
Further, the connection relationship among the first storage section, the auxiliary arithmetic processing section, the second storage section, and the game machine main body in the present invention is not limited to the connection relationship of the above-described embodiment, but various connection relationships may be used. You can For example, a bus line for connection with the first storage unit and the second storage unit may be shared by the auxiliary processing calculation unit and the game machine body. With such a configuration, by changing the control right of the bus line between the auxiliary processing calculation unit and the game machine main body,
The storage unit and the second storage unit can be shared, processing can be shared, and processing efficiency can be significantly improved.

【0240】また、本発明における補助演算処理部でゲ
ーム空間を3次元化する手法は、完全な仮想3次元空間
を形成する手法に限らず、例えば限られた方向(例えば
前方のみ)での仮想3次元空間を形成する手法、ポリゴ
ンのみを3次元化する手法の全てが含まれる。
Further, the method of making the game space three-dimensional by the auxiliary arithmetic processing unit in the present invention is not limited to the method of forming a complete virtual three-dimensional space, and for example, a virtual image in a limited direction (for example, only forward) It includes all of the method of forming a three-dimensional space and the method of three-dimensionalizing only polygons.

【0241】また、本発明において補助演算処理部で行
う各種の画像処理、プログラムデータ変更処理は、全て
補助演算処理部で行う必要はなく、その一部を中央処理
部に行わせる構成も本発明に含まれる。
Further, in the present invention, it is not necessary for all of the various image processings and program data changing processings performed by the auxiliary arithmetic processing unit to be performed by the auxiliary arithmetic processing unit, and a part of them may be performed by the central processing unit. include.

【0242】また、本発明における画像供給部、画像形
成部の構成についても、上記実施例の構成に限らず、例
えば処理の順序を変更したもの等の種々の変形が可能で
ある。
Further, the configurations of the image supply unit and the image forming unit according to the present invention are not limited to the configurations of the above-described embodiments, and various modifications such as a change in the order of processing are possible.

【0243】また、本発明における第1の記憶部、第2
の記憶部は、必ずしもゲーム用カートリッジ内に内臓す
る必要はなく、その一部又は全部を外部装置型にしても
よい。例えば、第1の記憶部の一部又は全部を外部記憶
装置であるCDROM装置にしてもよい。
The first storage section and the second storage section in the present invention
The storage unit does not necessarily have to be built in the game cartridge, and a part or all of the storage unit may be an external device type. For example, a part or all of the first storage unit may be a CDROM device which is an external storage device.

【0244】また、本発明に係るゲーム用カートリッジ
が接続されるゲーム機本体の構成も、上記実施例の構成
に限定されるものではない。
The structure of the game machine main body to which the game cartridge according to the present invention is connected is not limited to the structure of the above embodiment.

【0245】更に、本発明に係るゲーム用カートリッジ
は、少なくともゲーム機本体と接続され所定の画像合成
処理が行えればよく、その形状等はどのようなものであ
っても構わない。例えば、いわゆるメモリカードとよば
れるものも本発明のゲーム用カートリッジに含まれる。
Furthermore, the game cartridge according to the present invention may be of any shape as long as it is connected to at least the main body of the game machine and can perform a predetermined image synthesizing process. For example, a so-called memory card is also included in the game cartridge of the present invention.

【0246】[0246]

【発明の効果】本発明に係るゲーム用カートリッジよれ
ば、従来のビデオゲーム機で行えなかったテクスチャマ
ッピング手法を用いた繊細で高画質な画像合成を、ゲー
ム機かったテクスチャマッピング手法を用いた繊細で高
画質な画像合成を、ゲーム機本体の構成をほとんど変更
することなく行うことができる。
According to the game cartridge of the present invention, the delicate and high-quality image synthesis using the texture mapping method, which cannot be performed by the conventional video game machine, can be performed by the delicate texture mapping method. With this, high-quality image composition can be performed without changing the configuration of the game console body.

【0247】この場合、第1のテクスチャ情報演算手段
に代えて第2のテクスチャ情報演算手段を備えれば、遠
近感、直線性を損なうことのないポリゴンに対するテク
スチャマッピングをハードの負担を重くすることなく実
現できる。
In this case, if the second texture information calculating means is provided in place of the first texture information calculating means, the hardware burden on texture mapping for polygons that does not impair perspective and linearity is increased. Can be realized without.

【0248】また、ハードの負担を低減できる間引き・
補間の手法を画像の質をそれほど劣化させることなく実
現できる。
Further, thinning-out which can reduce the burden on the hardware
The interpolation method can be realized without degrading the image quality so much.

【0249】また、本発明に係るゲーム用カートリッジ
よれば、従来の家庭用ビデオゲーム機で行えなかった、
輝度情報の連続性が担保された画像合成を、ゲーム機本
体の構成をほとんど変更することなく行うことができ
る。
Further, according to the game cartridge of the present invention, the conventional home video game machine cannot be used.
It is possible to perform image composition in which the continuity of the brightness information is guaranteed without changing the configuration of the game machine body.

【0250】この場合、第1の輝度情報演算手段に代え
て第2の輝度情報演算手段を備えれば、3次元物体が回
転等した場合にも画像のリアリティーを損うことない輝
度情報の演算をハードの負担を重くすることなく実現で
きる。
In this case, if the second brightness information calculating means is provided instead of the first brightness information calculating means, the brightness information is calculated without damaging the image reality even when the three-dimensional object is rotated. Can be realized without increasing the burden of hardware.

【0251】また、ハードの負担を低減できる輝度情報
演算の間引き・補間の手法を画像の質をそれほど劣化さ
せることなく実現できる。
Further, the method of thinning / interpolating the luminance information calculation which can reduce the load on the hardware can be realized without deteriorating the image quality so much.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明にかかるゲーム用カートリッジ及びこれ
を用いたゲーム装置の好適な一例について示すブロック
図である。
FIG. 1 is a block diagram showing a preferred example of a game cartridge according to the present invention and a game device using the same.

【図2】画像形成部及び第2の記憶部について示すブロ
ック図である。
FIG. 2 is a block diagram showing an image forming unit and a second storage unit.

【図3】テクスチャマッピングにおける遠近感の問題に
ついて示す概略説明図である。
FIG. 3 is a schematic explanatory diagram showing a perspective problem in texture mapping.

【図4】テクスチャマッピングにおける直線性の問題に
ついて示す概略説明図である。
FIG. 4 is a schematic explanatory diagram showing a problem of linearity in texture mapping.

【図5】3次元演算処理の手法について説明するための
概略説明図である。
FIG. 5 is a schematic explanatory diagram for explaining a method of three-dimensional arithmetic processing.

【図6】本実施例により取り扱われるデータフォーマッ
トの一例を示す図である。
FIG. 6 is a diagram showing an example of a data format handled by this embodiment.

【図7】本実施例の画像処理演算の概要を示す概略説明
図である。
FIG. 7 is a schematic explanatory diagram showing an outline of image processing calculation of the present embodiment.

【図8】本実施例の画像処理演算の概要を示すフロチャ
ート図である。
FIG. 8 is a flowchart showing an outline of image processing calculation of this embodiment.

【図9】本発明の第1の実施例の具体例を示すブロック
図である。
FIG. 9 is a block diagram showing a specific example of the first exemplary embodiment of the present invention.

【図10】本実施例の画像処理演算の詳細について示す
説明図である。
FIG. 10 is an explanatory diagram showing details of image processing calculation according to the present embodiment.

【図11】輪郭線及び輪郭点の演算処理を説明するため
の概略説明図である。
FIG. 11 is a schematic explanatory diagram for explaining a calculation process of a contour line and a contour point.

【図12】走査線及び走査線上の各ドットの演算処理を
説明するための概略説明図である。
FIG. 12 is a schematic explanatory diagram for explaining a scanning line and a calculation process of each dot on the scanning line.

【図13】フィールドバッファ部の周辺回路及び周辺回
路との接続について示すブロック図である。
FIG. 13 is a block diagram showing a peripheral circuit of the field buffer unit and a connection with the peripheral circuit.

【図14】フィールドバッファコントローラの内部回路
を示すブロック図である。
FIG. 14 is a block diagram showing an internal circuit of a field buffer controller.

【図15】フィールドバッファ部に対する書き込みシー
ケンスを示すタイミングチャート図である。
FIG. 15 is a timing chart showing a write sequence for the field buffer section.

【図16】テクスチャ記憶平面の構造について説明する
ための概略説明図である。
FIG. 16 is a schematic explanatory diagram for explaining a structure of a texture storage plane.

【図17】テクスチャ情報記憶部におけるデータの流れ
を示す概略説明図である。
FIG. 17 is a schematic explanatory diagram showing a data flow in a texture information storage unit.

【図18】フィールドバッファ部へのデータ書き込み
後、画像出力するまでのデータの流れを説明するための
ブロック図である。
FIG. 18 is a block diagram for explaining a data flow after writing data in the field buffer unit and before outputting an image.

【図19】本発明の第2の実施例の概要について示すブ
ロック図である。
FIG. 19 is a block diagram showing an outline of a second embodiment of the present invention.

【図20】間引きされたフィールドバッファ上のデータ
の一例を示す概略説明図である。
FIG. 20 is a schematic explanatory diagram illustrating an example of thinned data on a field buffer.

【図21】補間処理手法の一例について示す説明するた
めの概略説明図である。
FIG. 21 is a schematic explanatory diagram illustrating an example of an interpolation processing method.

【図22】補間回路が内蔵されたフィールドバッファコ
ントローラの内部回路について示すブロック図である。
FIG. 22 is a block diagram showing an internal circuit of a field buffer controller including an interpolation circuit.

【図23】補間回路の内部回路について示すブロック図
である。
FIG. 23 is a block diagram showing an internal circuit of an interpolation circuit.

【図24】補間回路の動作を説明するためのタイミング
チャート図である。
FIG. 24 is a timing chart diagram for explaining the operation of the interpolation circuit.

【図25】ペイントRAM回路の内部回路を示すブロッ
ク図である。
FIG. 25 is a block diagram showing an internal circuit of a paint RAM circuit.

【図26】テクスチャマッピングが施された画像につい
て示す図である。
FIG. 26 is a diagram illustrating an image on which texture mapping is performed.

【図27】マイシップを表す3次元オブジェクトを示す
図である。
FIG. 27 is a diagram showing a three-dimensional object representing myship.

【図28】従来の家庭用ビデオ機を示すブロック図であ
る。
FIG. 28 is a block diagram showing a conventional home video device.

【図29】仮想3次元空間の設定の有効性について説明
するための概略説明図である。
FIG. 29 is a schematic explanatory diagram for explaining the validity of setting a virtual three-dimensional space.

【図30】テクスチャが施された3次元物体を画像合成
する装置について説明するための概略説明図である。
[Fig. 30] Fig. 30 is a schematic explanatory diagram for explaining an apparatus for synthesizing an image of a textured three-dimensional object.

【符号の説明】[Explanation of symbols]

1 ゲーム用カートリッジ 30 プロセッサ部 32 メインプロセッサ 34 コプロセッサ 38 アトリビュートRAM部 40 フィールドバッファ部 42 テクスチャ情報記憶部 190 補間回路 300 3次元オブジェクト 710 補助処理演算部 712 画像供給部 714 処理部 716 座標変換部 718 クリッピング処理部 720 透視変換部 722 ソーティング処理部 740 画像形成部 780 第1の記憶部 790 第2の記憶部 800 ゲーム機本体 802 中央処理部 804 映像処理部 806 ビデオRAM部 808 操作部 1 Game Cartridge 30 Processor Section 32 Main Processor 34 Coprocessor 38 Attribute RAM Section 40 Field Buffer Section 42 Texture Information Storage Section 190 Interpolation Circuit 300 Three-dimensional Object 710 Auxiliary Processing Arithmetic Section 712 Image Supply Section 714 Processing Section 716 Coordinate Conversion Section 718 Clipping processing unit 720 Perspective conversion unit 722 Sorting processing unit 740 Image forming unit 780 First storage unit 790 Second storage unit 800 Game console main body 802 Central processing unit 804 Video processing unit 806 Video RAM unit 808 Operation unit

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 ゲーム機本体に着脱自在に装着され、ゲ
ーム機本体と一体となってゲーム装置が形成されるゲー
ム用カートリッジであって、 ゲーム空間を構成する画像構成データ及び所定のプログ
ラムデータが記憶される第1の記憶部と、 前記第1の記憶部より画像構成データを読み出し、この
画像構成データに所定の3次元演算処理を行い所定の投
影面に透視変換されたデータを形成し、出力する補助演
算処理部と、 前記補助演算処理部より出力されたデータを記憶し、こ
れにより疑似3次元画像構成データを形成する書換え可
能な第2の記憶部とを含み、 前記画像構成データは、3次元ポリゴンの頂点座標、3
次元ポリゴンの各頂点に対応しテクスチャ情報供給用に
設定された頂点テクスチャ座標を含む頂点画像情報の集
合として表現され、 前記補助演算処理部は、 前記3次元ポリゴンの各頂点座標を前記投影面上に透視
変換し透視変換頂点座標を求め、この透視変換頂点座標
により形成されるポリゴンを構成する各ドットの透視変
換表示座標を演算する表示座標演算手段と、 前記頂点テクスチャ座標により形成されるポリゴンを構
成する各ドットの読み出し用テクスチャ座標を求める第
1のテクスチャ座標演算手段とを含み、 前記第2の記憶部は、 前記読み出し用テクスチャ座標により読み出されるテク
スチャマッピング用の所定のテクスチャ情報が記憶され
たテクスチャ情報記憶手段と、 前記透視変換表示座標に、前記テクスチャ情報記憶手段
より読み出されたテクスチャ情報を対応させることによ
り画像情報を合成する画像情報形成手段と、 を含んで形成されることを特徴とするゲーム用カートリ
ッジ。
1. A game cartridge, which is detachably mounted on a game machine main body and forms a game device integrally with the game machine main body, wherein image configuration data and predetermined program data constituting a game space are stored. A first storage unit to be stored, and image configuration data is read from the first storage unit, and a predetermined three-dimensional arithmetic processing is performed on the image configuration data to form perspective-transformed data on a predetermined projection plane, An auxiliary calculation processing unit for outputting; and a rewritable second storage unit that stores the data output from the auxiliary calculation processing unit and thereby forms pseudo three-dimensional image constituent data, wherein the image constituent data is Three-dimensional polygon vertex coordinates, 3
Represented as a set of vertex image information including vertex texture coordinates corresponding to each vertex of the three-dimensional polygon and set for texture information supply, the auxiliary operation processing unit sets each vertex coordinate of the three-dimensional polygon on the projection surface. Display coordinate calculation means for calculating the perspective transformation display coordinates of each dot forming the polygon formed by the perspective transformation vertex coordinates by performing perspective transformation on the polygon formed by the vertex texture coordinates. A first texture coordinate calculating means for determining a read texture coordinate of each of the dots constituting the second storage section, and predetermined texture information for texture mapping read by the read texture coordinate is stored in the second storage section. Texture information storage means, and the texture information storage means at the perspective conversion display coordinates. Game cartridge, characterized in that it is formed to include an image information forming means for combining the image information by associating more read texture information.
【請求項2】 請求項1において、 前記第1のテクスチャ座標演算手段に代えて、 前記頂点テクスチャ座標を前記透視変換頂点座標に対し
て線形な透視変換頂点テクスチャ座標に透視変換し、こ
の透視変換頂点テクスチャ座標により形成されるポリゴ
ンを構成する各ドットの透視変換テクスチャ座標を線形
補間演算し、演算された透視変換テクスチャ座標を逆透
視変換して読み出し用テクスチャ座標を求める第2のテ
クスチャ座標演算手段を備えることを特徴とするゲーム
用カートリッジ。
2. The perspective transformation according to claim 1, wherein the vertex texture coordinates are perspective transformed into perspective transformation vertex texture coordinates that are linear with respect to the perspective transformation vertex coordinates, in place of the first texture coordinate computing means. Second texture coordinate calculating means for linearly interpolating perspective transformation texture coordinates of each dot forming a polygon formed by vertex texture coordinates, and performing inverse perspective transformation on the calculated perspective transformation texture coordinates to obtain read texture coordinates. A game cartridge comprising:
【請求項3】 請求項2において、 前記表示座標演算手段は、 前記透視変換頂点座標を線形補間することにより、透視
変換頂点座標により形成されるポリゴンの輪郭線と各走
査線とが交差する点である左右輪郭点の透視変換表示座
標を演算し、この左右輪郭点の透視変換表示座標を線形
補間することにより、左右輪郭点を結ぶ走査線上の各ド
ットの透視変換表示座標を線形補間演算するように形成
され、 前記テクスチャ座標演算手段は、 前記透視変換頂点テクスチャ座標を線形補間することに
より、透視変換頂点座標により形成されるポリゴンの輪
郭線と各走査線とが交差する点である左右輪郭点の透視
変換テクスチャ座標を演算し、この左右輪郭点の透視変
換テクスチャ座標を線形補間することにより、左右輪郭
点を結ぶ走査線上の各ドットの透視変換テクスチャ座標
を線形補間演算するように形成されることを特徴とする
ゲーム用カートリッジ。
3. The point according to claim 2, wherein the display coordinate calculation means linearly interpolates the perspective transformation vertex coordinates so that a contour line of a polygon formed by the perspective transformation vertex coordinates intersects each scanning line. The perspective transformation display coordinates of the left and right contour points are calculated, and the perspective transformation display coordinates of the left and right contour points are linearly interpolated to linearly interpolate the perspective transformation display coordinates of each dot on the scanning line connecting the left and right contour points. The texture coordinate calculation means linearly interpolates the perspective transformation vertex texture coordinates to form a horizontal contour that is a point where the contour line of the polygon formed by the perspective transformation vertex coordinates intersects with each scanning line. By calculating the perspective transformation texture coordinates of the points and linearly interpolating the perspective transformation texture coordinates of the left and right contour points, each dot on the scanning line connecting the left and right contour points is calculated. Game cartridge being formed bets perspective transformation texture coordinates to linear interpolation.
【請求項4】 請求項1乃至3のいずれかにおいて、 前記画像情報形成手段は、 前記透視変換表示座標位置に、前記テクスチャ情報記憶
手段の読み出し用テクスチャ座標を記憶するフィールド
バッファ部を有し、 前記フィールドバッファ部から前記テクスチャ座標を読
み出し、このテクスチャ座標により前記テクスチャ情報
記憶手段に記憶されたテクスチャ情報を読み出し、画像
情報を合成することを特徴をするゲーム用カートリッ
ジ。
4. The image information forming unit according to claim 1, further comprising a field buffer unit for storing the read texture coordinates of the texture information storage unit at the perspective transformation display coordinate position. A game cartridge characterized in that the texture coordinates are read from the field buffer section, the texture information stored in the texture information storage means is read by the texture coordinates, and image information is combined.
【請求項5】 請求項4において、 前記表示座標演算手段は、 各ドットの透視変換表示座標を間引く間引き演算手段を
含み、 前記テクスチャ座標演算手段は、 各ドットのテクスチャ座標を間引く間引き演算手段を含
み、 前記画像情報形成手段は、 前記フィールドバッファ部の相隣合う前記透視変換表示
座標位置に記憶された前記読み出し用テクスチャ座標よ
り、間引かれたテクスチャ座標を補間する補間演算手段
を含むことを特徴とするゲーム用カートリッジ。
5. The thinning calculation means according to claim 4, wherein the display coordinate calculation means includes thinning calculation means for thinning out perspective transformation display coordinates of each dot, and the texture coordinate calculation means includes thinning calculation means for thinning out texture coordinates of each dot. Including, the image information forming means, from the read texture coordinates stored in the perspective transformation display coordinate positions adjacent to each other in the field buffer unit, from the read texture coordinates, including interpolation calculation means for interpolating the thinned texture coordinates, Characteristic game cartridge.
【請求項6】 ゲーム機本体に着脱自在に装着され、ゲ
ーム機本体と一体となってゲーム装置が形成されるゲー
ム用カートリッジであって、 ゲーム空間を構成する画像構成データ及び所定のプログ
ラムデータが記憶される第1の記憶部と、 前記第1の記憶部より画像構成データを読み出し、この
画像構成データに所定の3次元演算処理を行い所定の投
影面に透視変換されたデータを形成し、出力する補助演
算処理部と、 前記補助演算処理部より出力されたデータを記憶し、こ
れにより疑似3次元画像構成データを形成する書換え可
能な第2の記憶部とを含み、 前記画像構成データは、3次元ポリゴンの頂点座標、3
次元ポリゴンの各頂点に対応して設定された頂点輝度情
報を含む頂点画像情報の集合として表現され、前記補助
演算処理部は、 前記3次元ポリゴンの各頂点座標を前記投影面上に透視
変換し透視変換頂点座標を求め、この透視変換頂点座標
により形成されるポリゴンを構成する各ドットの透視変
換表示座標を演算する表示座標演算手段と、 前記頂点輝度情報により形成されるポリゴンを構成する
各ドットの輝度情報を求める第1の輝度情報演算手段と
を含み、 前記第2の記憶部は、 前記透視変換表示座標に、前記輝度情報演算手段により
演算された輝度情報を対応させることにより画像情報を
合成する画像情報形成手段と、を含んで形成されること
を特徴とするゲーム用カートリッジ。
6. A game cartridge, which is detachably mounted on a game machine body and integrally forms a game device with the game machine body, wherein image configuration data and predetermined program data forming a game space are stored. A first storage unit to be stored, and image configuration data is read from the first storage unit, and a predetermined three-dimensional arithmetic processing is performed on the image configuration data to form perspective-transformed data on a predetermined projection plane, An auxiliary calculation processing unit for outputting; and a rewritable second storage unit that stores the data output from the auxiliary calculation processing unit and thereby forms pseudo three-dimensional image constituent data, wherein the image constituent data is Three-dimensional polygon vertex coordinates, 3
Expressed as a set of vertex image information including vertex brightness information set corresponding to each vertex of the three-dimensional polygon, the auxiliary calculation processing unit perspectively transforms each vertex coordinate of the three-dimensional polygon onto the projection surface. Display coordinate calculation means for calculating perspective transformation vertex coordinates and computing perspective transformation display coordinates of each dot forming a polygon formed by the perspective transformation vertex coordinates; and each dot forming a polygon formed by the vertex luminance information. And a first storage unit for calculating brightness information, wherein the second storage unit stores the image information by associating the perspective conversion display coordinates with the brightness information calculated by the brightness information calculation unit. A game cartridge comprising: an image information forming unit to be combined.
【請求項7】 請求項6において、 前記第1の輝度情報演算手段に代えて、 前記頂点輝度情報を前記透視変換頂点座標に対して線形
な透視変換頂点輝度情報に透視変換し、この透視変換頂
点輝度情報により形成されるポリゴンを構成する各ドッ
トの透視変換輝度情報を線形補間演算し、演算された透
視変換輝度情報を逆透視変換して輝度情報を求める第2
の輝度情報演算手段を備えることを特徴とするゲーム用
カートリッジ。
7. The perspective conversion according to claim 6, wherein the vertex luminance information is perspective-transformed into perspective transformation vertex luminance information that is linear with respect to the perspective transformation vertex coordinates, in place of the first luminance information calculation means. Second, the perspective transformation luminance information of each dot forming a polygon formed by the vertex luminance information is linearly interpolated, and the computed perspective transformation luminance information is inversely perspective-transformed to obtain luminance information.
A game cartridge comprising the brightness information calculating means of.
【請求項8】 請求項7において、 前記表示座標演算手段は、 前記透視変換頂点座標を線形補間することにより、透視
変換頂点座標により形成されるポリゴンの輪郭線と各走
査線とが交差する点である左右輪郭点の透視変換表示座
標を演算し、この左右輪郭点の透視変換表示座標を線形
補間することにより、左右輪郭点を結ぶ走査線上の各ド
ットの透視変換表示座標を線形補間演算するように形成
され、 前記輝度情報演算手段は、 前記透視変換頂点輝度情報を線形補間することにより、
透視変換頂点座標により形成されるポリゴンの輪郭線と
各走査線とが交差する点である左右輪郭点の透視変換輝
度情報を演算し、この左右輪郭点の透視変換輝度情報を
線形補間することにより、左右輪郭点を結ぶ走査線上の
各ドットの透視変換輝度情報を線形補間演算するように
形成されることを特徴とするゲーム用カートリッジ。
8. The point according to claim 7, wherein the display coordinate calculation means linearly interpolates the perspective transformation vertex coordinates to intersect a contour line of a polygon formed by the perspective transformation vertex coordinates with each scanning line. By calculating the perspective transformation display coordinates of the left and right contour points and linearly interpolating the perspective transformation display coordinates of the left and right contour points, the perspective transformation display coordinates of each dot on the scanning line connecting the left and right contour points is linearly interpolated. The luminance information calculation means is linearly interpolated by the perspective transformation vertex luminance information.
By calculating the perspective conversion luminance information of the left and right contour points which are the points where the contour line of the polygon formed by the perspective transformation vertex coordinates and each scanning line, and by linearly interpolating the perspective conversion luminance information of the left and right contour points. , A game cartridge formed so as to perform linear interpolation calculation of perspective conversion luminance information of each dot on a scanning line connecting left and right contour points.
【請求項9】 請求項6乃至8のいずれかにおいて、 前記画像情報形成手段は、 前記透視変換表示座標位置に、前記輝度情報を記憶する
フィールドバッファ部を有し、 前記フィールドバッファ部から前記輝度情報を読み出
し、これにより画像情報を形成を合成することを特徴を
するゲーム用カートリッジ。
9. The image information forming means according to claim 6, further comprising a field buffer section for storing the brightness information at the perspective conversion display coordinate position, wherein the field buffer section stores the brightness information. A game cartridge characterized in that information is read out, and thereby image information is formed and combined.
【請求項10】 請求項9において、 前記表示座標演算手段は、 各ドットの透視変換表示座標を間引く間引き演算手段を
含み、 前記輝度情報演算手段は、 各ドットの輝度情報を間引く間引き演算手段を含み、 前記画像情報形成手段は、 前記フィールドバッファ部の相隣合う前記透視変換表示
座標位置に記憶された前記輝度情報より、間引かれた輝
度情報を補間する補間演算手段を含むことを特徴とする
ゲーム用カートリッジ。
10. The thinning calculation means for thinning out the perspective information of each dot, the thinning calculation means for thinning out the perspective transformation display coordinates of each dot, according to claim 9. Including, the image information forming means includes an interpolation calculating means for interpolating the thinned luminance information from the luminance information stored in the perspective transformation display coordinate positions adjacent to each other in the field buffer section. A game cartridge to play.
【請求項11】 請求項5又は10において、 前記フィールドバッファ部の前記透視変換表示座標位置
には、ポリゴンを識別するためのポリゴン識別番号がさ
らに記憶され、 前記間引き演算手段は、 各ドットが、ポリゴンの輪郭線上のドットである場合、
又は、他のポリゴンとの境界線上のドットである場合に
は、間引き演算を行わず、 前記補間演算手段は、 相隣合う前記透視変換表示座標位置に記憶されたポリゴ
ン識別番号が同一である場合には補間演算を行い、ポリ
ゴン識別番号が異なる場合には補間演算を行わないこと
を特徴とするゲーム用カートリッジ。
11. The polygon identification number for identifying a polygon is further stored at the perspective transformation display coordinate position of the field buffer unit, and the thinning-out calculation unit sets each dot as follows. If it is a dot on the polygon outline,
Alternatively, if the dot is on the boundary line with another polygon, the thinning calculation is not performed, and the interpolation calculation means has the same polygon identification number stored at the adjacent perspective conversion display coordinate positions. The game cartridge is characterized in that the interpolation calculation is performed in the above, and the interpolation calculation is not performed when the polygon identification numbers are different.
【請求項12】 請求項5、10又は11のいずれかに
おいて、 前記補間演算手段は、間引かれた情報を、その両隣の透
視変換表示座標位置に記憶された画像情報を線形補間す
ることにより補間することを特徴をするゲーム用カート
リッジ。
12. The interpolation calculation means according to claim 5, 10 or 11, wherein the thinned information is linearly interpolated with the image information stored in the perspective conversion display coordinate positions on both sides of the thinned information. A game cartridge characterized by interpolation.
【請求項13】 請求項1乃至12のいずれかのゲーム
用カートリッジと、このゲーム用カートリッジが着脱自
在に装着されるゲーム機本体とを含むゲーム装置であっ
て、 前記ゲーム機本体は、 前記補助演算処理部における3次元演算処理で使用され
るプレーヤからの操作信号が入力される操作部と、 前記第1の記憶部又は第2の記憶部からのプログラムデ
ータにより起動する中央処理部と、 前記画像構成データ又は演算された疑似3次元画像構成
データより表示画像を形成する映像処理部と、 を含むことを特徴とするゲーム装置。
13. A game apparatus including the game cartridge according to claim 1, and a game machine body to which the game cartridge is detachably mounted, wherein the game machine body comprises the auxiliary device. An operation unit to which an operation signal from the player used in the three-dimensional arithmetic processing in the arithmetic processing unit is input, a central processing unit activated by program data from the first storage unit or the second storage unit, And a video processing unit for forming a display image from the image configuration data or the calculated pseudo three-dimensional image configuration data.
JP5055076A 1993-02-19 1993-02-19 Game cartridge and game device using this Withdrawn JPH06238063A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5055076A JPH06238063A (en) 1993-02-19 1993-02-19 Game cartridge and game device using this

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5055076A JPH06238063A (en) 1993-02-19 1993-02-19 Game cartridge and game device using this

Publications (1)

Publication Number Publication Date
JPH06238063A true JPH06238063A (en) 1994-08-30

Family

ID=12988619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5055076A Withdrawn JPH06238063A (en) 1993-02-19 1993-02-19 Game cartridge and game device using this

Country Status (1)

Country Link
JP (1) JPH06238063A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263653A (en) * 2002-12-26 2003-09-19 Sanyo Product Co Ltd Game machine
JP2007054120A (en) * 2005-08-22 2007-03-08 Okumura Yu-Ki Co Ltd Game machine
JP2007216048A (en) * 2007-04-23 2007-08-30 Sanyo Product Co Ltd Game machine

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263653A (en) * 2002-12-26 2003-09-19 Sanyo Product Co Ltd Game machine
JP2007054120A (en) * 2005-08-22 2007-03-08 Okumura Yu-Ki Co Ltd Game machine
JP2007216048A (en) * 2007-04-23 2007-08-30 Sanyo Product Co Ltd Game machine

Similar Documents

Publication Publication Date Title
US5561746A (en) Image synthesizing system with surface data perspective transformation
US5966132A (en) Three-dimensional image synthesis which represents images differently in multiple three dimensional spaces
JP2807608B2 (en) Sorting processing apparatus, image synthesizing apparatus using the same, and sorting processing method
US5786822A (en) Method and apparatus for mapping texture on an object displayed at a varying view angle from an observer
US7129941B2 (en) Sample replication mode with depth value calculation
WO1994029813A1 (en) Image synthesizer and apparatus for playing game using the image synthesizer
JPH0916806A (en) Stereoscopic image processor
JP3704734B2 (en) Texture mapping method and apparatus
WO1995009405A1 (en) Clipping processor, three-dimensional simulator and clipping processing method
JP3638637B2 (en) Polygon data conversion device and three-dimensional simulator device
JP3420870B2 (en) Image composition method, image composition device, and game device
US6339430B1 (en) Video game machine and method for changing texture of models
JP2006318388A (en) Program, information storage medium, and image forming system
JP2883523B2 (en) Image synthesizing apparatus and image synthesizing method
US6373494B1 (en) Signal processing apparatus and image processing apparatus
JPH09245191A (en) Transparency transformation method, its device and image processor
JPH06238063A (en) Game cartridge and game device using this
JP3364456B2 (en) 3D simulator apparatus and image composition method
JPH0981772A (en) Method and device for image composition
JP5253118B2 (en) Image generation system, program, and information storage medium
JP2763481B2 (en) Image synthesizing apparatus and image synthesizing method
EP0425573B1 (en) Texture mapping for computer graphics display controller system
JP2990190B2 (en) Three-dimensional simulator device and image synthesizing method
JP2774874B2 (en) Image synthesizing apparatus and image synthesizing method
WO1997002546A1 (en) Computer graphics circuit

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000509