JPH08212377A - Device and method for image information generation, processor and method for image information processing, and recording medium - Google Patents

Device and method for image information generation, processor and method for image information processing, and recording medium

Info

Publication number
JPH08212377A
JPH08212377A JP31426695A JP31426695A JPH08212377A JP H08212377 A JPH08212377 A JP H08212377A JP 31426695 A JP31426695 A JP 31426695A JP 31426695 A JP31426695 A JP 31426695A JP H08212377 A JPH08212377 A JP H08212377A
Authority
JP
Japan
Prior art keywords
polygon
dimensional image
information
image information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP31426695A
Other languages
Japanese (ja)
Other versions
JP3548642B2 (en
Inventor
Masakazu Suzuoki
雅一 鈴置
Makoto Furuhashi
真 古橋
Masayoshi Tanaka
正善 田中
Teiji Yutaka
禎治 豊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Sony Corp
Original Assignee
Sony Corp
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Computer Entertainment Inc filed Critical Sony Corp
Priority to JP31426695A priority Critical patent/JP3548642B2/en
Publication of JPH08212377A publication Critical patent/JPH08212377A/en
Application granted granted Critical
Publication of JP3548642B2 publication Critical patent/JP3548642B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE: To shorten the instruction word length and reduce the consumption of the capacity of a source video memory. CONSTITUTION: This system is provided with a main memory 53 which stores three-dimensional image data read out of a CD-ROM disk, a frame buffer 63 which stores characteristic data specified by polygons, a GTE(geometry transfer engine) 61 which converts the three-dimensional image data into two-dimensional image information by performing perspective conversion processing, a CPU 51 which synthesizs the two-dimensional image information and the information specifying the characteristics of the polygons to generate drawing instructions made into packets for every polygon, a GPU(graphics processing unit) 62 which draws the two-dimensional image information on the frame buffer 63 on the basis of the characteristic data specified by the drawing instructions, and a video output means 65 which reads the two-dimensional image data out of the frame buffer 63 in synchronism with a television synchronizing signal and supplies it to a display means such as a display device.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理により画
像情報を作成する画像情報生成装置及び方法、画像情報
処理装置及び方法、並びに画像情報が記録された記録媒
体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information generating apparatus and method for generating image information by information processing, an image information processing apparatus and method, and a recording medium on which image information is recorded.

【0002】[0002]

【従来の技術】例えば、家庭用ゲーム機やパーソナルコ
ンピュータ装置或いはグラフィックコンピュータ装置等
において、テレビジョン受像機やモニタ受像機或いはC
RTディスプレイ装置等に出力されて表示される画像は
2次元のものが殆どであり、基本的には2次元の平面的
な背景に2次元のキャラクタ等を適宜に配置して移動さ
せたり、変化させたりするような形態で画像表示が行わ
れている。
2. Description of the Related Art For example, in a home game machine, a personal computer device, a graphic computer device, or the like, a television receiver, a monitor receiver, or a C receiver.
Most of the images output and displayed on the RT display device or the like are two-dimensional. Basically, basically, a two-dimensional character or the like is appropriately arranged on a two-dimensional planar background and moved or changed. The image is displayed in such a form that the image is displayed.

【0003】しかしながら、上述したような2次元的な
画像表示や映像では、表現できる背景及びキャラクタや
それらの動きに制限があり、例えばゲームの臨場感を高
めることが困難である。
However, in the above-described two-dimensional image display and video, there are restrictions on the background and characters that can be expressed, and their movements, and it is difficult to enhance the sense of presence in a game, for example.

【0004】そこで、例えば次に示すような方法で疑似
的な3次元の画像や映像を作成することが行われてい
る。すなわち、上記キャラクタとしていくつかの方向か
ら見た画像を用意しておき、表示画面中での視点の変化
等に応じてこれらの複数画像の内から1つを選択して表
示したり、2次元の画像を奥行き方向に重ねて疑似的な
3次元画像を表現したりするような方法が挙げられる。
また、画像データを生成或いは作成する際に、いわゆる
テクスチャ(生地、地模様)の画像を多面体等の所望の
面に貼り付けるようなテクスチャマッピング方法や、画
像の色データをいわゆるカラールックアップテーブルを
通して変換することにより表示色を変化させる手法が採
られている。
Therefore, for example, a pseudo three-dimensional image or video is created by the following method. That is, as the character, images viewed from several directions are prepared, and one of these images is selected and displayed in accordance with a change in the viewpoint on the display screen, or a two-dimensional image is displayed. There is a method of expressing a pseudo three-dimensional image by superimposing the images in the depth direction.
Also, when generating or creating image data, a texture mapping method that attaches an image of a so-called texture (texture, background pattern) to a desired surface such as a polyhedron, or a so-called color lookup table for the color data of the image is used. A method of changing the display color by converting is adopted.

【0005】ここで、従来の家庭用ゲーム機の概略的な
構成の一例を図44に示す。この図44において、マイ
クロプロセッサ等から成るCPU391は、入力パッド
やジョイスティック等の入力デバイス394の操作情報
をインターフェイス393を介し、メインバス399を
通して取り出す。この操作情報の取り出しと同時に、メ
インメモリ392に記憶されている3次元画像のデータ
がビデオプロセッサ396によってソースビデオメモリ
395に転送され、記憶される。
FIG. 44 shows an example of a schematic structure of a conventional home-use game machine. In FIG. 44, a CPU 391 composed of a microprocessor or the like takes out operation information of an input device 394 such as an input pad or a joystick via an interface 393 and a main bus 399. Simultaneously with the extraction of this operation information, the data of the three-dimensional image stored in the main memory 392 is transferred to and stored in the source video memory 395 by the video processor 396.

【0006】また、上記CPU391は、上記ソースビ
デオメモリ395に記憶された画像を重ね合わせて表示
するための画像データの読み出し順位を上記ビデオプロ
セッサ396に送る。上記ビデオプロセッサ396は上
記画像データの読み出し順位に従って上記ソースビデオ
メモリ395から画像データを読み出し、画像を重ね合
わせて表示する。
Further, the CPU 391 sends to the video processor 396 the read order of the image data for superimposing and displaying the images stored in the source video memory 395. The video processor 396 reads the image data from the source video memory 395 according to the order of reading the image data, and displays the images in a superimposed manner.

【0007】上述のように画像を表示すると同時に、上
記取り出された操作情報中の音声情報により、オーディ
オプロセッサ397はオーディオメモリ398内に記憶
されている上記表示される画像に応じた音声データを出
力する。
At the same time as displaying the image as described above, the audio processor 397 outputs the audio data corresponding to the displayed image stored in the audio memory 398 according to the audio information in the extracted operation information. To do.

【0008】図45は、図44に示す構成をもつ家庭用
ゲーム機において、2次元画像のデータを用いて3次元
画像を出力する手順を示す図である。この図45では、
市松模様の背景画像上に円筒状の物体を3次元画像とし
て表示する場合を説明する。
FIG. 45 is a diagram showing a procedure for outputting a three-dimensional image using the data of the two-dimensional image in the home-use game machine having the configuration shown in FIG. In this FIG. 45,
A case where a cylindrical object is displayed as a three-dimensional image on a checkered background image will be described.

【0009】この図45のソースビデオメモリ395に
は、市松模様の背景画像200と、この背景画像200
上の円筒状の物体の深さ方向の断面を表す矩形の画像、
いわゆるスプライト201、202、203、204の
データが記憶されている。なお、三角形以上の多角形を
ポリゴンと呼び、特に四角形のポリゴンをスプライトと
呼んでいる。この矩形の画像であるスプライト201、
202、203、204上の円筒の断面の画像以外の部
分は透明色で描かれている。
In the source video memory 395 of FIG. 45, a checkered background image 200 and the background image 200 are shown.
A rectangular image representing the cross-section of the upper cylindrical object in the depth direction,
Data of so-called sprites 201, 202, 203, 204 are stored. It should be noted that a polygon having a shape of a triangle or more is called a polygon, and a quadrangular polygon is called a sprite. Sprite 201 which is this rectangular image,
Portions other than the image of the cylindrical cross section on 202, 203, and 204 are drawn in a transparent color.

【0010】ビデオプロセッサ396内のシンクジェネ
レータ400は、表示する画像の同期信号に合わせた読
み出しアドレス信号を発生する。また、このシンクジェ
ネレータ400は、上記読み出しアドレス信号をメイン
バス399を介して図44のCPU391から与えられ
た読み出しアドレステーブル401に送る。さらに、こ
のシンクジェネレータ400は上記読み出しアドレステ
ーブル401からの情報に従って上記ソースビデオメモ
リ395内の画像データを読み出す。
The sync generator 400 in the video processor 396 generates a read address signal that matches the sync signal of the image to be displayed. Further, the sync generator 400 sends the read address signal to the read address table 401 provided from the CPU 391 of FIG. 44 via the main bus 399. Further, the sync generator 400 reads the image data in the source video memory 395 according to the information from the read address table 401.

【0011】上記読み出された画像データは、上記CP
U391により上記メインバス399を介して与えられ
たプライオリティテーブル402内の画像の重ね合わせ
順位に基づいて、重ね合わせ処理部403で順次重ね合
わせられる。この場合には、上記背景画像200が最も
順位が低く、矩形の画像201、202、203、20
4と順に順位が高くなっているため、背景画像200か
ら順次画像が重ね合わせられる。
The read image data is the CP
Based on the superposition order of the images in the priority table 402 given by the U 391 via the main bus 399, the superposition processing unit 403 sequentially superposes the images. In this case, the background image 200 has the lowest rank, and the rectangular images 201, 202, 203, and 20.
Since the rank is higher in the order of 4, the images are sequentially superposed from the background image 200.

【0012】次に、透明色処理部404において、円筒
以外の部分を背景画像で表示するために上記重ね合わせ
られた円筒の断面の画像201、202、203、20
4により表示される円筒以外の部分を透明にする処理を
施す。
Next, in the transparent color processing unit 404, the images 201, 202, 203, 20 of the cross-sections of the cylinders that have been superimposed are displayed in order to display a portion other than the cylinders as a background image.
A process for making a portion other than the cylinder displayed by 4 transparent is performed.

【0013】上述した処理により、円筒状の物体の2次
元画像のデータが図45に示す3次元画像VD0 の画像
データとして出力される。
By the above-described processing, the data of the two-dimensional image of the cylindrical object is output as the image data of the three-dimensional image VD0 shown in FIG.

【0014】[0014]

【発明が解決しようとする課題】ところで、テクスチャ
マッピングやカラールックアップテーブルによる色指定
や、前に表示されていた画像の画素データ(例えばR,
G,Bの3原色データからなるデータ、以下も同じ)と
次に描画しようとする画像の画素データとを所定の比率
αで混合することにより半透明処理を行う場合の当該半
透明処理の指定、さらに、色の境界にノイズを乗せてぼ
かすディザ処理のオン/オフの指定等を行う場合、CP
U391はこれらのための描画命令を出力するが、複数
のテクスチャやカラールックアップテーブルの指定や、
半透明処理の指定、ディザ処理の指定等のための命令語
長は長くなり、また、ソースビデオメモリ395内に保
持されるデータ量も多くなる。
By the way, texture mapping, color designation by a color lookup table, and pixel data (for example, R,
Designation of the semi-transparent processing when the semi-transparent processing is performed by mixing the data of the three primary color data of G and B (the same applies below) and the pixel data of the image to be drawn next at a predetermined ratio α. In addition, when specifying whether to turn on / off the dither processing that adds noise to the color boundary and blurs it, CP
U391 outputs drawing commands for these, but specifies multiple textures and color lookup tables,
The command word length for designating the semi-transparent process, the dither process, etc. becomes long, and the amount of data held in the source video memory 395 also becomes large.

【0015】なお、例えば上述の装置において、半透明
処理は前記ビデオプロセッサ396の透明処理部404
にて行われ、この透明処理部404では上記CPU39
1から供給される混合比率αのデータに基づいて、前の
画素データとこれから描画しようとする画素データとを
所定の混合比率αで混合することにより上記半透明処理
を行う。この場合、従来の半透明処理では、混合比率α
の値は、描画命令が有しており、それに基づいて例えば
ソースビデオメモリ395に画素毎に蓄えられるように
なされている。このため、混合比率を細かく設定しよう
とすると、混合比率αの値を表すビット数が大きくな
り、描画命令のデータ量が大きくなると共に、ソースビ
デオメモリ395内の容量を消費してしまう。
It should be noted that, for example, in the above-mentioned apparatus, the translucent processing is performed by the transparent processing unit 404 of the video processor 396.
In the transparent processing unit 404, the CPU 39
Based on the data of the mixture ratio α supplied from 1, the previous pixel data and the pixel data to be drawn are mixed at a predetermined mixture ratio α to perform the translucent process. In this case, in the conventional translucent process, the mixing ratio α
The value of is stored in the source video memory 395 for each pixel based on the drawing command. Therefore, if the mixing ratio is set finely, the number of bits representing the value of the mixing ratio α becomes large, the data amount of the drawing command becomes large, and the capacity in the source video memory 395 is consumed.

【0016】そこで、本発明は、命令語長を短縮できる
と共に、ソースビデオメモリの消費量も減らすことがで
きる画像情報を生成することができる画像情報生成装置
及び方法、画像情報処理装置及び方法、並びに画像情報
が記録された記録媒体を提供するものである。
Therefore, according to the present invention, an image information generating apparatus and method, an image information processing apparatus and method capable of reducing the instruction word length and generating the image information capable of reducing the consumption amount of the source video memory, And a recording medium on which image information is recorded.

【0017】[0017]

【課題を解決するための手段】本発明の画像情報生成装
置及び方法においては、複数のポリゴンからなる3次元
画像データを記憶し、各ポリゴン毎に指定される特性デ
ータを記憶し、3次元画像データに透視変換を施して表
示画面に対応する2次元画像情報に変換し、ポリゴンの
特性を指定するための情報と2次元画像情報とを合成し
てポリゴン毎にパケット化された描画命令を生成するこ
とにより、上述の課題を解決する。
In the image information generating apparatus and method of the present invention, three-dimensional image data composed of a plurality of polygons is stored, and characteristic data designated for each polygon is stored. The data is perspective-transformed and converted into two-dimensional image information corresponding to the display screen, and the information for designating the characteristics of the polygon and the two-dimensional image information are combined to generate a drawing command packetized for each polygon. By doing so, the above-mentioned problems are solved.

【0018】また、本発明の画像情報処理装置及び方法
においては、複数のポリゴンからなる3次元画像データ
を記憶し、各ポリゴン毎に指定される特性データを記憶
し、3次元画像データに透視変換を施して表示画面に対
応する2次元画像情報に変換し、ポリゴンの特性を指定
するための情報と2次元画像情報とを合成して、ポリゴ
ン毎にパケット化された描画命令を生成し、当該生成さ
れた描画命令により指定された特性データに基づき2次
元画像を画像メモリに描画し、画像メモリから2次元画
像データをテレビジョン同期信号に同期して読み出し表
示手段に供給することにより、上述の課題を解決する。
Further, in the image information processing apparatus and method of the present invention, three-dimensional image data composed of a plurality of polygons is stored, characteristic data designated for each polygon is stored, and perspective conversion is performed into the three-dimensional image data. Is converted into two-dimensional image information corresponding to the display screen, and the information for designating the characteristics of the polygon and the two-dimensional image information are combined to generate a drawing command packetized for each polygon. The two-dimensional image is drawn on the image memory based on the characteristic data specified by the generated drawing command, and the two-dimensional image data is read from the image memory in synchronization with the television synchronizing signal and supplied to the display means. Solve the problem.

【0019】さらに、本発明の記録媒体においては、複
数のポリゴンからなる3次元画像データ及び各ポリゴン
毎に指定される特性データを、ポリゴン単位でパケット
化して記録してなることにより、上述の課題を解決す
る。
Further, in the recording medium of the present invention, the three-dimensional image data composed of a plurality of polygons and the characteristic data designated for each polygon are packetized in a unit of a polygon and recorded. To solve.

【0020】すなわち、本発明によれば、ポリゴンの特
性を指定する情報と2次元画像情報とを合成してポリゴ
ン毎にパケット化された描画命令を生成することによ
り、命令語長を短縮している。
That is, according to the present invention, the command word length is shortened by synthesizing the information designating the characteristics of the polygon and the two-dimensional image information to generate the packetized drawing command for each polygon. There is.

【0021】[0021]

【発明の実施の形態】以下、本発明の好ましい実施の形
態について、図面を参照しながら説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below with reference to the drawings.

【0022】先ず、本発明の画像情報生成方法及び画像
情報処理方法により生成された画像データを用いて3次
元グラフィックスデータを生成して表示するような画像
処理システムについて説明する。本構成例の画像処理シ
ステムは、例えば家庭用ゲーム機やパーソナルコンピュ
ータ装置或いはグラフィックコンピュータ装置等に適用
されるものであり、図1の例では家庭用ゲーム機に適用
した例を示している。
First, an image processing system for generating and displaying three-dimensional graphics data using the image data generated by the image information generating method and the image information processing method of the present invention will be described. The image processing system of this configuration example is applied to, for example, a home game machine, a personal computer device, a graphic computer device, or the like, and the example of FIG. 1 shows an example applied to a home game device.

【0023】本構成例の画像処理システムは、後述する
本発明の画像データフォーマットのデータが記録されて
いる本発明の記録媒体である例えば光学ディスク(例え
ばCD−ROMのディスク等)からデータ(例えばゲー
ムプログラム等)を読み出して実行することにより、使
用者からの指示に応じた表示(例えばゲーム等)が行え
るようになっており、具体的には図1に示すような構成
を有している。
The image processing system according to the present configuration example stores data (for example, from an optical disk (for example, CD-ROM disk or the like) which is a recording medium of the present invention in which data in the image data format of the present invention described later is recorded. By reading and executing a game program or the like), a display (for example, a game or the like) according to an instruction from a user can be performed, and specifically, it has a configuration as shown in FIG. .

【0024】また、本構成例の画像処理システムは、C
D−ROMのディスクから読み出された3次元画像デー
タを記憶するメインメモリ53と、各ポリゴン毎に指定
される特性データとして色情報テーブル,テクスチャパ
ターン情報,半透明率指定データ等を記憶するフレーム
バッファ63と、CD−ROMのディスクから読み出さ
れた3次元画像データに対して透視変換処理を施して2
次元画像情報に変換する座標変換手段としてのジオメト
リトランスファエンジン(GTE)61と、当該2次元
画像情報とポリゴンの特性を指定する情報とを合成して
ポリゴン毎にパケット化された描画命令を生成する描画
命令生成手段としてのCPU51と、当該生成された描
画命令により指定された特性データに基づき2次元画像
情報をフレームバッファ63に描画するグラフィックス
プロセッシングユニット(GPU62)と、上記フレー
ムバッファ63から2次元画像データをテレビジョン同
期信号に同期して読み出し、ディスプレイ装置等の表示
手段に供給するビデオ出力手段65とを有してなるもの
である。
The image processing system of this configuration example is C
A main memory 53 for storing three-dimensional image data read from a D-ROM disc, and a frame for storing a color information table, texture pattern information, semi-transparency designating data, etc. as characteristic data designated for each polygon. The buffer 63 and the three-dimensional image data read from the CD-ROM disc are subjected to perspective conversion processing to obtain 2
A geometry transfer engine (GTE) 61 as a coordinate conversion means for converting into two-dimensional image information, and the two-dimensional image information and information designating characteristics of the polygon are combined to generate a drawing command packetized for each polygon. A CPU 51 as a drawing command generation means, a graphics processing unit (GPU 62) for drawing two-dimensional image information in a frame buffer 63 based on characteristic data specified by the generated drawing command, and a two-dimensional image from the frame buffer 63. The video output means 65 is provided for reading out the image data in synchronization with the television synchronizing signal and supplying it to the display means such as a display device.

【0025】すなわち、この画像処理システムは、中央
演算処理装置(CPU51)及びその周辺装置(周辺デ
バイスコントローラ52等)からなる制御系50と、フ
レームバッファ63上に描画を行うグラフィックスプロ
セッシングユニット(GPU62)等からなるグラフィ
ックシステム60と、楽音、効果音等を発生するサウン
ドプロセッシングユニット(SPU71)等からなるサ
ウンドシステム70と、補助記憶装置である光学ディス
ク(CD−ROMのディスク)ドライブ81の制御や再
生情報のデコード等を行う光学ディスク制御部80と、
使用者からの指示を入力するコントローラ92からの指
示入力及びゲームの設定等を記憶する補助メモリ(メモ
リカード93)からの入出力を制御する通信制御部90
と、上記制御系50から通信制御部90までが接続され
ているメインバスB等を備えている。
That is, the image processing system includes a control system 50 including a central processing unit (CPU 51) and its peripheral devices (peripheral device controller 52, etc.) and a graphics processing unit (GPU 62) for drawing on a frame buffer 63. ) And the like, a sound system 70 including a sound processing unit (SPU 71) that generates a musical sound, a sound effect, and the like, and an optical disk (CD-ROM disk) drive 81 that is an auxiliary storage device. An optical disc control unit 80 for decoding reproduction information,
A communication control unit 90 for controlling input / output of an instruction input from a controller 92 for inputting an instruction from a user and input / output from an auxiliary memory (memory card 93) for storing game settings and the like
And a main bus B to which the control system 50 to the communication control unit 90 are connected.

【0026】上記制御系50は、CPU51と、割り込
み制御、タイムコントロール、メモリコントロール、ダ
イレクトメモリアクセス(DMA)転送の制御等を行う
周辺デバイスコントローラ52と、例えば2メガバイト
のRAMからなる主記憶装置(メインメモリ)53と、
このメインメモリ53や上記グラフィックシステム6
0,サウンドシステム70等の管理を行ういわゆるオペ
レーティングシステム等のプログラムが格納された例え
ば512キロバイトのROM54とを備えている。
The control system 50 includes a CPU 51, a peripheral device controller 52 for controlling interrupt control, time control, memory control, direct memory access (DMA) transfer, and the like, and a main storage device (RAM) of, for example, 2 megabytes ( Main memory) 53,
The main memory 53 and the graphic system 6
0, a ROM 54 of, for example, 512 kilobytes in which programs such as a so-called operating system for managing the sound system 70 and the like are stored.

【0027】CPU51は、例えば32ビットのRIS
C(reduced instruction set computor)CPUであり、
ROM54に記憶されているオペレーティングシステム
を実行することにより装置全体の制御を行う。当該CP
U51は命令キャッシュとスクラッチパッドメモリを搭
載し、実メモリの管理も行う。
The CPU 51 is, for example, a 32-bit RIS.
C (reduced instruction set computor) CPU,
The entire device is controlled by executing the operating system stored in the ROM 54. The CP
The U51 is equipped with an instruction cache and a scratchpad memory, and also manages the real memory.

【0028】上記グラフィックシステム60は、CD−
ROMから読み込まれたデータを一時記憶するメインメ
モリ53と、当該メインメモリ53に記憶されたデータ
に対して座標変換等の処理を行う座標計算用コプロセッ
サからなるジオメトリトランスファエンジン(GTE)
61と、CPU51からの描画指示(描画命令)に基づ
いて描画を行うグラフィックスプロセッシングユニット
(GPU)62と、該GPU62により描画された画像
を記憶する例えば1メガバイトのフレームバッファ63
と、いわゆる離散コサイン変換などの直行変換がなされ
圧縮されて符号化された画像データを復号化する画像デ
コーダ(以下MDECと呼ぶ)64とを備えている。
The graphic system 60 is a CD-
A geometry transfer engine (GTE) including a main memory 53 for temporarily storing the data read from the ROM and a coordinate calculation coprocessor for performing processing such as coordinate conversion on the data stored in the main memory 53.
61, a graphics processing unit (GPU) 62 that performs drawing based on a drawing instruction (drawing command) from the CPU 51, and a frame buffer 63 of, for example, 1 megabyte that stores an image drawn by the GPU 62.
And an image decoder (hereinafter referred to as MDEC) 64 that decodes image data that has been subjected to orthogonal transform such as so-called discrete cosine transform and then compressed and encoded.

【0029】GTE61は、例えば複数の演算を並列に
実行する並列演算機構を備え、CPU51のコプロセッ
サとして、CPU51からの演算要求に応じて透視変換
等の座標変換、法線ベクトルと光源ベクトルとの内積演
算による光源計算、例えば固定小数点形式の行列やベク
トルの演算を高速に行うことができるようになってい
る。
The GTE 61 includes, for example, a parallel operation mechanism for executing a plurality of operations in parallel, and as a coprocessor of the CPU 51, the GTE 61 performs coordinate conversion such as perspective conversion according to a calculation request from the CPU 51, normal vector and light source vector. Light source calculation by inner product calculation, for example, calculation of a fixed-point format matrix or vector can be performed at high speed.

【0030】具体的には、このGTE61は、1つの三
角形状のポリゴンに同じ色で描画するフラットシェーデ
ィングを行う演算の場合では、1秒間に最大150万程
度のポリゴンの座標演算を行うことができるようになっ
ており、これによってこの画像処理システムでは、CP
U51の負荷を低減すると共に、高速な座標演算を行う
ことができるようになっている。なお、ポリゴンとは、
ディスプレイ上に表示される3次元の物体を構成するた
めの図形の最小単位であり、三角形や四角形等の多角形
からなるものである。
More specifically, the GTE 61 can perform coordinate calculation of up to about 1.5 million polygons per second in the case of performing flat shading in which the same color is drawn on one triangular polygon. Therefore, in this image processing system, the CP
It is possible to reduce the load on the U51 and perform high-speed coordinate calculation. The polygon is
It is a minimum unit of a figure for forming a three-dimensional object displayed on a display, and is composed of a polygon such as a triangle or a quadrangle.

【0031】GPU62は、CPU51からのポリゴン
描画命令に従って動作し、フレームバッファ63に対し
て多角形(ポリゴン)等の描画を行う。このGPU62
は、1秒間に最大36万程度のポリゴンの描画を行うこ
とができるようになっている。また、このGPU62
は、CPU51とは独立した2次元のアドレス空間を持
ち、そこにフレームバッファ63がマッピングされるよ
うになっている。
The GPU 62 operates according to a polygon drawing command from the CPU 51, and draws a polygon (polygon) on the frame buffer 63. This GPU62
Is capable of drawing up to about 360,000 polygons per second. In addition, this GPU62
Has a two-dimensional address space independent of the CPU 51, and the frame buffer 63 is mapped therein.

【0032】フレームバッファ63は、いわゆるデュア
ルポートRAMからなり、GPU62からの描画あるい
はメインメモリ53からの転送と、表示のための読み出
しとを同時に行うことができるようになっている。
The frame buffer 63 is composed of a so-called dual port RAM, and is capable of simultaneously performing drawing from the GPU 62 or transfer from the main memory 53 and reading for display.

【0033】このフレームバッファ63は、例えば1メ
ガバイトの容量を有し、それぞれ16ビットの横102
4で縦512の画素のマトリックスとして扱われる。
The frame buffer 63 has a capacity of, for example, 1 megabyte, and each has a 16-bit width 102.
4 is treated as a matrix of 512 vertical pixels.

【0034】このフレームバッファ63のうちの任意の
表示領域を例えばディスプレイ装置等のビデオ出力手段
65に出力することができるようになっている。
An arbitrary display area of the frame buffer 63 can be output to the video output means 65 such as a display device.

【0035】また、このフレームバッファ63には、ビ
デオ出力として出力される表示領域の他に、GPU62
がポリゴン等の描画を行う際に参照するカラールックア
ップテーブル(CLUT)が記憶される第2の領域であ
るCLUT領域と、描画時に座標変換されてGPU62
によって描画されるポリゴン等の中に挿入(マッピン
グ)される素材(テクスチャ)が記憶される第1の記憶
領域であるテクスチャ領域サツが設けられている。これら
のCLUT領域とテクスチャ領域は表示領域の変更等に
従って動的に変更されるようになっている。すなわち、
このフレームバッファ63は、表示中の領域に対して描
画アクセスを実行することができ、また、メインメモリ
53との間で高速DMA転送を行うことも可能となって
いる。
In addition to the display area output as video output, the frame buffer 63 also has a GPU 62.
A CLUT area that is a second area in which a color lookup table (CLUT) that is referred to when drawing a polygon or the like is stored;
A texture area, which is a first storage area for storing a material (texture) to be inserted (mapped) in a polygon or the like drawn by, is provided. These CLUT area and texture area are dynamically changed according to the change of the display area and the like. That is,
The frame buffer 63 can execute drawing access to the area being displayed, and can also perform high-speed DMA transfer with the main memory 53.

【0036】なお、上記GPU62は、上述のフラット
シェーディングの他にポリゴンの頂点の色から補間して
ポリゴン内の色を決めるグーローシェーディングと、上
記テクスチャ領域に記憶されているテクスチャをポリゴ
ンに張り付けるテクスチャマッピングを行うことができ
るようになっている。
In addition to the above flat shading, the GPU 62 pastes the Gouraud shading for interpolating from the colors of the vertices of the polygon to determine the color within the polygon and the texture stored in the texture area to the polygon. Texture mapping can be performed.

【0037】これらのグーローシェーディング又はテク
スチャマッピングを行う場合には、上記GTE61は、
1秒間に最大50万程度のポリゴンの座標演算を行うこ
とができる。
When performing these Gouraud shading or texture mapping, the GTE 61 is
A maximum of about 500,000 polygon coordinate operations can be performed per second.

【0038】MDEC64は、上記CPU51からの制
御により、CD−ROMのディスクから読み出されてメ
インメモリ53に記憶されている静止画あるいは動画の
画像データを復号化して再びメインメモリ53に記憶す
る。具体的には、MDEC64は逆離散コサイン変換
(逆DCT)演算を高速に実行でき、CD−ROMディ
スクから読み出されたカラー静止画圧縮標準(いわゆる
JPEG)や蓄積メディア系動画像符号化標準(いわゆ
るMPEG、但し本構成例ではフレーム内圧縮のみ)の
圧縮データの伸張を行うことができるようになってい
る。
Under the control of the CPU 51, the MDEC 64 decodes the image data of the still image or the moving image read from the CD-ROM disk and stored in the main memory 53, and stores it again in the main memory 53. Specifically, the MDEC64 can perform an inverse discrete cosine transform (inverse DCT) operation at high speed, and a color still image compression standard (so-called JPEG) read from a CD-ROM disc or a storage media type moving image coding standard ( So-called MPEG, but in this configuration example, only compressed data within a frame can be expanded.

【0039】また、この再生された画像データは、GP
U62を介してフレームバッファ63に記憶することに
より、上述のGPU62によって描画される画像の背景
として使用することができるようにもなっている。
The reproduced image data is GP
By storing it in the frame buffer 63 via U62, it can be used as the background of the image drawn by the GPU 62.

【0040】上記サウンドシステム70は、CPU51
からの指示に基づいて、楽音、効果音等を発生するサウ
ンド再生処理プロセッサ(SPU)71と、CD−RO
Mディスクから読み出された音声,楽音等のデータや音
源データ等が記憶される例えば512キロバイトのサウ
ンドバッファ72と、SPU71によって発生される楽
音、効果音等を出力するサウンド出力手段としてのスピ
ーカ73とを備えている。
The sound system 70 has a CPU 51.
A sound reproduction processor (SPU) 71 for generating a musical sound, a sound effect, etc. based on an instruction from the CD-RO
A sound buffer 72 of, for example, 512 kilobytes in which data such as voices and musical tones read out from the M disc, sound source data, and the like are stored, and a speaker 73 as a sound output unit which outputs musical tones and sound effects generated by the SPU 71. It has and.

【0041】上記SPU71は、16ビットの音声デー
タを4ビットの差分信号として適応差分符号化(ADP
CM)された音声データを再生するADPCM復号機能
と、サウンドバッファ72に記憶されている音源データ
を再生することにより、効果音等を発生する再生機能
と、サウンドバッファ72に記憶されている音声データ
等を変調させて再生する変調機能等を備えている。すな
わち、当該SPU71は、ルーピングや時間を系数とし
た動作パラメータの自動変更などの機能を持つADPC
M音源24ボイスを内蔵し、CPU51からの操作によ
り動作する。また、SPU71は、サウンドバッファ7
2がマッピングされた独自のアドレス空間を管理し、C
PU51からサウンドバッファ72にADPCMデータ
を転送し、キーオン/キーオフやモジュレーション情報
を直接渡すことによりデータを再生する。
The SPU 71 uses 16-bit audio data as a 4-bit differential signal by adaptive differential encoding (ADP).
CM) ADPCM decoding function for reproducing the voice data, a reproduction function for generating a sound effect by reproducing the sound source data stored in the sound buffer 72, and the voice data stored in the sound buffer 72. It has a modulation function and the like for modulating and reproducing the same. That is, the SPU 71 is an ADPC having functions such as looping and automatic change of operating parameters with time as a coefficient.
It has 24 voices of M sound source built in and operates by an operation from the CPU 51. Also, the SPU 71 is a sound buffer 7.
2 manages its own address space mapped to C,
The ADPCM data is transferred from the PU 51 to the sound buffer 72, and the data is reproduced by directly passing the key-on / key-off and the modulation information.

【0042】このような機能を備えることによって、こ
のサウンドシステム70は、CPU51からの指示によ
ってサウンドバッファ72に記録された音声データ等に
基づいて楽音、効果音等を発生するいわゆるサンプリン
グ音源として使用することができるようになっている。
By having such a function, the sound system 70 is used as a so-called sampling sound source that generates a musical sound, a sound effect, etc. based on the audio data recorded in the sound buffer 72 according to an instruction from the CPU 51. Is able to.

【0043】上記光学ディスク制御部80は、CD−R
OMのディスクである光学ディスクに記録されたプログ
ラム、データ等を再生するディスクドライブ装置81
と、例えばエラー訂正(ECC)符号が付加されて記録
されているプログラム、データ等を復号するデコーダ8
2と、ディスクドライブ装置81からの再生データを一
時的に記憶する例えば32キロバイトのバッファ83と
を備えている。すなわち、当該光学ディスク制御部80
は、上記ドライブ装置81やデコーダ82等のディスク
の読み出しを行うために必要な部品類から構成されてい
る。ここでは、ディスクフォーマットとして例えばCD
−DA、CD−ROM XA等のデータをサポートでき
るようになっている。なお、デコーダ82はサウンドシ
ステム70の一部も構成している。
The optical disc controller 80 is a CD-R.
Disk drive device 81 for reproducing programs, data, etc. recorded on an optical disk which is an OM disk
And a decoder 8 for decoding a program, data, etc. recorded with an error correction (ECC) code added, for example.
2 and a buffer 83 of, for example, 32 kilobytes for temporarily storing reproduction data from the disk drive device 81. That is, the optical disc controller 80
Is composed of parts necessary for reading the disk, such as the drive device 81 and the decoder 82. Here, as the disc format, for example, CD
-Supports data such as DA and CD-ROM XA. The decoder 82 also constitutes part of the sound system 70.

【0044】また、ディスクドライブ装置81で再生さ
れるディスクに記録されている音声データとしては、上
述のADPCMデータ(CD−ROM XAのADPC
Mデータ等)の他に音声信号をアナログ/デジタル変換
したいわゆるPCMデータがある。
As the audio data recorded on the disc reproduced by the disc drive device 81, the above-mentioned ADPCM data (ADPC of the CD-ROM XA is used.
In addition to M data), there is so-called PCM data obtained by analog / digital converting a voice signal.

【0045】ADPCMデータとして、例えば16ビッ
トのデジタルデータの差分を4ビットで表わして記録さ
れている音声データは、デコーダ82で誤り訂正と復号
化がなされた後、上述のSPU71に供給され、SPU
71でデジタル/アナログ変換等の処理が施された後、
スピーカ73を駆動するために使用される。
As ADPCM data, for example, audio data recorded by representing the difference of 16-bit digital data by 4 bits is error-corrected and decoded by the decoder 82, and then supplied to the above-mentioned SPU 71, and the SPU 71 is supplied.
After processing such as digital / analog conversion at 71,
It is used to drive the speaker 73.

【0046】また、PCMデータとして、例えば16ビ
ットのデジタルデータとして記録されている音声データ
は、デコーダ82で復号化された後、スピーカ73を駆
動するために使用される。なお、当該デコーダ82のオ
ーディオ出力は、一旦SPU71に入り、このSPU出
力とミックスされ、リバーブユニットを経由して最終の
オーディオ出力となる。
Audio data recorded as PCM data, for example, as 16-bit digital data is decoded by the decoder 82 and then used to drive the speaker 73. The audio output of the decoder 82 once enters the SPU 71, is mixed with this SPU output, and becomes the final audio output via the reverb unit.

【0047】また、通信制御部90は、メインバスBを
介してCPU51との通信の制御を行う通信制御デバイ
ス91と、使用者からの指示を入力するコントローラ9
2と、ゲームの設定等を記憶するメモリカード93とを
備えている。
Further, the communication control section 90 includes a communication control device 91 for controlling communication with the CPU 51 via the main bus B, and a controller 9 for inputting an instruction from a user.
2 and a memory card 93 for storing game settings and the like.

【0048】コントローラ92は、使用者の意図をアプ
リケーションに伝達するインタフェースであり、使用者
からの指示を入力するために、例えば16個の指示キー
を有し、通信制御デバイス91からの指示に従って、こ
の指示キーの状態を、同期式通信により、通信制御デバ
イス91に毎秒60回程度送信する。そして、通信制御
デバイス91は、コントローラ92の指示キーの状態を
CPU51に送信する。なお、コントローラ92は、本
体に2個のコネクタを有し、その他にマルチタップを使
用して多数のコントローラを接続することも可能となっ
ている。
The controller 92 is an interface for transmitting the intention of the user to the application, and has, for example, 16 instruction keys for inputting an instruction from the user, and according to the instruction from the communication control device 91. The state of this instruction key is transmitted to the communication control device 91 about 60 times per second by synchronous communication. Then, the communication control device 91 transmits the state of the instruction key of the controller 92 to the CPU 51. The controller 92 has two connectors on the main body, and in addition, it is possible to connect a large number of controllers using a multi-tap.

【0049】これにより、使用者からの指示がCPU5
1に入力され、CPU51は、実行しているゲームプロ
グラム等に基づいて使用者からの指示に従った処理を行
う。
As a result, the instruction from the user is sent to the CPU 5
1 is input to the CPU 51, and the CPU 51 performs processing according to an instruction from the user based on the game program or the like being executed.

【0050】また、CPU51は、実行しているゲーム
の設定やゲームの終了時或いは途中の結果等を記憶する
必要があるときに、該記憶するデータを通信制御デバイ
ス91に送信し、通信制御デバイス91は当該CPU5
1からのデータをメモリカード93に記憶する。
Further, the CPU 51 transmits the stored data to the communication control device 91 when it is necessary to store the settings of the game being executed, the end of the game, or the results in the middle, and the like. 91 is the CPU 5
The data from 1 is stored in the memory card 93.

【0051】このメモリカード93は、メインバスBか
ら分離されているため、電源を入れた状態で、着脱する
ことができるようになっている。これにより、ゲームの
設定等を複数のメモリカード93に記憶することができ
るようになっている。
Since this memory card 93 is separated from the main bus B, it can be attached and detached while the power is on. As a result, game settings and the like can be stored in the plurality of memory cards 93.

【0052】また、本構成例システムは、メインバスB
に接続された16ビットパラレル入出力(I/O)ポー
ト101と、非同期式のシリアル入出力(I/O)ポー
ト102とを備えている。
Further, the system of this configuration example has a main bus B.
A 16-bit parallel input / output (I / O) port 101 and an asynchronous serial input / output (I / O) port 102 which are connected to each other.

【0053】そして、パラレルI/Oポート101を介
して周辺機器との接続を行うことができるようになって
おり、また、シリアルI/Oポート102を介して他の
ビデオゲーム装置等との通信を行うことができるように
なっている。
The parallel I / O port 101 can be connected to peripheral devices, and the serial I / O port 102 can be used to communicate with other video game devices. To be able to do.

【0054】ところで、上記メインメモリ53、GPU
62、MDEC64及びデコーダ82等の間では、プロ
グラムの読み出し、画像の表示あるいは描画等を行う際
に、大量の画像データを高速に転送する必要がある。
By the way, the main memory 53, the GPU
A large amount of image data needs to be transferred at high speed between the 62, the MDEC 64, the decoder 82, and the like when reading a program, displaying an image, drawing, or the like.

【0055】このため、この画像処理システムでは、上
述のようにCPU51を介さずに周辺デハイスコントロ
ーラ52からの制御により上記メインメモリ53、GP
U62、MDEC64及びデコーダ82等の間で直接デ
ータの転送を行ういわゆるDMA転送を行うことができ
るようになっている。
Therefore, in this image processing system, the main memory 53 and GP are controlled by the peripheral device controller 52 without the intervention of the CPU 51 as described above.
It is possible to perform so-called DMA transfer for directly transferring data between the U62, MDEC 64, the decoder 82 and the like.

【0056】これにより、データ転送によるCPU51
の負荷を低減させることができ、高速なデータの転送を
行うことができようになっている。
This allows the CPU 51 to transfer data.
It is possible to reduce the load and to perform high-speed data transfer.

【0057】このビデオゲーム装置では、電源が投入さ
れると、CPU51が、ROM54に記憶されているオ
ペレーティングシステムを実行する。
In this video game device, when the power is turned on, the CPU 51 executes the operating system stored in the ROM 54.

【0058】このオペレーティングシステムに実行によ
り、CPU51は、上記グラフィックシステム60、サ
ウンドシステム70等の制御を行う。
When executed by this operating system, the CPU 51 controls the graphic system 60, the sound system 70 and the like.

【0059】また、オペレーティングシステムが実行さ
れると、CPU51は、動作確認等の装置全体の初期化
を行った後、光学ディスク制御部80を制御して、光学
ディスクに記録されているゲーム等のプログラムを実行
する。
When the operating system is executed, the CPU 51 initializes the entire device such as operation confirmation and then controls the optical disc controller 80 to execute a game or the like recorded on the optical disc. Run the program.

【0060】このゲーム等のプログラムの実行により、
CPU51は、使用者からの入力に応じて上記グラフィ
ックシステム60、サウンドシステム70等を制御し
て、画像の表示、効果音、楽音の発生を制御するように
なっている。
By executing the program such as this game,
The CPU 51 controls the graphic system 60, the sound system 70, etc. according to an input from the user to control the display of images, the generation of sound effects, and the generation of musical sounds.

【0061】次に、本構成例の画像処理システムにおけ
るディスプレイ上への表示について説明する。
Next, the display on the display in the image processing system of this configuration example will be described.

【0062】上記GPU62は、フレームバッファ63
4内の任意の矩形領域の内容を、そのまま上記ビデオ出
力手段65の例えばCRT等のディスプレイ上に表示す
る。この領域を以下表示エリアと呼ぶ。上記矩形領域と
ディスプレイ画面表示の関係は、図2に示すようになっ
ている。
The GPU 62 has a frame buffer 63.
The content of the arbitrary rectangular area in 4 is displayed as it is on the display of the video output means 65, such as a CRT. This area is hereinafter referred to as a display area. The relationship between the rectangular area and the display on the display screen is as shown in FIG.

【0063】また、上記GPU62は、次の10個の画
面モードをサポートしている。
Further, the GPU 62 supports the following 10 screen modes.

【0064】 〔モード〕 〔標準解像度〕 備考 モード0 256(H)×240(V) ノンインターレス モード1 320(H)×240(V) ノンインターレス モード2 512(H)×240(V) ノンインターレス モード3 640(H)×240(V) ノンインターレス モード4 256(H)×480(V) インターレス モード5 320(H)×480(V) インターレス モード6 512(H)×480(V) インターレス モード7 640(H)×480(V) インターレス モード8 384(H)×240(V) ノンインターレス モード9 384(H)×480(V) インターレス 画面サイズすなわちディスプレイ画面上のピクセル数は
可変で、図3のように、水平方向、垂直方向それぞれ独
立に表示開始位置(座標(DTX,DTY))、表示終
了位置(座標(DBX,DBY))を指定することがで
きる。
[Mode] [Standard resolution] Remark Mode 0 256 (H) × 240 (V) Non-interlace mode 1 320 (H) × 240 (V) Non-interlace mode 2 512 (H) × 240 (V) Non-interlace mode 3 640 (H) × 240 (V) Non-interlace mode 4 256 (H) × 480 (V) Interless mode 5 320 (H) × 480 (V) Interless mode 6 512 (H) × 480 (V) Interless mode 7 640 (H) × 480 (V) Interless mode 8 384 (H) × 240 (V) Non-interlace mode 9 384 (H) × 480 (V) Interless screen size or display The number of pixels on the screen is variable, and as shown in FIG. 3, the display start position (coordinates (DTX, DTY)) and the display end position (coordinates (DBX, DBY)) can be specified independently in the horizontal and vertical directions. You can

【0065】また、各座標に指定可能な値と画面モード
との関係は、以下のようになっている。なお、座標値の
DTX,DBXは4の倍数になるように設定する必要が
ある。したがって、最小画面サイズは、横4ピクセル、
縦2ピクセル(ノンインターレス時)又は4ピクセル
(インターレス時)になる。
The relationship between the value that can be designated for each coordinate and the screen mode is as follows. The coordinate values DTX and DBX must be set to be a multiple of 4. Therefore, the minimum screen size is 4 pixels wide,
2 pixels vertically (when non-interlaced) or 4 pixels (when interlaced).

【0066】 〔X座標の指定可能範囲〕 〔モード〕 〔DTX〕 〔DBX〕 0,4 0〜276 4〜280 1,5 0〜348 4〜352 2,6 0〜556 4〜560 3,7 0〜700 4〜704 8,9 0〜396 4〜400 〔Y座標の指定可能範囲〕 〔モード〕 〔DTY〕 〔DBY〕 0〜3,8 0〜241 2〜243 4〜7,9 0〜480 4〜484 次に、GPU62は、表示色数に関するモードとして、
16ビットダイレクトモード(32768色)と、24
ビットダイレクトモード(フルカラー)の2つをサポー
トしている。上記16ビットダイレクトモード(以下1
6ビットモードと呼ぶ)は32768色表示モードであ
る。この16ビットモードでは、24ビットダイレクト
モード(以下24ビットモードと呼ぶ)に較べ表示色数
に限りはあるが、描画時のGPU62内部での色計算は
24ビットで行われ、また、諧調を疑似的に増やすいわ
ゆるディザ機能も搭載しているので、疑似フルカラー
(24ビットカラー)表示が可能となっている。また、
上記24ビットモードは、16777216色(フルカ
ラー)表示のモードである。但し、フレームバッファ6
3内に転送されたイメージデータの表示(ビットマップ
表示)のみが可能で、GPU62の描画機能を実行する
ことはできない。ここで、1ピクセルのビット長は24
ビットとなるが、フレームバッファ63上での座標や表
示位置の値は16ビットを基準として指定する必要があ
る。すなわち、640×480の24ビット画像データ
は、フレームバッファ63中では960×480として
扱われる。また、前記座標値DBXは8の倍数になるよ
うに設定する必要があり、したがって、この24ビット
モードでの最小画面サイズは横8×縦2ピクセルにな
る。
[Specifiable Range of X Coordinate] [Mode] [DTX] [DBX] 0,40 to 276 4 to 280 1,5 0 to 348 4 to 352 2,6 0 to 556 4 to 560 3,7 0 to 700 4 to 704 8,9 0 to 396 4 to 400 [Specifiable range of Y coordinate] [Mode] [DTY] [DBY] 0 to 3, 8 0 to 241 2 to 243 4 to 7, 90 0 480 4 to 484 Next, the GPU 62 sets, as a mode relating to the number of display colors,
16-bit direct mode (32768 colors), 24
It supports two bit direct modes (full color). 16-bit direct mode (1 below)
The 6-bit mode) is a 32768 color display mode. In this 16-bit mode, the number of display colors is limited as compared with the 24-bit direct mode (hereinafter referred to as the 24-bit mode), but the color calculation inside the GPU 62 at the time of drawing is performed in 24 bits, and the gradation is simulated. Since it also has a so-called dither function that increases the number of colors, pseudo full-color (24-bit color) display is possible. Also,
The 24-bit mode is a 16777216 color (full color) display mode. However, the frame buffer 6
It is only possible to display (bitmap display) the image data transferred to the GPU 3, and it is not possible to execute the drawing function of the GPU 62. Here, the bit length of one pixel is 24
Although it becomes a bit, it is necessary to specify the value of the coordinate and the display position on the frame buffer 63 with 16 bits as a reference. That is, 640 × 480 24-bit image data is treated as 960 × 480 in the frame buffer 63. Further, it is necessary to set the coordinate value DBX to be a multiple of 8. Therefore, the minimum screen size in this 24-bit mode is 8 horizontal pixels × 2 vertical pixels.

【0067】また、GPU62には次のような描画機能
が搭載されている。
The GPU 62 has the following drawing function.

【0068】先ず、1×1ドット〜256×256ドッ
トのポリゴン又はスプライトに対して、4ビットCLU
T(4ビットモード、16色/ポリゴン、スプライト)
や8ビットCLUT(8ビットモード、256色/ポリ
ゴン、スプライト),16ビットCLUT(16ビット
モード、32768色/ポリゴン、スプライト)等の描
画が可能なポリゴン又はスプライト描画機能と、ポリゴ
ンやスプライト(三角形や四角形等の多角形)の各頂点
の画面上の座標を指定して描画を行うと共に、ポリゴン
やスプライト内部を同一色で塗りつぶすフラットシェー
ディング、各頂点に異なる色を指定して内部をグラデー
ションするグーローシェーディング、ポリゴンやスプラ
イト表面に2次元のイメージデータ(テクスチャパター
ン、特にスプライトに対するものをスプライトパターン
と呼ぶ)を用意して張り付けるテクスチャマッピング等
を行うポリゴン描画機能と、グラデーションが可能な直
線描画機能と、CPU51からフレームバッファ63へ
の転送、フレームバッファ63からCPU51への転
送、フレームバッファ63からフレームバッファ63へ
の転送等のイメージ転送機能と、その他の機能として、
各ピクセルの平均をとって半透明化する機能(各ピクセ
ルのピクセルデータを所定比率αで混合することからα
ブレンディング機能と呼ばれる)、色の境界にノイズを
乗せてぼかすディザ機能、描画エリアを越えた部分を表
示しない描画クリッピング機能、描画エリアに応じて描
画原点を動かすオフセット指定機能等がある。
First, for a polygon or sprite of 1 × 1 dot to 256 × 256 dots, a 4-bit CLU is used.
T (4 bit mode, 16 colors / polygon, sprite)
And 8-bit CLUT (8-bit mode, 256 colors / polygon, sprite), 16-bit CLUT (16-bit mode, 32768 colors / polygon, sprite) And polygons such as quadrangles) are drawn by specifying the coordinates of each vertex on the screen, and the inside of the polygon or sprite is filled with the same color. Low shading, polygon drawing function that prepares two-dimensional image data (texture pattern, especially for sprite is called sprite pattern) on the surface of polygon or sprite, and performs texture mapping, and linear drawing function that can gradation And C Transfer from U51 to the frame buffer 63, the transfer from the frame buffer 63 to the CPU 51, the image transfer function of the transfer, etc. to the frame buffer 63 from the frame buffer 63, as other functions,
A function that takes the average of each pixel and makes it semi-transparent (from the fact that the pixel data of each pixel is mixed at a predetermined ratio α,
There is a blending function), a dither function that blurs noise on the color boundary, a drawing clipping function that does not display the area beyond the drawing area, and an offset specification function that moves the drawing origin according to the drawing area.

【0069】また、描画を行う座標系は符号付きの11
ビットを単位としており、X,Yそれぞれに−1024
〜+1023の値をとる。また、図4に示すように、本
構成例でのフレームバッファ63のサイズは1024×
512となっているので、はみ出した部分は折り返すよ
うになっている。描画座標の原点は、座標値のオフセッ
ト値を任意に設定する機能により、フレームバッファ6
3内で自由に変更することができる。また、描画は、描
画クリッピング機能により、フレームバッファ63内の
任意の矩形領域に対してのみ行われる。
The coordinate system for drawing is 11 with a sign.
Bit is used as a unit, and X- and Y-1024
It takes a value of +1023. Also, as shown in FIG. 4, the size of the frame buffer 63 in this configuration example is 1024 ×
Since it is 512, the protruding portion is folded back. The origin of the drawing coordinates can be set to the frame buffer 6 by the function of arbitrarily setting the offset value of the coordinate value.
It can be changed freely within 3. Drawing is performed only on an arbitrary rectangular area in the frame buffer 63 by the drawing clipping function.

【0070】さらに、GPU62は、最大256×25
6ドットのテクスチャをサポートしており、縦,横それ
ぞれの値を自由に設定することができる。
Further, the GPU 62 has a maximum of 256 × 25.
It supports a 6-dot texture, and you can freely set the vertical and horizontal values.

【0071】上記ポリゴン又はスプライトに張りつける
イメージデータ(テクスチャパターン又はスプライトパ
ターン)は、図5に示すように、フレームバッファ63
の非表示領域に配置する。テクスチャパターン又はスプ
ライトパターンは、描画コマンド実行に先立ってフレー
ムバッファ63に転送される。テクスチャパターン又は
スプライトパターンは、256×256ピクセルを1ペ
ージとして、フレームバッファ63上にメモリの許す限
り何枚でも置くことができ、この256×256の領域
をテクスチャページと呼んでいる。1枚のテクスチャペ
ージの場所は、描画コマンドのTSBと呼ぶテクスチャ
ページの位置(アドレス)指定のためのパラメータに、
ページ番号を指定することで決定される。
The image data (texture pattern or sprite pattern) to be attached to the polygon or sprite is, as shown in FIG.
Place it in the non-display area. The texture pattern or sprite pattern is transferred to the frame buffer 63 prior to executing the drawing command. As many texture patterns or sprite patterns as 256 pages can be placed on the frame buffer 63 as one page, and this 256 * 256 area is called a texture page. The location of one texture page is the parameter for designating the position (address) of the texture page called TSB of the drawing command.
It is determined by specifying the page number.

【0072】テクスチャパターン又はスプライトパター
ンには、4ビットCLUT(4ビットモード)、8ビッ
トCLUT(8ビットモード)、16ビットCLUT
(16ビットモード)の3種類の色モードがある。4ビ
ットCLUT及び8ビットCLUTの色モードでは、C
LUTを使用する。
For the texture pattern or sprite pattern, 4-bit CLUT (4-bit mode), 8-bit CLUT (8-bit mode), 16-bit CLUT
There are three types of color modes (16-bit mode). In the 4-bit CLUT and 8-bit CLUT color modes, C
Use the LUT.

【0073】このCLUTとは、図6に示すように、最
終的に表示される色を表す3原色のR,G,B値が16
乃至256個、フレームバッファ63上に並んだもので
ある。各R,G,B値はフレームバッファ63上の左か
ら順に番号付けされており、テクスチャパターン又はス
プライトパターンはこの番号により各ピクセルの色を表
す。また、CLUTはポリゴン又はスプライト単位で選
択でき、全てのポリゴン又はスプライトに対して独立し
たCLUTを持つことも可能である。また、図6におい
て、1個のエントリは16ビットモードの1ピクセルと
同じ構造となっており、したがって、1セットのCLU
Tは1×16(4ビットモード時)、1×255(8ビ
ットモード時)のイメージデータと等しくなる。フレー
ムバッファ63内でのCLUTの格納位置は、描画コマ
ンド内のCBAと呼ぶCLUTの位置(アドレス)指定
のためのパラメータに、使用するCLUTの左端の座標
を指定することで決定する。
As shown in FIG. 6, the CLUT means that the R, G and B values of the three primary colors representing the finally displayed color are 16
256 to 256 are arranged on the frame buffer 63. Each R, G, B value is numbered in order from the left on the frame buffer 63, and the texture pattern or sprite pattern represents the color of each pixel by this number. Further, the CLUT can be selected in units of polygons or sprites, and it is possible to have an independent CLUT for all polygons or sprites. Further, in FIG. 6, one entry has the same structure as one pixel in 16-bit mode, and therefore one set of CLU
T is equal to 1 × 16 (in 4-bit mode) and 1 × 255 (in 8-bit mode) image data. The storage position of the CLUT in the frame buffer 63 is determined by specifying the coordinates of the left end of the CLUT to be used as a parameter for specifying the position (address) of the CLUT called CBA in the drawing command.

【0074】さらに、ポリゴン又はスプライト描画の概
念を模式的に示すと図7のように表すことができる。な
お、図7の例ではスプライトを例に挙げている。また図
7中の描画コマンドのU,Vはテクスチャページのどの
位置かを横(U),縦(V)で指定するパラメータであ
り、X,Yは描画エリアの位置を指定するためのパラメ
ータである。
Further, the concept of polygon or sprite drawing can be schematically shown as shown in FIG. In the example of FIG. 7, sprites are used as an example. Further, U and V of the drawing command in FIG. 7 are parameters for specifying which position on the texture page in horizontal (U) and vertical (V), and X and Y are parameters for specifying the position of the drawing area. is there.

【0075】また、GPU62は、動画表示の方式とし
て、フレームダブルバッファリングという手法を用いる
ようにしている。このフレームダブルバッファリングと
は、図8に示すように、フレームバッファ63上に2つ
の矩形領域を用意し、一方のエリアに描画をしている間
はもう片側を表示し、描画が終了したら2つのエリアを
お互いに交換するものである。これにより、書き換えの
様子が表示されるのを回避することができることにな
る。なお、バッファの切り換え操作は、垂直帰線期間内
に行う。また、GPU62では、描画の対象となる矩形
領域と座標系の原点を自由に設定できるので、この2つ
を移動させることにより、複数のバッファを実現するこ
とも可能である。
Further, the GPU 62 uses a method called frame double buffering as a moving image display method. This frame double buffering means, as shown in FIG. 8, that two rectangular areas are prepared on the frame buffer 63, the other side is displayed while drawing in one area, and 2 is displayed when drawing is completed. The two areas are exchanged for each other. This makes it possible to avoid displaying the rewriting state. The buffer switching operation is performed within the vertical blanking period. Further, in the GPU 62, since the rectangular area to be drawn and the origin of the coordinate system can be freely set, it is possible to realize a plurality of buffers by moving these two.

【0076】次に、本構成例の画像処理システムにおけ
るテクスチャマッピング及びグーローシェーディング時
のCPU51が出力する命令形式(インストラクション
セット)について説明する。
Next, the instruction format (instruction set) output by the CPU 51 at the time of texture mapping and Gouraud shading in the image processing system of this configuration example will be described.

【0077】先ず、描画命令形式について説明する。First, the drawing command format will be described.

【0078】命令形式(1)として、描画命令をCPU
51が直接指定するために、図9に示すようなパケット
構成を用いる。なお、この図9において、R,G,Bは
多角形の全ての頂点で共有する輝度値を、Xn,Ynは
頂点nの描画空間上の2次元座標を示す。この命令形式
(1)に対して、例えば、(X0,Y0)−(X1,Y
1)−(X2,Y2)で囲まれる領域を輝度値(R,
G,B)で塗りつぶす命令の場合には、図10に示すよ
うになり、以降の描画の座標オフセットを(0FX,0
FY)に変更する。
As the command format (1), the drawing command is sent to the CPU.
In order for 51 to specify directly, a packet structure as shown in FIG. 9 is used. In FIG. 9, R, G, and B represent luminance values shared by all the vertices of the polygon, and Xn and Yn represent two-dimensional coordinates of the vertex n in the drawing space. For this instruction format (1), for example, (X0, Y0)-(X1, Y
1)-(X2, Y2), the area surrounded by brightness values (R,
In the case of an instruction to paint with G, B), the processing becomes as shown in FIG. 10, and the coordinate offset of the subsequent drawing is (0FX, 0
Change to FY).

【0079】次に、命令形式(2)として、図11に示
すように、命令形式(1)の型の描画命令に命令のワー
ド数と次の命令へのポインタを付加したタグを設けたパ
ケット構成を用いる。なお、この図11中のSIZEは
命令のワード長(この例では4)を、ADDRは次の命
令の先頭アドレスを示す。これによって、フレームバッ
ファ63上で連続した領域におかれていない複数の命令
列をつなげて一度に実行できるようになる。この場合の
描画命令の転送は専用のハードウエアが行い、CPU5
1は一切関与しない。また、この命令形式(2)におい
て、例えば、(X0,Y0)−(X1,Y1)−(X
2,Y2)で囲まれる領域を輝度値(R,G,B)で塗
りつぶす命令の場合には、図12に示すようになり、以
降の描画の座標オフセットを変更する。
Next, as the instruction format (2), as shown in FIG. 11, a packet provided with a tag in which the number of words of the instruction and a pointer to the next instruction are added to the drawing instruction of the type of the instruction format (1). Use configuration. Note that SIZE in FIG. 11 indicates the word length of the instruction (4 in this example), and ADDR indicates the start address of the next instruction. As a result, a plurality of instruction sequences that are not placed in consecutive areas on the frame buffer 63 can be connected and executed at once. In this case, the drawing command is transferred by dedicated hardware, and the CPU 5
1 is not involved at all. In addition, in this instruction format (2), for example, (X0, Y0)-(X1, Y1)-(X
2, Y2), the command to fill the area surrounded by the brightness values (R, G, B) is as shown in FIG. 12, and the coordinate offset for the subsequent drawing is changed.

【0080】次に、本発明のデータ形式について詳細に
説明する。
Next, the data format of the present invention will be described in detail.

【0081】GPU62はホスト(CPU51)より供
給されるパケット化されたコマンド(描画命令)列を順
次実行する。なお、以下の説明では下記の記号を使用す
る。
The GPU 62 sequentially executes a packetized command (drawing command) sequence supplied from the host (CPU 51). The following symbols will be used in the following description.

【0082】 CODE コマンドコード呼びオプション R,G,B すべての頂点で共有する輝度値 Rn,Bn,Gn 頂点nの輝度値 Xn,Yn 頂点nの描画空間上の2次元座標 Un,Vn 頂点nに対応するテクスチャソーク空間上の 点の2次元座標 CBA(CLUT BASE ADDRESS) CLUTの先頭アドレス TSB(TEXTURE SOURCE BASE) テクスチャページ先頭アドレス及びテクスチ ャタイプなどの付加情報 なお、Xn,Ynは、コマンドでは16ビットが割り当
てられているが、実際には各々下位11ビットまでが有
効である。CBA及びTSBのビットアサインは図13
及び図14に示す通りである。なお、図13中CLXは
CLUTのX軸の先頭アドレス(6ビット)で、CLY
はCLUTのY軸の先頭アドレス(9ビット)である。
また、図14に示すTSBは、MODEコマンド(後述
する設定コマンド参照)の下位ビットと同じビットアサ
インである。この図14中のTPFはテクスチャパター
ンのピクセルの深さで、00のとき4ビットモード(C
LUT)、01のとき8ビットモード(CLUT)、1
0のとき16ビットモード(CLUT)である。図14
中のABRは半透明レートを示し、00のとき0.50
×F+0.50×B、01のとき1.00×F+1.0
0×B、10のとき0.50×F+1.00×B、11
のとき0.25×F+1.00×Bとなる(なおFは前
景、Bは背景に対応する)。また、図14中のTBXは
テクスチャパターンソース空間x方向のベースアドレス
(上位5ビット)で、TBYはテクスチャパターンソー
ス空間y方向のベースアドレス(上位1ビット)であ
る。
CODE command code call option R, G, B Luminance value shared by all vertices Rn, Bn, Gn Luminance value of vertex n Xn, Yn Two-dimensional coordinates Un, Vn of vertex n in the drawing space Two-dimensional coordinates of the corresponding point in the texture soak space CBA (CLUT BASE ADDRESS) CLUT start address TSB (TEXTURE SOURCE BASE) Texture page start address and additional information such as texture type. Xn and Yn are 16 bits in the command. Are allocated, but the lower 11 bits are actually effective. The bit assignments of CBA and TSB are shown in FIG.
And as shown in FIG. Note that CLX in FIG. 13 is the X-axis start address (6 bits) of the CLUT and is CLY.
Is the start address (9 bits) of the Y-axis of the CLUT.
The TSB shown in FIG. 14 has the same bit assignment as the lower bit of the MODE command (see the setting command described later). TPF in this FIG. 14 is the pixel depth of the texture pattern, and when it is 00, it is in the 4-bit mode (C
LUT), when 01, 8-bit mode (CLUT), 1
When 0, the 16-bit mode (CLUT) is set. 14
ABR in the figure indicates a semi-transparent rate, and when it is 00, it is 0.50.
× F + 0.50 × B, 01 = 1.00 × F + 1.0
0 x B, when 10 0.50 x F + 1.00 x B, 11
Then 0.25 × F + 1.00 × B (F corresponds to the foreground and B corresponds to the background). Further, TBX in FIG. 14 is a base address in the x direction of the texture pattern source space (upper 5 bits), and TBY is a base address in the y direction of the texture pattern source space (upper 1 bit).

【0083】次に三角形描画コマンド(コマンドコード
=1h)は、図15に示すように、コマンドコード(オ
プションを含む)の後に、頂点情報をコマンド引数とし
て与える。オプションにより、引数の数、フォーマット
が異なる。この図15中のIIPが0のときは1種類の
輝度値(R,G,B)で三角形を描画(フラットシェー
ディング)し、1のときは三頂点の輝度値を線形補間し
て、三角形を描画(グーローシェーディング)する。C
NTが0のときコマンド以降に続く3頂点で三角形を一
つ描画し、1のときコマンド以降に続く4頂点で連結三
角形を描画(四角形)する。TMEが0のときテクスチ
ャマッピングオフとなり、1のときテクスチャマッピン
グがオンとなる。ABEが0のとき半透明処理がオフと
なり、1のとき半透明処理がオンとなる。TGEはTM
Eの時のみ有効で、0のときテクスチャパターンと輝度
値とを掛け合わせて表示し、1のときテクスチャパター
ンのみを描画する。ここでのデータ構成は、23通りと
なるが、その一部を図16に示す。
Next, the triangle drawing command (command code = 1h) gives vertex information as a command argument after the command code (including options), as shown in FIG. The number of arguments and the format differ depending on the option. When IIP in FIG. 15 is 0, a triangle is drawn (flat shading) with one type of luminance value (R, G, B), and when 1 is 1, the luminance values of three vertices are linearly interpolated to form a triangle. Draw (Gouraud shading). C
When NT is 0, one triangle is drawn with three vertices following the command, and when NT is 1, a connected triangle is drawn (quadrangle) with four vertices following the command. When TME is 0, texture mapping is off, and when it is 1, texture mapping is on. When ABE is 0, the translucent process is off, and when it is 1, the translucent process is on. TGE is TM
It is valid only when E, when 0 is displayed, the texture pattern is multiplied by the brightness value, and when 1 is displayed, only the texture pattern is drawn. There are 2 3 types of data structure, and a part thereof is shown in FIG.

【0084】次に直線描画コマンド(コマンドコード=
2h)は、図17に示すように、コマンドコード(オプ
ションを含む)の後に、端点情報をコマンド引数として
与える。オプションにより引数の数やフォーマットが異
なる。なお図17中のIIPが0のときはピクセルを描
画指定された輝度値で描画し、1のときは2頂点の輝度
値を線分の長軸方向の変位で線形補間して描画する。C
NTが0のときはコマンド以降に続く2端点で直線を1
つ描画し、1のとき連結直線を描画する。ABEが0の
とき半透明処理がオフとなり、1のとき半透明処理がオ
ンとなる。
Next, a line drawing command (command code =
As shown in FIG. 17, 2h) gives end point information as a command argument after the command code (including options). The number of arguments and the format differ depending on the option. When the IIP in FIG. 17 is 0, the pixel is drawn with the specified brightness value, and when it is 1, the brightness values of the two vertices are linearly interpolated by the displacement in the long axis direction of the line segment and drawn. C
When NT is 0, the straight line is 1 at the two end points following the command.
And draw a connecting straight line when 1. When ABE is 0, the translucent process is off, and when it is 1, the translucent process is on.

【0085】連結直線を描画するときは、最後にコマン
ドの終了を示す終端コード(TERMINATION CODE)が必要と
なる。終端コードのフォーマットは図18に示すように
なり、そのデータ構成例を図19に示す。なお、座標値
Xn,Ynは下位11ビットのみが有効であるので、通
常の使用では座標値と終端コードが衝突することはな
い。
When drawing a connecting straight line, a termination code (TERMINATION CODE) indicating the end of the command is required at the end. The format of the termination code is as shown in FIG. 18, and an example of the data structure is shown in FIG. Since only the lower 11 bits of the coordinate values Xn and Yn are valid, the coordinate values do not collide with the termination code in normal use.

【0086】次にスプライト描画コマンド(コマンドコ
ード=3h)は、図20に示すようになり、データ構成
例を図21に示す。このスプライト描画コマンドでは、
コマンドコード(オプションを含む)の後に、輝度情
報、矩形領域の左下端点、テクスチャソース空間の左上
端点、矩形領域の幅と高さをコマンド引数として与え
る。オプションにより引数の数、フォーマットが異な
る。また、スプライト描画コマンドは2ピクセル同時に
処理をするため、Unは偶数を指定しなければならない
(下位1ビットは意味を持たない)。なお、図20中の
TMEが0のときはテクスチャマッピングがオフし、1
のときはテクスチャマッピングがオンする。ABEが0
のときは半透明処理がオフし、1のときは半透明処理が
オンする。TGE(TMEの時のみ有効)が0のときは
テクスチャパターン(この場合にはスプライトパター
ン)に一定の輝度値を掛け合わせて描画し、1のときは
テクスチャパターン(スプライトパターン)のみを描画
する。SIZは矩形領域のサイズを指定し、00のとき
にはH,Wフィールドで指定し、01のときは1×1、
10のときは8×8、11のときは16×16のサイズ
指定となる。
Next, the sprite drawing command (command code = 3h) is as shown in FIG. 20, and a data structure example is shown in FIG. With this sprite drawing command,
After the command code (including options), the brightness information, the lower left corner of the rectangular area, the upper left corner of the texture source space, and the width and height of the rectangular area are given as command arguments. The number of arguments and the format differ depending on the option. In addition, since the sprite drawing command processes two pixels at the same time, Un must specify an even number (the lower 1 bit has no meaning). It should be noted that when TME in FIG.
When, texture mapping is turned on. ABE is 0
When it is, the semitransparent process is turned off. When it is 1, the semitransparent process is turned on. When TGE (valid only for TME) is 0, the texture pattern (sprite pattern in this case) is multiplied by a certain luminance value and drawn, and when it is 1, only the texture pattern (sprite pattern) is drawn. SIZ designates the size of the rectangular area, 00 designates it in the H and W fields, 01 designates 1 × 1,
When it is 10, the size is 8 × 8, and when it is 11, the size is 16 × 16.

【0087】次にローカルローカル転送コマンド(コマ
ンドコード=4h)すなわちフレームバッファ間の転送
コマンドとして、例えば矩形領域転送コマンドは、図2
2に示す通りであり、データ構成は図23に示すように
なる。この矩形領域転送コマンドは、コマンドコード
(オプションを含む)の後に、ソース矩形領域の左上端
点、ディスティネーション矩形領域の左上端点、矩形領
域の幅と高さをコマンド引数として与える。なお、図中
のCODEはコマンドコード及びオプションを示し、S
X,SYはソース(転送元)矩形領域の左上端点の座標
を、DX,DYはディスティネーション(転送先)矩形
領域の左上端点の座標を、Wは矩形領域の幅を、Hは矩
形領域の高さを示す。
Next, as a local transfer command (command code = 4h), that is, a transfer command between frame buffers, for example, a rectangular area transfer command is shown in FIG.
The data structure is as shown in FIG. 23. This rectangular area transfer command gives the upper left end point of the source rectangular area, the upper left end point of the destination rectangular area, and the width and height of the rectangular area as command arguments after the command code (including options). In the figure, CODE indicates a command code and option, and S
X and SY are the coordinates of the upper left corner of the source (transfer source) rectangular area, DX and DY are the coordinates of the upper left corner of the destination (transfer destination) rectangular area, W is the width of the rectangular area, and H is the rectangular area. Indicates the height.

【0088】次に、ホストローカル転送コマンド(コマ
ンドコード=5h)は、図24に示す通りとなり、デー
タ構成は図25に示すようになる。このホストローカル
転送コマンドは、CPUとフレームバッファ間の転送コ
マンドであり、コマンドコード(オプションを含む)で
例えばディスティネーション矩形領域の左上端点、矩形
領域の幅と高さ、転送データをコマンド引数として与え
る。なお、図中のCODEはコマンドコード及びオプシ
ョンを示し、DX,DYはディスティネーション(転送
先)矩形領域の左上端点の座標を、Wは矩形領域の幅
を、Hは矩形領域の高さを、FRAM0〜FRAMnは
転送データを示す。
Next, the host local transfer command (command code = 5h) is as shown in FIG. 24, and the data structure is as shown in FIG. This host local transfer command is a transfer command between the CPU and the frame buffer, and gives, for example, the upper left end point of the destination rectangular area, the width and height of the rectangular area, and the transfer data as a command argument with a command code (including options). . In the figure, CODE represents a command code and option, DX and DY are coordinates of the upper left end point of the destination (transfer destination) rectangular area, W is the width of the rectangular area, and H is the height of the rectangular area. FRAM0 to FRAMn indicate transfer data.

【0089】次にローカルホスト転送コマンド(コマン
ドコード=6h)は、図26に示す通りであり、このデ
ータ構成は図27に示すようになる。このローカルホス
ト転送コマンドは、フレームバッファとCPUとの間の
転送コマンドであり、例えばソース矩形領域の左上端
点、矩形領域の幅と高さをコマンド引数として与える。
なお、図中のCODEはコマンドコード及びオプション
を示し、SX,SYはソース(転送元)矩形領域の左上
端点の座標を、Wは矩形領域の幅を、Hは矩形領域の高
さを示す。また、汎用ポートを使用するコマンド(パラ
メータリード)をローカルホスト転送中に行うことはで
きない。
Next, the local host transfer command (command code = 6h) is as shown in FIG. 26, and the data structure is as shown in FIG. This local host transfer command is a transfer command between the frame buffer and the CPU, and gives, for example, the upper left end point of the source rectangular area and the width and height of the rectangular area as command arguments.
In the figure, CODE indicates a command code and option, SX and SY indicate the coordinates of the upper left end point of the source (transfer source) rectangular area, W indicates the width of the rectangular area, and H indicates the height of the rectangular area. Also, a command (parameter read) using a general-purpose port cannot be executed during transfer to the local host.

【0090】次に、設定コマンド(コマンドコード=7
h)は、図28に示すように、各種パラメータレジスタ
を設定するコマンドである。これはコマンドコード(ア
ドレスを含む)と、設定値を与える。なお、図中のCO
DEはコマンドコード及びオプションを示し、ADDR
はアドレスを、DATAはパラメータを示す。
Next, the setting command (command code = 7
As shown in FIG. 28, h) is a command for setting various parameter registers. This gives the command code (including address) and the set value. In addition, CO in the figure
DE indicates a command code and option, and ADDR
Indicates an address, and DATA indicates a parameter.

【0091】ここで、この設定コマンドのうちモード
(MODE)設定コマンド(アドレス=1h)は、図2
9に示す構成であり、図中のTPFはテクスチャパター
ン(スプライの場合はスプライトトパターン)のピクセ
ルの深さを示し、00のとき4ビットモード(CLU
T)、01のとき8ビットモード(CLUT)、10の
とき16ビットモード(ダイレクト)を示す。DTDは
0のときディザリングを行わないことを示し、1のとき
ディザリングを行うことを示す。DFEは0のときイン
ターレース時に表示されていないフィールドのみ描画
し、1のときインターレース時に両フィールドとも描画
する。ABRは半透明レートを示し、00のとき0.50×
F+0.50×Bを、01のとき1.00×F+1.00×Bを、1
0のとき0.50×F+1.00×Bを、11のとき0.25×F+
1.00×Bを示す(なお、Fは前景、Bは背景に対応す
る)。TBXはテクスチャパターンソース空間x方向ベ
ースアドレス(上位4ビット)を、TBYはテクスチャ
パターンソース空間y方向ベースアドレス(上位1ビッ
ト)を示す。
Among the setting commands, the mode (MODE) setting command (address = 1h) is shown in FIG.
9, the TPF in the figure indicates the pixel depth of the texture pattern (sprite pattern in the case of sply), and when it is 00, it is in the 4-bit mode (CLU).
T), 01 indicates 8-bit mode (CLUT), and 10 indicates 16-bit mode (direct). When DTD is 0, it indicates that dithering is not performed, and when it is 1, it indicates that dithering is performed. When the DFE is 0, only the fields that are not displayed during interlacing are drawn, and when the DFE is 1, both fields are drawn during interlacing. ABR indicates a semi-transparent rate, and when it is 00, 0.50 x
F + 0.50 x B, 01 = 1.00 x F + 1.00 x B = 1
When 0, 0.50 x F + 1.00 x B, when 11 is 0.25 x F +
Indicates 1.00 × B (F corresponds to the foreground and B corresponds to the background). TBX indicates the texture pattern source space x direction base address (upper 4 bits), and TBY indicates the texture pattern source space y direction base address (upper 1 bit).

【0092】また、設定コマンドのうちテクスチャパタ
ーンリピート(TEXTURE PATTERN REPEAT )設定コマンド
( アドレス=2h)は、図30に示す構成であり、図中
TUMはテクスチャパターンU座標繰り返しマスクを、
TVMはテクスチャパターンV座標繰り返しマスクを、
TUAはテクスチャパターン繰り返しU上位固定アドレ
スを、TVAはテクスチャパターン繰り返しV上位固定
アドレスを示す。
Of the setting commands, a texture pattern repeat (TEXTURE PATTERN REPEAT) setting command
(Address = 2h) has the configuration shown in FIG. 30, where TUM is a texture pattern U coordinate repeating mask,
The TVM uses a texture pattern V-coordinate repeating mask,
TUA indicates a texture pattern repetition U upper fixed address, and TVA indicates a texture pattern repetition V upper fixed address.

【0093】次に、設定コマンドのうちクリッピングス
タート(CLIPPING START)設定コマンド(アドレス=3
h)とクリッピングエンド(CLIPPING END)設定コマンド
(アドレス=4h)は、図31に示す構成を有する。な
お、図31の(a)にはクリッピングスタート設定コマ
ンドを、図31の(b)にはクリッピングエンド設定コ
マンドを示す。クリッピッグはポリゴン(三角形)/直
線/スプライト描画コマンドに対して有効であり、ホス
トローカル/ローカルローカル転送には作用しない。図
中のCTXはクリッピングの左上端点のXアドレス(1
0ビット)を、CTYはクリッピングの左上端点のYア
ドレス(9ビット)を、CBXはクリッピングの右下端
点のXアドレス(10ビット)を、CBYはクリッピン
グの右下端点のYアドレス(9ビット)を示す。
Next, among the setting commands, a clipping start (CLIPPING START) setting command (address = 3
h) and the clipping end (CLIPPING END) setting command (address = 4h) have the configuration shown in FIG. 31A shows a clipping start setting command, and FIG. 31B shows a clipping end setting command. Klippig is valid for polygon (triangle) / straight line / sprite drawing commands and does not affect host local / local local transfer. CTX in the figure is the X address (1
0 bit), CTY is the Y address (9 bits) of the upper left end point of clipping, CBX is the X address of the lower right end point of clipping (10 bits), and CBY is the Y address of the lower right end point of clipping (9 bits). Indicates.

【0094】次に、設定コマンドのうちオフセット(OFF
SET)設定コマンド(アドレス=5h)は図32に示す構
成をとり、図中OFXは座標オフセット値(X)(有符
号11ビット)を、OFYは座標オフセット値(Y)
(有符号11ビット)を示す。
Next, the offset (OFF
The SET) setting command (address = 5h) has the configuration shown in FIG. 32. In the figure, OFX is the coordinate offset value (X) (11 bits with a sign), and OFY is the coordinate offset value (Y).
(Signed 11 bits) is shown.

【0095】次に特殊コマンド(アドレス=0h)は、
図33に示す構成をとり、特殊コマンドとしては割り込
み要求イネーブルコマンドと後述するNOPコマンド等
がある。これはコマンドとオプションで指定する。
Next, the special command (address = 0h) is
With the configuration shown in FIG. 33, special commands include an interrupt request enable command and a NOP command described later. This is specified by command and option.

【0096】上記特殊コマンドのうちIRQ(interrupt
request) 発生コマンドは、図34に示す構成をとり、
IRQピンをアサートする。
Of the above special commands, IRQ (interrupt
request) generation command has the configuration shown in FIG.
Assert IRQ pin.

【0097】また特殊コマンドのうちNOP(no operat
ion)コマンドは、図35に示す構成をとり、このときは
何もしない。
Of the special commands, NOP (no operat
The (ion) command has the configuration shown in FIG. 35 and does nothing at this time.

【0098】さらに、特殊コマンドのうちキャッシュフ
ラッシュコマンドは、図36に示す構成をとり、テクス
チャキャッシュとCLUTの内容をフラッシュする。た
だし、ホストローカル転送,ローカルホスト転送を行う
とテクスチャキャッシュだけは自動的にフラッシュされ
る(CLUTは保存される)。
Further, among the special commands, the cache flush command has the structure shown in FIG. 36 and flushes the contents of the texture cache and the CLUT. However, when the host local transfer and the local host transfer are performed, only the texture cache is automatically flushed (the CLUT is saved).

【0099】また、特殊コマンドのうちブロックライト
コマンドは、図37に示す構成となり、データ構成は図
38に示すようになる。このコマンドは、高速で矩形を
初期化する。なお、図中のW,Hは矩形領域のサイズを
示す。また、R,G,Bは8ビットで指定されるが、実
際にメモリ上へ書き込まれる値は、上記4ビットのみで
ある。矩形領域の開始位置(X0,Y0)、サイズ
(H,V)は共に32ピクセルの整数倍で指定する。下
位4ビットは意味を持たない。
Of the special commands, the block write command has the structure shown in FIG. 37, and the data structure is as shown in FIG. This command quickly initializes the rectangle. Note that W and H in the figure indicate the size of the rectangular area. Although R, G, and B are specified by 8 bits, the value actually written in the memory is only the above 4 bits. The start position (X0, Y0) and size (H, V) of the rectangular area are both specified by an integral multiple of 32 pixels. The lower 4 bits have no meaning.

【0100】ところで、GPU62は専用のローカルメ
モリを持ち、これは表示用のフレームバッファであると
同時にテクスチャパターンやテクスチャCLUTの領域
としても使用する。すなわち、このローカルメモリが図
1のフレームバッファ63である。
By the way, the GPU 62 has a dedicated local memory, which is a frame buffer for display and is also used as an area for a texture pattern and a texture CLUT. That is, this local memory is the frame buffer 63 of FIG.

【0101】上記フレームバッファ63へのアドレッシ
ングとして、GPU62が描画する領域はx方向0〜1
023、y方向0〜511のサイズであり、ローカルメ
モリ(フレームバッファ63)の1次元アドレスとの対
応は、 1次元アドレス=XA+YA×1024 である。ただし、24ビットモードの場合は、 1次元アドレス=(3/2)×XA+YA×1024 である。
As addressing to the frame buffer 63, the area drawn by the GPU 62 is 0 to 1 in the x direction.
023 is the size in the y direction 0 to 511, corresponding to the 1-dimensional address of the local memory (frame buffer 63) is a one-dimensional address = X A + Y A × 1024 . However, in the 24-bit mode, one-dimensional address = (3/2) × X A + Y A × 1024.

【0102】なお、フレームバッファ63のページサイ
ズは1024固定なので、実際にはXA がカラムアドレ
ス、YAがロウアドレスに対応する。フレームバッファ
63内にはどこでも描画可能で、また、フレームバッフ
ァ63内の任意の領域を表示することもできる。ただ
し、表示できる大きさは、モードに応じて制限がある。
さらに、フレームバッファ63のアドレスXA,YAはそ
れぞれ10ビット,9ビット無符号で指定される。ただ
し、ポリゴンの描画で使用する座標値x,yは、それぞ
れ11ビット有符号で指定される。またさらに、描画は
(x,y)にオフセットレジスタで指定されたオフセッ
ト(OFX,OFY)が加算された値をアドレスとし
て、フレームバッファ63に描画される。ただし、マウ
ントされるフレームメモリの大きさ、1024×512
を越えた領域には描画されない。
Since the page size of the frame buffer 63 is fixed at 1024, X A actually corresponds to the column address and Y A corresponds to the row address. Drawing can be performed anywhere in the frame buffer 63, and any area in the frame buffer 63 can be displayed. However, the size that can be displayed is limited depending on the mode.
Further, the addresses X A and Y A of the frame buffer 63 are designated by 10-bit and 9-bit unsigned codes, respectively. However, the coordinate values x and y used for drawing the polygon are designated by 11-bit signed codes. Further, the drawing is performed in the frame buffer 63 by using the value obtained by adding the offset (OFX, OFY) designated by the offset register to (x, y) as an address. However, the size of the mounted frame memory is 1024 x 512
It is not drawn in the area beyond.

【0103】次に、ピクセルフォーマットについて説明
する。GPU63は、図39の(a)に示すようにR:
G:B=8:8:8(ビット)の24ビットモードと、
同図中(b)に示すようにR:G:B=5:5:5(ビ
ット)の16ビットモードをサポートする。ただし、2
4ビットモードは表示のみで描画することはできない。
なお、図中のRは赤色成分を、Gは緑色成分を、Bは青
色成分を、STPはオーバーライトフラグを示す。モー
ドによっては、STPに1が指定されると、以降そのピ
クセル上に新たに描画が実行されてもピクセルの内容は
保存される。これによって最初に描画したパターンを保
持しておくことができる。
Next, the pixel format will be described. The GPU 63 uses R:
24-bit mode of G: B = 8: 8: 8 (bit),
The 16-bit mode of R: G: B = 5: 5: 5 (bits) is supported as shown in FIG. However, 2
The 4-bit mode is a display only and cannot be drawn.
In the figure, R indicates a red component, G indicates a green component, B indicates a blue component, and STP indicates an overwrite flag. Depending on the mode, when STP is set to 1, the content of the pixel is saved even if new drawing is executed on the pixel thereafter. This makes it possible to retain the first drawn pattern.

【0104】次に、本構成例フォーマットによれば、ポ
リゴン/スプライトを描画する際に、テクスチャページ
におかれたパターン(テクスチャパターン又はスプライ
トパターン)を使用してテクスチャマッピングを行うこ
とができるようになる。以降の説明では(x,y)は描
画空間の座標を、(u,v)はテクスチャページ空間の
座標を表す。
Next, according to this configuration example format, when drawing a polygon / sprite, it is possible to perform texture mapping using the pattern (texture pattern or sprite pattern) placed on the texture page. Become. In the following description, (x, y) represents coordinates in the drawing space, and (u, v) represents coordinates in the texture page space.

【0105】先ず、テクスチャパターンやスプライトパ
ターンの置かれているフレームバッファ内の領域をテク
スチャページ或いはテクスチャページ空間と呼ぶ。テク
スチャパターンやスプライトパターンのピクセルフォー
マットとしては、4,8,16ビット/ピクセルの3種
類のモードがある。4ビット,8ビットモードは疑似カ
ラーであり、16ビットモードはダイレクトカラーであ
る。これらモードはポリゴン又はスプライト単位で切り
換えることができる。16ビットモード以外のテクスチ
ャパターンやスプライトパターンは1ワード内に何個か
のピクセルがパックされている。したがって、テクスチ
ャパターンやスプライトパターンのピクセルとフレーム
バッファのアドレスは1対1に対応していない。そのた
め、フレームバッファにテクスチャパターンやスプライ
トパターンをロードする場合のアドレスの指定には注意
が必要である。各モードの場合のピクセルフォーマット
は以下の図40に示す通りである。
First, the area in the frame buffer in which the texture pattern or sprite pattern is placed is called a texture page or texture page space. As the pixel format of the texture pattern and the sprite pattern, there are three kinds of modes of 4, 8 and 16 bits / pixel. The 4-bit and 8-bit modes are pseudo colors, and the 16-bit modes are direct colors. These modes can be switched for each polygon or sprite. For texture patterns and sprite patterns other than the 16-bit mode, some pixels are packed in one word. Therefore, the pixels of the texture pattern or sprite pattern and the addresses of the frame buffer do not have a one-to-one correspondence. Therefore, it is necessary to be careful when specifying the address when loading the texture pattern or sprite pattern in the frame buffer. The pixel format in each mode is as shown in FIG. 40 below.

【0106】図40の(a),(b)に示す4ビット/
ピクセル,8ビット/ピクセルの場合、ピクセル値は実
際の輝度値ではなく、CLUTへのインデックスとな
る。これから、ピクセルはCLUTを用いて、図41の
ように16ビットのカラーフォーマットに変換される。
なお、図中Rは赤色成分を、Gは緑色成分を、Bは青色
成分を、STPは半透明フラグを示す。
4 bits shown in (a) and (b) of FIG.
In the case of pixel, 8 bits / pixel, the pixel value is not the actual brightness value but the index into the CLUT. From this point, the pixel is converted to the 16-bit color format as shown in FIG. 41 using the CLUT.
In the figure, R indicates a red component, G indicates a green component, B indicates a blue component, and STP indicates a semitransparent flag.

【0107】また、16ビット/ピクセルの場合はCL
UTは用いられず、直接、輝度値として使用される。こ
のフォーマットは、図41と同様の図42の通りであ
る。なお、図中Rは赤色成分を、Gは緑色成分を、Bは
青色成分を、図中STPは半透明フラグを示す。STP
に1が指定されたピクセルは半透明で描画され、半透明
レートはポリゴン又はスプライト毎に独立に設定でき
る。
In the case of 16 bits / pixel, CL
The UT is not used and is used directly as the luminance value. This format is as shown in FIG. 42 similar to FIG. In the figure, R indicates a red component, G indicates a green component, B indicates a blue component, and STP indicates a semitransparent flag. STP
Pixels for which 1 is designated are rendered semi-transparent, and the semi-transparent rate can be set independently for each polygon or sprite.

【0108】さらに、4ビットモード、8ビットモード
の場合は、テクスチャCLUTを用いてテクスチャの色
(輝度)を決定することができるようになっている。テ
クスチャCLUTはフレームバッファに幾つも持つこと
ができるが、一回の描画コマンドで使用できるCLUT
は1種類に限られる。CLUTの選択はフレームバッフ
ァ上の先頭アドレスを指定することで選択できる。先頭
アドレスの指定はコマンド引数のCBAで行う。
Further, in the 4-bit mode and 8-bit mode, the texture CLUT can be used to determine the color (luminance) of the texture. You can have many texture CLUTs in the frame buffer, but you can use them with one drawing command.
Is limited to one type. The CLUT can be selected by designating the start address on the frame buffer. The head address is specified by the command argument CBA.

【0109】GPU62は内部にテクスチャCLUTキ
ャッシュを持っており、ポリゴン描画に先立ち、キャッ
シュ内に必要なCLUTがなければ、新しくCLUTを
ロードする。このため、同じCLUTを繰り返し使用す
る場合の描画はCLUTロードの分だけ高速になる。
The GPU 62 has a texture CLUT cache therein. Before drawing a polygon, if there is no necessary CLUT in the cache, a new CLUT is loaded. Therefore, when the same CLUT is repeatedly used, the drawing becomes faster by the load of the CLUT.

【0110】次に、上述したような本構成例のシステム
及びフォーマットが適用される画像情報生成及び画像情
報処理の流れを、図43にて説明する。
Next, the flow of image information generation and image information processing to which the system and format of the present configuration example as described above are applied will be described with reference to FIG.

【0111】この図43において、ステップS10では
複数のポリゴンからなる3次元画像データをCD−RO
Mのディスクから読み出してメインメモリ53に記憶
し、ステップS11では各ポリゴン毎に指定される特性
データとして色情報テーブル、テクスチャパターン情
報、半透明率指定データをフレームバッファ63に記憶
する。
Referring to FIG. 43, in step S10, the three-dimensional image data composed of a plurality of polygons is converted into CD-RO.
The data is read from the M disk and stored in the main memory 53. In step S11, a color information table, texture pattern information, and semi-transparency specifying data are stored in the frame buffer 63 as characteristic data specified for each polygon.

【0112】ステップS12では、前記グラフィックシ
ステム60にて透視変換等の座標変換処理を行って上記
3次元画像データから2次元画像情報を生成し、次のス
テップS13では当該2次元画像情報と各ポリゴンの特
性を指定するための情報とを合成してポリゴン毎にパケ
ット化された描画命令を生成する。
In step S12, coordinate conversion processing such as perspective conversion is performed in the graphic system 60 to generate two-dimensional image information from the three-dimensional image data, and in the next step S13, the two-dimensional image information and each polygon are generated. To draw a packetized drawing command for each polygon.

【0113】ステップS14では、当該生成された描画
命令により指定された特性データに基づき2次元画像を
フレームバッファ63に描画する。
In step S14, a two-dimensional image is drawn in the frame buffer 63 based on the characteristic data designated by the generated drawing command.

【0114】次のステップS15では当該フレームバッ
ファ63から2次元画像データをテレビジョン同期信号
に同期して読み出し、ビデオ出力手段65を介してディ
スプレイ装置に供給する。
In the next step S15, the two-dimensional image data is read from the frame buffer 63 in synchronization with the television synchronizing signal and supplied to the display device via the video output means 65.

【0115】上述したように、本発明構成例において
は、テクスチャ座標にオフセットをもたせてテクスチャ
座標の語長を短縮することで、描画命令が短くて済む。
また、描画ポリゴンやスプライト毎にテクスチャのCL
UTを指定できるので、疑似カラーテクスチャを使用し
ていても色数の制限が少ない。また、描画ポリゴンやス
プライト毎に半透明率を指定するので画素毎の半透明率
を指定する情報が必要でない。さらに、テクスチャ座標
と頂点座標が同時に指定できるのでテクスチャパターン
自体を変更せずにテクスチャマップポリゴンの色合いを
変化させることができる。またさらに、半透明率として
通常の0から1.0までの値ではなくて、マイナス(減
算)の値が指定できるので、すでに描画されているピク
セルの輝度値を減算することができる。その他、連結頂
点を用いて、描画する多角形の頂点座標を指定する場合
において、連結頂点数を3及び4に限定することで、終
端コードを不要にし、描画命令長を短縮させた頂点指定
が可能となる。また、描画の座標オフセットを描画命令
の途中で変更できるため、オブジェクト(現実感のある
物体すなわち描画対象の物体)単位の表示画面での平行
移動を容易にすることができる。
As described above, in the configuration example of the present invention, the rendering command can be shortened by providing the texture coordinate with an offset to shorten the word length of the texture coordinate.
Also, texture CL for each drawing polygon or sprite
Since the UT can be specified, the number of colors is not limited even if the pseudo color texture is used. Further, since the translucency rate is specified for each drawing polygon or sprite, information for specifying the translucency rate for each pixel is not necessary. Furthermore, since the texture coordinates and the vertex coordinates can be designated at the same time, the hue of the texture map polygon can be changed without changing the texture pattern itself. Furthermore, since a value of minus (subtraction) can be designated as the semi-transparency, instead of the normal value of 0 to 1.0, the brightness value of the pixel already drawn can be subtracted. In addition, when the vertex coordinates of a polygon to be drawn are specified using connected vertices, by limiting the number of connected vertices to 3 and 4, it is possible to eliminate the need for a terminal code and shorten the drawing command length. It will be possible. Further, since the coordinate offset of drawing can be changed in the middle of the drawing command, it is possible to facilitate parallel movement on the display screen in units of objects (realistic objects, that is, objects to be drawn).

【0116】また、本発明構成例においては、画像をテ
クスチャパターンとして使用する際に、そのピクセルの
最上位ビットで半透明のオン/オフを指定するので、半
透明率の設定のための特定のαプレーンが必要にならな
い。さらに、画像を背景画面として使用する最に、その
ピクセルの最上位ビットで上書きの禁止・許可を指定で
きるので、近景から先に描画することができる。また、
画像をテクスチャパターンとして使用する場合には、カ
ラーモードに応じて複数のモード(前記4ビットモー
ド,8ビットモード,16ビットモード等)を選ぶこと
ができ、したがって、その中にダイレクトカラー方式と
疑似カラー方式を混在できる。またさらに、フレームバ
ッファとテクスチャ画像の品質に応じて様々なテクスチ
ャタイプも選択できる。
Further, in the configuration example of the present invention, when the image is used as a texture pattern, the most significant bit of the pixel specifies the on / off of the translucency, so that a specific value for setting the translucency is specified. No need for alpha planes. Further, when the image is used as the background screen, the prohibition / permission of overwriting can be designated by the most significant bit of the pixel, so that the near view can be drawn first. Also,
When an image is used as a texture pattern, a plurality of modes (the above-mentioned 4-bit mode, 8-bit mode, 16-bit mode, etc.) can be selected according to the color mode. Color schemes can be mixed. Furthermore, various texture types can be selected depending on the quality of the frame buffer and the texture image.

【0117】[0117]

【発明の効果】以上の説明からも明らかなように、本発
明においては、複数のポリゴンからなる3次元画像デー
タを記憶し、各ポリゴン毎に指定される特性データを記
憶し、3次元画像データに透視変換を施して表示画面に
対応する2次元画像情報に変換し、ポリゴンの特性を指
定するための情報と2次元画像情報とを合成してポリゴ
ン毎にパケット化された描画命令を生成することによ
り、命令語長を短縮できると共に、ソースビデオメモリ
の消費量も減らすことができる画像情報を生成すること
可能となる。
As is apparent from the above description, according to the present invention, three-dimensional image data composed of a plurality of polygons is stored, and characteristic data designated for each polygon is stored. Is transformed into two-dimensional image information corresponding to the display screen by perspective transformation, and the two-dimensional image information and the information for designating the characteristics of the polygon are combined to generate a drawing command packetized for each polygon. As a result, it is possible to generate the image information that can reduce the instruction word length and the consumption amount of the source video memory.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明が適用される画像処理システムの概略的
な構成を示すブロック回路図である。
FIG. 1 is a block circuit diagram showing a schematic configuration of an image processing system to which the present invention is applied.

【図2】ディスプレイ上への表示について説明するため
の図である。
FIG. 2 is a diagram for explaining display on a display.

【図3】ディスプレイ上の表示の設定について説明する
ための図である。
FIG. 3 is a diagram for explaining display settings on a display.

【図4】描画クリッピングの機能について説明するため
の図である。
FIG. 4 is a diagram for explaining a function of drawing clipping.

【図5】テクスチャページについて説明するための図で
ある。
FIG. 5 is a diagram illustrating a texture page.

【図6】CLUT構造について説明するための図であ
る。
FIG. 6 is a diagram for explaining a CLUT structure.

【図7】ポリゴン又はスプライト描画の概念を説明する
ための図である。
FIG. 7 is a diagram for explaining the concept of polygon or sprite drawing.

【図8】フレームダブルバッファリングについて説明す
るための図である。
FIG. 8 is a diagram for explaining frame double buffering.

【図9】描画命令の命令形式(1)の構成を示す図であ
る。
FIG. 9 is a diagram showing a configuration of a command format (1) of a drawing command.

【図10】命令形式(1)において座標オフセットを行
う例を示す図である。
FIG. 10 is a diagram showing an example of performing coordinate offset in command format (1).

【図11】描画命令の命令形式(2)の構成を示す図で
ある。
FIG. 11 is a diagram showing a configuration of a command format (2) of a drawing command.

【図12】命令形式(2)において座標オフセットを行
う例を示す図である。
FIG. 12 is a diagram showing an example of performing coordinate offset in command format (2).

【図13】CBAの構成を示す図である。FIG. 13 is a diagram showing the structure of a CBA.

【図14】TSBの構成を示す図である。FIG. 14 is a diagram showing a structure of a TSB.

【図15】三角形描画コマンドのフォーマットを示す図
である。
FIG. 15 is a diagram showing a format of a triangle drawing command.

【図16】三角形描画コマンドのデータ構成例を示す図
である。
FIG. 16 is a diagram showing a data configuration example of a triangle drawing command.

【図17】直線描画コマンドのフォーマットを示す図で
ある。
FIG. 17 is a diagram showing a format of a straight line drawing command.

【図18】連結直線を描画する際に必要な終端コードの
フォーマットを示す図である。
FIG. 18 is a diagram showing a format of a termination code necessary for drawing a connecting straight line.

【図19】直線描画コマンドのデータ構成例を示す図で
ある。
FIG. 19 is a diagram showing a data configuration example of a straight line drawing command.

【図20】スプライト描画コマンドのフォーマットを示
す図である。
FIG. 20 is a diagram showing a format of a sprite drawing command.

【図21】スプライト描画コマンドのデータ構成例を示
す図である。
FIG. 21 is a diagram showing a data configuration example of a sprite drawing command.

【図22】ローカルローカル転送コマンドのフォーマッ
トを示す図である。
FIG. 22 is a diagram showing a format of a local transfer command.

【図23】ローカルローカル転送コマンドのデータ構成
例を示す図である。
FIG. 23 is a diagram showing a data configuration example of a local transfer command.

【図24】ホストローカル転送コマンドのフォーマット
を示す図である。
FIG. 24 is a diagram showing a format of a host local transfer command.

【図25】ホストローカル転送コマンドのデータ構成例
を示す図である。
FIG. 25 is a diagram showing a data configuration example of a host local transfer command.

【図26】ローカルホスト転送コマンドのフォーマット
を示す図である。
FIG. 26 is a diagram showing a format of a local host transfer command.

【図27】ローカルホスト転送コマンドのデータ構成例
を示す図である。
[Fig. 27] Fig. 27 is a diagram illustrating a data configuration example of a local host transfer command.

【図28】設定コマンドのフォーマットを示す図であ
る。
FIG. 28 is a diagram showing a format of a setting command.

【図29】モード設定コマンドのフォーマットを示す図
である。
FIG. 29 is a diagram showing a format of a mode setting command.

【図30】テクスチャパターン繰り返し設定コマンドの
フォーマットを示す図である。
FIG. 30 is a diagram showing a format of a texture pattern repeat setting command.

【図31】クリッピングスタート及びクリッピングエン
ド設定コマンドのフォーマットを示す図である。
FIG. 31 is a diagram showing a format of a clipping start and clipping end setting command.

【図32】オフセット設定コマンドのフォーマットを示
す図である。
FIG. 32 is a diagram showing a format of an offset setting command.

【図33】特殊コマンドのフォーマットを示す図であ
る。
FIG. 33 is a diagram showing a format of a special command.

【図34】IRQ発生コマンドのフォーマットを示す図
である。
FIG. 34 is a diagram showing a format of an IRQ generation command.

【図35】NOPコマンドのフォーマットを示す図であ
る。
FIG. 35 is a diagram showing a format of a NOP command.

【図36】キャッシュフラッシュコマンドのフォーマッ
トを示す図である。
FIG. 36 is a diagram showing a format of a cache flush command.

【図37】ブロックライトコマンドのフォーマットを示
す図である。
FIG. 37 is a diagram showing a format of a block write command.

【図38】ブロックライトコマンドのデータ構成例を示
す図である。
[Fig. 38] Fig. 38 is a diagram illustrating a data configuration example of a block write command.

【図39】ピクセルフォーマットを示す図である。FIG. 39 is a diagram showing a pixel format.

【図40】テクスチャパターンフォーマットを示す図で
ある。
FIG. 40 is a diagram showing a texture pattern format.

【図41】4ビット/ピクセル,8ビット/ピクセルが
CLUTを用いて変換された16ビットカラーフォーマ
ットを示す図である。
FIG. 41 is a diagram showing a 16-bit color format in which 4 bits / pixel and 8 bits / pixel are converted using a CLUT.

【図42】16ビット/ピクセルのフォーマットを示す
図である。
FIG. 42 is a diagram showing a 16-bit / pixel format.

【図43】本構成例のシステムにて適用される画像情報
生成及び画像情報処理の処理の流れを示すフローチャー
トである。
[Fig. 43] Fig. 43 is a flowchart showing the flow of processing of image information generation and image information processing applied in the system of the present configuration example.

【図44】従来の画像作成装置(家庭用ゲーム機)の構
成例を示すブロック回路図である。
[Fig. 44] Fig. 44 is a block circuit diagram illustrating a configuration example of a conventional image creating device (home game machine).

【図45】従来の画像作成装置による画像作成方法の説
明に用いる図である。
FIG. 45 is a diagram used to describe an image creating method by a conventional image creating apparatus.

【符号の説明】[Explanation of symbols]

51 CPU 52 周辺デバイスコントローラ 53 メインメモリ 54 ROM 60 グラフィックシステム 61 ジオメトリトランスファエンジン(GTE) 62 グラフィックスプロセッシングユニット 63 フレームバッファ 64 画像デコーダ(MDEC) 65 ビデオ出力手段(ディスプレイ装置) 70 サウンドシステム 71 サウンドプロセッシングユニット(SPU) 72 サウンドバッファ 73 スピーカ 80 光学ディスク制御部 81 ディスクドライブ装置 82 デコーダ 83 バッファ 90 通信制御部 91 通信制御機 92 コントローラ 93 メモリカード 101 パラレルI/Oポート 102 シリアルI/Oポート 51 CPU 52 Peripheral Device Controller 53 Main Memory 54 ROM 60 Graphic System 61 Geometry Transfer Engine (GTE) 62 Graphics Processing Unit 63 Frame Buffer 64 Image Decoder (MDEC) 65 Video Output Means (Display Device) 70 Sound System 71 Sound Processing Unit (SPU) 72 Sound buffer 73 Speaker 80 Optical disk controller 81 Disk drive device 82 Decoder 83 Buffer 90 Communication controller 91 Communication controller 92 Controller 93 Memory card 101 Parallel I / O port 102 Serial I / O port

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田中 正善 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 豊 禎治 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Masayoshi Tanaka, 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) In-house inventor Sadaharu Toyo, 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】 複数のポリゴンからなる3次元画像デー
タを記憶する第1の記憶手段と、 各ポリゴン毎に指定される特性データを記憶する第2の
記憶手段と、 上記3次元画像データに透視変換を施して、表示画面に
対応する2次元画像情報に変換する変換手段と、 上記ポリゴンの特性を指定する情報と上記2次元画像情
報とを合成して、ポリゴン毎にパケット化された描画命
令を生成する描画命令生成手段とを有してなることを特
徴とする画像情報生成装置。
1. A first storage means for storing three-dimensional image data composed of a plurality of polygons, a second storage means for storing characteristic data designated for each polygon, and a perspective for the three-dimensional image data. A conversion means for performing conversion to convert into two-dimensional image information corresponding to a display screen, information for designating characteristics of the polygon and the two-dimensional image information are combined, and a drawing command packetized for each polygon. And a drawing command generating means for generating the image information.
【請求項2】 上記第2の記憶手段は各ポリゴン毎に指
定される色情報テーブルを記憶し、 上記描画命令生成手段は、上記色情報テーブルを指定す
る情報と上記2次元画像情報とを合成して、ポリゴン毎
にパケット化された描画命令を生成することを特徴とす
る請求項1記載の画像情報生成装置。
2. The second storage means stores a color information table specified for each polygon, and the drawing command generation means combines the information specifying the color information table and the two-dimensional image information. The image information generating apparatus according to claim 1, wherein the drawing command is packetized for each polygon.
【請求項3】 各ポリゴンに貼り付けるテクスチャパタ
ーン情報を記憶する第3の記憶手段をさらに有し、 上記描画命令生成手段は、上記色情報テーブルを指定す
る情報と上記テクスチャパターン情報を指定する情報と
上記2次元画像情報とを合成して、ポリゴン毎にパケッ
ト化された描画命令を生成することを特徴とする請求項
2記載の画像情報生成装置。
3. A third storage means for storing texture pattern information to be attached to each polygon is further provided, wherein the drawing command generating means specifies information for the color information table and information for specifying the texture pattern information. The image information generating apparatus according to claim 2, wherein a packetizing drawing command is generated for each polygon by synthesizing the two-dimensional image information with the two-dimensional image information.
【請求項4】 上記第2の記憶手段は各ポリゴン毎に指
定される半透明率指定データを記憶し、 上記描画命令生成手段は、上記半透明率指定データと上
記2次元画像情報とを合成して、ポリゴン毎にパケット
化された描画命令を生成することを特徴とする請求項1
記載の画像情報生成装置。
4. The second storage means stores semi-transparency designating data designated for each polygon, and the drawing command generating means synthesizes the semi-transparency designating data and the two-dimensional image information. The packetized drawing command is generated for each polygon.
The described image information generation device.
【請求項5】 上記半透明率は、モードに応じて複数種
類決められていることを特徴とする請求項4記載の画像
情報生成装置。
5. The image information generating apparatus according to claim 4, wherein a plurality of types of translucency are determined according to modes.
【請求項6】 複数のポリゴンからなる3次元画像デー
タを記憶し、 各ポリゴン毎に指定される特性データを記憶し、 上記3次元画像データに透視変換を施して、表示画面に
対応する2次元画像情報に変換し、 上記ポリゴンの特性を指定する情報と上記2次元画像情
報とを合成して、ポリゴン毎にパケット化された描画命
令を生成することを特徴とする画像情報生成方法。
6. Three-dimensional image data composed of a plurality of polygons is stored, characteristic data designated for each polygon is stored, and the three-dimensional image data is perspective-transformed to obtain a two-dimensional image corresponding to a display screen. An image information generation method characterized by converting the image information into image information, synthesizing the information designating the characteristics of the polygon and the two-dimensional image information, and generating a drawing command packetized for each polygon.
【請求項7】 各ポリゴン毎に指定される特性データと
して各ポリゴン毎に指定される色情報テーブルを記憶
し、 上記色情報テーブルを指定する情報と上記2次元画像情
報とを合成して、ポリゴン毎にパケット化された描画命
令を生成することを特徴とする請求項6記載の画像情報
生成方法。
7. A color information table specified for each polygon is stored as characteristic data specified for each polygon, and the information specifying the color information table and the two-dimensional image information are combined to create a polygon. 7. The image information generating method according to claim 6, wherein a drawing command packetized for each is generated.
【請求項8】 各ポリゴンに貼り付けるテクスチャパタ
ーン情報をさらに記憶し、 上記色情報テーブルを指定する情報と上記テクスチャパ
ターン情報を指定する情報と上記2次元画像情報とを合
成して、ポリゴン毎にパケット化された描画命令を生成
することを特徴とする請求項7記載の画像情報生成方
法。
8. The texture pattern information to be attached to each polygon is further stored, and the information for designating the color information table, the information for designating the texture pattern information, and the two-dimensional image information are combined, and each of the polygons is synthesized. The image information generating method according to claim 7, wherein a packetized drawing command is generated.
【請求項9】 各ポリゴン毎に指定される特性データと
して各ポリゴン毎に指定される半透明率指定データを記
憶し、 上記半透明率指定データと上記2次元画像情報とを合成
して、ポリゴン毎にパケット化された描画命令を生成す
ることを特徴とする請求項6記載の画像情報生成方法。
9. A semi-transparency designating data designated for each polygon is stored as characteristic data designated for each polygon, and the semi-transparency designating data and the two-dimensional image information are combined to form a polygon. 7. The image information generating method according to claim 6, wherein a drawing command packetized for each is generated.
【請求項10】 上記半透明率は、モードに応じて複数
種類決められていることを特徴とする請求項9記載の画
像情報生成方法。
10. The image information generating method according to claim 9, wherein a plurality of types of translucency are determined according to modes.
【請求項11】 複数のポリゴンからなる3次元画像デ
ータを記憶する第1の記憶手段と、 各ポリゴン毎に指定される特性データを記憶する第2の
記憶手段と、 上記3次元画像データに透視変換を施して、表示画面に
対応する2次元画像情報に変換する変換手段と、 上記ポリゴンの特性を指定する情報と上記2次元画像情
報とを合成して、ポリゴン毎にパケット化された描画命
令を生成する描画命令生成手段と、 当該生成された描画命令により指定された特性データに
基づき2次元画像を画像メモリに描画する描画手段と、 当該画像メモリから2次元画像データをテレビジョン同
期信号に同期して読み出し、表示手段に供給する供給手
段とを有してなることを特徴とする画像情報処理装置。
11. A first storage means for storing three-dimensional image data composed of a plurality of polygons, a second storage means for storing characteristic data designated for each polygon, and a perspective for the three-dimensional image data. A conversion means for performing conversion to convert into two-dimensional image information corresponding to a display screen, information for designating characteristics of the polygon and the two-dimensional image information are combined, and a drawing command packetized for each polygon. And a drawing means for drawing a two-dimensional image in the image memory based on the characteristic data specified by the generated drawing instruction, and a two-dimensional image data from the image memory into a television synchronizing signal. An image information processing apparatus comprising: a supply unit that synchronously reads and supplies the display unit.
【請求項12】 上記第2の記憶手段は各ポリゴン毎に
指定される色情報テーブルを記憶し、 上記描画命令生成手段は、上記色情報テーブルを指定す
る情報と上記2次元画像情報とを合成して、ポリゴン毎
にパケット化された描画命令を生成し、 上記描画手段は、当該生成された描画命令により指定さ
れた色情報テーブルに基づき2次元画像を画像メモリに
描画することを特徴とする請求項11記載の画像情報処
理装置。
12. The second storage means stores a color information table specified for each polygon, and the drawing command generation means combines the information specifying the color information table and the two-dimensional image information. Then, the drawing command packetized for each polygon is generated, and the drawing means draws a two-dimensional image in the image memory based on the color information table designated by the generated drawing command. The image information processing apparatus according to claim 11.
【請求項13】 各ポリゴンに貼り付けるテクスチャパ
ターン情報を記憶する第3の記憶手段をさらに有し、 上記描画命令生成手段は、上記色情報テーブルを指定す
る情報と上記テクスチャパターン情報を指定する情報と
上記2次元画像情報とを合成して、ポリゴン毎にパケッ
ト化された描画命令を生成することを特徴とする請求項
12記載の画像情報処理装置。
13. A third storage means for storing texture pattern information to be attached to each polygon is further provided, wherein the drawing command generating means is information for designating the color information table and information for designating the texture pattern information. 13. The image information processing apparatus according to claim 12, wherein a packetizing drawing command is generated for each polygon by synthesizing the two-dimensional image information with the two-dimensional image information.
【請求項14】 上記第2の記憶手段は各ポリゴン毎に
指定される半透明率指定データを記憶し、 上記描画命令生成手段は、上記半透明率指定データと上
記2次元画像情報とを合成して、ポリゴン毎にパケット
化された描画命令を生成し、 上記描画手段は、当該生成された描画命令により指定さ
れる半透明率に基づいて、先に描画されたポリゴンの画
素データと次に描画されるポリゴンの画素データとを混
合して2次元画像を画像メモリに描画することを特徴と
する請求項11記載の画像情報処理装置。
14. The second storage means stores semi-transparency designating data designated for each polygon, and the drawing command generating means synthesizes the semi-transparency designating data and the two-dimensional image information. Then, the drawing command packetized for each polygon is generated, and the drawing means, based on the translucency specified by the generated drawing command, compares the pixel data of the previously drawn polygon with the pixel data of the polygon. The image information processing apparatus according to claim 11, wherein the two-dimensional image is drawn in the image memory by mixing with the pixel data of the drawn polygon.
【請求項15】 上記半透明率は、モードに応じて複数
種類決められていることを特徴とする請求項14記載の
画像情報処理装置。
15. The image information processing apparatus according to claim 14, wherein a plurality of types of translucency are determined according to modes.
【請求項16】 複数のポリゴンからなる3次元画像デ
ータを記憶し、 各ポリゴン毎に指定される特性データを記憶し、 上記3次元画像データに透視変換を施して、表示画面に
対応する2次元画像情報に変換し、 上記ポリゴンの特性を指定する情報と上記2次元画像情
報とを合成して、ポリゴン毎にパケット化された描画命
令を生成し、 当該生成された描画命令により指定された特性データに
基づき2次元画像を画像メモリに描画し、 当該画像メモリから2次元画像データをテレビジョン同
期信号に同期して読み出し、表示手段に供給することを
特徴とする画像情報処理方法。
16. A three-dimensional image data composed of a plurality of polygons is stored, characteristic data designated for each polygon is stored, and the three-dimensional image data is perspective-transformed to obtain a two-dimensional image corresponding to a display screen. Converting to image information, synthesizing the information designating the characteristic of the polygon and the two-dimensional image information to generate a drawing command packetized for each polygon, and the characteristic specified by the generated drawing command. An image information processing method characterized in that a two-dimensional image is drawn on an image memory based on the data, the two-dimensional image data is read from the image memory in synchronization with a television synchronizing signal, and is supplied to a display means.
【請求項17】 各ポリゴン毎に指定される特性データ
として各ポリゴン毎に指定される色情報テーブルを記憶
し、 上記色情報テーブルを指定する情報と上記2次元画像情
報とを合成して、ポリゴン毎にパケット化された描画命
令を生成し、 当該生成された描画命令により指定された色情報テーブ
ルに基づき2次元画像を画像メモリに描画することを特
徴とする請求項16記載の画像情報処理方法。
17. A color information table specified for each polygon is stored as characteristic data specified for each polygon, and the information specifying the color information table and the two-dimensional image information are combined to create a polygon. 17. The image information processing method according to claim 16, wherein a drawing command packetized for each is generated, and a two-dimensional image is drawn in the image memory based on the color information table designated by the generated drawing command. .
【請求項18】 各ポリゴンに貼り付けるテクスチャパ
ターン情報をさらに記憶有し、 上記色情報テーブルを指定する情報と上記テクスチャパ
ターン情報を指定する情報と上記2次元画像情報とを合
成して、ポリゴン毎にパケット化された描画命令を生成
することを特徴とする請求項17記載の画像情報処理方
法。
18. A texture pattern information to be attached to each polygon is further stored, and the information for designating the color information table, the information for designating the texture pattern information and the two-dimensional image information are combined, and each polygon is combined. 18. The image information processing method according to claim 17, wherein the drawing command packetized in is generated.
【請求項19】 各ポリゴン毎に指定される特性データ
として各ポリゴン毎に指定される半透明率指定データを
記憶し、 上記半透明率指定データと上記2次元画像情報とを合成
して、ポリゴン毎にパケット化された描画命令を生成
し、 当該生成された描画命令により指定される半透明率に基
づいて、先に描画されたポリゴンの画素データと次に描
画されるポリゴンデータとを混合して2次元画像を画像
メモリに描画することを特徴とする請求項16記載の画
像情報処理方法。
19. A semi-transparency designation data designated for each polygon is stored as characteristic data designated for each polygon, and the semi-transparency designation data and the two-dimensional image information are combined to form a polygon. A packetized drawing command is generated for each, and the pixel data of the previously drawn polygon and the polygon data to be drawn next are mixed based on the translucency specified by the generated drawing command. The image information processing method according to claim 16, wherein the two-dimensional image is drawn in an image memory by using the above method.
【請求項20】 上記半透明率は、モードに応じて複数
種類決められていることを特徴とする請求項19記載の
画像情報処理方法。
20. The image information processing method according to claim 19, wherein a plurality of types of translucency are determined according to modes.
【請求項21】 複数のポリゴンからなる3次元画像デ
ータ、及び各ポリゴン毎に指定される特性データを、ポ
リゴン単位でパケット化して記録してなることを特徴と
する記録媒体。
21. A recording medium characterized in that three-dimensional image data composed of a plurality of polygons and characteristic data designated for each polygon are packetized and recorded in polygon units.
【請求項22】 各ポリゴン毎に色情報テーブル指定情
報をさらに記録してなることを特徴とする請求項21記
載の記録媒体。
22. The recording medium according to claim 21, further comprising color information table designation information recorded for each polygon.
【請求項23】 各ポリゴン毎に指定される半透明率指
定データをさらに記録してなることを特徴とする請求項
21記載の記録媒体。
23. The recording medium according to claim 21, further comprising semi-transparency designating data designated for each polygon.
JP31426695A 1994-12-02 1995-12-01 Image information generating apparatus and method, image information processing apparatus and method, and recording medium Expired - Fee Related JP3548642B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31426695A JP3548642B2 (en) 1994-12-02 1995-12-01 Image information generating apparatus and method, image information processing apparatus and method, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-300021 1994-12-02
JP30002194 1994-12-02
JP31426695A JP3548642B2 (en) 1994-12-02 1995-12-01 Image information generating apparatus and method, image information processing apparatus and method, and recording medium

Publications (2)

Publication Number Publication Date
JPH08212377A true JPH08212377A (en) 1996-08-20
JP3548642B2 JP3548642B2 (en) 2004-07-28

Family

ID=26562181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31426695A Expired - Fee Related JP3548642B2 (en) 1994-12-02 1995-12-01 Image information generating apparatus and method, image information processing apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP3548642B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0836871A2 (en) 1996-08-21 1998-04-22 Konami Co., Ltd. Video game machine for playing video ball game and storage medium storing video ball game program
EP1116507A2 (en) 2000-01-12 2001-07-18 Konami Corporation Game system, peripheral device thereof, control method of game system, and record medium
JP2002008053A (en) * 2000-06-02 2002-01-11 Nintendo Co Ltd Coding by variable bit field
US6580429B1 (en) 2000-01-25 2003-06-17 Mitsubishi Denki Kabushiki Kaisha Method of generating data for three-dimensional graphic recording medium and three-dimensional graphic system
WO2007043293A1 (en) * 2005-10-03 2007-04-19 Ssd Company Limited Image creating device, texture mapping device, image processor, and texture storing method
JP2010507841A (en) * 2006-10-19 2010-03-11 クゥアルコム・インコーポレイテッド Programmable blending in graphics processing unit
JP2011065677A (en) * 2000-08-23 2011-03-31 Nintendo Co Ltd Method and apparatus for direct and indirect texture processing in graphics system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0836871A2 (en) 1996-08-21 1998-04-22 Konami Co., Ltd. Video game machine for playing video ball game and storage medium storing video ball game program
EP1116507A2 (en) 2000-01-12 2001-07-18 Konami Corporation Game system, peripheral device thereof, control method of game system, and record medium
US6580429B1 (en) 2000-01-25 2003-06-17 Mitsubishi Denki Kabushiki Kaisha Method of generating data for three-dimensional graphic recording medium and three-dimensional graphic system
JP2002008053A (en) * 2000-06-02 2002-01-11 Nintendo Co Ltd Coding by variable bit field
JP4680407B2 (en) * 2000-06-02 2011-05-11 任天堂株式会社 Coding with variable bit field
JP2011065677A (en) * 2000-08-23 2011-03-31 Nintendo Co Ltd Method and apparatus for direct and indirect texture processing in graphics system
WO2007043293A1 (en) * 2005-10-03 2007-04-19 Ssd Company Limited Image creating device, texture mapping device, image processor, and texture storing method
JP5061273B2 (en) * 2005-10-03 2012-10-31 新世代株式会社 Image generation device, texture mapping device, image processing device, and texture storage method
JP2010507841A (en) * 2006-10-19 2010-03-11 クゥアルコム・インコーポレイテッド Programmable blending in graphics processing unit

Also Published As

Publication number Publication date
JP3548642B2 (en) 2004-07-28

Similar Documents

Publication Publication Date Title
US6069635A (en) Method of producing image data and associated recording medium
JP3578498B2 (en) Image information processing device
US5949409A (en) Image processing in which the image is divided into image areas with specific color lookup tables for enhanced color resolution
JP3647487B2 (en) Texture mapping device
JP4719363B2 (en) Graphics system with copy-out conversion between internal frame buffer and main memory
US7576748B2 (en) Graphics system with embedded frame butter having reconfigurable pixel formats
US7075545B2 (en) Graphics system with embedded frame buffer having reconfigurable pixel formats
JPH09212680A (en) Drawing device and drawing method
JP2528446B2 (en) Audio image processing device
JP3548642B2 (en) Image information generating apparatus and method, image information processing apparatus and method, and recording medium
EP1034821A2 (en) Game apparatus, control method for game apparatus, and recording medium with game program recorded therein
JP3348152B2 (en) Game system
JP4683760B2 (en) Graphics system with embedded frame buffer having a reconfigurable pixel format
JP3910259B2 (en) Image processing apparatus and method, and rendering apparatus and method
JPH08163560A (en) Picture information generation method, picture information processing method and recording medium
JPH08235366A (en) Device and method for generating image information, device and method for processing image information
JP3698747B2 (en) Image data generation method and image processing system
EP1182617A2 (en) Graphics system with reconfigurable embedded frame buffer and copy out conversions between embedded frame buffer and main memory
JP7083319B2 (en) Image generator and image generation method
JPH08161511A (en) Image generating device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040419

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100423

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110423

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120423

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees