JPH08163560A - Picture information generation method, picture information processing method and recording medium - Google Patents

Picture information generation method, picture information processing method and recording medium

Info

Publication number
JPH08163560A
JPH08163560A JP30002294A JP30002294A JPH08163560A JP H08163560 A JPH08163560 A JP H08163560A JP 30002294 A JP30002294 A JP 30002294A JP 30002294 A JP30002294 A JP 30002294A JP H08163560 A JPH08163560 A JP H08163560A
Authority
JP
Japan
Prior art keywords
data
run
image
bit
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP30002294A
Other languages
Japanese (ja)
Inventor
Masakazu Suzuoki
雅一 鈴置
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP30002294A priority Critical patent/JPH08163560A/en
Publication of JPH08163560A publication Critical patent/JPH08163560A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To provide the high quality picture information of a short data length by orthogonally transforming the picture information of the spatial axis of a macroblock unit, quantizing coefficient data based on the transformation, run length encoding them and generating bit streams. CONSTITUTION: The picture information of the spatial axis of the macroblock unit read from the CD-ROM buffer 83 of an optical disk control part 80 through the CPU 51 of a control system 50 is arithmetically processed at a high speed and orthogonally transformed corresponding to the instruction of the CPU 51 in the geometric transfer engine(GTE) 61 of a graphic system 60. Then, the coefficient data obtained by the transformation are quantized, the quantized coefficient data are run length encoded and the bit streams of the format of 16 bits of a run-level pair are generated and stored in the main memory 53 of the control system. By this method, the high quality picture information of the short data length capable of storing quantization step information in a first run area is generated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、情報処理により画像情
報を作成する画像情報生成方法及びその画像情報を処理
する画像情報処理方法、並びに画像情報が記録された記
録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information generating method for generating image information by information processing, an image information processing method for processing the image information, and a recording medium on which the image information is recorded.

【0002】[0002]

【従来の技術】例えば、家庭用ゲーム機やパーソナルコ
ンピュータ装置或いはグラフィックコンピュータ装置等
において、テレビジョン受像機やモニタ受像機或いはC
RTディスプレイ装置等に出力されて表示される画像は
2次元のものが殆どであり、基本的には2次元の平面的
な背景に2次元のキャラクタ等を適宜に配置して移動さ
せたり、変化させたりするような形態で画像表示が行わ
れている。
2. Description of the Related Art For example, in a home game machine, a personal computer device, a graphic computer device, or the like, a television receiver, a monitor receiver, or a C receiver.
Most of the images output and displayed on the RT display device or the like are two-dimensional. Basically, basically, a two-dimensional character or the like is appropriately arranged on a two-dimensional planar background and moved or changed. The image is displayed in such a form that the image is displayed.

【0003】しかしながら、上述したような2次元的な
画像表示や映像では、表現できる背景及びキャラクタや
それらの動きに制限があり、例えばゲームの臨場感を高
めることが困難である。
However, in the above-described two-dimensional image display and video, there are restrictions on the background and characters that can be expressed, and their movements, and it is difficult to enhance the sense of presence in a game, for example.

【0004】そこで、例えば次に示すような方法で疑似
的な3次元の画像や映像を作成することが行われてい
る。すなわち、上記キャラクタとしていくつかの方向か
ら見た画像を用意しておき、表示画面中での視点の変化
等に応じてこれらの複数画像の内から1つを選択して表
示したり、2次元の画像を奥行き方向に重ねて疑似的な
3次元画像を表現したりするような方法が挙げられる。
また、画像データを生成或いは作成する際に、いわゆる
テクスチャ(生地、地模様)の画像を多面体等の所望の
面に貼り付けるようなテクスチャマッピング方法や、画
像の色データをいわゆるカラールックアップテーブルを
通して変換することにより表示色を変化させる手法が採
られている。
Therefore, for example, a pseudo three-dimensional image or video is created by the following method. That is, as the character, images viewed from several directions are prepared, and one of these images is selected and displayed in accordance with a change in the viewpoint on the display screen, or a two-dimensional image is displayed. There is a method of expressing a pseudo three-dimensional image by superimposing the images in the depth direction.
Also, when generating or creating image data, a texture mapping method that attaches an image of a so-called texture (texture, background pattern) to a desired surface such as a polyhedron, or a so-called color lookup table for the color data of the image is used. A method of changing the display color by converting is adopted.

【0005】ここで、従来の家庭用ゲーム機の概略的な
構成の一例を図27に示す。この図27において、マイ
クロプロセッサ等から成るCPU391は、入力パッド
やジョイスティック等の入力デバイス394の操作情報
をインターフェイス393を介し、メインバス399を
通して取り出す。この操作情報の取り出しと同時に、メ
インメモリ392に記憶されている3次元画像のデータ
がビデオプロセッサ396によってソースビデオメモリ
395に転送され、記憶される。
FIG. 27 shows an example of a schematic structure of a conventional home-use game machine. In FIG. 27, a CPU 391 including a microprocessor or the like takes out operation information of an input device 394 such as an input pad or a joystick via an interface 393 and a main bus 399. Simultaneously with the extraction of this operation information, the data of the three-dimensional image stored in the main memory 392 is transferred to and stored in the source video memory 395 by the video processor 396.

【0006】また、上記CPU391は、上記ソースビ
デオメモリ395に記憶された画像を重ね合わせて表示
するための画像データの読み出し順位を上記ビデオプロ
セッサ396に送る。上記ビデオプロセッサ396は上
記画像データの読み出し順位に従って上記ソースビデオ
メモリ395から画像データを読み出し、画像を重ね合
わせて表示する。
Further, the CPU 391 sends to the video processor 396 the read order of the image data for superimposing and displaying the images stored in the source video memory 395. The video processor 396 reads the image data from the source video memory 395 according to the order of reading the image data, and displays the images in a superimposed manner.

【0007】上述のように画像を表示すると同時に、上
記取り出された操作情報中の音声情報により、オーディ
オプロセッサ397はオーディオメモリ398内に記憶
されている上記表示される画像に応じた音声データを出
力する。
At the same time as displaying the image as described above, the audio processor 397 outputs the audio data corresponding to the displayed image stored in the audio memory 398 according to the audio information in the extracted operation information. To do.

【0008】図28は、図27に示す構成をもつ家庭用
ゲーム機において、2次元画像のデータを用いて3次元
画像を出力する手順を示す図である。この図28では、
市松模様の背景画像上に円筒状の物体を3次元画像とし
て表示する場合を説明する。
FIG. 28 is a diagram showing a procedure for outputting a three-dimensional image by using the data of the two-dimensional image in the home-use game machine having the configuration shown in FIG. In FIG. 28,
A case where a cylindrical object is displayed as a three-dimensional image on a checkered background image will be described.

【0009】この図28のソースビデオメモリ395に
は、市松模様の背景画像200と、この背景画像200
上の円筒状の物体の深さ方向の断面を表す矩形の画像、
いわゆるスプライト201、202、203、204の
データが記憶されている。この矩形の画像201、20
2、203、204上の円筒の断面の画像以外の部分は
透明色で描かれている。
In the source video memory 395 of FIG. 28, a checkered background image 200 and this background image 200 are shown.
A rectangular image representing the cross-section of the upper cylindrical object in the depth direction,
Data of so-called sprites 201, 202, 203, 204 are stored. This rectangular image 201, 20
Portions other than the image of the cylindrical cross section on 2, 203, and 204 are drawn in a transparent color.

【0010】ビデオプロセッサ396内のシンクジェネ
レータ400は、表示する画像の同期信号に合わせた読
み出しアドレス信号を発生する。また、このシンクジェ
ネレータ400は、上記読み出しアドレス信号をメイン
バス399を介して図27のCPU391から与えられ
た読み出しアドレステーブル401に送る。さらに、こ
のシンクジェネレータ400は上記読み出しアドレステ
ーブル401からの情報に従って上記ソースビデオメモ
リ395内の画像データを読み出す。
The sync generator 400 in the video processor 396 generates a read address signal that matches the sync signal of the image to be displayed. Further, the sync generator 400 sends the read address signal to the read address table 401 provided from the CPU 391 of FIG. 27 via the main bus 399. Further, the sync generator 400 reads the image data in the source video memory 395 according to the information from the read address table 401.

【0011】上記読み出された画像データは、上記CP
U391により上記メインバス399を介して与えられ
たプライオリティテーブル402内の画像の重ね合わせ
順位に基づいて、重ね合わせ処理部403で順次重ね合
わせられる。この場合には、上記背景画像200が最も
順位が低く、矩形の画像201、202、203、20
4と順に順位が高くなっているため、背景画像200か
ら順次画像が重ね合わせられる。
The read image data is the CP
Based on the superposition order of the images in the priority table 402 given by the U 391 via the main bus 399, the superposition processing unit 403 sequentially superposes the images. In this case, the background image 200 has the lowest rank, and the rectangular images 201, 202, 203, and 20.
Since the rank is higher in the order of 4, the images are sequentially superposed from the background image 200.

【0012】次に、透明色処理部404において、円筒
以外の部分を背景画像で表示するために上記重ね合わせ
られた円筒の断面の画像201、202、203、20
4により表示される円筒以外の部分を透明にする処理を
施す。
Next, in the transparent color processing unit 404, the images 201, 202, 203, 20 of the cross-sections of the cylinders that have been superimposed are displayed in order to display a portion other than the cylinders as a background image.
A process for making a portion other than the cylinder displayed by 4 transparent is performed.

【0013】上述した処理により、円筒状の物体の2次
元画像のデータが図28に示す3次元画像VD0 の画像
データとして出力される。
By the above-described processing, the data of the two-dimensional image of the cylindrical object is output as the image data of the three-dimensional image VD 0 shown in FIG.

【0014】[0014]

【発明が解決しようとする課題】ところで、上記家庭用
ゲーム機において、上記メインメモリ392に供給され
る画像データは、一般に大容量の外部又は内部の補助記
憶装置から供給されるものであるが、近年はより多くの
画像データを上記補助記憶装置に蓄えるために、データ
圧縮を施すことが提案されている。
In the home game machine, the image data supplied to the main memory 392 is generally supplied from a large-capacity external or internal auxiliary storage device. In recent years, data compression has been proposed in order to store more image data in the auxiliary storage device.

【0015】ところが、近年は、よりリアルで高品質な
画像が求められている。しかし、このような高品質な画
像はデータ量が多く、上記圧縮を行ったとしてもそのデ
ータ量は膨大になる。
However, in recent years, more realistic and high quality images have been demanded. However, such a high-quality image has a large amount of data, and even if the above compression is performed, the amount of data becomes enormous.

【0016】このようなことから、上記補助記憶装置に
蓄えられる圧縮画像データに対しては、よりデータ長が
短くなる形式でかつ伸張後に得られる画像の品質も高い
ものが望まれる。
From the above, it is desired that the compressed image data stored in the auxiliary storage device be of a format in which the data length becomes shorter and the quality of the image obtained after decompression is high.

【0017】本発明は、データ長が短くて済み、画像の
品質も高いものとすることができる画像情報を生成する
画像情報生成方法及び、その画像情報を処理する画像情
報処理方法、並びに画像情報が記録された記録媒体を提
供するものである。
The present invention is directed to an image information generation method for generating image information that requires a short data length and high image quality, an image information processing method for processing the image information, and image information. To provide a recording medium on which is recorded.

【0018】[0018]

【課題を解決するための手段】本発明の画像情報生成方
法は、所定のマクロブロック単位の空間軸の画像情報に
対して直交変換を施し、得られた係数データを量子化
し、当該量子化した係数データをランレングス符号化し
てビットストリームを生成することを特徴とするもので
ある。ここで、上記直交変換してランレングス符号化し
たマクロブロックの最初のラン領域に上記量子化の際の
量子化ステップ情報を格納することができる。
According to the image information generation method of the present invention, orthogonal transformation is applied to image information on a spatial axis of a predetermined macroblock unit, the obtained coefficient data is quantized, and the quantization is performed. It is characterized in that coefficient data is run-length encoded to generate a bit stream. Here, the quantization step information at the time of the above-mentioned quantization can be stored in the first run area of the macroblock which has been orthogonally transformed and run-length encoded.

【0019】また、本発明の画像情報処理方法は、所定
のマクロブロック単位の空間軸の画像情報に対して直交
変換を施し、得られた係数データを量子化し、当該量子
化した係数データがランレングス符号化されたビットス
トリームに対して、ランレングス復号化を施し、得られ
た係数データに逆量子化を施し、当該逆量子化した係数
データを逆直交変換して、マクロブロック単位の空間軸
の画像情報を生成することを特徴とするものである。こ
こで、上記ビットストリームのマクロブロックの最初の
ラン領域に格納された量子化ステップ情報を用いて上記
逆量子化を行うことができる。
Further, according to the image information processing method of the present invention, the orthogonal transformation is performed on the image information of the spatial axis of a predetermined macroblock unit, the obtained coefficient data is quantized, and the quantized coefficient data is run. Run-length decoding is performed on the length-encoded bit stream, the obtained coefficient data is inversely quantized, the inversely quantized coefficient data is inversely orthogonally transformed, and the spatial axis in macroblock units is used. Is generated. Here, the inverse quantization can be performed using the quantization step information stored in the first run area of the macroblock of the bitstream.

【0020】また、本発明の記録媒体は、所定のマクロ
ブロック単位の空間軸の画像情報に対して直交変換を施
し、得られた係数データを量子化し、当該量子化した係
数データをランレングス符号化して生成されたビットス
トリームを記録してなることを特徴とするものである。
さらに、上記直交変換してランレングス符号化したマク
ロブロックの最初のラン領域に上記量子化の際の量子化
ステップ情報を格納することも可能である。
Further, the recording medium of the present invention performs orthogonal transform on the image information of the spatial axis of a predetermined macroblock unit, quantizes the obtained coefficient data, and quantizes the quantized coefficient data with a run length code. It is characterized in that the bit stream generated by the conversion is recorded.
Furthermore, it is also possible to store the quantization step information at the time of the above quantization in the first run area of the macroblock that has been subjected to the orthogonal transform and run-length encoded.

【0021】[0021]

【作用】本発明においては、所定のマクロブロック単位
の空間軸の画像情報が直交変換され、さらにこれを量子
化した係数データをランレングス符号化しているため、
データ長が短くなっている。また、直交変換してランレ
ングス符号化したマクロブロックの最初のラン領域に量
子化の際の量子化ステップ情報が格納されるため、マク
ロブロック毎に量子化ステップを設定できるようにな
る。
In the present invention, the image information on the spatial axis of a predetermined macroblock unit is orthogonally transformed, and the coefficient data obtained by quantizing the image information is run-length encoded.
The data length is getting shorter. Further, since the quantization step information at the time of quantization is stored in the first run area of the macroblock that has been orthogonally transformed and run-length encoded, the quantization step can be set for each macroblock.

【0022】[0022]

【実施例】以下、本発明の好ましい実施例について、図
面を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described below with reference to the drawings.

【0023】先ず、本発明実施例の画像情報生成方法の
説明に先立ち、本発明の画像情報処理方法が適用される
画像情報処理装置すなわち本発明の画像情報生成方法に
より生成された画像データを用いて3次元グラフィック
スデータを生成して表示するような画像処理システムに
ついて説明する。本実施例の画像処理システムは、例え
ば家庭用ゲーム機やパーソナルコンピュータ装置或いは
グラフィックコンピュータ装置等に適用されるものであ
り、図1の例では家庭用ゲーム機に適用した例を示して
いる。
First, prior to the description of the image information generating method of the embodiment of the present invention, an image information processing apparatus to which the image information processing method of the present invention is applied, that is, image data generated by the image information generating method of the present invention is used. An image processing system that generates and displays three-dimensional graphics data will be described. The image processing system of this embodiment is applied to, for example, a home game machine, a personal computer device, a graphic computer device, or the like, and the example of FIG. 1 shows an example applied to a home game device.

【0024】本実施例の画像処理システムは、後述する
本発明のフォーマットのデータが記録されている本発明
の記録媒体である例えば光学ディスク(例えばCD−R
OMディスク)からデータ(例えばゲームプログラム)
を読み出して実行することにより、使用者からの指示に
応じてゲームを行うようになっており、図1に示すよう
な構成を有している。
The image processing system of the present embodiment is a recording medium of the present invention in which the data of the format of the present invention described later is recorded, for example, an optical disc (for example, CD-R).
Data from OM disc) (eg game program)
By reading and executing, the game is played according to the instruction from the user, and has a configuration as shown in FIG.

【0025】すなわち、この画像処理システムは、中央
演算処理装置(CPU51)及びその周辺装置(周辺デ
バイスコントローラ52等)からなる制御系50と、フ
レームバッファ63上に描画を行うグラフィックスプロ
セッシングユニット(GPU62)等からなるグラフィ
ックシステム60と、楽音、効果音等を発生するサウン
ドプロセッシングユニット(SPU71)等からなるサ
ウンドシステム70と、補助記憶装置である光学ディス
ク(CD−ROMのディスク)ドライブ81の制御や再
生情報のデコード等を行う光学ディスク制御部80と、
使用者からの指示を入力するコントローラ92からの指
示入力及びゲームの設定等を記憶する補助メモリ(メモ
リカード93)からの入出力を制御する通信制御部90
と、上記制御系50から通信制御部90までが接続され
ているメインバスB等を備えている。
That is, the image processing system includes a control system 50 including a central processing unit (CPU 51) and its peripheral devices (peripheral device controller 52, etc.) and a graphics processing unit (GPU 62) for drawing on a frame buffer 63. ) And the like, a sound system 70 including a sound processing unit (SPU 71) that generates a musical sound, a sound effect, and the like, and an optical disk (CD-ROM disk) drive 81 that is an auxiliary storage device. An optical disc control unit 80 for decoding reproduction information,
A communication control unit 90 for controlling input / output of an instruction input from a controller 92 for inputting an instruction from a user and input / output from an auxiliary memory (memory card 93) for storing game settings and the like
And a main bus B to which the control system 50 to the communication control unit 90 are connected.

【0026】上記制御系50は、CPU51と、割り込
み制御、タイムコントロール、メモリコントロール、ダ
イレクトメモリアクセス(DMA)転送の制御等を行う
周辺デバイスコントローラ52と、例えば2メガバイト
のRAMからなる主記憶装置(メインメモリ)53と、
このメインメモリ53や上記グラフィックシステム6
0,サウンドシステム70等の管理を行ういわゆるオペ
レーティングシステム等のプログラムが格納された例え
ば512キロバイトのROM54とを備えている。
The control system 50 includes a CPU 51, a peripheral device controller 52 for controlling interrupt control, time control, memory control, direct memory access (DMA) transfer, and the like, and a main storage device (RAM) of, for example, 2 megabytes ( Main memory) 53,
The main memory 53 and the graphic system 6
0, a ROM 54 of, for example, 512 kilobytes in which programs such as a so-called operating system for managing the sound system 70 and the like are stored.

【0027】CPU51は、例えば32ビットのRIS
C(reduced instruction set computor)CPUであり、
ROM54に記憶されているオペレーティングシステム
を実行することにより装置全体の制御を行う。当該CP
U51は命令キャッシュとスクラッチパッドメモリを搭
載し、実メモリの管理も行う。
The CPU 51 is, for example, a 32-bit RIS.
C (reduced instruction set computor) CPU,
The entire device is controlled by executing the operating system stored in the ROM 54. The CP
The U51 is equipped with an instruction cache and a scratchpad memory, and also manages the real memory.

【0028】上記グラフィックシステム60は、座標変
換等の処理を行う座標計算用コプロセッサからなるジオ
メトリトランスファエンジン(GTE)61と、CPU
51からの描画指示に従って描画を行うグラフィックス
プロセッシングユニット(GPU)62と、該GPU6
2により描画された画像を記憶する例えば1メガバイト
のフレームバッファ63と、いわゆる離散コサイン変換
などの直行変換により圧縮されて符号化された画像デー
タを復号化する画像デコーダ(以下MDECと呼ぶ)6
4とを備えている。
The graphic system 60 includes a geometry transfer engine (GTE) 61, which is a co-processor for coordinate calculation for performing processing such as coordinate conversion, and a CPU.
A graphics processing unit (GPU) 62 for drawing in accordance with a drawing instruction from the GPU 51;
For example, a 1-megabyte frame buffer 63 for storing the image drawn by 2 and an image decoder (hereinafter referred to as MDEC) 6 for decoding image data compressed and encoded by orthogonal transform such as so-called discrete cosine transform
4 and.

【0029】GTE61は、例えば複数の演算を並列に
実行する並列演算機構を備え、CPU51のコプロセッ
サとして、CPU51からの演算要求に応じて座標変
換、光源計算、例えば固定小数点形式の行列やベクトル
の演算を高速に行うことができるようになっている。
The GTE 61 has, for example, a parallel operation mechanism for executing a plurality of operations in parallel, and as a coprocessor of the CPU 51, coordinate conversion, light source calculation, for example, fixed point format matrix or vector conversion in response to an operation request from the CPU 51. The operation can be performed at high speed.

【0030】具体的には、このGTE61は、1つの三
角形状のポリゴンに同じ色で描画するフラットシェーデ
ィングを行う演算の場合では、1秒間に最大150万程
度のポリゴンの座標演算を行うことができるようになっ
ており、これによってこの画像処理システムでは、CP
U51の負荷を低減すると共に、高速な座標演算を行う
ことができるようになっている。
More specifically, the GTE 61 can perform coordinate calculation of up to about 1.5 million polygons per second in the case of performing flat shading in which the same color is drawn on one triangular polygon. Therefore, in this image processing system, the CP
It is possible to reduce the load on the U51 and perform high-speed coordinate calculation.

【0031】GPU62は、CPU51からのポリゴン
描画命令に従って動作し、フレームバッファ63に対し
て多角形(ポリゴン)等の描画を行う。このGPU62
は、1秒間に最大36万程度のポリゴンの描画を行うこ
とができるようになっている。また、このGPU62
は、CPU51とは独立した2次元のアドレス空間を持
ち、そこにフレームバッファ63がマッピングされるよ
うになっている。
The GPU 62 operates according to a polygon drawing command from the CPU 51, and draws a polygon (polygon) on the frame buffer 63. This GPU62
Is capable of drawing up to about 360,000 polygons per second. In addition, this GPU62
Has a two-dimensional address space independent of the CPU 51, and the frame buffer 63 is mapped therein.

【0032】フレームバッファ63は、いわゆるデュア
ルポートRAMからなり、GPU62からの描画あるい
はメインメモリ53からの転送と、表示のための読み出
しとを同時に行うことができるようになっている。
The frame buffer 63 is composed of a so-called dual port RAM, and is capable of simultaneously performing drawing from the GPU 62 or transfer from the main memory 53 and reading for display.

【0033】このフレームバッファ63は、例えば1メ
ガバイトの容量を有し、それぞれ16ビットの横102
4で縦512の画素のマトリックスとして扱われる。
The frame buffer 63 has a capacity of, for example, 1 megabyte, and each has a 16-bit width 102.
4 is treated as a matrix of 512 vertical pixels.

【0034】このフレームバッファ63のうちの任意の
領域を例えばディスプレイ装置等のビデオ出力手段65
に出力することができるようになっている。
Video output means 65 such as a display device is provided in an arbitrary area of the frame buffer 63.
It can be output to.

【0035】また、このフレームバッファ63には、ビ
デオ出力として出力される表示領域の他に、GPU62
がポリゴン等の描画を行う際に参照するカラールックア
ップテーブル(以下CLUTと呼ぶ)が記憶されるCL
UT領域と、描画時に座標変換されてGPU62によっ
て描画されるポリゴン等の中に挿入(マッピング)され
る素材(テクスチャ)が記憶されるテクスチャ領域が設
けられている。これらのCLUT領域とテクスチャ領域
は表示領域の変更等に従って動的に変更されるようにな
っている。すなわち、このフレームバッファ63は、表
示中の領域に対して描画アクセスを実行することがで
き、また、メインメモリ53との間で高速DMA転送を
行うことも可能となっている。
In addition to the display area output as video output, the frame buffer 63 also has a GPU 62.
CL that stores a color lookup table (hereinafter referred to as CLUT) that is referred to when the polygon or the like is drawn
A UT area and a texture area for storing a material (texture) to be inserted (mapped) in a polygon or the like that is coordinate-converted at the time of drawing and drawn by the GPU 62 are provided. These CLUT area and texture area are dynamically changed according to the change of the display area and the like. That is, the frame buffer 63 can execute drawing access to the area being displayed, and can also perform high-speed DMA transfer with the main memory 53.

【0036】なお、上記GPU62は、上述のフラット
シェーディングの他にポリゴンの頂点の色から補間して
ポリゴン内の色を決めるグーローシェーディングと、上
記テクスチャ領域に記憶されているテクスチャをポリゴ
ンに張り付けるテクスチャマッピングを行うことができ
るようになっている。
In addition to the above flat shading, the GPU 62 pastes the Gouraud shading for interpolating from the colors of the vertices of the polygon to determine the color within the polygon and the texture stored in the texture area to the polygon. Texture mapping can be performed.

【0037】これらのグーローシェーディング又はテク
スチャマッピングを行う場合には、上記GTE61は、
1秒間に最大50万程度のポリゴンの座標演算を行うこ
とができる。
When performing these Gouraud shading or texture mapping, the GTE 61 is
A maximum of about 500,000 polygon coordinate operations can be performed per second.

【0038】MDEC64は、上記CPU51からの制
御により、CD−ROMディスクから読み出されてメイ
ンメモリ53に記憶されている静止画あるいは動画の画
像データを復号化して再びメインメモリ53に記憶す
る。具体的には、MDEC64は逆離散コサイン変換
(逆DCT)演算を高速に実行でき、ディスクから読み
出されたカラー静止画圧縮標準(いわゆるJPEG)や
蓄積メディア系動画像符号化標準(いわゆるMPEG、
但し本実施例ではフレーム内圧縮のみ)の圧縮データの
伸張を行うことができるようになっている。
Under the control of the CPU 51, the MDEC 64 decodes the image data of the still image or the moving image read from the CD-ROM disk and stored in the main memory 53, and stores it again in the main memory 53. Specifically, the MDEC64 can perform an inverse discrete cosine transform (inverse DCT) operation at a high speed, and a color still image compression standard (so-called JPEG) read from a disk or a storage media type moving image coding standard (so-called MPEG,
However, in the present embodiment, it is possible to decompress the compressed data (intra-frame compression only).

【0039】ところで、上記ディスクに記録される画像
データの圧縮の際には、DCT(離散コサイン変換)が
用いられるが、ここでこのDCTについて説明する。
By the way, DCT (Discrete Cosine Transform) is used when compressing the image data recorded on the disk. The DCT will be described here.

【0040】DCTは一般的には直交変換と呼ばれる線
形変換に含まれ、一種の周波数変換と考えることができ
る。空間軸のN×Nピクセルの矩形画像にDCT処理を
施すと、その画像の低周波成分が一箇所に集中する。そ
の結果をハフマン符号化することにより、データの圧縮
が成立する。すなわち、DCTとは、データの圧縮が容
易な形に変換するものであり、それ自体データサイズを
小さくする性質のものではない。実際にデータ圧縮を行
うのはハフマン符号化である。DCT変換を行うと、一
般的な画像は周波数成分が低域に集中しているため、変
換後の成分の殆どが0になり、画像を直接ハフマン符号
化するよりもはるかに高能率の圧縮が実現できる。ここ
でのハフマン符号化をVLC(Variable Length Coding)
と呼ぶ。VLCされたデータのバイト/ワード・バウン
ダリは論理的には無意味となり、単なるビットの並びで
表現されたものとなる。これをビットストリームと呼
ぶ。そして、この一連の作業は全て16×16の矩形領
域単位で行われる。この単位をマクロブロックと呼ぶ。
したがって、DCT圧縮は、マクロブロックを入力とし
てそれを圧縮し、ビットストリーム形式に変換するもの
と言うこともできる。また、画像は、DCT変換された
後に、一旦ある単位で量子化される。この量子化ステッ
プを制御することで、圧縮率を制御することができる。
一般に量子化ステップを粗くすると圧縮率が向上する。
The DCT is included in a linear transform generally called an orthogonal transform and can be considered as a kind of frequency transform. When DCT processing is performed on a rectangular image of N × N pixels on the spatial axis, low frequency components of the image are concentrated in one place. Data compression is established by Huffman encoding the result. That is, the DCT converts data into a form that can be easily compressed, and does not itself reduce the data size. It is Huffman coding that actually performs data compression. When the DCT transform is performed, since the frequency components of a general image are concentrated in the low frequency range, most of the components after the conversion become 0, which is a much more efficient compression than the direct Huffman coding of the image. realizable. Huffman coding here is VLC (Variable Length Coding)
Call. The byte / word boundary of VLC-processed data is logically meaningless, and is represented by a simple bit sequence. This is called a bitstream. Then, this series of operations are all performed in units of 16 × 16 rectangular areas. This unit is called a macro block.
Therefore, DCT compression can also be said to take a macroblock as input, compress it, and convert it into a bitstream format. Further, the image is quantized in a certain unit after being DCT-transformed. By controlling this quantization step, the compression rate can be controlled.
Generally, the coarser the quantization step, the better the compression rate.

【0041】これに対してDCTの展開は、圧縮の逆の
手順で行われる。すなわち、取り込んだビットストリー
ムを一旦VLCデコードした後、これをIDCT(逆D
CT)して元の画像を復元する。したがって、ビットス
トリームの展開は、VLCのデコード処理の後、IDC
T処理するという2つのパスから構成されることにな
る。
On the other hand, the expansion of the DCT is performed in the reverse procedure of the compression. That is, once the captured bitstream is VLC decoded, it is IDCT (inverse D
CT) to restore the original image. Therefore, the bitstream is expanded by the IDC after the VLC decoding process.
It is composed of two paths of T processing.

【0042】本発明の記録媒体(CD−ROMディス
ク)に記録される圧縮画像データは、例えば後述するよ
うに24ビットモードのフルカラーデータ(ダイレクト
カラーのデータ)である。この24ビットのフルカラー
データは、一旦DCT変換された後、ランレングス圧縮
された形式(後述するランレベルのペア)の中間データ
になされる。その後、この中間データにVLCをかけて
ビットストリームとなされ、これが本発明の記録媒体
(ディスク)に記録されるようになっている。圧縮率の
制御は、ランレベルを生成する過程で、量子化ステップ
を指定することで行うようにしている。なお、本実施例
での圧縮時には、中間データであるランレベルは出力さ
れない。より具体的に説明すると、先ず、24ビットモ
ードの16×16マクロブロックのデータは量子化さ
れ、このとき量子化ステップを指定して圧縮率が設定さ
れる。次に、この量子化されたデータはランレングス符
号化されてランレベル(中間データ)になされ、その
後、VLCによりビットストリームとなされる。
The compressed image data recorded on the recording medium (CD-ROM disc) of the present invention is, for example, 24-bit mode full color data (direct color data) as described later. The 24-bit full-color data is once DCT-converted and then converted into intermediate data in a run-length compressed format (run level pair described later). Thereafter, this intermediate data is subjected to VLC to form a bit stream, which is recorded on the recording medium (disk) of the present invention. The compression rate is controlled by designating the quantization step in the process of generating the run level. During compression in this embodiment, the run level which is the intermediate data is not output. More specifically, first, the data of the 16 × 16 macroblock in the 24-bit mode is quantized, and at this time, the compression step is set by designating the quantization step. Next, this quantized data is run-length coded to a run level (intermediate data), and then is made into a bit stream by VLC.

【0043】したがって、本発明の記録媒体に記録され
た上記圧縮画像データの上記MDEC64における展開
の際には、上記圧縮作業とは逆の作業が行われることに
なる。すなわち、ディスクから再生された圧縮画像デー
タのビットストリームは、VLCデコードされてランレ
ベルなされる。このランレベルがDCT係数データに戻
され、これがIDCTされる。その後、さらに圧縮時の
量子化ステップを用いて逆量子化されることで、16×
16のマクロブロックのデータが得られるようになる。
なお、本実施例においてDCTの対象となる画像データ
は、後述するように24ビットモードのフルカラーデー
タ(ダイレクトカラーのデータ)であるが、これを圧縮
して作られたビットストリームは、16ビットモード/
24ビットモードのいずれでも展開できるようになって
いる。なお、モードの設定は展開時に選択できるように
なっている。また、16ビットモードのデータの場合、
展開時に後述する先頭の1ビット(STPビット)のオ
ン/オフも選択可能となっている。
Therefore, when the compressed image data recorded on the recording medium of the present invention is expanded in the MDEC 64, the work opposite to the compression work is performed. That is, the bit stream of the compressed image data reproduced from the disc is VLC-decoded to be the run level. This run level is returned to the DCT coefficient data, which is IDCT. After that, it is further quantized by using the quantization step at the time of compression to obtain 16 ×
Data of 16 macroblocks can be obtained.
It should be noted that the image data to be subjected to DCT in this embodiment is full-color data in 24-bit mode (direct color data), as will be described later, but a bit stream created by compressing this is a 16-bit mode. /
It can be expanded in either 24-bit mode. The mode setting can be selected at the time of deployment. In the case of 16-bit mode data,
It is also possible to select ON / OFF of the first 1 bit (STP bit) described later at the time of expansion.

【0044】なお、上記逆DCTには処理時間がかかる
ため、CPU51と並列にMDEC64が処理を行うよ
うにしている。そのため、MDEC64へデータを転送
するための関数と、展開したデータを受け取るための関
数が用意されている。
Since the inverse DCT requires a long processing time, the MDEC 64 performs the processing in parallel with the CPU 51. Therefore, a function for transferring data to the MDEC 64 and a function for receiving the expanded data are prepared.

【0045】また、MDEC64とCPU51はお互い
にメインメモリ53を共有しながら並列に動作する。上
記CPU51からMDEC64にデータを転送するため
の関数は、CPU51がバス権を開放している間を縫
い、後述するランレベルをバックグラウンドでMDEC
64へ送信する。同様に、上記展開したデータを受け取
る関数も、後述する展開したマクロブロックをバックグ
ラウンドでメインメモリ53に転送する。
The MDEC 64 and the CPU 51 operate in parallel while sharing the main memory 53 with each other. The function for transferring data from the CPU 51 to the MDEC 64 sews while the CPU 51 is releasing the bus right, and the run level described later is MDEC in the background.
To 64. Similarly, the function for receiving the expanded data also transfers the expanded macroblock described later to the main memory 53 in the background.

【0046】また、MDEC64で展開したデータは、
必ず一旦メインメモリ53を経由してフレームバッファ
63に転送される。このとき、MDEC64とメインメ
モリ53間の送受信は非同期に行うことができる。した
がって、1フレーム分(640×240)の画像を展開
するに際して、メインメモリ53上にフレームサイズ分
のバッファを構成せずに展開することも可能である。こ
の例として、画像を16×240(15マクロブロッ
ク)の縦に細長い短冊状の領域に切り分けて、この短冊
状の領域毎にデータを受信,転送することができる。
The data expanded by MDEC64 is
It is always transferred to the frame buffer 63 via the main memory 53. At this time, transmission / reception between the MDEC 64 and the main memory 53 can be performed asynchronously. Therefore, when developing an image for one frame (640 × 240), it is possible to develop the image without constructing a buffer for the frame size in the main memory 53. As an example of this, an image can be divided into vertically elongated strip-shaped regions of 16 × 240 (15 macroblocks), and data can be received and transferred for each strip-shaped region.

【0047】上述のようなことから、本実施例のシステ
ムでは、ビットストリームを本発明の記録媒体(ディス
ク)から連続に読み込み再生することにり、動画の再生
を行うことができることになる。
From the above, in the system of this embodiment, the moving picture can be reproduced by continuously reading the bit stream from the recording medium (disk) of the present invention and reproducing it.

【0048】なお、動画の解像度とフレーム数は、展開
速度とディスクからの転送速度により決定される。MD
EC64の展開速度は、最大9000マクロブロック/
秒となっている。これは、320×240の画像を1秒
30枚の速度で展開することに当たる。この展開速度
は、圧縮率には関係なく、当然ながら、画像の解像度と
再生フレーム数は反比例する。すなわち、320×24
0の画像であれば、30フレーム/秒、640×240
であれば15フレーム/秒、60×480であれば7.
5フレーム/秒の動画が実現できる。
The resolution of the moving image and the number of frames are determined by the expansion speed and the transfer speed from the disk. MD
The expansion speed of EC64 is up to 9000 macroblocks /
Seconds. This corresponds to developing 320 × 240 images at a speed of 30 sheets per second. This expansion speed is, of course, inversely proportional to the image resolution and the number of reproduction frames, regardless of the compression rate. That is, 320 × 24
If the image is 0, 30 frames / second, 640 × 240
If so, 15 frames / second, and if 60 × 480, 7.
A movie of 5 frames / second can be realized.

【0049】一方、CD−ROMは転送レートとして、
150キロバイト/秒(標準速)、300キロバイト/
秒(倍速)のいずれかを選択できる。
On the other hand, CD-ROM has a transfer rate of
150 kilobytes / second (standard speed), 300 kilobytes /
You can select either second (double speed).

【0050】倍速再生時は、1フレームを構成するビッ
トストリームを10キロバイト(=300キロバイト/
30)以下に圧縮してCD−ROMに記録すれば、CD
−ROMから30フレーム/秒のデータが読み出せるこ
とになる。このため、例えば20キロバイトでは10フ
レーム/秒が、30キロバイトでは7.5フレーム/秒
のデータが読み出させることになる。
At the time of double speed reproduction, the bit stream constituting one frame is 10 kilobytes (= 300 kilobytes /
30) If it is compressed below and recorded on a CD-ROM,
-It will be possible to read 30 frames / second of data from the ROM. Therefore, for example, data of 10 frames / second is read at 20 kilobytes and data of 7.5 frames / second is read at 30 kilobytes.

【0051】動画再生レートは、これら2つの条件で決
まり、例えば、倍速再生時は、1フレーム(320×2
40)を構成するビットストリームを10キロバイト
(=300キロバイト/30)に圧縮し、CD−ROM
に記録すればよいことになる。この条件を満たす範囲で
あれば、フレーム数、画像解像度、圧縮率を任意に選ぶ
ことができる。
The moving image reproduction rate is determined by these two conditions. For example, during double speed reproduction, one frame (320 × 2)
40) is compressed into a bit stream of 10 kilobytes (= 300 kilobytes / 30), and the CD-ROM
You can record it in. The number of frames, the image resolution, and the compression rate can be arbitrarily selected as long as this range is satisfied.

【0052】図1に戻って、上述して伸張された画像デ
ータは、GPU62を介してフレームバッファ63に記
憶することにより、上述のGPU62によって描画され
る画像の背景として使用することができるようにもなっ
ている。
Returning to FIG. 1, the image data expanded as described above is stored in the frame buffer 63 via the GPU 62 so that it can be used as the background of the image drawn by the GPU 62. It is also becoming.

【0053】上記サウンドシステム70は、CPU51
からの指示に基づいて、楽音、効果音等を発生するサウ
ンド再生処理プロセッサ(SPU)71と、CD−RO
Mから読み出された音声,楽音等のデータや音源データ
等が記憶される例えば512キロバイトのサウンドバッ
ファ72と、SPU71によって発生される楽音、効果
音等を出力するサウンド出力手段としてのスピーカ73
とを備えている。
The sound system 70 includes a CPU 51.
A sound reproduction processor (SPU) 71 for generating a musical sound, a sound effect, etc. based on an instruction from the CD-RO
A sound buffer 72 of, for example, 512 kilobytes in which data such as voices and musical tones read from M and sound source data are stored, and a speaker 73 as a sound output means for outputting musical tones and sound effects generated by the SPU 71.
It has and.

【0054】上記SPU71は、16ビットの音声デー
タを4ビットの差分信号として適応差分符号化(ADP
CM)された音声データを再生するADPCM復号機能
と、サウンドバッファ72に記憶されている音源データ
を再生することにより、効果音等を発生する再生機能
と、サウンドバッファ72に記憶されている音声データ
等を変調させて再生する変調機能等を備えている。すな
わち、当該SPU71は、ルーピングや時間を系数とし
た動作パラメータの自動変更などの機能を持つADPC
M音源24ボイスを内蔵し、CPU51からの操作によ
り動作する。また、SPU71は、サウンドバッファ7
2がマッピングされた独自のアドレス空間を管理し、C
PU51からサウンドバッファ72にADPCMデータ
を転送し、キーオン/キーオフやモジュレーション情報
を直接渡すことによりデータを再生する。
The SPU 71 uses 16-bit audio data as a 4-bit differential signal by adaptive differential encoding (ADP).
CM) ADPCM decoding function for reproducing the voice data, a reproduction function for generating a sound effect by reproducing the sound source data stored in the sound buffer 72, and the voice data stored in the sound buffer 72. It has a modulation function and the like for modulating and reproducing the same. That is, the SPU 71 is an ADPC having functions such as looping and automatic change of operating parameters with time as a coefficient.
It has 24 voices of M sound source built in and operates by an operation from the CPU 51. Also, the SPU 71 is a sound buffer 7.
2 manages its own address space mapped to C,
The ADPCM data is transferred from the PU 51 to the sound buffer 72, and the data is reproduced by directly passing the key-on / key-off and the modulation information.

【0055】このような機能を備えることによってこの
サウンドシステム70は、CPU51からの指示によっ
てサウンドバッファ72に記録された音声データ等に基
づいて楽音、効果音等を発生するいわゆるサンプリング
音源として使用することができるようになっている。
By having such a function, the sound system 70 can be used as a so-called sampling sound source for generating a musical sound, a sound effect, etc. based on the audio data recorded in the sound buffer 72 according to an instruction from the CPU 51. You can do it.

【0056】上記光学ディスク制御部80は、CD−R
OMディスクである光学ディスクに記録されたプログラ
ム、データ等を再生するディスクドライブ装置81と、
例えばエラー訂正(ECC)符号が付加されて記録され
ているプログラム、データ等を復号するデコーダ82
と、ディスクドライブ装置81からの再生データを一時
的に記憶することにより、CD−ROMディスクからの
読み出されたデータを記憶する例えば32キロバイトの
バッファ83とを備えている。すなわち、当該光学ディ
スク制御部80は、上記ドライブ装置81やデコーダ8
2等のディスクの読み出しを行うために必要な部品類か
ら構成されている。なお、ここでは、ディスクフォーマ
ットとしてCD−DA、CD−ROM XAをサポート
できるようになっている。なお、デコーダ82はサウン
ドシステム70の一部も構成している。
The optical disc controller 80 is a CD-R.
A disc drive device 81 for reproducing programs, data, etc. recorded on an optical disc which is an OM disc;
For example, a decoder 82 for decoding a program, data, etc. recorded with an error correction (ECC) code added
And a buffer 83 of, for example, 32 kilobytes for storing the read data from the CD-ROM disc by temporarily storing the reproduced data from the disc drive device 81. That is, the optical disc control unit 80 includes the drive device 81 and the decoder 8
It is composed of parts necessary for reading a disc such as a second disc. It should be noted that here, it is possible to support CD-DA and CD-ROM XA as the disc format. The decoder 82 also constitutes part of the sound system 70.

【0057】また、ディスクドライブ装置81で再生さ
れるディスクに記録されている音声データとしては、上
述のADPCMデータ(CD−ROM XAのADPC
Mデータ等)の他に音声信号をアナログ/デジタル変換
したいわゆるPCMデータがある。
As the audio data recorded on the disc reproduced by the disc drive device 81, the above-mentioned ADPCM data (ADPC of the CD-ROM XA is used.
In addition to M data), there is so-called PCM data obtained by analog / digital converting a voice signal.

【0058】ADPCMデータとして、例えば16ビッ
トのデジタルデータの差分を4ビットで表わして記録さ
れている音声データは、デコーダ82で誤り訂正と復号
化がなされた後、上述のSPU71に供給され、SPU
71でデジタル/アナログ変換等の処理が施された後、
スピーカ73を駆動するために使用される。
As ADPCM data, for example, audio data recorded by expressing the difference of 16-bit digital data by 4 bits is error-corrected and decoded by the decoder 82, and then supplied to the above-mentioned SPU 71, where it is sent to the SPU.
After processing such as digital / analog conversion at 71,
It is used to drive the speaker 73.

【0059】また、PCMデータとして、例えば16ビ
ットのデジタルデータとして記録されている音声データ
は、デコーダ82で復号化された後、スピーカ73を駆
動するために使用される。なお、当該デコーダ82のオ
ーディオ出力は、一旦SPU71に入り、当該SPU出
力とミックスされ、リバーブユニットを経由して最終の
オーディオ出力となる。
Audio data recorded as PCM data, for example, 16-bit digital data, is decoded by the decoder 82 and then used to drive the speaker 73. The audio output of the decoder 82 once enters the SPU 71, is mixed with the SPU output, and becomes the final audio output via the reverb unit.

【0060】また、通信制御部90は、メインバスBを
介してCPU51との通信の制御を行う通信制御デバイ
ス91と、使用者からの指示を入力するコントローラ9
2と、ゲームの設定等を記憶するメモリカード93とを
備えている。
Further, the communication control unit 90 controls the communication with the CPU 51 via the main bus B, and the controller 9 for inputting an instruction from the user.
2 and a memory card 93 for storing game settings and the like.

【0061】コントローラ92は、使用者の意図をアプ
リケーションに伝達するインタフェースであり、使用者
からの指示を入力するために、例えば16個の指示キー
を有し、通信制御デバイス91からの指示に従って、こ
の指示キーの状態を、同期式通信により、通信制御デバ
イス91に毎秒60回程度送信する。そして、通信制御
デバイス91は、コントローラ92の指示キーの状態を
CPU51に送信する。なお、コントローラ92は、本
体に2個のコネクタを有し、その他にマルチタップを使
用して多数のコントローラを接続することも可能となっ
ている。
The controller 92 is an interface for transmitting the intention of the user to the application, and has, for example, 16 instruction keys for inputting an instruction from the user, and according to the instruction from the communication control device 91, The state of this instruction key is transmitted to the communication control device 91 about 60 times per second by synchronous communication. Then, the communication control device 91 transmits the state of the instruction key of the controller 92 to the CPU 51. The controller 92 has two connectors on the main body, and in addition, it is possible to connect a large number of controllers using a multi-tap.

【0062】これにより、使用者からの指示がCPU5
1に入力され、CPU51は、実行しているゲームプロ
グラム等に基づいて使用者からの指示に従った処理を行
う。
As a result, an instruction from the user is sent to the CPU 5
1 is input to the CPU 51, and the CPU 51 performs processing according to an instruction from the user based on the game program or the like being executed.

【0063】また、CPU51は、実行しているゲーム
の設定等を記憶する必要があるときに、該記憶するデー
タを通信制御デバイス91に送信し、通信制御デバイス
91はCPU51からのデータをメモリカード93に記
憶する。
When it is necessary to store the settings of the game being executed, the CPU 51 sends the stored data to the communication control device 91, and the communication control device 91 sends the data from the CPU 51 to the memory card. Store in 93.

【0064】このメモリカード93は、メインバスBか
ら分離されているため、電源を入れた状態で、着脱する
ことができるようになっている。これにより、ゲームの
設定等を複数のメモリカード93に記憶することができ
るようになっている。
Since this memory card 93 is separated from the main bus B, it can be attached and detached while the power is on. As a result, game settings and the like can be stored in the plurality of memory cards 93.

【0065】また、本実施例システムは、メインバスB
に接続された16ビットパラレル入出力(I/O)ポー
ト101と、非同期式のシリアル入出力(I/O)ポー
ト102とを備えている。
Further, the system of this embodiment has a main bus B.
A 16-bit parallel input / output (I / O) port 101 and an asynchronous serial input / output (I / O) port 102 which are connected to each other.

【0066】そして、パラレルI/Oポート101を介
して周辺機器との接続を行うことができるようになって
おり、また、シリアルI/Oポート102を介して他の
ビデオゲーム装置等との通信を行うことができるように
なっている。
The parallel I / O port 101 can be connected to peripheral devices, and the serial I / O port 102 can be used to communicate with other video game devices. To be able to do.

【0067】ところで、上記メインメモリ53、GPU
62、MDEC64及びデコーダ82等の間では、プロ
グラムの読み出し、画像の表示あるいは描画等を行う際
に、大量の画像データを高速に転送する必要がある。
By the way, the main memory 53, the GPU
A large amount of image data needs to be transferred at high speed between the 62, the MDEC 64, the decoder 82, and the like when reading a program, displaying an image, drawing, or the like.

【0068】このため、この画像処理システムでは、上
述のようにCPU51を介さずに周辺デハイスコントロ
ーラ52からの制御により上記メインメモリ53、GP
U62、MDEC64及びデコーダ82等の間で直接デ
ータの転送を行ういわゆるDMA転送を行うことができ
るようになっている。
Therefore, in this image processing system, the main memory 53, GP is controlled by the control from the peripheral device controller 52 without the intervention of the CPU 51 as described above.
It is possible to perform so-called DMA transfer for directly transferring data between the U62, MDEC 64, the decoder 82 and the like.

【0069】これにより、データ転送によるCPU51
の負荷を低減させることができ、高速なデータの転送を
行うことができようになっている。
This allows the CPU 51 to transfer data.
It is possible to reduce the load and to perform high-speed data transfer.

【0070】このビデオゲーム装置では、電源が投入さ
れると、CPU51が、ROM54に記憶されているオ
ペレーティングシステムを実行する。
In this video game device, when the power is turned on, the CPU 51 executes the operating system stored in the ROM 54.

【0071】このオペレーティングシステムに実行によ
り、CPU51は、上記グラフィックシステム60、サ
ウンドシステム70等の制御を行う。
When executed by this operating system, the CPU 51 controls the graphic system 60, the sound system 70 and the like.

【0072】また、オペレーティングシステムが実行さ
れると、CPU51は、動作確認等の装置全体の初期化
を行った後、光学ディスク制御部80を制御して、光学
ディスクに記録されているゲーム等のプログラムを実行
する。
When the operating system is executed, the CPU 51 controls the optical disc control unit 80 after initialization of the entire device such as operation confirmation and controls the game etc. recorded on the optical disc. Run the program.

【0073】このゲーム等のプログラムの実行により、
CPU51は、使用者からの入力に応じて上記グラフィ
ックシステム60、サウンドシステム70等を制御し
て、画像の表示、効果音、楽音の発生を制御するように
なっている。
By executing the program such as this game,
The CPU 51 controls the graphic system 60, the sound system 70, etc. according to an input from the user to control the display of images, the generation of sound effects, and the generation of musical sounds.

【0074】次に、本実施例の画像処理システムにおけ
るディスプレイ上への表示について説明する。
Next, the display on the display in the image processing system of this embodiment will be described.

【0075】上記GPU62は、フレームバッファ63
4内の任意の矩形領域の内容を、そのまま上記ビデオ出
力手段65の例えばCRT等のディスプレイ上に表示す
る。この領域を以下表示エリアと呼ぶ。上記矩形領域と
ディスプレイ画面表示の関係は、図2に示すようになっ
ている。
The GPU 62 has a frame buffer 63.
The content of the arbitrary rectangular area in 4 is displayed as it is on the display of the video output means 65, such as a CRT. This area is hereinafter referred to as a display area. The relationship between the rectangular area and the display on the display screen is as shown in FIG.

【0076】また、上記GPU62は、次の10個の画
面モードをサポートしている。
Further, the GPU 62 supports the following 10 screen modes.

【0077】 〔モード〕 〔標準解像度〕 備考 モード0 256(H)×240(V) ノンインターレス モード1 320(H)×240(V) ノンインターレス モード2 512(H)×240(V) ノンインターレス モード3 640(H)×240(V) ノンインターレス モード4 256(H)×480(V) インターレス モード5 320(H)×480(V) インターレス モード6 512(H)×480(V) インターレス モード7 640(H)×480(V) インターレス モード8 384(H)×240(V) ノンインターレス モード9 384(H)×480(V) インターレス 画面サイズすなわちディスプレイ画面上のピクセル数は
可変で、図3のように、水平方向、垂直方向それぞれ独
立に表示開始位置(座標(DTX,DTY))、表示終
了位置(座標(DBX,DBY))を指定することがで
きる。
[Mode] [Standard resolution] Remarks Mode 0 256 (H) × 240 (V) Non-interlace mode 1 320 (H) × 240 (V) Non-interlace mode 2 512 (H) × 240 (V) Non-interlace mode 3 640 (H) × 240 (V) Non-interlace mode 4 256 (H) × 480 (V) Interless mode 5 320 (H) × 480 (V) Interless mode 6 512 (H) × 480 (V) Interless mode 7 640 (H) × 480 (V) Interless mode 8 384 (H) × 240 (V) Non-interlace mode 9 384 (H) × 480 (V) Interless screen size or display The number of pixels on the screen is variable, and as shown in FIG. 3, the display start position (coordinates (DTX, DTY)) and the display end position (coordinates (DBX, DBY)) can be specified independently in the horizontal and vertical directions. You can

【0078】また、各座標に指定可能な値と画面モード
との関係は、以下のようになっている。なお、座標値の
DTX,DBXは4の倍数になるように設定する必要が
ある。したがって、最小画面サイズは、横4ピクセル、
縦2ピクセル(ノンインターレス時)又は4ピクセル
(インターレス時)になる。
The relationship between the value that can be designated for each coordinate and the screen mode is as follows. The coordinate values DTX and DBX must be set to be a multiple of 4. Therefore, the minimum screen size is 4 pixels wide,
2 pixels vertically (when non-interlaced) or 4 pixels (when interlaced).

【0079】〔X座標の指定可能範囲〕 〔モード〕 〔DTX〕 〔DBX〕 0,4 0〜276 4〜280 1,5 0〜348 4〜352 2,6 0〜556 4〜560 3,7 0〜700 4〜704 8,9 0〜396 4〜400 〔Y座標の指定可能範囲〕 〔モード〕 〔DTY〕 〔DBY〕 0〜3,8 0〜241 2〜243 4〜7,9 0〜480 4〜484 次に、GPU62は、表示色数に関するモードとして、
16ビットダイレクトモード(32768色)と、24
ビットダイレクトモード(フルカラー)の2つをサポー
トしている。上記16ビットダイレクトモード(以下1
6ビットモードと呼ぶ)は32768色表示モードであ
る。この16ビットモードでは、24ビットダイレクト
モード(以下24ビットモードと呼ぶ)に較べ表示色数
に限りはあるが、描画時のGPU62内部での色計算は
24ビットで行われ、また、いわゆるディザ機能も搭載
しているので、疑似フルカラー(24ビットカラー)表
示が可能となっている。また、上記24ビットモード
は、16777216色(フルカラー)表示のモードで
ある。但し、フレームバッファ63内に転送されたイメ
ージデータの表示(ビットマップ表示)のみが可能で、
GPU62の描画機能を実行することはできない。ここ
で、1ピクセルのビット長は24ビットとなるが、フレ
ームバッファ63上での座標や表示位置の値は16ビッ
トを基準として指定する必要がある。すなわち、640
×480の24ビット画像データは、フレームバッファ
63中では960×480として扱われる。また、前記
座標値DBXは8の倍数になるように設定する必要があ
り、したがって、この24ビットモードでの最小画面サ
イズは横8×縦2ピクセルになる。
[Specifiable Range of X Coordinate] [Mode] [DTX] [DBX] 0,40 to 276 4 to 280 1,5 0 to 348 4 to 352 2,6 0 to 556 4 to 560 3,7 0 to 700 4 to 704 8,9 0 to 396 4 to 400 [Specifiable range of Y coordinate] [Mode] [DTY] [DBY] 0 to 3, 8 0 to 241 2 to 243 4 to 7, 90 0 480 4 to 484 Next, the GPU 62 sets, as a mode relating to the number of display colors,
16-bit direct mode (32768 colors), 24
It supports two bit direct modes (full color). 16-bit direct mode (1 below)
The 6-bit mode) is a 32768 color display mode. In the 16-bit mode, the number of display colors is limited as compared with the 24-bit direct mode (hereinafter referred to as the 24-bit mode), but the color calculation inside the GPU 62 at the time of drawing is performed by 24 bits, and the so-called dither function is also used. Since it is also equipped with, it is possible to display pseudo full color (24-bit color). The 24-bit mode is a mode for displaying 16777216 colors (full color). However, only the image data transferred in the frame buffer 63 can be displayed (bitmap display),
The drawing function of the GPU 62 cannot be executed. Here, the bit length of one pixel is 24 bits, but the values of coordinates and display position on the frame buffer 63 must be specified with 16 bits as a reference. That is, 640
The x480 24-bit image data is handled as 960x480 in the frame buffer 63. Further, it is necessary to set the coordinate value DBX to be a multiple of 8. Therefore, the minimum screen size in this 24-bit mode is 8 horizontal pixels × 2 vertical pixels.

【0080】また、GPU62には次のような描画機能
が搭載されている。
The GPU 62 has the following drawing function.

【0081】先ず、1×1ドット〜256×256ドッ
トのスプライトに対して、4ビットCLUT(4ビット
モード、16色/スプライト)や8ビットCLUT(8
ビットモード、256色/スプライト),16ビットC
LUT(16ビットモード、32768色/スプライ
ト)等が可能なスプライト描画機能と、ポリゴン(三角
形や四角形等の多角形)の各頂点の画面上の座標を指定
して描画を行うと共に、ポリゴン内部を同一色で塗りつ
ぶすフラットシェーディング、各頂点に異なる色を指定
して内部をグラデーションするグーローシェーディン
グ、ポリゴン表面に2次元のイメージデータ(テクスチ
ャパターン)を用意して張り付けるテクスチャマッピン
グ等を行うポリゴン描画機能と、グラデーションが可能
な直線描画機能と、CPU51からフレームバッファ6
3への転送、フレームバッファ63からCPU51への
転送、フレームバッファ63からフレームバッファ63
への転送等のイメージ転送機能と、その他の機能とし
て、各ピクセルの平均をとって半透明化する機能(各ピ
クセルのピクセルデータを所定比率αで混合することか
らαブレンディング機能と呼ばれる)、色の境界にノイ
ズを乗せてぼかすディザ機能、描画エリアを越えた部分
を表示しない描画クリッピング機能、描画エリアに応じ
て描画原点を動かすオフセット指定機能等がある。
First, for a sprite of 1 × 1 dot to 256 × 256 dots, a 4-bit CLUT (4-bit mode, 16 colors / sprite) or an 8-bit CLUT (8
Bit mode, 256 colors / sprite), 16-bit C
A sprite drawing function capable of LUT (16-bit mode, 32768 colors / sprite), etc. and drawing is performed by designating the coordinates of each vertex of a polygon (polygon such as triangle or quadrangle) on the screen, and Polygon drawing function that performs flat shading that fills with the same color, Gouraud shading that specifies different colors for each vertex and gradation inside, and texture mapping that prepares and pastes two-dimensional image data (texture pattern) on the polygon surface. And a linear drawing function capable of gradation, and the CPU 51 to the frame buffer 6
3, transfer from the frame buffer 63 to the CPU 51, transfer from the frame buffer 63 to the frame buffer 63
Image transfer function such as transfer to the other, and other functions that take the average of each pixel and make it semi-transparent (called the α blending function because the pixel data of each pixel is mixed at a predetermined ratio α), color There is a dither function that blurs noise on the boundary of, a drawing clipping function that does not display the portion beyond the drawing area, an offset specification function that moves the drawing origin according to the drawing area, and so on.

【0082】また、描画を行う座標系は符号付きの11
ビットを単位としており、X,Yそれぞれに−1024
〜+1023の値をとる。また、図4に示すように、本
実施例でのフレームバッファ63のサイズは1024×
512となっているので、はみ出した部分は折り返すよ
うになっている。描画座標の原点は、座標値のオフセッ
ト値を任意に設定する機能により、フレームバッファ6
3内で自由に変更することができる。また、描画は、描
画クリッピング機能により、フレームバッファ63内の
任意の矩形領域に対してのみ行われる。
The coordinate system for drawing is 11 with a sign.
Bit is used as a unit, and X- and Y-1024
It takes a value of +1023. Further, as shown in FIG. 4, the size of the frame buffer 63 in this embodiment is 1024 ×
Since it is 512, the protruding portion is folded back. The origin of the drawing coordinates can be set to the frame buffer 6 by the function of arbitrarily setting the offset value of the coordinate value.
It can be changed freely within 3. Drawing is performed only on an arbitrary rectangular area in the frame buffer 63 by the drawing clipping function.

【0083】さらに、GPU62は、最大256×25
6ドットのスプライトをサポートしており、縦,横それ
ぞれの値を自由に設定することができる。
Further, the GPU 62 has a maximum of 256 × 25.
It supports 6-dot sprites, and the vertical and horizontal values can be set freely.

【0084】上記スプライトに張りつけるイメージデー
タ(スプライトパターン)は、図5に示すように、フレ
ームバッファ63の非表示領域に配置する。スプライト
パターンは、描画コマンド実行に先立ってフレームバッ
ファ63に転送される。スプライトパターンは、256
×256ピクセルを1ページとして、フレームバッファ
63上にメモリの許す限り何枚でも置くことができ、こ
の256×256の領域をテクスチャページと呼んでい
る。1枚のテクスチャページの場所は、描画コマンドの
TSBと呼ぶテクスチャページの位置(アドレス)指定
のためのパラメータに、ページ番号を指定することで決
定される。
The image data (sprite pattern) attached to the sprite is arranged in the non-display area of the frame buffer 63, as shown in FIG. The sprite pattern is transferred to the frame buffer 63 prior to executing the drawing command. The sprite pattern is 256
As many as 256 pixels can be placed on the frame buffer 63 as one page as long as the memory allows, and this 256 × 256 area is called a texture page. The location of one texture page is determined by designating the page number as a parameter for designating the position (address) of the texture page called TSB of the drawing command.

【0085】スプライトパターンには、4ビットCLU
T(4ビットモード)、8ビットCLUT(8ビットモ
ード)、16ビットCLUT(16ビットモード)の3
種類の色モードがある。4ビットCLUT及び8ビット
CLUTの色モードでは、CLUTを使用する。
The sprite pattern has a 4-bit CLU.
T (4 bit mode), 8 bit CLUT (8 bit mode), 16 bit CLUT (16 bit mode) 3
There are different color modes. In the 4-bit CLUT and 8-bit CLUT color modes, the CLUT is used.

【0086】このCLUTとは、図6に示すように、最
終的に表示される色を表す3原色のR,G,B値が16
乃至256個、フレームバッファ63上に並んだもので
ある。各R,G,B値はフレームバッファ63上の左か
ら順に番号付けされており、スプライトパターンはこの
番号により各ピクセルの色を表す。また、CLUTはス
プライト単位で選択でき、全てのスプライトに対して独
立したCLUTを持つことも可能である。また、図6に
おいて、1個のエントリは16ビットモードの1ピクセ
ルと同じ構造となっており、したがって、1セットのC
LUTは1×16(4ビットモード時)、1×255
(8ビットモード時)のイメージデータと等しくなる。
フレームバッファ63内でのCLUTの格納位置は、描
画コマンド内のCBAと呼ぶCLUTの位置(アドレ
ス)指定のためのパラメータに、使用するCLUTの左
端の座標を指定することで決定する。
As shown in FIG. 6, the CLUT means that the R, G, and B values of the three primary colors representing the finally displayed color are 16
256 to 256 are arranged on the frame buffer 63. Each R, G, B value is numbered in order from the left on the frame buffer 63, and the sprite pattern represents the color of each pixel by this number. Further, the CLUT can be selected for each sprite, and it is possible to have an independent CLUT for all sprites. Further, in FIG. 6, one entry has the same structure as one pixel in 16-bit mode, and therefore one set of C
LUT is 1 × 16 (in 4-bit mode), 1 × 255
It becomes equal to the image data (in 8-bit mode).
The storage position of the CLUT in the frame buffer 63 is determined by specifying the coordinates of the left end of the CLUT to be used as a parameter for specifying the position (address) of the CLUT called CBA in the drawing command.

【0087】さらに、スプライト描画の概念を模式的に
示すと図7のように表すことができる。なお、図7中の
描画コマンドのU,Vはテクスチャページのどの位置か
を横(U),縦(V)で指定するパラメータであり、
X,Yは描画エリアの位置を指定するためのパラメータ
である。
Further, the concept of sprite drawing can be schematically shown as shown in FIG. Note that U and V of the drawing command in FIG. 7 are parameters that specify which position on the texture page in horizontal (U) and vertical (V),
X and Y are parameters for designating the position of the drawing area.

【0088】また、GPU62は、動画表示の方式とし
て、フレームダブルバッファリングという手法を用いる
ようにしている。このフレームダブルバッファリングと
は、図8に示すように、フレームバッファ63上に2つ
の矩形領域を用意し、一方のエリアに描画をしている間
はもう片側を表示し、描画が終了したら2つのエリアを
お互いに交換するものである。これにより、書き換えの
様子が表示されるのを回避することができることにな
る。なお、バッファの切り換え操作は、垂直帰線期間内
に行う。また、GPU62では、描画の対象となる矩形
領域と座標系の原点を自由に設定できるので、この2つ
を移動させることにより、複数のバッファを実現するこ
とも可能である。
Further, the GPU 62 uses a method called frame double buffering as a moving image display method. This frame double buffering means, as shown in FIG. 8, that two rectangular areas are prepared on the frame buffer 63, the other side is displayed while drawing in one area, and 2 is displayed when drawing is completed. The two areas are exchanged for each other. This makes it possible to avoid displaying the rewriting state. The buffer switching operation is performed within the vertical blanking period. Further, in the GPU 62, since the rectangular area to be drawn and the origin of the coordinate system can be freely set, it is possible to realize a plurality of buffers by moving these two.

【0089】次に、前記MDEC64の具体的構成につ
いて、図9を用いて説明する。
Next, a specific structure of the MDEC 64 will be described with reference to FIG.

【0090】当該MDEC64は、端子170によって
メインバスBと接続されている。メインバスBを介して
供給される圧縮符号化された画像データは、RAMから
なる入力バッファ171を介してコマンドデコーダ17
2に送られる。当該コマンドデコーダ172では後述す
るコマンドの解析を行い、これ以降の処理はコマンドに
応じてなされる。
The MDEC 64 is connected to the main bus B by the terminal 170. The compression-coded image data supplied via the main bus B is sent to the command decoder 17 via the input buffer 171 composed of a RAM.
Sent to 2. The command decoder 172 analyzes a command to be described later, and subsequent processing is performed according to the command.

【0091】上記コマンドデコーダ172の出力データ
は、ランレングスデコーダ173に送られる。当該ラン
レングスデコーダ173ではVLC(可変長符号)の展
開(復号化)と前記ランレベルのDCT係数への変換を
行い、その復号化データをFIFOメモリ174に送
る。当該FIFOメモリ174から読み出されたデータ
は、逆量子化器175にて符号化時に施された量子化に
対応する逆量子化処理が行われる。このとき、逆量子化
器175における逆量子化のためのステップサイズは、
ステップサイズ発生回路191内に配される後述する逆
量子化マトリクス(IQマトリクス)テーブルに基づい
て決定される。
The output data of the command decoder 172 is sent to the run length decoder 173. The run-length decoder 173 performs expansion (decoding) of VLC (variable length code) and conversion into the run-level DCT coefficient, and sends the decoded data to the FIFO memory 174. The data read from the FIFO memory 174 is subjected to inverse quantization processing corresponding to the quantization performed at the time of encoding by the inverse quantizer 175. At this time, the step size for inverse quantization in the inverse quantizer 175 is
It is determined based on an inverse quantization matrix (IQ matrix) table, which will be described later, arranged in the step size generation circuit 191.

【0092】上記逆量子化器175からの逆量子化され
たDCT係数データは、IDCT回路176に送られ
る。当該IDCT回路176では、符号化時に行われた
離散コサイン変換に対応する逆離散コサイン変換の処理
が行われる。このとき、当該IDCT回路176におけ
るIDCTのための後述するIDCTマトリクステーブ
ルは、IDCTマトリクス回路192が格納している。
The inversely quantized DCT coefficient data from the inverse quantizer 175 is sent to the IDCT circuit 176. The IDCT circuit 176 performs an inverse discrete cosine transform process corresponding to the discrete cosine transform performed at the time of encoding. At this time, the IDCT matrix circuit 192 stores the IDCT matrix table described later for the IDCT in the IDCT circuit 176.

【0093】上記IDCT回路176からは、後述する
RGBモード又はRAWモードの画像データが出力され
る。RGBモードの画像データは、FIFOメモリ17
8を介して、コンバータ179に送られ、ここで(Y,
Cb,Cr)から(R,G,B)への変換が行われ、そ
の後パッキングロジック180に送られ、ここで所定の
パック単位のデータの並びに変換される。また、上記R
AWモードの画像データは、直接パッキングロジック1
80に送られる。当該パッキングロジック180の出力
は、出力バッファ190で一旦蓄えられた後、端子17
0を介してメインバスBに出力される。
The IDCT circuit 176 outputs image data in RGB mode or RAW mode, which will be described later. The image data in the RGB mode is stored in the FIFO memory 17
8 to the converter 179, where (Y,
The conversion from (Cb, Cr) to (R, G, B) is performed, and then the data is sent to the packing logic 180, where the data of a predetermined pack unit is converted. Also, the above R
AW mode image data can be directly packed by logic 1
Sent to 80. The output of the packing logic 180 is temporarily stored in the output buffer 190, and then the terminal 17
It is output to the main bus B via 0.

【0094】次に、本実施例の画像処理システムが扱う
本発明のデータフォーマットについて説明する。
Next, the data format of the present invention handled by the image processing system of this embodiment will be described.

【0095】前記MDEC64は、ホストシステム(C
PU51)より汎用ポートに書き込まれるコマンドを順
次実行する。コマンドは大きく分けて、IDCT(逆離
散コサイン変換)コマンド、IQ(逆量子化)テーブル
設定コマンド(IQ mattix cofficients setting-up com
mand) 、IDCTマトリクス設定コマンド(IDCT mattix
cofficients setting-up command)がある。
The MDEC 64 is a host system (C
The commands written from the PU 51) to the general-purpose port are sequentially executed. The commands are roughly divided into IDCT (inverse discrete cosine transform) command and IQ (inverse quantization) table setting command (IQ mattix cofficients setting-up com
mand), IDCT matrix setting command (IDCT mattix
cofficients setting-up command).

【0096】汎用ポートは入出力それぞれ、一度に32
ワード(=128バイト)ワードまでを書き込むことが
できる。汎用ポートにはCPU51から直接リード/ラ
イトする場合(I/O転送)、DMA転送の場合の両方
が可能である。長いコマンドの場合、コマンドの一部を
I/O転送し、残りをDMA転送することもできる。D
MA転送は32ワード単位で転送できる。
The general-purpose port has 32 inputs and 32 outputs at a time.
Up to word (= 128 bytes) words can be written. Both general read / write from the CPU 51 (I / O transfer) and DMA transfer are possible. In the case of a long command, a part of the command can be transferred by I / O and the rest can be transferred by DMA. D
MA transfer can be performed in units of 32 words.

【0097】IDCTコマンド(コマンドコード=01
h)は、コマンドコードの後にブロックデータ列を与え
る。コマンドコードは、図10に示す通りである。な
お、図中のOFMは出力フォーマットであり、00のと
き復号結果を4ビットRAWモードで出力し、01のと
き復号結果を8ビットRAWモードで出力し、10のと
き復号結果を24ビットRGBモードで出力し、11の
とき復号結果を16ビットRGBモードで出力する。S
GNはサインビットで、0のとき出力ピクセルを0から
255でクリップして符号無しで出力し、1のとき出力
ピクセルを−127から127でクリップして符号付き
で出力する。STPは16ビットRGBピクセルの最上
位ビットを指定する。SIZEはコマンドに続きデータ
のワード数である。
IDCT command (command code = 01
h) gives a block data string after the command code. The command code is as shown in FIG. In the figure, OFM is an output format. When 00, the decoding result is output in 4-bit RAW mode, when 01, the decoding result is output in 8-bit RAW mode, and when it is 10, the decoding result is 24-bit RGB mode. , And when it is 11, the decoding result is output in 16-bit RGB mode. S
GN is a sign bit, and when it is 0, the output pixel is clipped from 0 to 255 and output without a sign, and when it is 1, the output pixel is clipped from -127 to 127 and output with a sign. STP specifies the most significant bit of a 16-bit RGB pixel. SIZE is the number of data words following the command.

【0098】上記コマンドコードの後には、図11に示
すようにB1〜Bnで示すブロックデータが続く。
The command code is followed by block data B1 to Bn as shown in FIG.

【0099】各ブロックのサイズはブロック毎に異なる
RGBモードの場合、図12に示すようなマクロブロッ
クを構成する各輝度ブロック(Y0,Y1,Y2,Y
3)と色差ブロック(Cb,Cr)は、図12中の0〜
5で示す順番でMDEC64へ転送する。すなわち、コ
マンドに続くn番目の入力ブロックは、 n=6k+0: Cbブロック n=6k+1: Crブロック n=6k+2: Y0ブロック n=6k+3: Y1ブロック n=6k+4: Y2ブロック n=6k+5: Y3ブロック と判断される。なお、輝度ブロックと色差ブロックの入
力フォーマットは共通となっている。SGN=0の場合
は、符号無し4〜8ビットで出力され、SGN=1の場
合は出力は符号付き4〜8ビットで出力される。
In the case of the RGB mode in which the size of each block is different for each block, each luminance block (Y0, Y1, Y2, Y which constitutes a macro block as shown in FIG. 12 is used.
3) and the color difference blocks (Cb, Cr) are 0 to 0 in FIG.
The data is transferred to MDEC 64 in the order shown by 5. That is, the n-th input block following the command is judged as n = 6k + 0: Cb block n = 6k + 1: Cr block n = 6k + 2: Y0 block n = 6k + 3: Y1 block n = 6k + 4: Y2 block n = 6k + 5: Y3 block To be done. Note that the luminance block and the color difference block have the same input format. When SGN = 0, unsigned 4 to 8 bits are output, and when SGN = 1, the output is output as signed 4 to 8 bits.

【0100】コマンドの後に複数のブロックを続けて転
送することもでき、転送するワード数はSIZEで指定
する。ただし、ブロックの途中で終了するような転送サ
イズの指定はできない。さらに、RGBモードの場合、
転送するブロック数は6の倍数でなければならない。
It is also possible to transfer a plurality of blocks successively after the command, and the number of words to be transferred is specified by SIZE. However, it is not possible to specify a transfer size that ends in the middle of a block. Furthermore, in RGB mode,
The number of blocks transferred must be a multiple of 6.

【0101】IQテーブル設定コマンド(コマンドコー
ド=02h)は、コマンドコードの後に逆量子化テーブ
ルデータを与える。IQテーブルは2種類設定できて、
RAWモード及び、Yの輝度ブロックの逆量子化には0
番、Cr/Cbの色差ブロックの量子化には1番のテー
ブルが使用される。コマンドコードは、図13に示す通
りである。なお、図中のTSLはIQマトリクステーブ
ル番号(0番/1番)である。
The IQ table setting command (command code = 02h) gives the inverse quantization table data after the command code. You can set 2 types of IQ table,
0 for RAW mode and inverse quantization of Y luminance block
No. 1 table is used for quantization of the Cr / Cb color difference block. The command code is as shown in FIG. Note that TSL in the figure is the IQ matrix table number (0/1).

【0102】IQテーブル設定コマンドのコマンドコー
ドの後には、図14に示すようなテーブルデータが続
く。テーブルサイズは合計で16ワードであり、IQテ
ーブルの係数はジグザグ(zig-zag) オーダーで指定され
る。なお図中のZQ(x,y)はジグザグオーダー逆量
子化マトリクス係数(無符号8ビット)である。
Table data as shown in FIG. 14 follows the command code of the IQ table setting command. The table size is 16 words in total, and the IQ table coefficients are specified in the zig-zag order. Note that ZQ (x, y) in the figure is a zigzag order dequantization matrix coefficient (unsigned 8 bits).

【0103】IDCTマトリクス設定コマンド(コマン
ドコード=03h)は、コマンドコードの後にIDCT
マトリクスの係数を与える。コマンドコードは、図15
に示す通りである。このコマンドコードの後には、図1
6に示すように係数データが続く。テーブルサイズは合
計で32ワードである。なお、図16中のC(x,y)
はIDCT係数(有符号16ビット)である。
The IDCT matrix setting command (command code = 03h) is IDCT followed by IDCT.
Gives the coefficients of the matrix. The command code is shown in Figure 15.
As shown in. After this command code,
Coefficient data follows, as shown in FIG. The table size is 32 words in total. Note that C (x, y) in FIG.
Is an IDCT coefficient (signed 16 bits).

【0104】次に、MDEC64への入力ブロックフォ
ーマットの仕様について説明する。
Next, the specifications of the input block format to the MDEC 64 will be described.

【0105】入力ブロックフォーマットは、各ブロック
タイプ(輝度ブロック/色差ブロック)で共通で、ID
CT係数をランレングス符号化の(run,level) のペア(r
un-level) で転送する。この係数(run-level) に対して
MDEC64内で、ランレングスデコード173→逆量
子化器175→IDCT回路176の順で処理が施され
る。
The input block format is common to each block type (luminance block / color difference block), and ID
The CT coefficients are run-length encoded (run, level) pairs (r
transfer at un-level). In the MDEC 64, this coefficient (run-level) is processed in the order of run length decoding 173 → inverse quantizer 175 → IDCT circuit 176.

【0106】一つの係数(run-level)のペアは16ビッ
トでそのフォーマットは図17に示す通りである。な
お、図17中のRUNは非ゼロ係数に先立つゼロ係数の
個数(無符号6ビット)で、LEVELは非ゼロ係数の
値(有符号10ビット)である。
One coefficient (run-level) pair has 16 bits and its format is as shown in FIG. Note that RUN in FIG. 17 is the number of zero coefficients preceding the nonzero coefficient (unsigned 6 bits), and LEVEL is the value of the nonzero coefficient (signed 10 bits).

【0107】ただし、ブロックの最初の係数(DC係
数)のRUNフィールドには、量子化ステップが入る。
すなわち、図18に示すようになる。なお、図18中の
QUANTは量子化ステップ(無符号6ビット)を、L
EVELはDC係数(有符号10ビット)を示す。QU
ANT=0の場合は、逆量子化は実行されない。また、
係数(run-level) のペアが例えば0xfe00(QUA
NT=3xfかつLEVEL=0x100)の場合は、
そのペアはNOPとみなされ、スキップされる。
However, a quantization step is included in the RUN field of the first coefficient (DC coefficient) of the block.
That is, it becomes as shown in FIG. In addition, QUANT in FIG. 18 indicates a quantization step (unsigned 6 bits) by L
EVEL indicates a DC coefficient (signed 10 bits). QU
If ANT = 0, then dequantization is not performed. Also,
The coefficient (run-level) pair is, for example, 0xfe00 (QUA
In the case of NT = 3xf and LEVEL = 0x100),
The pair is considered a NOP and is skipped.

【0108】係数(run-level) のペアは、図19に示す
ように2組が32ビットにパックされて転送される。な
お、図中のRL(n)は(run-level) のペアである。こ
のときの係数(run-level) のペアのブロック当たりの個
数Nは、ブロック毎に異なる。ただし、2≦N≦63で
ある。またブロックの先頭に指定されたNOPは、単に
スキップされる。ブロックの途中にNOPがあると、M
DEC64はそのブロックの係数(run-level) のペアの
デコードを中断して(未設定のフィールドには0が詰め
られる)、IQデコードを開始する。
Two pairs of coefficient (run-level) are packed and transferred to 32 bits as shown in FIG. RL (n) in the figure is a (run-level) pair. At this time, the number N of coefficient (run-level) pairs per block differs for each block. However, 2 ≦ N ≦ 63. Further, the NOP designated at the beginning of the block is simply skipped. If there is a NOP in the middle of the block, M
The DEC 64 interrupts the decoding of the coefficient (run-level) pair of the block (0 is filled in the unset field) and starts IQ decoding.

【0109】次にMDEC64の出力ブロックフォーマ
ットには、RAWモードとRGBモードである。
Next, the output block formats of MDEC 64 are RAW mode and RGB mode.

【0110】RAWモードの場合は入力ブロックと出力
ブロックの対応は1対1になっている。RGBモードの
場合、コマンドに続く6個のブロックを1つのマクロブ
ロックとみなして、16×16のブロックを一つ再構成
して出力する。このブロックをRGBブロックと呼ぶ。
そのため、RGBモードでは6個のブロック(=1個の
マクロブロック)を入力すると、1個のRGBブロック
を出力することになる。したがって、RGBモードでは
入力ブロック数と出力ブロック数が異なることになる。
In the RAW mode, there is a one-to-one correspondence between input blocks and output blocks. In the RGB mode, the six blocks following the command are regarded as one macroblock, and a 16 × 16 block is reconstructed and output. This block is called an RGB block.
Therefore, in the RGB mode, when 6 blocks (= 1 macro block) are input, 1 RGB block is output. Therefore, the number of input blocks and the number of output blocks are different in the RGB mode.

【0111】次に、RAWモードは8ビットRAWモー
ドと4ビットRAWモードとがあり、8ビットRAWモ
ードでは、RGB変換を通らないIDCTの復号結果を
ブロック単位で出力する。このモードは図20の構成を
とる。なお、図中のF(x,y)はIDCTで復号され
たデータ(8ビット)を示す。IDCTコマンドのSG
Nが0の場合は、復号結果は0≦F(x,y) ≦255にな
るようにクリップされて無符号8ビットで出力される。
SGNが1の場合は、復号結果は、−127≦F(x,y)
≦127になるようにクリップされて有符号8ビットで
出力される。
Next, the RAW mode includes an 8-bit RAW mode and a 4-bit RAW mode. In the 8-bit RAW mode, the IDCT decoding result that does not pass RGB conversion is output in block units. This mode has the configuration of FIG. Note that F (x, y) in the figure indicates data (8 bits) decoded by IDCT. SG of IDCT command
When N is 0, the decoding result is clipped so as to satisfy 0 ≦ F (x, y) ≦ 255, and is output as unsigned 8 bits.
When SGN is 1, the decoding result is -127≤F (x, y).
Clipped so that ≦ 127, and output with a signed 8 bits.

【0112】これに対して、4ビットRAWモードで
は、8ビットRAWモードで出力されるピクセル値の5
ビット目を四捨五入して上位4ビットをパックして出力
する。このモードは図21の構成をとる。なお、図中の
xyはIDCTで復号されたデータ(上位4ビット)を
示す。
On the other hand, in the 4-bit RAW mode, the pixel value of 5 output in the 8-bit RAW mode is 5
The bits are rounded and the upper 4 bits are packed and output. This mode has the configuration of FIG. Note that F xy in the figure indicates data (upper 4 bits) decoded by IDCT.

【0113】また、上記RGBモードには、24ビット
RGBモードと16ビットRGBモードと8ビットRG
Bモードがあり、24ビットRGBモードでは、復号結
果をRGBに変換し、24ビットにパックして出力す
る。デコードブロックのフォーマットは、図22及び図
23に示す通りである。図22には、このモードにおけ
るI/O転送時のI/Oモードのフォーマットを示し、
図23にはDMA転送時のDMAモードのフォーマット
を示している。このように、I/O転送時とDMA転送
時ではピクセルのオーダーが異なっている。なお、図2
2,図23中のR(x,y),G(x,y),B(x,
y)は、RGBの輝度値(8ビット×3)である。さら
に、IDCTコマンドのSNGが0の場合は、復号結果
は0≦〔RGB〕(x,y) ≦255になるようにクリップ
されて無符号8ビットで出力される。SGNが1の場合
は、復号結果は−127≦〔RGB〕(x,y) ≦+127
になるようにクリップされて有符号8ビットで出力され
る。
The RGB modes include 24-bit RGB mode, 16-bit RGB mode and 8-bit RG.
There is a B mode, and in the 24-bit RGB mode, the decoding result is converted into RGB, packed into 24 bits, and output. The format of the decode block is as shown in FIGS. 22 and 23. FIG. 22 shows the I / O mode format during I / O transfer in this mode.
FIG. 23 shows the format of the DMA mode during DMA transfer. As described above, the order of pixels is different between the I / O transfer and the DMA transfer. Note that FIG.
2, R (x, y), G (x, y), B (x, in FIG.
y) is the RGB luminance value (8 bits × 3). Further, when the SNG of the IDCT command is 0, the decoding result is clipped so that 0 ≦ [RGB] (x, y) ≦ 255, and is output as an unsigned 8-bit. When SGN is 1, the decoding result is -127≤ [RGB] (x, y) ≤ + 127.
It is clipped so as to be output as 8-bit signed code.

【0114】一方、16ビットRGBモードでは、図2
4及び図25に示すように、8ビットRGBモードで出
力されるピクセル値の6ビット目を四捨五入して上位5
ビットを16ビットにパックして出力する。I/O転送
時とDMA転送時ではピクセルのオーダーが異なる。図
24には、このモードにおけるI/O転送時のI/Oモ
ードのフォーマットを示す、図25にはDMA転送時の
DMAモードのフォーマットを示している。なお、図2
4,図25中のPIX(x,y)は16ビットピクセル
を示す。
On the other hand, in the 16-bit RGB mode, as shown in FIG.
As shown in FIG. 4 and FIG. 25, the 6th bit of the pixel value output in the 8-bit RGB mode is rounded off to obtain the upper 5
Bits are packed into 16 bits and output. The order of pixels is different between I / O transfer and DMA transfer. FIG. 24 shows the format of the I / O mode during I / O transfer in this mode, and FIG. 25 shows the format of the DMA mode during DMA transfer. Note that FIG.
4, PIX (x, y) in FIG. 25 indicates a 16-bit pixel.

【0115】次に、上記16ビットピクセルのフォーマ
ットは、図26に示す通りである。先頭の1ビットには
IDCTコマンドのSTPフィールドの値が詰められ
る。なお、図中のRGBは、各輝度値(5ビット)を示
す。
The 16-bit pixel format is as shown in FIG. The first 1 bit is filled with the value of the STP field of the IDCT command. In addition, RGB in the drawing indicates each luminance value (5 bits).

【0116】上述したように、本実施例においては、逆
直交変換の入力ブロック(係数)がランレングス符号化
された形式であること、画像ブロックを逆直交変換する
前に行われる逆量子化処理の係数をブロックの先頭で設
定できる形式であること、逆直交変換後のブロックを通
常のビデオ信号(Y,Cb,Cr)の他にCSC(Colo
r Space Converter)を通すことで、R,G,B輝度値と
して出力することも選択できる形式であること、R,
G,B輝度値として出力される際に、その色解像度をデ
コード時にブロック毎に選択できる形式であること、出
力ブロックの符号を有符号或いは無符号のいずれかをブ
ロック単位で選択できる形式であることが特徴となって
いる。
As described above, in the present embodiment, the input block (coefficient) of the inverse orthogonal transform is in the run-length encoded form, and the inverse quantization process performed before the inverse orthogonal transform of the image block. The coefficient can be set at the beginning of the block, and the block after the inverse orthogonal transform can be used in addition to the normal video signal (Y, Cb, Cr) and CSC (Colo).
r Space Converter), it is also possible to select the output as R, G, B brightness values.
When output as G and B luminance values, the color resolution thereof must be a format that can be selected for each block at the time of decoding, and the code of the output block can be selected with or without a code in block units. It is a feature.

【0117】すなわち、本実施例においては、逆直交変
換の入力ブロック(係数)がランレングス符号化されて
いるので、データ長が短くて済む。また、画像ブロック
を直交変換する前に行われる逆量子化処理の係数をブロ
ックの先頭で設定できるので、ブロック毎に量子化ステ
ップを細かく設定できる。さらに、逆直交変換後のブロ
ックを通常のビデオ信号(Y,Cb,Cr)の他にCS
C(Color Space Converter)を通すことで、R,G,B
輝度値として出力することも選択できるので、フレーム
バッファ上に背景画面あるいはテクスチャソースとして
そのまま使用することができる。また、R,G,B輝度
値として出力される際にその色解像度をデコード時にブ
ロック毎に選択できるので、描画装置のピクセル解像度
及び要求画像の品質、フレームバッファサイズに応じて
ピクセル解像度を選択できる。また、出力ブロックの符
号を有符号或いは無符号のいずれかをブロック単位で選
択できるため、通常の画像の他、フレーム相関を用いた
動き補償の際に使用される差分画像に対しても対応でき
る。
That is, in this embodiment, since the input block (coefficient) of the inverse orthogonal transform is run-length coded, the data length can be short. Moreover, since the coefficient of the inverse quantization process performed before the orthogonal transformation of the image block can be set at the beginning of the block, the quantization step can be set finely for each block. Furthermore, the block after the inverse orthogonal transform is CS in addition to the normal video signal (Y, Cb, Cr).
R, G, B by passing through C (Color Space Converter)
Since it can be selected to output as a brightness value, it can be used as it is as a background screen or a texture source on the frame buffer. Further, when the R, G, and B brightness values are output, the color resolution can be selected for each block at the time of decoding, so that the pixel resolution can be selected according to the pixel resolution of the drawing device, the quality of the requested image, and the frame buffer size. . Further, since the code of the output block can be selected with or without a code in block units, it is possible to handle not only a normal image but also a differential image used in motion compensation using frame correlation. .

【0118】[0118]

【発明の効果】以上の説明からも明らかなように、本発
明においては、所定のマクロブロック単位の空間軸の画
像情報が直交変換され、さらにこれを量子化した係数デ
ータをランレングス符号化しているため、データ長が短
くなっている。また、直交変換してランレングス符号化
したマクロブロックの最初のラン領域に量子化の際の量
子化ステップ情報が格納されるため、マクロブロック毎
に量子化ステップを設定できるようになる。すなわち、
本発明によれば、データ長が短くて済み、画像の品質も
高いものとすることができる。
As is apparent from the above description, in the present invention, the image information on the spatial axis of a predetermined macroblock unit is orthogonally transformed, and the quantized coefficient data is run-length encoded. Therefore, the data length is short. Further, since the quantization step information at the time of quantization is stored in the first run area of the macroblock that has been orthogonally transformed and run-length encoded, the quantization step can be set for each macroblock. That is,
According to the present invention, the data length can be short, and the image quality can be high.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明実施例の画像情報処理装置の概略的な構
成を示すブロック回路図である。
FIG. 1 is a block circuit diagram showing a schematic configuration of an image information processing apparatus according to an embodiment of the present invention.

【図2】ディスプレイ上への表示について説明するため
の図である。
FIG. 2 is a diagram for explaining display on a display.

【図3】ディスプレイ上の表示の設定について説明する
ための図である。
FIG. 3 is a diagram for explaining display settings on a display.

【図4】描画クリッピングの機能について説明するため
の図である。
FIG. 4 is a diagram for explaining a function of drawing clipping.

【図5】テクスチャページについて説明するための図で
ある。
FIG. 5 is a diagram illustrating a texture page.

【図6】CLUT構造について説明するための図であ
る。
FIG. 6 is a diagram for explaining a CLUT structure.

【図7】スプライト描画の概念を説明するための図であ
る。
FIG. 7 is a diagram for explaining the concept of sprite drawing.

【図8】フレームダブルバッファリングについて説明す
るための図である。
FIG. 8 is a diagram for explaining frame double buffering.

【図9】MDECの具体的構成を説明するためのブロッ
ク回路図である。
FIG. 9 is a block circuit diagram for explaining a specific configuration of MDEC.

【図10】IDCTコマンドの構成を示す図である。FIG. 10 is a diagram showing a structure of an IDCT command.

【図11】IDCTコマンドのコマンドコードとそれに
続くマクロブロックデータを示す図である。
FIG. 11 is a diagram showing a command code of an IDCT command and macro block data following it.

【図12】マクロブロックの構成を示す図である。FIG. 12 is a diagram showing a configuration of a macro block.

【図13】IQテーブル設定コマンドの構成を示す図で
ある。
FIG. 13 is a diagram showing a configuration of an IQ table setting command.

【図14】IQテーブル設定コマンドのコマンドコード
に続くテーブルデータを示す図である。
FIG. 14 is a diagram showing table data following a command code of an IQ table setting command.

【図15】IDCTマトリクス設定コマンドの構成を示
す図である。
FIG. 15 is a diagram showing the structure of an IDCT matrix setting command.

【図16】IDCTマトリクス設定コマンドのコマンド
コードとそれに続く係数データを示す図である。
FIG. 16 is a diagram showing a command code of an IDCT matrix setting command and coefficient data following it.

【図17】入力ブロックフォーマットを示す図である。FIG. 17 is a diagram showing an input block format.

【図18】入力ブロックフォーマットのうち最初の係数
のランフィールドに量子化ステップが入った状態を示す
図である。
FIG. 18 is a diagram showing a state in which a quantization step is included in a run field of the first coefficient in the input block format.

【図19】ランレベルペアのパックを示す図である。FIG. 19 is a diagram showing a pack of a run level pair.

【図20】IDCTで復号されたデータを示す図であ
る。
FIG. 20 is a diagram showing data decoded by IDCT.

【図21】4ビットRAWモードの説明に用いる図であ
る。
FIG. 21 is a diagram used to describe a 4-bit RAW mode.

【図22】24ビットRGBモードのI/Oモード時の
各ピクセルデータを示す図である。
FIG. 22 is a diagram showing each pixel data in the I / O mode of the 24-bit RGB mode.

【図23】24ビットRGBモードのDMAモード時の
各ピクセルデータを示す図である。
FIG. 23 is a diagram showing each pixel data in the DMA mode of the 24-bit RGB mode.

【図24】16ビットRGBモードのI/Oモード時の
各ピクセルデータを示す図である。
FIG. 24 is a diagram showing each pixel data in the 16-bit RGB mode I / O mode.

【図25】16ビットRGBモードのDMAモード時の
各ピクセルデータを示す図である。
FIG. 25 is a diagram showing each pixel data in a 16-bit RGB mode DMA mode.

【図26】16ビットRGBモードの16ビットピクセ
ルのフォーマットを示す図である。
FIG. 26 is a diagram showing a format of 16-bit pixels in 16-bit RGB mode.

【図27】従来の画像作成装置(家庭用ゲーム機)の構
成例を示すブロック回路図である。
FIG. 27 is a block circuit diagram showing a configuration example of a conventional image creating device (home game machine).

【図28】従来の画像作成装置による画像作成方法の説
明に用いる図である。
FIG. 28 is a diagram used to describe an image creating method by a conventional image creating apparatus.

【符号の説明】[Explanation of symbols]

51 CPU 52 周辺デバイスコントローラ 53 メインメモリ 54 ROM 60 グラフィックシステム 61 ジオメトリトランスファエンジン(GTE) 62 グラフィックスプロセッシングユニット 63 フレームバッファ 64 画像デコーダ(MDEC) 65 ビデオ出力手段(ディスプレイ装置) 70 サウンドシステム 71 サウンドプロセッシングユニット(SPU) 72 サウンドバッファ 73 スピーカ 80 光学ディスク制御部 81 ディスクドライブ装置 82 デコーダ 83 バッファ 90 通信制御部 91 通信制御機 92 コントローラ 93 メモリカード 101 パラレルI/Oポート 102 シリアルI/Oポート 51 CPU 52 Peripheral Device Controller 53 Main Memory 54 ROM 60 Graphic System 61 Geometry Transfer Engine (GTE) 62 Graphics Processing Unit 63 Frame Buffer 64 Image Decoder (MDEC) 65 Video Output Means (Display Device) 70 Sound System 71 Sound Processing Unit (SPU) 72 Sound buffer 73 Speaker 80 Optical disk controller 81 Disk drive device 82 Decoder 83 Buffer 90 Communication controller 91 Communication controller 92 Controller 93 Memory card 101 Parallel I / O port 102 Serial I / O port

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H03M 7/46 9382−5K H04N 1/41 B 5/92 H04N 5/92 H ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI Technical indication location H03M 7/46 9382-5K H04N 1/41 B 5/92 H04N 5/92 H

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 所定のマクロブロック単位の空間軸の画
像情報に対して直交変換を施し、 得られた係数データを量子化し、 当該量子化した係数データをランレングス符号化してビ
ットストリームを生成することを特徴とする画像情報生
成方法。
1. The orthogonal transformation is performed on the image information on the spatial axis of a predetermined macroblock unit, the obtained coefficient data is quantized, and the quantized coefficient data is run-length encoded to generate a bitstream. An image information generation method characterized by the above.
【請求項2】 上記直交変換してランレングス符号化し
たマクロブロックの最初のラン領域に上記量子化の際の
量子化ステップ情報を格納することを特徴とする請求項
1記載の画像情報生成方法。
2. The image information generating method according to claim 1, wherein the quantization step information at the time of the quantization is stored in the first run area of the macroblock subjected to the orthogonal transform and run-length encoded. .
【請求項3】 所定のマクロブロック単位の空間軸の画
像情報に対して直交変換を施し、得られた係数データを
量子化し、当該量子化した係数データがランレングス符
号化されたビットストリームに対して、ランレングス復
号化を施し、 得られた係数データに逆量子化を施し、 当該逆量子化した係数データを逆直交変換して、マクロ
ブロック単位の空間軸の画像情報を生成することを特徴
とする画像情報処理方法。
3. The orthogonal transformation is applied to the image information of the spatial axis of a predetermined macroblock unit, the obtained coefficient data is quantized, and the quantized coefficient data is run-length encoded with respect to the bit stream. Run-length decoding is performed, the obtained coefficient data is inversely quantized, and the inversely quantized coefficient data is inversely orthogonally transformed to generate image information on the spatial axis in macroblock units. Image processing method.
【請求項4】 上記ビットストリームのマクロブロック
の最初のラン領域に格納された量子化ステップ情報を用
いて上記逆量子化を行うことを特徴とする請求項3記載
の画像情報処理方法。
4. The image information processing method according to claim 3, wherein the inverse quantization is performed using the quantization step information stored in the first run area of the macroblock of the bitstream.
【請求項5】 所定のマクロブロック単位の空間軸の画
像情報に対して直交変換を施し、得られた係数データを
量子化し、当該量子化した係数データをランレングス符
号化して生成されたビットストリームを記録してなるこ
とを特徴とする記録媒体。
5. A bitstream generated by orthogonally transforming image information on a spatial axis of a predetermined macroblock unit, quantizing the obtained coefficient data, and run-length coding the quantized coefficient data. A recording medium on which is recorded.
【請求項6】 上記直交変換してランレングス符号化し
たマクロブロックの最初のラン領域に上記量子化の際の
量子化ステップ情報を格納してなることを特徴とする請
求項5記載の記録媒体。
6. The recording medium according to claim 5, wherein quantization step information at the time of the quantization is stored in a first run area of the macroblock which has been orthogonally transformed and run-length encoded. .
JP30002294A 1994-12-02 1994-12-02 Picture information generation method, picture information processing method and recording medium Pending JPH08163560A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30002294A JPH08163560A (en) 1994-12-02 1994-12-02 Picture information generation method, picture information processing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30002294A JPH08163560A (en) 1994-12-02 1994-12-02 Picture information generation method, picture information processing method and recording medium

Publications (1)

Publication Number Publication Date
JPH08163560A true JPH08163560A (en) 1996-06-21

Family

ID=17879771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30002294A Pending JPH08163560A (en) 1994-12-02 1994-12-02 Picture information generation method, picture information processing method and recording medium

Country Status (1)

Country Link
JP (1) JPH08163560A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007502036A (en) * 2003-07-31 2007-02-01 サムスン エレクトロニクス カンパニー リミテッド Information recording medium including graphic data, processing apparatus and processing method thereof
US7609263B2 (en) 2005-02-10 2009-10-27 Sony Computer Entertainment Inc. Drawing processing apparatus and method for compressing drawing data
US7873242B2 (en) 2003-07-31 2011-01-18 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
JP2015176492A (en) * 2014-03-17 2015-10-05 株式会社ソニー・コンピュータエンタテインメント Graphics processor and graphics processing method
CN107294538A (en) * 2017-06-09 2017-10-24 深圳市华星光电技术有限公司 The compensation gauge pressure compression method and decompressing method of OLED display
US9852522B2 (en) 2014-03-17 2017-12-26 Sony Interactive Entertainment Inc. Image decoder, graphics processing system, image decoding method, and graphics processing method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8300940B2 (en) 2003-07-31 2012-10-30 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US7873242B2 (en) 2003-07-31 2011-01-18 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
USRE44183E1 (en) 2003-07-31 2013-04-30 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US7945124B2 (en) 2003-07-31 2011-05-17 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US7945123B2 (en) 2003-07-31 2011-05-17 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8014605B2 (en) 2003-07-31 2011-09-06 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8160359B2 (en) 2003-07-31 2012-04-17 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8160401B2 (en) 2003-07-31 2012-04-17 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8452033B2 (en) 2003-07-31 2013-05-28 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8208727B2 (en) 2003-07-31 2012-06-26 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
JP2007502036A (en) * 2003-07-31 2007-02-01 サムスン エレクトロニクス カンパニー リミテッド Information recording medium including graphic data, processing apparatus and processing method thereof
US8787704B2 (en) 2003-07-31 2014-07-22 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8189918B2 (en) 2003-07-31 2012-05-29 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8452130B2 (en) 2003-07-31 2013-05-28 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8452129B2 (en) 2003-07-31 2013-05-28 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
USRE44287E1 (en) 2003-07-31 2013-06-11 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US8699802B2 (en) 2003-07-31 2014-04-15 Samsung Electronics Co., Ltd. Information storage medium storing graphic data and apparatus and method of processing the graphic data
US7609263B2 (en) 2005-02-10 2009-10-27 Sony Computer Entertainment Inc. Drawing processing apparatus and method for compressing drawing data
JP2015176492A (en) * 2014-03-17 2015-10-05 株式会社ソニー・コンピュータエンタテインメント Graphics processor and graphics processing method
US9852522B2 (en) 2014-03-17 2017-12-26 Sony Interactive Entertainment Inc. Image decoder, graphics processing system, image decoding method, and graphics processing method
CN107294538A (en) * 2017-06-09 2017-10-24 深圳市华星光电技术有限公司 The compensation gauge pressure compression method and decompressing method of OLED display
CN107294538B (en) * 2017-06-09 2020-09-01 深圳市华星光电半导体显示技术有限公司 Compression method and decompression method for compensation gauge of OLED display device

Similar Documents

Publication Publication Date Title
KR100609614B1 (en) Method and apparatus for transmitting picture data, processing pictures and recording medium therefor
US5949409A (en) Image processing in which the image is divided into image areas with specific color lookup tables for enhanced color resolution
JP3578498B2 (en) Image information processing device
EP0715276A2 (en) Method and apparatus for mapping texture
KR100363504B1 (en) Image processing device
EP0715278A2 (en) Method of producing image data and associated recording medium
CA2146606C (en) Method and apparatus for generating images
JP2528446B2 (en) Audio image processing device
JPH08163560A (en) Picture information generation method, picture information processing method and recording medium
JP3548642B2 (en) Image information generating apparatus and method, image information processing apparatus and method, and recording medium
JP3442111B2 (en) Image compression device, image reproduction device and drawing device
JPH08205144A (en) Image encoding device
JP3348152B2 (en) Game system
JP2000070549A (en) Game system, method for preserving image and recording medium recording game program
JP3556777B2 (en) Image processing device
JP3547236B2 (en) Image information generating apparatus and method, and image information processing apparatus and method
JPH08171657A (en) Image information generation method and recording medium
JPH077732A (en) Picture processor
JP3110255B2 (en) Character data compression processing apparatus and character data compression method
JP2646504B2 (en) Image processing method
JP2707481B2 (en) Image processing device
JPH08161511A (en) Image generating device
JPH06348238A (en) Image decoding display device
JPH06342468A (en) Computer graphic image compressing and encoding system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041207