JP2000030042A - Display processor - Google Patents

Display processor

Info

Publication number
JP2000030042A
JP2000030042A JP10198931A JP19893198A JP2000030042A JP 2000030042 A JP2000030042 A JP 2000030042A JP 10198931 A JP10198931 A JP 10198931A JP 19893198 A JP19893198 A JP 19893198A JP 2000030042 A JP2000030042 A JP 2000030042A
Authority
JP
Japan
Prior art keywords
data
memory
pixel value
frame data
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10198931A
Other languages
Japanese (ja)
Inventor
Nobuhiko Wakayama
順彦 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP10198931A priority Critical patent/JP2000030042A/en
Publication of JP2000030042A publication Critical patent/JP2000030042A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the hardware operation efficiency and to reduce the hardware scale by blending pixel values of reference frame data and difference frame data written in a 1st and a 2nd memory at a specific mixing ratio. SOLUTION: A compositing part 9 composites the frame image data stored in a frame memory 2 and rendering data after the pasting of a bit map and color painting by a texture mapping part 8. This compositing is carried out by calculating the transmissivity of each body according to the transparency set to the body and illuminance set for the vertexes of the body and mixing pixels having common coordinates between pixels constituting the frame image data and pixels constituting the rendering data according to the transmissivity of each body.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像データ及び
3次元グラフィックスデータについての表示処理を行う
表示処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display processing device for performing display processing on moving image data and three-dimensional graphics data.

【0002】[0002]

【従来の技術】芸能、音楽、教育等のサービス業界にお
いて、CD-ROM,DVD-ROMを記録媒体としたマルチメディア
著作物が相次いで出版されている。取引界においてマル
チメディア著作物として認識しているものには様々な種
別が存在する。それらの種別のうち、今後の発展が特に
期待されているものは、主として3次元グラフィックス
データから構成されているマルチメディア著作物、動画
像データから構成されているマルチメディア著作物であ
る。
2. Description of the Related Art Multimedia works using CD-ROMs and DVD-ROMs as recording media have been published one after another in service industries such as entertainment, music, and education. There are various types of what are recognized as multimedia works in the business world. Among those types, those which are particularly expected to develop in the future are multimedia works mainly composed of three-dimensional graphics data and multimedia works composed of moving image data.

【0003】3次元グラフィックスデータとは、形状、
空間的な配置、材質等、物体の物理的性質を定量化した
データからなり、再生装置がこれらのデータを用いてそ
の物体の物理的性質を再現して、それを描画した映像を
表示することにより、その物体が恰も操作者の目前に存
在するかの如く現れるものをいう。3次元グラフィック
スデータを用いたマルチメディア著作物には、スピード
感に溢れるドライブゲームやフライトシミュレーション
ゲーム、仮想店舗、仮想展示場内を歩行しているような
感覚を操作者に与えるヴァーチャルウォークスルーシス
テムがある。
[0003] The three-dimensional graphics data includes a shape,
It consists of data that quantifies the physical properties of an object, such as spatial arrangement and material, and the playback device uses these data to reproduce the physical properties of the object and display an image that depicts it. Means that the object appears as if it were in front of the operator. Multimedia works using three-dimensional graphics data include drive games and flight simulation games full of speed, virtual walk-through systems that give operators the feeling of walking in virtual stores and virtual exhibition halls. is there.

【0004】動画像データとは、アナログ映像信号をフ
レーム内符号化技術、フレーム間符号化技術を用いて圧
縮符号化することにより得られるデータであり、複数の
フレームデータからなる。これを用いたマルチメディア
著作物には、主として実写映像からなる劇場公開映画、
ドキュメント映像、TVドラマ等が有名である。マルチメ
ディア著作物には上記の2つの種別が存在し、それらは
需要者、取引者の多大な支持を得つつあるので、上記2
つの種別のマルチメディア著作物のうち、両方の再生が
行なえる機能が再生装置に求められつつある。この場合
再生装置は、家庭用TVゲーム機器等に実装されているハ
ードウェアと対等の演算能力を有する専用ボードを搭載
して3次元グラフィックスデータの再生機能の実現せね
ばならない。またDVDプレーヤ等に実装されているMPEG
デコーダと対等の復号能力を有する専用ボードを搭載し
て動画像データの再生機能を実現せねばならない。
[0004] The moving image data is data obtained by compressing and encoding an analog video signal using an intra-frame encoding technique and an inter-frame encoding technique, and includes a plurality of frame data. Multimedia works using this include theatrical movies mainly composed of live-action footage,
Document videos and TV dramas are famous. There are the above two types of multimedia works, which are gaining much support from consumers and traders.
There is a growing demand for a playback device that can play both types of multimedia works. In this case, the playback device must implement a playback function of three-dimensional graphics data by mounting a dedicated board having a computing capability equal to the hardware mounted on a home TV game machine or the like. MPEG implemented in DVD players, etc.
A dedicated board having a decoding capability equal to that of a decoder must be mounted to realize a function of reproducing moving image data.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記2
つの種別のマルチメディア著作物の再生機能を有する再
生装置は、たとえ再生機能の実現のためとはいえ、3次
元グラフィックスデータ、動画像データのそれぞれにつ
いての専用ボードを搭載する必要があるので、その専用
ボード二枚分の占有面積及び製造原価が再生装置の生産
コストに重くのしかかってしまい、再生装置の小型化、
低価格化が大きく妨げられてしまうという問題点があ
る。
However, the above-mentioned 2)
A playback device having a playback function for two types of multimedia works requires a dedicated board for each of three-dimensional graphics data and moving image data, even if the playback function is to be realized. The area occupied by the two dedicated boards and the manufacturing cost weigh heavily on the production cost of the playback device, and the size of the playback device is reduced.
There is a problem that the cost reduction is greatly hindered.

【0006】また3次元グラフィックスデータ系のマル
チメディア著作物の再生と、動画像データ系のマルチメ
ディア著作物の再生とが同時に行われるのは希であるた
め、3次元グラフィックスデータ系、動画像データ系の
マルチメディア著作物のうち一方が再生されている間
は、2枚の専用ボードのうち一方のものは何等処理を行
うこともなく無駄な時間を過ごしており、そのハードウ
ェアの稼動効率が極めて低いという問題点がある。
Also, it is rare that the reproduction of a multimedia work based on a three-dimensional graphics data system and the reproduction of a multimedia work based on a moving image data system are rarely performed simultaneously. While one of the multimedia works of the image data system is being played, one of the two dedicated boards is wasting time without performing any processing, and the operation of the hardware is performed. There is a problem that the efficiency is extremely low.

【0007】本発明の目的は、ハードウェア稼動効率を
向上させることにより、ハードウェア規模を縮小化で
き、より低価格な再生装置を実現することができる表示
処理装置を提供することである。
[0007] It is an object of the present invention to provide a display processing device capable of reducing the hardware scale and improving the cost of the reproduction device by improving the hardware operation efficiency.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に本発明は、合成して表示されるべき複数の投影像を示
す複数のレンダリングデータと、その合成時において重
なり合った各レンダリングデータをそれぞれどれだけ透
過させるかを示す透明度情報とからなる3次元グラフィ
ックスデータについての表示処理を行うと共に、複数の
フレームデータからなる動画像データについての表示処
理を行う表示処理装置であって、3次元グラフィックス
データについての表示処理及び動画像データについての
表示処理のうち、何れか一方についての指示を操作者か
ら受け付ける受付手段と、第1メモリ、第2メモリと、
3次元グラフィックスデータについて表示処理の指示を
受け付けると、複数のレンダリングデータのうち背景側
となるものを第1メモリに書き込み、前景側となるもの
を第2メモリに書き込む第1書込手段と、第1メモリに
書き込まれた背景側レンダリングデータの画素値と、第
2メモリに書き込まれた前景側レンダリングデータにお
ける画素値とを前記透明度情報に基づいた混合比にてブ
レンドするブレンド手段と、動画像データ表示処理の指
示を受け付けると、複数のフレームデータのうち前後フ
レームデータとの差分を示す差分情報のみからなる差分
フレームデータと、差分フレームデータと加算すべき画
素値成分のみからなる参照フレームデータとをそれぞれ
第1メモリ、第2メモリに書き込む第2書込手段とを備
え、前記ブレンド手段は、差分フレームデータ及び参照
フレームデータとが第1メモリ、第2メモリに書き込ま
れると、第1メモリ、第2メモリに書き込まれた参照フ
レームデータの画素値と、差分フレームデータの画素値
とを所定の混合比にてブレンドすることを特徴としてい
る。
In order to achieve the above-mentioned object, the present invention provides a method for rendering a plurality of rendering data indicating a plurality of projection images to be combined and displayed, and each of the overlapping rendering data at the time of the combination. A display processing device that performs display processing on three-dimensional graphics data including transparency information indicating how much light is transmitted, and performs display processing on moving image data including a plurality of frame data. A first memory, a second memory, a receiving unit that receives an instruction from the operator for one of the display process for the image data and the display process for the moving image data,
A first writing unit that, when receiving a display processing instruction for the three-dimensional graphics data, writes the rendering data of the plurality of rendering data to a first memory and writes the rendering data of a plurality of rendering data to a second memory; Blending means for blending a pixel value of the background-side rendering data written to the first memory and a pixel value of the foreground-side rendering data written to the second memory at a mixing ratio based on the transparency information; When an instruction for data display processing is received, difference frame data including only difference information indicating a difference from previous and subsequent frame data among a plurality of frame data, and reference frame data including only difference value data and a pixel value component to be added are included. And a second writing means for writing the data into the first memory and the second memory, respectively. When the difference frame data and the reference frame data are written to the first memory and the second memory, the row includes a pixel value of the reference frame data written to the first memory and the second memory, and a pixel value of the difference frame data. Are blended at a predetermined mixing ratio.

【0009】[0009]

【発明の実施の形態】以下、本発明の表示処理装置に係
わる実施形態として、表示処理装置を内部に備えたマル
チメディア再生装置について説明する。図1は、マルチ
メディア再生装置を中核としたAVシステムを示す図であ
る。本図においてマルチメディア再生装置300は、マ
ルチメディア著作物の記録媒体である光ディスク30
1、光ディスク302を装填し、これらに記録されてい
るマルチメディア著作物を再生して、その再生映像をテ
レビ受像機303に表示させる。ここで光ディスク30
1は3次元グラフィックスデータを記録したものであ
り、光ディスク302は動画像データを記録したもので
ある。マルチメディア再生装置の説明に先立って、光デ
ィスク301に記録された3次元グラフィックスデー
タ、光ディスク302に記録された動画像データのデー
タ構造について説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, as a preferred embodiment of a display processing apparatus according to the present invention, a multimedia reproducing apparatus having a display processing apparatus therein will be described. FIG. 1 is a diagram showing an AV system having a multimedia playback device as a core. In this figure, a multimedia reproducing apparatus 300 is an optical disc 30 that is a recording medium of a multimedia work.
1. The optical disc 302 is loaded, the multimedia work recorded on the optical disc 302 is reproduced, and the reproduced video is displayed on the television receiver 303. Here, the optical disk 30
Numeral 1 is for recording three-dimensional graphics data, and optical disc 302 is for recording moving image data. Prior to the description of the multimedia reproducing apparatus, the data structures of three-dimensional graphics data recorded on the optical disk 301 and moving image data recorded on the optical disk 302 will be described.

【0010】図2は、3次元グラフィックスデータのデ
ータ構造を示す図である。本図に示すように3次元グラ
フィックスデータは、背景画像データk1と、光源座標k2
と、光度k3と、仮想空間に配置すべき複数物体について
の物体情報k4と、視点位置k5と、視線方向k6とからな
る。以上のデータのみを記録した状態で、光ディスク3
01は持ち運ばれるのである。
FIG. 2 is a diagram showing a data structure of three-dimensional graphics data. As shown in the figure, the three-dimensional graphics data includes background image data k1 and light source coordinates k2.
And luminous intensity k3, object information k4 about a plurality of objects to be arranged in the virtual space, a viewpoint position k5, and a line-of-sight direction k6. With only the above data recorded, the optical disk 3
01 is carried.

【0011】背景画像データk1は、一フレーム分の画像
であるイメージデータm1であり、光源座標k2は、X軸成
分、Y軸成分、Z軸成分からなる仮想空間座標である。物
体情報k4は、その物体名g1と、仮想空間においてその物
体が配置されるべき配置座標g2と、相対座標列にてその
物体固有の形状を表した形状情報g3と、物体平面に模様
として貼りつけるべきビットマップを示す模様情報g4
と、物体に着色すべき色を示す色彩情報g5と、物体の材
質が光源から発せられた光をどれだけ反射させるかを示
す反射率g6と、その物体が光源から発せられた光をどれ
だけ透過させるかを示す透明度g7とからなる。
The background image data k1 is image data m1 which is an image for one frame, and the light source coordinates k2 are virtual space coordinates including an X-axis component, a Y-axis component, and a Z-axis component. The object information k4 includes the object name g1, the arrangement coordinates g2 where the object is to be arranged in the virtual space, the shape information g3 representing the shape specific to the object in a relative coordinate sequence, and a pattern attached to the object plane. Pattern information g4 indicating the bitmap to be attached
And color information g5 indicating the color to be colored on the object, reflectivity g6 indicating how much the material of the object reflects the light emitted from the light source, and how much light the object emits from the light source And transparency g7 indicating whether the light is transmitted.

【0012】図3は、各物体情報に規定されたそれぞれ
の相対座標列がどのような形状を表しているかを示して
いる。物体"氷柱"の相対座標列は、図3(a)に示すよ
うな立方体形状を表し、物体"ピラミット"の相対座標列
は、図3(b)に示すような三角錘形状を表している。
物体"隕石"の相対座標列は、図3(c)に示すような球
状体の形状を表している。
FIG. 3 shows the shape of each relative coordinate sequence specified in each object information. The relative coordinate sequence of the object “ice pillar” represents a cubic shape as shown in FIG. 3A, and the relative coordinate sequence of the object “Piramit” represents a triangular pyramid shape as shown in FIG. 3B. .
The relative coordinate sequence of the object "meteorite" represents a spherical shape as shown in FIG.

【0013】図4は、各物体情報に規定されたそれぞれ
の模様情報がどのような図柄を表しているかを示してい
る。物体"氷柱"の模様情報は、図4(a)に示すような
アルファベットの綴り『ICE』を表し、物体"ピラミッ
ト"の模様情報は、図4(b)に示すような石垣を表し
ている。物体"隕石"の模様情報は、図4(c)に示すよ
うな岩肌を表している。これらは頂点でのみ表現された
物体に物質の材質感等を与えるためのものである。
FIG. 4 shows what kind of pattern each pattern information specified in each object information represents. The pattern information of the object "ice pillar" represents the spelling "ICE" of the alphabet as shown in FIG. 4A, and the pattern information of the object "Piramit" represents a stone wall as shown in FIG. 4B. . The pattern information of the object "meteorite" represents a rock surface as shown in FIG. These are for giving a material feeling or the like to a substance expressed only by vertices.

【0014】ここで物体情報における配置座標(x1,y1,z
1)〜(x3,y3,z3)と、光源座標(xn,yn,zn)と、視点位置(x
0,y0,z0)と、視線ベクトル(Vx,Vy,Vz)との関係が図5に
示すものとする。図5は、3次元グラフィックスデータ
における各座標がどのような位置関係にあるかを示す図
である。この場合、操作者が視点位置(x0,y0,z0)から視
線方向にこれら物体が配置された光景を見たと想定する
と、操作者には物体氷柱が最も手前に見え、その背後に
ピラミット、隕石、背景画像が見える筈である。このよ
うな配置関係を考慮して、マルチメディア再生装置は、
視点からの眺めとして図中のスクリーンm2に現れるべき
投影像を生成する。図6は、3次元グラフィックスデー
タにおける各座標が図5に示す位置関係にある場合に、
スクリーンm5に表示されるべき投影像を示す図である。
Here, the arrangement coordinates (x1, y1, z
1) to (x3, y3, z3), light source coordinates (xn, yn, zn), and viewpoint position (x
0, y0, z0) and the line-of-sight vector (Vx, Vy, Vz) are shown in FIG. FIG. 5 is a diagram showing how the respective coordinates in the three-dimensional graphics data are in a positional relationship. In this case, assuming that the operator looks at the scene where these objects are arranged in the direction of the line of sight from the viewpoint position (x0, y0, z0), the operator can see the object icicles in the foreground, and behind them the pyramid and meteorite You should see the background image. In consideration of such an arrangement relationship, the multimedia playback device
Generate a projection image to appear on the screen m2 in the figure as a view from the viewpoint. FIG. 6 shows a case where the coordinates in the three-dimensional graphics data have the positional relationship shown in FIG.
FIG. 14 is a view showing a projected image to be displayed on a screen m5.

【0015】続いて光ディスク302に記録される動画
像データのデータ構造について説明する。光ディスク3
02に記録された動画像データは、図7(a)(b)に
示すデータ構造を有する。動画像データは、何百個、何
千個という膨大な数のGOPデータから構成される。ここ
でGOPデータとは、0.5秒という映像表示期間において表
示されるべきフレームデータの集まりである。図7
(a)における1番目のGOPデータは、表示時刻00.0秒か
ら00.5秒までに表示されるべきフレームデータの集まり
であり、2番目、3番目のGOPデータは、表示時刻01.5秒
から02.0秒までに表示されるべきフレームデータ、表示
時刻02.5秒から03.0秒までに表示されるべきフレームデ
ータの集まりである。光ディスク302に記録されてい
る動画像データは、このようなGOPデータの羅列によ
り、数分長、数時間といった上映時間を有する映画、TV
ドラマ等の動画像を構成している。
Next, the data structure of moving image data recorded on the optical disk 302 will be described. Optical disk 3
The moving image data recorded in No. 02 has a data structure shown in FIGS. The moving image data is composed of a huge number of GOP data of hundreds or thousands. Here, the GOP data is a group of frame data to be displayed in a video display period of 0.5 seconds. FIG.
The first GOP data in (a) is a group of frame data to be displayed from the display time 00.0 seconds to 00.5 seconds, and the second and third GOP data are displayed from the display time 01.5 seconds to 02.0 seconds. This is a collection of frame data to be displayed, and frame data to be displayed from a display time of 02.5 seconds to 03.0 seconds. The moving image data recorded on the optical disc 302 is composed of a series of GOP data.
It constitutes a moving image such as a drama.

【0016】各GOPデータに含まれるフレームデータ
は、上記0.5秒という時間単位に表示されるべき12枚〜1
5枚といった映像フレームに対応する。フレームデータ
のデータ構造を図7(b)に示す。各フレームデータ
は、自身の表示順序を示す表示順序情報k7、MPEG規格に
規定されたIピクチャ、Bピクチャ、Pピクチャのうち、
自身の種別はどれに属するかを示すピクチャタイプk8、
Pピクチャ、Bピクチャである場合、自身がどのマクロブ
ロックに位置するかを示し、自身がどの方向に位置する
マクロブロックと高い相関性を有するかを示す動きベク
トル情報k9、複数の画素値からなるスライスデータk10
からなる。
The frame data included in each GOP data is 12 frames to 1 to be displayed in the time unit of 0.5 seconds.
It corresponds to video frames such as five. FIG. 7B shows the data structure of the frame data. Each frame data includes display order information k7 indicating its own display order, among I pictures, B pictures, and P pictures specified by the MPEG standard.
Picture type k8 indicating to which type its own belongs,
In the case of a P picture or a B picture, it indicates which macroblock is located in itself, and motion vector information k9 indicating which direction the macroblock is located has a high correlation with the macroblock in which it is located, and includes a plurality of pixel values. Slice data k10
Consists of

【0017】Iピクチャとは、圧縮された画像データで
あるが、一フレーム分の画素についての輝度成分及び色
差成分を含むものをいう。Pピクチャ(Predictive-Pict
ure)又はBピクチャ(Bidirectionally predictive Pic
ture)は、一フレーム分の画素値を有さず、前後のフレ
ームと比較して変化があった部分の画素値(差分画像と
呼ばれる)を含んでいるものをいう。ここでPピクチャ
とは、過去方向に位置するフレームとの差分からなる差
分画像であり、Bピクチャとは、過去方向及び未来方向
に位置するフレームとの差分からなる差分画像である。
An I-picture is a compressed image data that includes a luminance component and a color difference component for one frame of pixels. P picture (Predictive-Pict
ure) or B picture (Bidirectionally predictive Pic)
ture) does not have a pixel value for one frame but includes a pixel value (called a difference image) of a portion that has changed compared to the previous and next frames. Here, the P picture is a difference image including a difference from a frame located in the past direction, and the B picture is a difference image including a difference from a frame located in the past direction and the future direction.

【0018】ここでIピクチャ、Pピクチャ、Bピクチャ
に含まれるスライスデータがどう異なるかを図8を参照
しながら説明する。図8は、スライスデータの大小をI
ピクチャ、Pピクチャ、Bピクチャ毎に比較するための説
明図であり、図8において斜線でハッチングした部位
は、そのマクロブロックが存在しない部位を示す。Iピ
クチャについてのスライスデータは、45のマクロブロ
ックにて構成される。
Here, how the slice data included in the I picture, the P picture, and the B picture are different will be described with reference to FIG. FIG. 8 shows the magnitude of the slice data as I
FIG. 9 is an explanatory diagram for comparing a picture, a P picture, and a B picture. In FIG. 8, a hatched portion indicates a portion where the macroblock does not exist. The slice data for an I picture is composed of 45 macroblocks.

【0019】マクロブロックとは、横16×縦16の輝度成
分からなる輝度ブロックと、横8×縦8の青色差成分から
なる青色差ブロック(Cbブロック)と、横8×縦8の赤色
差成分からなる赤色差ブロック(Crブロック)とを含む
データであり、動画像データにおける画素値は、このマ
クロブロックという単位でメモリに書き込まれ、メモリ
から読み出される。
A macroblock is a luminance block composed of 16 × 16 luminance components, a blue difference block (Cb block) composed of 8 × 8 blue difference components, and a 8 × 8 red color difference block. This is data including a red difference block (Cr block) composed of components, and pixel values in moving image data are written to a memory in units of macroblocks and read from the memory.

【0020】図8においてもIピクチャについては斜線
部が存在しないため、Iピクチャは全マクロブロックの
画素値を有していることがわかる。これに対してPピク
チャ、Bピクチャは、その大部分がハッチングされてお
り、マクロブロックの画素値を有していないことがわか
る。Pピクチャ、Bピクチャのスライスデータがマクロブ
ロックを有しているのは、Iピクチャにおいて鳥が飛行
している部位に関連するマクロブロックのみである。
FIG. 8 also shows that the I picture has pixel values of all macroblocks since there is no hatched portion in the I picture. On the other hand, it can be seen that most of the P picture and the B picture are hatched, and do not have the pixel value of the macroblock. The slice data of the P picture and the B picture have macroblocks only in the macroblocks related to the part where the bird is flying in the I picture.

【0021】Pピクチャ、Bピクチャがその前後のフレー
ムデータと比較して、映像内容が変化した部位のみのマ
クロブロックを有しているのは、そのデータ量の圧縮の
ためである。圧縮された動画像データは、復号処理(こ
こでいう復号処理は、特許請求の範囲における表示処理
と同義である。)において、差分画像と、差分算出の基
準となる画像(以下「参照画像」と呼ぶ)とを合成する
ことにより、表示用の画像に変換される。
The reason why the P picture and the B picture have macroblocks only in the portions where the video contents have changed as compared with the frame data before and after the P and B pictures is to compress the data amount. In the decoding process (the decoding process here is the same as the display process in the claims), the compressed moving image data is used as a difference image and an image serving as a reference for calculating the difference (hereinafter referred to as a “reference image”). ) Is converted into an image for display.

【0022】3次元グラフィックスデータと、動画像デ
ータはそのデータ構造や情報の内容が大きく異なること
は以上の説明により明らかであるが、3次元グラフィッ
クスデータの表示処理及び動画像データの復号処理にお
いて以下に示す共通点(1)(2)が存在することに本実施形
態は着眼している。 <共通点(1)>3次元グラフィックスデータの再生時に
おいて、複数の物体が仮想空間内に配置されている場
合、これら物体毎に投影像を生成せねばならない。ここ
で物体のうち、透明性を有するものについては、正面側
の投影像、背面側の投影像をそれぞれ生成する。このよ
うに生成した投影像同士を合成して次に表示すべき画像
を得なければならない。図6の一例の投影像を生成する
場合、氷柱の材質が透過性を有しているので、マルチメ
ディア再生装置は、四枚の投影像、即ち、氷柱の正面側
の投影像、背面側の投影像、ピラミットの正面側の投影
像等を別々に生成し、これらを図9に示すように合成し
て上記視点から見えるであろう仮想空間の光景画像を生
成する。
Although it is clear from the above description that the three-dimensional graphics data and the moving image data have significantly different data structures and information contents, the display processing of the three-dimensional graphics data and the decoding processing of the moving image data This embodiment focuses on the existence of the following common points (1) and (2). <Common point (1)> At the time of reproducing three-dimensional graphics data, if a plurality of objects are arranged in a virtual space, a projection image must be generated for each of these objects. Here, of the objects having transparency, a projection image on the front side and a projection image on the back side are respectively generated. The images to be displayed next must be obtained by combining the projection images generated in this way. When the projection image of the example of FIG. 6 is generated, since the material of the icicle has transparency, the multimedia reproducing apparatus performs four projection images, that is, a projection image on the front side of the icicle and a projection image on the back side of the icicle. A projection image, a projection image on the front side of the pyramid, and the like are separately generated, and these are combined as shown in FIG. 9 to generate a scene image of a virtual space that can be seen from the viewpoint.

【0023】一方、動画像データの再生時において、次
のフレームデータがPピクチャである場合、Pピクチャを
復号してその差分画像を得るのと共に、Iピクチャから
その差分画像と足し合わせるべき参照画像を切り出し
て、差分画像と参照画像とを図10に示すように合成し
て次フレームの表示用画像を得る。動画像データ及び3
次元グラフィックスデータはデータ構造が全く異なると
はいえ、複数画像の合成処理が必要となる点では共通性
を有する。この共通性に着眼してハードウェアを構成す
れば、合成すべき複数画像を個別に格納しておくための
メモリ(一般にテクスチャメモリと呼ばれる。)や上記
合成すべき複数画像の画素値同士を足し合わせる加算器
は共通化することができる。
On the other hand, when the next frame data is a P-picture at the time of reproducing the moving picture data, the P-picture is decoded to obtain the difference image, and the reference picture to be added to the difference picture from the I-picture is obtained. , And the difference image and the reference image are combined as shown in FIG. 10 to obtain a display image of the next frame. Moving image data and 3
Although the two-dimensional graphics data has a completely different data structure, they have in common that a plurality of images need to be combined. If the hardware is configured with this commonality in mind, a memory (generally called a texture memory) for individually storing a plurality of images to be combined and the pixel values of the plurality of images to be combined are added. The adder to be combined can be shared.

【0024】<共通点(2)>動画像データの復号処理時
において、次のフレームデータがPピクチャ、Bピクチャ
である場合、動きベクトル情報により指示される参照画
像の切り出し範囲が半画素先である場合がある。この場
合のズレを補間するため、ハーフペル補間と呼ばれる補
間処理が必要となる。
<Common point (2)> At the time of decoding moving image data, if the next frame data is a P picture or a B picture, the cut-out range of the reference image indicated by the motion vector information is a half pixel ahead. There may be. In order to interpolate the displacement in this case, an interpolation process called half-pel interpolation is required.

【0025】3次元グラフィックスデータの表示処理時
において、スクリーンm2上に仮想空間内に配置された物
体の投影像を生成するにあたって、仮想空間における物
体の頂点座標と視点座標から視線方向に配置されたスク
リーンm2との射影点座標を算出する必要がある。この射
影点座標が整数値でない場合に、ハーフペル補間と呼ば
れる補間処理が動画像データの場合と同様必要となる。
At the time of display processing of the three-dimensional graphics data, when generating a projection image of the object arranged in the virtual space on the screen m2, the projection image is arranged in the line-of-sight direction from the vertex coordinates and the viewpoint coordinates of the object in the virtual space. It is necessary to calculate the projection point coordinates with the screen m2. When the projection point coordinates are not integer values, an interpolation process called half-pel interpolation is required as in the case of moving image data.

【0026】以上の共通化を考えると、合成処理のため
の加算器、ハーフペル補間のための専用回路は単純に共
通化できると思える。しかし合成処理のための加算器
は、以下の差違点(1)(2)が存在するため3次元グラフィ
ックスデータ、動画像データの表示処理は単純に共通の
ものを用いれば良いというものではない。 <差違点(1)>画像データは画素値の集合なので、本来
負の値はありえない。3次元グラフィックスデータに表
示処理を行って得られる画素値も同様であり、全て正の
画素値成分を有している。これに対してBピクチャ、Pピ
クチャに含まれている差分画像は、前後のフレームデー
タとの差違に基づいて復号されているため、負の成分が
存在するので、3次元グラフィックスデータの合成処理
ではこのような負の成分を有する画素値を処理し得な
い、 <差違点(2)>3次元グラフィックスデータの表示処理
において、透明性を有する物体の正面側の投影像と、背
面側の投影像とを合成する際、これら2つの投影像の画
素値をその透過性に応じた比率で混合する処理が必要あ
り、そのような機能が加算器に求められるが、動画像デ
ータの合成処理の加算にはそのような機能は求められな
い。
Considering the above commonality, it seems that the adder for the combining process and the dedicated circuit for the half-pel interpolation can be simply shared. However, since the adder for the synthesis processing has the following differences (1) and (2), the display processing of the three-dimensional graphics data and the moving image data does not simply use the common processing. . <Difference (1)> Since image data is a set of pixel values, a negative value cannot be originally provided. The same applies to pixel values obtained by performing display processing on three-dimensional graphics data, and all have positive pixel value components. On the other hand, since the difference image included in the B picture and the P picture is decoded based on the difference from the preceding and succeeding frame data, and has a negative component, the processing of synthesizing the three-dimensional graphics data is performed. Cannot process pixel values having such a negative component. <Difference (2)> In the display processing of three-dimensional graphics data, a front projected image of a transparent object and a rear projected image are displayed. When synthesizing a projection image, it is necessary to mix pixel values of these two projection images at a ratio corresponding to the transparency, and such a function is required for an adder. Does not require such a function.

【0027】以上の差違点のうち、差違点(2)を考慮す
ると、3次元グラフィックスデータの表示処理用に設け
られいている加算器の方が所定比率による画素値の混合
機能を有している点で優れていると言える。しかし3次
元グラフィックスデータ用の加算器のみでは、差違点
(1)のために必要な符号付き演算処理は、実現できな
い。そのため、本実施形態における画像合成用加算器の
共通化は、画素値の混合機能を有する3次元グラフィッ
クスデータ表示処理用の加算器をベースに用い、これに
符号付き演算処理の実現のための諸機能を付加すること
が賢明であると考えられる。動画像データの復号の際、
3次元グラフィックスデータ用の加算器にどのような透
過率を設定するかについては後述するものとする。
Considering the difference (2) among the above differences, the adder provided for the display processing of the three-dimensional graphics data has a function of mixing pixel values at a predetermined ratio. Can be said to be excellent. However, only the adder for 3D graphics data is different
Signed arithmetic processing required for (1) cannot be realized. For this reason, the common use of the adder for image synthesis in the present embodiment is based on an adder for three-dimensional graphics data display processing having a function of mixing pixel values, which is used to realize signed arithmetic processing. It is considered wise to add various functions. When decoding moving image data,
The setting of the transmittance in the adder for three-dimensional graphics data will be described later.

【0028】<マルチメディア再生装置の内部構成>図
11は、マルチメディア再生装置の内部を示す図であ
る。図11においてマルチメディア再生装置300は、
光ディスク301、光ディスク302等ディスクタイプ
の記録媒体を装填して3次元グラフィックスデータ、動
画像データを読み出すためのドライブ装置101と、本
実施形態に係る表示処理装置102と、表示処理装置1
02による表示処理結果を変換して映像信号に変換する
映像信号変換装置103からなる。また表示処理装置1
02の内部構成を図12に示す。
<Internal Configuration of Multimedia Reproducing Apparatus> FIG. 11 is a diagram showing the inside of a multimedia reproducing apparatus. In FIG. 11, the multimedia playback device 300
A drive device 101 for loading a disk-type recording medium such as an optical disk 301 and an optical disk 302 to read out three-dimensional graphics data and moving image data, a display processing device 102 according to the present embodiment, and a display processing device 1
The video signal conversion device 103 converts the display processing result of the image processing device 02 into a video signal. Display processing device 1
FIG. 12 shows the internal configuration of the H.02.

【0029】図12において表示処理装置102は、入
力切換部1と、3次元グラフィックスデータ依存部20
0と、動画像データ依存部201と、メモリモジュール
202と、合成部9と、読書アドレス生成部14と、双
方向ハーフペル補間部19a,b,c,d,e・・・と、符号ビット
判定部20と、スイッチ37とからなる。このうちグラ
フィックデータ依存部200、動画像データ依存部20
1は3次元グラフィックスデータ表示処理、動画像デー
タ表示処理にそれぞれ依存しており、その他の部分(メ
モリモジュール202、合成部9、読書アドレス生成部
14、双方向ハーフペル補間部19a,b,c,d,e・・・、符号
ビット判定部20、スイッチ27)は上記共通化(1)、
(2)に着眼して共通化されている。
In FIG. 12, the display processing device 102 includes an input switching unit 1 and a three-dimensional graphics data dependent unit 20.
0, the moving image data dependent unit 201, the memory module 202, the synthesizing unit 9, the reading address generating unit 14, the bidirectional half-pel interpolating units 19a, b, c, d, e. It comprises a unit 20 and a switch 37. Among them, the graphic data dependent unit 200 and the moving image data dependent unit 20
Numeral 1 depends on three-dimensional graphics data display processing and moving image data display processing, respectively, and other parts (memory module 202, synthesizing section 9, reading address generating section 14, bidirectional half-pel interpolation sections 19a, b, c) , d, e..., the sign bit determination unit 20 and the switch 27) are shared (1),
It has been standardized focusing on (2).

【0030】入力切換部1は、復号制御部101に装填
された記録媒体のインデックス情報を参照して、その記
録媒体に記録されているデータが3次元グラフィックス
データであるか、動画像データであるかを判定する。イ
ンデックス情報に3次元グラフィックスデータが示され
ている場合、ドライブ装置101から読み出されたデー
タを3次元グラフィックスデータとしてグラフィックデ
ータ依存部200に出力する。インデックス情報に動画
像データが示されている場合、ドライブ装置101から
読み出されたデータを動画像データとして動画像データ
依存部201に出力する。
The input switching section 1 refers to the index information of the recording medium loaded in the decoding control section 101 and determines whether the data recorded on the recording medium is three-dimensional graphics data or moving image data. It is determined whether there is. If the index information indicates three-dimensional graphics data, the data read from the drive device 101 is output to the graphic data dependent unit 200 as three-dimensional graphics data. If moving image data is indicated in the index information, the data read from the drive device 101 is output to the moving image data dependent unit 201 as moving image data.

【0031】メモリモジュール202は、フレームメモ
リ2、テクスチャアメモリアレイ3、ワークメモリ4か
ら構成されるメモリボードである。フレームメモリ2
は、仮想空間内に配置されたスクリーンm2に対応したメ
モリであり、ここに記憶された画素値は映像信号変換装
置103により映像信号に順次変換される。
The memory module 202 is a memory board including a frame memory 2, a texture memory array 3, and a work memory 4. Frame memory 2
Is a memory corresponding to the screen m2 arranged in the virtual space, and the pixel values stored therein are sequentially converted into video signals by the video signal conversion device 103.

【0032】テクスチャメモリアレイ3は、3次元グラ
フィックスデータを表示する際、各物体情報に対応する
物体の正面側のレンダリングデータ、背面側のレンダリ
ングデータを記憶するためのテクスチャメモリを複数配
置してなる。ここでレンダリングデータとは、仮想空間
内に配置された物体の投影像をその正面側、背面側毎に
表現するデータをいう。
When displaying three-dimensional graphics data, the texture memory array 3 is provided with a plurality of texture memories for storing rendering data on the front side and rendering data on the back side of an object corresponding to each object information. Become. Here, the rendering data refers to data that expresses a projected image of an object arranged in the virtual space for each of the front side and the back side.

【0033】テクスチャメモリアレイ3のうち第1物体
正面側テクスチャメモリ31は、視点から見て最も手前
側に位置する物体(第1物体という)の正面側レンダリ
ングデータを格納するものであり、第1物体背面側テク
スチャメモリ32は、視点から見て最も手前側に位置す
る第1物体の背面側レンダリングデータを格納するもの
である。第2物体正面側テクスチャメモリ33は、視点
から見て第1物体の背後に位置する物体(第2物体とい
う)の正面側レンダリングデータを格納するものであ
り、第2物体背面側テクスチャメモリ34は、視点から
見て第1物体の背後側に位置する第2物体の背面側レン
ダリングデータを格納するものである。第3物体正面側
テクスチャメモリ35は、視点から見て第2物体の背後
に位置する物体(第3物体という)の正面側レンダリン
グデータを格納するものであり、第3物体背面側テクス
チャメモリ36は、視点から見て第2物体の背後側に位
置する第3物体の背面側レンダリングデータを格納する
ものである。このように第1、第2、第3物体の正面側
レンダリングデータ、背面側レンダリングデータのそれ
ぞれに一枚のテクスチャメモリが割り当てられており、
一物体の正面側レンダリングデータ、背面側レンダリン
グデータが個別に格納されることがわかる。
The first object front side texture memory 31 of the texture memory array 3 stores front side rendering data of an object located at the foremost side (referred to as a first object) when viewed from the viewpoint. The object back side texture memory 32 stores the back side rendering data of the first object located closest to the viewer when viewed from the viewpoint. The second object front side texture memory 33 stores front side rendering data of an object (referred to as a second object) located behind the first object when viewed from the viewpoint, and the second object back side texture memory 34 stores , Which stores the rendering data on the back side of the second object located behind the first object when viewed from the viewpoint. The third object front side texture memory 35 stores front side rendering data of an object (referred to as a third object) located behind the second object when viewed from the viewpoint, and the third object back side texture memory 36 stores Rendering data on the back side of a third object located behind the second object when viewed from the viewpoint. As described above, one texture memory is allocated to each of the front side rendering data and the back side rendering data of the first, second, and third objects.
It can be seen that the front side rendering data and the back side rendering data of one object are stored separately.

【0034】ワークメモリ4は、3次元グラフィックス
データの表示時において、レンダリングデータの生成作
業用に用いられる。また、動画像データの復号処理時に
おいて、Iピクチャや差分画像の復号作業用に用いられ
る。尚、以上説明したフレームメモリ2、テクスチャメ
モリアレイ3、ワークメモリ4の容量は何れも一画面分
の画素値を保持し得る容量を有し、データバス、アドレ
スバスと接続されている。
The work memory 4 is used for generating rendering data when displaying three-dimensional graphics data. Also, it is used for decoding an I picture or a difference image at the time of decoding moving image data. Note that the capacities of the frame memory 2, texture memory array 3, and work memory 4 described above each have a capacity to hold a pixel value for one screen, and are connected to a data bus and an address bus.

【0035】またフレームメモリ2、テクスチャメモリ
アレイ3、ワークメモリ4の内部領域は共通の絶対アド
レスにて指示される。この絶対アドレスは、ベースアド
レスとオフセットアドレスとからなり、フレームメモリ
2、テクスチャメモリアレイ3、ワークメモリ4のそれ
ぞれに付与された先頭アドレスがこのベースアドレスと
して用られる。またオフセットアドレスは、フレームメ
モリ2、テクスチャメモリアレイ3、ワークメモリ4に
おいて、画像上の任意の座標(x,y)に位置する各画素値
の格納領域をアドレッシングするために用いられる(オ
フセットアドレスは専ら画素値の格納先の指示のために
用いられるから、以降オフセットアドレスを以降XY座標
と等価に扱うものとする。)。
The internal areas of the frame memory 2, texture memory array 3, and work memory 4 are designated by a common absolute address. The absolute address is composed of a base address and an offset address, and the head address assigned to each of the frame memory 2, the texture memory array 3, and the work memory 4 is used as the base address. The offset address is used to address a storage area of each pixel value located at an arbitrary coordinate (x, y) on the image in the frame memory 2, the texture memory array 3, and the work memory 4 (the offset address is Since the offset address is used exclusively for designating the storage destination of the pixel value, the offset address is hereinafter treated equivalently to the XY coordinates.)

【0036】更にフレームメモリ2〜ワークメモリ4
は、3次元グラフィックスデータについては赤、青、緑
という三原色毎の輝度成分の値により、その画素値を保
持しており、動画像データについては輝度成分、青色差
成分、赤色差成分の値により、その画素値を表現してい
る。次にグラフィックデータ依存部200の内部構成に
ついて説明する。グラフィックデータ依存部200は、
ジオメトリ部5、傾き計算部6、シェーディング部7、
テクスチャマッピング部8により構成される。
Further, a frame memory 2 to a work memory 4
Holds the pixel values of the three-dimensional graphics data based on the values of the luminance components for each of the three primary colors of red, blue, and green. For moving image data, the values of the luminance component, the blue difference component, and the red difference component Represents the pixel value. Next, the internal configuration of the graphic data dependent unit 200 will be described. The graphic data dependent unit 200
Geometry unit 5, inclination calculation unit 6, shading unit 7,
It is constituted by a texture mapping unit 8.

【0037】ジオメトリ部5は、3次元グラフィックス
データに含まれている視点位置、光源座標を検出して、
これらの座標に視点位置、光源座標を定める。また3次
元グラフィックスデータに含まれている物体情報を読み
出して、それに含まれている配置位置座標に形状情報に
含まれている相対座標列を加算することにより、物体頂
点を仮想空間に配置する。最後に視線方向を示すベクト
ルをその法線ベクトルとし、視点座標から視線ベクトル
に向かう方向の延長線上に空間座標を有する平面を算出
して、これを投影像が生成されるスクリーンとして、仮
想空間内に設定する。
The geometry section 5 detects a viewpoint position and light source coordinates included in the three-dimensional graphics data,
The viewpoint position and the light source coordinates are determined for these coordinates. Also, the object vertices are arranged in the virtual space by reading the object information included in the three-dimensional graphics data and adding the relative coordinate sequence included in the shape information to the arrangement position coordinates included therein. . Finally, the vector indicating the line-of-sight direction is defined as its normal vector, and a plane having spatial coordinates on an extension line from the viewpoint coordinates toward the line-of-sight vector is calculated. Set to.

【0038】傾き計算部6は、仮想空間内物体の各辺
を、頂点間を結ぶ直線として設定し、それら辺間の直線
とスクリーンとがなす傾きを計算する。計算後、仮想空
間内に設定されたスクリーン上に物体頂点の射影点の座
標を求めて、この射影点座標を平面を構成するもの毎に
グル−プ化してワークメモリ4に書き込むことにより、
レンダリングデータの原型を得る。この際、ワークメモ
リ4に書き込まれたレンダリングデータを構成する射影
点座標のうち、整数値でないものを整数値に丸める。
The inclination calculator 6 sets each side of the object in the virtual space as a straight line connecting the vertices, and calculates the inclination formed by the straight line between the sides and the screen. After the calculation, the coordinates of the projection point of the object vertex are obtained on the screen set in the virtual space, and the projection point coordinates are grouped for each of the planes and written in the work memory 4.
Get the rendering data prototype. At this time, non-integer coordinates among projection point coordinates constituting rendering data written in the work memory 4 are rounded to integer values.

【0039】ここで氷柱、ピラミットがジオメトリ部5
により図5の姿勢に配置された場合、傾き計算部6は、
氷柱、ピラミットを構成する頂点の射影点座標を求める
ので図20(a)〜(f)、図21(a)(b)に示す
レンダリングデータの原型が得られる。図20及び図2
1は、図5の姿勢にある氷柱、ピラミットによりどのよ
うなレンダリングデータが得られるかを示す図である。
Here, the icicle and pyramid are in the geometry section 5
When placed in the posture shown in FIG.
Since the projection point coordinates of the vertices constituting the icicle and pyramid are obtained, the prototypes of the rendering data shown in FIGS. 20 (a) to (f) and FIGS. 21 (a) and (b) are obtained. FIG. 20 and FIG.
FIG. 1 is a diagram showing what rendering data is obtained by the icicle and pyramid in the posture of FIG.

【0040】シェーディング部7は、仮想空間内物体の
各点の照度を算出する。ここで算出すべき照度とは、光
源座標(xn,yn,zn)に配置された光度R1の光源から各物体
に分配されるものであり、各頂点を含む面への光線の入
射角、光源と頂点との距離、面の反射率から算出され
る。照度は0以上1以下の値となり、照度が1ならば、
物体情報における色彩情報がそのまま表示され、逆に0
ならば色彩情報は失われる。
The shading unit 7 calculates the illuminance of each point of the object in the virtual space. The illuminance to be calculated here is distributed to each object from the light source of luminous intensity R1 arranged at the light source coordinates (xn, yn, zn), the incident angle of the light ray on the surface including each vertex, the light source It is calculated from the distance between the point and the vertex, and the reflectance of the surface. The illuminance is a value from 0 to 1 and if the illuminance is 1,
The color information in the object information is displayed as it is,
If so, the color information is lost.

【0041】テクスチャマッピング部8は、ワークメモ
リ4において物体平面毎にグル−プ化されたレンダリン
グデータのうち、視点から見て正面側、背面側に位置す
るもの同士を統合した後、これらレンダリングデータに
おける相対座標列により包含される閉領域にビットマッ
プを貼り付けて、指定された色彩情報にて塗り潰す。塗
り潰しの後、シェーディング部7により算出された各頂
点毎の照度に基づいて、塗り潰されたレンダリングデー
タに陰影を付す。このようにして陰影を付すと、そのレ
ンダリングデータをテクスチャメモリアレイ3において
該当するテクスチャメモリに書き込む。
The texture mapping unit 8 integrates, among the rendering data grouped for each object plane in the work memory 4, those located on the front side and the back side as viewed from the viewpoint, and then combines these rendering data. A bitmap is pasted on a closed area encompassed by the relative coordinate sequence in and color is filled with the designated color information. After the filling, the filled rendering data is shaded based on the illuminance for each vertex calculated by the shading unit 7. When the shadow is added in this way, the rendering data is written to the corresponding texture memory in the texture memory array 3.

【0042】図20、図21の一例に示すレンダリング
データに対して以上の処理が行われた場合、視点に一番
近い氷柱のレンダリングデータを第1物体としてその平
面の統合を行う。図20において正面側となるのは図2
0(a)に示す頂点P3,P4,P5,P6からなる平面と、図2
0(b)に示す頂点P2,P4,P6,P7からなる平面である。
テクスチャマッピング部8はこれらを一つのレンダリン
グデータに統合して第1物体の正面側レンダリングデー
タを生成する。その後、氷柱に規定されている模様情報
に基づいて、文字列ICEを貼り付けて図22(a)に示
すレンダリングデータを得て、第1物体の正面側レンダ
リングデータに割り当てられている第1物体正面側テク
スチャメモリ31に書き込む。
When the above processing is performed on the rendering data shown in the examples of FIGS. 20 and 21, the rendering data of the icicle closest to the viewpoint is used as the first object to integrate the planes. The front side in FIG. 20 is shown in FIG.
FIG. 2 shows a plane composed of vertices P3, P4, P5, and P6 shown in FIG.
This is a plane including vertices P2, P4, P6, and P7 shown in FIG.
The texture mapping unit 8 integrates these into one rendering data to generate the front side rendering data of the first object. Thereafter, based on the pattern information specified for the icicle, the character string ICE is pasted to obtain the rendering data shown in FIG. 22A, and the first object assigned to the front-side rendering data of the first object Write to the front side texture memory 31.

【0043】第1物体において背面側となるのは図20
(c)に示す頂点P1,P2,P3,P4からなる平面と、図20
(d)に示す頂点P5,P6,P7,P8からなる平面、図20
(e)に示すP1,P3,P5,P8からなる平面、図20(f)
に示すP1,P2,P7,P8からなる平面である。シェーディン
グ部7はこれらを一つのレンダリングデータに統合して
第1物体の背面側レンダリングデータを生成する。その
後、氷柱に規定されている模様情報に基づいて、文字列
ICEを貼り付けて図22(b)に示すレンダリングデー
タを得て、背面側レンダリングデータに割り当てられて
いる第1物体背面側テクスチャメモリ32に書き込む。
FIG. 20 shows the back side of the first object.
A plane composed of vertices P1, P2, P3, and P4 shown in FIG.
FIG. 20 is a plane including vertices P5, P6, P7, and P8 shown in FIG.
FIG. 20F shows a plane including P1, P3, P5, and P8 shown in FIG.
Is a plane including P1, P2, P7, and P8 shown in FIG. The shading unit 7 integrates these into one rendering data to generate the rendering data on the back side of the first object. Then, based on the pattern information specified for the icicle,
The rendering data shown in FIG. 22B is obtained by pasting the ICE, and is written in the first object back side texture memory 32 assigned to the back side rendering data.

【0044】次に、視点に二番目に近いピラミットのレ
ンダリングデータを第2物体としてその平面の統合を行
う。第2物体において正面側となるのは図21(a)に
示す頂点Q1,Q2,Q3からなる平面と、図21(b)に示す
頂点Q1,Q3,Q4からなる平面である。シェーディング部7
はこれらを一つのレンダリングデータに統合して第2物
体の正面側レンダリングデータを生成する。その後、ピ
ラミットに規定されている模様情報に基づいて、石垣模
様を貼り付けて図22(c)に示すレンダリングデータ
を得て、第2物体の正面側レンダリングデータに割り当
てられている第2物体正面側テクスチャメモリ33に書
き込む。
Next, the rendering data of the pyramid closest to the viewpoint is used as the second object to integrate the planes. The front side of the second object is a plane formed by vertices Q1, Q2, and Q3 shown in FIG. 21A and a plane formed by vertices Q1, Q3, and Q4 shown in FIG. 21B. Shading part 7
Integrates these into one rendering data to generate front-side rendering data of the second object. Then, based on the pattern information specified in the pyramid, a stone wall pattern is pasted to obtain rendering data shown in FIG. 22C, and the second object front surface assigned to the front side rendering data of the second object is obtained. Writing to the side texture memory 33.

【0045】合成部9は、フレームメモリ2に格納され
ているフレーム画像データと、テクスチャマッピング部
8によりビットマップが貼りつけられ、色の塗り潰しが
行われたレンダリングデータとを合成する。ここでの合
成は、各物体について設定された透明度と、各物体の頂
点について設定された照度とに基づいて各物体の透過率
を算出すると共に、フレーム画像データを構成する画
素、レンダリングデータを構成する画素のうち画像上の
座標が共通化しているもの同士を各物体の透過率に従っ
て混合することにより行われる。
The synthesizing unit 9 synthesizes the frame image data stored in the frame memory 2 and the rendering data to which the bitmap is pasted by the texture mapping unit 8 and the color is filled. The synthesis here calculates the transmittance of each object based on the transparency set for each object and the illuminance set for the vertices of each object, and configures the pixels constituting the frame image data and the rendering data. This is performed by mixing the pixels having the same coordinates on the image among the pixels to be processed according to the transmittance of each object.

【0046】ここで算出されるべき透過率は、透明な面
の上にある点では透過率=100%、不透明な面の上にある
点では透過率=0%、半透明な面の上にある点では0より
大きく100%より小さくなる。このような透過率に基づい
て混合計算を行う意義について説明する。ここで物体に
おいて視点に対して最も手前に位置する物体Aの正面側
投影像は画素値(Rp,Bp,Gp)を有するものと想定する。
また、物体Aの背面側に位置する物体Bの背面側投影像は
画素値(Rr,Br,Gr)を有するものと想定する。そうする
とスクリーンには物体Aの投影像に対応する画素値(Rp,
Bp,Gp)がα%の比率で現れ、また物体Bの投影像に対応
する画素値(Rr,Br,Gr)は、(100-α)%の比率でスクリ
ーン上に現れる筈である。
Here, the transmittance to be calculated is as follows: transmittance = 100% at a point on a transparent surface, transmittance = 0% at a point on an opaque surface, and At some point it is greater than 0 and less than 100%. The significance of performing the mixing calculation based on such transmittance will be described. Here, it is assumed that the front-side projection image of the object A located closest to the viewpoint with respect to the viewpoint has pixel values (Rp, Bp, Gp).
Also, it is assumed that the back side projection image of the object B located on the back side of the object A has a pixel value (Rr, Br, Gr). Then, the pixel values (Rp,
Bp, Gp) should appear at the rate of α%, and the pixel values (Rr, Br, Gr) corresponding to the projected image of the object B should appear on the screen at the rate of (100−α)%.

【0047】透過率αの物体Aにより、スクリーン上に
は以下の数式に示す画素値(Rr,Br,Gr)が現れる。 Rr=Rp×α + Rq×(100-α) Br=Bp×α + Bq×(100-α) Gr=Gp×α + Gq×(100-α) この数式は、透過率αを混合率として2つの画素値を加
算する演算と等価であるから、合成部9は、各物体の画
素値と、透過率に基づいて上記数式の演算を行うことに
より、画素値の混合を行う。
The pixel value (Rr, Br, Gr) shown by the following equation appears on the screen due to the object A having the transmittance α. Rr = Rp × α + Rq × (100-α) Br = Bp × α + Bq × (100-α) Gr = Gp × α + Gq × (100-α) Since this is equivalent to the operation of adding two pixel values, the synthesizing unit 9 performs mixing of the pixel values by performing the operation of the above formula based on the pixel value of each object and the transmittance.

【0048】以上でグラフィックデータ依存部200の
内部構成についての説明を終える。続いて動画像データ
依存部201の内部構成について説明する。図12に示
すように動画像データ依存部201は、復号制御部10
と、可変長復号部11と、逆量子化部12と、逆DCT部
13とから構成される。復号制御部10は、動画像デー
タをGOPデータに分割し、ピクチャデータ、さらにマ
クロブロックに分割する。各マクロブロックには復号処
理終了後にピクチャ、GOPに再構成できるように、そ
れが属するストリームデータ、ピクチャの識別情報など
の管理情報を付加したうえで可変長復号部11に送出す
る。
This concludes the description of the internal configuration of graphic data dependent unit 200. Next, the internal configuration of the moving image data dependent unit 201 will be described. As shown in FIG. 12, the moving image data dependent unit 201
, A variable-length decoding unit 11, an inverse quantization unit 12, and an inverse DCT unit 13. The decoding control unit 10 divides the moving image data into GOP data, and divides the data into picture data and further into macroblocks. After completion of the decoding process, each macroblock is added with management information such as identification information of the stream data and picture to which it belongs so that it can be reconstructed into a picture or GOP, and then transmitted to the variable length decoding unit 11.

【0049】可変長復号部11は、送出されてきたマク
ロブロック分のデータに対して可変長復号処理を行い、
1マクロブロック(4+1+1ブロックの3層構造)の
量子化係数を求めて、管理情報から当該マクロブロック
の位置情報(ピクチャにおける位置)と動きベクトルと
を抽出して逆量子化部12へと出力する。逆量子化部1
2は、可変長復号部11から出力されてきた1マクロブ
ロックの量子化係数を逆量子化してDCT係数を求め、
逆DCT部13に送出する。
The variable length decoding unit 11 performs a variable length decoding process on the data of the transmitted macro block,
The quantization coefficient of one macroblock (three-layer structure of 4 + 1 + 1 blocks) is obtained, and the position information (position in the picture) of the macroblock and the motion vector are extracted from the management information and output to the inverse quantization unit 12. . Inverse quantization unit 1
2 dequantizes the quantized coefficient of one macroblock output from the variable length decoding unit 11 to obtain a DCT coefficient,
It is sent to the inverse DCT section 13.

【0050】逆DCT部13は、逆量子化部12から送
出されてきたDCT係数に対して周波数逆変換(逆DC
T)処理を施して画素値を求めてワークメモリ4に書き
込む。以上で動画像データ専用に設けられた動画像デー
タ依存部201の構成要素についての説明を終える。以
降、動画像データの復号処理、3次元グラフィックスデ
ータの表示処理において共通に用いられる構成要素につ
いて説明する。
The inverse DCT unit 13 performs an inverse frequency transform (inverse DCT) on the DCT coefficient transmitted from the inverse quantization unit 12.
T) Perform a process to obtain a pixel value and write it to the work memory 4. This concludes the description of the components of the moving image data dependent unit 201 provided exclusively for moving image data. Hereinafter, the components commonly used in the moving image data decoding processing and the three-dimensional graphics data display processing will be described.

【0051】読書アドレス生成部14は、ワークメモリ
4においてビットマップが貼りつけられ、着色がなされ
た第1〜第nレンダリングデータをテクスチャアマッピ
ング部8がワークメモリ4に格納する際、又は、逆DCT
部13による処理結果をワークメモリ4に格納する際、
ワークメモリ4を書込先とした書込先アドレスを生成し
てアドレスバスに出力する。また、ワークメモリ4に格
納されたデータをテクスチャメモリアレイ3、フレーム
メモリ2に伝送する際、伝送すべきデータの内容に基づ
いて、書込先となる書込先アドレスを生成してアドレス
バスに出力する。以上の処理を行うため、読書アドレス
生成部14は図13に示す内部構成を有する。図13は
読書アドレス生成部14の内部構成を示す図であり、本
図に示すようにベースアドレス生成部15、レンダリン
グデータ用オフセットアドレス生成部16、差分画像用
オフセットアドレス生成部17、参照画像用オフセット
アドレス生成部18により構成される。
The reading address generator 14 stores the first to n-th rendering data to which the bit map is pasted and colored in the work memory 4 by the texture mapping unit 8, or vice versa. DCT
When storing the processing result by the unit 13 in the work memory 4,
A write destination address having the work memory 4 as a write destination is generated and output to an address bus. Further, when transmitting the data stored in the work memory 4 to the texture memory array 3 and the frame memory 2, a write destination address to be a write destination is generated based on the content of the data to be transmitted, and the data is transmitted to the address bus. Output. In order to perform the above processing, the reading address generator 14 has an internal configuration shown in FIG. FIG. 13 is a diagram showing the internal configuration of the reading address generation unit 14. As shown in FIG. 13, the base address generation unit 15, the rendering data offset address generation unit 16, the difference image offset address generation unit 17, and the reference image The offset address generation unit 18 is provided.

【0052】ベースアドレス生成部15は、フレームメ
モリ2、テクスチャアメモリアレイ3、ワークメモリ4
にデータを格納する際、又は、ワークメモリ4、フレー
ムメモリ2−ワークメモリ4間でデータを伝送する際、
読出先、書込先のベースアドレスを生成してアドレスバ
スに出力する。第1〜第n物体の正面側、背面側レンダ
リングデータをワークメモリ4に格納する際、又は、逆
DCT部13による処理結果をワークメモリ4に格納する
際、ワークメモリ4の先頭アドレスをベースアドレスと
して生成してアドレスバスに出力する。また、ワークメ
モリ4に格納されたデータをテクスチャメモリアレイ
3、フレームメモリ2に伝送する際、図14に示す対応
表に基づいて、書込先のベースアドレスとして生成す
る。
The base address generation unit 15 includes a frame memory 2, a texture memory array 3, and a work memory 4.
At the time of storing data or transmitting data between the work memory 4, the frame memory 2 and the work memory 4,
A base address of a read destination and a write destination is generated and output to an address bus. When storing the front-side and back-side rendering data of the first to n-th objects in the work memory 4, or vice versa
When storing the processing result of the DCT unit 13 in the work memory 4, the head address of the work memory 4 is generated as a base address and output to the address bus. When transmitting the data stored in the work memory 4 to the texture memory array 3 and the frame memory 2, the data is generated as a base address of a write destination based on the correspondence table shown in FIG.

【0053】図14に示すようにベースアドレス生成部
15は、伝送すべきデータがレンダリングデータなら、
ワークメモリ4の先頭アドレスを読出先のベースアドレ
スとして生成してアドレスバスに出力し、テクスチャメ
モリアレイ3における各テクスチャメモリの先頭アドレ
スを書込先のベースアドレスとして生成してアドレスバ
スに出力する。
As shown in FIG. 14, if the data to be transmitted is rendering data,
The head address of the work memory 4 is generated as a read destination base address and output to the address bus, and the head address of each texture memory in the texture memory array 3 is generated as a write destination base address and output to the address bus.

【0054】伝送すべきデータが差分画像ならベースア
ドレス生成部15は、ワークメモリ4の先頭アドレスを
読出先のベースアドレスとして生成してアドレスバスに
出力し、テクスチャメモリアレイ3における第1物体正
面側テクスチャメモリ31の先頭アドレスを書込先のベ
ースアドレスとして生成してアドレスバスに出力する。
If the data to be transmitted is a differential image, the base address generator 15 generates the head address of the work memory 4 as a read destination base address and outputs the generated base address to the address bus. The head address of the texture memory 31 is generated as a write destination base address and output to the address bus.

【0055】伝送すべきデータが参照画像ならベースア
ドレス生成部15は、フレームメモリ2の先頭アドレス
を読出先のベースアドレスとして生成してアドレスバス
に出力し、テクスチャメモリアレイ3における第2物体
正面側テクスチャメモリ33、第3物体正面側テクスチ
ャメモリ35の先頭アドレスを書込先のベースアドレス
として生成してアドレスバスに出力する。
If the data to be transmitted is a reference image, the base address generator 15 generates the head address of the frame memory 2 as the base address of the read destination and outputs the generated base address to the address bus. The head addresses of the texture memory 33 and the third object front side texture memory 35 are generated as base addresses for writing, and output to the address bus.

【0056】伝送すべきデータがIピクチャなら、ワー
クメモリ4の先頭アドレスを読出先アドレスのベースア
ドレスとして生成してアドレスバスに出力し、フレーム
メモリ2の先頭アドレスを書込先のベースアドレスとし
て生成してアドレスバスに出力する。上記のようにし
て、ベースアドレス生成部15がベースアドレスを生成
してアドレスバスに出力することにより、レンダリング
データ、参照画像、差分画像、Iピクチャが然るべきメ
モリにそれぞれ転送されることになる。
If the data to be transmitted is an I picture, the head address of the work memory 4 is generated as the base address of the read destination address and output to the address bus, and the head address of the frame memory 2 is generated as the base address of the write destination. And outputs it to the address bus. As described above, when the base address generation unit 15 generates the base address and outputs the generated base address to the address bus, the rendering data, the reference image, the difference image, and the I picture are transferred to the appropriate memories.

【0057】図14における対応表に基づいて、レンダ
リングデータ、参照画像、差分画像をテクスチャメモリ
アレイ3に伝送すれば、図15(a)〜(c)に示すよ
うにレンダリングデータ、参照画像、差分画像が第1物
体正面側テクスチャメモリ31〜第3物体背面側テクス
チャメモリ35に格納されることになる。図22に示し
た3つのレンダリングデータがワークメモリ4に生成さ
れ、各レンダリングデータの生成時点においてベースア
ドレス生成部15が第1物体正面側テクスチャメモリ3
1〜第3物体背面側テクスチャメモリ35の先頭アドレ
スをベースアドレスとして生成してアドレスバスに出力
すると、図15(a)に示すように第1物体正面側テク
スチャメモリ31〜第3物体背面側テクスチャメモリ3
5には図22(a)〜(c)に示したレンダリングデー
タがそれぞれ格納されることになる。
When the rendering data, the reference image, and the difference image are transmitted to the texture memory array 3 based on the correspondence table in FIG. 14, the rendering data, the reference image, and the difference image are transmitted as shown in FIGS. The images are stored in the first object front side texture memory 31 to the third object back side texture memory 35. The three rendering data shown in FIG. 22 are generated in the work memory 4, and at the time of generation of each rendering data, the base address generating unit 15
When the head addresses of the first to third object back side texture memories 35 are generated as base addresses and output to the address bus, the first object front side texture memories 31 to the third object back side textures are generated as shown in FIG. Memory 3
5 stores the rendering data shown in FIGS.

【0058】また、Pピクチャの復号処理時においてベ
ースアドレス生成部15が第1物体正面側テクスチャメ
モリ31の先頭アドレスを差分画像の書込先のベースア
ドレスとして生成し、第2物体正面側テクスチャメモリ
33の先頭アドレスを参照画像の書込先のベースアドレ
スとして出力すると、図15(b)に示すように第1物
体正面側テクスチャメモリ31に差分画像が格納され、
第2物体正面側テクスチャメモリ33には参照画像が格
納される。
Also, at the time of decoding the P picture, the base address generation unit 15 generates the head address of the first object front side texture memory 31 as the base address of the writing destination of the difference image, and generates the second object front side texture memory. When the head address of the reference image 33 is output as the base address of the writing destination of the reference image, the difference image is stored in the first object front side texture memory 31 as shown in FIG.
The reference image is stored in the second object front side texture memory 33.

【0059】更に、Bピクチャの復号処理時においてベ
ースアドレス生成部15が第1物体正面側テクスチャメ
モリ31の先頭アドレスを差分画像の書込先のベースア
ドレスとして生成し、第2物体正面側テクスチャメモリ
33、第3物体正面側テクスチャメモリ35の先頭アド
レスを前方側参照画像、後方側参照画像の書込先のベー
スアドレスとして出力すると、図15(c)に示すよう
に第1物体正面側テクスチャメモリ31に差分画像が格
納され、第2物体正面側テクスチャメモリ33、第3物
体正面側テクスチャメモリ35には前方側参照画像、後
方側参照画像が格納される。
Further, at the time of decoding the B picture, the base address generator 15 generates the head address of the first object front side texture memory 31 as the base address of the difference image writing destination, and generates the second object front side texture memory. 33, when the head address of the third object front side texture memory 35 is output as the base address of the writing destination of the front side reference image and the rear side reference image, as shown in FIG. The difference image is stored in 31, and the front-side reference image and the rear-side reference image are stored in the second object front side texture memory 33 and the third object front side texture memory 35.

【0060】尚、差分画像を第1物体正面側テクスチャ
メモリ31に格納したのは説明の便宜のための一例に過
ぎない。差分画像及び参照画像を第1物体正面側テクス
チャメモリ31〜第3物体背面側テクスチャメモリ36
の何れに格納するかは、任意に定めればよい。レンダリ
ングデータ用オフセットアドレス生成部16は、傾き計
算部6が算出したXY座標に基づいて、ワークメモリ4に
おけるオフセットアドレスを生成し、アドレスバスに出
力する。
The storing of the difference image in the first object front side texture memory 31 is merely an example for convenience of explanation. The difference image and the reference image are stored in the first object front side texture memory 31 to the third object back side texture memory 36.
Which of the above is stored may be arbitrarily determined. The rendering data offset address generator 16 generates an offset address in the work memory 4 based on the XY coordinates calculated by the tilt calculator 6, and outputs the offset address to the address bus.

【0061】差分画像用オフセットアドレス生成部17
は、新たに復号されたフレームデータにおけるピクチャ
タイプがBピクチャ、Pピクチャであり、その差分画像を
ワークメモリ4に格納する際、逆量子化部12がヘッダ
から取り出したマクロブロックアドレスをxy座標に変換
することにより、書込先のオフセットアドレスを生成し
てアドレスバスに出力する。オフセットアドレスの出力
の後、逆DCT部13が差分画像の画素値を出力すると、
その画素値は書込先アドレスとして指定されたワークメ
モリ4に取り込まれて、ワークメモリ4内部のオフセッ
トアドレスに示される内部領域に書き込まれる。
The difference image offset address generator 17
Is that the picture type in the newly decoded frame data is B picture or P picture, and when the difference image is stored in the work memory 4, the macro block address extracted from the header by the inverse quantization unit 12 is set to the xy coordinate. By performing the conversion, the offset address of the write destination is generated and output to the address bus. After the output of the offset address, when the inverse DCT unit 13 outputs the pixel value of the difference image,
The pixel value is taken into the work memory 4 specified as the write destination address, and written into the internal area indicated by the offset address inside the work memory 4.

【0062】参照画像用オフセットアドレス生成部18
は、新たに復号されたフレームデータにおけるピクチャ
タイプがBピクチャ、Pピクチャであり、その参照画像を
フレームメモリ2に切り出す際、逆量子化部12がヘッ
ダから取り出したマクロブロックアドレスと動きベクト
ル情報とをxy座標に変換することにより、読出先のオフ
セットアドレスを生成してアドレスバスに出力する。読
出先アドレスの出力後、読出先アドレスとして指定され
たフレームメモリ2に取り込まれて、フレームメモリ2
内部のオフセットアドレスに示される内部領域からデー
タを読み出し、データバスに出力する。
Reference image offset address generator 18
In the newly decoded frame data, the picture types are B picture and P picture, and when the reference image is cut out to the frame memory 2, the macroblock address and the motion vector information extracted from the header by the inverse quantization unit 12 are Is converted to xy coordinates to generate a read destination offset address and output it to the address bus. After the output of the read destination address, the frame address is fetched into the frame memory 2 designated as the read destination address, and
Data is read from the internal area indicated by the internal offset address and output to the data bus.

【0063】次にテクスチャメモリアレイ3とデータバ
スとの間に介在している構成要素について説明する。図
16は、テクスチャメモリアレイ3のうち、第1物体正
面側テクスチャメモリ31とデータバスとの間に介在し
ている構成要素を示す図である。双方向ハーフペル補間
部19aは、第1物体正面側テクスチャメモリ31に対
応づけて設けられており、ハーフペル補間の必要時にお
いて、第1物体正面側テクスチャメモリ31から読み出
された画素値に対して双方向、片方向のハーフペル補間
を施す。
Next, the components interposed between the texture memory array 3 and the data bus will be described. FIG. 16 is a diagram showing components of the texture memory array 3 interposed between the first object front side texture memory 31 and the data bus. The bidirectional half-pel interpolation unit 19a is provided in association with the first object front side texture memory 31. When the half-pel interpolation is required, the bidirectional half-pel interpolation unit 19a is used for the pixel value read from the first object front side texture memory 31. Performs bidirectional and unidirectional half-pel interpolation.

【0064】動画像データの表示処理において、ハーフ
ペル補間が必要となるのは、動きベクトル情報により指
示される参照画像の切り出し範囲が半画素先である場合
であり、3次元グラフィックスデータの表示処理におい
て、ハーフペル補間が必要となるのは、仮想空間におけ
る物体の頂点座標と視点座標から視線方向に配置された
スクリーンm2との射影点座標が整数値でない場合であ
る。
In the display processing of moving image data, half-pel interpolation is required when the extraction range of the reference image specified by the motion vector information is a half pixel ahead, and the display processing of three-dimensional graphics data is performed. In the above, half-pel interpolation is required when the projection point coordinates of the screen m2 arranged in the line of sight from the vertex coordinates and the viewpoint coordinates of the object in the virtual space are not integer values.

【0065】片方向のハーフペル補間が必要な場合、第
1物体正面側テクスチャメモリ31から読み出された座
標(x,y)の画素値と共に、座標(x+1,y)の画素値又は座標
(x,y+1)の画素値を読み出し、これらの画素値の平均値
を算出して、座標(x,y)の画素値を算出された平均値に
置き換えてデータバスに出力する。双方向のハーフペル
補間が必要な場合、テクスチャメモリアレイ3のテクス
チャメモリから読み出された座標(x,y)の画素値と共
に、座標(x+1,y)の画素値と、座標(x,y+1)との画素値
と、座標(x+1,y+1)との画素値とを読み出し、これらの
画素値の平均値を算出して、座標(x,y)の画素値を算出
された平均値に置き換えてデータバスに出力する。図1
2において双方向ハーフペル補間部19は、各テクスチ
ャメモリに対応づけて設けられている。一方、各テクス
チャメモリは、レンダリングデータ、差分画像、参照画
像が格納されるので、これらのデータの種別を問わず、
ハーフペル補間は実行されることになる。
If one-way half-pel interpolation is necessary, the pixel value of the coordinate (x + 1, y) or the coordinate (x + 1, y) is read out together with the pixel value of the coordinate (x, y) read from the first object front side texture memory 31.
The pixel value of (x, y + 1) is read, the average value of these pixel values is calculated, and the pixel value of coordinates (x, y) is replaced with the calculated average value and output to the data bus. When bi-directional half-pel interpolation is required, the pixel value of the coordinates (x, y) and the pixel value of the coordinates (x + 1, y) and the coordinates (x, y) are read out together with the pixel value of the coordinates (x, y) read from the texture memory of the texture memory array 3. y + 1) and the pixel value at coordinates (x + 1, y + 1) are read, the average of these pixel values is calculated, and the pixel value at coordinates (x, y) is calculated. The data is replaced with the calculated average value and output to the data bus. FIG.
In 2, the bidirectional half-pel interpolation unit 19 is provided in association with each texture memory. On the other hand, since each texture memory stores rendering data, a difference image, and a reference image, regardless of the type of these data,
Half-pel interpolation will be performed.

【0066】符号ビット判定部20は、差違点(1)を補
間するべく差分画像格納用の第1物体正面側テクスチャ
メモリ31専用に設けられた構成要素であり、新たに復
号された差分画像における各画素値の符号ビットを検出
して、差分画像における全ての画素と、それら画素値の
符号ビットを示した符号テーブル21をメモリ内に生成
する。また画素値に関しては、画素値の絶対値をとり、
この絶対値をその画素値としてデータバスに出力する。
The sign bit determination unit 20 is a component provided exclusively for the first object front side texture memory 31 for storing the difference image in order to interpolate the difference point (1), and is used in the newly decoded difference image. The code bits of each pixel value are detected, and a code table 21 indicating all the pixels in the difference image and the code bits of those pixel values is generated in the memory. For pixel values, take the absolute value of the pixel value,
This absolute value is output to the data bus as the pixel value.

【0067】スイッチ37は、第1物体正面側テクスチ
ャメモリ31から読み出され、双方向ハーフペル補間部
19aによるハーフペル補間が施された画素値が差分画
像のものである場合、その画素値を符号ビット判定部2
0に出力し、第1物体正面側レンダリングデータのもの
である場合、その画素値をデータバスに直接出力するよ
う出力切り換えを行う。
When the pixel value read from the first object front side texture memory 31 and subjected to half-pel interpolation by the bidirectional half-pel interpolation unit 19a is that of a difference image, the switch 37 converts the pixel value into a sign bit. Judgment unit 2
0, and if it is the first object front side rendering data, the output is switched so that the pixel value is directly output to the data bus.

【0068】次に合成部9の内部構成を図17〜図19
を参照しながら説明する。図17〜図19は、合成部9
の内部構成を示す図である。これらの図のうち、図17
は図15(a)に示した第1物体正面側テクスチャメモ
リ31〜第3物体背面側テクスチャメモリ35にレンダ
リングデータが格納されている状態に対応し、図18は
図15(b)に示したPピクチャの復号処理の後状態に
対応している。図19は図15(c)に示したBピクチ
ャの復号処理の後状態にそれぞれ対応している。以降、
図17〜図19の格納状態において合成部9の内部構成
がどのように画像合成を行うかを説明する。
Next, the internal structure of the synthesizing section 9 is shown in FIGS.
This will be described with reference to FIG. FIG. 17 to FIG.
FIG. 3 is a diagram showing an internal configuration of the device. Of these figures, FIG.
Corresponds to a state in which rendering data is stored in the first object front side texture memory 31 to the third object back side texture memory 35 shown in FIG. 15A, and FIG. 18 shows the state shown in FIG. This corresponds to the state after the P picture decoding process. FIG. 19 corresponds to the state after the decoding processing of the B picture shown in FIG. Or later,
How the internal configuration of the synthesizing unit 9 performs image synthesizing in the storage state of FIGS. 17 to 19 will be described.

【0069】透過率α1算出部22aは、第1物体正面
側テクスチャメモリ31に正面側レンダリングデータが
格納された第1物体について設定された透明度と、第1
物体の正面側に位置する頂点について設定された照度と
に基づいて第1物体の透過率α1を算出してセレクタ2
4aに出力する。透過率設定部23aは、差違点(2)を
補間する目的で設けられたものであり、第1物体正面側
テクスチャメモリ31に格納された差分画像の画素値に
ついて透過率100%をセレクタ24aに出力する(図18
参照)。
The transmittance α 1 calculator 22a calculates the transparency set for the first object in which the front side rendering data is stored in the first object front side texture memory 31 and the first object
Selector 2 calculates the transmittance α1 of the first object based on the illuminance set for the vertex located on the front side of the object,
4a. The transmittance setting unit 23a is provided for the purpose of interpolating the difference point (2), and transmits 100% transmittance to the selector 24a for the pixel value of the difference image stored in the first object front side texture memory 31. Output (Fig. 18
reference).

【0070】セレクタ24aは、第1物体正面側テクス
チャメモリ31にレンダリングデータが格納されている
場合、透過率α1算出部22aが算出した透過率を乗算
器25aに出力し、第1物体正面側テクスチャメモリ3
1に差分画像が格納されている場合、透過率α1設定部
23aが算出した透過率を乗算器25aに出力する。乗
算器25aは、第1物体正面側テクスチャメモリ31か
ら読み出された画素値と、セレクタ24aが選択的に出
力した透過率とを乗算して(画素値×α1%)の計算を行
い、乗算結果を加算器28aに出力する。
When the rendering data is stored in the first object front side texture memory 31, the selector 24a outputs the transmittance calculated by the transmittance α1 calculator 22a to the multiplier 25a, and outputs the first object front side texture. Memory 3
When the difference image is stored in 1, the transmittance calculated by the transmittance α1 setting unit 23a is output to the multiplier 25a. The multiplier 25a multiplies the pixel value read from the first object front side texture memory 31 by the transmittance selectively output by the selector 24a to calculate (pixel value × α1%), and the multiplication is performed. The result is output to the adder 28a.

【0071】透過率α2設定部26aは、第1物体背面
側テクスチャメモリ32に背面側レンダリングデータが
格納された第1物体について設定された透明度と、第1
物体の背面側頂点について設定された照度とに基づいて
第1物体の透過率α2を算出してセレクタ24aに出力
する。乗算器27aは、第1物体背面側テクスチャメモ
リ32から読み出された画素値と、透過率α2設定部2
6aが出力した透過率α2%とを乗算して、加算器28a
に出力する。
The transmittance α 2 setting unit 26 a determines the transparency set for the first object whose back side rendering data is stored in the first object back side texture memory 32,
The transmittance α2 of the first object is calculated based on the illuminance set for the vertex on the back side of the object and output to the selector 24a. The multiplier 27a calculates the pixel value read from the first object back side texture memory 32 and the transmittance α2 setting unit 2
6a is multiplied by the transmittance α2% output by the adder 28a.
Output to

【0072】ここで背面側レンダリングデータを格納し
ている第1物体背面側テクスチャメモリ32について透
過率設定部が設けられていないのは、差分画像はあくま
でも平面体であり、その正面側のデータしか存在しない
からである。透過率α3算出部22b、透過率α4算出部
22cは、第2物体正面側テクスチャメモリ33、第3
物体正面側テクスチャメモリ35に正面側レンダリング
データが格納された第2、第3物体について設定された
透明度と、第2、第3物体の正面側頂点について設定さ
れた照度と、視点から見て自身より手前側に位置する第
1物体について算出された透過率α1,α2とに基づいて
第2、第3物体の透過率α3,α4を算出してセレクタ2
4b、cに出力する。
Here, the reason why the transmittance setting section is not provided for the first object back side texture memory 32 storing the back side rendering data is that the difference image is a flat body, and only the front side data is provided. Because it does not exist. The transmittance α3 calculation unit 22b and the transmittance α4 calculation unit 22c are used to store the second object front side texture memory 33, the third
The transparency set for the second and third objects whose front side rendering data is stored in the object front side texture memory 35, the illuminance set for the front side vertices of the second and third objects, and The selectors 2 calculate the transmittances α3, α4 of the second and third objects based on the transmittances α1, α2 calculated for the first object located on the nearer side.
4b and c.

【0073】透過率α3設定部23b、透過率α4設定部
23cは、差違点(2)を補間する目的で設けられたもの
であり、第2物体正面側テクスチャメモリ33、第3物
体正面側テクスチャメモリ35に格納された参照画像の
画素値について透過率50%をセレクタ24b、cに出力
する(図19、図20参照)。セレクタ24b、cは、
第2物体正面側テクスチャメモリ33、第3物体正面側
テクスチャメモリ35にレンダリングデータが格納され
ている場合、透過率α3算出部22b、透過率α5算出部
22cが算出した透過率を乗算器25b、乗算器25c
に出力し、第2物体正面側テクスチャメモリ33、第3
物体正面側テクスチャメモリ35に参照画像が格納され
ている場合、透過率α3設定部23b、透過率α5設定部
23cが設定した透過率を乗算器25b、25cに出力
する。
The transmittance α3 setting unit 23b and the transmittance α4 setting unit 23c are provided for the purpose of interpolating the difference (2), and the second object front side texture memory 33, the third object front side texture The transmittance of 50% of the pixel value of the reference image stored in the memory 35 is output to the selectors 24b and 24c (see FIGS. 19 and 20). The selectors 24b and 24c
When rendering data is stored in the second object front side texture memory 33 and the third object front side texture memory 35, the transmittance calculated by the transmittance α3 calculator 22b and the transmittance α5 calculator 22c is multiplied by a multiplier 25b. Multiplier 25c
To the second object front side texture memory 33, the third object
When the reference image is stored in the object front side texture memory 35, the transmittance set by the transmittance α3 setting unit 23b and the transmittance α5 setting unit 23c is output to the multipliers 25b and 25c.

【0074】乗算器25b、cは、第2物体正面側テク
スチャメモリ33、第3物体正面側テクスチャメモリ3
5から読み出された画素値と、セレクタ24b、セレク
タ24cが選択的に出力した透過率とを乗算して、加算
器28b、cに出力する。透過率α4算出部26b、透
過率α6算出部26cは、第2物体背面側テクスチャメ
モリ34、第3物体背面側テクスチャメモリ36に背面
側レンダリングデータが格納された第2、第3物体につ
いて設定された透明度と、第2、第3物体の背面側頂点
について設定された照度と、視点から見て自身より手前
側に位置する物体について算出された透過率とに基づい
て第2、第3物体の透過率α5,α6を算出してセレクタ
24b、cに出力する。
The multipliers 25b and 25c are used to store the second object front side texture memory 33 and the third object front side texture memory 3
5 is multiplied by the transmittances selectively output by the selectors 24b and 24c and output to the adders 28b and 28c. The transmittance α4 calculation unit 26b and the transmittance α6 calculation unit 26c are set for the second and third objects in which the back side rendering data is stored in the second object back side texture memory 34 and the third object back side texture memory 36. Of the second and third objects based on the calculated transparency, the illuminance set for the rear-side vertices of the second and third objects, and the transmittance calculated for the object located on the near side from the viewpoint when viewed from the viewpoint. The transmittances α5 and α6 are calculated and output to the selectors 24b and 24c.

【0075】乗算器27b、cは、第1物体正面側テク
スチャメモリ31から読み出された画素値と、透過率α
4算出部26b、透過率α6算出部26cが出力した値と
を乗算して、加算器28b,cに出力する。加算器28
aは、第1物体正面側テクスチャメモリ31、第1物体
背面側テクスチャメモリ32にそれぞれ第1物体の正面
側、背面側レンダリングデータが格納されている場合に
は、乗算器25aにより乗算がなされた第1物体の正面
側のレンダリングデータの画素値と、乗算器27aによ
り乗算がなされた第1物体の背面側のレンダリングデー
タの画素値とを加算して符号付き加算器29に出力す
る。このような加算処理により、正面側の投影像から背
面側の投影像が透けているような合成映像がえられる。
第1物体正面側テクスチャメモリ31に差分画像が格納
され、第1物体背面側テクスチャメモリ32が未格納で
ある場合には、乗算器25aにより乗算がなされた差分
画像の画素値を符号付き加算器29に出力する。
The multipliers 27b and 27c calculate the pixel value read from the first object front side texture memory 31 and the transmittance α
4 multiplies the values output by the calculator 26b and the transmittance α6 calculator 26c and outputs the result to the adders 28b and 28c. Adder 28
a is multiplied by the multiplier 25a when the front side and back side rendering data of the first object are stored in the first object front side texture memory 31 and the first object back side texture memory 32, respectively. The pixel value of the rendering data on the front side of the first object is added to the pixel value of the rendering data on the back side of the first object multiplied by the multiplier 27a and output to the signed adder 29. By such an addition process, a synthesized image is obtained in which the projected image on the back side is transparent from the projected image on the front side.
When the difference image is stored in the first object front side texture memory 31 and the first object back side texture memory 32 is not stored, the pixel value of the difference image multiplied by the multiplier 25a is added to the signed adder. 29.

【0076】加算器28bは、第2物体正面側テクスチ
ャメモリ33、第2物体背面側テクスチャメモリにそれ
ぞれ第2物体の正面側、背面側レンダリングデータが格
納されている場合には、乗算器25bにより乗算がなさ
れた第2物体の正面側のレンダリングデータの画素値
と、乗算器27bにより乗算がなされた第2物体の背面
側のレンダリングデータとを加算して符号付き加算器2
9に出力する。第2物体正面側テクスチャメモリ33に
参照画像が格納され、第2物体背面側テクスチャメモリ
が未格納である場合には、乗算器25bにより乗算がな
された参照画像の画素値を符号付き加算器29に出力す
る。
When the front side and back side rendering data of the second object are stored in the second object front side texture memory 33 and the second object back side texture memory, respectively, the adder 28b is operated by the multiplier 25b. The pixel value of the rendering data on the front side of the multiplied second object and the rendering data on the back side of the second object multiplied by the multiplier 27b are added to add a signed adder 2
9 is output. When the reference image is stored in the second object front side texture memory 33 and the second object back side texture memory is not stored, the pixel value of the reference image multiplied by the multiplier 25b is added to the signed adder 29. Output to

【0077】加算器28cは、第3物体正面側テクスチ
ャメモリ35、第3物体背面側テクスチャメモリ35に
それぞれ第3物体の正面側、背面側レンダリングデータ
が格納されている場合、乗算器25cにより乗算がなさ
れた第3物体の正面側のレンダリングデータの画素値
と、乗算器27cにより乗算がなされた第3物体の背面
側のレンダリングデータとを加算して符号付き加算器2
9に出力する。第2物体正面側テクスチャメモリ33に
参照画像が格納され、第2物体背面側テクスチャメモリ
が未格納である場合には、乗算器25cにより乗算がな
された参照画像の画素値を符号付き加算器29に出力す
る。
If the front side and back side rendering data of the third object are stored in the third object front side texture memory 35 and the third object back side texture memory 35, respectively, the adder 28c multiplies by the multiplier 25c. The pixel value of the rendering data on the front side of the third object subjected to the addition and the rendering data on the back side of the third object multiplied by the multiplier 27c are added to add a signed adder 2
9 is output. If the reference image is stored in the second object front side texture memory 33 and the second object back side texture memory is not stored, the pixel value of the reference image multiplied by the multiplier 25c is added to the signed adder 29. Output to

【0078】符号付き加算器29は、加算器28aによ
る加算結果と、加算器28bによる加算結果と、加算器
28cによる加算結果とを更に加算してスイッチ41に
出力する。第1物体正面側テクスチャメモリ31〜第3
物体背面側テクスチャメモリ35にそれぞれ正面側、背
面側のレンダリングデータが格納されている場合、加算
器28aによる加算結果は第1物体の正面側レンダリン
グデータの画素値と、背面側レンダリングデータの画素
値との加算結果であり、加算器28b、加算器28cに
よる加算結果は第2物体、第3物体の正面側レンダリン
グデータの画素値と、背面側レンダリングデータの画素
値との加算結果なので、符号付き加算器29の加算によ
り、3つの物体についてのレンダリングデータが合成さ
れることになる。符号付き加算器29による加算がレン
ダリングデータを構成する全ての画素値について繰り返
されると、図23に示すようなレンダリングデータ同士
の合成が行われることになる。
The signed adder 29 further adds the result of addition by the adder 28a, the result of addition by the adder 28b, and the result of addition by the adder 28c, and outputs the result to the switch 41. First object front side texture memories 31 to 3
When the front side and back side rendering data are stored in the object back side texture memory 35, respectively, the addition result by the adder 28a is the pixel value of the front side rendering data of the first object and the pixel value of the back side rendering data. The result of addition by the adders 28b and 28c is the result of adding the pixel values of the front-side rendering data and the pixel values of the rear-side rendering data of the second object and the third object. By the addition of the adder 29, the rendering data for the three objects is synthesized. When the addition by the signed adder 29 is repeated for all the pixel values constituting the rendering data, the rendering data are combined as shown in FIG.

【0079】一方、第1物体正面側テクスチャメモリ3
1〜第3物体背面側テクスチャメモリ35にそれぞれ差
分画像、参照画像が格納されている場合、加算器28a
による加算結果は差分画像の画素値であり、加算器28
b、加算器28cによる加算結果は参照画像の画素値な
ので、符号付き加算器29の加算により、差分画像、参
照画像について画素値が加算されることになる。この
際、差分画像については、符号ビット判定部20がその
符号ビットに応じて符号テーブルを生成し、その画素値
を絶対値に置き換えているので、差分画像についての符
号ビットの正負を再現するべく、符号付き加算器29は
符号テーブルを参照して、差分画像の各画素値に正負の
符号を付与する。これにより必要時には、参照画像と差
分画像との減算を行うことができる。
On the other hand, the first object front side texture memory 3
If the difference image and the reference image are stored in the first to third object back side texture memories 35, respectively, the adder 28a
Is the pixel value of the difference image, and the adder 28
b, since the addition result by the adder 28c is the pixel value of the reference image, the pixel value of the difference image and the reference image is added by the addition of the signed adder 29. At this time, for the difference image, the sign bit determination unit 20 generates a sign table according to the sign bit and replaces the pixel value with the absolute value, so that the sign bit of the difference image is reproduced. , The signed adder 29 refers to the code table and assigns a positive or negative sign to each pixel value of the difference image. As a result, when necessary, subtraction between the reference image and the difference image can be performed.

【0080】符号付き加算器29による加算がレンダリ
ングデータを構成する全ての画素値について繰り返され
ると、図23に示すようにレンダリングデータ同士の合
成が行われることになる。飽和演算部30は、差違点
(1)を補間する目的で設けられたものであり、符号付き
加算器29による加算結果の正値化処理及び飽和演算処
理を行う。
When the addition by the signed adder 29 is repeated for all the pixel values constituting the rendering data, the rendering data are combined with each other as shown in FIG. The saturation calculation unit 30
It is provided for the purpose of interpolating (1), and performs a positive value process and a saturation operation process on the addition result by the signed adder 29.

【0081】正値化処理とは、符号付き加算器29によ
る演算結果が負数である際、これをゼロ値或は正値に丸
める処理をいう。一般に差分画像は前後のデータとの相
対値を示す符号付きデータとして表現されている。その
ため、圧縮データの各成分と所定係数との積和値は負数
として表れる場合がある。一方ディスプレィ、スピーカ
等の再生系ハードウェアは、符号無しデータしか処理で
きないので、差分画像を利用する際には、適宜、正値化
処理を行う必要がある。
The positive value conversion process is a process of rounding the result of calculation by the signed adder 29 to a zero value or a positive value when the result is a negative number. Generally, the difference image is represented as signed data indicating a relative value with respect to the preceding and following data. Therefore, the product-sum value of each component of the compressed data and the predetermined coefficient may appear as a negative number. On the other hand, playback hardware such as a display and a speaker can process only unsigned data, so that when using a difference image, it is necessary to appropriately perform a positive value conversion process.

【0082】飽和演算処理とは、積和値が所定範囲を越
えている場合(飽和している場合)にこれを所定値に丸
める処理をいう。以上のように本実施形態によれば、3
次元グラフィックスデータの表示処理用に設けられたハ
ードウェアに、動画像データの復号のための構成要素を
付加することにより、3次元グラフィックスデータの表
示処理と、動画像データの復号とを表示処理装置102
に行わせるので、合成すべき画像を記憶するための第1
物体正面側テクスチャメモリ31、第1物体背面側テク
スチャメモリ32や、これらの画素値を加算するための
加算器を共通化することができる。この共通化により3
次元グラフィックスデータの表示処理能力、動画像デー
タの復号処理能力を兼備したマルチメディア再生装置を
より低価格に製造することができる。
The saturation calculation process is a process of rounding a product-sum value to a predetermined value when the product-sum value exceeds a predetermined range (saturation). As described above, according to the present embodiment, 3
Display processing of three-dimensional graphics data and decoding of moving image data are displayed by adding a component for decoding moving image data to hardware provided for processing of displaying three-dimensional graphics data. Processing device 102
To store the image to be synthesized.
The object front side texture memory 31, the first object back side texture memory 32, and an adder for adding these pixel values can be shared. By this commonality, 3
It is possible to manufacture a multimedia playback device having both the display processing capability of three-dimensional graphics data and the decoding processing capability of moving image data at a lower price.

【0083】(第2実施形態)第2実施形態は、表示処
理装置102に動き予測処理による復号処理を行わせる
ものであり、この動き予測処理のために合成部9内に積
算計算用アクセレータを備えている。第2実施形態にお
いて表示処理装置102は動画像データの復号処理につ
いての指示を受け付けると、複数のフレームデータのう
ち一フレーム分のフレームデータを第1物体正面側テク
スチャメモリ31に書き込み、そのフレームデータの次
に表示されるべきフレームデータを第1物体背面側テク
スチャメモリ32に書き込む。2つフレームデータが書
き込まれると、第1物体正面側テクスチャメモリ31に
格納されているフレームデータの画素値に負の符号を付
して、第2メモリに格納されているフレームデータの画
素値とを符号付き加算器29に加算させ、フレームデー
タ間の差分情報を得てワークメモリ4に書き込む。
(Second Embodiment) In a second embodiment, the display processing device 102 performs a decoding process by a motion prediction process. For this motion prediction process, an accumulator for integration calculation is provided in the synthesizing unit 9. Have. In the second embodiment, when the display processing device 102 receives an instruction for decoding moving image data, the display processing device 102 writes one frame of frame data out of the plurality of frame data into the first object front side texture memory 31, and stores the frame data. Is written to the first object back side texture memory 32. When the two frame data are written, the pixel values of the frame data stored in the first object front side texture memory 31 are given a negative sign, and the pixel values of the frame data stored in the second memory are Is added to the signed adder 29 to obtain the difference information between the frame data and write it to the work memory 4.

【0084】ワークメモリ4への書き込みが行われる
と、第1物体背面側テクスチャメモリ32に書き込まれ
たフレームデータの次に表示されるべきフレームデータ
を第1物体正面側テクスチャメモリ31に書き込む。2
つフレームデータが書き込まれると、第1物体正面側テ
クスチャメモリ31に格納されているフレームデータの
画素値に負の符号を付して、第2メモリに格納されてい
るフレームデータの画素値とを符号付き加算器29に加
算させ、フレームデータ間の差分情報を得る。このよう
にして差分画像を得た後、積算計算用アクセレータは、
ワークメモリ4に格納された差分画像を読み出して、新
たに得た差分画像と、以前ワークメモリ4に書き込まれ
た差分画像とを積算し、積算結果をワークメモリ4に書
き戻す。このようにして得た差分画像の積算値に基づい
て、動き予測処理を行い、動画復号を行う。
When the writing to the work memory 4 is performed, the frame data to be displayed next to the frame data written to the first object back side texture memory 32 is written to the first object front side texture memory 31. 2
When the frame data is written, the pixel value of the frame data stored in the first object front side texture memory 31 is assigned a negative sign, and the pixel value of the frame data stored in the second memory is changed. The result is added to the signed adder 29 to obtain difference information between frame data. After obtaining the difference image in this way, the accumulator for integration calculation
The difference image stored in the work memory 4 is read out, the difference image newly obtained and the difference image previously written in the work memory 4 are integrated, and the integration result is written back to the work memory 4. A motion prediction process is performed based on the integrated value of the difference images obtained in this way, and a moving image is decoded.

【0085】以上のように本実施形態によれば、合成部
9内に積算計算用アクセレータを付加することにより、
簡易な構成にて動き予測処理を実現することができる。
尚、以上の実施形態においてアドレス計算や、3Dグラ
フィック処理と動き補償処理とを区別する判定などの処
理については、グラフィック処理用と動画データ処理用
とで処理が2本立になり、冗長化しているが、いずれも
CPUがプログラムを実行して行う処理なので、ハード
資源の増加にはつながらないため、上記の効果が損なわ
れる原因にはならない。
As described above, according to the present embodiment, by adding the accumulator for integration calculation in the synthesizing unit 9,
Motion prediction processing can be realized with a simple configuration.
In the above-described embodiment, processes such as address calculation and determination for distinguishing between 3D graphic processing and motion compensation processing are duplicated for graphic processing and moving image data processing, thus providing redundancy. However, since these processes are all performed by the CPU executing the program, they do not lead to an increase in hardware resources, and do not cause the above effects to be impaired.

【0086】なお、Pピクチャの動き補償処理におい
て、差分画像、参照画像ともテクスチャデータとして混
合したが、差分画像をフレームデータとし、参照画像を
テクスチャデータとして処理してもよい。また、差分画
像データの符号情報については、ここで示した専用のテ
ーブルを設ける方法でなく、たとえば3Dグラフィック
データについての画素値に存在し、動画像データの画素
値に存在しない差分ビットに設けてもよい。例えば3D
グラフィックデータについての画素値が24ビットであ
り、動画像データの画素値が16ビットである場合、その
差分である上位8ビットのエリアの一部に符号情報を設
定し、ここを参照することにしてもよい。
In the motion compensation processing of the P picture, both the difference image and the reference image are mixed as texture data. However, the difference image may be processed as frame data, and the reference image may be processed as texture data. Also, the code information of the difference image data is not provided by the method of providing the dedicated table shown here, but is provided, for example, by a difference bit that is present in the pixel value of the 3D graphic data and does not exist in the pixel value of the moving image data. Is also good. For example, 3D
If the pixel value of the graphic data is 24 bits and the pixel value of the moving image data is 16 bits, code information is set in a part of the upper 8-bit area that is the difference, and reference is made here. You may.

【0087】[0087]

【発明の効果】本発明は、合成して表示されるべき複数
の投影像を示す複数のレンダリングデータと、その合成
時において重なり合った各レンダリングデータをそれぞ
れどれだけ透過させるかを示す透明度情報とからなる3
次元グラフィックスデータについての表示処理を行うと
共に、複数のフレームデータからなる動画像データにつ
いての表示処理を行う表示処理装置であって、3次元グ
ラフィックスデータについての表示処理及び動画像デー
タについての表示処理のうち、何れか一方についての指
示を操作者から受け付ける受付手段と、第1メモリ、第
2メモリと、3次元グラフィックスデータについて表示
処理の指示を受け付けると、複数のレンダリングデータ
のうち背景側となるものを第1メモリに書き込み、前景
側となるものを第2メモリに書き込む第1書込手段と、
第1メモリに書き込まれた背景側レンダリングデータの
画素値と、第2メモリに書き込まれた前景側レンダリン
グデータにおける画素値とを前記透明度情報に基づいた
混合比にてブレンドするブレンド手段と、動画像データ
表示処理の指示を受け付けると、複数のフレームデータ
のうち前後フレームデータとの差分を示す差分情報のみ
からなる差分フレームデータと、差分フレームデータと
加算すべき画素値成分のみからなる参照フレームデータ
とをそれぞれ第1メモリ、第2メモリに書き込む第2書
込手段とを備え、前記ブレンド手段は、差分フレームデ
ータ及び参照フレームデータとが第1メモリ、第2メモ
リに書き込まれると、第1メモリ、第2メモリに書き込
まれた参照フレームデータの画素値と、差分フレームデ
ータの画素値とを所定の混合比にてブレンドすることを
特徴としているので、複数画像を合成するにあたって、
合成すべき画像を共通化メモリに格納することができ、
また共通の加算器にて合成すべき画像の画素値同士の加
算を行うことができる。特にボードにおける占有面積の
大きく、製造コストの高騰要因となるメモリを共有でき
るので、サイズ縮小及びコスト削減という効果を奏する
ことができる。
According to the present invention, a plurality of rendering data indicating a plurality of projection images to be synthesized and displayed, and transparency information indicating how much each of the overlapping rendering data is transmitted at the time of synthesizing are obtained. Become 3
A display processing device that performs display processing on three-dimensional graphics data and performs display processing on moving image data including a plurality of frame data, and performs display processing on three-dimensional graphics data and display on moving image data. Receiving means for receiving an instruction for any one of the processes from the operator; receiving a display process instruction for the first memory, the second memory, and the three-dimensional graphics data; A first writing means for writing the data to be written into the first memory and writing the data to be the foreground to the second memory;
Blending means for blending a pixel value of the background-side rendering data written to the first memory and a pixel value of the foreground-side rendering data written to the second memory at a mixing ratio based on the transparency information; When an instruction for data display processing is received, difference frame data including only difference information indicating a difference from previous and subsequent frame data among a plurality of frame data, and reference frame data including only difference value data and a pixel value component to be added are included. And a second writing unit for writing the difference frame data and the reference frame data to the first memory and the second memory, respectively. The pixel value of the reference frame data written in the second memory and the pixel value of the difference frame data are Because characterized by blending at a constant mixing ratio of, when synthesizing a plurality of images,
Images to be synthesized can be stored in the common memory,
Further, the pixel values of the image to be combined can be added by a common adder. In particular, since the memory occupying a large area on the board and causing a rise in manufacturing cost can be shared, the effects of reducing the size and cost can be achieved.

【0088】また上記構成において、前記差分情報は、
画素毎の画素値の差分を示す符号付きデータからなり、
第2書込手段は、動画像データ表示処理の指示を受け付
けると、差分フレームデータにおける差分情報を構成す
る全画素値の絶対値を第1メモリに書き込んで当該メモ
リ内に絶対値テーブルを生成する絶対値テーブル生成部
と、各画素毎の画素値の正負を示す符号情報を当該メモ
リ内の別領域に書き込んで当該メモリ内に符号テーブル
を生成する符号テーブル生成部とを備えるように構成し
ても良く、このような構成により、符号付き数値を扱わ
ない3Dグラフィック装置でも、動き補償処理用の符号
付き差分画像データを処理できるという効果を奏するこ
とができる。
In the above arrangement, the difference information is
Consists of signed data indicating the difference between pixel values for each pixel,
When receiving an instruction for the moving image data display processing, the second writing means writes the absolute values of all the pixel values constituting the difference information in the difference frame data to the first memory and generates an absolute value table in the memory. An absolute value table generation unit, and a code table generation unit configured to write code information indicating the sign of the pixel value of each pixel in another area in the memory to generate a code table in the memory. With such a configuration, even with a 3D graphic device that does not handle signed numeric values, it is possible to achieve an effect that signed difference image data for motion compensation processing can be processed.

【0089】また上記構成において、前記ブレンド手段
は、背景側レンダリングデータの画素値と、前景側レン
ダリングデータの画素値との加算を行う符号付き加算器
を有し、制御手段は、動画像データ表示処理の指示を受
け付けると、絶対値テーブルから全ての絶対値を読み出
す読出部と、絶対値テーブルから読み出された各画素値
の絶対値に符号テーブルに示されているその画素値の符
号を付す符号付与部とを備え、符号付き加算器は、符号
付与部による符号付与が行われると、符号が付された画
素値と、参照フレームデータの画素値との加算を行うよ
うに構成してもよく、この場合、符号付き数値を扱わな
い3Dグラフィック装置でも、動き補償処理用の符号付
き差分画像データを処理できる。
In the above arrangement, the blending means has a signed adder for adding the pixel value of the background-side rendering data to the pixel value of the foreground-side rendering data. When a processing instruction is received, a reading unit that reads out all the absolute values from the absolute value table and attaches the sign of the pixel value indicated in the sign table to the absolute value of each pixel value read from the absolute value table A signed adder, wherein the signed adder is configured to perform addition of the signed pixel value and the pixel value of the reference frame data when the sign is assigned by the sign assigning unit. Often, in this case, even a 3D graphic device that does not handle signed numeric values can process signed difference image data for motion compensation processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】マルチメディア再生装置を中核としたAVシステ
ムを示す図である。
FIG. 1 is a diagram showing an AV system having a multimedia playback device as a core.

【図2】3次元グラフィックスデータのデータ構造を示
す図である。
FIG. 2 is a diagram showing a data structure of three-dimensional graphics data.

【図3】各物体情報に規定されたそれぞれの相対座標列
がどのような形状を表すかを示す図である。
FIG. 3 is a diagram showing what shape each relative coordinate sequence specified in each object information represents.

【図4】各物体情報に規定されたそれぞれの模様情報が
どのような図柄を表しているかを示す図である。
FIG. 4 is a diagram showing what kind of pattern each piece of pattern information defined in each piece of object information represents.

【図5】3次元グラフィックスデータにおける各座標が
どのような位置関係にあるかを示す図である。
FIG. 5 is a diagram showing how each coordinate in the three-dimensional graphics data has a positional relationship.

【図6】図5に示した3次元グラフィックスデータの投
影像を示す図である。
6 is a diagram showing a projection image of the three-dimensional graphics data shown in FIG.

【図7】3次元グラフィックスデータにおける各座標が
図5に示す位置関係にある場合に、スクリーンm5に表示
されるべき投影像を示す図である。
FIG. 7 is a diagram showing a projected image to be displayed on a screen m5 when each coordinate in the three-dimensional graphics data has the positional relationship shown in FIG.

【図8】スライスデータの大小をIピクチャ、Pピクチ
ャ、Bピクチャ毎に比較するための説明図である。
FIG. 8 is an explanatory diagram for comparing the size of slice data for each of an I picture, a P picture, and a B picture.

【図9】複数レンダリングデータを合成して投影像を生
成する様子を示す図である。
FIG. 9 is a diagram illustrating a state in which a plurality of rendering data are combined to generate a projection image.

【図10】差分画像と、参照画像とを合成して次フレー
ムの表示用画像を得る様子を示す図である。
FIG. 10 is a diagram showing a state in which a difference image and a reference image are combined to obtain a display image of the next frame.

【図11】マルチメディア再生装置の内部を示す図であ
る。
FIG. 11 is a diagram showing the inside of a multimedia reproducing apparatus.

【図12】表示処理装置102の内部構成を示す図であ
る。
FIG. 12 is a diagram showing an internal configuration of the display processing device 102.

【図13】読書アドレス生成部14の内部構成を示す図
である。
FIG. 13 is a diagram showing an internal configuration of a reading address generation unit 14;

【図14】レンダリングデータ、参照画像、差分画像を
伝送する際、ベースアドレス生成部15は読出先、書込
先のベースアドレスをどのように生成するかを示す図で
ある。
FIG. 14 is a diagram showing how a base address generation unit 15 generates a base address of a read destination and a write destination when transmitting rendering data, a reference image, and a difference image.

【図15】(a)〜(c) ベースアドレス生成部15
がベースアドレスを生成することにより、レンダリング
データ、参照画像、差分画像が第1物体正面側テクスチ
ャメモリ31〜第3物体背面側テクスチャメモリ35に
どのように格納されるかを示す図である。
15 (a) to (c) Base address generator 15
Is a diagram showing how rendering data, a reference image, and a difference image are stored in a first object front side texture memory 31 to a third object back side texture memory 35 by generating a base address.

【図16】テクスチャメモリアレイ3のうち、第1物体
正面側テクスチャメモリ31とデータバスとの間に介在
している構成要素を示す図である。
FIG. 16 is a diagram showing components of the texture memory array 3 interposed between the first object front side texture memory 31 and the data bus.

【図17】合成部9の内部構成を示す図である。FIG. 17 is a diagram showing an internal configuration of the synthesizing unit 9;

【図18】図15(b)に示したPピクチャの復号処理
後の合成部9の状態を示す図である。
18 is a diagram illustrating a state of the combining unit 9 after the decoding processing of the P picture illustrated in FIG. 15B.

【図19】図15(b)に示したBピクチャの復号処理
後の合成部9の状態を示す図である。
19 is a diagram illustrating a state of the combining unit 9 after the decoding processing of the B picture illustrated in FIG.

【図20】(a)〜(f)図5の姿勢にある氷柱により
どのようなレンダリングデータが得られるかを示す図で
ある。
20 (a) to 20 (f) are diagrams showing what kind of rendering data is obtained by the icicle in the posture of FIG.

【図21】(a)、(b)図5の姿勢にあるピラミット
によりどのようなレンダリングデータが得られるかを示
す図である。
21 (a) and (b) are diagrams showing what rendering data is obtained by the pyramid in the posture of FIG.

【図22】(a)〜(c)第1物体正面側テクスチャメ
モリ31〜第2物体正面側テクスチャメモリ33にどの
ような第1物体正面側レンダリングデータ、第1物体背
面側レンダリングデータ、第2物体正面側レンダリング
データが格納されるかを示す図である。
FIGS. 22A to 22C show what first object front side rendering data, first object back side rendering data, and second object front side rendering data are stored in first object front side texture memory 31 and second object front side texture memory 33; It is a figure showing whether object front side rendering data is stored.

【図23】複数レンダリングデータを合成して投影像を
生成する様子を示す図である。
FIG. 23 is a diagram showing how a plurality of rendering data are combined to generate a projection image.

【図24】図23に示した合成により生成された投影像
を示す図である。
FIG. 24 is a diagram showing a projection image generated by the combination shown in FIG. 23;

【符号の説明】[Explanation of symbols]

1 入力切換部 2 フレームメモリ 3 テクスチャアメモリアレイ 4 ワークメモリ 5 ジオメトリ部 6 傾き計算部 7 シェーディング部 8 テクスチャアマッピング部 8 テクスチャマッピング部 9 合成部 10 復号制御部 11 可変長復号部 12 逆量子化部 13 逆DCT部 14 読書アドレス生成部 15 ベースアドレス生成部 16 レンダリングデータ用オフセットアドレス生成
部 17 差分画像用オフセットアドレス生成部 18 参照画像用オフセットアドレス生成部 19 双方向ハーフペル補間部 20 符号ビット判定部 21 符号テーブル 30 飽和演算部 200 グラフィックデータ依存部 200 3次元グラフィックスデータ依存部 201 動画像データ依存部
DESCRIPTION OF SYMBOLS 1 Input switching part 2 Frame memory 3 Texture memory array 4 Work memory 5 Geometry part 6 Slope calculation part 7 Shading part 8 Texture mapping part 8 Texture mapping part 9 Synthesis part 10 Decoding control part 11 Variable length decoding part 12 Dequantization Unit 13 Inverse DCT unit 14 Reading address generation unit 15 Base address generation unit 16 Rendering data offset address generation unit 17 Difference image offset address generation unit 18 Reference image offset address generation unit 19 Bidirectional half-pel interpolation unit 20 Code bit determination unit 21 Code Table 30 Saturation Operation Unit 200 Graphic Data Dependent Unit 200 3D Graphics Data Dependent Unit 201 Moving Image Data Dependent Unit

フロントページの続き Fターム(参考) 5B050 AA08 AA10 CA04 DA02 DA04 EA24 EA27 EA30 FA02 FA06 5B057 AA01 CA01 CA02 CA08 CA12 CA13 CA16 CB01 CB02 CB08 CB12 CB13 CB16 CC01 CD06 CE08 CH11 5B080 CA01 CA09 DA07 DA08 5C082 AA06 AA37 BA12 BA41 BA46 BB13 BB15 CA55 DA22 DA26 DA53 DA86 DA87 DA89 MM04 MM07 Continued on the front page F term (reference) 5B050 AA08 AA10 CA04 DA02 DA04 EA24 EA27 EA30 FA02 FA06 5B057 AA01 CA01 CA02 CA08 CA12 CA13 CA16 CB01 CB02 CB08 CB12 CB13 CB16 CC01 CD06 CE08 CH11 5B080 CA01 CA09 DA07 A08 BA08 A08 BB15 CA55 DA22 DA26 DA53 DA86 DA87 DA89 MM04 MM07

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 合成して表示されるべき複数の投影像を
示す複数のレンダリングデータと、その合成時において
重なり合った各レンダリングデータをそれぞれどれだけ
透過させるかを示す透明度情報とからなる3次元グラフ
ィックスデータについての表示処理を行うと共に、複数
のフレームデータからなる動画像データについての表示
処理を行う表示処理装置であって、 3次元グラフィックスデータについての表示処理及び動
画像データについての表示処理のうち、何れか一方につ
いての指示を操作者から受け付ける受付手段と、 第1メモリ、第2メモリと、 3次元グラフィックスデータについて表示処理の指示を
受け付けると、複数のレンダリングデータのうち背景側
となるものを第1メモリに書き込み、前景側となるもの
を第2メモリに書き込む第1書込手段と、 第1メモリに書き込まれた背景側レンダリングデータの
画素値と、第2メモリに書き込まれた前景側レンダリン
グデータにおける画素値とを前記透明度情報に基づいた
混合比にてブレンドするブレンド手段と、 動画像データ表示処理の指示を受け付けると、複数のフ
レームデータのうち前後フレームデータとの差分を示す
差分情報のみからなる差分フレームデータと、差分フレ
ームデータと加算すべき画素値成分のみからなる参照フ
レームデータとをそれぞれ第1メモリ、第2メモリに書
き込む第2書込手段とを備え、 前記ブレンド手段は、 差分フレームデータ及び参照フレームデータとが第1メ
モリ、第2メモリに書き込まれると、第1メモリ、第2
メモリに書き込まれた参照フレームデータの画素値と、
差分フレームデータの画素値とを所定の混合比にてブレ
ンドすることを特徴とする表示処理装置。
1. A three-dimensional graphic comprising a plurality of rendering data indicating a plurality of projection images to be combined and displayed, and transparency information indicating how much each of the overlapping rendering data is transmitted at the time of the combination. A display processing device that performs a display process for moving image data and a display process for moving image data composed of a plurality of frame data, and a display process for three-dimensional graphics data and a display process for moving image data. Receiving means for receiving an instruction for one of them from the operator, a first memory, a second memory, and receiving a display processing instruction for the three-dimensional graphics data, the rendering data becomes a background side of the plurality of rendering data. To the first memory and the foreground side to the second memory First writing means for writing; and a pixel value of the background-side rendering data written to the first memory and a pixel value of the foreground-side rendering data written to the second memory at a mixing ratio based on the transparency information. Blend means for blending, and upon receiving an instruction of the moving image data display processing, difference frame data consisting only of difference information indicating a difference from previous and subsequent frame data among a plurality of frame data, and a pixel value to be added to the difference frame data And second writing means for writing reference frame data consisting only of components into the first memory and the second memory, respectively, wherein the blending means stores the difference frame data and the reference frame data in the first memory and the second memory. When written, the first memory, the second
A pixel value of the reference frame data written in the memory;
A display processing device, wherein pixel values of difference frame data are blended at a predetermined mixture ratio.
【請求項2】 前記差分情報は、 画素毎の画素値の差分を示す符号付きデータからなり、 第2書込手段は、 動画像データ表示処理の指示を受け付けると、差分フレ
ームデータにおける差分情報を構成する全画素値の絶対
値を第1メモリに書き込んで当該メモリ内に絶対値テー
ブルを生成する絶対値テーブル生成部と、 各画素毎の画素値の正負を示す符号情報を当該メモリ内
の別領域に書き込んで当該メモリ内に符号テーブルを生
成する符号テーブル生成部とを備えることを特徴とする
請求項1記載の表示処理装置。
2. The difference information comprises signed data indicating a difference between pixel values for each pixel. When receiving an instruction for a moving image data display process, the second writing unit converts the difference information in the difference frame data. An absolute value table generating unit for writing the absolute values of all the pixel values to be configured in the first memory to generate an absolute value table in the memory; and sign information indicating whether the pixel value of each pixel is positive or negative in the memory. 2. The display processing device according to claim 1, further comprising: a code table generation unit that writes a code in an area and generates a code table in the memory.
【請求項3】 前記ブレンド手段は、背景側レンダリン
グデータの画素値と、前景側レンダリングデータの画素
値との加算を行う符号付き加算器を有し、 前記制御手段は、 動画像データ表示処理の指示を受け付けると、絶対値テ
ーブルから全ての絶対値を読み出す読出部と、 絶対値テーブルから読み出された各画素値の絶対値に符
号テーブルに示されているその画素値の符号を付す符号
付与部とを備え、 符号付き加算器は、符号付与部による符号付与が行われ
ると、符号が付された画素値と、参照フレームデータの
画素値との加算を行うことを特徴とする請求項2記載の
表示処理装置。
3. The blending unit includes a signed adder that adds a pixel value of the background-side rendering data and a pixel value of the foreground-side rendering data. A reading unit that reads all absolute values from the absolute value table when an instruction is received, and a sign assignment that adds the sign of the pixel value indicated in the sign table to the absolute value of each pixel value read from the absolute value table And a sign adder for adding the sign-added pixel value and the pixel value of the reference frame data when the sign is assigned by the sign assigning unit. The display processing device according to the above.
【請求項4】 前記ブレンド手段は、 符号付き加算器による加算結果が所定の上限値を超えた
結果に付いては上限値に置き換え、加算器による加算結
果が負数である場合は、加算結果を下限値に置き換える
飽和演算部を有することを特徴とする請求項3記載の表
示処理装置。
4. The blending means replaces the result of addition by the signed adder exceeding a predetermined upper limit with an upper limit, and when the result of addition by the adder is a negative number, converts the addition result. The display processing device according to claim 3, further comprising a saturation operation unit that replaces the lower limit value.
【請求項5】 前記ブレンド手段は、 所定の被乗数を生成する被乗数生成部と、 生成した被乗数を符号付き加算器により加算されるべき
画素値に乗ずる乗算器とを有し、 前記被乗数生成部は、 3次元グラフィックスデータについて表示処理の指示を
受け付けると、参照画像に含まれている透明度情報に基
づいて、レンダリングデータ毎の透過率を算出して、上
記被乗数として乗算器に出力する透過率算出部と、 動画像データについて表示処理の指示を受け付けると、
所定の被乗数を出力する被乗数算出部とを備えることを
特徴とする請求項4記載の表示処理装置。
5. The blending means includes: a multiplicand generating unit that generates a predetermined multiplicand; and a multiplier that multiplies the generated multiplicand by a pixel value to be added by a signed adder. Upon receiving an instruction to perform display processing on the three-dimensional graphics data, the transmissivity is calculated for each rendering data based on the transparency information included in the reference image, and the transmissivity is output to the multiplier as the multiplicand. Unit and a display processing instruction for the moving image data,
The display processing device according to claim 4, further comprising: a multiplicand calculating unit that outputs a predetermined multiplicand.
【請求項6】 合成して表示されるべき複数のレンダリ
ングデータと、その合成時において重なり合った各レン
ダリングデータをそれぞれどれだけ透過させるかを示す
透明度情報とからなる3次元グラフィックスデータにつ
いての表示処理を行うと共に、複数のフレームデータか
らなる動画像データについての符号化処理を行う表示処
理装置であって、 3次元グラフィックスデータについての表示処理及び動
画像データについての符号化処理のうち、何れか一方に
ついての指示を操作者から受け付ける受付手段と、 第1メモリ、第2メモリと、 3次元グラフィックスデータについて表示処理の指示を
受け付けると、複数のレンダリングデータのうち背景側
となるものを第1メモリに書き込み、前景側となるもの
を第2メモリに書き込む第1書込手段と、 第1メモリから背景側レンダリングデータにおける画素
値と、前景側レンダリングデータにおける画素値とに前
記透明度情報に基づいた値を重み付けする重み付け手段
と、 重み付けされた画素値同士を加算する加算手段と、 動画像データの復号指示を受け付けると、複数のフレー
ムデータのうち一フレーム分のフレームデータを第1メ
モリに書き込み、そのフレームデータの次に表示される
べきフレームデータを第2メモリに書き込む第2書込手
段と、 2つフレームデータが書き込まれると、第1メモリに格
納されているフレームデータの画素値に負の符号を付し
て、第2メモリに格納されているフレームデータの画素
値と加算手段に加算させ、フレームデータ間の差分情報
を得る加算手段と、 差分情報の絶対値を得る絶対値算出手段と、 算出された絶対値を積算する積算手段と、 絶対値の積算値に基づいて、動き予測データを生成する
生成手段とを備えることを特徴とする表示処理装置。
6. A display process for three-dimensional graphics data comprising a plurality of rendering data to be combined and displayed, and transparency information indicating how much each of the overlapping rendering data is transmitted at the time of the combination. And a coding processing for moving image data composed of a plurality of frame data, the display processing device comprising: a display processing device for three-dimensional graphics data; and a coding process for moving image data. Receiving means for receiving one of the instructions from the operator; a first memory, a second memory; and receiving a display processing instruction for the three-dimensional graphics data. First writing to write to memory and writing foreground side to second memory Weighting means for weighting a pixel value in the background-side rendering data and a pixel value in the foreground-side rendering data from the first memory with a value based on the transparency information; and adding the weighted pixel values to each other. Means, when receiving an instruction to decode moving image data, writes one frame of frame data out of the plurality of frame data into a first memory, and writes frame data to be displayed next to the frame data into a second memory. A second writing unit that, when the two frame data are written, assigns a negative sign to the pixel value of the frame data stored in the first memory and assigns the pixel value of the frame data stored in the second memory Adding means for obtaining the difference information between the frame data by adding the value and the adding means, and an absolute value for obtaining the absolute value of the difference information Means out, and integrating means for integrating the calculated absolute value, based on the integrated value of the absolute value, the display processing apparatus comprising: a generating means for generating a motion prediction data.
JP10198931A 1998-07-14 1998-07-14 Display processor Pending JP2000030042A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10198931A JP2000030042A (en) 1998-07-14 1998-07-14 Display processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10198931A JP2000030042A (en) 1998-07-14 1998-07-14 Display processor

Publications (1)

Publication Number Publication Date
JP2000030042A true JP2000030042A (en) 2000-01-28

Family

ID=16399358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10198931A Pending JP2000030042A (en) 1998-07-14 1998-07-14 Display processor

Country Status (1)

Country Link
JP (1) JP2000030042A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100423581C (en) * 2002-12-30 2008-10-01 Nxp股份有限公司 Coding/decoding method and its device for dynamic image
JP2008259699A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Image processing method and apparatus, and program
CN110852936A (en) * 2019-10-15 2020-02-28 稿定(厦门)科技有限公司 Method and device for mixing pictures

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100423581C (en) * 2002-12-30 2008-10-01 Nxp股份有限公司 Coding/decoding method and its device for dynamic image
JP2008259699A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Image processing method and apparatus, and program
JP4588736B2 (en) * 2007-04-12 2010-12-01 富士フイルム株式会社 Image processing method, apparatus, and program
CN110852936A (en) * 2019-10-15 2020-02-28 稿定(厦门)科技有限公司 Method and device for mixing pictures
CN110852936B (en) * 2019-10-15 2023-03-31 稿定(厦门)科技有限公司 Method and device for mixing pictures

Similar Documents

Publication Publication Date Title
CN106611435B (en) Animation processing method and device
EP0715277B1 (en) Method of producing image data, image data processing apparatus, and recording medium
CA2948903C (en) Method, system and apparatus for generation and playback of virtual reality multimedia
US7081892B2 (en) Image with depth of field using z-buffer image data and alpha blending
JP3177221B2 (en) Method and apparatus for displaying an image of an interesting scene
US6763175B1 (en) Flexible video editing architecture with software video effect filter components
US7256779B2 (en) Video game play using panoramically-composited depth-mapped cube mapping
US6480192B1 (en) Recording medium, apparatus and method for processing images
US6071193A (en) Method and apparatus for transmitting picture data, processing pictures and recording medium therefor
US8306399B1 (en) Real-time video editing architecture
US6763176B1 (en) Method and apparatus for real-time video editing using a graphics processor
JPH10501107A (en) Video image decoding apparatus and method
JP3625184B2 (en) 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
WO1995009405A1 (en) Clipping processor, three-dimensional simulator and clipping processing method
US5784064A (en) Image processing
US20140354632A1 (en) Method for multi-view mesh texturing and corresponding device
JP3366894B2 (en) 3D image composition apparatus and method, information storage medium, program distribution apparatus and method
JP2023506832A (en) Volumetric video with auxiliary patches
JP2000030042A (en) Display processor
JP6965439B2 (en) Reference image generator, display image generator, reference image generation method, and display image generation method
JP2007241868A (en) Program, information storage medium, and image generation system
JP3467259B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2002163671A (en) Game system, program and information storage medium
GB2417846A (en) Rendering an image of a display object to generate a reflection of a captured video image
JP3532823B2 (en) Image composition method and medium recording image composition program