JPH03286271A - Picture display device - Google Patents

Picture display device

Info

Publication number
JPH03286271A
JPH03286271A JP2086508A JP8650890A JPH03286271A JP H03286271 A JPH03286271 A JP H03286271A JP 2086508 A JP2086508 A JP 2086508A JP 8650890 A JP8650890 A JP 8650890A JP H03286271 A JPH03286271 A JP H03286271A
Authority
JP
Japan
Prior art keywords
data
depth
buffer
image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2086508A
Other languages
Japanese (ja)
Inventor
Kiyoshi Maenobu
前信 潔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2086508A priority Critical patent/JPH03286271A/en
Publication of JPH03286271A publication Critical patent/JPH03286271A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE:To generate and display a picture having depth information by separating object data to be inputted to the group of moving object and to that of still object and write-processing picture data and depth data into a frame buffer. CONSTITUTION:Object data 101 is inputted for every frame. A picture generation circuit 102 stores picture element data which is picture generation-processed in a first frame buffer 104 and depth data corresponding to respective picture elements to a first depth buffer 108 concerning the moving object. The still object is picture-processed only when the position of a view point moves between the frames and it is stored in a second frame buffer 106 and a second depth buffer 110. A picture synthesis circuit 115 reads data stored in respective buffers and picture data having depth data near the viewpoint is selectively outputted.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は3次元コンピュータグラフィックス画像のよう
な奥行きに関する情報をもつ画像を表示する画像表示装
置 特に 画像を合威しなか板動画を連続的に生成・表
示する画像表示装置に関すも 従来の技術 従来 3次元コンピュータグラフィックスの画像を表示
する場合にCヨ  画像を構成する物体の座標や色に関
するデータか板 座標変換 クリッピング、隠れ面除去
などの画像生成処理を行し\ 生成された画像を一旦フ
レームバッファと呼ばれるメモリに格納り、、CRTデ
イスプレィなどの出力機器の同期タイミングに合わせて
格納されている画像の画素データを読み出して、映像信
号に変換して表示していtも  これらの処理方法につ
いて(よ例えば 「コンピュータ・グラフィックス」今
宮淳美訳 日本コンピュータ協会(1984年)などに
詳しく述べられていも 隠れ面除去の方法として(よ 
種々の方法が提案されている力t ハードウェアでの実
現の容易さか転 Zバッファ(または奥行きバッファ)
法と呼ばれる方法が広く用いられている。
[Detailed Description of the Invention] Industrial Field of Application The present invention relates to an image display device for displaying images having depth-related information such as three-dimensional computer graphics images, and in particular, to continuously generate video images by combining images.・Conventional technology related to image display devices Conventional technology When displaying three-dimensional computer graphics images, data related to the coordinates and colors of objects that make up the image, coordinate transformation, image clipping, hidden surface removal, etc. The generated image is stored in a memory called a frame buffer, and the pixel data of the stored image is read out in synchronization with the synchronization timing of an output device such as a CRT display and converted into a video signal. Although these processing methods (for example, "Computer Graphics" translated by Atsumi Imamiya, Japan Computer Association (1984)) are described in detail, there are no hidden surface removal methods (for example,
Various methods have been proposed, depending on the ease of implementation in hardware or the Z-buffer (or depth buffer).
A method called method is widely used.

隠れ面除去方法に2バツフア法を用いた 従来の画像表
示装置の例を第4図に示to  第4図において、 4
01は図示されない外部装置から入力される物体デー久
 402は入力された物体データ401から画像を生成
する画像生成回1&  403は画像生成回路402で
生成された画像の画素デー久 404は画素データ40
3を格納するフレームバッファ、405は画像生成回路
402で生成される奥行きデー久 406は奥行きデー
タ405を格納する奥行きバッファ、407はフレーム
バッファ404から読み出される画素デー久408はフ
レームバッファ404から画素データ407を読み出し
て映像信号に変換して出力する画像出力回路 409は
画像出力回路408が出力する映像信q  410は映
像信号を表示するCRTデイスプレィなどの出力機器で
ある。
Figure 4 shows an example of a conventional image display device that uses the two-buffer method to remove hidden surfaces.
01 is the object data input from an external device (not shown); 402 is image generation time 1 for generating an image from the input object data 401; 403 is the pixel data of the image generated by the image generation circuit 402; 404 is the pixel data 40
405 is the depth data generated by the image generation circuit 402 406 is the depth buffer that stores the depth data 405 407 is the pixel data read from the frame buffer 404 408 is the pixel data read from the frame buffer 404 409 is a video signal q outputted by the image output circuit 408. 410 is an output device such as a CRT display that displays the video signal.

以上のように構成された従来の画像表示装置の動作を以
下に説明すも 画像の1つのフレームを構成する物体の
データ401!tlフレーム毎に画像生成回路402に
入力されも 画像生成回路402 (1入力された物体
データ401をもとにして、各フレーム毎に設定された
視点から見た座標系に物体データの座標を変換し クリ
ッピングと呼ばれる処理によって視野から外にある物体
またはその一部分を取り除き、最終的な出力機器410
の表示解像度に応じたデバイス座標系と呼ばれる座標系
に変換すも 3次元コンピュータグラフィックスの場合
に1上 物体の前後関係である物体が他の物体の後ろに
位置して隠されて見えなくなる部分を除去するための隠
れ面除去という処理を行うために 奥行きに関する座標
データ(奥行きデータと呼ぶものとする)を、出力機器
410の表示スクリーン上の通常の2次元座標データに
加えて用いも 3次元コンピュータグラフィックスでζ
友 スクリーン上の座標をX−Y座標とヒスクリーンに
垂直な奥行き方向の座標をZ座標にとることが一般的で
あ、LZ座標は通家 視点に近いほど値が小さくなるよ
うにと氏 以下においてLZ座標は視点に近いほど小さ
いものとして説明すも 次ニ隠れ面除去の処理方法の一例として、前記文献「コ
ンピュータ・グラフィックスJpp。
The operation of the conventional image display device configured as described above will be explained below.Data 401 of an object constituting one frame of an image! The image generation circuit 402 converts the coordinates of the object data into the coordinate system seen from the viewpoint set for each frame based on the input object data 401. A process called clipping removes objects or parts of objects that are outside the field of view, and the final output device 410
In the case of three-dimensional computer graphics, it is converted to a coordinate system called a device coordinate system that corresponds to the display resolution of the object. In order to perform a process called hidden surface removal to remove hidden surfaces, depth-related coordinate data (hereinafter referred to as depth data) may be used in addition to normal two-dimensional coordinate data on the display screen of the output device 410. ζ in computer graphics
Generally, the coordinates on the screen are the X-Y coordinates, and the coordinates in the depth direction perpendicular to the high screen are the Z coordinates, and the LZ coordinates are set so that the closer you are to the viewpoint, the smaller the value becomes. In this paper, the LZ coordinate is assumed to be smaller as it approaches the viewpoint.Secondly, as an example of a processing method for removing hidden surfaces, the above-mentioned document "Computer Graphics Jpp.

572〜573に示されている2バツフア法を説明すも
 画像生成回路402 Gl  まず各フレームの最初
ニ  フレームバッファ404と奥行きバッファ406
を初期化すも 初期化では フレームバッファ404に
は背景(無限遠)の色を示す画素データ403を書き込
ム 奥行きバッファ406には表現できるZ座標の最大
値を奥行きデータ405として書き込払 初期化の徴 
各物体毎にその物体に対応する画素データ403を計算
によって求めも このとき同時に 各画素データ403
に対応する奥行きデータ405も求めておく。
The two-buffer method shown in 572 to 573 will be explained below. Image generation circuit 402 Gl First, the first frame buffer 404 and depth buffer 406 of each frame.
During initialization, pixel data 403 indicating the color of the background (infinity) is written to the frame buffer 404.The maximum value of the Z coordinate that can be expressed is written to the depth buffer 406 as depth data 405. signs of
For each object, the pixel data 403 corresponding to that object is calculated. At this time, each pixel data 403
Depth data 405 corresponding to is also obtained.

画像生成回路402ζよ 求められた画素データ403
毎に 奥行きバッファ406のその画素データ403に
対応する位置に格納されている奥行きデータ405を読
み出し 求められた奥行きデータ405と比較すも 比
較の結果 格納されていた奥行きデータ405の方が大
きい場合(即板求められた画素の方が視点に近い場合)
には 求められた画素データ403をフレームバッファ
404の対応する位置に書き込み、 同時に求められた
奥行きデータ405も奥行きバッファ406の対応する
位置に書き込む また 比較の結果 格納されていた奥
行きデータ405の方が小さい場合に(よ 求められた
画素データ403と奥行きデータ405はどこにも格納
しなLl  な耘 比較の結果が等しい場合は前記のい
ずれかの一方に含めも この処理をすべての物体につい
て終了したとき、フレームバッファ404に格納されて
いるの方丈 そのフレームの最終的な画像であん この
ようにしてフレームバッファ404に格納された画像の
画素データ407は画像出力回路408によって、出力
機器410の同期タイミングに合わせて読み出され 映
像信号409に変換されて、出力機器410に出力され
も また 従来の画像表示装置のもう1つの例として、クロ
マキーと呼ばれる方法を用いて、画像を合成して表示す
る画像表示装置について説明をしておく。クロマキーの
原理についてCヨ  例えば「放送技術双書 カラーテ
レビジョン」日本放送協会編(1961年)pp、53
9〜540に詳しく示されていも クロマキーは放送に
おける特殊効果技術の1つであり、 2つのカメラで撮
影した画像の一方に もう一方の画像をはめ込んだ合成
画像を作成するための手法であム クロマキーの原理を用いた もう1つの従来の画像表示
装置の例を第5図に示す。第5図において、 501と
502は台底の対象となる2つの画像 503は画像出
力回路 504は合成された画像であも 画像合成回路
503は入力されてくる2つの画像501と502の信
号を電気的に選択的に切り替えてどちらか一方の画像を
出力することによって画像を台底する。
Image generation circuit 402ζ Determined pixel data 403
Each time, the depth data 405 stored in the position corresponding to the pixel data 403 in the depth buffer 406 is read out and compared with the obtained depth data 405. As a result of the comparison, if the stored depth data 405 is larger ( (If the immediately calculated pixel is closer to the viewpoint)
Then, write the obtained pixel data 403 to the corresponding position of the frame buffer 404, and at the same time write the obtained depth data 405 to the corresponding position of the depth buffer 406. Also, as a result of the comparison, the stored depth data 405 is better than the stored depth data 405. If the comparison results are equal, they can be included in either one of the above. When this process is completed for all objects. The pixel data 407 of the image stored in the frame buffer 404 in this way is sent to the synchronization timing of the output device 410 by the image output circuit 408. Another example of a conventional image display device is an image display that combines and displays images using a method called chromakey. Let me explain about the device.About the principle of chromakey.For example, "Broadcasting Technology Book Color Television" edited by Japan Broadcasting Corporation (1961) pp. 53
Chromakey is a special effect technique used in broadcasting, and is a method for creating a composite image by inserting one of the images taken with two cameras into the other. Another example of a conventional image display device using the principle is shown in FIG. In FIG. 5, 501 and 502 are two images that are the targets of the base, 503 is an image output circuit, and 504 is a composite image.The image composition circuit 503 receives the signals of the two input images 501 and 502. The image is stabilized by selectively switching electrically to output one of the images.

発明が解決しようとする課題 3次元コンピュータグラフィックスの画像の動画を表示
するとき、必ずしも常にすべての物体が移動していると
は限らず、また常に始点の位置が移動しているとも限ら
なL%  1つ前のフレームと現在のフレームとの間型
 物体自体が移動していなく、かつ視点の位置も変化し
ていない場合にはその移動していない物体に対する画像
生成に要する処理は 1つ前のフレームのときの処理と
同じになり、改めて処理する必要はなL%  しかしな
がら第4図に示しf−第1の例の従来の画像表示装置で
(戴 1フレーム中に存在するすべての物体を、毎フレ
ーム入力される毎に 改めて処理し直して画像を生威し
ており、必ずしもすべての物体が移動していない場合衣
 視点が固定されている場合には冗長な処理となってい
た また 第5図に示した 第2の例の従来の画像表示装置
で番ヨ  合成の対象としている画像が奥行きに関する
情報をもっていないたへ 一方の画像をもう一方の画像
に対して、常に前に配置する力\常に後ろに配置するか
α いずれかの台底しかできなかった 例えば 第6図
の(a)および(b)に示す2つの画像を台底するとき
、第6図(c)に示すような台底ができなかった 節板
 第6図(a)の手前の建物と後ろの建物の開を、第6
図(b)の車が通過していくよう服 2つの画像中の物
体が互いに入り組んで前後するような画像の台底ができ
なかっtも 本発明はかかる点に鑑ム 3次元コンピュータグラフィ
ックスのような奥行きに関する情報をもった画像の動画
を、冗長な処理を行うことなく、連続的に生成・表示す
るような画像表示装置を提供することを目的とする。
Problem to be Solved by the Invention When displaying a moving image of a three-dimensional computer graphics image, not all objects are always moving, nor is the starting point always moving. % Type between the previous frame and the current frame If the object itself is not moving and the position of the viewpoint has not changed, the processing required to generate an image for the non-moving object is the one before. However, in the conventional image display device of the first example shown in FIG. , each time a frame is input, the image is reprocessed and reproduced, and if all objects are not moving, the process becomes redundant. In the second example of the conventional image display device shown in Figure 5, the images to be synthesized do not have depth information, so the ability to always place one image in front of the other image is important. \Always place it at the back or α Only one of the bases could be created. For example, when the two images shown in Figure 6 (a) and (b) are base, the image shown in Figure 6 (c) The joint plate where the base could not be formed.
The present invention takes into consideration this point, since the objects in the two images cannot be seen as if they were moving backwards and forwards because the objects in the two images are intertwined with each other. It is an object of the present invention to provide an image display device that can continuously generate and display moving images of images having depth-related information without performing redundant processing.

課題を解決するための手段 本発明は前記の課題を解決するために 画像の画素デー
タを格納する第1および第2の2つのフレームバッファ
と、前記第1のフレームバッファに格納されている画像
の各画素毎の奥行きデータを格納する第1の奥行きバッ
ファと、前記第2のフレームバッファに格納されている
画像の各画素毎の奥行きデータを格納する第2の奥行き
バッファと、 1フレーム毎に入力される物体データを
2つのグループに分類し 一方のグループの物体データ
から生成される画像の画素データを前記第1のフレーム
バッファに書き込むと同時に各画素毎の奥行きデータを
前記第1の奥行きバッファに書き込み、 他方のグルー
プの物体データから生成される画像の画素データを前記
第2のフレームバッファに書き込むと同時に各画素毎の
奥行きデータを前記第2の奥行きバッファに書き込む画
像生成回路と、前記第1のフレームバッファと前記第2
のフレームバッファに格納されている画像の画素データ
と前記第1の奥行きバッファと前記第2の奥行きバッフ
ァに格納されている奥行きデータとを読み出し 対応す
る画素毎に奥行きデータを比較してより視点に近い奥行
きデータをもつ方の画素の画素データを選択的に出力す
る画像合成回路とを具備することを特徴とする画像表示
装置であも 作   用 本発明は前記の構成により、前記の画像生成回路によっ
て、入力されてきた物体のデータを移動している物体と
静止している物体の2つのグループに分類し 各々のグ
ループ毎に別々に画像を生成し 前記第1および第2の
2つのフレームバッファに生成された画像の画素データ
を書き込み、前記第1および第2の2つの奥行きバッフ
ァにはそれぞれの画像の画素データに対応する奥行きデ
ータを書き込む。このとき、移動している物体について
はlフレーム毎に改めて画像を生威し 静止している物
体については視点が1つ前のフレームと比べて移動した
場合に限って画像を生tL視点が移動していない場合に
は静止している物体についての画像生成処理を行わずに
 フレームバッファに格納されている画素データをその
まま保持する。次に 前記画像合成回路は前記の2つの
フレームバッファに格納された画素データと、前記の2
つの奥行きバッファに格納された奥行きデータを読み出
し 移動している物体から生成された画像と静止してい
る物体から生成された画像Q2つの画像の対応する画素
毎に奥行きデータを比較し より視点に近い奥行きデー
タを持つ方の画素の画素データを選択して出力すも 以
上により、静止している物体についての画像生成のため
の冗長な処理が削減でき、更に奥行きバッファに格納さ
れた奥行きデータを用いることにより、移動している物
体の画像と静止している物体の画像を、個々の物体の前
後関係を考慮しながら合成することができも 実施例 第1図は本発明の画像表示装置の一実施例を示すブロッ
ク図であも 第1図において、 101は図示されない
外部装置から入力される物体デー久102は入力された
物体データ101から画像を生成する画像生成回路 1
03と105は画像生成回路102で生成された画像の
画素デー久 104と106は画素データ103と10
5をそれぞれ格納する第1および第2のフレームバッフ
ァ、107と109は画像生成回路102で生成される
奥行きデー久 108と第10は奥行きデータ107と
109をそれぞれ格納する第1および第2の奥行きバッ
ファ、 第11は第1のフレームバッファ104から読
み出される画素デー久 第12は第2のフレームバッフ
ァ106から読み出される画素デー久 第13は第1の
奥行きバッファ108から読み出される奥行きデー久 
第14は第2の奥行きバッファ第10から読み出される
奥行きデー久 第15は読み出した画素データ第11と
第12および奥行きデータ第13と第14をもとにして
画像を合威し 映像信号に変換して出力する画像生成回
路 第16は画像合成回路第15が出力する映像信号 
第17は映像信号を表示するCRTデイスプレィなどの
出力機器であも以上のように構成された本発明の画像表
示装置の動作を以下に説明すも 物体データ101 ?
ilフレーム毎に入力されも 画像生成回路102は 
まず入力された物体データを移動している物体と静止し
ている物体の2つのグループに分類すも 移動している
物体についてC友  前記の従来の技術の説明で示した
ように 座標変換 クリッピング隠れ面除去などの画像
生成処理を行1.1  生成した画像の画素データ10
3を第1のフレームバッファ104 !、ニー また生
成した画像の各画素毎に対応する奥行きデータ107を
第1の奥行きバッファ108に格納すも 静止している
物体について4よ もし1つ前のフレームと現在のフレ
ームの間で視点の位置が移動していた場合には 前記の
移動している物体の場合と同様に画像生成処理を行1.
X、生成した画像の画素データ105を第2のフレーム
バッファ106に また生成した画像の各画素毎に対応
する奥行きデータ109を第2の奥行きバッファ第10
に格納し もし1つ前のフレームと現在のフレームの間
で視点の位置が移動していなかった場合にCヨ  画像
生成処理を行わずに 第2のフレームバッファ106と
第2の奥行きバッファ第10に格納されているデータを
更新せずにそのまま保持すも 画像合成回路第15は第
1および第2のフレームバッファ104と106に格納
されている画素データ第11と第12と、第1および第
2の奥行きレームバッファ108と第10に格納されて
いる奥行きデータ第13と第14とを読み出し 画素毎
に対応する奥行きデータ第13と第14を比較し より
視点に近い奥行きデータを持つ方の画素の画素データを
選択して映像信号第16に変換して出力機器第17に出
力すも 第2図に画像合成回路第15の一実施例のブロック図を
示す。第2図において、 201は奥行きデータの比較
回路 202は画素データの選択同区 203は選択回
路202の選択結果として出力される画素デー久 20
4は画素データを出力機器第17に応じた映像信号第1
6に変換する信号変換同区 205は選択回路202を
制御する信号である。なk  第11から第14は第1
図における画素データおよび奥行きデータに同じもので
あり、 第16は第1図における映像信号に同じもので
あり、 第17は第1図における出力機器に同じもので
あa 第1および第2の奥行きデータ第13と第14は
画素毎に比較回路201で比較され より視点に近い奥
行きデータを持つ方の画素の画素データを選択するよう
に 選択回路2゜2に制御信号205を出力する。選択
回路202(よ 制御信号205の指示に応じて、入力
された第1および第2の画素データ第11と第12のい
ずれか一方を選択し 信号変換回路204に出力すも 
信号変換回路204は入力された画素データ204を、
出力機器第17に応じた映像信号第16に変換して出力
すも 次に 本発明の画像表示装置の他の実施例を第3図に示
す。第3図において、301は2フレーム分の画素デー
タを格納できる容量をもつ第1のフレームバッファ、 
302は2フレーム分の画素データを格納できる容量を
もつ第2のフレームバッファ、303は2フレーム分の
奥行きデータを格納できる容量をもつ第1の奥行きバッ
ファ、 304は2フレーム分の奥行きデータを格納で
きる容量をもつ第2の奥行きバッファであり、 101
から103まで、 105、107、109、第11か
ら第17までは前記の第1図に同じものであも 第1図
に同じ構成要素については説明を省略すも 第1と第2
のフレームバッファ301と302および第1と第2の
奥行きバッファ303と304のそれぞれの2フレーム
分の八 一方の1フレーム分をAi  他方の1フレー
ム分をB側と、便宜上呼ぶものとすも 画像生成回路1
02は生成した画像を、第1のフレームバッファ301
と第1の奥行きバッファ303または第2のフレームバ
ッファ302と第2の奥行きバッファ304のいずれに
対して格納する際にLA側またはB側のいずれかの1フ
レーム分に書き込み、 −万両像合成回路第15 Gi
  画像生成回路102が書き込みを行っていない側の
1フレーム分に格納されている画素データや奥行きデー
タを読み出すようにすも 入力された物体データ101
の画像生成処理が終了し 新たな画像が生成されたとき
に限り、各バッファ301〜304のA側とB側の役割
を切り替え 次のフレームの処理に移も 但し新しい画
像が生成されず、フレームバッファと奥行きバッファに
格納されているデータがそのまま保持された場合には切
り替えは行わな(1な叙 本発明の実施例の画像生成回
路における処理の説明で、入力された物体データをまず
最初に 移動している物体と静止している物体の2つの
グループに完全に分けてか板 各々のグループ毎に画像
生成処理を行うように説明している力匁必ずしもこの限
りではな(1人力されてくる物体データを、移動してい
る物体か静止している物体かを判別しなか板 個々の物
体毎に逐次的に画像生成処理を行っていっても何等差し
支えはなL〜また 本発明の実施例の画像生成回路にお
ける隠れ面除去の方法GEL  必ずしもZバッファ法
に限らず、その他の隠れ面除去方法を用いて画素データ
と奥行きデータを生成してもよ(を 発明の効果 以上述べてきたように 本発明によれば3次元コンピュ
ータグラフィックス画像の動画を連続的に生成・表示す
る際に 静止している物体についての画像生成処理を、
必ずしも毎フレーム行う必要がないたム 画像生成に要
する処理時間の短縮が図れ 画像生成の高速化における
効果は犬であム
Means for Solving the Problems In order to solve the above problems, the present invention provides two frame buffers, a first and a second frame buffer, for storing pixel data of an image, and a frame buffer for storing pixel data of an image. a first depth buffer that stores depth data for each pixel; a second depth buffer that stores depth data for each pixel of the image stored in the second frame buffer; input for each frame; The object data to be generated is classified into two groups, and the pixel data of an image generated from the object data of one group is written to the first frame buffer, and at the same time, the depth data for each pixel is written to the first depth buffer. an image generation circuit that writes pixel data of an image generated from object data of the other group to the second frame buffer, and simultaneously writes depth data for each pixel to the second depth buffer; frame buffer and the second
Read out the pixel data of the image stored in the frame buffer of the image and the depth data stored in the first depth buffer and the second depth buffer. Compare the depth data for each corresponding pixel to obtain a better viewpoint. The present invention provides an image display device characterized by comprising an image synthesis circuit that selectively outputs pixel data of pixels having closer depth data. The input object data is classified into two groups, moving objects and stationary objects, and separate images are generated for each group. Pixel data of the image generated is written into the first and second depth buffers, and depth data corresponding to the pixel data of the respective images is written into the first and second depth buffers. At this time, for a moving object, the image is regenerated every l frames, and for a stationary object, the image is regenerated only when the viewpoint has moved compared to the previous frame. If not, the pixel data stored in the frame buffer is retained without performing image generation processing for a stationary object. Next, the image synthesis circuit combines the pixel data stored in the two frame buffers and the two
Read the depth data stored in the two depth buffers. Compare the depth data for each corresponding pixel of the two images, the image generated from the moving object and the image generated from the stationary object, which is closer to the viewpoint. The pixel data of the pixel that has depth data is selected and output. Through the above, redundant processing for image generation for stationary objects can be reduced, and the depth data stored in the depth buffer can also be used. By doing so, it is possible to synthesize an image of a moving object and an image of a stationary object while taking into account the context of each object. This is a block diagram showing an embodiment. In FIG. 1, 101 is an object data input from an external device (not shown); 102 is an image generation circuit that generates an image from input object data 101;
03 and 105 are pixel data of the image generated by the image generation circuit 102. 104 and 106 are pixel data 103 and 10.
107 and 109 are depth data buffers generated by the image generation circuit 102. 108 and 10 are first and second frame buffers that store depth data 107 and 109, respectively. 11th is a pixel data readout from the first frame buffer 104; 12th is a pixel data readout from the second frame buffer 106; 13th is a depth data readout from the first depth buffer 108;
14th is the depth data read out from the 10th second depth buffer; 15th is the combined image based on the read pixel data 11th and 12th and the 13th and 14th depth data and converted into a video signal. The 16th image generation circuit is the video signal output by the 15th image synthesis circuit.
The seventeenth item is an output device such as a CRT display that displays a video signal.The operation of the image display apparatus of the present invention configured as described above will be described below.Object data 101?
Even if input every il frame, the image generation circuit 102
First, the input object data is classified into two groups: moving objects and stationary objects.For moving objects, as shown in the explanation of the conventional technology above, coordinate transformation, clipping, and hiding are performed. Perform image generation processing such as surface removal 1.1 Pixel data 10 of the generated image
3 to the first frame buffer 104! , knee Also, the depth data 107 corresponding to each pixel of the generated image is stored in the first depth buffer 108. If the position has moved, image generation processing is performed in the same way as in the case of a moving object described above.
X, the pixel data 105 of the generated image is stored in the second frame buffer 106, and the depth data 109 corresponding to each pixel of the generated image is stored in the second depth buffer 10
If the viewpoint position has not moved between the previous frame and the current frame, the second frame buffer 106 and the second depth buffer 10 are stored without performing image generation processing. The image synthesis circuit 15 stores the pixel data 11 and 12 stored in the first and second frame buffers 104 and 106, and the first and second frame buffers 104 and 106. Read the 13th and 14th depth data stored in the 10th and 2nd depth frame buffers 108, compare the 13th and 14th depth data corresponding to each pixel, and select the pixel whose depth data is closer to the viewpoint. FIG. 2 shows a block diagram of an embodiment of the image synthesizing circuit No. 15. In FIG. 2, 201 is a depth data comparison circuit, 202 is a pixel data selection section, and 203 is a pixel data output as a selection result of the selection circuit 202.
4 is a video signal No. 1 corresponding to the pixel data output device No. 17;
205 is a signal for controlling the selection circuit 202. Nak 11th to 14th are 1st
The pixel data and depth data in the figure are the same, the 16th is the same as the video signal in Figure 1, and the 17th is the same as the output device in Figure 1. Data 13 and 14 are compared for each pixel by a comparison circuit 201, and a control signal 205 is output to a selection circuit 2.2 to select the pixel data of the pixel whose depth data is closer to the viewpoint. The selection circuit 202 selects either the eleventh or the twelfth input first and second pixel data according to the instruction of the control signal 205 and outputs it to the signal conversion circuit 204.
The signal conversion circuit 204 converts the input pixel data 204 into
Next, another embodiment of the image display device of the present invention is shown in FIG. 3. In FIG. 3, 301 is a first frame buffer with a capacity capable of storing two frames of pixel data;
302 is a second frame buffer that has a capacity to store two frames of pixel data; 303 is a first depth buffer that has a capacity to store two frames' worth of depth data; 304 stores two frames' worth of depth data. A second depth buffer with a capacity of 101
to 103, 105, 107, 109, and 11th to 17th are the same as those in FIG.
For the sake of convenience, one frame of one frame will be referred to as Ai, and the other one frame will be referred to as B side. Generation circuit 1
02 transfers the generated image to the first frame buffer 301
When storing in either the first depth buffer 303 or the second frame buffer 302 or the second depth buffer 304, write one frame on either the LA side or the B side, and - combine all images. Circuit No. 15 Gi
The image generation circuit 102 reads out the pixel data and depth data stored in one frame on the side to which no writing is being performed.Input object data 101
Only when the image generation process is completed and a new image is generated, the roles of the A side and B side of each buffer 301 to 304 are switched and the process moves on to the next frame. However, if no new image is generated, If the data stored in the buffer and depth buffer are retained as they are, switching is not performed. The explanation is that the image generation process is performed for each group by completely dividing the board into two groups, moving objects and stationary objects. There is no problem even if image generation processing is performed sequentially for each individual object while determining whether the object data is moving or stationary. Hidden surface removal method GEL in the example image generation circuit It is not necessarily limited to the Z-buffer method, but other hidden surface removal methods may be used to generate pixel data and depth data (as described above, the effects of the invention are According to the present invention, when continuously generating and displaying moving images of three-dimensional computer graphics images, image generation processing for a stationary object is performed.
This process does not necessarily have to be performed every frame.The processing time required for image generation can be shortened.The effect of speeding up image generation is that

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の画像表示装置の一実施例の構成を示す
ブロック阻 第2図は本発明の画像表示装置を構成する
画像合成回路の一実施例を示すブロック阻 第3図は本
発明の画像表示装置の他の実施例の構成を示すブロック
は 第4図は従来の画像表示装置の第1の例の構成を示
すブロックは第5図は従来の画像表示装置の第2の例の
構成を示すブロック阻 第6図は従来の画像表示装置の
課題を説明するための画像例を示す図であも101・・
・物体デー久 102・・・画像生成回路103、10
5・・・画素デー久 107、109・・・奥行きデー久 104・・・jllのフレームバッファ、106・・・
第2のフレームバッファ、108・・・第1の奥行きバ
ッファ、 第10・・・第2の奥行きバッファ、 第11、第12・・・画素デー久 第13、第14・・・奥行きデー久 第15・・・画像台底回1i  第16・・・映像信号
第17・・・出力機器 201・・・比較同区 202・・・選択同区203・
・・画素デー久 204・・・信号変換回区205・・
・選択回路制御信号 301・・・第1のフレームバッファ、302・・・第
2のフレームバッファ、303・・・第1の奥行きバッ
ファ、 304・・・第2の奥行きバッファ。
FIG. 1 is a block diagram showing the configuration of an embodiment of the image display device of the present invention. FIG. 2 is a block diagram showing an embodiment of the image synthesis circuit constituting the image display device of the present invention. FIG. 4 is a block diagram showing the configuration of another embodiment of the conventional image display device. FIG. 5 is a block diagram showing the configuration of the first example of the conventional image display device. FIG. 6 is a diagram showing an example of an image for explaining the problems of the conventional image display device.
・Object data 102...image generation circuits 103, 10
5... Pixel data 107, 109... Depth data 104... jll frame buffer, 106...
2nd frame buffer, 108...first depth buffer, 10th...second depth buffer, 11th, 12th...pixel buffer 13th, 14th...depth data buffer 15...Image base cycle 1i 16th...Video signal 17th...Output device 201...Comparison same section 202...Select same section 203.
...Pixel data section 204...Signal conversion circuit section 205...
- Selection circuit control signal 301...first frame buffer, 302...second frame buffer, 303...first depth buffer, 304...second depth buffer.

Claims (4)

【特許請求の範囲】[Claims] (1)画像の画素データを格納する第1および第2の2
つのフレームバッファと、前記第1のフレームバッファ
に格納されている画像の各画素毎の奥行きデータを格納
する第1の奥行きバッファと、前記第2のフレームバッ
ファに格納されている画像の各画素毎の奥行きデータを
格納する第2の奥行きバッファと、1フレーム毎に入力
される物体データを2つのグループに分類し、一方のグ
ループの物体データから生成される画像の画素データを
前記第1のフレームバッファに書き込むと同時に各画素
毎の奥行きデータを前記第1の奥行きバッファに書き込
み、他方のグループの物体データから生成される画像の
画素データを前記第2のフレームバッファに書き込むと
同時に各画素毎の奥行きデータを前記第2の奥行きバッ
ファに書き込む画像生成回路と、前記第1のフレームバ
ッファと前記第2のフレームバッファに格納されている
画像の画素データと前記第1の奥行きバッファと前記第
2の奥行きバッファに格納されている奥行きデータとを
読み出し、対応する画素毎に奥行きデータを比較してよ
り視点に近い奥行きデータをもつ方の画素の画素データ
を選択的に出力する画像合成回路とを具備することを特
徴とする画像表示装置。
(1) First and second two that store image pixel data
a first depth buffer that stores depth data for each pixel of the image stored in the first frame buffer; and a first depth buffer that stores depth data for each pixel of the image stored in the second frame buffer; A second depth buffer stores the depth data of the first frame, and the second depth buffer stores the depth data of the first frame.The second depth buffer stores the depth data of the first frame. The depth data for each pixel is written to the first depth buffer at the same time as the depth data for each pixel is written to the buffer, and the depth data for each pixel is written to the second frame buffer at the same time as the pixel data of the image generated from the object data of the other group is written. an image generation circuit that writes depth data into the second depth buffer; pixel data of an image stored in the first frame buffer and the second frame buffer; It is equipped with an image synthesis circuit that reads the depth data stored in the depth buffer, compares the depth data for each corresponding pixel, and selectively outputs the pixel data of the pixel whose depth data is closer to the viewpoint. An image display device characterized by:
(2)物体データが、個々の物体毎に移動している物体
か静止している物体かを識別する情報を有し、画像生成
回路が、1フレーム毎に入力される物体のデータを、移
動している物体と静止している物体の2つのグループに
分類し、移動している物体のグループの物体データから
生成される画像の画素データを前記第1のフレームバッ
ファに書き込むと同時に各画素毎の奥行きデータを前記
第1の奥行きバッファに書き込み、静止している物体の
グループの物体データから生成される画像の画素データ
を前記第2のフレームバッファに書き込むと同時に各画
素毎の奥行きデータを前記第2の奥行きバッファに書き
込むことを特徴とする請求項1記載の画像表示装置。
(2) The object data has information that identifies whether each object is a moving object or a stationary object, and the image generation circuit moves the object data that is input for each frame. The pixel data of the image generated from the object data of the moving object group is classified into two groups: moving objects and stationary objects, and at the same time the pixel data of the image generated from the object data of the moving object group is written to the first frame buffer. The depth data of each pixel is written into the first depth buffer, and the pixel data of an image generated from object data of a group of stationary objects is written into the second frame buffer, and the depth data of each pixel is written into the first depth buffer. The image display device according to claim 1, wherein the image display device writes to a second depth buffer.
(3)物体データが、個々の物体毎に移動している物体
か静止している物体かを識別する情報を有し、画像生成
回路が、1フレーム毎に入力される物体のデータを移動
している物体と静止している物体の2つのグループに分
類し、移動している物体のグループの物体データから生
成される画像の画素データを前記第1のフレームバッフ
ァに書き込むと同時に各画素毎の奥行きデータを前記第
1の奥行きバッファに書き込み、1つ前のフレームと現
在のフレームとの間で視点が移動したときに限り静止し
ている物体のグループの物体データから生成される画像
の画素データを前記第2のフレームバッファに書き込む
と同時に各画素毎の奥行きデータを前記第2の奥行きバ
ッファに書き込み、1つ前のフレームと現在のフレーム
との間で視点が移動しなかったときは静止している物体
のグループの物体データから新たな画像を生成せず前記
第2のフレームバッファに格納されている画像の画素デ
ータと前記第2の奥行きバッファに格納されている奥行
きデータをそのまま保持することを特徴とする請求項1
記載の画像表示装置。
(3) The object data has information that identifies whether each object is a moving object or a stationary object, and the image generation circuit moves the object data that is input for each frame. The pixel data of the image generated from the object data of the moving object group is classified into two groups: moving objects and stationary objects, and the pixel data of the image generated from the object data of the moving object group is written to the first frame buffer. Depth data is written to the first depth buffer, and pixel data of an image is generated from object data of a group of objects that are stationary only when the viewpoint moves between the previous frame and the current frame. is written to the second frame buffer, and at the same time, the depth data for each pixel is written to the second depth buffer, and if the viewpoint has not moved between the previous frame and the current frame, it remains still. The pixel data of the image stored in the second frame buffer and the depth data stored in the second depth buffer are maintained as they are without generating a new image from the object data of the group of objects in the object group. Claim 1 characterized by
The image display device described.
(4)第1および第2の2つフレームバッファと第1お
よび第2の2つの奥行きバッファが、それぞれ2フレー
ム分の画素データおよび奥行きデータを格納できる容量
をもち、2フレーム分のバッファのうちの一方の1フレ
ーム分の容量のバッファを前記画像生成回路からの画素
データおよび奥行きデータの書き込み専用とし、他方の
1フレーム分の容量のバッファを前記画像合成回路への
画素データおよび奥行きデータの読み出し専用とし、1
フレーム毎に新たな画像が生成されたときに限り書き込
み専用側のバッファと読み出し専用側のバッファとを切
り替え、新たな画像が生成されなかったときには書き込
み専用側のバッファと読み出し専用側のバッファとを切
り替えずに用いることを特徴とする請求項1記載の画像
表示装置。
(4) The first and second two frame buffers and the first and second two depth buffers each have a capacity that can store two frames of pixel data and depth data; One of the buffers with a capacity for one frame is used exclusively for writing pixel data and depth data from the image generation circuit, and the other buffer with a capacity for one frame is used for reading pixel data and depth data to the image synthesis circuit. For exclusive use, 1
The write-only side buffer and the read-only side buffer are switched only when a new image is generated for each frame, and the write-only side buffer and the read-only side buffer are switched when no new image is generated. The image display device according to claim 1, wherein the image display device is used without switching.
JP2086508A 1990-03-30 1990-03-30 Picture display device Pending JPH03286271A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2086508A JPH03286271A (en) 1990-03-30 1990-03-30 Picture display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2086508A JPH03286271A (en) 1990-03-30 1990-03-30 Picture display device

Publications (1)

Publication Number Publication Date
JPH03286271A true JPH03286271A (en) 1991-12-17

Family

ID=13888922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2086508A Pending JPH03286271A (en) 1990-03-30 1990-03-30 Picture display device

Country Status (1)

Country Link
JP (1) JPH03286271A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092627A (en) * 2000-09-19 2002-03-29 Namco Ltd Game device and information storage medium
JP2002279442A (en) * 2001-03-19 2002-09-27 Sony Corp Device and method for image processing
JP2009111935A (en) * 2007-11-01 2009-05-21 Sun Corp Technology of combining two-dimensional image
JP2014505954A (en) * 2011-02-18 2014-03-06 トムソン ライセンシング Estimation method of concealment in virtual environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61290486A (en) * 1985-06-18 1986-12-20 日本電気株式会社 Display controller
JPS62172469A (en) * 1986-01-25 1987-07-29 Fujitsu Ltd Successive picture processing system
JPH0239385A (en) * 1988-07-29 1990-02-08 Yokogawa Medical Syst Ltd Three-dimensional image processor
JPH0259981A (en) * 1988-08-26 1990-02-28 Yokogawa Medical Syst Ltd Three-dimensional picture processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61290486A (en) * 1985-06-18 1986-12-20 日本電気株式会社 Display controller
JPS62172469A (en) * 1986-01-25 1987-07-29 Fujitsu Ltd Successive picture processing system
JPH0239385A (en) * 1988-07-29 1990-02-08 Yokogawa Medical Syst Ltd Three-dimensional image processor
JPH0259981A (en) * 1988-08-26 1990-02-28 Yokogawa Medical Syst Ltd Three-dimensional picture processor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092627A (en) * 2000-09-19 2002-03-29 Namco Ltd Game device and information storage medium
JP2002279442A (en) * 2001-03-19 2002-09-27 Sony Corp Device and method for image processing
JP4595219B2 (en) * 2001-03-19 2010-12-08 ソニー株式会社 Image processing apparatus and image processing method
JP2009111935A (en) * 2007-11-01 2009-05-21 Sun Corp Technology of combining two-dimensional image
JP2014505954A (en) * 2011-02-18 2014-03-06 トムソン ライセンシング Estimation method of concealment in virtual environment
US9406165B2 (en) 2011-02-18 2016-08-02 Thomson Licensing Method for estimation of occlusion in a virtual environment

Similar Documents

Publication Publication Date Title
US5107252A (en) Video processing system
US5644364A (en) Media pipeline with multichannel video processing and playback
JPH087567B2 (en) Image display device
JPS62142476A (en) Television receiver
JP2006141042A (en) Media pipeline with multichannel video processing and playback
EP1026636B1 (en) Image processing
JP3300059B2 (en) Image processing system
US5023720A (en) Single channel video push effect
JPH03286271A (en) Picture display device
JPH0965374A (en) Three-dimensional picture recording device and three-dimensional picture reproducing device
EP1606954B1 (en) Arrangement for generating a 3d video signal
EP0598613A1 (en) Improved interlaced display method
JP2006303621A (en) Image pickup device, video image output method, and video image reproduction program
JPH04372079A (en) Picture display device
JPS62239672A (en) Display method
JPH03136480A (en) Video directing device for still picture
JPH0440176A (en) Television special effect device
JP2918049B2 (en) Storage method for picture-in-picture
JPH10341415A (en) Picture processor
JPH02312377A (en) Image filing system
JPS595276A (en) Signal conversion system for computer image
JPH0830254A (en) Display effect generation circuit
JPH07225562A (en) Scan converter
JPH06105228A (en) Video image generating device
JPH06274155A (en) Composing display device for picture