JPH03268186A - Graphic processor - Google Patents

Graphic processor

Info

Publication number
JPH03268186A
JPH03268186A JP6733690A JP6733690A JPH03268186A JP H03268186 A JPH03268186 A JP H03268186A JP 6733690 A JP6733690 A JP 6733690A JP 6733690 A JP6733690 A JP 6733690A JP H03268186 A JPH03268186 A JP H03268186A
Authority
JP
Japan
Prior art keywords
environmental
data
data storage
storage means
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6733690A
Other languages
Japanese (ja)
Inventor
Hiroshi Nakayama
寛 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP6733690A priority Critical patent/JPH03268186A/en
Publication of JPH03268186A publication Critical patent/JPH03268186A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To attain rapid and accurate processing by dividing the data of an environmental object into plural detailed stages, storing respective detailed stages, selecting one of the detailed stages of the data of the object in accordance with the coordinates of a reference point of the object, and displaying the image of the object whose detailedness is different in accordance with a distance from a visual point. CONSTITUTION:The plural divided detailed stages of data indicating the environmental object are stored in an environmental data storing means 2 and a geometric conversion processor 4 executes processing for selecting one of the detailed stages of the data indicating the environmental object which are stored in the means 2 in accordance with the coordinates of the reference point of the object. Consequently, the image of the environmental object can be displayed with respectively different detailedness in accordance with the distance from a visual point and the combination of a three-dimensional object consisting of a remarked object and the environmental object can be displayed on a plane.

Description

【発明の詳細な説明】 〔概要〕 :次元物体を平面上に表示するための処理を行うグラフ
ィックス処理装置に関し、 ホストの負荷を軽減し、高速かつ正確な処理を実現でき
るグラフィックス処理装置を提供することを目的とし、 注目物体のデータを格納するオブジェクトデータ蓄積手
段と、注目物体に対する環境物体のデータを格納する環
境データ蓄積手段とを有し、ホストの制御により幾何変
換プロセッサが物体データに対して座標変換、輝度計算
、クリッピング等のグラフィックス処理を行って注目物
体と環境物体とからなる三次元の物体の集合を表示手段
において平面上に表示する処理を連続して行うグラフィ
ックス処理装置において、環境データ蓄積手段が、環境
物体のデータを複数の段階の細がさに分けて格納すると
ともに、幾何変換プロセッサが、環境データ蓄積手段の
環境物体のデータの細かさの段階を物体の参照点座標に
応じて選択する処理を行って、視点からの距離に応じて
細かさの異なる環境物体の像を表示することによって構
成する。
[Detailed Description of the Invention] [Summary]: Regarding a graphics processing device that performs processing for displaying dimensional objects on a plane, the present invention provides a graphics processing device that can reduce the load on a host and realize high-speed and accurate processing. The object data storage means has object data storage means for storing data of the object of interest, and environmental data storage means for storing data of environmental objects for the object of interest, and a geometric transformation processor converts the object data into object data under the control of the host. A graphics processing device that continuously performs graphics processing such as coordinate transformation, brightness calculation, and clipping to display a set of three-dimensional objects consisting of the object of interest and environmental objects on a flat surface on a display means. In the environmental data storage means, the data of the environmental object is divided into a plurality of levels of fineness and stored, and the geometric transformation processor stores the data of the environmental object in the environmental data storage means by dividing the fineness level of the data of the environmental object into a reference of the object. It is constructed by performing selection processing according to point coordinates and displaying images of environmental objects with different fineness depending on the distance from the viewpoint.

〔産業上の利用分野] 本発明は三次元物体を平面上に表示するための処理を行
う処理装置に係り、特に表示すべきデータを高速に発生
することができるグラフィックス処理装置に関するもの
である。
[Industrial Field of Application] The present invention relates to a processing device that performs processing for displaying a three-dimensional object on a flat surface, and particularly relates to a graphics processing device that can generate data to be displayed at high speed. .

=次元表示装置の利用分野には、デザイン、設計等のよ
うに写実性や美観を重要視する分野と、自動車や航空機
の操縦シミュレータやゲーム機のように高速性を重要視
する分野とがあるが、本発明は、後者の利用分野におい
て高速な三次元表示を実現するだめの手段を提供するも
のである。
=Dimensional display devices are used in fields such as design, where realism and aesthetics are important, and fields where high speed is important, such as car and aircraft flight simulators and game consoles. However, the present invention provides a means for realizing high-speed three-dimensional display in the latter field of application.

特に操縦シミュレータのような利用分野では、表示デー
タの多くを自動車や航空機の前方にある環境、例えば建
物3山、道路、標識等が占め、これらを効率よく処理す
ることが必要である。そのため、視点と環境の物体まで
の距離に応じて、複数の段階に細かさを分けたデータを
用意しておき、後方にある物体はど粗いデータを用いる
手法が用いられている。
Particularly in fields of application such as flight simulators, most of the display data is the environment in front of a car or aircraft, such as buildings, roads, signs, etc., and it is necessary to process these efficiently. For this reason, a method is used in which data is divided into multiple levels of fineness depending on the distance between the viewpoint and objects in the environment, and coarse data is used for objects located behind.

このような処理を行うためのグラフィックス処理装置は
、ホストの負荷を軽減し、高速がっ正確な処理を実現で
きるものであることが要望される。
A graphics processing device for performing such processing is required to be capable of reducing the load on the host and realizing high-speed and accurate processing.

〔従来の技術〕[Conventional technology]

第5図は、従来のグラフィックス処理装置を示す図であ
る。
FIG. 5 is a diagram showing a conventional graphics processing device.

第5図において、11はホスト(コンピュータ)、12
はセグメントバッファ、13は幾何変換プロセッサであ
る。14〜17は処理すべき物体データの蓄積手段であ
って、14はオブジェクトデータ蓄積部、15は低解像
度環境データ蓄積部、16は中解像度環境データ蓄積部
、17は高解像度環境データ蓄積部である。また18は
描画部、19はフレームバッファ、20は表示部である
In FIG. 5, 11 is a host (computer), 12
is a segment buffer, and 13 is a geometric transformation processor. 14 to 17 are storage means for object data to be processed; 14 is an object data storage section; 15 is a low-resolution environmental data storage section; 16 is a medium-resolution environmental data storage section; and 17 is a high-resolution environmental data storage section. be. Further, 18 is a drawing section, 19 is a frame buffer, and 20 is a display section.

ホスト11は利用者の入力操作に基づいて、座標変換行
列や光源情報、クリッピングの境界値処理すべき物体デ
ータの蓄積手段14〜17におけるアドレス列を発生し
て、幾何変換プロセッサ13に対して出力する。
Based on the user's input operation, the host 11 generates an address string for the storage means 14 to 17 for the coordinate transformation matrix, light source information, and object data to be subjected to clipping boundary value processing, and outputs it to the geometric transformation processor 13. do.

オブジェクトデータ蓄積部14には、対向車。The object data storage unit 14 includes oncoming vehicles.

先行車等の物体を構築する多角形データが蓄積されてい
る。N境データ蓄積部15〜17には、建物、山、道路
、標識等の環境データが蓄積されていて、同じ物体に対
して粗い多角形で構築されたデータを低解像度環境デー
タ蓄積部15に蓄積し、細かい多角形で構築されたデー
タを高解像度環境データ蓄積部17に蓄積し、これらの
中間の粗さのデータを中解像度環境データ蓄積部16に
蓄積している。
Polygon data that constructs objects such as preceding vehicles is stored. The N-boundary data storage units 15 to 17 store environmental data such as buildings, mountains, roads, signs, etc., and data constructed using rough polygons for the same object are stored in the low-resolution environmental data storage unit 15. Data constructed using fine polygons is stored in the high-resolution environmental data storage section 17, and data with intermediate roughness is stored in the medium-resolution environmental data storage section 16.

幾何変換プロセッサ13は、ホスト11がら与えられる
アドレス列によって、各データ蓄積部14〜17のデー
タを入力し、ホスト11がら与えられるパラメータを用
いて、座標変換、輝度計算。
The geometric transformation processor 13 inputs the data of each data storage section 14 to 17 according to the address string given from the host 11, and performs coordinate transformation and brightness calculation using parameters given from the host 11.

クリッピング等の処理を行う。描画部18は、幾何変換
プロセッサ13が計算した多角形の各頂点の輝度値を用
いて、多角形内部の各画素の輝度の計算を行って、得ら
れた画像データをフレームバッファ19に書き込む。こ
の際、例えばZ軸方向の距離が小さい画像だけを表ずZ
ソート法等によって隠面消去を行う。表示部20は、フ
レームバッファ19に書き込まれた内容によって、デイ
スプレィ上に表示を行う。
Performs processing such as clipping. The drawing unit 18 calculates the brightness of each pixel inside the polygon using the brightness value of each vertex of the polygon calculated by the geometric transformation processor 13, and writes the obtained image data to the frame buffer 19. At this time, for example, instead of displaying only images with a small distance in the Z-axis direction,
Hidden surfaces are removed using a sorting method, etc. The display unit 20 displays the content written in the frame buffer 19 on the display.

この際、ホスト1]は環境データに関して、次のように
視野範囲の決定と、視野範囲内における環境データの解
像度の決定とを行う。
At this time, the host 1] determines the viewing range and the resolution of the environmental data within the viewing range as follows regarding the environmental data.

第6図(a) 、 、 (b)は、視野範囲決定の処理
を説明するものであって、(a)は視点と画像を表示す
るスクリーンと地平面との位置関係を示し、31は視点
、32はスクリーン、33は地平面である。また、(b
)はスクリーン32に対応する地平面33上の視野範囲
を示している。
6(a), 6(b) illustrate the process of determining the visual field range, where (a) shows the positional relationship between the viewpoint, the screen displaying the image, and the horizon, and 31 indicates the viewpoint. , 32 is a screen, and 33 is a ground plane. Also, (b
) indicates the viewing range on the ground plane 33 corresponding to the screen 32.

ホスト11は、第6図(a)に示されたような視点31
と画像を表示するスクリーン32と地平面33との位置
関係から、第6図(b)に示すような地平面33上の視
野範囲ABCDを決定する。
The host 11 has a viewpoint 31 as shown in FIG. 6(a).
From the positional relationship between the screen 32 on which the image is displayed and the ground plane 33, the viewing range ABCD on the ground plane 33 as shown in FIG. 6(b) is determined.

また第7図は解像度決定の処理を説明するものであって
、第6図(b)のように決定された視野範囲ABCD内
において、視点からの距離が小さくなるに従って次第に
解像度が高くなるように、それぞれの解像度領域を決定
する。第7図においては、低解像度領域41.中解像度
領域42.高解像度領域43が示されている。
Further, FIG. 7 explains the resolution determination process, and the resolution is gradually increased as the distance from the viewpoint becomes smaller within the visual field ABCD determined as shown in FIG. 6(b). , determine the respective resolution regions. In FIG. 7, the low resolution area 41. Medium resolution region 42. A high resolution area 43 is shown.

ホスト11は、各解像度の領域を決定したのち、各環境
データのアドレスを示すセグメントバッファ12内の環
境データアドレスマツプを参照して、アドレス列を幾何
変換プロセッサ13に転送する。
After determining the area of each resolution, the host 11 refers to the environmental data address map in the segment buffer 12 that indicates the address of each environmental data, and transfers the address string to the geometric transformation processor 13.

環境データアドレスマツプは、各解像度に対して用意さ
れていて、地平面の大きさを複数のブロックに分割した
各ブロックごとに、環境データ蓄積部15〜17の環境
データのアドレスが格納されている。
The environmental data address map is prepared for each resolution, and the address of the environmental data of the environmental data storage units 15 to 17 is stored for each block obtained by dividing the size of the horizon into a plurality of blocks. .

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

ホスト11は、視野範囲内での環境データの解像度を決
定するに際し、視点と視野範囲の頂点AB、C,Dとの
距離を求める必要があり、また、辺BCと辺ADを視点
と地平面との距離の闇値に応じて、例えば第7図に示す
ように、辺AA’辺A’ D“5辺り’ D、辺BB’
 、辺BC。
When determining the resolution of environmental data within the field of view, the host 11 needs to find the distance between the viewpoint and the vertices AB, C, and D of the field of view, and also calculates the distance between the viewpoint and the vertices AB, C, and D of the field of view. For example, as shown in FIG. 7, depending on the darkness value of the distance from
, side BC.

辺C′ Cに分割しなければならない。このような処理
は、多くの平方根計算や除算を行う必要があり、ホスト
11にとって負荷の大きい処理となるため、全体の処理
効率を低下させる可能性がある。
It must be divided into sides C'C. Such processing requires a large number of square root calculations and divisions, which places a heavy load on the host 11, which may reduce the overall processing efficiency.

また高さを有する物体に対しては正確な距離情報が得ら
れないため、視点に対して近い物体、例えば上空から眺
めたビルの屋上環に対して、粗い解像度のデータを適用
することになる可能性がある。
Also, since accurate distance information cannot be obtained for objects that have height, coarse resolution data is applied to objects that are close to the viewpoint, such as the rooftop ring of a building viewed from above. there is a possibility.

本発明はこのような従来技術の課題を解決しようとする
ものであって、三次元物体の表示処理を行うためのグラ
フィックス処理において、ホストの負荷を軽減し、高速
かつ正確な処理を実現できるグラフィックス処理装置を
提供することを目的としている。
The present invention aims to solve the problems of the prior art, and is capable of reducing the load on the host and achieving high-speed and accurate processing in graphics processing for displaying three-dimensional objects. The purpose is to provide a graphics processing device.

〔課題を解決するための手段〕[Means to solve the problem]

本発明は第1図にその原理的構成を示すように、ボスト
3の制御に基づいて幾何変換プロセッサ4が、オブジェ
クトデータ蓄積手段1に格納された注目物体を表すデー
タと、環境データ蓄積手段2に格納された注目物体に対
する環境を形成する環境物体を表すデータに対して座標
変換、輝度計算。
As shown in FIG. 1, the basic configuration of the present invention is such that a geometric transformation processor 4 converts data representing an object of interest stored in an object data storage means 1 and environmental data storage means 2 under the control of a boss 3. Coordinate transformation and brightness calculations are performed on data representing environmental objects that form the environment for the object of interest stored in .

クリッピング等のグラフィックス処理を行って、注目物
体と環境物体とからなる三次元の物体の集合を表示手段
5において平面上に表示する処理を連続して行うグラフ
ィックス処理装置において、環境データ蓄積手段2に、
環境物体を表すデータを複数の段階の細かさに分けて格
納するとともに、幾何変換プロセッサ4が、環境データ
蓄積手段2の環境物体を表すデータの細かさの段階を物
体の参照点座標に応じて選択する処理を行うことによっ
て、環境物体の像を視点からの距離に応じて異なる細か
さで表示して、注目物体と環境物体とからなる三次元の
物体の集合を平面上に表示するようにしたものである。
In a graphics processing device that performs graphics processing such as clipping to continuously display a set of three-dimensional objects consisting of an object of interest and an environmental object on a flat surface on a display means 5, an environmental data storage means is provided. 2,
The data representing the environmental object is stored in a plurality of levels of fineness, and the geometric transformation processor 4 changes the level of fineness of the data representing the environmental object in the environmental data storage means 2 according to the reference point coordinates of the object. By performing selection processing, images of environmental objects are displayed at different levels of detail depending on the distance from the viewpoint, and a three-dimensional object collection consisting of the object of interest and environmental objects is displayed on a plane. This is what I did.

さらに本発明は、Z値判定部6を幾何変換プロセッサ4
に設け、環境物体の参照点座標を視線方向とZ軸方向と
が一致するような座標値に変換したのち、Z値判定部6
によって変換結果の座標値と視点からの距離とを比較判
定することによって、環境データ蓄積手段2に格納され
ている環境物体のデータから処理すべきデータを選択す
るようにしたものである。
Furthermore, the present invention provides that the Z-value determination section 6 is implemented by the geometric transformation processor 4.
After converting the reference point coordinates of the environmental object into coordinate values such that the line of sight direction and the Z-axis direction match, the Z-value determination unit 6
By comparing and determining the coordinate values of the conversion result and the distance from the viewpoint, data to be processed is selected from the environmental object data stored in the environmental data storage means 2.

〔作用] 第2図は本発明の詳細な説明するだめの図であって、本
発明のシステム構成をブロック図で示している。第5図
におけると同じものを同じ番号で0 示し、21は環境データ蓄積部、22はZ値判定部であ
る。
[Operation] FIG. 2 is a diagram for explaining the present invention in detail, and shows the system configuration of the present invention in a block diagram. The same parts as in FIG. 5 are indicated by the same numbers, 21 is an environmental data storage section, and 22 is a Z value determination section.

また第3図は環境データのデータ構造を示す図であって
、第2図に示された環境データ蓄積部21に蓄積される
データを示している。
Further, FIG. 3 is a diagram showing the data structure of environmental data, and shows data stored in the environmental data storage section 21 shown in FIG. 2.

第2図において、ホスト11は、第6図(b)に示され
たような地平面上の視野範囲を決定すると、視野範囲に
含まれている環境データのアドレス列を幾何変換プロセ
ッサ13に転送する。この際、距離による環境データの
選択は、幾何変換プロセッサ13におけるZ値判定部2
2によって行われる。従ってホスト11は、距離による
解像度の選択を行わないので、その負荷が大きく軽減さ
れる。
In FIG. 2, when the host 11 determines the field of view range on the horizon as shown in FIG. do. At this time, the selection of environmental data based on distance is performed by the Z value determination unit 2 in the geometric transformation processor 13.
2. Therefore, since the host 11 does not select the resolution based on distance, the load on the host 11 is greatly reduced.

さらに詳述すると、ホスト11が発生するアドレス列は
、第3図に示されたデータ構造におけるアドレスAI、
 アドレスA2等、ある一つの環境物体データの環境デ
ータ蓄積部21における先頭、アドレスである。
More specifically, the address string generated by the host 11 is the address AI in the data structure shown in FIG.
Address A2 is the first address in the environmental data storage unit 21 of a certain piece of environmental object data.

いま、幾何変換プロセッサ13が、このアドレスによっ
て環境物体の一つ、例えば第3図に示された環境物体1
を参照すると、参照点座標値1に座標変換の一部である
視野変換を施し、参照点座標値1を視線方向がZ軸方向
に一致するような座標値に変換する。参照点座標値は環
境物体を代表する座標値であって、例えば環境物体の中
心座標を参照点座標値に設定する。この変換結果は、Z
バッファを有しない装置において、Z値のソートによっ
て隠面消去を行う場合に有効である。
Now, the geometric transformation processor 13 uses this address to convert one of the environmental objects, for example, the environmental object 1 shown in FIG.
Referring to , visual field transformation, which is a part of coordinate transformation, is applied to the reference point coordinate value 1, and the reference point coordinate value 1 is transformed into a coordinate value such that the viewing direction coincides with the Z-axis direction. The reference point coordinate values are coordinate values representative of the environmental object, and for example, the center coordinates of the environmental object are set as the reference point coordinate values. The result of this conversion is Z
This is effective when performing hidden surface removal by sorting Z values in a device that does not have a buffer.

幾何変換プロセッサ13は、Z値判定部22によって、
参照点の変換結果のZ座標と視点からの距離の闇値とを
比較判定して、第3図において参照点座標1に続いて蓄
積されている、アドレスH1、アドレスMLアドレスL
1のいずれかを選択する。アドレスH1,アドレスML
アドレスL1は、それぞれ環境物体を構成する高解像度
多角形列。
The geometric transformation processor 13 uses the Z value determination unit 22 to
By comparing and determining the Z coordinate of the reference point conversion result and the dark value of the distance from the viewpoint, address H1, address ML, address L, which are stored following reference point coordinate 1 in FIG. 3, are determined.
Select one of 1. address H1, address ML
The address L1 is a high-resolution polygon sequence that each constitutes an environmental object.

中解像度多角形列、低解像度多角形列へのポインタであ
る。
This is a pointer to a medium-resolution polygon string and a low-resolution polygon string.

このように、視野変換後の参照点座標のZ値の大きさに
よって解像度を決定し、必要な多角形データについて処
理を行う。
In this way, the resolution is determined based on the Z value of the reference point coordinates after visual field conversion, and necessary polygon data is processed.

1 2 各解像度の多角形データは、先頭に処理すべき多角形数
があり、以下、多角形の各頂点のデータ、例えば三次元
の座標値が格納されている。
1 2 The polygon data of each resolution has the number of polygons to be processed at the beginning, and data of each vertex of the polygon, for example, three-dimensional coordinate values, are stored below.

本発明による幾何変換プロセ・ノサ13の処理の負荷の
増加は、Z値によるアドレスの選択のみであって、多角
形を座標変換し、輝度計算し、クリッピングする処理に
比べれば極めて小さい。
The increase in the processing load of the geometric transformation processor 13 according to the present invention is limited to the selection of addresses based on Z values, and is extremely small compared to the processing of coordinate transformation of polygons, luminance calculation, and clipping.

〔実施例〕〔Example〕

第4図は本発明の一実施例を示したものであって、第2
図におけると同じものを同じ番号で示し、23は視野変
換部、24は輝度計算部、25は透視変換部、26はク
リッピング部であって、こね。
FIG. 4 shows one embodiment of the present invention.
The same parts as in the figure are indicated by the same numbers, 23 is a visual field conversion section, 24 is a brightness calculation section, 25 is a perspective conversion section, and 26 is a clipping section.

らは直列にパイプライン接続されて、第2図Gこおける
幾何変換プロセッサ13を構成してし)る。また、27
ばZソート部、28はド・ント展開部である。
These are connected in series by a pipeline to constitute the geometric transformation processor 13 shown in FIG. 2G). Also, 27
28 is a Z sort section, and 28 is a dont expansion section.

第4図において、視野変換部23は、ホスト11力槌パ
ラメータと、視野範囲内の環境データアドレス列と、オ
ブジェクトデータアドレス列とを入力されて、次に後段
の処理に必要なノくラメータを出力し、環境データアド
レスによって環境データ蓄積部21から読み出した、環
境物体の中心座標と多角形データに視野変換を施して出
力する。
In FIG. 4, the field of view conversion unit 23 receives the host 11 parameters, an environment data address string within the field of view, and an object data address string, and then converts parameters necessary for subsequent processing. The center coordinates and polygon data of the environmental object read from the environmental data storage unit 21 using the environmental data address are subjected to visual field transformation and output.

またオブジェクトデータアドレスを用いてオブジェクト
データ蓄積部14から読み出したオブジェクトデータに
対しても、中心座標と多角形データに視野変換を施して
出力する。なお、視野変換によって、多角形が視点に対
して表を向いているか、裏を向いているかがわかるので
、裏面に関しては出力を行わない。
Furthermore, for the object data read from the object data storage section 14 using the object data address, the center coordinates and polygon data are subjected to visual field transformation and output. Note that since the field of view conversion allows it to be determined whether the polygon faces the front or the back with respect to the viewpoint, the back side is not output.

輝度計算部24は、前段から入力されるパラメータのう
ち光源に関する情報を用いて、前段から入力される各多
角形の頂点の輝度値を計算して出力する。
The brightness calculation unit 24 uses information regarding the light source among the parameters input from the previous stage to calculate and output the brightness value of the vertex of each polygon input from the previous stage.

透視変換部25は、前段から入力されるパラメータのう
ち焦点距離に関する情報を用いて、前段から入力される
各多角形の頂点のXY座標値を、遠近感のあるXY座標
値に変換して出力する。ここで遠近感とは、視点からみ
て手前のものは大きく、後ろのものは小さく表現するこ
とである。な3 4 お、オブジェクトデータ、環境データの中心座標は、後
段におけるZソートに必要なために出力される。
The perspective conversion unit 25 converts the XY coordinate values of the vertices of each polygon input from the previous stage into XY coordinate values with a sense of perspective, using information regarding the focal length among the parameters input from the previous stage, and outputs the converted XY coordinate values. do. Perspective here means that things in the foreground appear larger and things in the back appear smaller when viewed from the viewpoint. Note that the center coordinates of the object data and environment data are output because they are necessary for Z sorting in the subsequent stage.

クリッピング部26は、前段から入力されるパラメータ
のうち、クリッピング境界値の情報を用いて、前段から
人力される各多角形の頂点の座標値のうち、表示する領
域内に収まるものだけを選択して出力する。多角形デー
タがクリッピング境界値を横切る場合は、その交点を求
めて出力する。
The clipping unit 26 uses the clipping boundary value information among the parameters input from the previous stage to select only those coordinate values of the vertices of each polygon manually entered from the previous stage that fall within the display area. and output it. If the polygon data crosses the clipping boundary value, find and output the intersection.

Zソート部27は、前段から入力されるオブジェクトデ
ータ、環境データの中心座標のZ値を用いてZ値による
ソートを行い、視点から離れているオブジェクトデータ
、環境データを構築する多角形から順次出力する。
The Z sorting unit 27 performs sorting by Z value using the Z value of the center coordinates of the object data and environment data input from the previous stage, and sequentially outputs object data and polygons forming environment data that are far from the viewpoint. do.

ドツト展開部28は、Zソート部27から順次出力され
る各多角形の頂点の座標と輝度値とから、多角形内部の
輝度値を計算してフレームノ\・ンファ19に書き込ん
でゆく。
The dot development section 28 calculates the luminance value inside the polygon from the coordinates and luminance values of the vertices of each polygon sequentially outputted from the Z sorting section 27 and writes it into the frame buffer 19.

表示部20は、フレームバッファ19に蓄積された輝度
値の情報を、表示面上の走査に同期して読み出して、表
示面に画像として表示する。
The display unit 20 reads information on the luminance values accumulated in the frame buffer 19 in synchronization with scanning on the display surface, and displays the information as an image on the display surface.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、三次元物体の表示
処理を行うためのグラフィックス処理装置において、ホ
ストから与えられるパラメータを用いて、座標変換、輝
度計算、クリッピング等の処理を行う幾何変換プロセッ
サに、Z座標値によるアドレスの選択という、僅かな処
理を負担させることによって、ホストの処理負担を大き
く軽減させることができ、従ってシステム全体の効率を
向上させ、高速な表示を行うことができるようになる。
As explained above, according to the present invention, in a graphics processing device for displaying a three-dimensional object, geometric transformation is performed for performing processing such as coordinate transformation, brightness calculation, clipping, etc. using parameters given from a host. By burdening the processor with a small amount of processing such as selecting an address based on the Z coordinate value, the processing load on the host can be greatly reduced, thus improving the efficiency of the entire system and allowing high-speed display. It becomes like this.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理的構成を示す図、第2図は本発明
の詳細な説明するための図、第3回は環境データのデー
タ構造を示す図、第4図は本発明の一実施例を示す図、
第5図は従来のグラフィックス処理装置を示す図、第6
図(a)、 (b)は視野範囲決定の処理を説明する図
、第7回は解像度決定の処理を説明する図である。 5 6 1はオブジェクトデータ蓄積手段、2は環境データ蓄積
手段、3はホスト、4は幾何変換プロセッサ、5ば表示
手段、6はZ値判定部である。
Fig. 1 is a diagram showing the basic configuration of the present invention, Fig. 2 is a diagram for explaining the present invention in detail, Part 3 is a diagram showing the data structure of environmental data, and Fig. 4 is a diagram showing one part of the present invention. Diagrams showing examples,
Figure 5 is a diagram showing a conventional graphics processing device; Figure 6 is a diagram showing a conventional graphics processing device;
Figures (a) and (b) are diagrams for explaining the visual field range determination process, and the seventh diagram is a diagram for explaining the resolution determination process. 5 6 1 is an object data storage means, 2 is an environment data storage means, 3 is a host, 4 is a geometric transformation processor, 5 is a display means, and 6 is a Z value determination section.

Claims (2)

【特許請求の範囲】[Claims] (1)注目物体を表すデータを格納するオブジェクトデ
ータ蓄積手段(1)と、該注目物体に対する環境を形成
する環境物体を表すデータを格納する環境データ蓄積手
段(2)とを有し、ホスト(3)の制御に基づいて幾何
変換プロセッサ(4)が物体を表すデータに対して座標
変換、輝度計算、クリッピング等のグラフィックス処理
を行って注目物体と環境物体とからなる三次元の物体の
集合を表示手段(5)において平面上に表示する処理を
連続して行うグラフィックス処理装置において、 前記環境データ蓄積手段(2)が、環境物体を表すデー
タを複数の段階の細かさに分けて格納するとともに、 前記幾何変換プロセッサ(4)が、該環境データ蓄積手
段(2)の該環境物体を表すデータの細かさの段階を該
物体の参照点座標に応じて選択する処理を行うことによ
って、 視点からの距離に応じて細かさの異なる環境物体の像を
表示することを特徴とするグラフィックス処理装置。
(1) It has object data storage means (1) for storing data representing an object of interest, and environmental data storage means (2) for storing data representing environmental objects forming an environment for the object of interest, Based on the control of step 3), the geometric transformation processor (4) performs graphics processing such as coordinate transformation, brightness calculation, and clipping on the data representing the object to create a set of three-dimensional objects consisting of the object of interest and environmental objects. In a graphics processing device that continuously displays objects on a flat surface in a display means (5), the environmental data storage means (2) stores data representing environmental objects divided into a plurality of levels of detail. At the same time, the geometric transformation processor (4) performs a process of selecting the level of fineness of data representing the environmental object in the environmental data storage means (2) according to the reference point coordinates of the object. A graphics processing device characterized by displaying images of environmental objects with different fineness depending on the distance from a viewpoint.
(2)前記幾何変換プロセッサ(4)がZ値判定部(6
)を有し、前記環境物体の参照点座標を視線方向とZ軸
方向とが一致するような座標値に変換したのち、該Z値
判定部(6)によって変換結果の座標値と視点からの距
離とを比較判定することによって前記環境データ蓄積手
段(2)に格納されている環境物体のデータから処理す
べきデータを選択することを特徴とする請求項第1項記
載のグラフィックス処理装置。
(2) The geometric transformation processor (4) is connected to the Z value determination unit (6
), and after converting the reference point coordinates of the environmental object into coordinate values such that the line of sight direction and the Z-axis direction match, the Z-value determination unit (6) calculates the coordinate values of the conversion result and the coordinate values from the viewpoint. 2. The graphics processing apparatus according to claim 1, wherein the data to be processed is selected from the environmental object data stored in the environmental data storage means (2) by comparing and determining the distance.
JP6733690A 1990-03-19 1990-03-19 Graphic processor Pending JPH03268186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6733690A JPH03268186A (en) 1990-03-19 1990-03-19 Graphic processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6733690A JPH03268186A (en) 1990-03-19 1990-03-19 Graphic processor

Publications (1)

Publication Number Publication Date
JPH03268186A true JPH03268186A (en) 1991-11-28

Family

ID=13342072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6733690A Pending JPH03268186A (en) 1990-03-19 1990-03-19 Graphic processor

Country Status (1)

Country Link
JP (1) JPH03268186A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994029813A1 (en) * 1993-06-10 1994-12-22 Namco Ltd. Image synthesizer and apparatus for playing game using the image synthesizer
GB2284526A (en) * 1993-06-10 1995-06-07 Namco Ltd Image synthesizer and apparatus for playing game using the image synthesizer
JP2010039932A (en) * 2008-08-07 2010-02-18 Ricoh Co Ltd Image processing apparatus, image processing method and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205277A (en) * 1987-10-09 1989-08-17 Hitachi Ltd Computer graphic display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205277A (en) * 1987-10-09 1989-08-17 Hitachi Ltd Computer graphic display device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994029813A1 (en) * 1993-06-10 1994-12-22 Namco Ltd. Image synthesizer and apparatus for playing game using the image synthesizer
GB2284526A (en) * 1993-06-10 1995-06-07 Namco Ltd Image synthesizer and apparatus for playing game using the image synthesizer
US5577960A (en) * 1993-06-10 1996-11-26 Namco, Ltd. Image synthesizing system and game playing apparatus using the same
GB2284526B (en) * 1993-06-10 1997-12-10 Namco Ltd An image synthesizing system and a game playing apparatus using the same
JP2010039932A (en) * 2008-08-07 2010-02-18 Ricoh Co Ltd Image processing apparatus, image processing method and program

Similar Documents

Publication Publication Date Title
US5729672A (en) Ray tracing method and apparatus for projecting rays through an object represented by a set of infinite surfaces
US6005580A (en) Method and apparatus for performing post-process antialiasing of polygon edges
US5856829A (en) Inverse Z-buffer and video display system having list-based control mechanism for time-deferred instructing of 3D rendering engine that also responds to supervisory immediate commands
US8456468B2 (en) Graphic rendering method and system comprising a graphic module
JPH04233672A (en) Image generating apparatus
JPH0757117A (en) Forming method of index to texture map and computer control display system
JP2003296747A (en) 3-d computer graphic rendering system
GB2223384A (en) Shadow algorithm
JP2007525768A (en) Register-based queuing for texture requests
JPH0778267A (en) Method for display of shadow and computer-controlled display system
US7400325B1 (en) Culling before setup in viewport and culling unit
GB2281682A (en) Shading three-dimensional images
JPH09500462A (en) Computer graphics system with high performance multi-layer z-buffer
US7292239B1 (en) Cull before attribute read
KR20010012841A (en) Image processor and image processing method
US6774897B2 (en) Apparatus and method for drawing three dimensional graphics by converting two dimensional polygon data to three dimensional polygon data
US6664957B1 (en) Apparatus and method for three-dimensional graphics drawing through occlusion culling
US20020051016A1 (en) Graphics drawing device of processing drawing data including rotation target object and non-rotation target object
JPH03268186A (en) Graphic processor
US7145570B2 (en) Magnified texture-mapped pixel performance in a single-pixel pipeline
JP3979162B2 (en) Image processing apparatus and method
US6885375B2 (en) Stalling pipelines in large designs
US7372466B2 (en) Image processing apparatus and method of same
US8576219B2 (en) Linear interpolation of triangles using digital differential analysis
EP0725365A1 (en) Shading three-dimensional images