JPH0224785A - Method and device for shadowing processing - Google Patents

Method and device for shadowing processing

Info

Publication number
JPH0224785A
JPH0224785A JP63175778A JP17577888A JPH0224785A JP H0224785 A JPH0224785 A JP H0224785A JP 63175778 A JP63175778 A JP 63175778A JP 17577888 A JP17577888 A JP 17577888A JP H0224785 A JPH0224785 A JP H0224785A
Authority
JP
Japan
Prior art keywords
data
light source
drawn
depth
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63175778A
Other languages
Japanese (ja)
Other versions
JP3005981B2 (en
Inventor
Mitsuhisa Obata
光央 小畑
Takashige Kai
隆重 加井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP63175778A priority Critical patent/JP3005981B2/en
Priority to US07/379,941 priority patent/US5083287A/en
Priority to GB8916232A priority patent/GB2223384B/en
Publication of JPH0224785A publication Critical patent/JPH0224785A/en
Application granted granted Critical
Publication of JP3005981B2 publication Critical patent/JP3005981B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To sharply shorten time required for shadowing processing by deciding whether the light irradiated face of a graphic to be drawn is the whole surface, a part of the surface or no existence, and at the time of drawing the graphic to be drawn on a view coordinate system, executing drawing processing based upon shadow information corresponding to the unirradiated area on the basis of the decided result. CONSTITUTION:A light source conversion matrix is determined so that converted coordinate data are included in a light source depth buffer 6. The light source coordinate conversion of the coordinate data of a polygon constituting a graphic to be shadowed is executed, converted coordinate data are obtained, whether the light irradiated face is the whole surface, a part of the surface or no existence is decided on the basis of the coordinate data, an identification (ID) data are supplied to a segment memory 1, and depth data of each picture element are written in the buffer 6. The view coordinate conversion of each polygon in a view volume is executed. Then, the sort of the ID data is decided and drawing corresponding to the decided result is executed to obtain shadowed drawing data.

Description

【発明の詳細な説明】 〈産業上の利用分野〉 この発明は付影処理方法およびその装置に関し、さらに
詳細にいえば、画面全体としての立体表現を達成するた
めの、デプスバッファアルゴリズムを使用した付影処理
方法およびその装置に関する。
[Detailed Description of the Invention] <Industrial Application Field> The present invention relates to a shadow processing method and a device thereof, and more specifically, to a shadow processing method and apparatus thereof, and more specifically, to achieve a three-dimensional representation of the entire screen using a depth buffer algorithm. The present invention relates to a shadow processing method and apparatus.

〈従来の技術、および発明が解決しようとする課題〉 従来からコンピュータ・グラフィックスにおいては表示
の高度化の要請が強くなっており、具体的には、描画対
象図形単体としての立体表現のみならず描画対象図形全
体としての立体表現をも行なうことができる何形処理機
能を具備させることが研究され始めている。
<Prior art and problems to be solved by the invention> There has been a strong demand for more sophisticated display in computer graphics, and specifically, not only three-dimensional representation of individual figures to be drawn, but also Research has begun on providing a shape processing function that can also perform three-dimensional representation of the entire figure to be drawn.

この何形処理機能として、 ■ 投影面上の各画素に対応する点と支点を結ぶ視線を
想定し、視線と交わる一番手前の図形との交点を得、交
点と光源を結ぶ線分を得て、得られた線分と交差する図
形を検出し、検出された図形上の画素を影する方法、 ■ 何れかの図形の辺を他の図形上に投影し、さらにそ
れを投影面上に投影して走査線上の影の領域を得る方法
、および ■ 光源からみた状態で各図形について隠面処理と同じ
アルゴリズムを適用することにより影領域を得、次いで
視点からみた状態で各図形について隠面処理を施すとと
もに、上記影領域を投影面上にマツピングする方法 が提案されている。
This shape processing function: ■ Assumes a line of sight connecting the point corresponding to each pixel on the projection plane and the fulcrum, obtains the intersection point with the nearest figure that intersects with the line of sight, and obtains a line segment connecting the intersection point and the light source. , detect a figure that intersects the obtained line segment, and shadow the pixels on the detected figure. ■ Project the sides of one figure onto another figure, and then project it onto the projection plane. A method to obtain the shadow area on the scanning line by projecting it, and ■ Obtain the shadow area by applying the same algorithm as hidden surface processing to each figure when viewed from the light source, and then calculate the hidden surface area for each figure when viewed from the viewpoint. A method has been proposed in which processing is performed and the shadow area is mapped onto a projection plane.

これらのうち、■の付影処理方法は簡単なアルゴリズム
で何形処理が施された表示を行なわせることができるの
であるが、画素毎に処理を行なわなければならないので
あるから処理所要時間が長くなってしまうという問題が
ある。
Among these, the shading processing method (■) can display a display that has undergone some form processing using a simple algorithm, but it requires a long processing time because processing must be performed for each pixel. The problem is that it becomes.

また、■の付影処理方法は画素毎の処理を行なうのでは
なく、走査線毎に処理を行なうのであるから■の付影処
理方法と比較して処理所要時間を短縮することができる
のであるが、所要時間を十分に短縮することができない
という問題がある。
In addition, the shading processing method (■) does not process each pixel, but each scanning line, so it can reduce the processing time compared to the shading processing method (2). However, there is a problem that the required time cannot be sufficiently shortened.

そして、上記向れの付影処理方法においても、特に双3
次パラメトリック方程式で表現される自由曲面を対象と
する場合には計算時間が著しく長くなってしまい、この
結果、何形処理所要時間も著しく長くなってしまうとい
う問題がある。
Also, in the shading processing method in the above direction, especially
When a free-form surface expressed by the following parametric equation is targeted, the calculation time becomes extremely long, and as a result, the time required for shape processing also becomes extremely long.

さらに■の付影処理方法は隠面処理方法と同様のアルゴ
リズムにより影領域を得るのであるから所要時間を短く
することができるのであるが、マツピング処理を行なう
ことが必要であるため、付加データの量が増加するとと
もに、構成および処理が複雑化し、しかも全画素が何形
処理の対象になるため、何形処理所要時間を十分には短
縮することができないという問題がある。さらに、面と
面との相対関係を処理することが必要になるため処理可
能な対象図形に制限があるという問題もある。
Furthermore, the shadow processing method (■) obtains shadow areas using the same algorithm as the hidden surface processing method, so it can reduce the time required, but it requires mapping processing, so additional data is As the amount increases, the configuration and processing become complicated, and all pixels are subject to shape processing, so there is a problem that the time required for shape processing cannot be sufficiently shortened. Furthermore, since it is necessary to process the relative relationship between surfaces, there is a problem that there is a limit to the target figures that can be processed.

これらの問題点を考慮して、光源座標系および視点座標
系の双方についてそれぞれデプスバッファアルゴリズム
を適用することにより何形処理を行なう方法(「Z−バ
ッファ法による簡易造影法」清水和裁はか3名 情報処
理学会第30回(昭和60年前期)全国大会 参照)が
提供されている。
Taking these problems into consideration, a method of performing shape processing by applying a depth buffer algorithm to both the light source coordinate system and the viewpoint coordinate system ("Simple contrast imaging method using the Z-buffer method") was proposed by Kazusho Shimizu in 3 Information Processing Society of Japan 30th (early 1985) National Convention) is provided.

しかし、この方法は何形範囲を全く考慮していないため
、無駄な何形処理を施さなければならないとともに、何
形処理が必要な部分についても十分な精度を得ることが
できず、かつ、何形処理のために必要な座標変換、座標
値比較等が画素毎の処理を対象とすることになり、演算
量が著しく多く、しかも無駄な演算を行なうことになる
のであるから、未だ十分な何形処理所要時間の短縮効果
を達成することができないという問題がある。
However, since this method does not consider the range of shapes at all, unnecessary shape processing must be performed, and sufficient accuracy cannot be obtained even in areas where shape processing is required. Coordinate transformations, coordinate value comparisons, etc. necessary for shape processing are processed pixel by pixel, resulting in an extremely large amount of calculations and unnecessary calculations. There is a problem that the effect of shortening the time required for shape processing cannot be achieved.

〈発明の目的〉 この発明は上記の問題点に鑑みてなされたものであり、
処理対象画素数を著しく減少させ、何形処理所要時間を
大巾に短縮することができる新規な付影処理方法および
その装置を提供することを目的としている。
<Object of the invention> This invention was made in view of the above problems,
It is an object of the present invention to provide a novel shading processing method and apparatus that can significantly reduce the number of pixels to be processed and the time required for shape processing.

く課題を解決するための手段〉 上記の目的を達成するための、この発明の付影処理方法
は、描画対象図形データから付影対象とする描画対象図
形データを抽出して光源方向を奥行き方向とする光源座
標系上の描画対象図形データに変換し、変換後の描画対
象図形が、光が当る面が全面か一部の面か全く存在しな
いかを判別し、視線方向を奥行き方向とするビュー座標
系上の描画対象図形を描画するに当って、判別結果に基
づいて光が当らない領域に対応させて影情報に基づく描
画処理を施す方法である。
Means for Solving the Problems> In order to achieve the above object, the shading processing method of the present invention extracts drawing target figure data to be shadowed from drawing target figure data, and changes the light source direction in the depth direction. Convert the figure data to be drawn on the light source coordinate system, determine whether the surface of the converted figure to be drawn is illuminated by light, a whole surface, a part of the surface, or no surface at all, and set the viewing direction as the depth direction. In this method, when drawing a figure to be drawn on the view coordinate system, drawing processing is performed based on shadow information in correspondence with areas that are not illuminated by light based on the determination result.

但し、描画対象図形データが当初ワールド座標系上にお
いて定義されているとともに、マトリクス演算を施すこ
とにより光源座標系上の描画対象図形データおよびビュ
ー座標系上の描画対象図形データを得るようにしている
ことが好ましい。
However, the figure data to be drawn is initially defined on the world coordinate system, and by performing matrix operations, the figure data to be drawn on the light source coordinate system and the figure data to be drawn on the view coordinate system are obtained. It is preferable.

また、全ての描画対象図形を隠面処理が施された状態で
描画し、各描画対象図形を構成する全ての画素が書込ま
れたか、一部の画素のみが書込まれたか、画素が全く書
込まれなかったかに基づいて光が当る面が全面か一部の
面か全く存在しないかを判別するようにしていることが
好ましい。
In addition, all drawing target figures are drawn with hidden surface processing applied, and whether all pixels composing each drawing target figure have been written, only some pixels, or no pixels have been written. It is preferable to determine whether the surface exposed to light is the entire surface, a portion of the surface, or no surface at all, based on whether writing is not performed.

上記の目的を達成するための、この発明の付影処理装置
は、セグメントメモリと、抽出手段と、ビュー座標変換
手段と、光源座標変換手段と、視線用デプスバッファと
、光源用デプスバッファと、選択手段と、フレームメモ
リとを有している。
To achieve the above object, the shading processing device of the present invention includes a segment memory, an extraction means, a view coordinate conversion means, a light source coordinate conversion means, a line-of-sight depth buffer, a light source depth buffer, It has a selection means and a frame memory.

上記セグメントメモリは、ワールド座標系上で定義され
た複数個の描画対象図形データを格納するとともに、各
描画対象図形に対応させて、光が当る面が全面か一部の
面か全く存在しないかを示す識別データを格納するもの
であり、上記抽出手段は、描画図形データのうち付影対
象となる図形データを抽出するものであり、上記ビュー
座標変換手段は、描画対象図形データに基づいてビュー
座標系への座標変換を施すものであり、上記光源座標変
換手段は、抽出図形データに基づいて光源座標系への座
標変換を施すものであり、上記視線用デプスバッファは
、ビュー座標変換が施されたデータに基づいて得られる
画素データを格納するものであり、上記光源用デプスバ
ッファは、光源座標変換が施されたデータに基づいて得
られる奥行きデータを格納するとともに、描画対象図形
に対応する識別データを生成してセグメントメモリに供
給するものであり、上記選択手段は、セグメントメモリ
から読出された識別データおよび奥行きデータに基づい
て書込むべき画素データを選択するものであり、上記フ
レームメモリは、ビュー座標系上の多数の画素に対応し
て、選択された輝度データが書込まれるものである。
The above segment memory stores data for multiple figures to be drawn defined on the world coordinate system, and also determines whether the surface that is illuminated by light is the entire surface, a part of the surface, or none at all, corresponding to each figure to be drawn. The extraction means extracts the figure data to be shaded from the drawn figure data, and the view coordinate conversion means extracts the figure data to be shaded from the drawn figure data. The light source coordinate conversion means performs coordinate conversion to the light source coordinate system based on the extracted figure data, and the line-of-sight depth buffer performs the view coordinate conversion. The light source depth buffer stores pixel data obtained based on data subjected to light source coordinate transformation, and also stores pixel data obtained based on data subjected to light source coordinate transformation. The selection means selects pixel data to be written based on the identification data and depth data read from the segment memory, and the frame memory generates identification data and supplies it to the segment memory. , selected luminance data is written corresponding to a large number of pixels on the view coordinate system.

但し、上記選択手段としては、識別データ、光源用デプ
スバッファから読出された奥行きデータおよび光源座標
変換が施されたデータに基づいて得られる奥行きデータ
に基づいて書込むべき情報データを選択するものであっ
てもよい。
However, the above selection means selects the information data to be written based on the identification data, the depth data read from the light source depth buffer, and the depth data obtained based on the data subjected to light source coordinate transformation. There may be.

また、上記光源用デプスバッファが、描画対象図形毎に
奥行き方向についてのプライオリティデータをも生成し
てセグメントバッファに供給するものであり、選択手段
が識別データ、プライオリティデータに基づいて書込む
べき情報データを選択するものであることが好ましい。
The light source depth buffer also generates priority data in the depth direction for each figure to be drawn and supplies it to the segment buffer, and the selection means selects information data to be written based on the identification data and priority data. It is preferable that the

く作用〉 以上の付影処理方法であれば、描画対象図形データの中
から付影対象とする描画対象図形データを抽出して光源
方向を奥行き方向とする光源座標系上の描画対象図形デ
ータに変換し、変換後の描画対象図形についてのみ、光
が当る面が全面か一部の面か全く存在しないかを判別す
る。そして、描画対象図形データをビュー座標系上の図
形データに変換して隠面処理が施された状態で可視的に
表示する場合に、上記判別結果に基づいて光が当らない
領域に対応させて影情報に基づく描画処理を施すことに
より何形処理が施された3次元描画を行なうことができ
る。
With the above shading processing method, the drawing target figure data to be shadowed is extracted from the drawing target figure data, and the drawing target figure data is converted to the drawing target figure data on the light source coordinate system with the light source direction as the depth direction. After the conversion, it is determined whether the surface that is illuminated by light is the entire surface, only a portion of the surface, or does not exist at all for the target figure to be drawn after the conversion. Then, when converting the graphic data to be drawn into graphic data on the view coordinate system and visually displaying it with hidden surface processing applied, it is possible to correspond to areas that are not illuminated based on the above discrimination results. By performing drawing processing based on shadow information, it is possible to perform three-dimensional drawing that has been subjected to shape processing.

そして、描画対象図形データが当初ワールド座標系上に
おいて定義されているとともに、マトリクス演算を施す
ことにより光源座標系上の描画対象図形データおよびビ
ュー座標系上の描画対象図形データを得る場合には、描
画対象図形データをワールド座標系上において定義する
だけでよく、前者のマトリクス演算を施すことにより光
が当る面についての判別を行なうことができ、後者のマ
トリクス演算を施すことにより隠面処理描画を行なうこ
とができる。
When the drawing target figure data is initially defined on the world coordinate system and the drawing target figure data on the light source coordinate system and the drawing target figure data on the view coordinate system are obtained by performing matrix calculation, It is only necessary to define the figure data to be drawn on the world coordinate system, and by performing the former matrix calculation, it is possible to determine the surface that the light hits, and by performing the latter matrix calculation, it is possible to perform hidden surface processing drawing. can be done.

また、該当する全ての描画対象図形を隠面処理が施され
た状態で描画し、各描画対象図形を構成する全ての画素
が書込まれたか、一部の画素のみが書込まれたか、画素
が全く書込まれなかったかに基づいて光が当る面が全面
か一部の面か全く存在しないかを判別する場合には、描
画対象図形を構成する全ての画素データを隠面処理を施
した状態で書込むだけでよく、実際に書込まれた画素デ
ータに基づいて正確に判別を行なうことができる。
In addition, all the corresponding figures to be drawn are drawn with hidden surface processing applied, and whether all the pixels that make up each figure to be drawn have been written, or only some of the pixels have been written, and the pixel When determining whether the surface that is illuminated by light is the entire surface, a portion of the surface, or does not exist at all based on whether the surface is not written at all, hidden surface processing is applied to all pixel data that constitutes the figure to be drawn. It is only necessary to write in the current state, and accurate determination can be made based on the actually written pixel data.

さらに詳細に説明すると、ワールド座標系上において定
義された全ての図形について何形処理を行なえばビュー
座標系上におけるビューボリューム内に存在する全ての
図形に対して必要領域にのみ何形処理が施されることに
より全体としての立体的表示を行なうことができるので
あるが、何形処理を行なうべき領域が著しく大きくなっ
てしまうため、必要な演算量が著しく多くなってしまう
To explain in more detail, if some processing is performed on all the figures defined on the world coordinate system, some processing is applied only to the necessary areas on all the figures existing in the view volume on the view coordinate system. By doing so, a three-dimensional display can be performed as a whole, but since the area to be subjected to shape processing becomes significantly larger, the amount of calculation required increases significantly.

しかし、この発明においては、ワールド座標系上におい
て定義された図形の中から付影対象とする描画対象図形
データを抽出して光源方向を奥行き方向とする光源座標
系上の描画対象図形データに変換するようにしているの
で、必要最少限の図形についてのみ演算を行なえばよく
、演算量を大巾に減少させることができるとともに、光
源座標系における十分な精度を達成することができる。
However, in this invention, drawing object figure data to be shadowed is extracted from figures defined on the world coordinate system and converted to drawing object figure data on a light source coordinate system in which the light source direction is the depth direction. Therefore, it is only necessary to perform calculations on the minimum number of figures necessary, and the amount of calculations can be greatly reduced, and sufficient precision in the light source coordinate system can be achieved.

そして、必要最少限の図形についての判別結果に基いて
ビュー座標系上において定義され、かつビューボリュー
ム内に存在する図形を3次元的に表示するだけで何形処
理が施された状態の図形を全体として3次元的に表示す
ることができる。
Then, by simply displaying the shapes defined on the view coordinate system and existing within the view volume three-dimensionally based on the determination results for the minimum necessary number of shapes, the shape that has undergone some processing can be displayed. The entire image can be displayed three-dimensionally.

以上の構成の付影処理装置であれば、ワールド座標系上
で定義された複数個の描画対象図形データがセグメント
メモリに格納されているので、抽出手段により付影対象
となる図形データのみを抽出し、光源座標変換手段によ
り光源座標系上の図形データを得、得られた図形データ
を光源用デプスバッファに格納することができる。した
がって、光源用デプスバッファには、最も光源側に位置
する画素の奥行きデータのみが保持される。そして、光
源用デプスバッファに画素データを格納する間に何形処
理対象となる面が、全面に光が当る状態か面の一部のみ
に光が当る状態か光が全く当らない状態かを示す識別デ
ータを生成し、セグメントメモリの該当箇所に格納する
ことができる。
With the shading processing device configured as above, multiple pieces of figure data to be drawn defined on the world coordinate system are stored in the segment memory, so the extraction means extracts only the figure data to be shadowed. Then, graphic data on the light source coordinate system can be obtained by the light source coordinate conversion means, and the obtained graphic data can be stored in the light source depth buffer. Therefore, the light source depth buffer holds only the depth data of the pixel located closest to the light source. Then, while storing pixel data in the light source depth buffer, it indicates whether the surface to be processed is entirely illuminated by light, only a part of the surface is illuminated, or is not illuminated at all. Identification data can be generated and stored at appropriate locations in the segment memory.

その後は、セグメントメモリから図形データを読出して
ビュー座標変換手段によりビュー座標系上の図形データ
を得、得られた図形データを視線用デプスバッファに格
納することにより、最も視線側に位置する画素の奥行き
データのみが保持される。
After that, by reading the figure data from the segment memory and obtaining the figure data on the view coordinate system by the view coordinate conversion means, and storing the obtained figure data in the line-of-sight depth buffer, the pixel located closest to the line-of-sight side is Only depth data is retained.

したがって、セグメントメモリから読出される識別デー
タに対応させて、全領域を影情報に基づいて描画すべき
状態と、色情報に基づいて描画すべき状態と、部分的に
のみ影情報に基づいて描画すべき状態とが選択手段によ
り選択され、選択された情報に基づいてビューボリュー
ムに属する図形がフレームメモリに書込まれるので、最
終的にフレームメモリの内容に基づく可視的表示を行な
うことができる。
Therefore, depending on the identification data read from the segment memory, there are states in which the entire area should be drawn based on shadow information, states in which it should be drawn based on color information, and states in which only a portion of the area should be drawn based on shadow information. The desired state is selected by the selection means, and the figure belonging to the view volume is written into the frame memory based on the selected information, so that visual display can finally be performed based on the contents of the frame memory.

そして、選択手段が、識別データ、光源用デプスバッフ
ァから読出された奥行きデータおよび光源座標変換が施
されたデータに基づ−いて得られる奥行きデータに基づ
いて書込むべき情報データを選択するものである場合に
は、一部の領域にのみ影情報に基づく何形処理を施す必
要がある状態において、補間演算を施すことにより得ら
れた各画素毎に奥行きデータの比較を行なって影領域で
あるか否かを判別することができる。
The selection means selects the information data to be written based on the identification data, the depth data read from the light source depth buffer, and the depth data obtained based on the data subjected to the light source coordinate transformation. In some cases, when it is necessary to perform shape processing based on shadow information only on some areas, depth data is compared for each pixel obtained by performing interpolation calculations to identify the shadow area. It can be determined whether or not.

また、光源用デプスバッファが描画対象図形毎に奥行き
方向についてのプライオリティデータをも生成してセグ
メントバッファに供給するものであり、選択手段が識別
データ、プライオリティデータに基づいて書込むべき情
報データを選択するものである場合には、プライオリテ
ィデータを比較するだけで影領域であるか否かを判別す
ることができるので、各画素毎に奥行きデータの比較を
行なう必要がなくなり、何形処理のために必要な演算量
を著しく減少させることができ、所要時間をも大巾に短
縮することができる。
In addition, the light source depth buffer also generates priority data in the depth direction for each figure to be drawn and supplies it to the segment buffer, and the selection means selects the information data to be written based on the identification data and priority data. If the area is a shadow area or not, it can be determined just by comparing the priority data, so there is no need to compare the depth data for each pixel, and it is not necessary to compare the depth data for each pixel. The required amount of computation can be significantly reduced, and the required time can also be significantly shortened.

〈実施例〉 第1図はこの発明の付影処理方法を説明するフローチャ
ートであり、ステップ■において、ワールド座標系上で
定義された図形データのうち、付影対象となる図形を含
む何形ボリュームを得、ステップ■において、変換後の
座標データが光源用デプスバッファ内におさまるように
光源変換マトリクスを定める。そして、ステップ■にお
いて、付影対象となる図形を構成するポリゴンの座標デ
ータに対して光源座標変換を施し、変換後の座標データ
を得、この座標データに基づいてステップ■において光
が当っている面が全面が(全可視ポリゴンか)一部か(
部分可視ポリゴンが)全く存在しないか(全不可視ポリ
ゴンが)を判別して識別データをセグメントメモリに供
給すると共に画素毎の奥行きデータを光源用デプスバッ
ファに書込む。そして、ステップ■においてビューボリ
ューム内の各ポリゴンに対してビュー座標変換を施す。
<Example> FIG. 1 is a flowchart illustrating the shading processing method of the present invention. In step (2), a light source conversion matrix is determined so that the coordinate data after the conversion fits within the light source depth buffer. Then, in step (2), a light source coordinate transformation is performed on the coordinate data of the polygons constituting the figure to be shadowed to obtain the transformed coordinate data, and based on this coordinate data, light is applied in step (2). Is the surface entirely (all visible polygons) or partially (
It is determined whether there are any partially visible polygons (all invisible polygons), and identification data is supplied to the segment memory, and depth data for each pixel is written to the light source depth buffer. Then, in step (2), view coordinate transformation is applied to each polygon within the view volume.

但し、この座標変換を行なう場合には、法線ベクタ、光
源ベクタのみならず、上記変換後の座標データについて
も変換処理を施す。その後は、ステップ■において識別
データの種類を判別し、ステップ■■■の何れかにおい
て判別結果に対応する描画を行なうことにより何形処理
が施された描画データを得ることができる。
However, when performing this coordinate transformation, the transformation processing is performed not only on the normal vector and the light source vector but also on the coordinate data after the above transformation. Thereafter, the type of identification data is determined in step (2), and drawing data corresponding to the determination result is performed in any one of steps (2) and (2), thereby obtaining drawing data that has been subjected to some form processing.

上記ステップ■の処理は識別データが全可視データであ
る場合に対応しており、ポリゴン全体をシェーディング
が施された状態で描画する処理であり、ステップ■の処
理は識別データが全不可視データである場合に対応して
おり、例えば周囲光等の影情報に基づいて描画する処理
であり、ステップ■の処理は、ビュー座標系上の座標デ
ータのみならず上記変換後の座標データをも補間し、補
間した奥行き値が光源用デプスバッファに格納されてい
る奥行きデータより大きいか、等しいかに対応して影情
報に基づ(描画、シェーディングが施された状態での描
画を選択する処理である。
The process in step ■ above corresponds to the case where the identification data is fully visible data, and is the process of drawing the entire polygon with shading, and the process in step ■ corresponds to the case where the identification data is fully invisible data. For example, it is a process of drawing based on shadow information such as ambient light, and the process of step (2) interpolates not only the coordinate data on the view coordinate system but also the coordinate data after the above transformation, This process selects drawing (drawing or shading) based on shadow information depending on whether the interpolated depth value is greater than or equal to the depth data stored in the light source depth buffer.

したがって、上記の付影処理方法を採用した場合には、
フレームメモリに対する描画を行なうに当って、全可視
ポリゴンおよび全不可視ポリゴンに対しては各画素毎の
何形処理が必要か否かを判別する必要が全くなく、一部
分可視ポリゴンについてのみ画素毎に何形処理が必要か
否かを判別すればよいとともに、何形範囲を限定するこ
とができるのであるから、全体として演算量を著しく減
少させることができ、高速に何形表示を行なわせること
ができる。
Therefore, if the above shadow processing method is adopted,
When drawing to the frame memory, there is no need to determine what form processing is required for each pixel for all visible polygons and all invisible polygons, and only for partially visible polygons. It is only necessary to determine whether shape processing is necessary or not, and it is also possible to limit the shape range, so the overall amount of calculation can be significantly reduced, and the shape display can be performed at high speed. .

第2図はこの発明の付影処理装置の一実施例を概略的に
示すブロック図であり、図示しない上位プロセッサから
供給されるワールド座標系上で定義された図形データお
よび後述する識別データを格納するセグメントメモリ(
1)と、図示しないクリップ部を通してセグメントメモ
リ(1)から読出される図形データに対して選択的に、
光源座標変換、視線座標変換を施す座標変換部(2)と
、光源座標変換が施されたデータを入力として補間演算
を施し、光源座標系上の各画素データを得る光源側補間
演算部(3)と、視線座環変換が施されたデータを入力
として補間a’sを施し、視線座標系上の各画素データ
を得る視線側補間演算部(4)と、座標変換部(2)か
ら出力される輝度データを入力として補間演算を施す輝
度補間演算部(5)と、光源側補間演算部(3)により
得られる画素データをデプスバッファアルゴリズムに基
づいて順次格納する光源用デプスバッファ(6)と、視
線側補間演算部(4)により得られる画素データをデプ
スバッファアルゴリズムに基づいて順次格納する視線用
デプスバッファ(7)と、視線用デプスバッファ(7)
から出力されるデプスフラグにより輝度データの書込み
が制御されるフレームメモリ(8)と、光源側補間演算
部(3)から出力される奥行きデータ、光源用デプスバ
ッファ(6)から読出される奥行きデータ、視線側補間
演算部(4)から出力される奥行きデータ、視線用デプ
スバッファ(7)から読出される奥行きデータおよびセ
グメントメモリ(1)から読出される識別データに基づ
いてフレームメモリ(8)に書込まれるべき輝度データ
を選択するコンパレータ(9)とから構成されている。
FIG. 2 is a block diagram schematically showing an embodiment of the shading processing device of the present invention, in which graphic data defined on the world coordinate system supplied from a higher-level processor (not shown) and identification data to be described later are stored. Segmented memory (
1) and graphic data read out from the segment memory (1) through a clip section (not shown).
A coordinate conversion unit (2) that performs light source coordinate conversion and line-of-sight coordinate conversion, and a light source side interpolation calculation unit (3) that performs interpolation calculations using the data that has been subjected to light source coordinate conversion as input, and obtains each pixel data on the light source coordinate system. ) and the line-of-sight side interpolation calculation unit (4), which performs interpolation a's using the data subjected to the line-of-sight ring transformation as input and obtains each pixel data on the line-of-sight coordinate system, and the output from the coordinate transformation unit (2). a luminance interpolation calculation section (5) that performs interpolation calculations using input luminance data; and a light source depth buffer (6) that sequentially stores pixel data obtained by the light source side interpolation calculation section (3) based on a depth buffer algorithm. , a line-of-sight depth buffer (7) that sequentially stores pixel data obtained by the line-of-sight side interpolation calculation unit (4) based on a depth buffer algorithm, and a line-of-sight depth buffer (7).
A frame memory (8) in which the writing of luminance data is controlled by a depth flag output from the frame memory (8), depth data output from the light source side interpolation calculation unit (3), depth data read from the light source depth buffer (6), The data is written to the frame memory (8) based on the depth data output from the line-of-sight side interpolation calculation unit (4), the depth data read from the line-of-sight depth buffer (7), and the identification data read from the segment memory (1). and a comparator (9) for selecting luminance data to be input.

また、上記光源用デプスバッファ(6)は順次供給され
る光源座標系上の画素データのうち、最も光源側に位置
する画素の奥行きデータのみを保持するものであるとと
もに、何れかの図形を構成する画素データが全て光源用
デプスバッファ(6)に書込まれたか画素データが全く
書込まれなかったかに対応させて全可視データ、全不可
視データ、部分可視データを生成し、このデータを識別
データとしてセグメントメモリ(1)に供給するもので
ある。第3図は上記識別データを生成する装置の構成を
概略的に示すブロック図であり、何形ボリュームクリッ
プ処理が施された範囲内においてポリゴンデータを順次
生成し、判定部00)において、予め光源座標系上にお
いて隠面処理が施された光源用デプスバッファ(6)の
奥行きデータと比較することにより全ての画素データが
格納されている奥行きデータと一致するか否かを判別し
、全て一致すれば全可視データを、全く一致しなければ
全不可視データを、一部のみ一致すれば部分可視データ
を生成してセグメントメモリ(1)に供給するようにし
ている。
Further, the light source depth buffer (6) holds only the depth data of the pixel located closest to the light source among the sequentially supplied pixel data on the light source coordinate system, and also holds the depth data of the pixel located closest to the light source side. All visible data, all invisible data, and partially visible data are generated depending on whether all pixel data has been written to the light source depth buffer (6) or no pixel data has been written, and this data is used as identification data. The data is supplied to the segment memory (1) as follows. FIG. 3 is a block diagram schematically showing the configuration of a device that generates the above identification data, in which polygon data is sequentially generated within the range to which the volume clip processing has been performed, and in the judgment unit 00), the light source It is determined whether all pixel data match the stored depth data by comparing it with the depth data of the light source depth buffer (6) that has been subjected to hidden surface processing on the coordinate system, and if all the pixel data match. If they do not match at all, all invisible data is generated, and if only a portion of them matches, partial visible data is generated and supplied to the segment memory (1).

上記の構成の付影処理装置の動作は次のとおりである。The operation of the shading processing device having the above configuration is as follows.

セグメントメモリ(1)には、図示しない上位プロセッ
サからワールド座標系上で定義された複数の図形データ
が順次供給され、格納されている。そして、各図形に対
応させて図示しない識別データ格納領域が割当てられて
いる。
A segment memory (1) is sequentially supplied with a plurality of graphic data defined on the world coordinate system from a higher-level processor (not shown) and stored therein. An identification data storage area (not shown) is allocated to each graphic.

したがって、上記セグメントメモリ(1)がら読出され
た図形データに対して光源座標変換を施せば、第4図中
矢印光線を奥行き方向とする光源座標系上において各図
形が定義され、ざらに何形ボリュームクリップ処理を施
すことにより同図Bウニ点鎖線で示す領域に含まれる図
形のみがデプスバッファ処理を受け、逆に、上記セグメ
ントメモリ(1)から読出された図形データに対してビ
ュー座標変換を施せば、第4図中矢印Aを奥行き方向と
するビュー座標系上において各図形が定義され、さらに
ビューボリュームクリップ処理を施すことにより同図A
中破線で示す領域に含まれる図形のみがデプスバッファ
処理を受ける。但し、上記ビュー座標変換が施されるデ
ータには、法線ベクタ、光源ベクタ等の頂点情報のみな
らず、光源座標変換により得られた画素データも含まれ
ている。そして、ポリゴンを構成する画素の奥行きデー
タを光源用デプスバッファ(6)に書込むとともに、識
別データを生成してセグメントメモリ(1)の該当領域
に格納する。
Therefore, by performing light source coordinate transformation on the figure data read out from the segment memory (1), each figure is defined on the light source coordinate system with the arrow ray in FIG. By performing volume clip processing, only the figures included in the area indicated by the dotted chain line in Figure B are subjected to depth buffer processing, and conversely, view coordinate transformation is performed on the figure data read from the segment memory (1). Then, each figure is defined on the view coordinate system whose depth direction is arrow A in Fig. 4, and by further performing view volume clip processing,
Only the figures included in the area indicated by the medium broken line undergo depth buffer processing. However, the data to which the view coordinate transformation is performed includes not only vertex information such as normal vectors and light source vectors, but also pixel data obtained by light source coordinate transformation. Then, the depth data of the pixels constituting the polygon is written into the light source depth buffer (6), and identification data is generated and stored in the corresponding area of the segment memory (1).

したがって、ビュー座標変換が施されたデータに対して
、コンパレータ(9)において、セグメントメモリ(1
)から読出された識別データに対応させて必要な処理が
選択され、該当する情報に基づくフレームメモ1月8)
への書込みが行なわれる。さらに詳細に説明すると、識
別データが全可視データである場合には、全く何形処理
を施す必要がないので輝度補間演算部(5)によりシェ
ーディング処理を施して得られた輝度データIOをコン
パレータ(9)により選択してフレームメモリ(8)に
書込むだけでよい。また、識別データが全不可視データ
である場合には、全面に全く光が当らないのであるから
、例えば周囲光に対応する輝度データを影情報Isとし
てコンパレータ(9)により選択してフレームメモリ(
8)に書込むだけでよい。さらに、識別データが部分可
視データである場合には、ビュー座標系上におけるデー
タを補間するとともに、光源座標系上における座標デー
タを補間する。そして、光源座標系上において補間され
た奥行きデータZLと光源用デプスバッファ(6)に格
納されている奥行きデータZBとを比較し、ZL−ZB
の場合にはシェーディング処理を施して得られた輝度デ
ータ■0を選択してフレームメモリ(8)に書込めばよ
く、逆に、ZL<ZBの場合には影情報1sを選択して
フレームメモリ(8)に書込めばよい。
Therefore, in the comparator (9), the segment memory (1
) The necessary processing is selected in accordance with the identification data read from ), and a frame memo is created based on the corresponding information (January 8).
Writing is performed. To explain in more detail, when the identification data is all visible data, there is no need to perform any form processing at all, so the brightness data IO obtained by performing shading processing by the brightness interpolation calculation unit (5) is sent to the comparator ( 9) and write it into the frame memory (8). In addition, when the identification data is completely invisible data, since no light hits the entire surface, for example, luminance data corresponding to ambient light is selected by the comparator (9) as the shadow information Is, and the frame memory
Just write in 8). Further, when the identification data is partially visible data, the data on the view coordinate system is interpolated, and the coordinate data on the light source coordinate system is interpolated. Then, the depth data ZL interpolated on the light source coordinate system is compared with the depth data ZB stored in the light source depth buffer (6), and ZL-ZB
In this case, it is sufficient to select the brightness data ■0 obtained by performing shading processing and write it to the frame memory (8), and conversely, if ZL<ZB, select the shadow information 1s and write it to the frame memory (8). Just write in (8).

第5図は以上のようにして何形処理が施されたビューボ
リューム内の3次元的表示を示しており、ビューボリュ
ームクリップ処理によりクリップされる図形に基づく影
が表示されることにより、優れた立体的表現を達成して
いる。
Figure 5 shows a three-dimensional display within the view volume that has been subjected to the shape processing as described above. Achieves three-dimensional expression.

以上の説明から明らかなように、この実施例においては
、全画素について何形処理が必要であるか否かを判別す
る必要がなくなり、一部のポリゴンについてのみ各画素
が何形処理を必要とするか否かを判別するだけでよいか
ら、何形処理所要時間を著しく短縮することができ、表
示の高速性を確保することができる。
As is clear from the above explanation, in this embodiment, it is no longer necessary to determine whether or not shape processing is required for all pixels, and it is no longer necessary to determine whether shape processing is required for each pixel for only some polygons. Since it is only necessary to determine whether or not to display the image, it is possible to significantly shorten the time required for processing the image and to ensure high-speed display.

〈実施例2〉 第6図は他の実施例を示すブロック図であり、上記実施
例と異なる点は、光源用デプスバッファ(6)に、ポリ
ゴン毎の奥行き方向のプライオリティデータを生成する
装置(6P)を付加した点、生成されたプライオリティ
データをもセグメントメモリ(1)に格納する点および
セグメントメモリ(1)、装置(BP)からそれぞれ読
出されるプライオリティデータにより制御されるコンパ
レータ(9a)で上記コンパレータ(9)を置換した点
のみである。
<Embodiment 2> FIG. 6 is a block diagram showing another embodiment, and the difference from the above embodiment is that the light source depth buffer (6) is equipped with a device ( 6P), the generated priority data is also stored in the segment memory (1), and the comparator (9a) is controlled by the priority data read from the segment memory (1) and the device (BP), respectively. The only difference is that the comparator (9) is replaced.

さらに詳細に説明すると、光源用デプスバッファ(6)
に既に書込まれている奥行きデータと供給された奥行き
データとの大小関係を比較して、ポリゴンを構成する全
ての画素データが最も光源側に位置するか否かを判別し
、光源側に位置すると判別された場合にのみプライオリ
ティデータを生成する。その後、プライオリティデータ
が生成されていないポリゴンについてのみ同様の処理を
行ない、順次プライオリティデータを生成する。以下、
同様にして全てのポリゴンについてプライオリティデー
タを生成することができる。
To explain in more detail, depth buffer for light source (6)
The magnitude relationship between the depth data that has already been written and the depth data that has been supplied is compared, and it is determined whether all of the pixel data that makes up the polygon is located closest to the light source. Then, priority data is generated only when it is determined. Thereafter, similar processing is performed only on polygons for which priority data has not been generated, and priority data is sequentially generated. below,
Priority data can be generated for all polygons in the same way.

したがって、この実施例の場合には、フレームメモリ(
8)に対するデータ書込み時において、部分可視ポリゴ
ンの描画に当って、qlにブライオリテ、イ番号を比較
するだけでシェーディングデータ10による描画か影情
報Isによる描画かを判別することができ、何形処理を
一層簡素化することができる。
Therefore, in the case of this embodiment, the frame memory (
When writing data to 8), when drawing a partially visible polygon, it is possible to determine whether drawing is based on shading data 10 or shadow information Is by simply comparing ql, briolite, and a number, and what type of shape processing is performed. can be further simplified.

以上の説明から明らかなように、何れの実施例において
も、必要な演算量を著しく減少させることができるので
何形処理が施された状態での描画速度を著しく向上させ
ることができるととももに、複数の自由曲面に対しても
簡単に対処することができる。さらに何形ボリュームを
設定することができるので、何形処理対象を減少させる
ことができ、この点からも著しく描画速度を向上させる
ことができる。
As is clear from the above explanation, in any of the embodiments, the amount of required calculations can be significantly reduced, and therefore the drawing speed can be significantly improved even when any shape processing is performed. Moreover, it can easily handle multiple free-form surfaces. Furthermore, since volumes of any shape can be set, the number of shapes to be processed can be reduced, and from this point of view as well, the drawing speed can be significantly improved.

尚、この発明は上記の実施例に限定されるものではなく
、例えば、座標変換部を光源座標変換用およびビュー座
標変換用とに区分しておくことが可能であるほか、コン
パレータに代えてセレクタ等を使用することとが可能で
あり、その他、この発明の要旨を変更しない範囲内にお
いて種々の設計変更を施すことが可能である。
Note that the present invention is not limited to the above-described embodiments; for example, it is possible to divide the coordinate conversion section into one for light source coordinate conversion and one for view coordinate conversion, and it is also possible to use a selector instead of a comparator. In addition, various design changes can be made without changing the gist of the present invention.

〈発明の効果〉 以上のように第1の発明は、画素毎に何形処理を行なう
べきか否かを判別する必要がある図形を減少させること
ができるので、演算量を大巾に減少させることかでき、
しかも、付影対象とする描画対象図形データを抽出して
光源方向を奥行き方向とする光源座標系上の描画対象図
形データに変換するようにしているので、必要最少限の
図形についてのみ演算を行なえばよく、演算量を一層減
少させることができるので、何形処理が施された状態で
の描画速度を著しく向上させることができるという特有
の効果を奏する。
<Effects of the Invention> As described above, the first invention can reduce the number of figures that need to be determined for each pixel, and therefore greatly reduce the amount of calculations. I can do it,
Moreover, since the drawing object figure data to be shadowed is extracted and converted into the drawing object figure data on the light source coordinate system in which the light source direction is the depth direction, calculations can be performed only on the minimum necessary figures. If possible, the amount of calculations can be further reduced, which has the unique effect of significantly increasing the drawing speed in a state where some form processing is performed.

第2の発明は、描画対象図形データをワールド座標系上
において定義するだけでよく、前者のマトリクス演算を
施すことにより光が当る面についての判別を行なうこと
ができ、後者のマトリクス演算を施すことにより隠面処
理描画を行なうことができるので、何形処理を施すべき
図形データの定義を簡単にすることができるという特有
の効果を奏する。
The second invention is that it is only necessary to define the figure data to be drawn on the world coordinate system, and by performing the former matrix calculation, it is possible to determine the surface on which the light hits, and by performing the latter matrix calculation. Hidden surface processing drawing can be performed using this method, which has the unique effect of simplifying the definition of graphic data to which shape processing should be applied.

第3の発明は、描画対象図形を構成する全ての画素デー
タを隠面処理を施した状態で書込むだけでよく、実際に
書込まれた画素データに基づいて簡単に、かつ迅速に正
確な状態判別を行なうことができるという特有の効果を
奏する。
The third invention is to simply write all the pixel data constituting the figure to be drawn with hidden surface processing applied, and it is possible to easily and quickly obtain accurate information based on the actually written pixel data. This has the unique effect of being able to determine the state.

第4の発明は、セグメントメモリから読出される識別デ
ータに対応させて、全領域を影情報に基づいて描画すべ
き状態と、色情報に基づいて描画すべき状態と、部分的
にのみ影情報に基づいて描画すべき状態とが選択され、
選択された情報に基づいてビューボリュームに属する図
形がフレームメモリに書込まれるのであるから、部分的
にのみ影情報に基づいて描画すべき状態が選択された場
合にのみ何形処理を施すべきか否かを判別すればよく、
他の場合には全面にわたって同一の処理を施せばよいの
で、何形処理が必要か否かの判別を減少させることがで
き、さらに何形ボリュームをも設定することができるの
で処理が必要な範囲を一層制限することができ、描画速
度を著しく高速化することができるという特有の効果を
奏する。
The fourth invention provides a state in which the entire region should be drawn based on the shadow information, a state in which the entire region should be drawn based on the color information, and a state in which the entire region should be drawn based on the color information, and a state in which the entire region should be drawn based on the shadow information, in correspondence with the identification data read out from the segment memory. The state to be drawn is selected based on
Since the shape belonging to the view volume is written to the frame memory based on the selected information, what kind of shape processing should be performed only when the state to be drawn is selected based only partially on the shadow information? All you have to do is determine whether or not
In other cases, the same processing can be applied to the entire surface, which reduces the need to judge which type of processing is necessary.Furthermore, since any type of volume can be set, the range that requires processing can be reduced. This has the unique effect of being able to further limit the amount of space required, and significantly speeding up the drawing speed.

第5の発明は、一部の領域にのみ影情報に基づく何形処
理を施す必要がある状態において、補間演算を施すこと
により得られた各画素毎に奥行きデータの比較を行なっ
て影領域であるか否かを判別することができるという特
有の効果を奏する。
The fifth invention is to compare depth data for each pixel obtained by performing interpolation calculations in a state where it is necessary to perform some shape processing based on shadow information only on a part of the region. It has the unique effect of being able to determine whether it exists or not.

第6の発明は、プライオリティデータを比較するだけで
影領域であるか否かを判別することができるので、各画
素毎に奥行きデータの比較を行なう必要がなくなり、何
形処理のために必要な演算量を著しく減少させることが
でき、所要時間をも大巾に短縮することができるという
特有の効果を奏する。
In the sixth invention, it is possible to determine whether or not it is a shadow area simply by comparing the priority data, so there is no need to compare depth data for each pixel, and it is not necessary to compare the depth data for each pixel. It has the unique effect of being able to significantly reduce the amount of calculations and significantly reducing the required time.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の付影処理方法の一例を示すフローチ
ャート、 第2図はこの発明の付影処理装置の一実施例を概略的に
示すブロック図、 第3図は識別データを生成する装置の構成を概略的に示
すブロック図、 第4図はビュー座標変換および光源座標変換を説明する
概略図、 第5図は何形処理が施された状態における描画例を示す
概略図、 第6図は他の実施例を概略的に示すブロック図。
FIG. 1 is a flowchart showing an example of the shading processing method of the present invention, FIG. 2 is a block diagram schematically showing an embodiment of the shading processing device of the present invention, and FIG. 3 is a device for generating identification data. FIG. 4 is a schematic diagram illustrating view coordinate transformation and light source coordinate transformation; FIG. 5 is a schematic diagram illustrating a drawing example after shape processing; FIG. 6 FIG. 3 is a block diagram schematically showing another embodiment.

Claims (1)

【特許請求の範囲】 1、描画対象図形データから付影対象とする描画対象図
形データを抽出して光源方向を奥行き方向とする光源座
標系上の描画対象図形データに変換し、変換後の描画対
象図形が、光が当る面が全面か一部の面か全く存在しな
いかを判別し、視線方向を奥行き方向とするビュー座標
系上の描画対象図形を描画するに当って、判別結果に基
づいて光が当らない領域に対応させて影情報Isに基づ
く描画処理を施すことを特徴とする付影処理方法。 2、描画対象図形データが当初ワールド座標系上におい
て定義されているとともに、 マトリクス演算を施すことにより光源座標系上の描画対
象図形データおよびビュー座標系上の描画対象図形デー
タを得る上記特許請求の範囲第1項記載の付影処理方法
。 3、全ての描画対象図形を隠面処理が施された状態で描
画し、各描画対象図形を構成する全ての画素が書込まれ
たか、一部の画素のみが書込まれたか、画素が全く書込
まれなかったかに基づいて光が当る面が全面か一部の面
か全く存在しないかを判別する上記特許請求の範囲第1
項記載の付影処理方法。 4、ワールド座標系上で定義された複数個の描画対象図
形データを格納するとともに、各描画対象図形に対応さ
せて、光が当る面が全面か一部の面か全く存在しないか
を示す識別データを格納するセグメントメモリ(1)と
、描画図形データのうち付影対象となる図形データを抽
出する抽出手段(2)と、描画対象図形データに基づい
てビュー座標系への座標変換を施すビュー座標変換手段
(2)と、抽出図形データに基づいて光源座標系への座
標変換を施す光源座標変換手段(2)と、ビュー座標変
換が施されたデータに基づいて得られる画素データを格
納する視線用デプスバッファ(7)と、光源座標変換が
施されたデータに基づいて得られる奥行きデータを格納
するとともに、描画対象図形に対応する識別データを生
成してセグメントメモリ(1)に供給する光源用デプス
バッファ(6)と、セグメントメモリ(1)から読出さ
れた識別データおよび奥行きデータに基づいて書込むべ
き情報データI0、Isを選択する選択手段(9)と、
ビュー座標系上の多数の画素に対応して、選択された情
報データが書込まれるフレームメモリ(8)とを有して
いることを特徴とする付影処理装置。 5、選択手段(9)が、識別データ、光源用デプスバッ
ファ(6)から読出された奥行きデータおよび光源座標
変換が施されたデータに基づいて得られる奥行きデータ
に基づいて書込むべき情報データを選択するものである
上記特許請求の範囲第4項記載の付影処理装置。 6、光源用デプスバッファ(6)が描画対象図形毎に奥
行き方向についてのプライオリティデータをも生成して
セグメントメモリ(1)に供給するものであり、選択手
段(9)が識別データ、プライオリティデータに基づい
て書込むべき情報データを選択するものである上記特許
請求の範囲第4項記載の付影処理装置。
[Claims] 1. Extract the drawing target figure data to be shadowed from the drawing target figure data and converting it into drawing target figure data on a light source coordinate system with the light source direction as the depth direction, and drawing after conversion. It is determined whether the surface of the target figure that is illuminated by light is the entire surface, a part of the surface, or there is no surface at all, and based on the determination result, when drawing the target figure on the view coordinate system with the line of sight direction as the depth direction, A shading processing method characterized in that drawing processing is performed based on shadow information Is in correspondence with areas that are not illuminated by light. 2. The figure data to be drawn is initially defined on the world coordinate system, and the figure data to be drawn on the light source coordinate system and the figure data to be drawn on the view coordinate system are obtained by performing matrix operations. The shading processing method described in scope 1. 3. Draw all the figures to be drawn with hidden surface processing applied, and check whether all the pixels that make up each figure to be drawn have been written, only some pixels, or no pixels at all. Claim 1: It is determined whether the surface to which light is applied is the entire surface, a part of the surface, or no surface at all based on whether there is any writing.
The shading processing method described in the section. 4. Storage of data for multiple figures to be drawn defined on the world coordinate system, and identification indicating whether the surface exposed to light is the entire surface, a part of the surface, or none at all, corresponding to each figure to be drawn. A segment memory (1) for storing data, an extraction means (2) for extracting figure data to be shadowed from drawing figure data, and a view for performing coordinate transformation to a view coordinate system based on the figure data to be drawn. A coordinate transformation means (2), a light source coordinate transformation means (2) that performs coordinate transformation to a light source coordinate system based on extracted figure data, and stores pixel data obtained based on data subjected to view coordinate transformation. A line-of-sight depth buffer (7) and a light source that stores depth data obtained based on data subjected to light source coordinate transformation, generates identification data corresponding to the figure to be drawn, and supplies the generated identification data to the segment memory (1). a depth buffer (6), and selection means (9) for selecting information data I0 and Is to be written based on the identification data and depth data read from the segment memory (1);
A shading processing device comprising a frame memory (8) into which selected information data is written corresponding to a large number of pixels on a view coordinate system. 5. The selection means (9) selects the information data to be written based on the identification data, the depth data read from the light source depth buffer (6), and the depth data obtained based on the data subjected to the light source coordinate transformation. The shading processing device according to claim 4, wherein the shading processing device is selected. 6. The light source depth buffer (6) also generates priority data in the depth direction for each figure to be drawn and supplies it to the segment memory (1), and the selection means (9) inputs identification data and priority data. The shading processing device according to claim 4, wherein information data to be written is selected based on the shading processing device.
JP63175778A 1988-07-14 1988-07-14 Shadow processing method and apparatus Expired - Fee Related JP3005981B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP63175778A JP3005981B2 (en) 1988-07-14 1988-07-14 Shadow processing method and apparatus
US07/379,941 US5083287A (en) 1988-07-14 1989-07-14 Method and apparatus for applying a shadowing operation to figures to be drawn for displaying on crt-display
GB8916232A GB2223384B (en) 1988-07-14 1989-07-14 Method and apparatus for applying shadowing operation to figures to be drawn for displaying on crt-display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63175778A JP3005981B2 (en) 1988-07-14 1988-07-14 Shadow processing method and apparatus

Publications (2)

Publication Number Publication Date
JPH0224785A true JPH0224785A (en) 1990-01-26
JP3005981B2 JP3005981B2 (en) 2000-02-07

Family

ID=16002100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63175778A Expired - Fee Related JP3005981B2 (en) 1988-07-14 1988-07-14 Shadow processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3005981B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0465780A (en) * 1990-07-05 1992-03-02 Natl Aerospace Lab Graphic display device
JPH0683979A (en) * 1992-01-29 1994-03-25 Internatl Business Mach Corp <Ibm> Method and system for displaying computer graphic accompaned by formation of shadow
US5828378A (en) * 1995-06-01 1998-10-27 Ricoh Company, Ltd. Three dimensional graphics processing apparatus processing ordinary and special objects
JP2005346417A (en) * 2004-06-03 2005-12-15 Sega Corp Method for controlling display of object image by virtual three-dimensional coordinate polygon and image display device using the method
JP2009516293A (en) * 2005-11-18 2009-04-16 オートデスク,インコーポレイテッド Shadows that can be gripped in the 3D model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6290772A (en) * 1985-10-17 1987-04-25 Fujitsu Ltd Three dimentional object display processing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6290772A (en) * 1985-10-17 1987-04-25 Fujitsu Ltd Three dimentional object display processing system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0465780A (en) * 1990-07-05 1992-03-02 Natl Aerospace Lab Graphic display device
JPH0683979A (en) * 1992-01-29 1994-03-25 Internatl Business Mach Corp <Ibm> Method and system for displaying computer graphic accompaned by formation of shadow
US5828378A (en) * 1995-06-01 1998-10-27 Ricoh Company, Ltd. Three dimensional graphics processing apparatus processing ordinary and special objects
JP2005346417A (en) * 2004-06-03 2005-12-15 Sega Corp Method for controlling display of object image by virtual three-dimensional coordinate polygon and image display device using the method
JP4513423B2 (en) * 2004-06-03 2010-07-28 株式会社セガ Object image display control method using virtual three-dimensional coordinate polygon and image display apparatus using the same
JP2009516293A (en) * 2005-11-18 2009-04-16 オートデスク,インコーポレイテッド Shadows that can be gripped in the 3D model
US9563980B2 (en) 2005-11-18 2017-02-07 Autodesk, Inc. Grip manipulatable shadows in 3D models

Also Published As

Publication number Publication date
JP3005981B2 (en) 2000-02-07

Similar Documents

Publication Publication Date Title
US5083287A (en) Method and apparatus for applying a shadowing operation to figures to be drawn for displaying on crt-display
US6115050A (en) Object-based anti-aliasing
US5734806A (en) Method and apparatus for determining graphical object visibility
US20040075654A1 (en) 3-D digital image processor and method for visibility processing for use in the same
US6411294B1 (en) Image display apparatus and image display method
EP1306810A1 (en) Triangle identification buffer
US6731289B1 (en) Extended range pixel display system and method
JPH09223244A (en) Method and device for rendering three-dimensional object at a high speed
US6271848B1 (en) Image processing device, image processing method and storage medium for storing image processing programs
US5973701A (en) Dynamic switching of texture mip-maps based on pixel depth value
US7310103B2 (en) Pipelined 2D viewport clip circuit
US6774897B2 (en) Apparatus and method for drawing three dimensional graphics by converting two dimensional polygon data to three dimensional polygon data
JP7460641B2 (en) Apparatus and method for generating a light intensity image - Patents.com
JP2003115055A (en) Image generator
JPH0224785A (en) Method and device for shadowing processing
JPH09245191A (en) Transparency transformation method, its device and image processor
US20020051016A1 (en) Graphics drawing device of processing drawing data including rotation target object and non-rotation target object
KR100295709B1 (en) Spotlight characteristic forming method and image processor using the same
KR100848687B1 (en) 3-dimension graphic processing apparatus and operating method thereof
JP2755204B2 (en) Polyhedron display method and polyhedron display device
JP3712015B2 (en) Image creating apparatus and method
JP2518712B2 (en) Method and apparatus for producing high quality rendering drawing in computer graphic
JPH05342368A (en) Method and device for generating three-dimensional picture
JP4313892B2 (en) Drawing apparatus, drawing method, and recording medium
JPH02275594A (en) Method and device for shadowing processing

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees