JPS61195469A - Picture displaying method - Google Patents

Picture displaying method

Info

Publication number
JPS61195469A
JPS61195469A JP3707985A JP3707985A JPS61195469A JP S61195469 A JPS61195469 A JP S61195469A JP 3707985 A JP3707985 A JP 3707985A JP 3707985 A JP3707985 A JP 3707985A JP S61195469 A JPS61195469 A JP S61195469A
Authority
JP
Japan
Prior art keywords
data
triangular
processing
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3707985A
Other languages
Japanese (ja)
Other versions
JPH0814852B2 (en
Inventor
Tetsuzo Kuragano
哲造 倉賀野
Atsushi Kikuchi
敦 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP3707985A priority Critical patent/JPH0814852B2/en
Priority to US06/832,990 priority patent/US4819192A/en
Priority to EP86102358A priority patent/EP0193151B1/en
Priority to AT86102358T priority patent/ATE97246T1/en
Priority to CA000502519A priority patent/CA1260638A/en
Priority to DE86102358T priority patent/DE3689271T2/en
Publication of JPS61195469A publication Critical patent/JPS61195469A/en
Publication of JPH0814852B2 publication Critical patent/JPH0814852B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To simplify the interpolation calculation by determining the pixel on 2-dimensional display scope to which triangular area cut out from 3 dimensional object it belongs using the centroid of the triangular area and 3 side members of the triangle. CONSTITUTION:The surface of object is cut out into triangular unit area, and the data composed of object surface information connecting the 3 apexes of the triangular unit area. Out of these data, the position data of the apexes are perspectively converted into 2 dimensional plane which corresponds to display screen according to the sight position, and the data is obtained to indicate apex position on 2 dimensional plane which correspond with the 3 apexes. The centroid of the triangular area are obtained from these data, position relation between the centroid and pixel is judged, and the pixel is judged whether it is in the triangular area. Then, the object furnace information data is vertically placed at the apex position of the triangular area, and the triangular data plane is placed on the point edge of its, and interpolation calculation is made for the triangular area.

Description

【発明の詳細な説明】 以下の順序で本発明を説明する。[Detailed description of the invention] The present invention will be explained in the following order.

A産業上の利用分野 B発明の概要 C従来の技術 り発明が解決しようとする問題点 Effll!1点を解決するための手段F作用 G実施例 (G1)陰影処理(第2図) (G2)陰面処理(第3図、第4図) (G3)変換処理手順(第1図) 各種テーブルの生成手順(第5図〜第10図)線形補間
、陰影、陰面処理(第11図〜第16図)(G4)実施
例の作用 (G5)変形例 H発明の効果 A産業上の利用分野 本発明は画像表示方法に関し、特にメモリ内に予め書込
まれた3次元画像情報を、コンピュータ処理により画像
変換してディスプレイのラスク表示画面上に立体的に表
示するものである。
A: Industrial field of application B: Outline of the invention C: Conventional technology - Problems to be solved by the invention Effll! Means for solving one point F action G Example (G1) Shading processing (Figure 2) (G2) Hidden surface processing (Figures 3 and 4) (G3) Conversion processing procedure (Figure 1) Various tables Generation procedure (Figures 5 to 10) Linear interpolation, shading, hidden surface processing (Figures 11 to 16) (G4) Effects of the embodiment (G5) Variations H Effects of the invention A Field of industrial application The present invention relates to an image display method, and in particular to a method in which three-dimensional image information written in advance in a memory is converted into an image by computer processing and displayed three-dimensionally on a rask display screen of a display.

B発明の概要 本発明は、3次元空間にある物体の表面をディスプレイ
の2次元表示画面上に変換表示する画像表示方法におい
て、物体1.4の表面IA、4Aを三角形の単位領域U
AI、UA2に切出し、この単位領域の3つの頂点を表
す第1の頂点PXにおける物体表面情報でなる第1のデ
ータを得、この第1のデータのうち頂点PXの位置を表
す位置データをディスプレイのラスク表示画面に相当す
る2次元平面に透視変換して2次元平面上の第2の頂点
PI、P2、P3の位置を表す第2のデータを得、 こ
の2次元平面上の頂点P + 、P t sP、の物体
表面情報に基づいて頂点PISPg、P、によって囲ま
れる三角形領域内のピクセルの物体表面情報を線形補間
する。
B. Summary of the Invention The present invention provides an image display method for converting and displaying the surface of an object in a three-dimensional space on a two-dimensional display screen of a display.
AI, UA2 are cut out, first data consisting of object surface information at the first vertex PX representing the three vertices of this unit area is obtained, and position data representing the position of the vertex PX among this first data is displayed. Obtain second data representing the positions of second vertices PI, P2, and P3 on the two-dimensional plane by performing perspective transformation to a two-dimensional plane corresponding to the rask display screen of Based on the object surface information of P t sP, the object surface information of pixels within the triangular area surrounded by the vertices PISPg,P is linearly interpolated.

その際に、三角形領域に処理点P、となるピクセルが含
まれているか否かを、当該三角形領域の3辺を形成する
3つの直線DLI、DL2、DL3と重心P0とを用い
て、処理点PCのピクセルが全て直線DLI、DL2、
DL3の重心側にあるとの判定結果が得られたとき、当
該処理点PCが三角形領域に含まれるピクセルであると
決定することにより、当該決定が得られたピクセルにつ
いてだけ補間演算を実行すれば良いことになるので、演
算時間を一段と短縮し得る。
At that time, it is determined whether or not the triangular area includes a pixel that becomes the processing point P by using the three straight lines DLI, DL2, and DL3 that form the three sides of the triangular area and the center of gravity P0. All pixels of the PC are straight lines DLI, DL2,
When the determination result that the processing point PC is on the centroid side of DL3 is obtained, by determining that the processing point PC is a pixel included in the triangular area, the interpolation calculation is performed only for the pixel for which the determination has been obtained. This is a good thing, so the calculation time can be further reduced.

C従来の技術 3次元画像情報をディスプレイの表示画面上に重体的に
表示する技術は、コンピュータグラフィックス(cG)
として知られている。すなわちコンピュータグラフィッ
クスは、3次元空間内に位置する物体に関するグラフィ
ック画像データを3次元の座標情報として予めメモリ内
に書込んでおき、この情報を続出して所定の演算式に基
づいて画像変換することにより、ディスプレイ上に立体
的に表現されたグラフィック画像を得るものである。
C. Conventional technology Computer graphics (cG) is a technology for displaying three-dimensional image information on a display screen.
known as. In other words, in computer graphics, graphic image data regarding an object located in a three-dimensional space is written in advance as three-dimensional coordinate information in a memory, and this information is successively output and image transformed based on a predetermined calculation formula. By doing so, a graphic image that is three-dimensionally expressed on the display is obtained.

ここで2次元的な表示画面上に画像を立体的に表現する
ために、画像変換のための演算を実行する際に、透視変
換処理、陰影処理、及び陰面処理の3つの手法が用いら
れている。
Here, in order to express an image three-dimensionally on a two-dimensional display screen, three methods are used when performing calculations for image conversion: perspective conversion processing, shadow processing, and hidden surface processing. There is.

透視変換処理は、一般に人間の目で物体を見たとき、手
前のものは大きく見えかつ遠方のものは小さく見える点
に着目し、物体の大きさを視点からの距離に応じて変化
させることによって距離感を表すものである。
Perspective transformation processing focuses on the fact that when the human eye looks at an object, things in the foreground appear large and things in the distance appear small, and by changing the size of the object according to the distance from the viewpoint. It represents a sense of distance.

また陰影処理は、3次元空間上の1点に位置する光源に
対して物体の各表面の傾斜が異なるため、人間の目には
当該各表面の明るさが変化するように見える点に着目し
、ディスプレイ上に表示されたグラフィック画像の各表
面の明るさを変化させることによって物体の表面の起伏
を表すようにしたものである。
In addition, shading processing focuses on the fact that the brightness of each surface appears to change to the human eye because the slope of each surface of an object differs with respect to a light source located at one point in three-dimensional space. , the undulations of the surface of an object are expressed by changing the brightness of each surface of the graphic image displayed on the display.

さらに陰面処理は、3次元空間の1点に位置する視点か
ら兇たとき、1つの物体の裏面や、互いに重なり合うよ
うに見える複数の物体のうち、後方の物体の重なり合う
面は見えないことに着目して、当該見えない部分のグラ
フィック画像を表示しないようにすることによって、遠
近感を表すものである。
Furthermore, hidden surface processing focuses on the fact that when viewed from a viewpoint located at one point in three-dimensional space, the back side of a single object and the overlapping surfaces of objects in the back of multiple objects that appear to overlap each other cannot be seen. Perspective is expressed by not displaying the graphic image of the invisible part.

これらの処理は、何れも3次元空間に位置する物体を人
間が晃だときの経験則を物理的演算によって実現すれば
、当該物体を表示したとき立体的に表現できるという考
え方に基づいて採用されている手法であり、い(つかの
アルゴリズムが提案されている。
All of these processes are based on the idea that if we use physical calculations to apply the empirical rules for humans when it comes to objects located in three-dimensional space, we can express the object three-dimensionally when displayed. A number of algorithms have been proposed.

これらの処理は、単独でもある程度の効果は得られるが
、必要に応じて組合せることにより、より自然な立体感
を得ることができ、これらの処理をコンピュータによっ
て演算する手法として従来主として次に挙げる2つの方
法が用いられていた。
These processes can achieve some effect even when used alone, but by combining them as necessary, a more natural three-dimensional effect can be obtained. Two methods were used.

D発明が解決しようとする問題点 その第1の方法は、視点、光源及び物体間の空間的位置
関係を予め決めておき、透視変換処理、陰影処理及び陰
面処理によって得た結果をデータ列としてメモリに書込
んでおき、当該メモリを必要に応じて読出すことによっ
てグラフィック画像を表示する。
D Problems to be Solved by the Invention The first method is to predetermine the spatial positional relationships among the viewpoint, light source, and object, and then use the results obtained by perspective transformation processing, shading processing, and hidden surface processing as a data string. A graphic image is displayed by writing it into a memory and reading the memory as needed.

この第1の方法によると、メモリに書込むべきデータ列
を生成する際に多大な時間がかかるものの、画像情報の
変換自身にはそれほど時間を必要としない利点がある。
According to this first method, although it takes a lot of time to generate a data string to be written into the memory, there is an advantage that converting the image information itself does not require much time.

しかしながら、視点の空間的位置情報を予め決定してお
く必要があること、   ″視点が増える(視点が移動
する)場合、各視点ごとにデータ列を形成する必要があ
るなどの問題がある。このため視点の位置を細かく変更
することができないことや、データ列を記憶するために
大規模なメモリ容量を必要とする欠点があり、実用上比
較的単純な形状の物体を表現する場合にしか使用できな
かった。
However, there are problems such as the need to determine the spatial position information of the viewpoints in advance, and when the number of viewpoints increases (the viewpoints move), it is necessary to form a data string for each viewpoint. Therefore, it has the disadvantage that the position of the viewpoint cannot be changed in detail and that it requires a large amount of memory capacity to store data strings, so it is practically used only when representing objects with relatively simple shapes. could not.

また第2の方法は、光源と物体との空間的位置関係を初
期設定し得るようにすると共に、透視変換処理、陰影処
理及び陰面処理をそれぞれサブルーチンとして実行し得
るようになされ、視点の空間的位置情報が与えられたと
き、上述の立体表現のための処理を順次実行するように
なされている。
In addition, the second method makes it possible to initialize the spatial positional relationship between the light source and the object, and also allows perspective transformation processing, shadow processing, and hidden surface processing to be executed as subroutines. When position information is given, the above-described three-dimensional representation processing is sequentially executed.

この第2の方法による従来のグラフィック画像表示装置
によれば、視点の空間的位置を自由に設定できるものの
、透視変換処理、陰影処理及び陰面処理を各ピクセルご
とに実行しなければならないように構成されているため
、コンピュータによる演算量が膨大となり、実用的では
なかった。例えば1000 X 1000個のピクセル
で構成されている場合、1つの視点について透視変換処
理、陰影処理及び陰面処理を各ピクセルごとに1000
000回演算を繰返さなければならず、そのため演算処
理時間が例えば数時間程度もかかる欠点があった。
According to the conventional graphic image display device using this second method, although the spatial position of the viewpoint can be set freely, the configuration is such that perspective transformation processing, shading processing, and hidden surface processing must be performed for each pixel. As a result, the amount of calculation required by the computer was enormous, making it impractical. For example, if the image is composed of 1000 x 1000 pixels, perspective conversion processing, shading processing, and hidden surface processing are performed for each pixel 1000 times.
The calculation has to be repeated 000 times, which has the drawback that the calculation processing time takes several hours, for example.

本発明は以上の点を考慮してなされたもので、上述の第
2の演算処理方法のうち、特に膨大な演算時間を必要と
する陰影処理及び陰面処理を従来の場合と比較して格段
的に簡便かつ短時間の間に実行し得るようにした画像表
示方法を提案じようとするものである。
The present invention has been made in consideration of the above points, and among the above-mentioned second calculation processing methods, shadow processing and hidden surface processing, which particularly require a huge amount of calculation time, are significantly improved compared to conventional methods. The purpose of this paper is to propose an image display method that is simple and can be executed in a short period of time.

E問題点を解決するための手段 かかる問題点を解決するため本発明においては、3次元
空間にある物体の表面を所定の視点位置から見たときの
当該表面に関するデータを、ディスプレイの2次元表示
画面上に表示変換する画像表示方法において、物体1.
4の表面LA、4Aを三角形の単位領域UAI、UA2
に切出し、当該三角形の単位領域UAI、UA2の3つ
の頂点PXにおける物体表面情報でなる第1のデータを
得、この第1のデータのうちの頂点PXの位置を表す位
置データを、視点位置に基づいて、ディスプレイの表示
画面に相当する2次元平面に透視変換して、3つの頂点
PXに対応する2次元平面上の頂点P1、Pz、P、の
位置を表す第2のデータを得、この第2のデータによっ
て表される3つの頂点P+ 、Pz 、Pzのうちの2
つの頂点P1及びPt、Pz及びPI 、PI及びPI
をそれぞれ通る第1、第2及び第3の直線DLI、DL
2、及びDL3によって囲まれる三角形領域UAXの重
心P0を求め、表示画面のピクセルでなる処理点Pcの
位置が、第1.第2、第3の直線DLI、DL2、DL
3に対して、重心P、の位置と同じ側にあるか否かをそ
れぞれ判定し、その結果第1、第2、第3の直waDL
1、DI、2、DL3に対して全て重心と同じ側にある
との判定結果が得られたとき、処理点Pcが三角形領域
UAXに含まれるピクセルであると決定し、当該決定さ
れた三角形領域UAXの頂点P+ −Pt 、Ps位置
に第1のデータに含まれる物体表面情報データを垂直に
立ててその先端に三角形のデータ平面を張り、表示画面
の三角形領域UAXに含まれる処理点P。
E Means for Solving the Problem In order to solve this problem, in the present invention, data regarding the surface of an object in a three-dimensional space when viewed from a predetermined viewpoint position is displayed on a two-dimensional display on a display. In an image display method for displaying and converting objects on a screen, an object 1.
Surfaces LA and 4A of 4 are triangular unit areas UAI and UA2
The first data consisting of the object surface information at the three vertices PX of the unit areas UAI and UA2 of the triangle is obtained, and the position data representing the position of the vertex PX of this first data is set to the viewpoint position. Based on this, perspective transformation is performed to a two-dimensional plane corresponding to the display screen of the display to obtain second data representing the positions of vertices P1, Pz, P, on the two-dimensional plane corresponding to the three vertices PX, and this Two of the three vertices P+, Pz, Pz represented by the second data
vertices P1 and Pt, Pz and PI, PI and PI
The first, second and third straight lines DLI, DL passing through respectively
The center of gravity P0 of the triangular area UAX surrounded by the first . Second and third straight lines DLI, DL2, DL
3, it is determined whether or not they are on the same side as the position of the center of gravity P, and as a result, the first, second, and third direct waDL
When a determination result is obtained that 1, DI, 2, and DL3 are all on the same side as the center of gravity, the processing point Pc is determined to be a pixel included in the triangular area UAX, and the determined triangular area The object surface information data included in the first data is vertically erected at the apex P+ -Pt of UAX and the position Ps, and a triangular data plane is attached to the tip of the object surface information data, and a processing point P included in the triangular area UAX of the display screen is obtained.

に垂直に立てた直線と、データ平面との交点を補間演算
によって求め、この交点におけるデータ平面のデータを
、ディスプレイの表示画面上の処理点Pcについての画
像データとして決定する。
The intersection point between a straight line erected perpendicular to the data plane and the data plane is determined by interpolation calculation, and the data on the data plane at this intersection point is determined as the image data for the processing point Pc on the display screen of the display.

2作用 3次元空間にある物体の表面から2次元平面に透視変換
された三角形の単位領域UAI、UA2に相当する三角
形領域[J A Xについて補間演算を実行するには、
処理点PCとなるピクセルが三角形UAXに含まれてい
ることを確認する必要がある。もし含まれていない場合
には、他の三角形についての補間演算を実行しなければ
ならない。このように現在処理点Pcとなっているピク
セルについてどの三角形領域UAXに当該処理点P、が
含まれるかを判定する手段として、本発明においては、
三角形の重心は常に3辺で囲む領域内にあることに着目
して、三角形領域UAXの3辺を形成する直線DLL、
DL2、DL3と重心P0とを用いて、各直線DLI、
DL2、DL3に対して処理点PCが重心P0側にある
か否かを判定するだけで簡易に演算処理し得る。従って
この分演算時間を一段と短縮し得る。
2 Actions To perform an interpolation operation for J A
It is necessary to confirm that the pixel serving as the processing point PC is included in the triangle UAX. If not, interpolation operations for other triangles must be performed. As a means for determining which triangular area UAX includes the processing point P for the pixel currently serving as the processing point Pc, in the present invention,
Focusing on the fact that the center of gravity of a triangle is always within the area surrounded by three sides, the straight line DLL that forms the three sides of the triangle area UAX,
Using DL2, DL3 and center of gravity P0, each straight line DLI,
Arithmetic processing can be easily performed by simply determining whether or not the processing point PC is on the center of gravity P0 side for DL2 and DL3. Therefore, the calculation time can be further reduced by this amount.

G実施例 以下図面について本発明を、曲面を有する物体の画像デ
ータを変換処理するようにした場合の一実施例を詳述す
る。
Embodiment G An embodiment of the present invention will be described in detail with reference to the drawings, in which image data of an object having a curved surface is converted.

以下に述べるグラフィック画像変換方法においては、2
次元的なラスク画面上に立体的なグラフィック画像を表
現するために必要な陰影処理及び陰面処理を次に述べる
ような手法で実行する。
In the graphic image conversion method described below, 2
The shadow processing and hidden surface processing necessary to express a three-dimensional graphic image on a dimensional rask screen are performed using the method described below.

(Gl)陰影処理 陰影処理は、ディスプレイ上に表示するグラフィック画
像の表面に陰をつける処理で、第2図に示すように、絶
対座標xyzで表される3次元空間に配設された物体l
の表面でなる曲面IAに対して光源2から光が照射され
たとき、曲面IA上の微小面積の位置P1における輝度
(すなわち明るさ)は位置Piにおける曲面IAの法線
と光源2の方向との間になす角度θが変化すればこれに
応じて変化して行く。そこで陰影処理は、次式%式%(
1) によって、位置PLにおける輝度1を表現することによ
って、物体lの表面上に、光源2によって生ずる影を表
現する。(1)式においてDは定数Aは で表される変数である。この変数Aは光源ベクトルに0
と位置P1における法線単位ペクト、ルN0との内積を
、光源ベクトルに′″及び法線単位ベクトルN1の絶対
値の積で割った式で表され、この式は法線単位ベクトル
N1に対して光源ベクトルに1′がなす角度θの余弦c
osθになる。 。
(Gl) Shading processing Shading processing is a process of shading the surface of a graphic image displayed on a display.
When light is irradiated from the light source 2 to the curved surface IA, which has a surface of If the angle θ between the two changes, it will change accordingly. Therefore, for shading processing, the following formula % formula % (
1) Express the shadow caused by the light source 2 on the surface of the object l by expressing the brightness 1 at the position PL. In equation (1), D is a variable represented by a constant A. This variable A is 0 to the light source vector.
The inner product of the normal unit vector N0 at the position P1 is divided by the product of the light source vector '' and the absolute value of the normal unit vector N1, and this equation is The cosine c of the angle θ that 1′ makes with the light source vector
becomes osθ. .

第2図において、光源2の位置は絶対座標xy2におけ
る光源2の位置ベクトルS81によって表され、また曲
面IA上の位置P1は曲面の位置ベクトルS1で表され
る。この位置P1における曲面IAの傾きは、曲面IA
の法線単位ベクトルN0によって表され、また位置pt
に対して光源2から入射する光の方向は位fP1から光
源2に引いたベクトルに9によって表され、さらに当該
入射する光の入射角は、法線単位ベクトルN“に、対し
て光源ベクトルに1がなす角度θによって表される。
In FIG. 2, the position of the light source 2 is represented by the position vector S81 of the light source 2 in absolute coordinates xy2, and the position P1 on the curved surface IA is represented by the position vector S1 of the curved surface. The slope of the curved surface IA at this position P1 is the slope of the curved surface IA
is represented by the normal unit vector N0 of , and the position pt
, the direction of the light incident from the light source 2 is expressed by 9, which is a vector drawn from the position fP1 to the light source 2, and the angle of incidence of the incident light is expressed by the normal unit vector N'' to the light source vector. 1 is expressed by the angle θ.

このように曲面IA上の位置PIの輝度■は、変数Aで
決まり、従って光源2から位aptに入射する光の入射
角θが変化すれば、これに応じて変数Aが−1〜+1の
範囲を変化することによって、入射角θがO”  (す
なわち曲面IAの位WtP1に立てた法線単位ベクトル
N1の方向に光源2があるとき)最も明るくなり、この
状態から入射角θが±90”の範囲で変化すれば、位置
PIの明るさは暗くなって行く (輝度Iが0になって
行く)ことになる。
In this way, the brightness ■ at the position PI on the curved surface IA is determined by the variable A. Therefore, if the incident angle θ of the light incident on the position apt from the light source 2 changes, the variable A changes from -1 to +1 accordingly. By changing the range, the incident angle θ becomes the brightest (when the light source 2 is in the direction of the normal unit vector N1 set at the curved surface IA and WtP1), and from this state the incident angle θ becomes ±90 ”, the brightness at the position PI will become darker (the brightness I will become 0).

(G2)陰面処理 陰面処理は、物体の表面のうち、視点から見て、見えな
い部分についてはディスプレイ上に表示しないようにグ
ラフィック画像データを処理することをiう、この処理
は、第3図に示すように、物体4の表面でなる曲面4A
を視点3から見たとき、見える部分(これを可視部分と
呼ぶ)と見えない部分(これを不可視部分と呼ぶ)とが
生ずることに基づいて、見える部分に対応する部分だけ
をディスプレイ上に表示させる。
(G2) Hidden surface processing Hidden surface processing is the processing of graphic image data so that parts of the surface of an object that cannot be seen from the viewpoint are not displayed on the display. As shown in , a curved surface 4A formed by the surface of the object 4
Based on the fact that when viewed from viewpoint 3, there are visible parts (this is called the visible part) and invisible parts (this is called the invisible part), only the parts that correspond to the visible parts are displayed on the display. let

ここで、曲面4Aの各部分が可視部分であるか否の判断
は、次の2つの条件に基づいてなされる。
Here, the determination as to whether each part of the curved surface 4A is a visible part is made based on the following two conditions.

すなわち第1の条件は、第3図に示すように、視点3か
ら視1tJIEL1に沿って物体4の曲W4Aを見たと
き、視線ELLが曲面4Aと交差する点P11SP12
、PI3のうち、位置P12及びPI3の面部分は、視
線EL 117)視点3側の位fFfP11ニ視#aE
L1と交差する面部分が存在することにより、当該面部
分に隠される結果になっており、従って位置P12及び
PI3の面部分は不可視であると判断し、物体4及び視
点3間に設けられた仮想スクリーン5上に可視である位
置pHの面部分を通視するような画像データの変換処理
を実行する。
In other words, the first condition is that, as shown in FIG. 3, when viewing the curve W4A of the object 4 from the viewpoint 3 along the visual line 1tJIEL1, the line of sight ELL intersects the curved surface 4A at the point P11SP12.
, PI3, the surface portions at positions P12 and PI3 are the line of sight EL 117) Position fFfP11 on the viewpoint 3 side #aE
Due to the existence of a surface portion that intersects with L1, the surface portions at positions P12 and PI3 are determined to be invisible, and are therefore hidden by the surface portions located between object 4 and viewpoint 3. Image data conversion processing is performed such that the surface portion of the position pH that is visible on the virtual screen 5 is viewed through.

また第2の条件は、注目している面部分が他の曲面にも
隠されていないことである。すなわち第3図において、
物体4の曲面4Aと、視点3との間に他の物体6が存在
し、視線EL2に沿って物体4を見たとき、視線EL2
が物体6の曲面6Aと交差した後、物体4の曲面4Aと
交差するような状態にあるとき、物体4の曲面4A上の
位置P14の面部分は、視点3側にある物体6の曲面6
A上の位jfEP15の面部分によって隠されており、
従って仮想スクリーン5上には、不可視の面部分(位置
P14の面部分)を表示せずに可視の面部分(位置P1
5の面部分)を表示するようにグラフィック画像データ
を変換処理する。
The second condition is that the surface portion of interest is not hidden by other curved surfaces. That is, in Figure 3,
When another object 6 exists between the curved surface 4A of the object 4 and the viewpoint 3, and the object 4 is viewed along the line of sight EL2, the line of sight EL2
intersects with the curved surface 6A of the object 6 and then intersects with the curved surface 4A of the object 4, the surface portion of the position P14 on the curved surface 4A of the object 4 is the curved surface 6 of the object 6 on the viewpoint 3 side.
It is hidden by the surface part of position jfEP15 on A,
Therefore, the invisible surface portion (the surface portion at position P14) is not displayed on the virtual screen 5, but the visible surface portion (the surface portion at position P1) is displayed.
The graphic image data is converted so as to display the surface area of 5).

第1の条件(すなわち可視−不可視)は、第4図に示す
手法で判断される。すなわち、閉曲@7Aを有する物体
7 (例えば円球でなる)上の注目点P21の面部分に
おいて視点3の方向を差す視線単位ベクトルE1を引き
、この視線単位ベクトルE0と法線単位ベクトルN1と
の内積を求めると、注目点P21の面部分が可視である
ための必要十分条件は、 N*・Ell〉O・・・・・・(3) と表し得る。ここで視線単位ベクトルE0及び法線単位
ベクトルN′″の角度がφであれば、視線単位ベクトル
E0及び法線単位ベクトルN′″の内積の値は、 N”・ E”−l N”  l・ IE“ 1・CoS
 φ”  cosφ         −−−−−−(
4)となる。従って(3)式を満足する条件は、φが鋭
角であること、すなわち π 0くφく□        ・・・・・・(5)のとき
成立つことが分かる。
The first condition (ie, visible-invisible) is determined by the method shown in FIG. That is, draw the line-of-sight unit vector E1 pointing in the direction of the viewpoint 3 on the surface of the point of interest P21 on the object 7 (for example, a circular sphere) having a closed curvature @7A, and draw this line-of-sight unit vector E0 and the normal line unit vector N1. When calculating the inner product, the necessary and sufficient condition for the surface portion of the point of interest P21 to be visible can be expressed as N*・Ell>O (3). Here, if the angle between the line-of-sight unit vector E0 and the normal unit vector N''' is φ, the value of the inner product of the line-of-sight unit vector E0 and the normal unit vector N''' is N''・E''-l N''l・IE“1・CoS
φ” cosφ −−−−−−(
4). Therefore, it can be seen that the condition for satisfying equation (3) is satisfied when φ is an acute angle, that is, π 0 × φ × □ . . . (5).

例えば第4図において視線EL3と表面の位置P21と
の交点で示すように、角度φが鋭角であれば、視線単位
ベクトルE*及び法線単位ベクトルN*の内積は正であ
るので、(3)式の条件を満足し、従って注目点P21
の面部分は可視であると判断できる。これに対して第4
図において視線EL3と裏面の注目点P22の面部分と
の交点で示すように、角度φがπ/2以上になると、視
線準位t(クトルE0及び法線単位ベクトルN0の内積
は負になるから、(3)式の条件を満足せず、当該注目
点P22の面部分は不可視であると判断し得る。
For example, if the angle φ is an acute angle, as shown by the intersection of the line of sight EL3 and the surface position P21 in FIG. ) satisfies the condition of the expression, therefore, the point of interest P21
It can be determined that the surface part of is visible. On the other hand, the fourth
As shown by the intersection of the line of sight EL3 and the surface portion of the point of interest P22 on the back side in the figure, when the angle φ becomes π/2 or more, the inner product of the line of sight level t (the vector E0 and the normal unit vector N0 becomes negative). Therefore, it can be determined that the condition of equation (3) is not satisfied and the surface portion of the target point P22 is invisible.

かかる判断は、曲面7A上に存在する各注目点の面部分
の傾斜が、視点3に向いているか否かを判定したもので
あり、かかる判定によって可視であると判断された注目
点は、上述の第2の条件を満足できれば最終的に可視な
点となる(このような点を可視候補点と呼ぶ)。
This determination is made by determining whether the slope of the surface portion of each point of interest existing on the curved surface 7A is oriented toward the viewpoint 3, and the points of interest that are determined to be visible by this determination are the same as those described above. If the second condition is satisfied, the point finally becomes visible (such a point is called a visible candidate point).

そして上述の第2の条件の判定が、当該可視候補点につ
いて実行される。すなわち第3図について上述したよう
に、同一の視fiELiEL2上にある複数の可視候補
点(Pll、PI3)、(PI3、P 15)のうち、
最も視点3に近い距離を有する可視候補点が選定され、
当該可視候補点が最終的な可視点であると判断される。
The determination of the second condition described above is then performed for the visible candidate point. In other words, as described above with reference to FIG.
The visible candidate point having the closest distance to viewpoint 3 is selected,
The visible candidate point is determined to be the final visible point.

(G3)変換処理手順 楠テーブルの コンピュータグラフィックスを用いた画像表示装置は、
中央処理ユニット(cPU)によって第1図の処理手順
に従って、グラフィック画像変換処理を実行する。
(G3) Conversion processing procedure Kusunoki table's image display device using computer graphics is
A central processing unit (cPU) executes graphic image conversion processing according to the processing procedure shown in FIG.

まずステップSPIにおいて、変換処理プログラムを開
始し、ステップSP2において、視点3(第3図)の位
置、光源2(第2図)の位置、及びグラフィック画像を
変換処理する際に必要とされるパッチ数をオペレータの
操作によって入力する。
First, in step SPI, the conversion processing program is started, and in step SP2, the position of viewpoint 3 (Fig. 3), the position of light source 2 (Fig. 2), and patches required when converting the graphic image are determined. The number is input by the operator.

このときCPUは、予め格納している3次元のグラフィ
ック画像データに基づいて、当該グラフィック画像デー
タによって表される3次元のグラフィック画像を、ステ
ップSP2において指定された視点3によって決まる仮
想スクリーン5(第3図)上に透視する際に、3次元グ
ラフィック画像の曲面上の点を仮想スクリーン5上の対
応する点に変換するために用いる透視変換マトリクスを
生成する。
At this time, the CPU, based on the three-dimensional graphic image data stored in advance, displays the three-dimensional graphic image represented by the graphic image data on the virtual screen 5 (the third point) determined by the viewpoint 3 specified in step SP2. 3) A perspective transformation matrix is generated that is used to transform points on the curved surface of the three-dimensional graphic image to corresponding points on the virtual screen 5 when viewing upward.

次にCPUは、第5図に示すように、変換すべきグラフ
ィック画像データのうちlパッチ分のデータDATAを
読出し、次のステップSP5において三角形に切出す。
Next, as shown in FIG. 5, the CPU reads data DATA for l patches from the graphic image data to be converted, and cuts it into triangles in the next step SP5.

この実施例の場合、三角形の切出しは、1バッチ分のデ
ータDATAを所定のパラメータに基づいて、当該パラ
メータが等間隔になる(必ずしも曲面上で等間隔にはな
らない)ような間隔で順次配列する2群の切出線群Ll
及びL2の交点位置を順次演算して行く、ここで、切出
線群L1及びL2に含まれる切出線の数は縦横5本に選
定され、切出線群Ll及び切出線群L2が互いに綱目状
に交差するように設定されている。かくしてlパッチ分
のデータDATAでなる曲面は、切出線群Ll及びL2
の隣合う2本の切出線によって囲まれた小領域UAに分
割され、当該小頭域UAを4つの交点PXによって囲む
ように切出し処理される。
In the case of this embodiment, the triangles are cut out by sequentially arranging one batch of data DATA based on predetermined parameters at intervals such that the parameters are at equal intervals (not necessarily at equal intervals on the curved surface). 2nd group cutting line group Ll
and L2 are sequentially calculated. Here, the number of cutting lines included in the cutting line groups L1 and L2 is selected to be 5 vertically and horizontally, and the cutting line group Ll and the cutting line group L2 are They are set to intersect with each other in a grid pattern. In this way, the curved surface made up of data DATA for l patches is formed by cutting line groups Ll and L2.
is divided into a small area UA surrounded by two adjacent cutting lines, and the small head area UA is cut out so as to be surrounded by four intersection points PX.

この小領域UAの大きさは、ステップSP2において入
力されたパウチ数との関連によって決められ、これによ
り小領域UAをディスプレイのラスク画面上に変換した
とき、当該変換された小領域に含まれるピクセル数が決
まるようになされている。
The size of this small area UA is determined in relation to the number of pouches input in step SP2, so that when the small area UA is converted onto the rask screen of the display, the pixels included in the converted small area are The number is determined.

小頭域UAは、互いに対向する2つの交点間を結ぶ対角
線L3によって2つの三角形状の単位領域UAI及びU
A2に分割され、かくしてデータDATAが表す曲面が
多数の単位領域UAI及びUA2に分割される。そして
各単位領域UAI及びUA2にそれぞれ含まれるピクセ
ル数は、例えば20〜30個程度になるように設定され
ている。
The small head area UA is divided into two triangular unit areas UAI and U by a diagonal line L3 connecting two mutually opposing intersection points.
A2, and thus the curved surface represented by the data DATA is divided into a large number of unit areas UAI and UA2. The number of pixels included in each unit area UAI and UA2 is set to, for example, about 20 to 30.

このようにして曲面から単位領域UAI及びUA2の切
出しを実行した後、CPUが各単位領域UAI及びUA
2の頂点にある3つの交点位置について法線単位ベクト
ルN″′を計算する。
After cutting out the unit areas UAI and UA2 from the curved surface in this way, the CPU cuts out each unit area UAI and UA2.
The normal unit vector N″′ is calculated for the three intersection points at the vertices of 2.

このようにして処理すべき曲面のデータDATAを三角
形の単位領域UAI及びUA2に分割して、3つの頂点
についてデータを得ることは、三角形の単位領域UAI
及びUA2をディスプレイのラスク表示画面上に変換し
たとき、当該変換した単位領域に含まれている20〜3
0個のピクセルについてのデータを、3つの頂点のデー
タによって代表させたことを意味し、従って以後の処理
を3つの頂点のデータに基づいて実行することにより、
データの処理速度を格段的に速めることができることを
意味している。
In this way, dividing the data DATA of the curved surface to be processed into the triangular unit areas UAI and UA2 and obtaining data about the three vertices means that the triangular unit area UAI
And when UA2 is converted onto the rask display screen of the display, 20 to 3 included in the converted unit area
This means that the data for 0 pixels is represented by the data of three vertices, so by performing the subsequent processing based on the data of three vertices,
This means that data processing speed can be dramatically increased.

CPUは、次のステップSP6において陰面処理におい
て使用する可視−不可視データでなるテーブルを生成す
る。このステップは単位領域UA1及びUA2の3つの
頂点について、それぞれ第6図に示すように、視線単位
ベクトルE′″を演算により求め、この視線単位ベクト
ルE“と法線単位ベクトルN′″との内積を演算し、こ
の演算結果を、第7図に示すように、コンピュータの内
部に設けられたテーブル10の可視−不可視テーブルT
ABLE4に順次配憶させて行く。
The CPU generates a table consisting of visible and invisible data to be used in hidden surface processing in the next step SP6. In this step, as shown in FIG. 6, the line-of-sight unit vector E'' is calculated for the three vertices of the unit areas UA1 and UA2, and the line-of-sight unit vector E'' and the normal unit vector N''' are The inner product is calculated, and the calculation result is stored in the visible-invisible table T of the table 10 provided inside the computer, as shown in FIG.
The data will be sequentially stored in ABLE4.

この場合テーブル10は、1バッチ分の曲面データDA
TA (第5図)を、切出線群L2が配列されている方
向(これをU方向と呼ぶ)、及び切出線群Llが配列さ
れている方向(これをV方向と呼ぶ)にそれぞれ5つず
つある交点Pxのデータを、1バツチ25ワ一ド分のデ
ータとして記憶するようになされている。
In this case, table 10 is the curved surface data DA for one batch.
TA (Fig. 5) in the direction in which the cutting line group L2 is arranged (this is called the U direction) and in the direction in which the cutting line group Ll is arranged (this is called the V direction). The data of each of the five intersection points Px is stored as data for one batch of 25 words.

かくして可視−不可視テーブルTABLE4には、各パ
ッチごとに25個の交点PXについての可視−不可視デ
ータが格納され、その符号に基づいて第3図について上
述したように、陰面処理する際に必要な第1の条件デー
タを生成することになる。
In this way, the visible-invisible table TABLE4 stores the visible-invisible data for the 25 intersection points PX for each patch, and based on the codes, as described above with reference to FIG. 1 condition data will be generated.

これに続いてCPUはステップSP7において距離テー
ブルを生成する。この距離テーブルは、曲面データDA
TAの各頂点について第2図に対応させて第8図に示す
ように、頂点PXがら視点3までの距離ベクトルD0を
計算し、当該計算結果をテーブル10の距離テーブルT
ABLE3&:l:格納する。
Following this, the CPU generates a distance table in step SP7. This distance table is the curved surface data DA
As shown in FIG. 8 for each vertex of TA in correspondence with FIG.
ABLE3&:l: Store.

この距離テーブルTABLE3の距離データDは、陰面
処理における第2条件(第3図)の判断をする際に使用
されるもので、頂点PXがら視点3までの距離ベクトル
を D” −E” −S”         ・・・川(6
)によって演算した後、当該距離ベクトルD1′の絶対
値を距離データDとして得る。
The distance data D of this distance table TABLE3 is used when determining the second condition (Fig. 3) in hidden surface processing, and the distance vector from the vertex PX to the viewpoint 3 is D"-E"-S ” ...river (6
), the absolute value of the distance vector D1' is obtained as the distance data D.

かくしてディスプレイのラスク表示画面上、同じピクセ
ルについて複数の曲面部分についての距離データが得ら
れたとき、視点3に最も近い曲面部分のデータを判定す
ることができる。
In this way, when distance data for a plurality of curved surface portions are obtained for the same pixel on the rask display screen of the display, the data for the curved surface portion closest to the viewpoint 3 can be determined.

次に、CPUはステップSP8に移って輝度テーブルの
生成処理を行う。このステップは、第2図に対応させて
第9図に示すように、各頂点PXにおける輝度を計算す
るもので、まず次式1式%(7) によって頂点PXから見た光源2に対する位置ベクトル
を計算する。そしてその計算結果を用いて、頂点Pxの
法線単位ベクトルN1との内積に基づいて入射角θの余
弦cosθを次式 を演算し、これを変数Aとお(。
Next, the CPU moves to step SP8 and performs a brightness table generation process. This step is to calculate the brightness at each vertex PX as shown in FIG. 9 corresponding to FIG. Calculate. Then, using the calculation result, calculate the cosine cos θ of the incident angle θ based on the inner product with the normal unit vector N1 of the vertex Px using the following formula, and set this as the variable A (.

さらにこの変数Aを用いて輝度Iを次式1式%(9) によって演算する。Furthermore, using this variable A, the brightness I can be calculated using the following formula 1 formula % (9) Calculate by

ここで定数りの値は、例えば0.22程度であるのに対
して、変数Aは0〜lの範囲で変動する(θが±π/2
の範囲で変動するので)、かくして輝度1は頂点Pxに
対して光源2から入射する先の変化に応じて変化し、こ
れにより第2図について上述した陰影処理に使用するデ
ータが得られ、このデータがテーブル10(第7図)の
輝度テーブルTABLE2に格納される。
Here, the value of the constant R is, for example, about 0.22, whereas the variable A fluctuates in the range of 0 to l (θ is ±π/2
), thus the brightness 1 changes according to the change in the direction of incidence from the light source 2 with respect to the vertex Px, and this provides the data used for the shading process described above with respect to FIG. The data is stored in brightness table TABLE2 of table 10 (FIG. 7).

次にCPUは、ステップSP9に移って透視変換処理を
実行する。この透視変換処理は、第3図に対応させて第
10図に示すように、物体4の曲面4A上にある頂点P
Xの位置を、物体4及び視点3間に設けた仮想スクリー
ン5上に透視したとき、3次元空間にある曲面4A上の
頂点PXを仮想スクリーン5上の2次元XY平面に変換
するものである。かかる変換処理は、上述のステップS
P5において得た頂点PXの位置データを、ステップS
P3において生成した透視変換マトリクスを用いて、X
Y平面上に変換演算することにより実行され、この演算
結果はテーブル10のXYテ−プルTABLEIに格納
される。
Next, the CPU moves to step SP9 and executes perspective transformation processing. This perspective transformation process is performed as shown in FIG. 10 corresponding to FIG.
When the position of . Such conversion processing is performed in step S described above.
The position data of the vertex PX obtained in P5 is transferred to step S
Using the perspective transformation matrix generated in P3,
This is executed by performing a conversion operation on the Y plane, and the result of this operation is stored in the XY table TABLEI of table 10.

この変換処理を実行することにより、3次元空間にある
曲面上の頂点についてのデータを、XY平面上のデータ
として取り扱うことができることになり、これにより、
以下の処理をXY平面すなわちディスプレイのラスク表
示画面を基準にして実行し得ることになる。
By executing this conversion process, data about vertices on a curved surface in three-dimensional space can be treated as data on the XY plane, and as a result,
The following processing can be executed based on the XY plane, that is, the rask display screen of the display.

か(してCPUは、1パッチ分のデータに基づいて切出
された三角形の各頂点位置における各種の物体表面情報
を表すデータをテーブル10に生成でき、次のステップ
5PIOにおいて初期値として設定された全てのパッチ
についての処理が終了したか否かを判断し、終了″して
いなければ、ステップSP4に戻って次のバッチについ
てテーブル10へのデータの生成処理を実行する。その
結果ステップ5PIOにおいて、肯定結果が得られると
、CPUはディスプレイの画面上に表示すべき曲面につ
いてその状態を表す全ての情報を、単位領域UAI及び
UA2 (第5図)の3つの頂点位置のデータとしてテ
ーブルIO内に取込むことができる。
(Thus, the CPU can generate data representing various types of object surface information at each vertex position of the triangle cut out based on the data for one patch in table 10, which is set as an initial value in the next step 5 PIO. It is determined whether or not the processing has been completed for all the patches, and if it has not been completed, the process returns to step SP4 and executes the data generation process for the next batch to table 10.As a result, in step 5 PIO , when a positive result is obtained, the CPU stores all the information representing the state of the curved surface to be displayed on the display screen in the table IO as data of the three vertex positions of the unit areas UAI and UA2 (Fig. 5). can be taken into account.

翫、陰・、面 かくしてテーブル10に取込まれた曲面情報は、単位領
域UAI及びUA2がディスプレイの表示画面上20〜
30個のピクセルに対応しているので、CPUは以下の
ステップ5P11〜5P18において、当該単位領域U
AI及びUA2に対応する各ピクセルについて、テーブ
ル10のデータを用いて線形補間演算を実行することに
よって、陰影処理及び陰面処理した画像データを得、こ
れによりディスプレイの表示画面上に立体的に見えるよ
うに処理した平面画像を再現する。
The curved surface information captured in the table 10 in this way is such that the unit areas UAI and UA2 are 20 to 20 on the display screen.
Since it corresponds to 30 pixels, the CPU selects the unit area U in the following steps 5P11 to 5P18.
For each pixel corresponding to AI and UA2, linear interpolation is performed using the data in Table 10 to obtain image data that has been subjected to shading processing and hidden surface processing, so that it appears three-dimensionally on the display screen of the display. Reproduces the processed planar image.

すなわ−ち、CPUはステップ5PIIにおいて表示領
域の決定処理を実行する。この処理は、表示すべき画像
をディスプレイの画面のほぼ中央位置に適切な寸法で表
示させるための表示領域を決めるステップで、第11図
に示すように、テーブルlOのXYテーブルTABLE
I (第7図)から全てのデータを取出して、2次元の
表示画像DESを構成する透視変換された頂点のX軸方
向の最大値X saw及び最小値X m 五mと、Y軸
方向の最大値Y、。及び最小値Y17とをそれぞれ抽出
し、X軸方向について最大値X□8及び最小値X @ 
i aの中心位置XCを次式 によって求めると共に、Y軸方向の最大値Y、。、最小
値Y a i *の中心位置Ycを次式によって求める
。かくして求めた中央位置(Xc、Yc)をディスプレ
イのラスク表示画面11の中心位置に設定すると共に、
表示画像DBSがディスプレイの表示画面11を形成す
るピクセルに対応するメモリセルを存するフレームバッ
ファのサイズに収まるような表示領域AREを定める。
That is, the CPU executes display area determination processing in step 5PII. This process is a step of determining the display area for displaying the image to be displayed at approximately the center of the display screen with appropriate dimensions.As shown in FIG.
I (Fig. 7), the maximum value X saw and minimum value X m 5m in the X-axis direction of the perspective-transformed vertices constituting the two-dimensional display image DES, and the maximum value X m 5m in the Y-axis direction. Maximum value Y. and the minimum value Y17, respectively, and the maximum value X□8 and the minimum value X @ in the X-axis direction.
The center position XC of ia is determined by the following equation, and the maximum value Y in the Y-axis direction. , the center position Yc of the minimum value Y a i * is determined by the following equation. The center position (Xc, Yc) thus obtained is set as the center position of the rask display screen 11 of the display, and
A display area ARE is determined such that the display image DBS fits within the size of a frame buffer containing memory cells corresponding to pixels forming the display screen 11 of the display.

ここで表示開城AREは、第11図から明らかなように
、X軸方向に最大値X wamx〜最小値X1、の領域
をもち、かつY軸方向に最大値Y、1.〜最小値Y、!
、の領域をもつ。
As is clear from FIG. 11, the displayed Kaesong ARE has a region from the maximum value X wamx to the minimum value X1 in the X-axis direction, and has the maximum value Y, 1. ~Minimum value Y,!
, has an area of .

CPUは、この表示領域AREを決定すると、以下当該
表示領域ARE内にあるピクセルに限って以後の処理ス
テ゛ンプを実行する。このことは、ラスク表示画面上に
表示すべき画像の変換演算量を一段と低減できることを
意味している。すなわち一般に、ラスク表示画面上に画
像変換処理された画像を表示させようとする場合、ラス
ク表示画面を構成する全てのピクセルについて、表示す
べき画像データの有無及びその内容を演算しながらフレ
ームバッファメモリの対応するメモリエリアにその演算
結果を格納して行く方法が採用されている。この点11
図の場合は、ラスク表示画面11のうち、表示すべきデ
ータがないピクセルについては演算処理をしないので、
結局全体として画像変換演算量を格段的に低減し得る。
After determining this display area ARE, the CPU executes subsequent processing steps only for pixels within the display area ARE. This means that the amount of conversion calculations for images to be displayed on the rask display screen can be further reduced. In other words, in general, when attempting to display an image that has undergone image conversion processing on the rask display screen, the frame buffer memory is calculated while calculating the presence or absence of image data to be displayed and its contents for all pixels that make up the rask display screen. A method is adopted in which the calculation results are stored in the corresponding memory area. This point 11
In the case of the figure, calculation processing is not performed for pixels on the rask display screen 11 that do not have data to be displayed.
In the end, the amount of image conversion calculations can be significantly reduced as a whole.

CPUは次のステップ5P12において、この表示領域
AREにある単位領域UAI及びUA2(第5図)の3
つの頂点Pxに対応する1パッチ分の位置データDAT
AX (第12図)をテーブルlOのxyテーブルTA
BLEIから順次取出してデータの補間演算処理を実行
する。かくしてCPUは、表示画面11 (第11図)
のうち表示領域AREの内部にある三角形領域UAIX
及びUA2Xに含まれるピクセルの輝度を決定するため
の補間演算に供するデータを供給する。
In the next step 5P12, the CPU selects unit areas UAI and UA2 (FIG. 5) in this display area ARE.
Position data DAT for one patch corresponding to two vertices Px
AX (Fig. 12) as xy table TA of table IO
Data is sequentially extracted from BLEI and interpolation calculation processing is performed on the data. Thus, the CPU displays the display screen 11 (Figure 11).
The triangular area UAIX inside the display area ARE
and supplies data for interpolation calculations to determine the brightness of pixels included in UA2X.

CPUは次に、ステップ5P13において、表示領域A
REに含まれる1パッチ分のピクセルのうち、現時点に
おいて輝度を演算決定すべきピクセル(これを処理点と
呼ぶ)Pcが、どの三角形領域UAIX及びUA2Xに
属するものであるかを判定する。この判定は第13図に
示すように、各三角形領域UAIX及びUA2Xの3つ
の頂点を透視変換してなるXY平面上の点P+(XI−
YI)、点Pt  (Xg 、Yt ) 、点Ps  
(Xs、Ys)を頂点として、これらの頂点PI 、P
g、21間を互いに結ぶ直!IIDLI 、、DL2 
、DL3によって囲まれた三角形領域UAXについてそ
の重心P@  (Xll 、Yo )を用いて、以下に
述べる手順によって三角形領域UAX内に処理点PC(
Xc、Yc)が存在するか否かを判定する。
Next, in step 5P13, the CPU displays the display area A.
It is determined to which triangular area UAIX or UA2X the pixel (referred to as a processing point) Pc whose brightness is to be calculated and determined at the present moment among the pixels for one patch included in the RE belongs. This determination is made by perspectively transforming the three vertices of each triangular area UAIX and UA2X on the XY plane, as shown in FIG.
YI), point Pt (Xg, Yt), point Ps
(Xs, Ys) as vertices, these vertices PI, P
g, the straight line that connects 21 to each other! IIDLI,,DL2
, DL3, using its center of gravity P@(Xll, Yo), a processing point PC(
It is determined whether or not Xc, Yc) exists.

まず頂点P、及びPt’ciIlる直線DLIの方程式
は ・・・・・・(12) で表され、これを書換えると、 (Y  YI)(Xt −XI) −(yz −Y、) (x−xt)−0−−・−(13
)となる、ところがこの(13)式は、X及びYの値と
して直線DLI上の点のX及びY座標の値を代入すれば
、左辺がOになることを意味している。
First, the equation of the straight line DLI between the vertex P and Pt'ciIl is expressed as (12), which is rewritten as (Y YI) (Xt - XI) - (yz - Y,) ( x-xt)-0--・-(13
) However, this formula (13) means that if the values of the X and Y coordinates of the point on the straight line DLI are substituted as the values of X and Y, the left side becomes O.

そこで(13)式の左辺をF (X、Y)と置き、F 
(XI Y)−(Y−Yl)(xt XI)(Y t 
 Y +) (X −X +)・・・・・・(14) の式を立て、直線DLI上の点を代入すれば、F(XS
Y)の値が0になるのに対して、直線DL1の内側又は
外側の点の座標値を代入すれば、F(XSY)は正又は
負の値になる数になる。
Therefore, let the left side of equation (13) be F (X, Y), and F
(XI Y)-(Y-Yl)(xt XI)(Yt
Y +) (X -
While the value of Y) becomes 0, if the coordinate values of points inside or outside of the straight line DL1 are substituted, F(XSY) becomes a number that becomes a positive or negative value.

この点に着目して三角形領域UAXの重心P0(Xs 
、Yo )の座標値 イa! F’   (XO、’y’a)−(yo   −Yl)
   CXt   −XI)−(Yl   −Yl) 
 (X、   −XI)・・・・・・(17) と、処理点Pc (Xc、Yc)の座標値を代入したと
きのF(xc、Yc)の値 F (Xe、Yc )” (Yc YI)(Xz −X
t)−(Yt−Yt)(Xc  Xt) ・・・・・・ (18) との積を求め、この積が正のときすなわちF (xe 
、YI)−F (XC、YC) >0のとき、処理点P
C(XcSYc)が直WDLIの重心P@  (Xll
 、YI )側にあると判定し得る。
Focusing on this point, the center of gravity P0 (Xs
, Yo ) coordinate value a! F'(XO,'y'a)-(yo-Yl)
CXt-XI)-(Yl-Yl)
(X, -XI) (17) and the value of F (xc, Yc) when substituting the coordinate values of the processing point Pc (Xc, Yc) F (Xe, Yc)'' (Yc YI) (Xz −X
t)-(Yt-Yt)(Xc
, YI) - F (XC, YC) > 0, processing point P
C (XcSYc) is the center of gravity of the direct WDLI P@ (Xll
, YI ) side.

勿論一般に重心P@  (XI 、Yl )は三角形領
域UAXの内側にあるから、(19)式の条件が成立す
るような処理点PC(Xc、Yc)の位置は、直線DL
1に対して内側にあるということができる。
Of course, in general, the center of gravity P @ (XI, Yl) is inside the triangular area UAX, so the position of the processing point PC (Xc, Yc) that satisfies the condition of equation (19) is the straight line DL.
It can be said that it is inside of 1.

同様の演算を、三角形領域UAXの他の辺を形成する直
線DL2及びDL3についても次式のように演算し、 F (Xc%Yc)−(Yc−Yl)(xa −xt)
(Y 3− Y g) (X c  X g)・・・・
・・(20) F  (Xc 、Yc )−(Yc−Y3)(XI  
−X3)(Y+−Ys)(Xc  Xs) ・・・・・・ (21) その演算結果に基づいて(19)式について上述したよ
うに、F (Xo 、Yo )と、F (Xc、Yc)
との積が正であるとの判定結果が得られれば、処理点P
C(XcSYc)は三角形領域UAXの3辺を構成する
直vADL1、DL2、DL3(7)全てについて、重
心Po  (Xs 、Ya )と同じ側にあることにな
る。無論一般に三角形の重心は3辺の全てについて内側
にあることは明らかであるので、処理点P、(Xc、Y
c)が三角形領域UAX内に存在すると判定することが
できる。
Similar calculations are performed on the straight lines DL2 and DL3 forming the other sides of the triangular area UAX as shown in the following formula, F (Xc%Yc)-(Yc-Yl)(xa-xt)
(Y 3- Y g) (X c X g)...
...(20) F (Xc, Yc)-(Yc-Y3)(XI
-X3)(Y+-Ys)(Xc )
If a determination result is obtained that the product is positive, the processing point P
C (XcSYc) is located on the same side as the center of gravity Po (Xs, Ya) for all the straight lines vADL1, DL2, and DL3 (7) that constitute the three sides of the triangular area UAX. Of course, it is clear that the center of gravity of a triangle is generally on the inside of all three sides, so the processing point P, (Xc, Y
c) can be determined to exist within the triangular area UAX.

これに対して(18)式、(20)式、(21)式の値
のうらの1つについて、次式 %式%) のように負の判定結果が得られると、処理点PC(Xc
、Yc)は直線DLI、DL2、DL3の何れか1つ又
は、複数について重心P6  (XI、Y、)とは反対
側に存在することが分かり、このとき処理点PCは三角
形領域UAXの内側にはないことが分かる。
On the other hand, if a negative judgment result is obtained for one of the values of equations (18), (20), and (21), as shown in the following equation (%), processing point PC (Xc
, Yc) exists on the opposite side of the center of gravity P6 (XI, Y,) for one or more of the straight lines DLI, DL2, and DL3, and in this case, the processing point PC is inside the triangular area UAX. It turns out that there is no.

このようにして処理点PCの位置が、三角形領域UAX
の外側にあると判定されたとき、CPUは当該三角形領
域についての以後の補間演算を実行せずに、処理点PC
を内部に含むような三角形領域UAXを見出すことがで
きるまで、新たな三角形領域U A Xについての判定
を繰返して行く。
In this way, the position of the processing point PC is changed to the triangular area UAX
When it is determined that the processing point is outside of
The determination for new triangular areas UAX is repeated until a triangular area UAX that includes the inside thereof can be found.

この結果ステップ5P13において処理点Pcが内部に
ある三角形fifl域UAXを発見すると、CPUは次
のステップ5P14に移って線形補間による可視又は不
可視の決定処理を実行する。この処理は、CPUがテー
ブルlOの可視−不可視テーブルTABLE4 (第7
図)から順次当該三角形の頂点Pt 、Pg 、Psに
ついて格納されている可視−不可視データを読出し、第
14図に示すように、ディスプレイの表示画面上の位置
PIxpg 、P3に対応する可視−不可視データVl
、、vt、、vt、を垂直に立てる。そして可視−不可
視データvII、vI!、vI、の先端に可視−不可視
平面vPXを張る。この可視−不可視平面vpxは、頂
点P+ −Pt SPsの可視−不可視データVI+ 
、Vlt 、Vls (7)値ニヨッテ、可視−不可視
データV l+ −V Isの全部が「+1」の値をも
つときには第14図(A)に示すように三角形領域UA
Xに対して上方に平行に延長する可視−不可視平面vP
Xが得られ、これに対して可視−不可視データV1.〜
■I、が全て「−1」のときには、第14図(B)に示
すように、三角形領域UAXの下方に平行に延長する可
視−不可視平面VPXが得られる。
As a result, when the triangular fifl area UAX in which the processing point Pc is located is found in step 5P13, the CPU moves to the next step 5P14 and executes visible or invisible determination processing by linear interpolation. This process is performed by the CPU in the visible-invisible table TABLE4 (7th
The visible-invisible data stored for the vertices Pt, Pg, Ps of the triangle are sequentially read out from FIG. Vl
,,vt,,vt, are set vertically. And visible-invisible data vII, vI! A visible-invisible plane vPX is stretched at the tip of , vI. This visible-invisible plane vpx is the visible-invisible data VI+ of the vertices P+ -Pt SPs.
, Vlt, Vls (7) When all of the values Nyotte and visible-invisible data V l+ -V Is have a value of "+1", a triangular area UA is created as shown in FIG. 14(A).
Visible-invisible plane vP extending upward and parallel to X
X is obtained, for which visible-invisible data V1. ~
(2) When I is all "-1", as shown in FIG. 14(B), a visible-invisible plane VPX extending in parallel below the triangular area UAX is obtained.

これに対して、可視−不可視データV1.〜■I、のう
ちの一部(例えばVl、及びVt、)が「+1」であり
、かつ他部(すなわちVl3)が「−1」である場合に
は、第14図(c)に示すように可視−不可視平面vP
Xが三角形領域UAXと交差することになり、その交差
線LINを挟んで頂点Pl及びP2側の可視−不可視平
面vPXが正となり、かつ境界i%1LINを挟んで、
頂点P、側の可視−不可視平面vPXの符号が負になる
On the other hand, visible-invisible data V1. ~ ■ When a part of I (e.g., Vl and Vt) is "+1" and the other part (i.e., Vl3) is "-1", as shown in FIG. 14(c). Visible-invisible plane vP
X intersects the triangular area UAX, the visible-invisible plane vPX on the vertex Pl and P2 side is positive across the intersection line LIN, and the boundary i%1LIN is sandwiched between
The sign of the visible-invisible plane vPX on the vertex P side becomes negative.

従って処理点Pcを通り、三角形領域UAX (従って
ディスプレイのラスク表示画面)に垂直な直線LCIと
可視−不可視平面vPXとの交点を求め、その値V1.
cを当該処理点PCの可視−不可視データとして補間す
る。
Therefore, the intersection of the straight line LCI passing through the processing point Pc and perpendicular to the triangular area UAX (therefore, the rask display screen of the display) and the visible-invisible plane vPX is determined, and its value V1.
c is interpolated as visible-invisible data of the processing point PC.

このようにすれば、表示すべき3次元の曲面から得たデ
ータとして3つの頂点P+ 、Pg 、Psについての
可視−不可視データvII、vI!、Viaを得さえす
れば、表示画面上の三角形領域UAXに含まれる全ての
処理点PC(これは表示画面上のピクセルを表している
)における可視−不可視データを、処理点PCを通る直
線LCIと三角形平面でなる可視−不可視平面vPXと
の交点を演算する(これは線形補間演算になる)ことに
よって、簡易に得ることができる。
In this way, the visible-invisible data vII, vI! about the three vertices P+, Pg, Ps are obtained from the three-dimensional curved surface to be displayed. , Via is obtained, visible-invisible data at all processing points PC (this represents pixels on the display screen) included in the triangular area UAX on the display screen can be converted to a straight line LCI passing through the processing point PC. This can be easily obtained by calculating the intersection of the visible-invisible plane vPX formed by a triangular plane (this becomes a linear interpolation calculation).

因に当該線形補間演算は、平面と直線との解を求める演
算になり、簡易かつ一義的に解が求まることになる。
Incidentally, the linear interpolation operation is an operation for finding a solution between a plane and a straight line, and the solution can be easily and uniquely found.

次に、CPUはステップ5P15に移って、線形補間に
よる輝度の決定処理を実行する。この処理は、第15図
に示すように、ディスプレイの表示両面上の三角形領域
UAXの頂点P、 Spg、P3の輝度データ1.、T
!、Iりに基づいて、三角形印域UAXに含まれるピク
セルでなる処理点PCにおける輝度■6を補間演算する
もので、次の手順によって演算処理を実行する。
Next, the CPU moves to step 5P15 and executes brightness determination processing by linear interpolation. This process, as shown in FIG. 15, includes luminance data 1 . , T
! , I is used to interpolate the luminance 6 at the processing point PC consisting of pixels included in the triangular mark area UAX, and the calculation process is performed according to the following procedure.

すなわち三角形領域UAXの頂点P、 、pg、P、の
輝度データI+−1t、Isを、テーブル10の輝度テ
ーブルTABLE2から読出して、ディスプレイの表示
画面上の対応する頂点PI%P、 、P、位置に垂直に
立てる。そして輝度データ11s Izs13の先端を
結ぶ輝度平面BPXを張る。そして三角形領域UAXに
含まれる各ピクセルについての処理点Pcからディスプ
レイの表示画面に垂直に直線LC2を引き、当該直線L
C2と輝度平面BPXとの交点を求め、その交点におけ
る輝度平面BPXの値を処理点PCの1度1、Cと決定
する。
That is, the brightness data I+-1t, Is of the vertices P, , pg, P, of the triangular area UAX are read from the brightness table TABLE2 of the table 10, and the positions of the corresponding vertices PI%P, , P, on the display screen of the display are read out. stand vertically. Then, a brightness plane BPX connecting the tips of the brightness data 11s Izs13 is drawn. Then, a straight line LC2 is drawn perpendicularly to the display screen of the display from the processing point Pc for each pixel included in the triangular area UAX, and the straight line L
The intersection between C2 and the brightness plane BPX is determined, and the value of the brightness plane BPX at the intersection is determined to be 1°C at the processing point PC.

このようにすれば、三角形領域UAXに含まれる全ての
ピクセルを順次処理点PCとして選定して行けば、直線
LC2と三角形輝度平面BPXとの交点を求める線形補
間演算を実行することによって3次元曲面から得た3つ
の輝度データから簡易に全てのピクセルについての輝度
データを得ることができる。
In this way, if all pixels included in the triangular area UAX are sequentially selected as processing points PC, a three-dimensional curved Luminance data for all pixels can be easily obtained from the three pieces of luminance data obtained from .

因にこの場合も、直線LC2と平面BPXとの解を求め
ることになるので、当該演算は簡易であり、かつその解
は一義的に決まることになる。
Incidentally, in this case as well, the solution between the straight line LC2 and the plane BPX is determined, so the calculation is simple and the solution is uniquely determined.

次に、CPUはステップ5P16において、補間演算に
よる距離の決定処理を実行する。この処理は、第16図
に示すように、ディスプレイの表示画面上の三角形領域
UAXに含まれるピクセルについて、視点からの距離を
補間演算するもので、CPUは次の処理手順に従って補
間演算を実行する。
Next, in step 5P16, the CPU executes distance determination processing by interpolation calculation. As shown in FIG. 16, this process interpolates the distance from the viewpoint for pixels included in the triangular area UAX on the display screen of the display, and the CPU performs the interpolation calculation according to the following processing steps. .

すなわち先ず、ディスプレイの表示画面上の頂点P、、
P意、P2についての距離データDI%D、、D、を、
テーブル10の距離テーブルTABLE3から読出して
、頂点P* 、Pg 、Ps位置に垂直に立てる。そし
て距離データDt、Dt、D、の先端を結ぶように距離
平面DPXを張り、処理点Pcを遺り、かつディスプレ
イの表示画面と垂直な直線LC3と、距離平面DPXと
の交点を演算により求める。そしてこの交点における距
離平面DPXの値D s>cを当該処理点PCの視点か
らの距離データとして決定する。
That is, first, the vertex P on the display screen of the display,
Let the distance data DI%D, ,D, for P and P2 be,
Read from the distance table TABLE3 of table 10 and stand vertically at the positions of vertices P*, Pg, and Ps. Then, a distance plane DPX is stretched so as to connect the ends of the distance data Dt, Dt, D, leaving a processing point Pc, and the intersection point of the distance plane DPX and a straight line LC3 that is perpendicular to the display screen of the display is calculated. . Then, the value Ds>c of the distance plane DPX at this intersection is determined as distance data from the viewpoint of the processing point PC.

かくしてこの場合にも、三角形領域UAXに含まれる全
てのピクセルを順次処理点Pcと6して指定して行くこ
とにより、当該処理点PCの距離データD tscを線
形補間演算によって得ることができる。この場合も、当
該補間演算は、直線LC3と距離平面DPXとの解を求
めることになるので、簡易な演算により、一義的な解を
求めることができる。
Thus, in this case as well, by sequentially specifying all the pixels included in the triangular area UAX as the processing point Pc, the distance data Dtsc of the processing point PC can be obtained by linear interpolation calculation. In this case as well, since the interpolation calculation involves finding a solution between the straight line LC3 and the distance plane DPX, a unique solution can be found by a simple calculation.

その後CPUは、ステップ5PI7に移って距離の比較
によるピクセルデータの生成処理を実行する。この処理
は、ディスプレイの表示西面上の表示領域ARE (第
11図)に含まれる全てのピクセルについて、それぞれ
距離データD ecが最も小さい曲面に対応する輝度デ
ータ!、C(第15図)及び可視−不可視データVI、
c(第14図)を集め、可視データが得られかつ距離デ
ータD meが最も小さい曲面についての輝度データが
ディスプレイ上に表示すべきピクセルデータとして生成
される。
Thereafter, the CPU moves to step 5PI7 and executes pixel data generation processing based on distance comparison. This process calculates the brightness data corresponding to the curved surface with the smallest distance data Dec for all pixels included in the display area ARE (FIG. 11) on the west display surface of the display. , C (Figure 15) and visible-invisible data VI,
c (FIG. 14), luminance data for the curved surface for which visible data is obtained and for which the distance data Dme is the smallest is generated as pixel data to be displayed on the display.

実際上CPUは、ディスプレイの各ピクセルに対応する
メモリセルを有するフレームバッファメモリと、当該フ
レームバッファメモリの各ピクセルに対応するデツプス
バッファメモリとを有し、ステップ5P16において各
ピクセルに対する距離データD□が決定されて行くとき
、同一ピクセルについて最も小さい距離データD、cが
得られたとき、当該距離データをデップスバッファメモ
リの当該ピクセルに対応するメモリエリアに記憶すると
共に、ステップ5P15において決定された輝度データ
■□をフレームバッファメモリに書込んで行くようにな
され、かくして最も距離データD□が小さい曲面から得
られた輝度データllICがフレームバッファメモリに
書込まれることになる。
In practice, the CPU has a frame buffer memory having a memory cell corresponding to each pixel of the display, and a depth buffer memory corresponding to each pixel of the frame buffer memory, and in step 5P16, distance data D□ is determined, and when the smallest distance data D, c is obtained for the same pixel, the distance data is stored in the memory area corresponding to the pixel in the depth buffer memory, and the brightness determined in step 5P15 is The data ■□ are written to the frame buffer memory, and thus the luminance data llIC obtained from the curved surface with the smallest distance data D□ is written to the frame buffer memory.

かかるステップ5P12〜5P17の一連の演算処理は
1つのパッチに含まれるピクセルごとに実行され、CP
Uはステップ5PL7の処理が終了するごとにステップ
5P18において全てのパッチについての演算処理が終
了したか否かを判断し、否定結果が得られたとき再度ス
テップ5PI2に戻って新たなピクセルについてのデー
タの演算処理を繰返す。これに対してステップ5P1B
において肯定結果が得られれば、CPUはステップ5P
19に移って当該プログラムを終了する。
The series of arithmetic processing in steps 5P12 to 5P17 is executed for each pixel included in one patch, and the CP
Every time the processing in step 5PL7 is completed, U judges in step 5P18 whether or not the arithmetic processing for all patches has been completed, and when a negative result is obtained, it returns to step 5PI2 again and calculates data for a new pixel. Repeat the calculation process. For this step 5P1B
If a positive result is obtained in step 5P, the CPU
The program moves to step 19 and ends the program.

(G4)実施例の作用 第1図のデータ処理方法によれば、3次元空間にある物
体曲面を、所定の視点位置から見たときの透視変換画像
をディスプレイの2次元表示画面上に変換表示すること
ができる示、かくするにつき、3次元空間にある物体の
曲面を三角形の単位領域UAI及びUA2に切出してそ
の3つの頂点pxにおける物体表面情報を3次元空間に
おけるデータとして得ると共に、当該3つの頂点PXを
ディスプレイのラスク表示画面を形成する2次元平面に
透視変換した後、当該2次元平面に変換された頂点P、
、p、 、ps位置を使って曲面から得た物体表面情報
でなる三角形のデータ平面を張ることによって、表示画
面上の三角形の領域に含まれている各全てのピクセルに
ついて、当該データ平面から線形補間演算によって画像
データを得ることができる。
(G4) Effects of the Embodiment According to the data processing method shown in FIG. 1, a perspective-converted image of an object curved surface in a three-dimensional space viewed from a predetermined viewpoint position is converted and displayed on a two-dimensional display screen of a display. In this way, the curved surface of an object in a three-dimensional space is cut out into triangular unit areas UAI and UA2, and the object surface information at the three vertices px is obtained as data in the three-dimensional space. After perspectively converting the two vertices PX to a two-dimensional plane forming the rask display screen of the display, the vertices P converted to the two-dimensional plane,
By constructing a triangular data plane consisting of the object surface information obtained from the curved surface using the positions , p, , ps, we can calculate linearly from the data plane for each and every pixel included in the triangular area on the display screen. Image data can be obtained by interpolation calculations.

かくするにつき、3次元空間の物体の表面から2次元平
面に透視変換する際のデータとして、各単位領域につい
て3つで済むので、変換演算時間を一段と短(すること
ができる、そしてデータ平面から各ピクセルについての
画像データを得るにつき、平面と直線との解を求める演
算を実行するだけで良いので、この捕間演算は線形とな
り、解が一義的に決る簡易な演算で済む。
In this way, only three pieces of data are required for each unit area when performing perspective transformation from the surface of an object in three-dimensional space to a two-dimensional plane, which further reduces the transformation calculation time. In order to obtain image data for each pixel, it is only necessary to perform an operation to find a solution between a plane and a straight line, so this interpolation operation is linear, and a simple operation in which the solution is uniquely determined is sufficient.

また第1図の画像表示方法によれば、2次元平面上の三
角形領域UAXを基準にしてデータ平面を形成するよう
、にしたので、ディスプレイの表示画面上に表示される
画面に光源の位置に応じた陰影を容易に付けることがで
き、かくして曲面上の起伏を確実に表現することができ
る。
Furthermore, according to the image display method shown in FIG. 1, the data plane is formed based on the triangular area UAX on the two-dimensional plane, so that the position of the light source is shown on the screen displayed on the display. It is possible to easily apply appropriate shading, and thus the undulations on the curved surface can be reliably expressed.

さらに第1図の画像表示方法によれば、2次元平面に基
づいて可視−不可視データ平面を張ることによって、当
該2次元平面上の三角形領域UAX内に可視領域と不可
視領域とが存在する場合にも、各ピクセルについての線
形補間演真結果によって可視領域と不可視領域との境界
を明確に判定することができ、これにより陰面処理を容
易に実現し得る。
Furthermore, according to the image display method shown in FIG. 1, by creating a visible-invisible data plane based on a two-dimensional plane, when a visible area and an invisible area exist within the triangular area UAX on the two-dimensional plane, Also, the boundary between the visible region and the invisible region can be clearly determined based on the linear interpolation result for each pixel, and thus hidden surface processing can be easily realized.

またかかる陰面処理をするにつき、同一のピクセルにつ
いて複数の可視データが得られたときは、曲面上の単位
領域UAI及びUA2から視点までの距離を表す距離デ
ータを用いて、最も距離が短い曲面についての画像デー
タだけを有効なものと判断してこれを表示するようにし
たことにより、陰面処理を混乱なく確実に実行し得、か
くして明確な遠近感を有する画像をディスプレイの表示
画面上に得ることができる。
In addition, when performing such hidden surface processing, when multiple pieces of visible data are obtained for the same pixel, the distance data representing the distance from the unit area UAI and UA2 on the curved surface to the viewpoint is used to select the curved surface with the shortest distance. By determining that only the image data of 1 is valid and displaying it, hidden surface processing can be performed reliably without confusion, and thus an image with a clear sense of perspective can be obtained on the display screen of the display. I can do it.

また第1図の画像表示方法によれば、2次元平面に透視
変換されて得られる三角形領域UAXについて補間演算
をするにつき、現在処理しているピクセルに相当する処
理点Pcがどの三角形領域UAXに属するものであるか
を検出するにつき、当該三角形領域UAX03辺を構成
する直線DL1、DL2、DL3と、当該三角形領域U
AXの重心P0とを用いて、処理点PCが重心P、側に
あるか否かを判断するだけの演算処理によって容易に(
i1認することができるので、全体としての演算処理時
間を一段と短縮することができる。
Furthermore, according to the image display method shown in FIG. 1, when performing interpolation calculations on the triangular area UAX obtained by perspective transformation into a two-dimensional plane, the processing point Pc corresponding to the currently processed pixel is located in which triangular area UAX. In order to detect whether it belongs to the triangular area UAX0, the straight lines DL1, DL2, and DL3 that constitute the three sides of the triangular area UAX0 and the triangular area U
Using the center of gravity P0 of AX, it is easy to calculate (
Since i1 can be recognized, the overall calculation processing time can be further shortened.

そしてかかる画像変換処理を実行するに当って、指定さ
れた視点から見た3次元空間の物体に関するデータを2
次元平面に透視変換した結果、変換されたデータがある
表示領域ARE (第11図)を決定し、この表示領域
に限って、以後の一連の画像表示処理演算(すなわち、
処理点がある三角形領域の決定、可視−不可視の決定、
視点からの距離の決定、可視表面の決定など)を実行す
るようにしたことにより、全体としての演算時間を一段
と短縮し得る。
In executing such image conversion processing, data regarding objects in a three-dimensional space viewed from a specified viewpoint are
As a result of perspective transformation to a dimensional plane, a display area ARE (Fig. 11) in which the converted data is located is determined, and a series of subsequent image display processing operations (i.e.,
Determining the triangular area where the processing point is located, determining whether it is visible or invisible,
(determination of the distance from the viewpoint, determination of the visible surface, etc.), the overall calculation time can be further reduced.

(G5)変形例 なお上述の実施例においては、3次元空間の物体に関す
るデータとして曲面で囲まれた物体の表面を表すデータ
を用いた場合について述べたが、これに限らず、平面で
囲まれた物体の表面を表すデータを用いる場合にも、同
様にして本発明を適用し得る。
(G5) Modification In the above embodiment, data representing the surface of an object surrounded by a curved surface is used as data regarding an object in a three-dimensional space. However, the present invention is not limited to this. The present invention can be similarly applied to the case of using data representing the surface of an object.

H発明の効果 以上のように本発明によれば、3次元空間にある物体の
曲面を三角形の単位領域UAI及びUA2に切出して当
該単位領域UAI及びUA2の3つの頂点PXによって
当該単位領域UAI及びUA2の画像情報を代表させる
ようにすると共に、当該単位領域UAI及びUA2を単
位として二次元表示画面上への透視変換画像を得るよう
になされた画像表示方法において、二次元表示画面上の
各ピクセルがどの三角形領域に含まれるかを、各三角形
領域の重心と、3つの辺とを用いて判定するようにした
ことにより、補間演算処理を一段と簡易化し得る。
H Effects of the Invention As described above, according to the present invention, the curved surface of an object in a three-dimensional space is cut out into triangular unit areas UAI and UA2, and the unit areas UAI and UA2 are divided by the three vertices PX of the unit areas UAI and UA2. In an image display method that represents the image information of UA2 and obtains a perspective transformation image on a two-dimensional display screen using the unit areas UAI and UA2 as units, each pixel on the two-dimensional display screen By using the center of gravity and three sides of each triangular region to determine which triangular region is included in the triangular region, the interpolation calculation process can be further simplified.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による画像表示方法の一実施例を示すフ
ローチャート、第2図はその陰影処理方法の原理を示す
路線図、第3図及び第4図は陰面処理方法の原理を示す
路線図、第5図は三角形単位領域の切出し手順を示す路
線図、第6図は可視−不可視データの生成手順を示す路
線図、第7図は3次元空間にある物体の曲面から得た画
像情報を格納するテーブルを示す路線図、第8図は距離
データの生成手順を示す路線図、第9図は輝度データの
生成手順を示す路線図、第1θ図は適視変換手順を示す
路線図、第11図は表示領域の決定手順を示す路線図、
第12図は表示領域内の頂点データの抽出手順を示す路
線図、第13図は処理点が三角形領域にあるか否かの判
定をする手順を示す路線図、第14図は可視−不可視デ
ータの補間手順を示す路線図、第15図は輝度データの
補間手順を示す路線図、第16図は距離データの補間手
順を示す路線図である。 14.6・・・・・・物体、IA、4A、6A・・・・
・・曲面、2−・・・・・光源、3・・・・・・視点、
11・・・・・・表示画面。
FIG. 1 is a flowchart showing an embodiment of the image display method according to the present invention, FIG. 2 is a route map showing the principle of the shadow processing method, and FIGS. 3 and 4 are route maps showing the principle of the hidden surface processing method. , Fig. 5 is a route map showing the procedure for cutting out a triangular unit area, Fig. 6 is a route map showing the procedure for generating visible-invisible data, and Fig. 7 is a route map showing the procedure for generating visible-invisible data. FIG. 8 is a route map showing the distance data generation procedure; FIG. 9 is the route map showing the brightness data generation procedure; FIG. 1θ is the route map showing the appropriate viewing conversion procedure; Figure 11 is a route map showing the procedure for determining the display area;
Figure 12 is a route map showing the procedure for extracting vertex data within the display area, Figure 13 is a route map showing the procedure for determining whether a processing point is in a triangular area, and Figure 14 is visible-invisible data. FIG. 15 is a route map showing the interpolation procedure for luminance data, and FIG. 16 is a route map showing the interpolation procedure for distance data. 14.6...Object, IA, 4A, 6A...
...Curved surface, 2-...Light source, 3...Viewpoint,
11...Display screen.

Claims (1)

【特許請求の範囲】 3次元空間にある物体の表面を所定の視点位置から見た
ときの当該表面に関するデータを、ディスプレイの2次
元表示画面上に変換表示する画像表示方法において、 (a)上記物体の表面を三角形の単位領域に切出し、当
該三角形の単位領域の3つの頂点でなる第1の頂点にお
ける物体表面情報でなる第1のデータを得、 (b)上記第1のデータのうちの上記第1の頂点の位置
を表す位置データを、上記視点位置に基づいて、ディス
プレイの表示画面に相当する2次元平面に透視変換して
、上記第1の頂点に対応する上記2次元平面上の第2の
頂点の位置を表す第2のデータを得、 (c)上記第2のデータにより表される3つの頂点のう
ち2つの頂点をそれぞれ通る第1、第2、及び第3の直
線によつて囲まれる三角形領域の重心を求め、 (d)上記表示画面のピクセルでなる処理点の位置が、
上記第1、第2、及び第3の直線に対して、上記重心の
位置と同じ側にあるか否かをそれぞれ判定し、その結果
第1、第2、及び第3の直線に対して全て重心と同じ側
にあるとの判定結果が得られたとき、上記処理点が上記
三角形領域に含まれるピクセルであると決定し、 (e)当該決定された三角形領域の上記第2の頂点位置
に上記第1のデータに含まれる物体表面情報データを垂
直に立てて、その先端に三角形のデータ平面を張り、 (f)上記表示画面の上記三角形領域に含まれる上記処
理点に垂直に立てた直線と、上記データ平面との交点を
補間演算によつて求め、 (g)上記交点における上記データ平面のデータを、上
記ディスプレイの表示画面上の上記処理点についての画
像データとして決定する
[Scope of Claims] An image display method for converting and displaying data regarding the surface of an object in a three-dimensional space when viewed from a predetermined viewpoint position on a two-dimensional display screen of a display, comprising: (a) the above-mentioned method; Cutting out the surface of the object into a triangular unit area, obtaining first data consisting of object surface information at a first vertex consisting of three vertices of the triangular unit area, (b) among the above first data; The position data representing the position of the first vertex is perspectively transformed into a two-dimensional plane corresponding to the display screen of the display based on the viewpoint position, and the position data on the two-dimensional plane corresponding to the first vertex is Obtaining second data representing the position of the second vertex, (c) forming first, second, and third straight lines passing through two of the three vertices represented by the second data, respectively; (d) The position of the processing point made up of pixels on the display screen is
With respect to the first, second, and third straight lines, it is determined whether or not they are on the same side as the center of gravity, and as a result, all of the first, second, and third straight lines are When a determination result indicating that the processing point is on the same side as the center of gravity is obtained, the processing point is determined to be a pixel included in the triangular area, and (e) the processing point is placed at the second vertex position of the determined triangular area. The object surface information data included in the first data is erected vertically, and a triangular data plane is attached to the tip thereof; (f) a straight line is erected perpendicularly to the processing point included in the triangular area of the display screen; (g) determining the data of the data plane at the intersection point as image data for the processing point on the display screen of the display;
JP3707985A 1985-02-26 1985-02-26 Image display method Expired - Fee Related JPH0814852B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP3707985A JPH0814852B2 (en) 1985-02-26 1985-02-26 Image display method
US06/832,990 US4819192A (en) 1985-02-26 1986-02-24 Method of displaying image
EP86102358A EP0193151B1 (en) 1985-02-26 1986-02-24 Method of displaying image
AT86102358T ATE97246T1 (en) 1985-02-26 1986-02-24 IMAGE DISPLAY PROCEDURE.
CA000502519A CA1260638A (en) 1985-02-26 1986-02-24 Method of displaying image
DE86102358T DE3689271T2 (en) 1985-02-26 1986-02-24 Image display procedure.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3707985A JPH0814852B2 (en) 1985-02-26 1985-02-26 Image display method

Publications (2)

Publication Number Publication Date
JPS61195469A true JPS61195469A (en) 1986-08-29
JPH0814852B2 JPH0814852B2 (en) 1996-02-14

Family

ID=12487540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3707985A Expired - Fee Related JPH0814852B2 (en) 1985-02-26 1985-02-26 Image display method

Country Status (1)

Country Link
JP (1) JPH0814852B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02103097A (en) * 1988-08-04 1990-04-16 Grass Valley Group Inc:The Graphic display unit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02103097A (en) * 1988-08-04 1990-04-16 Grass Valley Group Inc:The Graphic display unit

Also Published As

Publication number Publication date
JPH0814852B2 (en) 1996-02-14

Similar Documents

Publication Publication Date Title
JP3461980B2 (en) High-speed drawing method and apparatus
EP0865000B1 (en) Image processing method and apparatus
JP5055214B2 (en) Image processing apparatus and image processing method
JPH0757117A (en) Forming method of index to texture map and computer control display system
EP3340183B1 (en) Graphics processing employing cube map texturing
EP2051533A2 (en) 3D image rendering apparatus and method
JP2009525526A (en) Method for synthesizing virtual images by beam emission
JPH06130881A (en) Formation of hologram information
Chen et al. Manipulation, display, and analysis of three-dimensional biological images
US9401044B1 (en) Method for conformal visualization
JPH03202981A (en) Three-dimensional graphic dis- play method and system
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
JP2832463B2 (en) 3D model reconstruction method and display method
JPH06222899A (en) Multiwindow display system
JP6093704B2 (en) Drawing apparatus, drawing method, and drawing program
JPS61195469A (en) Picture displaying method
Li et al. An occlusion detection algorithm for 3d texture reconstruction of multi-view images
Dong et al. Resolving incorrect visual occlusion in outdoor augmented reality using TOF camera and OpenGL frame buffer
JP3615660B2 (en) Image display apparatus and method
KR102083558B1 (en) A method and program for modeling three-dimension object by using voxelygon
JP4931038B2 (en) Stereoscopic image device, game device, stereoscopic image projection device, stereoscopic image data generation method, control program, and readable recording medium
JPS61195468A (en) Picture displaying method
JPS61195467A (en) Picture displaying method
Wang et al. Real-time Multiresolution Rendering for Dynamic Terrain.
Tu et al. A method for generating procedural seamless textures

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees