JPH0632044B2 - Object image synthesizer - Google Patents

Object image synthesizer

Info

Publication number
JPH0632044B2
JPH0632044B2 JP22765786A JP22765786A JPH0632044B2 JP H0632044 B2 JPH0632044 B2 JP H0632044B2 JP 22765786 A JP22765786 A JP 22765786A JP 22765786 A JP22765786 A JP 22765786A JP H0632044 B2 JPH0632044 B2 JP H0632044B2
Authority
JP
Japan
Prior art keywords
information
ray
area
unit
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP22765786A
Other languages
Japanese (ja)
Other versions
JPS6381585A (en
Inventor
啓次 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP22765786A priority Critical patent/JPH0632044B2/en
Publication of JPS6381585A publication Critical patent/JPS6381585A/en
Publication of JPH0632044B2 publication Critical patent/JPH0632044B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、物体を表示するための画像を合成する、物体
画像合成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object image synthesizing apparatus for synthesizing images for displaying an object.

(従来の技術) 物体を表示するためのディジタル画像を合成する方法と
して、光線追跡法と呼ばれる方法がある。この方法で
は、光源から視点に至る光線の経路を逆向きに辿って、
光線と物体との交差判定処理を行ない、その結果に基づ
いて画像を構成する各画素の輝度を計算する。この光線
追跡法の一例は、文献1:情報処理学会論文誌、第25
巻、第6号、出口弘、西村仁志、吉村浩、河田亨、白川
功、大村晧一著、論文「コンピュータグラフィックスシ
ステム LINKS−1における画像生成の高速化手法」に
記載されている。
(Prior Art) As a method of synthesizing a digital image for displaying an object, there is a method called a ray tracing method. In this method, the path of the light ray from the light source to the viewpoint is traced in the opposite direction,
The intersection determination process between the light ray and the object is performed, and the brightness of each pixel forming the image is calculated based on the result. An example of this ray tracing method is described in Reference 1: IPSJ Transactions, No. 25.
Vol. 6, No. 6, Hiroshi Deguchi, Hitoshi Nishimura, Hiroshi Yoshimura, Toru Kawada, Isao Shirakawa, Koichi Omura, Paper "Speeding up Image Generation in Computer Graphics System LINKS-1".

このような光線追跡法による画像生成を高速に行なうた
めに、物体の定義されている空間を複数の領域に分割し
て、各領域にそれぞれ1台のコンピュータを割り当て
て、各コンピュータが割り当てられた領域を通過する光
線の処理を行なうという、並列処理方法が提案されてい
る。この方法の詳細は、文献2:コンピュータ グラフ
ィックス(Computer Graphics)、第18巻、第3号、マー
ク・デイッペ(Mark Dippe)、ジョン・スウェンセン(Joh
n Swensen)著、論文「アン アダプティブ サブディヴ
ィジョン アルゴリズム アンド パラレル アーキテ
クチャ フォア リアリスティック イメージ シンセ
シス(An Adaptive Subdivision Algorithm and Paralle
l Architecture for Realistic Image Synthesis)」に
記載されている。
In order to perform image generation by such a ray tracing method at high speed, the space in which the object is defined is divided into a plurality of regions, and one computer is assigned to each region, and each computer is assigned. A parallel processing method has been proposed in which a light beam that passes through an area is processed. For more information on this method, see Document 2: Computer Graphics, Volume 18, Issue 3, Mark Dippe, John Swensen.
n Swensen), `` An Adaptive Subdivision Algorithm and Paralle
l Architecture for Realistic Image Synthesis) ".

上述の方法においては、空間はまず直方体形状の複数個
の領域に分割され、各領域がそれぞれ1台のコンピュー
タに割り当てられる。次に、各コンピュータには、割り
当てられた直方体形状の領域に含まれる物体のデータが
記憶される。そして、各コンピュータでは、割り当てら
れた領域を通過する光線とその領域に含まれる物体との
交差判定処理が行なわれる。この交差判定処理により、
物体と光線が交差した場合には、物体表面における反
射、透過処理が行なわれる。その領域内で物体と交差し
ない光線の情報は、隣接する領域に割り当てられたコン
ピュータへ転送される。
In the above method, the space is first divided into a plurality of rectangular parallelepiped areas, and each area is assigned to one computer. Next, the data of the object included in the assigned rectangular parallelepiped region is stored in each computer. Then, each computer performs an intersection determination process between a ray passing through the assigned area and an object included in the area. By this intersection determination processing,
When the object and the light beam intersect, reflection and transmission processing is performed on the surface of the object. Information about rays that do not intersect the object in that area is transferred to the computer assigned to the adjacent area.

このように各光線は、その光線が通過する領域に含まれ
る物体とのみ交差が判定される。従って、各光線がすべ
ての物体と交差判定の処理をされるのに比べて、全体の
処理量ははるかに少なくなる。
In this way, each ray is determined to intersect only with an object included in the area through which the ray passes. Therefore, compared with the case where each ray is processed for intersection determination with all objects, the total processing amount is much smaller.

また、このような交差判定処理は、各コンピュータで並
列に実行される。この並列処理効果も加わって、非常に
高速に画像を合成できる。
In addition, such intersection determination processing is executed in parallel in each computer. By adding this parallel processing effect, it is possible to combine images at a very high speed.

(発明が解決しようとする問題点) このような従来の画像の合成方法において、各コンピュ
ータは割り当てられた領域を通過する光線と、その領域
に含まれる物体との交差判定処理を行う。このために要
する処理量は、すべての物体と交差判定処理を行う場合
と比べればはるかに少ないが、やはり膨大な処理量であ
る。そこで、物体が存在する領域と光線との交差を判定
するという簡単な処理によって、あらかじめこの光線と
交差する可能性のある物体のみを選択して、これらの物
体とのみ従来の交差判定処理を行うという方法がある。
この方法の一例は、文献3:ピクセル(PIXEL)、第37
号、秋本彰著、「レイ・トレーシングの高速化技法につ
いて−これまでの手法とARTSの手法」に記載されてい
る。この方法では、光線が通過する単位立方体の列を3
次元デジタル直線として発生する。この3次元デジタル
直線を用いて、物体が存在する領域と光線との交差を高
速に判定している。
(Problems to be Solved by the Invention) In such a conventional image synthesizing method, each computer performs intersection determination processing between a ray passing through an assigned area and an object included in the area. The amount of processing required for this is much smaller than the case where the intersection determination processing is performed for all objects, but it is also a huge amount of processing. Therefore, by the simple process of determining the intersection of the area where the object exists and the ray, only the objects that may intersect with this ray are selected in advance, and the conventional intersection determination process is performed only with these objects. There is a method.
An example of this method is document 3: Pixel (PIXEL), 37th.
Issue, Akimoto Akira, "Rapid Tracing Acceleration Techniques-Prior Techniques and ARTS Techniques". In this method, the array of unit cubes through which the ray passes is 3
It occurs as a dimensional digital straight line. By using this three-dimensional digital straight line, the intersection of the region where the object exists and the light ray is determined at high speed.

しかし、このような従来の方法では、各単位立方体毎に
その単位立方体が含んでいる物体を記憶することで、物
体が存在する領域を表現している。従って、物体が存在
する領域を表現するために必要なデータ量が膨大となっ
てしまうという問題点がある。
However, in such a conventional method, an area in which an object exists is represented by storing an object included in the unit cube for each unit cube. Therefore, there is a problem that the amount of data required to represent the area where the object exists becomes enormous.

本発明は、このような問題点を解決するために、非常に
少ないデータ量で物体が存在する範囲を表現でき、これ
を利用して高速の交差判定処理を行うことのできる、物
体画像合成装置を提供することを目的とする。
In order to solve such a problem, the present invention can represent a range in which an object exists with a very small amount of data, and can use this to perform high-speed intersection determination processing. The purpose is to provide.

(問題点を解決するための手段) 本発明の物体画像合成装置は、視点から各画素を通る複
数の光線の情報を発生する初期光線発生部と、物体の情
報を設定する物体情報設定部と、上記物体の定義される
空間を分割することにより生成される複数の領域のうち
の1領域を担当してこの領域を通過する光線と上記担当
領域に含まれる物体との交差判定処理を行なうことによ
り上記画素の輝度を計算する複数の輝度計算部と、この
輝度計算部で計算された輝度を上記画像として記憶する
画像記憶部とで構成されるとともに、上記輝度計算に、
座標軸に垂直で等間隔な複数の平面で上記物体定義空間
を分割して生成される複数の単位立方体のうちで上記光
線が通過する単位立方体の列を3次元デジタル直線とし
て発生する直線発生手段と、上記複数の平面のうちの一
部または全部の平面で上記物体定義空間を分割して生成
される複数の領域のうちの1領域を上記輝度計算部の相
当領域としてこの担当領域の範囲を記憶する領域情報記
憶手段と、上記担当領域に含まれる物体の上記担当領域
における存在範囲を決定する存在範囲決定手段と、上記
存在範囲を記憶する存在範囲記憶手段と、上記直線発生
手段で発生される単位立方体の列と上記存在範囲記憶手
段に記憶された上記物体の存在範囲とを比較して上記担
当領域に含まれる物体の内で上記光線が交差する可能性
のある物体を選択する物体選択手段と、この物体選択手
段で選択された物体と上記光線との交差判定処理を行う
交差判定手段とが備えられている。
(Means for Solving Problems) An object image synthesizing apparatus according to the present invention includes an initial light ray generation unit that generates information about a plurality of light rays that pass through each pixel from a viewpoint, and an object information setting unit that sets information about an object. , Performing one of a plurality of regions generated by dividing the space defined by the object, and performing intersection determination processing between a ray passing through the region and an object included in the region in charge. With a plurality of brightness calculation unit for calculating the brightness of the pixel by, and an image storage unit that stores the brightness calculated by this brightness calculation unit as the image, in the brightness calculation,
A straight line generating means for generating, as a three-dimensional digital straight line, a row of unit cubes through which the ray passes among a plurality of unit cubes generated by dividing the object definition space by a plurality of planes that are perpendicular to the coordinate axes and are equally spaced. , One of a plurality of regions generated by dividing the object definition space on a part or all of the plurality of planes is set as a corresponding region of the brightness calculation unit, and the range of the assigned region is stored. Area information storage means, existence range determination means for determining the existence range of an object included in the charge area in the charge area, existence range storage means for storing the existence range, and straight line generation means. A column of unit cubes is compared with the existence range of the object stored in the existence range storage means, and an object in which the light rays may intersect is selected from among the objects included in the assigned area. An object selection unit that, the intersection determination means for performing intersection determination processing with the selected object and the light beam by the object selecting means is provided.

(作用) 本発明の物体画像合成装置における、物体と光線との交
差判定方法について述べる。
(Operation) A method of determining an intersection between an object and a ray in the object image synthesizing apparatus of the present invention will be described.

物体定義空間を座標軸に垂直で等間隔な複数の平面で分
割して生成される複数の立方体を、単位立方体とよぶ。
また、これらの複数の平面のうちの一部または全部の平
面によって、物体定義空間を分割して複数の領域を生成
する。こうして生成される領域は、1個または複数の単
位立方体から成る直方体となり、この直方体の各境界面
は、各座標軸に垂直となる。これらの複数の領域のうち
の1領域が、1つの輝度計算部の担当領域として割り当
てられる。この担当領域の範囲は、輝度計算部に備えら
れた領域情報記憶手段に記憶される。
A plurality of cubes generated by dividing the object definition space by a plurality of planes that are perpendicular to the coordinate axes and are equally spaced apart are called unit cubes.
Further, the object definition space is divided by a part or all of the plurality of planes to generate a plurality of regions. The region thus generated is a rectangular parallelepiped formed of one or a plurality of unit cubes, and each boundary surface of this rectangular parallelepiped is perpendicular to each coordinate axis. One of the plurality of areas is assigned as the area in charge of one brightness calculation unit. The range of the assigned area is stored in the area information storage unit provided in the brightness calculation unit.

また、各輝度計算部に備えられた存在範囲決定手段は、
この担当領域に含まれる物体の、担当領域における存在
範囲を決定する。そして、決定された存在範囲は、存在
範囲記憶手段に記憶される。
Further, the existence range determination means provided in each brightness calculation unit is
The existence range of the object included in the assigned area in the assigned area is determined. Then, the determined existence range is stored in the existence range storage means.

さらに、各輝度計算部に備えられた直線発生手段は、光
線が通過する単位立方体の列を、3次元デジタル直線と
して順次発生する。そして物体選択手段は、担当領域に
含まれる物体の存在範囲を存在範囲記憶手段から読み出
して、物体の存在範囲と順次発生される単位立方体との
比較を行う。この比較により、発生された単位立方体が
この存在範囲に含まれる場合は、光線がその物体と交差
する可能性があると判定して、この物体を交差判定処理
の対象として選択する。
Further, the straight line generation means provided in each brightness calculation unit sequentially generates a row of unit cubes through which a light ray passes as a three-dimensional digital straight line. Then, the object selection means reads the existence range of the object included in the assigned area from the existence range storage means, and compares the existence range of the object with the unit cubes sequentially generated. By this comparison, when the generated unit cube is included in this existence range, it is determined that the light ray may intersect with the object, and this object is selected as the target of the intersection determination process.

そして交差判定手段は、物体選択手段で選択された物体
と光線との交差判定処理を行う。
Then, the intersection determination means performs intersection determination processing between the object and the ray selected by the object selection means.

(実施例) 第1図(a),(b)は、本発明の一実施例としての物体画像
合成装置を示す構成図であり、第1図(a)は、物体画像
合成装置の全体を示す全体構成図、第1図(b)は、その
輝度計算部の詳細な構成を示す構成図である。第1図
(a)に示すように、予め設定された視点から合成される
画像の各画素を通る複数の光線の情報を発生する初期光
線発生部1が設けられている。
(Embodiment) FIGS. 1 (a) and 1 (b) are configuration diagrams showing an object image synthesizing apparatus as an embodiment of the present invention. FIG. 1 (a) shows the entire object image synthesizing apparatus. The entire configuration diagram shown in FIG. 1 (b) is a configuration diagram showing a detailed configuration of the brightness calculation unit. Fig. 1
As shown in (a), an initial light ray generation unit 1 that generates information about a plurality of light rays that pass through each pixel of an image to be combined from a preset viewpoint is provided.

また、表示される物体の情報を設定するための、物体情
報設定部2が設けられている。
Further, an object information setting unit 2 for setting the information of the displayed object is provided.

さらに、物体の定義される空間を分割することにより生
成される複数の領域のうちの1領域を担当して、この領
域を通過する光線と担当領域に含まれる物体との交差判
定処理を行なうことにより、各画素の輝度を計算する輝
度計算部3が複数個設けられている。この輝度計算部3
で計算された輝度を、画像として記憶する画像記憶部4
が設けられている。この画像記憶部4は、画像の合成を
行なう前に、総ての輝度を0に設定する。
Furthermore, one of the plurality of regions generated by dividing the space in which the object is defined is assigned to perform an intersection determination process between a ray passing through this region and an object included in the assigned region. Therefore, a plurality of brightness calculation units 3 for calculating the brightness of each pixel are provided. This brightness calculation unit 3
The image storage unit 4 that stores the brightness calculated in
Is provided. The image storage unit 4 sets all the luminances to 0 before the images are combined.

そして、これらの初期光線発生部1と物体情報設定部2
と複数の輝度計算部3と画像記憶部4との間で情報を伝
達するための接続線が設けられている。この接続線5を
介して、例えばキーボードから情報を入力するための、
情報入力部6が設けられている。
Then, these initial light ray generation unit 1 and object information setting unit 2
And a connection line for transmitting information between the plurality of brightness calculation units 3 and the image storage unit 4. For inputting information from, for example, a keyboard via this connection line 5,
An information input unit 6 is provided.

第1図(b)に示すように、輝度計算部3には、6方向に
隣接する領域を担当する輝度計算部3と、相互に通信を
行なう、相互通信手段31が設けられている。また、接続
線5を介して通信を行なう、通信手段32が設けられてい
る。さらに、輝度計算部3内での情報の伝達を行なうた
めの、接続線101が設けられている。
As shown in FIG. 1 (b), the brightness calculation section 3 is provided with a mutual communication means 31 for communicating with the brightness calculation section 3 in charge of areas adjacent in six directions. Further, a communication means 32 for communicating via the connection line 5 is provided. Further, a connection line 101 is provided for transmitting information in the brightness calculation section 3.

第2図は、画素p(i,j)の輝度Iの計算方法を示す、説明
図である。第2図に示すように、光線追跡法において
は、光源Lから画素p(i,j)を通って視点Eに至る光線の
経路を逆向きに辿って、画素p(i,j)の輝度の計算を行な
う。ここで、画素p(i,j)の輝度Iを、視点Eから画素p
(i,j)を通って逆向きに発生される光線Rの輝度と呼ぶ
ことにする。この光線Rの輝度Iとは、画素p(i,j)を通
って視点Eに入射する光の強度Iである。光線Rの輝度
Iは、次式で計算される。
FIG. 2 is an explanatory diagram showing a method of calculating the brightness I of the pixel p (i, j). As shown in FIG. 2, in the ray tracing method, the path of the ray from the light source L to the viewpoint E through the pixel p (i, j) is traced in the reverse direction, and the luminance of the pixel p (i, j) is calculated. Calculate. Here, the brightness I of the pixel p (i, j) is changed from the viewpoint E to the pixel p
It is called the brightness of the light ray R generated in the opposite direction through (i, j). The brightness I of the light ray R is the intensity I of the light that enters the viewpoint E through the pixel p (i, j). The brightness I of the ray R is calculated by the following equation.

これらの2つの入射光強度I′,RLを求めるために、交
点CPを始点として方向が となる2つ光線R′,RLを発生させる。また、輝度Iを
求めるためのI′,ILの係数を、光線R′,RLの減衰率
G′,GLとして設定する。すなわち、光線Rが物体Oに
衝突することにより減衰されて、光線R′,RLが発生さ
れるのである。これらの減衰率G′,GLは、 となる。これらの減衰率G′,GLを用いることにより、
光線Rの輝度Iすなわち画素p(i,j)の輝度Iは、次のよ
うに求められる。
In order to obtain these two incident light intensities I ′, RL , the direction from the intersection point CP as the starting point Two light rays R'and RL are generated. Also, I for obtaining the luminance I ', the coefficient of I L, light R', the attenuation rate of R L G ', is set as G L. That is, the light ray R is attenuated by colliding with the object O, and the light rays R'and RL are generated. These damping factors G ′ and G L are Becomes By using these attenuation factors G'and G L ,
The brightness I of the light ray R, that is, the brightness I of the pixel p (i, j) is obtained as follows.

I=G′*I′+GL*IL このように、新たな光線R′,RLが生成されると、光線
Rの情報は必要無くなる。
I = G ′ * I ′ + G L * I L When the new rays R ′ and RL are thus generated, the information of the ray R becomes unnecessary.

さらに第2図に示すように、光線R′が物体0′と交差
した場合は、同様に光線R″,RL′とが発生される。こ
れらの減衰率G″,GL′は、やはり同様に次式で計算さ
れる。
Further, as shown in FIG. 2, when the ray R'crosses the object 0 ', rays R "and RL ' are similarly generated. These attenuation rates G" and GL 'are also Similarly, it is calculated by the following formula.

このように、減衰率G″,GL′には、減衰率G′が積算
される。
In this way, the damping rate G ', GL ' is multiplied by the damping rate G '.

ただし、光線RLの処理は、光線R,R′とは異なる。光
線RLが物体と交差した場合には、交点CPはその物体の影
となり、光源Lの照明光を受けることができない。従っ
て、光線RLの輝度ILは0となる。もし光線RLがどの物体
とも交差しない場合には、光線RLの輝度ILは光源Lの輝
度となる。このように、物体へ向かう光線R,R′と光
源Lへ向かう光線RLとは扱いが異なるので、光線の種類
を区別する必要がある。そこで、光線Rに光線の種類を
区別するための種類Cを設定する。この種類Cは、光線
Rが物体に向かう場合には0、光源に向かう場合にはI
という値が与えられる。
However, the processing of the ray R L is different from the processing of the rays R and R ′. When the ray R L intersects the object, the intersection CP becomes a shadow of the object and cannot receive the illumination light of the light source L. Therefore, the brightness I L of the light ray R L becomes zero. If the ray R L does not intersect any object, the intensity I L of the ray R L will be the intensity of the light source L. Thus, light rays R towards the object, the handle is a ray R L where R 'and directed to the light source L are different, it is necessary to distinguish between the type of light. Therefore, a type C for distinguishing the types of light rays is set for the light ray R. This type C is 0 when the light ray R goes to the object, and I when it goes to the light source.
Is given.

第2図に示すように、物体へ向かう光線は、物体に衝突
する毎に新たな物体へ向かう光線を発生する。このた
め、1画素pの輝度Iを計算するために、多くの光線の
処理を行なわなければならない場合が生じる。しかし、
物体と衝突する毎に光線は減衰を受けるので、衝突回数
が多くなると、その光線が輝度Iに与える影響はほとん
ど無視できるようになる。
As shown in FIG. 2, a ray of light directed to the object generates a ray of light directed to a new object each time it collides with the object. Therefore, in order to calculate the brightness I of one pixel p, a large number of light rays need to be processed. But,
Since the light ray is attenuated each time it collides with an object, the influence of the light ray on the luminance I becomes almost negligible as the number of collisions increases.

そこで、光線Rの衝突回数を制限するために、光線Rに
回数Tを設定する。回数Tは、光線Rの可能な衝突回数
を示すものである。回数Tを持つ光線Rが物体に衝突し
て、物体に向かう光線R′が発生される場合、光線R′
の回数T′は(T-1)に設定される。もし、回数TがOの
光線Rが物体と衝突した場合には、物体に向かう光線
R′は発生されずに、光源Lへ向かう光線RLのみが発生
される。
Therefore, in order to limit the number of collisions of the light ray R, the number of times T is set for the light ray R. The number of times T indicates the number of possible collisions of the light ray R. When a ray R having a number of times T strikes an object and a ray R'to the object is generated, the ray R '
The number of times T'of is set to (T-1). If the ray R having the number T of 0 collides with the object, the ray R'to the object is not generated but only the ray R L to the light source L is generated.

なお、第2図では光線Lが1個しか存在しないが、複数
個の光源Li(i=1,2,…)が存在する場合は、すべ
ての光源Liへ向かう光線を発生しなければならない。と
ころで、光源へ向かう光線RLの場合には、前述の通り物
体と交差しても新たな光線の発生を行わないので、光源
RLの情報としての回数Tは意味を持たない。そこで、複
数個の光源Li 存在する場合には、光線RLの回数Tとして、その光線RL
が向かう光源の番号iを設定する。
Although there is only one light ray L in FIG. 2, if there are a plurality of light sources L i (i = 1, 2, ...), light rays traveling to all light sources L i must be generated. I won't. By the way, in the case of the light ray R L heading for the light source, a new light ray is not generated even if it intersects with the object as described above.
The number of times T as the information of R L has no meaning. Therefore, when there are a plurality of light sources L i as the number T of the ray R L, the ray R L
Set the number i of the light source to which

このように光線RLの回数Tを設定することにより、複数
個の光源Liが存在する場合でも、各光線RLが向かう光源
Liの番号iが分かるので、正しく処理を行うことができ
る。
By setting the number T of the light rays R L in this way, even when there are a plurality of light sources L i , the light sources to which the respective light rays R L go
Since the number i of L i is known, the processing can be performed correctly.

また、ここでは簡単のため物体の表面における反射のみ
を考えた。もし物体の透過も考慮する場合には、物体と
光線Rとの交点において、透過方向への光線を発生すれ
ばよい。ただし、この光線の種類は、物体へ向かう光線
であり、上述の光線R′と同様に処理すれば、正しく物
体の透過を表現できる。
For simplicity, only reflection on the surface of the object is considered here. If the transmission of the object is also taken into consideration, a ray in the transmission direction may be generated at the intersection of the object and the ray R. However, the type of this light ray is a light ray traveling toward the object, and if it is processed in the same manner as the above-mentioned light ray R ', the transmission of the object can be correctly expressed.

第3図は、光線Rを発生した際に設定すべき光線Rの情
報を示す、説明図である。第3図に示すように光線Rを
発生した際には、光線Rの情報として、光線Rを示す半
直線の始点位置座標(Sx,Sy,Sz)と方向(dx,dx,dz)と
が設定される。また、光線Rの輝度が影響を与える画素
p(i,j)の位置(i,j)も、光線Rの情報として設定され
る。さらに、光線Rの持つ減衰率Gと光線Rの回数Tと
光線Rの種類Cも光線Rの情報として設定される。
FIG. 3 is an explanatory diagram showing information on the light ray R to be set when the light ray R is generated. As shown in FIG. 3, when the light ray R is generated, as the information of the light ray R, the starting point position coordinates (S x , S y , S z ) of the half line indicating the light ray R and the directions (d x , d x , d z ) and are set. Also, the pixels affected by the brightness of the ray R
The position (i, j) of p (i, j) is also set as the information of the ray R. Further, the attenuation rate G of the light ray R, the number T of the light ray R, and the type C of the light ray R are also set as the information of the light ray R.

第4図は、光線Rが通過する単位立方体の列を、3次元
デジタル直線として発生するために、光線Rに設定され
る情報を示す、説明図である。ここで、x,y,z座標
軸に垂直で等間隔な複数の平面で物体定義空間を分割し
て生成される複数の立方体を、単位立方体と呼ぶ。第4
図に示すように、3次元デジタル直線として順番に発生
された単位立方体のうちで、最後に発生された単位立方
体の位置(Tx,Ty,Tz)が、光線Rの情報として設定され
る。すなわちこの位置(Tx,Ty,Tz)は、光線Rの現在の
位置を示しており、光線Rが物体定義空間を通過するの
に従って更新されていく。また、3次元デジタル直線を
順次発生するための誤差情報ERも、光線Rの情報として
設定される。この誤差情報ERを加算して判定することに
より、3次元デジタル直線を高速に発生できる。この誤
差情報ERの意味や計算方法については、文献3に詳述さ
れている。
FIG. 4 is an explanatory diagram showing information set in the light ray R in order to generate a row of unit cubes through which the light ray R passes as a three-dimensional digital straight line. Here, a plurality of cubes generated by dividing the object definition space by a plurality of planes that are perpendicular to the x, y, and z coordinate axes and are equally spaced apart are called unit cubes. Fourth
As shown in the figure, the position ( Tx , Ty , Tz ) of the last unit cube among the unit cubes sequentially generated as a three-dimensional digital straight line is set as the information of the ray R. It That is, this position ( Tx , Ty , Tz ) indicates the current position of the ray R, and is updated as the ray R passes through the object definition space. Further, the error information ER for sequentially generating the three-dimensional digital straight line is also set as the information of the light ray R. A three-dimensional digital straight line can be generated at high speed by adding the error information ER and making a determination. The meaning and calculation method of this error information ER is described in detail in Reference 3.

第5図は、初期光線発生部1の動作を説明するための、
説明図である。第5図に示すように、初期光線発生部1
において、視点Eを始点として、画像Pを構成する各画
素p(i,j)を通る半直線としての光線Rを発生する。
FIG. 5 is a diagram for explaining the operation of the initial light ray generation unit 1.
FIG. As shown in FIG. 5, the initial light beam generation unit 1
At, a ray R is generated as a half line passing through each pixel p (i, j) forming the image P, starting from the viewpoint E.

そのために、初期光線発生部1には、情報入力部6によ
り、視点Eの位置座標(Ex,Ey,Ez)が入力される。ま
た、合成される画像Pを定義する情報として、画像Pの
平面と範囲を示すパラメータが、情報入力部6から入力
される。初期光線発生部1では、これらのパラメータに
基づいて、光線Rの情報の発生を行なう。この光線Rを
示す半直線を求める方法の一例は、文献4:ティー・ホ
ィッテッド(T.Whitted)著、コミュニケーション オ
ブ エーシーエム(Communication of ACM)、第23巻、
第6号、343頁から349頁、論文「アン インプルーブド
イルミネーション モデル フォア シェーディッド
ディスプレイ(An Improved Illumination Model for
Shaded Display)」記載されている。
Therefore, the position coordinate (E x , E y , E z ) of the viewpoint E is input to the initial ray generation unit 1 by the information input unit 6. In addition, as information defining the image P to be combined, parameters indicating the plane and range of the image P are input from the information input unit 6. The initial ray generator 1 generates information on the ray R based on these parameters. An example of a method for obtaining the half line indicating the ray R is described in Reference 4: T. Whitted, Communication of ACM, Volume 23,
No. 6, pp. 343 to 349, Paper "An Improved Illumination Model for For Shaded Display
Shaded Display) ".

次に、この半直線の始点となる視点Eの位置座標(Ex,E
y,Ez)を、光線Rの始点位置座標(Sx,Sy,Sz)として設
定し、視点Eから画素pに向かう方向を、光線Rの方向
(dx,dy,dz)として設定する。また、画素p(i,j)の位置
(i,j)が、光線Rの画素位置(i,j)として設定される。
Next, the position coordinates (E x , E
y , E z ) as the starting point position coordinates (S x , S y , S z ) of the ray R, and the direction from the viewpoint E toward the pixel p is the direction of the ray R (d x , d y , d z). ). Also, the position of pixel p (i, j)
(i, j) is set as the pixel position (i, j) of the ray R.

初期光線発生部1では、発生される光線Rの減衰率Gは
1、すなわちまったく減衰を受けていない状態に設定さ
れる。また、回数Tとしては、情報入力部6から初期光
線発生部1に予め設定された定数値が与えられる。さら
に、種類Cとしては、物体へ向かう光線を示す0の値が
与えられる。
In the initial light ray generation unit 1, the attenuation rate G of the generated light ray R is set to 1, that is, a state in which the light ray R is not attenuated at all. Further, as the number of times T, a constant value preset in the initial light ray generation unit 1 is given from the information input unit 6. Furthermore, as the type C, a value of 0 indicating a light ray toward the object is given.

また、こうして発生される光線Rと物体定義空間との交
点のうちで、最も視点に近い交点の位置座標(tx,ty,
tz)を求める。この位置座標(tx,ty,tz)を整数化し
て、この交点を含む単位立方体を求めて、これを光線R
の情報としての位置(Tx,Ty,Tz)として設定する。この
位置(Tx,Ty,Tz)は、光線Rが最初に物体定義空間に入
射する位置の単位立方体を示している。そして、この単
位立方体を最初の単位立方体として、物体定義空間内に
おいて光線Rが通過する単位立方体の列が、各輝度計算
部3において3次元デジタル直線として発生される。
Further, among the intersections of the ray R generated in this way and the object definition space, the position coordinates (t x , t y ,
t z ). The position coordinates (t x , t y , t z ) are converted into an integer, a unit cube including this intersection is obtained, and this is a ray R
It is set as the position (T x , T y , T z ) as the information of. This position (T x , T y , T z ) indicates a unit cube at which the ray R first enters the object definition space. Then, with this unit cube as the first unit cube, a row of unit cubes through which the ray R passes in the object definition space is generated in each luminance calculation unit 3 as a three-dimensional digital straight line.

その後の処理において、光線Rが領域Sを通過して領域
S′に入射する場合には、光線Rの情報は輝度計算部3
間で転送される。その際に、光線Rの情報として3次元
デジタル直線の現在の位置(Tx,Ty,Tz)は、新たな領域
S′と光線Rとの交点を含む単位立方体の位置に更新さ
れる。
In the subsequent processing, when the light ray R passes through the area S and is incident on the area S ′, the information of the light ray R is obtained by the luminance calculation unit 3
Transferred between. At that time, the current position ( Tx , Ty , Tz ) of the three-dimensional digital straight line as the information of the ray R is updated to the position of the unit cube including the intersection of the new area S'and the ray R. .

さらに初期光線発生部1では、3次元デジタル直線を順
次発生するための誤差情報ERの初期値が計算されて、光
線Rの誤差情報ERとして設定される。この初期値の計算
方法は、前述の通り文献3に詳述されている。
Further, in the initial ray generation unit 1, the initial value of the error information ER for sequentially generating the three-dimensional digital straight line is calculated and set as the error information ER of the ray R. The method of calculating this initial value is described in detail in Document 3 as described above.

初期光線発生部1では、このような情報を持つ光線R
が、画像Pのすべての画素p(i,j)に対応して発生され
て、輝度計算部3へ転送される。
The initial ray generator 1 has a ray R having such information.
Are generated corresponding to all the pixels p (i, j) of the image P and are transferred to the luminance calculation unit 3.

第6図は、物体情報設定部2に設定される物体の情報を
示す説明図である。説明を簡単にするために、表示され
る物体を球に限定して説明を行なうが、多面体や自由曲
面などの物体を表示する場合も、ほぼ同様に行なうこと
ができる。
FIG. 6 is an explanatory diagram showing the information of the object set in the object information setting unit 2. For simplicity of explanation, the displayed object is limited to a sphere, but the same can be applied to the case of displaying an object such as a polyhedron or a free-form surface.

第6図に示すように、情報入力部6から物体の情報が入
力されて、物体情報設定部2に設定される。設定される
物体iの情報は、物体iを区別するための物体番号ni
物体としての球の中心座標(xi,yi,zi)、半径ri、物体
の材質を示す拡散係数difi、反射係数refiである。さら
に、物体iの外接領域を示す情報と、物体を含む最小の
直方体の範囲が設定される。
As shown in FIG. 6, object information is input from the information input unit 6 and set in the object information setting unit 2. The information of the object i to be set is the object number n i for distinguishing the object i ,
The center coordinates (x i , y i , z i ) of the sphere as the object, the radius r i , the diffusion coefficient difi i indicating the material of the object, and the reflection coefficient ref i . Further, information indicating the circumscribed area of the object i and the minimum rectangular parallelepiped range including the object are set.

第7図は、物体としての球の外接領域を示す、説明図で
ある。第7図に示すように、物体iの外接領域は、x方
向の範囲(xi-,xi+)、y方向の範囲(yi-,yi+)、z
方向の範囲(zi-,zi+)で示される、複数の単位立方体
から成る直方体である。これらの値は整数値であり、次
式で求められる。
FIG. 7 is an explanatory diagram showing a circumscribing region of a sphere as an object. As shown in FIG. 7, the circumscribed area of the object i is a range in the x direction (x i- , x i + ), a range in the y direction (y i- , y i + ), z
It is a rectangular parallelepiped consisting of multiple unit cubes, which is indicated by the range of directions (z i- , z i + ). These values are integer values and are calculated by the following formula.

xi-=floor(xi-ri) xi+=ceil(xi+ri) yi-=floor(yi-ri) yi+=ceil(yi+ri) zi-=floor(zi-ri) zi+=ceil(zi+ri) floor(a):aより大きくない最大の整数値 ceil(a):aより小さくない最小の整数値 第8図は、物体情報設定部2に設定される光源の情報を
示す、説明図である。説明を簡単にするために、点光源
のみに限定して説明を行なうが、平行光線やスポットラ
イトなどの各種照明光を扱う場合も、ほぼ同様に行なう
ことができる。第8図に示すように、情報入力部6から
物体の照明としての光源の情報が入力されて、物体情報
設定部2に設定される。設定される光源の情報は、点光
源iの位置座標(xi,yi,zi)、光源の輝度ILiである。
この輝度ILiは、0から1の実数値である。この輝度ILi
の値は、光源の明るさを示すものであり、1のときが最
も明るく、0のときが真っ暗な光源となる。
x i- = floor (x i -r i ) x i + = ceil (x i + r i ) y i- = floor (y i -r i ) y i + = ceil (y i + r i ) z i- = floor (z i -r i ) z i + = ceil (z i + r i ) floor (a): maximum integer value not greater than a ceil (a): minimum integer value not less than a It is an explanatory view showing the information on the light source set in the object information setting unit 2. For the sake of simplicity, the description is limited to the point light source only, but the same can be applied to the case of handling various types of illumination light such as parallel rays and spot lights. As shown in FIG. 8, the information of the light source as the illumination of the object is input from the information input unit 6 and set in the object information setting unit 2. The information on the light source to be set is the position coordinates (x i , y i , z i ) of the point light source i and the brightness I Li of the light source.
This brightness I Li is a real value from 0 to 1. This brightness I Li
The value of indicates the brightness of the light source, where 1 is the brightest and 0 is the darkest light source.

こうして設定された物体情報と光源情報とは、物体情報
設定部2から接続線5を介して輝度計算部3に伝達され
る。
The object information and the light source information set in this manner are transmitted from the object information setting unit 2 to the brightness calculation unit 3 via the connection line 5.

第9図は、複数の輝度計算部3を3次元配列状に結合す
る方法を示す説明図である。第9図に示すように、輝度
計算部3は、輝度計算部3内に設けられた相互通信手段
31を介して、3次元配列状に結合されている。すなわ
ち、各輝度計算部3はそれぞれx,y,z方向の両側の
輝度計算部3と接続されており、それらの輝度計算部3
と相互に情報を伝達することができる。ここで、x,
y,z方向のa,b,c番めの輝度計算部3を(a,b,c)
輝度計算部3と呼ぶことにすると、(a,b,c)輝度計算部
3は、(a-1,b,c),(a+1,b,c),(a,b-1,c),(a,b+1,c),(a,
b,c-1),(a,b,c+1)輝度計算部3と接続されている。
FIG. 9 is an explanatory diagram showing a method of connecting a plurality of brightness calculation units 3 in a three-dimensional array. As shown in FIG. 9, the brightness calculation section 3 is an intercommunication means provided in the brightness calculation section 3.
It is connected through 31 through a three-dimensional array. That is, each brightness calculation unit 3 is connected to the brightness calculation units 3 on both sides in the x, y, and z directions, and the brightness calculation units 3 are connected.
And can mutually communicate information. Where x,
The a, b, and c-th luminance calculation units 3 in the y and z directions are set to (a, b, c)
When referred to as the brightness calculation unit 3, the (a, b, c) brightness calculation unit 3 calculates (a-1, b, c), (a + 1, b, c), (a, b-1, c), (a, b + 1, c), (a,
b, c-1), (a, b, c + 1) connected to the brightness calculation unit 3.

また、輝度計算部3は図中のx,y,z方向にそれぞれA,B,C
個ずつ並んでおり、全部の輝度計算部3の個数Dは、 D=A*B*C となる。
In addition, the brightness calculation unit 3 uses A, B, and C in the x, y, and z directions in the figure, respectively.
They are arranged one by one, and the number D of all the brightness calculation units 3 is D = A * B * C.

第10図は、物体を定義する空間を、各輝度計算部3に割
り当てられる担当領域Sに分割する方法を示す。説明図
である。第10図に示すように、単位立方体の境界面とな
る複数の平面のうちの一部または全部の平面により、物
体定義空間を複数の直方体形状の領域に分割する。この
ような分割を行うことにより、各領域を製造個個または
1個の単位立方体で構成することができる。
FIG. 10 shows a method of dividing the space defining the object into the assigned areas S assigned to the respective brightness calculation sections 3. FIG. As shown in FIG. 10, the object definition space is divided into a plurality of rectangular parallelepiped-shaped regions by some or all of the plurality of planes serving as the boundary surface of the unit cube. By performing such division, each region can be configured by a manufacturing unit or one unit cube.

またこの場合に、x方向の領域数がA個、y方向の領域
数がB個、z方向の領域数がC個となるように、分割を
行なう。そして、(a,b,c)輝度計算部3に、x方向のa
番め、y方向のb番め、z方向のc番めの領域を割り当
てる。これにより、分割されたすべての領域をそれぞれ
1個の輝度計算部3に割り当てることができる。
Further, in this case, the division is performed so that the number of regions in the x direction is A, the number of regions in the y direction is B, and the number of regions in the z direction is C. Then, the (a, b, c) luminance calculation unit 3 displays a in the x direction.
The numbered area, the b-th area in the y direction, and the c-th area in the z direction are allocated. As a result, all the divided areas can be assigned to one brightness calculation section 3.

また、このような割り当てを行なうことにより、相互通
信手段31を介して接続された輝度計算部3は、それぞれ
隣接する領域を担当することになる。
Further, by performing such allocation, the brightness calculation units 3 connected via the mutual communication means 31 are in charge of the adjacent regions.

第11図および第12図は、輝度計算部3に担当領域Sを示
す領域情報の内容を示す説明図である。第11図に示すよ
うに、輝度計算部3に設けられた領域情報記憶手段33に
は、その輝度計算部3の担当領域Sを示す領域情報が記
憶される。この領域情報としては、x,y,z方向の何
番めかを示す(a,b,c)の値値と、第12図に示すような担
当領域Sのx,y,z方向の範囲(x-,x+),(y-,y+),(z-,
z+)とが記憶される。各領域が複数個または1個の単位
立方体から構成されているので、これらの範囲を示す値
は整数値となる。
11 and 12 are explanatory diagrams showing the contents of the area information indicating the area S in charge in the brightness calculation section 3. As shown in FIG. 11, the area information storage means 33 provided in the brightness calculation section 3 stores area information indicating the area S in charge of the brightness calculation section 3. As the area information, the value of (a, b, c) indicating the number in the x, y, z direction and the range in the x, y, z direction of the area S in charge as shown in FIG. 12 ( x -, x +), ( y -, y +), (z -,
z + ) and are memorized. Since each area is composed of a plurality of or one unit cube, the value indicating these ranges is an integer value.

さらに、3次元配列の外周に存在する輝度計算部3にお
いては、相互通信手段31により輝度計算部3が接続され
ていない場合がある。そこで、相互通信手段31により接
続されている各方向に、実際に輝度計算部3が接続され
ているかいないかが、有無の情報として、領域情報記憶
手段33に記憶される。
Further, in the brightness calculation unit 3 existing on the outer periphery of the three-dimensional array, the brightness calculation unit 3 may not be connected by the mutual communication means 31. Therefore, whether or not the brightness calculation section 3 is actually connected in each direction connected by the mutual communication means 31 is stored in the area information storage means 33 as information on the presence or absence.

これらの領域情報は、情報入力手段6から入力されて、
各輝度計算部3に伝達される。
These area information is input from the information input means 6,
It is transmitted to each brightness calculation unit 3.

第13図は、初期光線発生部1から輝度計算部3への光線
Rの情報の転送処理を示す説明図である。第13図に示す
ように、初期光線発生部1で発生されたすべての光線R
の情報は、接続線5を介してすべての輝度計算部3へ一
斉に転送される。そして、各輝度計算部3に設けられた
初期情報判定手段38は、初期光線発生部1から転送され
た光線Rの情報が、通信手段32を介して入力される。同
時に、領域情報記憶部33に記憶された担当領域Sの情報
が、この初期情報判定手段38によって読み出される。
FIG. 13 is an explanatory diagram showing a process of transferring the information of the light ray R from the initial light ray generating section 1 to the luminance calculating section 3. As shown in FIG. 13, all rays R generated by the initial ray generator 1
The information of 1 is simultaneously transferred to all the brightness calculation units 3 via the connection line 5. Then, the information of the light ray R transferred from the initial light ray generation section 1 is input to the initial information determination means 38 provided in each luminance calculation section 3 via the communication means 32. At the same time, the information of the area S in charge stored in the area information storage unit 33 is read by the initial information determination means 38.

こうして入力された光線Rの位置(Tx,Ty,Tz)は、光線
Rが最初に物体定義空間に入射する位置に設定されてい
る。このため、もしこの位置(Tx,Ty,Tz)が担当領域S
に含まれていれば、光線Rは担当領域Sを最初に通過す
ることになる。
The position (T x , T y , T z ) of the ray R input in this way is set to the position where the ray R first enters the object definition space. Therefore, if this position (T x , T y , T z ) is the area S in charge
, The light ray R first passes through the area S in charge.

そこで、初期情報判定手段38は、光線Rの位置(Tx,Ty,
Tz)と担当領域Sの範囲(x-,x+),(y-,y+),(z-,z+)との
比較を行う。
Therefore, the initial information determination means 38 determines the position (T x , T y ,
T z ) and the ranges (x , x + ), (y , y + ), (z , z + ) of the area S in charge are compared.

x-≦Tx<x+ y-≦Ty<y+ z-≦Tz<z+ という3条件式のすべてが満たされる場合、位置(Tx,T
y,Tz)は担当領域Sに含まれており、光線Rは担当領域
Sを最初に通過することになる。この場合、初期情報判
定手段38から光線Rの情報が光線情報記憶手段34に転送
されて、記憶される。
If all three conditional expressions x - ≤ T x <x + y - ≤ T y <y + z - ≤ T z <z + are satisfied, the position (T x , T
y , T z ) is included in the area S in charge, and the light ray R first passes through the area S in charge. In this case, the information of the light ray R is transferred from the initial information determination means 38 to the light ray information storage means 34 and stored therein.

また、これらの条件式のうちのどれかが成り立たない場
合、光線Rは他の担当領域S′に最初に入射しているこ
とになる。従って、光線Rの情報はこの輝度計算部3に
は記憶されない。
If any of these conditional expressions does not hold, the light ray R is first incident on the other area S'in charge. Therefore, the information of the light ray R is not stored in the brightness calculation unit 3.

以上の処理により、初期光線発生部1で発生された光線
Rの情報は、最初に入射する領域を担当する輝度計算部
3の、光線情報記憶手段34に記憶される。
Through the above processing, the information of the light ray R generated by the initial light ray generation unit 1 is stored in the light ray information storage unit 34 of the brightness calculation unit 3 which is in charge of the first incident area.

第14図は、輝度計算部3に設けられた物体情報記憶手段
35と光源情報記憶手段36に、物体情報設定部2から、物
体情報と光源情報とを記憶させる処理を示す説明図であ
る。第14図に示すように、物体情報設定部2に記憶され
たすべての物体情報と光源情報は、接続線5を介してす
べての輝度計算部3へ一斉に転送される。輝度計算部3
に設けられた光源情報記憶手段36は、通信手段32を介し
て転送された光源情報をすべて記憶する。
FIG. 14 is an object information storage means provided in the brightness calculation section 3.
It is explanatory drawing which shows the process which memorize | stores object information and light source information from the object information setting part 2 in 35 and the light source information storage means 36. As shown in FIG. 14, all the object information and the light source information stored in the object information setting unit 2 are simultaneously transferred to all the brightness calculation units 3 via the connection line 5. Luminance calculator 3
The light source information storage means 36 provided in the memory stores all the light source information transferred via the communication means 32.

また、輝度計算部3に設けられた初期情報判定手段38
は、まず通信手段32を介して転送される物体情報を受け
取る。次に、領域情報記憶手段33から、輝度計算部3の
担当領域Sの範囲を読み出す。この担当領域Sの範囲(x
-,x+),(y-,y+),(z-,z+)と物体情報の外接領域の範囲(x
i-,xi+),(yi-,yi+),(zi-,zi+)とが比較される。
In addition, the initial information determination means 38 provided in the brightness calculation unit 3
First receives the object information transferred via the communication means 32. Next, the range of the area S in charge of the brightness calculation unit 3 is read from the area information storage unit 33. Range of this area S (x
-, x +), (y -, y +), (z -, the range of the circumscribed area of z +) and object information (x
i- , x i + ), (y i- , y i + ), (z i- , z i + ) are compared.

第15図(a),(b)は、輝度計算部3の担当領域Sと、物体
情報の外接領域との比較処理を示す、説明図である。第
15図(a),(b)に示すように、担当領域Sと外接領域とが
共通部分を持たない場合には、以下の条件式のうちの少
なくとも1つが成立する。
FIGS. 15 (a) and 15 (b) are explanatory views showing the comparison processing of the area S in charge of the brightness calculation unit 3 and the circumscribed area of the object information. First
As shown in FIGS. 15A and 15B, when the area S in charge and the circumscribed area do not have a common part, at least one of the following conditional expressions is satisfied.

x-≧xi+ x+≦xi- y-≧yi+ y+≦yi- z-≧zi+ x+≦zi- そこで、初期情報判定手段38では、これらの条件式が評
価されて、担当領域Sと外接領域とが共通部分を持つか
どうかが求められる。その結果、共通部分を持つ場合に
は、担当領域S内に物体iが含まれていると判定され
て、物体情報記憶手段35に、物体iの情報がすべて記憶
される。共通部分を持たない場合には、記憶されない。
x - ≥ x i + x + ≤ x i- y - ≥ y i + y + ≤ y i- z - ≥ z i + x + ≤ z i- Therefore, the initial information determination means 38 evaluates these conditional expressions. , It is required to determine whether the area S in charge and the circumscribed area have a common part. As a result, if there is a common part, it is determined that the object i is included in the area S in charge, and all the information of the object i is stored in the object information storage means 35. If there is no common part, it is not stored.

以上の処理により、物体情報設定部2に記憶された物体
情報のうちで、担当領域S内に含まれる物体情報のみ
が、輝度計算部3に設けられた物体情報記憶手段35に記
憶される。
Through the above processing, of the object information stored in the object information setting unit 2, only the object information included in the area S in charge is stored in the object information storage unit 35 provided in the brightness calculation unit 3.

第16図(a),(b)は、輝度計算部3に設けられた存在範囲
決定手段40における、物体の存在範囲の決定方法を示す
説明図である。第16図(a)に示すように、まず存在範囲
決定手段40は、物体情報記憶手段35に記憶された物体情
報と、領域情報記憶手段33に記憶された担当領域Sの範
囲とを読み出す。そして、物体情報としての物体iの外
接領域の範囲(x-,x+),(y-,y+),(z-,z+)と、担当領域S
の範囲(xi-,xi+),(yi-,yi+),(zi-,zi+)とを比較して、
担当領域Sにおける各物体の存在範囲(x′i-,
x′i+),(y′i-,y′i+),(z′i-,z′i+)を次
のように決定する。
16 (a) and 16 (b) are explanatory views showing a method of determining the existence range of an object in the existence range determination means 40 provided in the brightness calculation section 3. As shown in FIG. 16 (a), first, the existence range determination means 40 reads out the object information stored in the object information storage means 35 and the range of the assigned area S stored in the area information storage means 33. The scope of the circumscribed area of the object i as object information (x -, x +), (y -, y +), (z -, z +) and in charge area S
Of the range (x i- , x i + ), (y i- , y i + ), (z i- , z i + ),
Existence range (x ′ i− ,
x ′ i + ), (y ′ i− , y ′ i + ) and (z ′ i− , z ′ i + ) are determined as follows.

x-≧xi-ならばx′i-=x- x-<xi-ならばx′i-=xi- x+≦xi+ならばx′i+=x+ x+>xi+ならばx′i+=xi+ y-≧yi-ならばy′i-=y- y-<yi-ならばy′i-=yi- y+≦yi+ならばy′i+=y+ y+>yi+ならばy′i+=yi+ z-≧zi-ならばz′i-=z- z-<zi-ならばz′i-=zi- z+≦zi+ならばz′i+=z+ z+>zi+ならばz′i+=zi+ なお、ここでは簡単のために物体iの外接領域と担当領
域Sとの共通部分を、物体iの存在領域として決定し
た。しかし、第16図(b)に示すように物体iの存在範囲
をより小さい直方体で表現できる場合には、これを存在
範囲として決定しても良い。
x - ≧ x i- if x 'i- = x - x - <x i- if x' i- = x i- x + ≦ x i + if x 'i + = x + x +> if x i + if x 'i + = x i + y - ≧ y i- if y' i- = y - y - <y i- if y 'i- = y i- y + ≦ y i + if y' i + = y + y +> y i + if y 'i + = y i + z - ≧ z i- if z' i- = z - z - <z i- if z 'i- = z i- z + ≦ z i + Then, if z ′ i + = z + z + > z i +, then z ′ i + = z i + Here, for simplification, the common part between the circumscribed area of the object i and the area S in charge is defined as the existence area of the object i. Were determined. However, if the existence range of the object i can be represented by a smaller rectangular parallelepiped as shown in FIG. 16 (b), this may be determined as the existence range.

そして、存在範囲決定手段40はこのように決定した物体
iの存在範囲(x′i-,x′i+),(y′i-,y′i+),
(z′i-,z′i+)を、存在範囲記憶手段41に記憶させ
る。
The existence range determining means 40 existence range of the object i determined in this way (x 'i-, x' i +), (y 'i-, y' i +),
(Z ′ i− , z ′ i + ) is stored in the existence range storage means 41.

第17図は、輝度計算部3における光線Rの情報の処理方
法を示す、説明図である。第17図に示すように、光線情
報記憶手段34に記憶された光線Rの情報は、まず交差判
定手段39に読み出されて記憶される。この交差判定手段
39は、光線Rの情報を物体選択手段42と直線発生手段43
へ伝達する。この伝達された光線Rの情報を受けて、物
体選択手段42は、まず存在範囲記憶手段41から各物体i
の存在範囲(x′i-,x′i+),(y′i-,y′i+),
(z′i-,z′i+)を読み出して記憶する。そして、各
物体iに対応するフラグFiを、0に設定する。このフラ
グFiは、物体選択手段42の内部に設けられており、光線
Rの情報を受ける毎に0に設定される。
FIG. 17 is an explanatory diagram showing a method of processing the information of the light ray R in the brightness calculation section 3. As shown in FIG. 17, the information of the light ray R stored in the light ray information storage means 34 is first read out and stored in the intersection determination means 39. This intersection determination means
Reference numeral 39 denotes the information of the light ray R based on the object selecting means 42 and the straight line generating means 43.
Communicate to. Receiving the information of the transmitted light ray R, the object selecting means 42 first uses the existence range storing means 41 to detect each object i.
Existing range (x ′ i− , x ′ i + ), (y ′ i− , y ′ i + ),
(Z ′ i− , z ′ i + ) is read and stored. Then, the flag F i corresponding to each object i is set to 0. The flag F i is provided inside the object selecting means 42 and is set to 0 every time the information of the light ray R is received.

さらに物体選択手段42は、光線Rが交差する可能性のあ
る物体iを選択するために、光線Rの情報としての光線
Rの位置(Tx,Ty,Tz)と、各物体iの存在範囲
(x′i-,x′i+),(y′i-,y′i+),(z′i-,
z′i+)とを比較する。ただし、物体iに対応するフラ
グFiの値が1の場合には、この物体iについての交差判
定処理は既に行われているので、比較を行わない。も
し、 x′i-≦Tx<x′i+ y′i-≦Ty<y′i+ z′i-≦Tz<z′i+ という3条件のすべてが成り立つ場合には、光線Rが通
過する単位立方体が物体iの存在範囲に含まれているこ
とになる。従って、この物体iは光線Rと交差する可能
性がある。そこで、物体iの番号iを交差判定手段39に
転送する。同時に、フラグFiを1に設定する。このよう
にフラグFiが1に設定された物体iの情報は、以後の処
理では比較を行わない。この操作により、同じ物体iの
番号iを1つの光線Rに関して何度も交差判定手段39に
転送してしまうことを防止している。
Further, the object selecting means 42 selects the position of the light ray R (T x , T y , T z ) as the information of the light ray R and the object i of each of the objects i in order to select the object i in which the light ray R may intersect. Existence range (x ′ i− , x ′ i + ), (y ′ i− , y ′ i + ), (z ′ i− ,
z'i + ). However, when the value of the flag F i corresponding to the object i is 1, the intersection determination process for this object i has already been performed, and therefore the comparison is not performed. If all three conditions of x ′ i− ≦ T x <x ′ i + y ′ i− ≦ T y <y ′ i + z ′ i− ≦ T z <z ′ i + are satisfied, the ray R passes through. The unit cube to be included is included in the existence range of the object i. Therefore, this object i may intersect the ray R. Therefore, the number i of the object i is transferred to the intersection determination means 39. At the same time, the flag F i is set to 1. In this way, the information of the object i whose flag F i is set to 1 is not compared in the subsequent processing. By this operation, it is possible to prevent the number i of the same object i from being repeatedly transferred to the intersection determination means 39 for one ray R.

このような処理を各物体iについておこなった後に、物
体選択手段42は直線発生手段43に制御情報を送る。この
制御情報を受けた直線発生手段43は、光線Rが通過する
次の単位立方体を発生する。
After performing such processing for each object i, the object selecting means 42 sends the control information to the straight line generating means 43. Upon receiving this control information, the straight line generating means 43 generates the next unit cube through which the light ray R passes.

第18図(a),(b)は、直線発生手段43における直線の発生
方法を示す説明図である。第18図(a),(b)に示すよう
に、まず直線発生手段43は光線Rの情報を交差判定手段
39から受けて、この情報を記憶する。そして、物体選択
手段42からの制御情報を受ける毎に、記憶している光線
Rの情報である誤差情報ERの加算判定処理により、光線
Rの通過する単位立方体を1つ発生する。
18 (a) and 18 (b) are explanatory views showing a straight line generating method in the straight line generating means 43. FIG. As shown in FIGS. 18 (a) and 18 (b), first, the straight line generation means 43 determines the information of the light ray R by the intersection determination means.
Remember this information, received from 39. Then, each time the control information from the object selecting means 42 is received, one unit cube through which the light ray R passes is generated by the addition determination processing of the error information ER which is the information of the stored light ray R.

このような単位立方体を発生するために、直線発生手段
43はまず誤差情報ERの加算判定処理を行い、その結果に
基づいて誤差情報ERの更新処理を行う。次に、直線発生
手段43は、この加算判定処理結果に基づいて、単位立方
体を発生する座標軸を、x,y,z座標軸の中から選択
して決定し、選択情報SELを決定する。この選択情報SEL
の値は0,1,2のうちのどれかであり、これらの値は
それぞれx,y,z座標軸を示している。同時に、直線
発生手段43は発生する単位立方体の方向DIRも決定す
る。この方向DIRの値は1または−1である。これらの
値の決定方法は、前述の通り文献3に示されている。
In order to generate such a unit cube, straight line generating means
43 first performs an addition determination process of the error information ER, and updates the error information ER based on the result. Next, the straight line generating means 43 selects and determines the coordinate axis for generating the unit cube from the x, y, z coordinate axes based on the result of the addition determination processing, and determines the selection information SEL. This selection information SEL
Has a value of 0, 1 or 2, and these values respectively indicate x, y and z coordinate axes. At the same time, the straight line generating means 43 also determines the direction DIR of the generated unit cube. The value of this direction DIR is 1 or -1. The method for determining these values is shown in Document 3 as described above.

例えば、第18図(a)に示すように単位立方体(Tx,Ty,
Tz)の次の単位立方体を発生する場合に、直線発生手段
43における光線Rの誤差情報ERの加算判定処理によっ
て、選択情報SELを0、方向DIRを1に決定した場合に
は、直線発生手段43は、単位立方体(Tx+1,Ty,Tz
を発生する。また、選択情報SELを0に、方向DIRを−1
に決定した場合には、直線発生手段43は、単位立方体
(Tx−1,Ty,Tz)を発生する。
For example, as shown in FIG. 18 (a), a unit cube (T x , T y ,
Straight line generating means when generating the next unit cube of T z ).
When the selection information SEL is determined to be 0 and the direction DIR is determined to be 1 by the addition determination processing of the error information ER of the light ray R in 43, the straight line generation means 43 determines the unit cube (T x +1, T y , T z ).
To occur. Also, the selection information SEL is set to 0 and the direction DIR is set to -1.
If it is determined to be, the straight line generating means 43 generates a unit cube ( Tx- 1, Ty , Tz ).

そして、直線発生手段43は、記憶している光線Rの情報
のうちの位置(Tx,Ty,Tz)を、新たに発生した単位立方
体(Tx′,Ty′,Tz′)に変更する。こうすることによ
り光線Rの位置(Tx,Ty,Tz)が更新されて、この位置
(Tx,Ty,Tz)が、3次元デジタル直線としての単位立方
体の列の最後の単位立方体を示すようになる。
Then, the straight line generation means 43 uses the newly generated unit cube (T x ′, T y ′, T z ′) at the position (T x , T y , T z ) in the stored information of the light ray R. ). By doing this, the position (T x , T y , T z ) of the ray R is updated, and this position (T x , T y , T z ) is the last of the column of the unit cube as a three-dimensional digital straight line. It comes to show a unit cube.

また直線発生手段43は、決定した選択情報SELと方向DIR
とに基づいて、新たな光線Rの位置(Tx,Ty,Tz)が担当
領域Sの範囲内であるか範囲外であるかを判定する。そ
して、範囲外であると判定した場合には光線Rの通過方
向を決定して、光線Rの情報と通過方向とを光線情報転
送手段44へ送る。
The straight line generating means 43 also determines the selected selection information SEL and the direction DIR.
Based on and, it is determined whether the position (T x , T y , T z ) of the new ray R is within the range of the assigned area S or outside the range. When it is determined that the light ray R is out of the range, the passing direction of the light ray R is determined, and the information of the light ray R and the passing direction are sent to the light ray information transfer means 44.

例えば、第18図(b)に示すように、発生された単位立方
体が担当領域Sの範囲外の場合には、単位立方体が発生
された方向が、光線Rの通過方向となる。
For example, as shown in FIG. 18 (b), when the generated unit cube is outside the range of the area S in charge, the direction in which the unit cube is generated becomes the passage direction of the light ray R.

このような判定を行うために、直線発生手段43は、選択
情報SELと方向DIRとで示される担当領域Sの範囲の値
を、領域情報記憶手段33から読み出す。そして、この値
と位置(Tx,Ty,Tz)のうちの選択情報SELで示される値
との比較により、発生された単位立方体が担当領域Sの
範囲内か範囲外かを判定する。
In order to make such a determination, the straight line generation means 43 reads the value of the range of the assigned area S indicated by the selection information SEL and the direction DIR from the area information storage means 33. Then, by comparing this value with the value indicated by the selection information SEL of the positions (T x , T y , T z ), it is determined whether the generated unit cube is within or outside the area S in charge. .

例えば、第18図(a)に示すように選択情報SELが0で方向
DIRが1の場合には、範囲のx+の値を読み出す。この値x
+と位置(Tx,Ty,Tz)のうちの選択情報SELで示される値
Txとを比較して、次のように判定する。
For example, as shown in FIG. 18 (a), the selection information SEL is 0 and the direction is
When DIR is 1, the value of x + in the range is read. This value x
Value indicated by selection information SEL between + and position (T x , T y , T z ).
It is compared with T x and judged as follows.

Tx>x+のとき 範囲外 Tx≦x+のとき 範囲内 また、選択情報SELが0で方向DIRが−1の場合には、範
囲のx-の値を読み出す。この値x-と位置(Tx,Ty,Tz)の
うちの選択情報SELで示される値Txとを比較して、次の
ように判定する。
When T x > x + Out of range When T x ≦ x + In range When the selection information SEL is 0 and the direction DIR is −1, the value of x − in the range is read. This value x - a position (T x, T y, T z) is compared with the value T x indicated by the selection information SEL of the judges as follows.

Tx<x-のとき 範囲外 Tx≧x-のとき 範囲内 こうして、直線発生手段43が位置(Tx,Ty,Tz)を範囲内
と判定した場合には、更新された光線Rの位置(Tx,Ty,
Tz)を物体選択手段42に送る。これを受けた物体選択手
段42は、新たな位置(Tx,Ty,Tz)と各物体iの存在範囲
との比較処理を行い、光線Rと交差する可能性のある物
体iの番号iを交差判定手段39へ送る。
When T x <x is out of range When T x ≧ x is in range In this way, when the straight line generation means 43 determines that the position (T x , T y , T z ) is within the range, the updated ray is updated. Position of R (T x , T y ,
T z ) to the object selection means 42. Upon receiving this, the object selecting means 42 compares the new position (T x , T y , T z ) with the existence range of each object i, and the number of the object i that may intersect the ray R. i is sent to the intersection determination means 39.

同様に、範囲外と判定した場合には、物体選択手段42に
範囲外であることを示す制御情報を送る。同時に、光線
Rの情報と選択情報SELおよび方向DIRとを光線情報転送
手段44へ送る。これを受けた物体選択手段42は、交差判
定手段39に終了を示す制御情報を送る。
Similarly, when it is determined that the value is out of the range, control information indicating that the value is out of the range is sent to the object selecting means 42. At the same time, the information of the ray R, the selection information SEL and the direction DIR are sent to the ray information transfer means 44. Upon receiving this, the object selecting means 42 sends control information indicating the end to the intersection determining means 39.

以上の処理により、物体選択手段42は、担当領域Sに含
まれている各物体iのうちで、光線Rと交差する可能性
のあるすべての物体iの番号iを選択して、交差判定手
段39へ送ることができる。そして、交差判定手段39は物
体選択手段42で選択された物体iの情報を物体情報記憶
手段35から読み出して、光線Rとの交差判定処理を行
う。
Through the above processing, the object selecting means 42 selects the number i of all the objects i that may intersect the ray R among the objects i included in the area S in charge, and the intersection determining means. Can be sent to 39. Then, the intersection determination means 39 reads the information of the object i selected by the object selection means 42 from the object information storage means 35, and performs the intersection determination processing with the light ray R.

この交差判定処理の結果、光線Rが物体と交差している
場合には、光線Rから新たな光線R′や光線RLが発生さ
れ、これらの光線R′と光線RLの情報が、光線情報記憶
手段34に記憶される。ただし、光線Rの情報としての回
数Tが0の場合には、前述の通り新たな光線R′を発生
しない。このような交差判定処理については、前述の各
文献および第2図に示されている。
As a result of this intersection determination processing, when the ray R intersects the object, a new ray R ′ or ray R L is generated from the ray R, and information on these rays R ′ and ray R L is It is stored in the information storage means 34. However, when the number of times T as information of the ray R is 0, a new ray R'is not generated as described above. Such intersection determination processing is shown in the above-mentioned documents and FIG.

このように、光線Rが担当領域S内で物体と交差してい
る場合には、光線Rの情報を隣接する輝度計算部3に転
送する必要は無い。そこで、交差判定手段39は、光線情
報転送手段44に光線Rが物体と交差することを示す制御
情報を送る。この制御情報を受けて、光線情報転送手段
44は、既に直線発生手段43から送られていた光線Rの情
報と選択情報SELおよび方向DIRとを消去する。
As described above, when the light ray R intersects the object in the area S in charge, it is not necessary to transfer the information of the light ray R to the adjacent brightness calculation unit 3. Therefore, the intersection determination means 39 sends control information indicating that the light ray R intersects the object to the light ray information transfer means 44. Upon receiving this control information, the light beam information transfer means
Reference numeral 44 erases the information of the ray R, the selection information SEL and the direction DIR already sent from the straight line generating means 43.

また、交差判定手段39における交差判定処理の結果、物
体と交差しない光線Rの情報は、隣接する輝度計算部3
に転送されなければならない。そこで交差判定手段39
は、光線情報転送手段44に光線Rが物体と交差しないこ
とを示す制御情報を送る。この制御情報を受けると、光
線情報転送手段44は、既に直線発生手段43から送られて
いた選択情報SELと方向DIRとに基づいて、やはり既に直
線発生手段43から送られていた光線Rの情報の転送処理
を行う。この転送処理を行うために、光線情報転送手段
44は、まず選択情報SELと方向DIRとで示される方向に輝
度計算部3が接続されているかどうかの有無の情報を、
領域情報記憶手段33から読み出す。
As a result of the intersection determination processing in the intersection determination means 39, the information of the light ray R that does not intersect with the object is the adjacent brightness calculation unit 3
Must be transferred to. Therefore, the intersection determination means 39
Sends to the ray information transfer means 44 control information indicating that the ray R does not intersect the object. Upon receiving this control information, the light ray information transfer means 44, based on the selection information SEL and the direction DIR already sent from the straight line generation means 43, also outputs the information of the light ray R already sent from the straight line generation means 43. Transfer processing. In order to perform this transfer processing, the light beam information transfer means
Reference numeral 44 indicates information on whether or not the brightness calculation unit 3 is connected in the direction indicated by the selection information SEL and the direction DIR,
It is read from the area information storage means 33.

もし、この方向に輝度計算部3が接続されている場合に
は、選択情報SELと方向DIRとで示される方向に接続され
た輝度計算部3に、相互通信手段31を介して光線Rの情
報を転送する。
If the brightness calculation unit 3 is connected in this direction, the information of the light ray R is transmitted to the brightness calculation unit 3 connected in the direction indicated by the selection information SEL and the direction DIR via the mutual communication means 31. To transfer.

例えば、直線発生手段43から出力された選択情報SELが
0で方向DIRが1の場合には、x+方向に接続された輝度
計算部3に光線Rの情報を転送する。同様に、直線発生
視手段43から出力された選択情報SELが0で方向DIRが−
1の場合には、x-方向に接続された輝度計算部3に光線
Rの情報を転送する。こうして転送された光線Rの情報
は、隣接する輝度計算部33において相互通信手段31か
ら読み出されて、光線情報記憶手段34に記憶される。
For example, when the selection information SEL output from the straight line generating means 43 is 0 and the direction DIR is 1, the information of the light ray R is transferred to the brightness calculation unit 3 connected in the x + direction. Similarly, the selection information SEL output from the straight line generating / viewing means 43 is 0 and the direction DIR is −.
In the case of 1, the information of the ray R is transferred to the brightness calculation unit 3 connected in the x - direction. The information of the light ray R thus transferred is read from the mutual communication means 31 in the adjacent brightness calculation section 33 and stored in the light ray information storage means 34.

また、直線発生手段43から送られてきた選択情報SELと
方向DIRとで示される方向に輝度計算部3が接続されて
いない場合には、光線Rは物体定義空間の外に出ること
になる。従って、この光線Rはすべての物体定義空間に
おいて物体と交差していないことが分かる。
If the brightness calculation unit 3 is not connected in the direction indicated by the selection information SEL and the direction DIR sent from the straight line generation means 43, the ray R will go out of the object definition space. Therefore, it can be seen that this ray R does not intersect the object in all object definition spaces.

そこで光線情報転送手段44は、この光線Rを情報を輝度
決定手段37に出力する。この輝度決定手段37では、光線
Rの情報としての光線Rの種類Cを調べて、この光線R
が光源Lへ向う光線である場合には、光源情報記憶手段
36から光源の情報を読み出して、光線Rの輝度Iを決定
する。ただし、複数個の光源Liが存在する場合には、光
源Rの回数Tで示される光源番号iを参照して、その番
号の光源Liの情報を読み出して、輝度Iを決定する。こ
の決定処理は、前述の各文献および第2図で示した通り
である。そして、通信手段32を介して、光源Rの情報が
示す画像記憶部4の画素p(i,j)に、その輝度Iを加算す
る。
Therefore, the light ray information transfer means 44 outputs this light ray R to the luminance determination means 37 as information. The brightness determining means 37 checks the type C of the light ray R as the information of the light ray R, and determines the light ray R
Is a light beam directed to the light source L, the light source information storage means
The information of the light source is read from 36, and the brightness I of the light ray R is determined. However, when there are a plurality of light sources L i , the light source number i indicated by the number T of the light sources R is referred to, the information of the light source L i of that number is read, and the brightness I is determined. This determination process is as shown in the above-mentioned documents and FIG. Then, the brightness I is added to the pixel p (i, j) of the image storage unit 4 indicated by the information of the light source R via the communication unit 32.

また、もしこの光線が物体へ向う光線である場合には、
光線Rの輝度Iは0になるので、輝度Iの加算処理は行
わずに光線Rの情報を消去する。
Also, if this ray is a ray going to the object,
Since the brightness I of the light ray R becomes 0, the information of the light ray R is erased without performing the addition processing of the brightness I.

以上の交差判定処理によって、各輝度計算部3の光線情
報記憶手段34に記憶された光線Rの情報を総て処理した
時点で、画像Pの合成が完了する。
By the intersection determination process described above, the synthesis of the image P is completed at the time when all the information of the light ray R stored in the light ray information storage unit 34 of each brightness calculation unit 3 is processed.

(発明の効果) 本発明の物体画像合成装置では、光線と交差する可能性
のある物体を選択するために、3次元デジタル直線を利
用している。この3次元デジタル直線は非常に高速に発
生きるので、従来多くの処理量を必要としていた物体の
選択処理を、大幅に高速化することができる。
(Effect of the Invention) In the object image synthesizing apparatus of the present invention, a three-dimensional digital straight line is used to select an object that may intersect with a light ray. Since this three-dimensional digital straight line can be generated at a very high speed, the object selection processing, which has conventionally required a large amount of processing, can be significantly speeded up.

同時に、空間を分割する並列処理によって、光線追跡法
による画像の合成を行う場合に、担当領域に含まれる物
体の内で、光線と交差する可能性のあるものとのみ交差
判定処理を行えばよいので、交差判定処理の効果を十分
に高速化することができる。
At the same time, when the images are combined by the ray tracing method by the parallel processing for dividing the space, the intersection determination processing may be performed only for the objects included in the area in charge that may intersect the rays. Therefore, the effect of the intersection determination process can be sufficiently speeded up.

また、物体の存在範囲というデータ量の少ない情報を基
に効果的な物体の選択を実行できるので、従来と比べて
必要なデータ量を大幅に削減できる。
In addition, since it is possible to effectively select an object based on information having a small amount of data, that is, the existence range of the object, it is possible to significantly reduce the amount of data required as compared with the related art.

【図面の簡単な説明】[Brief description of drawings]

第1図(a)は、物体画像合成装置の全体を示す全体構成
図、第1図(b)は、その輝度計算部の詳細な構成を示す
構成図、第2図は、画素p(i,j)の輝度Iの計算方法を示
す説明図、第3図は、光線Rを発生した際に設定すべき
光線Rの情報を示す説明図、第4図は、光線Rが通過す
る単位立方体の列を、3次元デジタル直線として発生す
るために、光線Rに設定される情報を示す説明図、第5
図は、初期光線発生部Iの動作を説明するための説明
図、第6図は、物体情報設定部2に設定される物体の情
報を示す説明図、第7図は、物体としての球の外接領域
を示す説明図、第8図は、物体情報設定部2に設定され
る光源の情報を示す説明図、第9図は、複数の輝度計算
部3を3次元配列状に結合する方法を示す説明図、第10
図は、物体を定義する空間を、各輝度計算部3に割り当
てられる担当領域Sに分割する方法を示す説明図、第11
図および第12図は、輝度計算部3の担当領域Sを示す領
域情報の内容を示す説明図、第13図は、初期光線発生部
1から輝度計算部3への光線Rの情報の転送処理を示す
説明図、第14図は、輝度計算部3に設けられた物体情報
記憶手段35と光源情報記憶手段36に物体情報設定部2か
ら物体情報と光源情報とを記憶させる処理を示す説明
図、第15図(a),(b)は、輝度計算部3の担当領域Sと、
物体情報の外接領域との比較処理を示す説明図、第16
図、輝度計算部3に設けられた存在範囲決定手段40にお
ける、物体の存在範囲の決定方法を示す説明図、第17図
は、輝度計算部3における光線Rの情報の処理方法を示
す説明図、第18図(a),(b)は、直線発生手段43における
直線の発生方法を示す説明図である。 図において、1……初期光線発生部、2……物体情報設
定部、3……輝度計算部、4……画像記憶部、5……接
続線、6……情報入力部、31……相互通信手段、32……
通信手段、33……領域情報記憶手段、34……光線情報記
憶手段、35……物体情報記憶手段、36……光源情報記憶
手段、37……輝度決定手段、38……初期情報判定手段、
39……交差判定手段、40……存在範囲決定手段、41……
存在範囲記憶手段、42……物体選択手段、43……直線発
生手段、44……光線情報転送手段。
FIG. 1 (a) is an overall block diagram showing the entire object image synthesizing apparatus, FIG. 1 (b) is a block diagram showing the detailed configuration of the brightness calculation unit, and FIG. , j) is an explanatory view showing a method of calculating the brightness I, FIG. 3 is an explanatory view showing information of the light ray R to be set when the light ray R is generated, and FIG. 4 is a unit cube through which the light ray R passes. Explanatory diagram showing the information set in the ray R in order to generate the columns of as a three-dimensional digital straight line,
FIG. 6 is an explanatory diagram for explaining the operation of the initial light ray generation unit I, FIG. 6 is an explanatory diagram showing the information of the object set in the object information setting unit 2, and FIG. 7 is a sphere of the object. FIG. 8 is an explanatory view showing a circumscribing area, FIG. 8 is an explanatory view showing information on a light source set in the object information setting unit 2, and FIG. 9 shows a method of combining a plurality of brightness calculation units 3 in a three-dimensional array. Explanatory drawing which shows, 10th
FIG. 11 is an explanatory diagram showing a method of dividing a space defining an object into areas S in charge assigned to each luminance calculation unit 3,
FIG. 12 and FIG. 12 are explanatory diagrams showing the content of the area information indicating the area S in charge of the brightness calculation section 3, and FIG. 13 is the transfer processing of the information of the light ray R from the initial light ray generation section 1 to the brightness calculation section 3. FIG. 14 is an explanatory diagram showing a process of storing the object information and the light source information from the object information setting unit 2 in the object information storage unit 35 and the light source information storage unit 36 provided in the brightness calculation unit 3. 15 (a) and 15 (b) show an area S in charge of the brightness calculation section 3,
Explanatory drawing showing a comparison process with the circumscribed area of the object information, 16th
FIG. 17 is an explanatory diagram showing a method of determining the existence range of an object in the existence range determination means 40 provided in the brightness calculation unit 3, and FIG. 17 is an explanatory view showing a method of processing information of the light ray R in the brightness calculation unit 3. 18 (a) and 18 (b) are explanatory views showing a straight line generating method in the straight line generating means 43. FIG. In the figure, 1 ... initial light ray generation section, 2 ... object information setting section, 3 ... brightness calculation section, 4 ... image storage section, 5 ... connection line, 6 ... information input section, 31 ... mutual Communication means, 32 ……
Communication means, 33 ... Area information storage means, 34 ... Ray information storage means, 35 ... Object information storage means, 36 ... Light source information storage means, 37 ... Luminance determination means, 38 ... Initial information determination means,
39 …… Intersection judging means, 40 …… Existence range determining means, 41 ……
Existence range storage means, 42 ... Object selection means, 43 ... Straight line generation means, 44 ... Ray information transfer means.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】光源から視点に至る光線の経路を逆向きに
辿って、物体と光線との交差判定処理を行ない、上記物
体を表示すべき画像を構成する各画素の輝度を計算する
光線追跡法による上記画像の合成を行なうために、上記
視点から上記の各画素を通る複数の光線の情報を発生す
る初期光線発生部と、上記物体の情報を設定する物体情
報設定部と、上記物体の定義される空間を分割すること
により生成される複数の領域のうちの1領域を担当して
この領域を通過する光線と上記複数の領域のうちの1領
域である担当領域に含まれる物体との交差判定処理を行
なうことにより上記画素の輝度を計算する複数の輝度計
算部と、この輝度計算部で計算された輝度を上記画像と
して記憶する画像記憶部とで構成される物体画像合成装
置において、上記輝度計算部に、座標軸に垂直で等間隔
な複数の平面で上記物体定義空間を分割して生成される
複数の単位立方体のうちで上記光線が通過する単位立方
体の列を3次元デジタル直線として発生する直線発生手
段と、上記複数の平面のうちの一部または全部の平面で
上記物体定義空間を分割して生成される複数の領域のう
ちの1領域を上記輝度計算部の担当領域としてこの担当
領域の範囲を記憶する領域情報記憶手段と、物体の外接
領域と上記担当領域との共通部分である存在範囲を決定
する存在範囲決定手段と、上記存在範囲を記憶する存在
範囲記憶手段と、上記直線発生手段で発生される単位立
方体の列と上記存在範囲記憶手段に記憶された上記物体
の存在範囲とを比較して上記担当領域に含まれる物体の
内で上記光線が交差する可能性のある物体を選択する物
体選択手段と、この物体選択手段で選択された物体と上
記光線との交差判定処理を行う交差判定手段とが備えら
れていることを特徴とする、物体画像合成装置。
1. A ray tracing for tracing the path of a light ray from a light source to a viewpoint in the opposite direction to perform intersection determination processing between an object and a light ray, and calculating the brightness of each pixel constituting an image for displaying the object. In order to synthesize the image by the method, an initial light ray generation unit that generates information of a plurality of light rays that pass through the pixels from the viewpoint, an object information setting unit that sets information of the object, and an object information setting unit of the object. Of a ray passing through this area, which is in charge of one area of a plurality of areas generated by dividing the defined space, and an object included in the area in charge, which is one area of the plurality of areas. In an object image synthesizing device configured by a plurality of brightness calculation units that calculate the brightness of the pixel by performing intersection determination processing, and an image storage unit that stores the brightness calculated by the brightness calculation unit as the image, the above In the degree calculation unit, a row of unit cubes through which the ray passes among a plurality of unit cubes generated by dividing the object definition space by a plurality of planes that are perpendicular to the coordinate axes and are equally spaced are generated as a three-dimensional digital straight line. The straight line generating means and one of a plurality of regions generated by dividing the object definition space by some or all of the plurality of planes are assigned to the brightness calculation unit as a responsible region. Area information storage means for storing the range of the area, existence range determination means for determining the existence range that is a common part of the circumscribing area of the object and the area in charge, existence range storage means for storing the existence range, and There is a possibility that the light beams may intersect in the objects included in the area in charge by comparing the unit cube row generated by the straight line generation means with the existence range of the object stored in the existence range storage means. And object selection means for selecting an object, characterized in that is provided with a cross judging means for performing intersection determination processing and has been the object and the light beam selected by the object selection means, the object image synthesizer.
JP22765786A 1986-09-25 1986-09-25 Object image synthesizer Expired - Lifetime JPH0632044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22765786A JPH0632044B2 (en) 1986-09-25 1986-09-25 Object image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22765786A JPH0632044B2 (en) 1986-09-25 1986-09-25 Object image synthesizer

Publications (2)

Publication Number Publication Date
JPS6381585A JPS6381585A (en) 1988-04-12
JPH0632044B2 true JPH0632044B2 (en) 1994-04-27

Family

ID=16864295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22765786A Expired - Lifetime JPH0632044B2 (en) 1986-09-25 1986-09-25 Object image synthesizer

Country Status (1)

Country Link
JP (1) JPH0632044B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH028965A (en) * 1988-06-28 1990-01-12 Kuwazono Gakuen Picture generator

Also Published As

Publication number Publication date
JPS6381585A (en) 1988-04-12

Similar Documents

Publication Publication Date Title
US5933146A (en) Method of and apparatus for constructing an image of a notional scene by a process of ray tracing
US4590465A (en) Graphics display system using logic-enhanced pixel memory cells
US4967392A (en) Drawing processor for computer graphic system using a plurality of parallel processors which each handle a group of display screen scanlines
US4888583A (en) Method and apparatus for rendering an image from data arranged in a constructive solid geometry format
KR910009101B1 (en) Image synthesizing apparatus
US5596685A (en) Ray tracing method and apparatus for projecting rays through an object represented by a set of infinite surfaces
EP0621548A2 (en) Image generator
Szirmay-Kalos Theory of three-dimensional computer graphics
US5739826A (en) Polygon display based on x coordinates of edges on scan line
JPH05506730A (en) image generator
US4831557A (en) Image composing apparatus
JPH0632044B2 (en) Object image synthesizer
EP0907148A2 (en) Computer graphics hardware for lighting effects
US4614941A (en) Raster-scan/calligraphic combined display system for high speed processing of flight simulation data
JPH0632045B2 (en) Object image synthesizer
US4393453A (en) Region information processing system
JPH09305791A (en) Device and method for generating three-dimensional image
EP0725365B1 (en) Method and apparatus for shading three-dimensional images
JPH0632046B2 (en) Object image synthesizer
JPS62271076A (en) Synthesizing device for object image
JPH06274648A (en) Image generator
JPS62160576A (en) Object image synthesizing device
JPS63167987A (en) Object image composing device
JPH0755469A (en) Multi-viewpoint stereoscopic image measuring method
JP2784842B2 (en) Form factor calculation device for 3D objects