JPS61139890A - Generation processing system for light beam tracking image - Google Patents

Generation processing system for light beam tracking image

Info

Publication number
JPS61139890A
JPS61139890A JP26325084A JP26325084A JPS61139890A JP S61139890 A JPS61139890 A JP S61139890A JP 26325084 A JP26325084 A JP 26325084A JP 26325084 A JP26325084 A JP 26325084A JP S61139890 A JPS61139890 A JP S61139890A
Authority
JP
Japan
Prior art keywords
processing unit
ray
cell
magnitude relationship
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP26325084A
Other languages
Japanese (ja)
Other versions
JPH0143354B2 (en
Inventor
Koichi Murakami
公一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP26325084A priority Critical patent/JPS61139890A/en
Publication of JPS61139890A publication Critical patent/JPS61139890A/en
Publication of JPH0143354B2 publication Critical patent/JPH0143354B2/ja
Granted legal-status Critical Current

Links

Abstract

PURPOSE:To calculate a cell that a light beam crosses speedily and makes a three-dimensional display by employing constitution which performs processing by using information on a cell that the light beam crosses and is calculated last. CONSTITUTION:A division processing part 2 divides the space into plural cells and a boundary value derivation processing part 3 derives a boundary value. A merge processing part 1-1 stores distance (t) in a figure in a tape in increasing order and a detail calculation processing part 4 calculates the collision point between the light beam and a primitive in detail. A display 5 displays the primitive placed in the space in three dimension. A boundary value comparison processing part 1-2 decides whether a table which is used last is usable this time without using any procedure for rearranging the data in the increasing order, and the table which is generated last is used as much as possible, thereby speeding up the processing.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は光yAiJm跡画像生成処理方式、特に光線追
跡法を用いて三次元表示を行わせる際に、空間を分割し
たいずれかのセル(オクタント)に光線が交わるか否か
を算出するのに、前回算出したセルに関する情輯を用い
て高速に処理するよう構成した光線追跡画像生成処理方
式に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a method for generating and processing light yAiJm trace images, particularly when performing a three-dimensional display using a ray tracing method. This invention relates to a ray tracing image generation processing method configured to perform high-speed processing using previously calculated information regarding cells to calculate whether or not a ray intersects an octant.

〔従来の技術と発明が解決しようとする問題点〕光線追
跡法を用いて三次元表示を行う場合、メモリを効率良好
に使用するために、例えば説明の都合上第6図図示二次
元的に表示した如く、空間を複数のセルに分割し、プリ
ミティブ(1)ないしく4)が属する当該空間中の各セ
ルから図示の如くポインタを用いてプリミティブ11+
ないしく4)を夫々ポイントしておく、そして、プリミ
ティブfi+ないしく4)をポイントしている当該空間
中の各セルについてのみ光線追跡法を用いて、光線とプ
リミティブ(1)ないしく4)との衝突点を算出して三
次元表示を行うようにすれば、全ての空間に対して夫々
衝突点を算出するのに比し、少ない処理時間でよい。
[Problems to be solved by the prior art and the invention] When performing three-dimensional display using the ray tracing method, in order to use memory efficiently, for example, for convenience of explanation, the two-dimensional display shown in Figure 6 is used. As shown, the space is divided into multiple cells, and from each cell in the space to which primitive (1) to 4) belongs, use the pointer as shown in the figure to select primitive 11+.
or 4), respectively, and use the ray tracing method only for each cell in the space that points to the primitive fi+ or 4) to connect the ray and the primitive (1) to 4). If collision points are calculated and three-dimensional display is performed, less processing time is required compared to calculating collision points for each space.

しかし、従来、第6図図中矢印を用いて示す如く、視点
”0”から僅かずつ方向をずらした光線と、前記各プリ
ミティブ+1+ないしく4)との衝突点を算出する際に
、当該光線が交わるセルをその都度算出していたため、
毎回同様な処理を行わなければならず、高速に処理を行
い難いという問題点があった。
However, conventionally, as shown using the arrows in FIG. Because the cells where the two intersect were calculated each time,
There was a problem that the same processing had to be performed every time, making it difficult to perform the processing at high speed.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、前記問題点を解決するために、光線追跡法を
用いて三次元表示を行わせる際に、空間を分割したいず
れのセル(オクタント)に光線が交わるかを算出するの
に、前回算出した光線が交わるセルに関する情報を用い
て高速に処理する構成を採用することにより、光線が交
わるセルを迅速に算出し、て三次元表示を行うようにし
ている。
In order to solve the above-mentioned problems, the present invention provides a method for calculating which cell (octant) of divided space a ray intersects when performing a three-dimensional display using a ray tracing method. By adopting a configuration that performs high-speed processing using information regarding the cells where the calculated light rays intersect, the cells where the light rays intersect are quickly calculated and three-dimensional display is performed.

そのため、本発明の光線追跡画像生成処理方式は光線追
跡法を用いて三次元表示を行わせる光線追跡画像生成処
理方式において、空間を分割する分別処理部と、光線の
視点と前記分割処理部によって分割された各セルの軸に
対して当該光線が交わる交点との間の距離をを夫々導出
する境界値導出処理部と、該境界値導出処理部によって
導出された距jdlをを小さい順あるいは大きい順に並
べると共に当該並べた距離tに対応する軸と当該軸の値
をインデックスしたものとをテーブルに格納するマージ
処理部と、該マージ処理部によって生成されたテーブル
に基づいて前記光線が交わるセルを算出し、当該セル中
に存在するプリミティブに封して前記光線が衝突する点
を計算する詳細計算処理部とを備え、前記マージ処理部
によって前回生成されたテーブル中から軸が或る軸から
他の軸に変化している当該両者の軸に対応する夫々の距
離りの大小関係を読み出して保持し、かつ当該読み出し
て大小関係を保持した夫々の距NLに対応する現在の距
離「を夫々前記境界値導出処理部によって導出して大小
関係を比較し、当該比較した大小関係が前記保持した大
小関係と同一の場合に、前記詳細計算処理部に措令を発
して前回生成されたテーブルに基づいて詳細計算を行わ
せる境界値比較処理部とを有し、前記詳細81算処理部
によって計算された値に基づいて三次元表示するよう構
成したことを特徴としている。
Therefore, the ray tracing image generation processing method of the present invention is a ray tracing image generation processing method that performs three-dimensional display using the ray tracing method. A boundary value derivation processing unit that derives the distance between the axis of each divided cell and the intersection point where the ray intersects, and a distance jdl derived by the boundary value derivation processing unit in descending order or increasing order. a merging processing unit that arranges the axes corresponding to the arranged distances t and indexed values of the axes in a table; and a merging processing unit that stores cells where the rays intersect based on the table generated by the merging processing unit. a detailed calculation processing unit that calculates the point at which the ray collides by enclosing it in a primitive existing in the cell, Read and hold the magnitude relationship of the respective distances corresponding to the two axes that are changing to the axes of The boundary value derivation processing unit derives and compares the magnitude relationship, and if the compared magnitude relationship is the same as the retained magnitude relationship, an order is issued to the detailed calculation processing unit to generate a table based on the previously generated table. The present invention is characterized in that it has a boundary value comparison processing section that performs detailed calculations, and is configured to display three-dimensionally based on the values calculated by the detailed 81 calculation processing section.

〔実施例〕〔Example〕

以下図面を参照しつつ本発明の実施例を詳細に説明する
Embodiments of the present invention will be described in detail below with reference to the drawings.

第1図は本発明の1実施例構成図、第2図ないし第5図
は第1図図示本発明の1実施例構成の動作を説明する動
作説明図を示す。
FIG. 1 is a configuration diagram of one embodiment of the present invention, and FIGS. 2 to 5 are operation explanatory diagrams for explaining the operation of the configuration of one embodiment of the present invention shown in FIG. 1.

図中、l−1はマージ処理部、l−2は境界値比較処理
部、2は分割処理部、3は境界値導出処理部、4は詳細
計算処理部、5はディスプレイを表す。
In the figure, 1-1 is a merge processing section, 1-2 is a boundary value comparison processing section, 2 is a division processing section, 3 is a boundary value derivation processing section, 4 is a detailed calculation processing section, and 5 is a display.

第1図において、図中境界値比較処理部1−2は本発明
に係わるものであって、後述する如(分割した空間中の
セルに対して光線が交わるセルを前回算出した情報を用
いて効率良好に算出するためのものである。尚、以下説
明の都合上二次元的に表示した図面を用いて本発明の構
成および動作を順次説明する。
In FIG. 1, the boundary value comparison processing unit 1-2 in the figure is related to the present invention, and as described later (using the information previously calculated to find the cells where the light ray intersects with the cells in the divided space). This is for efficient calculation.For convenience of explanation, the configuration and operation of the present invention will be sequentially explained below using two-dimensionally displayed drawings.

第1図図中分割処理部2は空間を複数のセル(第1図図
中基盤目状に分割した各領域)の形に分割する処理を行
うためのものである0例えば第2図図示の如く座標Xお
よび座tlyを設け、夫々距離”l”毎に分割した基盤
目状の各領域を夫々セルと呼び、当該各セルを図示“O
O”、“10”、“20”、・・・の如き数字を用いて
特定する処理を行う。
The division processing unit 2 in FIG. 1 is for performing processing for dividing a space into a plurality of cells (each region divided into grid shapes in FIG. 1). The coordinates
The identification process is performed using numbers such as "O", "10", "20", . . . .

図中境界値導出処理部3は第2図図中視点1P°から放
射された光線が交わる全てのセルを算出するために必要
ないわゆる境界値を導出するためのものである。まず、
第2図図中視点“P”から図示の如く放射された光線の
X成分およびy成分を下式の如く夫々表す。
The boundary value derivation processing unit 3 in the figure is for deriving so-called boundary values necessary for calculating all the cells where the rays emitted from the viewpoint 1P° in FIG. 2 intersect. first,
The X and Y components of the light beam emitted from the viewpoint "P" in FIG. 2 as shown in the figure are expressed as shown in the following equations.

X=α、t+β8 ・・・・・・・・・・・・(1)y
セαア t+β、・・・・・・・・・・・・+21ここ
で、αヶおよびα、は光線のX方向およびY方向の傾き
成分を夫々表し、Lは視点“Poからの距離を表し、β
、およびβ、は視点1P”のX座標およびY座標を夫々
表す。次に、当該式+11を用いて第2図図中光線が、
Xの値が0、l、2.3および4からなる直線と交わる
位置における視点“Poからの距j1をを夫々tえ。、
t、い し。、tlおよびLN4の如く算出し、当該算
出した各り。。、Lzl+  tI!、t、およびtx
mを、第3図(イ)図示の如く、Xの値0、l、2.3
および4に対応づけてテーブルの形に生成する。同様に
、式(2)を用いて第2図図中光線が、yの値が0.1
.2.3および4からなる直線と交わる位置における視
点“P”からの距離をを夫々tv0、ty+、(0、t
rffおよびty4の如く算出し、当該算出した各り、
。、ty+、ty!、L、および(ア、を、第3図(ロ
)図示の如く、yの値0、■、2.3および4に対応づ
けてテーブルの形に生成する。以上の如くして境界値が
算出されたことになる。
X=α, t+β8 ・・・・・・・・・・・・(1)y
αa t+β,・・・・・・・・・・・・+21 Here, α and α represent the inclination components of the ray in the X direction and Y direction, respectively, and L represents the distance from the viewpoint “Po”. represents, β
, and β represent the X and Y coordinates of the viewpoint 1P'', respectively.Next, using the formula +11, the ray in Fig. 2 is expressed as
Find the distance j1 from the viewpoint "Po" at the position where the value of X intersects the straight line consisting of 0, l, 2.3, and 4.
T, I. , tl and LN4, and each of the calculated values. . ,Lzl+tI! , t, and tx
m, as shown in Figure 3 (a), the values of X are 0, l, 2.3
and 4 in the form of a table. Similarly, using equation (2), the ray in Figure 2 is
.. 2. Let the distance from the viewpoint “P” at the position intersecting the straight line consisting of 3 and 4 be tv0, ty+, (0, t
rff and ty4, each of the calculated values,
. ,ty+,ty! , L, and (A) are generated in the form of a table in association with the y values 0, ■, 2.3, and 4, as shown in FIG. This means that it has been calculated.

図中マージ処理部t−iは、境界値導出処理部3によっ
て導出された第3図(イ)および(ロ)図示距離をを第
4図図中テーブル中の欄“距離t”中に小さい順に格納
すると共に、当該テーブル中の欄“軸”および欄”1n
dex”には、当咳小さい順に並び変えた夫々の距離t
に対応する軸(座標軸Xあるいはy)および当該軸の値
を夫々格納する。例えば第2図図示の如き光線に対して
は第4図図示の如きテーブルが生成される。そして、当
該生成したテーブル中の欄“1ndex”に格納した値
を例えば順次2個づつ用いて表すことによって、第2図
図中光線が交わる全てのセルが、セル(OO)、(lO
)、(11)、(12)、(22)および(23)の如
く算出される。但しセル(12)は第4図図示テーブル
中の欄1軸”中で軸yが連続して現れたので、当該セル
(12)の前のセル(11)と同しXの値“1′を用い
ている。
The merge processing section t-i in the figure stores the distances shown in FIG. In addition to storing the column “axis” and column “1n” in the table in
dex” contains the respective distances t arranged in ascending order of distance.
The axis corresponding to (coordinate axis X or y) and the value of the axis are respectively stored. For example, for a ray as shown in FIG. 2, a table as shown in FIG. 4 is generated. Then, by representing the values stored in the column "1ndex" in the generated table in sequence, for example, two at a time, all the cells where the rays intersect in FIG.
), (11), (12), (22) and (23). However, in cell (12), since the axis y appears consecutively in column 1 axis in the illustrated table in Figure 4, the value of is used.

図中詳細計算処理部4は、マージ処理部1’−1によっ
て生成された第4図図示の如き距#lをの小さい順に並
んだテーブルを用いて既述した如く当該光線が交わるセ
ルを算出し、当該算出したセルに対してのみ、当該光線
とプリミティブとの衝突点を詳細に計算して求めるため
のものである。
The detailed calculation processing unit 4 in the figure calculates the cells where the relevant rays intersect, as described above, using a table in which the distance #l is arranged in ascending order of distance #l as shown in Fig. 4, generated by the merging processing unit 1'-1. However, this is for calculating and finding in detail the point of collision between the ray and the primitive only for the calculated cell.

図中ディスプレイ5は詳細計算処理部4によって計算さ
れた光線とプリミティブとの衝突点等の画像情報に基づ
いて、空間中に置かれたプリミティブを三次元的に表示
させるためのものである。
The display 5 shown in the figure is for three-dimensionally displaying primitives placed in space based on image information such as collision points between light rays and primitives calculated by the detailed calculation processing section 4.

図中境界値比較処理部1−2は、以上の如き処理中、第
2図図中視点”P”から放射される光線の方向を僅かず
つずらし、当該光線と交わろセルを順次算出する場合に
、第3図(イ)および(ロ)図示境界値から第4閣図示
距離をの小さい順に並べたテーブルを毎回生成していた
のでは多くの時間が必要となり、高速に処理し得ないの
で、常時当咳小さいl1llに並び変える手順を用いる
ことなく、前回に用いたテーブルを今回も用いることが
できるか否かを判別し、可及的に前回生成したテーブル
を用いるように構成して迅速に処理を図為ようにしたも
のである。以下第5図を用いて当該境界値比較処理部1
−2の動作を詳細に説明する第5図(イ)図中セル°2
0″中の視点“Q″からセル″32”中の点R1に向か
う光iQR,に対して第5図(ロ)図示の如く距離をの
小さい順に並べたテーブルを作成する。該光線QR,は
第5図(イ)からも判明するように、当該光XQR,が
各セルと交わる軸は、順次Y+ 、YtおよびX、とな
る(第5図(ロ)図示のもの)。一方、視点Qと終点R
7とが前記セルと夫々同一セル中に存在する第5図(イ
)図示他の光線QR,に対して、距離をの小さい順に並
べることなく、第5図(ロ)図中軸がXからy、あるい
はyからXのいずれかに変化した軸についての距Mをを
夫々距離「の形で算出し、当該算出した距離「の大小関
係を求めて小さい順に並べてみると、第5図(ハ)図示
の如くなり、第5図(ロ)図中距離t□と距離tlとに
おける大小関係(図示■)と、第5図(ハ)図中距離r
0と距離rytとにおける大小関係(図示0)とが反転
している。咳反転は、光線QR1と光%91QR,とが
同一のセルを交叉していないことを表しているから、既
述した如くマージ処理部1−1によって、当該距離rに
関して小さい順に並べて第4図図示の如きテーブルを作
成する必要がある。
During the above processing, the boundary value comparison processing unit 1-2 in the figure slightly shifts the direction of the ray emitted from the viewpoint "P" in Figure 2, and sequentially calculates the cells that intersect with the ray. If we were to generate a table each time in which the distances shown in the fourth cabinet were arranged in descending order from the shown boundary values in Figures 3 (a) and (b), it would take a lot of time and it would not be possible to process it quickly. , it is possible to determine whether or not the table used last time can be used again this time, without having to constantly rearrange the table to a smaller one, and to quickly configure the table to use the table generated last time as much as possible. The processing was done intentionally. Below, using FIG. 5, the boundary value comparison processing unit 1
Figure 5 (a), which explains the operation of -2 in detail, cell °2
A table is created in which the distances are arranged in ascending order of distance as shown in FIG. As is clear from FIG. 5(a), the axes where the light XQR intersects each cell are Y+, Yt, and X in sequence (as shown in FIG. 5(b)).On the other hand, the viewpoint Q and end point R
7 exists in the same cell as the aforementioned cell, respectively.With respect to the other light rays QR shown in FIG. , or the distance M for the axis that has changed from y to As shown in the figure, the magnitude relationship between the distance t□ and the distance tl in Figure 5(B) and the distance tl in Figure 5(C), and the distance r in Figure 5(C).
The magnitude relationship between 0 and distance ryt (0 in the drawing) is reversed. Since the cough reversal indicates that the light ray QR1 and the light %91QR do not intersect the same cell, the merging processing unit 1-1 arranges them in descending order with respect to the distance r, as described above, as shown in FIG. It is necessary to create a table like the one shown.

−aに、第5図(イ)図中視点“S゛と一連の終点Tと
がともに同一のセルに属する如く、順次僅かずつ方向を
ずらして、交叉するセルを算出する場合が多く、当該場
合には既述した第5図(ロ)図示の如く最初に距1Ii
lをの小さい順にテーブルを作成し、次回から既述した
如く当該テーブル中の軸が変化する位置における距離(
に対応する距jllrの大小関係のみを新たに算出して
反転しているか否かを判別し、反転していない場合には
、同一のセルと交叉するから、前回算出したテーブルを
そのまま用いることができる。このため、高速に処理を
実行することができることとなる。
-a, it is often the case that the intersecting cell is calculated by sequentially shifting the direction slightly so that the viewpoint "S" in Figure 5(a) and the series of end points T both belong to the same cell. In this case, the distance 1Ii is first set as shown in FIG.
Create a table in ascending order of l, and from the next time, as mentioned above, calculate the distance (
Only the magnitude relationship of the distance jllr corresponding to is newly calculated to determine whether or not it is reversed. If it is not reversed, it intersects with the same cell, so it is possible to use the previously calculated table as is. can. Therefore, processing can be executed at high speed.

〔発明の効果〕〔Effect of the invention〕

以上説明した如く、本発明によれば、光線追跡法を用い
て三次元表示を行わせる際に、空間を分割したいずれの
セルに光線が交わるかを算出するのに、当該光線が交わ
るセルを算出するために前回用いた距離りの小さい順(
または大きいIll )に並べたテーブル中から軸が変
化した位置の両端における距離をの大小関係を算出して
保持し、当該距離(に対応する現在の距離rの大小関係
を算出して前回の大小関係と同一である場合に、前回作
成したテーブルを用いて光線が交わるセルを算出してい
るため、当該距離をの小さい順(または大きい順)に並
べる如き回数(木探索回数)を減らし、三次元表示のた
めの処理を高速に行うことができる。
As explained above, according to the present invention, when performing a three-dimensional display using the ray tracing method, the cells where the light rays intersect are In descending order of the distance used last time for calculation (
Calculate and maintain the magnitude relationship of the distance at both ends of the position where the axis has changed from the table arranged in a large Ill), calculate the magnitude relationship of the current distance r corresponding to the relevant distance ( When the relationship is the same, the cells where the rays intersect are calculated using the table created last time, so the number of times the distances are arranged in ascending order (or ascending order) (the number of tree searches) is reduced, and the cubic Processing for original display can be performed at high speed.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の1実施例構成図、第2図ないし第5図
は第1図図示本発明の1実施例構成の動作を説明する動
作説明図、第6図は従来の光線追跡画像生成処理方式を
説明する説明図を示す。 図中、1−1はマージ処理部、l−2は境界値比較処理
部、2は分割処理部、3は境界値導出処理部、4は詳細
計算処理部、5はディスプレイを表す。
FIG. 1 is a configuration diagram of one embodiment of the present invention, FIGS. 2 to 5 are operation explanatory diagrams explaining the operation of the configuration of one embodiment of the present invention shown in FIG. 1, and FIG. 6 is a conventional ray tracing image. An explanatory diagram illustrating a generation processing method is shown. In the figure, 1-1 is a merge processing section, l-2 is a boundary value comparison processing section, 2 is a division processing section, 3 is a boundary value derivation processing section, 4 is a detailed calculation processing section, and 5 is a display.

Claims (1)

【特許請求の範囲】[Claims] 光線追跡法を用いて三次元表示を行わせる光線追跡画像
生成処理方式において、空間を分割する分割処理部と、
光線の視点と前記分割処理部によって分割された各セル
の軸に対して当該光線が交わる交点との間の距離tを夫
々導出する境界値導出処理部と、該境界値導出処理部に
よって導出された距離をを小さい順あるいは大きい順に
並べると共に当該並べた距離tに対応する軸と当該軸の
値をインデックスしたものとをテーブルに格納するマー
ジ処理部と、該マージ処理部によって生成されたテーブ
ルに基づいて前記光線が交わるセルを算出し、当該セル
中に存在するプリミティブに対して前記光線が衝突する
点を計算する詳細計算処理部とを備え、前記マージ処理
部によって前回生成されたテーブル中から軸が或る軸か
ら他の軸に変化している当該両者の軸に対応する夫々の
距離をの大小関係を読み出して保持し、かつ当該読み出
して大小関係を保持した夫々の距離tに対応する現在の
距離rを夫々前記境界値導出処理部によって導出して大
小関係を比較し、当該比較した大小関係が前記保持した
大小関係と同一の場合に、前記詳細計算処理部に指令を
発して前回生成されたテーブルに基づいて詳細計算を行
わせる境界値比較処理部とを有し、前記詳細計算処理部
によって計算された値に基づいて三次元表示するよう構
成したことを特徴とする光線追跡画像生成処理方式。
In a ray tracing image generation processing method that performs three-dimensional display using a ray tracing method, a division processing unit that divides space;
a boundary value derivation processing unit that derives the distance t between the viewpoint of the ray and the intersection point where the ray intersects with the axis of each cell divided by the division processing unit; a merging processing unit that arranges the distances t in order of smallest or largest, and stores in a table an axis corresponding to the arranged distance t and an index of the value of the axis; and a table generated by the merging processing unit. and a detailed calculation processing unit that calculates a cell where the ray intersects based on the cell, and calculates a point at which the ray collides with a primitive existing in the cell, and a detailed calculation processing unit that calculates a point at which the ray collides with a primitive existing in the cell. The magnitude relationship between the distances corresponding to the two axes whose axes are changed from one axis to another is read out and maintained, and the magnitude relationship corresponds to each distance t for which the read out and magnitude relationship is maintained. The current distance r is respectively derived by the boundary value derivation processing unit and the magnitude relationship is compared, and if the compared magnitude relationship is the same as the retained magnitude relationship, a command is issued to the detailed calculation processing unit to a boundary value comparison processing unit that performs detailed calculations based on the generated table; and a ray tracing image configured to display three-dimensionally based on the values calculated by the detailed calculation processing unit. Generation processing method.
JP26325084A 1984-12-13 1984-12-13 Generation processing system for light beam tracking image Granted JPS61139890A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26325084A JPS61139890A (en) 1984-12-13 1984-12-13 Generation processing system for light beam tracking image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26325084A JPS61139890A (en) 1984-12-13 1984-12-13 Generation processing system for light beam tracking image

Publications (2)

Publication Number Publication Date
JPS61139890A true JPS61139890A (en) 1986-06-27
JPH0143354B2 JPH0143354B2 (en) 1989-09-20

Family

ID=17386858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26325084A Granted JPS61139890A (en) 1984-12-13 1984-12-13 Generation processing system for light beam tracking image

Country Status (1)

Country Link
JP (1) JPS61139890A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6314288A (en) * 1986-07-03 1988-01-21 Fujitsu Ltd Generating system for voxel information table
US4865423A (en) * 1987-07-16 1989-09-12 International Business Machines Corporation Method for generating images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6314288A (en) * 1986-07-03 1988-01-21 Fujitsu Ltd Generating system for voxel information table
US4865423A (en) * 1987-07-16 1989-09-12 International Business Machines Corporation Method for generating images

Also Published As

Publication number Publication date
JPH0143354B2 (en) 1989-09-20

Similar Documents

Publication Publication Date Title
US20040036674A1 (en) Apparatus and method for associating voxel information with display positions
JPH01207886A (en) Three-dimensional graphic processor
US5537520A (en) Method and system for displaying a three dimensional object
JPH04296975A (en) Three-dimensional graphic data generating device
JPS61139890A (en) Generation processing system for light beam tracking image
JPS62272366A (en) Graphic information processor
JP4437504B2 (en) 3D display program, 3D display device, and 3D display method
KR101530895B1 (en) Methods for extracting object data for 2d cad from 3d cad and vice versa
JPH01258106A (en) Spatial curve generating method
US5278917A (en) Lathe cutting simulation method
JPS61114312A (en) Curved surface processing device
JP2852813B2 (en) Spatial enhancement of vertices for changes in detail level
JPH06314317A (en) Stereoscopic diagram drawing method for cad data
JP2000207576A (en) Method and device for processing image and recording medium recording image processing program
JPH01303504A (en) Generating method for composite curved surface cutting path
CN117893658A (en) Real-time triangle mesh-to-distance field conversion method and system based on parallel computing
JPH03271871A (en) Segment data processing system
JPH03138773A (en) Simulated visual field generating device
JP3715680B2 (en) Geometric model display method and apparatus
JPH09269809A (en) Device and method for preparing freely curved surface working data
JPS61194574A (en) Intersection point search device
JPS6160173A (en) Calculation system for 3-dimensional graphic data
JPH04125787A (en) Method and device for displaying three-dimensional graphic
Tai The application of CAD/CAM in the group technology for milling and drilling
JPH04201045A (en) Preparation device for cutting data of free curved face for nc