JPS6366682A - Image producing and processing system - Google Patents

Image producing and processing system

Info

Publication number
JPS6366682A
JPS6366682A JP21130186A JP21130186A JPS6366682A JP S6366682 A JPS6366682 A JP S6366682A JP 21130186 A JP21130186 A JP 21130186A JP 21130186 A JP21130186 A JP 21130186A JP S6366682 A JPS6366682 A JP S6366682A
Authority
JP
Japan
Prior art keywords
data
ray
tree
intersection
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP21130186A
Other languages
Japanese (ja)
Other versions
JPH0476156B2 (en
Inventor
Katsuhiko Hirota
広田 克彦
Koichi Murakami
公一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP21130186A priority Critical patent/JPS6366682A/en
Publication of JPS6366682A publication Critical patent/JPS6366682A/en
Publication of JPH0476156B2 publication Critical patent/JPH0476156B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE:To correct image data at a high speed by scanning a beam tracking tree through a relevant route and using successively space information held for each node to produce the image data. CONSTITUTION:An image producing and processing part 34 tracks beams with object data 3 set as an input and the image data. At the same time, the space information outputs obtained at each intersecting point of beams is turned into data where a visual point is defined as a root for each beam together with each light spot defined as a node in a tree form. Thus a beam tracking tree 37 is obtained and held. An image correction processing part 38 is started after designation of the color, etc. of the body of the data 3 is changed. Then the part 38 extracts the space information held by each node according to the structure of the tree 37 set for each beam. Based on this space information and the data 3, data 5 is produced. Thus calculation processing is omitted for tracking of beams in case correction is given to designation of colors, etc. Then the image data can be produce at a high speed with connection input.

Description

【発明の詳細な説明】 〔概 要〕 光線追跡法による画像生成処理で、画像の変更処理を高
速化するための処理方式である。
[Detailed Description of the Invention] [Summary] This is a processing method for speeding up image modification processing using image generation processing using a ray tracing method.

画像生成のために光線と物体との交点を追跡して、各交
点について生成する空間情報を、該交点をノードとして
木状にリンクした光線追跡木データとして保持し、色、
属性等の指定を変更した場合には、光線追跡を行わずに
光線追跡木のデータのみを使用して画像データを生成す
る。
To generate an image, the intersection of a ray and an object is traced, and the spatial information generated for each intersection is held as ray tracing tree data linked in a tree with the intersection as a node.
When specifications such as attributes are changed, image data is generated using only the data of the ray tracing tree without performing ray tracing.

この方式により、色等のみ変更した画像については、比
較的処理時間の長い空間情報算出処理が不要になり、高
速に画像を生成できる。
This method eliminates the need for spatial information calculation processing, which takes a relatively long processing time, for images in which only the color or the like has been changed, and images can be generated at high speed.

C産業上の利用分野〕 本発明は、計算機における画像処理、特に指定の一部を
変更した画像を生成するための方式に関する。
C. Industrial Application Field] The present invention relates to image processing in a computer, and particularly to a method for generating an image with a partially changed designation.

画像の生成処理において、光線追跡(レイトレーシング
)法は高品質な画像データを得るための処理として広く
使用されている。
In image generation processing, ray tracing is widely used as a process for obtaining high-quality image data.

〔従来の技術〕[Conventional technology]

第3図は、計算機の一構成例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the configuration of the computer.

処理装置1は入力装置2から指定される物体データ3を
入力として、画像性成処理部4の処理により画像データ
5を生成し、これを表示装置6に出力して、指定の画像
を表示する。
The processing device 1 receives the object data 3 specified from the input device 2, generates image data 5 through processing by the image quality generation processing section 4, and outputs this to the display device 6 to display the specified image. .

物体データ3は、物体を構成する各基本物体の幾何学的
形状及び配置を指定する座標データ、各基本物体の色、
属性(表面の明るさ、反射率、透明度、屈折率その他)
、及び要すればマツピング指定(絵柄の指定)と、視点
の位、置の指定等からなる。
Object data 3 includes coordinate data specifying the geometric shape and arrangement of each basic object constituting the object, the color of each basic object,
Attributes (surface brightness, reflectance, transparency, refractive index, etc.)
, and, if necessary, mapping designation (picture designation), viewpoint position, location designation, etc.

画像性成処理部4は、光線追跡法によって画像データを
生成するために、例えば第4図に示すように、視点9か
ら発して、画像生成面として想定するスクリーン11上
の点1oを通る光線12を設定し、この光線12につい
て、物体データ3として入力された物体13a 、13
b、13c等の表面との交点を計算する。
In order to generate image data by the ray tracing method, the image generation processing unit 4 generates a ray of light that is emitted from a viewpoint 9 and passes through a point 1o on a screen 11, which is assumed as an image generation surface, as shown in FIG. 4, for example. 12, and for this ray 12, objects 13a, 13 input as object data 3
Calculate the intersection with surfaces such as b and 13c.

例えば、光線が最初に物体13aと交差するものとすれ
ば、計算により例えば交点14が求まるので、この点に
おける物体の表面に対する法線ベクトル15を求め、光
源16に対する法線の傾きと、この交点の色及びその他
の属性データ等から、この点の輝度を計算し、該輝度か
らスクリーン上の点1oの明るさに寄与する輝度値を決
定する。
For example, if the light ray first intersects the object 13a, the intersection point 14 is determined by calculation, the normal vector 15 to the surface of the object at this point is determined, and the inclination of the normal to the light source 16 and this intersection point are calculated. The brightness of this point is calculated from the color and other attribute data, and a brightness value that contributes to the brightness of the point 1o on the screen is determined from the brightness.

又、交点14における、反射光線17及び必要な場合に
は物体13aを透過する屈折光線工8のベクトルを計算
し、それらの光線の進行光における物体との交点を求め
る。即ち、例えば反射光線17について、最初の物体1
3bとの交点2oを求める。
Also, the vectors of the reflected ray 17 and, if necessary, the refracting ray 8 that transmits through the object 13a at the intersection 14 are calculated, and the intersection of the traveling light of these rays with the object is determined. That is, for example, for a reflected ray 17, the initial object 1
Find the intersection point 2o with 3b.

交点20が求まると、前記交点14の場合と同様に、法
線ベクトル、反射光線ベクトル、屈折光線ベクトル、及
び輝度等を求め、この輝度がスクリーン上の点10に寄
与する輝度値を決定して、前に求めた輝度値に加える。
Once the intersection point 20 has been found, the normal vector, reflected ray vector, refracted ray vector, brightness, etc. are found, as in the case of the intersection 14, and the brightness value at which this brightness contributes to the point 10 on the screen is determined. , added to the previously determined brightness value.

このように反射光線、屈折光線の行き先を順次追跡し、
すべての光線の行き先に物体との交差が無くなれば、視
点から出発した1つの光線12についての追跡が終了す
る。
In this way, the destinations of reflected and refracted rays are tracked sequentially,
When all the rays no longer intersect with objects in their destinations, the tracking of one ray 12 starting from the viewpoint is completed.

以上のような追跡処理により、スクリーン11上の点1
0に付与する画像データとして、輝度値、色等のデータ
が得られ、このような処理を、スクリーン11上に適当
な密度でとられる各点について行うことにより、指定の
物体を表す画像データが完成する。
Through the above tracking process, point 1 on the screen 11
Data such as brightness values and colors are obtained as image data to be added to 0, and by performing such processing on each point taken at an appropriate density on the screen 11, image data representing a specified object can be obtained. Complete.

第5図は、1光線ごとの以上の追跡処理の流れを示し、
処理ステップ20で光線を設定すると、処理ステップ2
1で物体との交点を計算し、処理ステップ22で計算結
果によって、光線と物体との交差の有無を判定する。
Figure 5 shows the flow of the above tracking process for each ray,
After setting the ray in processing step 20, processing step 2
In step 1, the point of intersection with the object is calculated, and in step 22, based on the calculation result, it is determined whether or not the ray intersects with the object.

交差があれば、処理ステップ23で最初の交点を選択し
て、その交点における法線ベクトルを計算し、処理ステ
ップ24で前記のようにして輝度値を決定する。
If there is an intersection, the first intersection is selected in process step 23, the normal vector at that intersection is calculated, and the brightness value is determined in process step 24 as described above.

処理ステップ25で反射及び屈折光線ベクトルを計算し
て例えばスタックする。処理ステップ26でスタックか
ら光線ベクトルの1つを取り出して、その光線について
処理ステップ21がらの処理を実行し、このようにして
、スタックの光線ベクトルをすべて処理して1光線につ
いての追跡処理を終了する。
In process step 25, reflected and refracted ray vectors are calculated and stacked, for example. In processing step 26, one of the ray vectors is taken out from the stack and the processing of processing step 21 is performed on that ray, and in this way, all the ray vectors in the stack are processed and the tracing processing for one ray is completed. do.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

前記のようにして求める、光線追跡法による画像生成は
、高画質の画像を得ることができるので、広く使用され
ている。しかし、前記の光線追跡処理から予想されるよ
うに、この画像生成には比較的長い処理時間を要する。
Image generation using the ray tracing method, which is obtained as described above, is widely used because it can obtain high-quality images. However, as expected from the ray tracing process described above, this image generation requires a relatively long processing time.

画像の作成作業においては、光線追跡処理によって得ら
れた画像データによって表示される画像を見て、物体の
色、光源の色、物体の絵柄等の変更を繰り返すことがし
ばしば必要になる。
In image creation work, it is often necessary to repeatedly change the color of the object, the color of the light source, the pattern of the object, etc. while looking at the image displayed using image data obtained through ray tracing processing.

従来そのような修正の場合には、前記の光線追跡処理を
改めて実行して新たな画像データを生成するので、修正
の多少に関わらず長い処理時間を、修正ごとに要すると
いう問題があった。
Conventionally, in the case of such a correction, the above-mentioned ray tracing process is executed again to generate new image data, so there has been a problem that a long processing time is required for each correction, regardless of the extent of the correction.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は、本発明の構成を示すブロック図である。 FIG. 1 is a block diagram showing the configuration of the present invention.

図において、31は処理装置、3は物体データ、34は
画像生成処理部、5は画像データ、37は光線追跡木、
38は画像修正処理部である。
In the figure, 31 is a processing device, 3 is object data, 34 is an image generation processing unit, 5 is image data, 37 is a ray tracing tree,
38 is an image correction processing section.

〔作 用〕[For production]

画像生成処理部34は、物体データ3を入力として、従
来のように光線追跡処理を実行し、画像データ5を出力
すると共に、光線の各交点で求める空間情報(交点座標
と法線ベクトルの情報)を、光線ごとに視点をルートと
し、各交点をノードとして木状にリンクしたデータとし
、光線追跡木37として保持する。
The image generation processing unit 34 receives the object data 3 as input, performs ray tracing processing in the conventional manner, outputs image data 5, and generates spatial information (intersection point coordinates and normal vector information) obtained at each intersection of the rays. ) is data linked in a tree shape with the viewpoint as the root for each ray and each intersection as a node, and is held as a ray tracing tree 37.

物体データ3の物体の色等の指定を変更して、画像修正
処理部38を起動すると、画像修正処理部38は光線追
跡木37の各光線ごとの木状構造に沿って、順次各ノー
ドに保持される空間情報を取り出し、該データと物体デ
ータ3を使用して画像データ5を生成する。
When the image correction processing unit 38 is started after changing the specification of the object color etc. of the object data 3, the image correction processing unit 38 sequentially applies the data to each node along the tree-like structure for each ray of the ray tracing tree 37. The retained spatial information is extracted and the image data 5 is generated using this data and the object data 3.

以上により、色指定等の修正の場合には、光線追跡処理
における交点計算及び法線計算を省略できるので、光線
追跡処理を行ったと同質の画像データを高速に得ること
ができる。
As described above, in the case of corrections such as color specification, the intersection point calculation and normal line calculation in the ray tracing process can be omitted, so that image data of the same quality as that obtained by the ray tracing process can be obtained at high speed.

〔実施例〕〔Example〕

第2図に、第1図の画像生成処理部34及び画像修正処
理部38の処理の流れの実施例を示す。
FIG. 2 shows an example of the processing flow of the image generation processing section 34 and the image correction processing section 38 shown in FIG. 1.

第2図(alは画像生成処理部34の処理を示し、処理
ステップ20で光線追跡処理のための1光線を設定する
と、処理ステップ21で交点を計算し、処理ステップ2
2で計算結果によって、交差の有無を判定する。
FIG. 2 (al indicates the processing of the image generation processing unit 34; when one ray for ray tracing processing is set in processing step 20, an intersection point is calculated in processing step 21, and processing step 2
In step 2, the presence or absence of an intersection is determined based on the calculation result.

交差があれば、処理ステップ23で最初の交点を選択し
て、その交点における法線を計算し、処理ステップ24
で前記のように輝度値を決定する。
If there is an intersection, the first intersection point is selected in process step 23, the normal at that intersection is calculated, and the process step 24
The brightness value is determined as described above.

次の処理ステップ40において、前処理ステップまでに
得た、交点座標及び法線ベクトルからなる空間情報を、
視点をルートとし、各交点をノードに対応させる木状デ
ータ構造の光線追跡木37に、8亥当ノードのデータと
してリンクする。
In the next processing step 40, the spatial information consisting of intersection coordinates and normal vectors obtained up to the preprocessing step is
8 are linked as data of the relevant node to a ray tracing tree 37 having a tree-like data structure in which the viewpoint is the root and each intersection point corresponds to a node.

即ち、光線追跡木37は概念的に第6図の構成となり、
第4図に対応するデータとして説明すると、視点に対応
するルート50から出発して、最初の交点14に対応す
るノード51に、その交点座標と、交点14の法線ベク
トルの情報が保持される。
That is, the ray tracing tree 37 conceptually has the configuration shown in FIG.
To describe the data corresponding to FIG. 4, starting from the route 50 corresponding to the viewpoint, information on the intersection point coordinates and the normal vector of the intersection point 14 is held in the node 51 corresponding to the first intersection point 14. .

次に交点14における、反射光線17の交点20及び屈
折光線18の交点21に対応する各ノード52.53が
ノード51とリンクするノードとして設定され、該等交
点に関する処理ステップ23の処理結果が、処理ステッ
プ40でそのノードに保持され、このようにして、光線
の反射及び屈折に応じて分岐、成長する木構造のデータ
が構成される。
Next, each node 52, 53 corresponding to the intersection 20 of the reflected ray 17 and the intersection 21 of the refracted ray 18 at the intersection 14 is set as a node linked to the node 51, and the processing result of the processing step 23 regarding the equal intersection is as follows. The data is held at the node in processing step 40, and in this way, tree-structured data is constructed that branches and grows in accordance with the reflection and refraction of the light rays.

なお、各ノードには空間情報の他に、処理ステップ24
の、その交点の耀度計算で使用した色指定等へのポイン
タを含めれば、後述の画像修正処理における使用に便利
である。
In addition to spatial information, each node also includes processing step 24.
If a pointer to the color specification used in the calculation of the brightness of the intersection point is included, it will be convenient for use in the image modification process described later.

データを保存した後、処理ステップ24で反射及び屈折
光線ベクトルを計算して、例えばスタックし、処理ステ
ップ25でスタックの光線ベクトルの1つを取り出して
、その光線について処理ステップ21からの処理を実行
し、このようにして、スタックの光線ベクトルをすべて
処理して1光線についての追跡処理を終了する。このと
き同時に、その光線に対応する1つの木状データが、光
線追跡木37に生成されている。
After saving the data, the reflected and refracted ray vectors are calculated in a processing step 24, e.g. stacked, and in a processing step 25 one of the ray vectors in the stack is retrieved and the processing from processing step 21 is performed on that ray. In this way, all the ray vectors in the stack are processed and the tracing process for one ray is completed. At the same time, one piece of tree-like data corresponding to the ray is generated in the ray tracing tree 37.

以上のようにして生成される画像の表示を評価して、そ
の一部を修正する場合には、先に入力して保持する物体
データ3の所要部分を修正して、これから画像データを
生成する。
If you want to evaluate the display of the image generated as described above and modify a part of it, first modify the required part of the object data 3 that is input and held, and then generate image data from this. .

この修正が物体の幾何学的構成等である場合には、画像
生成処理部34による前記と同様の光線追跡処理を新デ
ータについて再実行しなければならない。
If this correction is to the geometric configuration of the object, etc., the same ray tracing process as described above by the image generation processing unit 34 must be re-executed on new data.

しかし、色指定や絵柄の指定等の修正で、幾何学的構成
諸元に変更が無い場合には、画像修正処理部38を起動
して以下に述べる処理により画像データを生成すること
ができる。
However, if there is no change in the geometrical configuration specifications due to corrections such as color specification or designation, the image correction processing section 38 can be activated to generate image data by the processing described below.

画像修正処理部38は、第2図山)の処理ステップ41
で光線追跡処理のための1光線を設定すると、処理ステ
ップ42で、光線追跡木37の該光線に対応するデータ
を選択する。
The image correction processing unit 38 performs the processing step 41 of FIG.
When one ray for ray tracing processing is set in step 42, data corresponding to the ray in the ray tracing tree 37 is selected in processing step 42.

以下、その木状データをルートからたどって、各ノード
についで順次処理を進めるものとし、処理ステップ43
で先ず最初の交点に対応するノードに保持される空間情
報を取り出し、処理ステップ44でその交点座標及び法
線ベクトルを使って前記と同様に輝度値を求める。
Hereinafter, the tree-like data will be traced from the root and processing will proceed sequentially for each node, processing step 43.
First, the spatial information held in the node corresponding to the first intersection point is extracted, and in processing step 44, the brightness value is determined using the coordinates of the intersection point and the normal vector in the same manner as described above.

処理ステップ45で全ノードを走査したか判定し、未処
理のノードがあれば処理ステップ43からの処理に戻っ
て、次のノードに保持する空間情報により輝度値を求め
、このようにして全ノードを走査し終わる。
In processing step 45, it is determined whether all nodes have been scanned, and if there is an unprocessed node, the process returns to processing step 43 and the brightness value is calculated using the spatial information held in the next node, and in this way all nodes are scanned. Finish scanning.

以上により、このl光線についての光線追跡処理を前記
のように実行したのと同一の、1点の画像データが得ら
れるが、その場合に第5図の処理ステップ21.24.
25による、交点、法線ベクトル、反射光ベクトル、屈
折光ベクトルの計算は必要とされない。
As described above, one point of image data is obtained which is the same as when the ray tracing processing for this l ray is executed as described above, but in this case, processing steps 21, 24.
25, the calculation of intersection points, normal vectors, reflected light vectors, and refracted light vectors is not required.

従って、以上の修正処理によれば、光線追跡処理の60
〜70%を占める計算処理が省略され、修正入力による
画像データの生成を高速に行うことができる。
Therefore, according to the above correction process, 60
Calculation processing, which accounts for ~70%, is omitted, and image data can be generated quickly by corrected input.

〔発明の効果〕 以上の説明から明らかなように、本発明によれば、光線
追跡法を用いる画像生成処理において、物体を指定する
一部データを修正した場合に、画像データの修正が高速
に実行されるという著しい工業的効果がある。
[Effects of the Invention] As is clear from the above description, according to the present invention, when some data specifying an object is modified in image generation processing using the ray tracing method, image data can be modified at high speed. It has significant industrial effects.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の構成を示すブロック図、第2図は本発
明実施例の処理の流れ図、第3図は従来の一構成例ブロ
ック図、 第4図は光線追跡処理の説明図、 第5図は従来の処理の流れ図、 第6図は光線追跡木の説明図 である。 図において、 1.31は処理装置、  2は入力装置、3は物体デー
タ、   4.34は画像生成処理部、5は画像データ
、   6は表示装置、9は視点、      12は
光線、 13a 、13b、13cは物体、 14.20.21
は交点、20〜26.40〜45は処理ステップ、37
は光線追跡木、   38は画像修正処理部、50はル
ート、      51〜53はノード廷 本発明の構成を示すプロ、り図 第1図 本発明実施例の処理の流れ図 第2図 従来の一構成例ブロック図 第3図 光線追跡処理の説明図 第4図 従来の処理の流れ図 第5図 光線追跡木の説明図
FIG. 1 is a block diagram showing the configuration of the present invention, FIG. 2 is a flowchart of processing in an embodiment of the present invention, FIG. 3 is a block diagram of a conventional configuration example, FIG. 4 is an explanatory diagram of ray tracing processing, FIG. 5 is a flow chart of conventional processing, and FIG. 6 is an explanatory diagram of a ray tracing tree. In the figure, 1.31 is a processing device, 2 is an input device, 3 is object data, 4.34 is an image generation processing unit, 5 is image data, 6 is a display device, 9 is a viewpoint, 12 is a light beam, 13a, 13b , 13c is an object, 14.20.21
is the intersection point, 20-26.40-45 is the processing step, 37
38 is a ray tracing tree, 38 is an image correction processing unit, 50 is a root, and 51 to 53 are nodes showing the configuration of the present invention. Example block diagram Figure 3 Illustration of ray tracing processing Figure 4 Flowchart of conventional processing Figure 5 Illustration of ray tracing tree

Claims (3)

【特許請求の範囲】[Claims] (1)物体のデータに基づいて、光線追跡法により画像
データを生成する装置(31)において、光線追跡デー
タを生成するために視点から発射したものとして設定す
る各光線ごとに、該光線及び該光線の反射及び屈折光線
と該物体との所定の交点について求める空間情報を、該
視点をルートとし、該交点をノードとして、該光線の進
行順に該ノードをリンクしてなる木状データとして構成
した光線追跡木を保持する手段(34、37)、及び、
該光線追跡木(37)を該ルートから走査し、各該ノー
ドに対して保持される空間情報を順次使用して、画像デ
ータを生成する手段(38)を有することを特徴とする
画像生成処理方式。
(1) In a device (31) that generates image data using a ray tracing method based on object data, for each ray that is set as emitted from a viewpoint in order to generate ray tracing data, the ray and the Reflection and refraction of light rays Spatial information obtained for a predetermined intersection between a ray and the object is configured as tree-like data in which the viewpoint is used as a root, the intersection is used as a node, and the nodes are linked in the order in which the ray travels. means (34, 37) for maintaining a ray tracing tree; and
An image generation process characterized by comprising means (38) for scanning the ray tracing tree (37) from the root and sequentially using spatial information held for each node to generate image data. method.
(2)前記空間情報は、前記交点についての、交点位置
座標及び前記物体に対する法線ベクトルを示す情報であ
る特許請求の範囲第1項記載の画像生成処理方式。
(2) The image generation processing method according to claim 1, wherein the spatial information is information indicating the intersection position coordinates and the normal vector to the object regarding the intersection.
(3)前記光線追跡木には、前記ノードごとに、前記物
体の交点についての色指定及び属性指定データへのポイ
ンタを保持する特許請求の範囲第1項又は第2項記載の
画像生成処理方式。
(3) The image generation processing method according to claim 1 or 2, wherein the ray tracing tree holds, for each node, a pointer to color designation and attribute designation data for the intersection of the objects. .
JP21130186A 1986-09-08 1986-09-08 Image producing and processing system Granted JPS6366682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21130186A JPS6366682A (en) 1986-09-08 1986-09-08 Image producing and processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21130186A JPS6366682A (en) 1986-09-08 1986-09-08 Image producing and processing system

Publications (2)

Publication Number Publication Date
JPS6366682A true JPS6366682A (en) 1988-03-25
JPH0476156B2 JPH0476156B2 (en) 1992-12-02

Family

ID=16603676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21130186A Granted JPS6366682A (en) 1986-09-08 1986-09-08 Image producing and processing system

Country Status (1)

Country Link
JP (1) JPS6366682A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020532816A (en) * 2017-08-30 2020-11-12 ゴー ゴースト, エルエルシーGo Ghost, Llc How to modify raytracing samples after rendering and before rasterization

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020532816A (en) * 2017-08-30 2020-11-12 ゴー ゴースト, エルエルシーGo Ghost, Llc How to modify raytracing samples after rendering and before rasterization

Also Published As

Publication number Publication date
JPH0476156B2 (en) 1992-12-02

Similar Documents

Publication Publication Date Title
US5003498A (en) Graphic display method
JP3619063B2 (en) Stereoscopic image processing apparatus, method thereof, stereoscopic parameter setting apparatus, method thereof and computer program storage medium
US6392647B1 (en) System and method for computer modeling of 3D objects or surfaces by mesh constructions having optimal quality characteristics and dynamic resolution capabilities
EP0865000B1 (en) Image processing method and apparatus
JPH05210745A (en) Method and device for processing three-dimensional graphics
JPH02287776A (en) Method for adopting hierarchical display list in global rendering
JPS6366682A (en) Image producing and processing system
JPH0528280A (en) Light beam tracking method
US20020013683A1 (en) Method and device for fitting surface to point group, modeling device, and computer program
JP3593155B2 (en) Shape design support device
JP2666353B2 (en) High-speed video generation by ray tracing
JP2747822B2 (en) Graphic display device
JP2718784B2 (en) Drawing method of contour and / or edge
JP2773127B2 (en) Image editing method
JPH08147471A (en) Three-dimensional data input processing method
JPH06231274A (en) Method and device for three-dimensional simulation
JPH0773342A (en) Image generator
JPH0282376A (en) Projected diagram preapring system for three-dimensional object
JPH04125787A (en) Method and device for displaying three-dimensional graphic
JPH0644346A (en) Method and device for processing distance image
JPH06266328A (en) Display method for three-dimensional position
JPS6079477A (en) Three-dimensional object recognizing and displaying system
JP3098092B2 (en) Simulated view generator
JPH07200874A (en) Production of two-dimensional drawing for three-dimensional cad system
JP3005389B2 (en) Polygon 3D display system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees