JPH07146953A - Image generating method by intersection tracking method - Google Patents

Image generating method by intersection tracking method

Info

Publication number
JPH07146953A
JPH07146953A JP29526793A JP29526793A JPH07146953A JP H07146953 A JPH07146953 A JP H07146953A JP 29526793 A JP29526793 A JP 29526793A JP 29526793 A JP29526793 A JP 29526793A JP H07146953 A JPH07146953 A JP H07146953A
Authority
JP
Japan
Prior art keywords
vector
objects
bodies
rigid
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP29526793A
Other languages
Japanese (ja)
Other versions
JP3251744B2 (en
Inventor
Kazuki Matsui
一樹 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP29526793A priority Critical patent/JP3251744B2/en
Publication of JPH07146953A publication Critical patent/JPH07146953A/en
Application granted granted Critical
Publication of JP3251744B2 publication Critical patent/JP3251744B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE:To provide the method which can increase the quality of a display image. CONSTITUTION:All bodies shown with read image information are classified into rigid bodies having distinctive external shapes and nonrigid bodies having indistinctive external shapes and the respective nonrigid bodies are represented in simple shapes of minimum size including the bodies (step 100); and light beam vectors are set, pixel by pixel, and bodies that the respective light beam vectors cross are retrieved (step 102). Then the bodies retrieved as to the same light beam vector are arrayed in the direction of the vector progress (step 104). Sections partitioned with the intersections of the arrayed bodies and light beams are determined by the light beam vectors and the representation formats of the bodies present in the sections are registered in the array order of the bodies as to the respective sections (step 106); while an object section is changed in the direction of the vector progress by the light beam vectors, color values corresponding to the representation formats of the bodies are integrated in the registration order of the representation formats to find color values of respective pixels (step 108).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、交点追跡法(レイトレ
ーシング法)で画像を生成する方法に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for generating an image by an intersection tracing method (ray tracing method).

【0002】CADなどのコンピュータグラフィック分
野ではレイトレーシング法,Zバッファ法,スキャンラ
イン法などを用いて表示画像が生成されており、特にレ
イトレーシング法によれば、物体の影部分や光反射の部
分をよりリアルに表現することが可能となる。
In the field of computer graphics such as CAD, a display image is generated by using a ray tracing method, a Z buffer method, a scan line method, etc. Particularly, according to the ray tracing method, a shadow portion or a light reflection portion of an object is generated. Can be expressed more realistically.

【0003】[0003]

【従来の技術】レイトレーシング法においては、平面や
2次曲面(例えば球,楕円体)を用いて表現された物体
の他に、ボクセル(霧などのように微小物体の群),メ
タボール(濃度が徐々に変化するもの)などを用いて表
現された物体も処理の対象となる。
2. Description of the Related Art In the ray tracing method, in addition to an object expressed using a plane or a quadric surface (for example, a sphere or an ellipsoid), voxels (a group of minute objects such as fog), metaballs (density) The object that is expressed by using (for example, that gradually changes) is also the target of processing.

【0004】ところが、法線や光線ベクトルとの交点を
計算する方法が物体の表現形式により異なるので、同一
の光線ベクトル上に表現形式の異なる物体が混在する画
像の場合、それらの計算を統一的に取り扱うことが困難
となる。
However, since the method of calculating the intersection point with the normal line or the ray vector differs depending on the representation form of the object, in the case of an image in which objects of different representation forms coexist on the same ray vector, those calculations are unified. Difficult to handle.

【0005】例えば球状物体(2次曲面で表現)の一部
が霧状物体(ボクセル表現)で覆われる画像の場合、球
状物体が霧状物体から露出する画素部分については、光
線ベクトルが交差する点を計算し、計算された交点のう
ち視点から最も近いものを選択し、各画素の色を選択さ
れた交点における物体色とする内容の処理が行なわれ
る。
For example, in the case of an image in which a part of a spherical object (represented by a quadric surface) is covered with a fog-like object (voxel expression), ray vectors intersect at the pixel portion where the spherical object is exposed from the fog-like object. The point is calculated, the closest one from the viewpoint is selected from the calculated intersections, and the processing of the content that sets the color of each pixel as the object color at the selected intersection is performed.

【0006】また球状物体が霧状物体で隠れる画素部分
では、霧状物体を形成する各微小物体の色を視点側から
逐次加算し、この加算結果を球状物体のものと加算する
ことにより、画素色が求められる。
In the pixel portion where the spherical object is hidden by the mist-like object, the colors of the respective minute objects forming the mist-like object are sequentially added from the viewpoint side, and the addition result is added to that of the spherical object to obtain the pixel. Color is required.

【0007】そこで従来においては、全物体の表現形式
が3角形の集合に近似されて統一されてから、各画素の
色が算出されていた。
Therefore, conventionally, the color of each pixel is calculated after the expression form of all objects is approximated to a set of triangles and unified.

【0008】[0008]

【発明が解決しようとする課題】しかしながら従来にお
いては、画素色の積算時に物体の表現形式が3角形の集
合へ近似変換されるので、その際に変換誤差が発生し、
このため、生成される表示画像の品質低下を招いてい
た。
However, in the prior art, since the representation form of the object is approximately converted into a set of triangles when the pixel colors are integrated, a conversion error occurs at that time,
Therefore, the quality of the generated display image is deteriorated.

【0009】本発明は上記従来の事情に鑑みてなされた
ものであり、その目的は、レイトレーシング法でより品
質の高い表示画像を生成することが可能となる方法を提
供することにある。
The present invention has been made in view of the above conventional circumstances, and an object thereof is to provide a method capable of generating a higher quality display image by a ray tracing method.

【0010】[0010]

【課題を解決するための手段】図1では第1発明,第2
発明の方法が説明されており、同図において、第1発明
は、読み込まれた情報で示される全ての物体を外形が明
瞭な剛性物体と不明瞭な非剛性物体とに分類して各非剛
性物体を該物体が内包される最小寸の簡易形状で表現し
(ステップ100)、画素毎に光線ベクトルを設定して
各光線ベクトルが交差する物体を検索し(ステップ10
2)、同一の光線ベクトルについて検索された物体をベ
クトル進行の方向に沿って配列し(ステップ104)、
配列された物体と光線が交差する点で仕切られた区間を
光線ベクトル毎に定め、区間内に存在する物体の表現形
式を物体の配列順で各区間について登録し(ステップ1
06)、光線ベクトル毎にベクトル進行の方向へ対象と
なる区間を変えながら物体の表現形式と対応した色値を
表現形式の登録順に積算して各画素の色値を求める(ス
テップ108)、ことを特徴としている。
FIG. 1 shows a first invention and a second invention.
The method of the invention is described. In the figure, the first invention classifies all the objects indicated by the read information into rigid objects whose contours are clear and non-rigid objects whose contours are unclear. An object is represented by a minimum simple shape including the object (step 100), a ray vector is set for each pixel, and an object where the ray vectors intersect is searched (step 10).
2) Arrange the objects searched for the same ray vector along the direction of vector progression (step 104),
For each ray vector, a section partitioned by the intersection of the arranged object and the light ray is defined, and the expression form of the objects existing in the section is registered for each section in the object arrangement order (step 1
06), while changing the target section in the vector progression direction for each ray vector, the color values corresponding to the expression format of the object are integrated in the registration order of the expression format to obtain the color value of each pixel (step 108). Is characterized by.

【0011】また第2発明は、物体情報を読み込み、該
情報で示される全ての物体を外形が明瞭な剛性物体と不
明瞭な非剛性物体とに分類し、各非剛性物体を該物体が
内包される最小寸の簡易形状で表現してから、全ての剛
性物体と非剛性物体とをメモリに格納し(ステップ10
0)、画素毎に光線ベクトルを設定して各光線ベクトル
が交差する物体をメモリ上で検索し(ステップ10
2)、同一の光線ベクトルについて検索された物体をベ
クトル進行の方向に沿って配列させて光線ベクトル毎に
設けられたバッファへ格納し、かつ、剛性物体と非剛性
物体とが競合するときには剛性物体を非剛性物体に対し
配列順序を優先させ(ステップ104)、配列された物
体と光線が交差する点で仕切られた区間を光線ベクトル
毎に定め、各区間について区間内の物体を配列順で他の
バッファへ登録し(ステップ106)、光線ベクトル毎
に他のバッファを物体の配列順にアクセスして物体の表
現形式と色値とが含まれる登録内容を順に読み出し、読
み出された情報で示される物体の表現形式に応じ色値の
積算を行ない、各光線ベクトルについて得られた最終的
な積算結果を該当の画素に関する色の情報として出力す
る(ステップ108)、ことを特徴としている。
The second invention reads object information, classifies all the objects indicated by the information into a rigid object having a clear outer shape and an indistinct non-rigid object, and each non-rigid object is included in the object. All rigid objects and non-rigid objects are stored in the memory after being represented by the minimum simple shape as shown in step 10
0), a ray vector is set for each pixel, and an object where the ray vectors intersect is searched in the memory (step 10).
2) The objects searched for the same ray vector are arranged along the direction of vector progression and stored in a buffer provided for each ray vector, and when a rigid object and a non-rigid object compete with each other, a rigid object Is prioritized for the non-rigid object in the order of arrangement (step 104), the sections partitioned by the points where the arranged objects and the rays intersect are defined for each ray vector, and the objects within the sections are arranged in the order of arrangement for each section. (Step 106), the other buffers are accessed for each light ray vector in the array order of the object, and the registered contents including the expression format and the color value of the object are read out in order and indicated by the read information. The color values are integrated according to the representation format of the object, and the final integration result obtained for each ray vector is output as color information regarding the corresponding pixel (step 10). ), It is characterized in that.

【0012】[0012]

【作用】平面や2次曲面で表現された物体と表現形式が
ボクセル,メタボールのものとされた物体とを外形が明
瞭な剛性物体と不明瞭な非剛性物体とに各々分類し、非
剛性物体はこれを内包する最小寸の簡易な形状で表現す
る(これには平面や2次曲面のモデルを用いる)。
[Function] An object represented by a plane or a quadric surface and an object represented by voxels or metaballs are classified into a rigid object with a clear outer shape and an unclear non-rigid object, and a non-rigid object Is represented by a simple shape with the smallest dimension that includes this (for this, a plane or a quadric surface model is used).

【0013】そして各画素につき、光線ベクトルが交差
する物体を検索してベクトル進行の方向に配列し、各物
体を光線ベクトルが貫通する区間を設定し、区間内に存
在する物体の表現形式と対応した色値をベクトル基点の
側から逐次積算し、画素色の値を求める。
Then, for each pixel, an object in which the ray vector intersects is searched and arranged in the direction of vector progression, and a section through which the ray vector penetrates each object is set to correspond to the representation form of the object existing in the section. The obtained color values are sequentially integrated from the vector base point side to obtain the pixel color value.

【0014】このようにボクセル表現やメタボール表現
の物体(非剛性物体)が簡易な形状の物体とみなされて
外形が明瞭な通常の物体(剛性物体)と同様に取り扱わ
れるので、物体の表現形式を変換する処理が不要とな
り、したがって、表示画像の品質低下が回避される。
As described above, an object (non-rigid object) represented by voxels or metaballs is regarded as an object having a simple shape, and is treated in the same manner as an ordinary object (rigid object) having a clear outer shape. Need not be converted, and therefore the deterioration of the quality of the displayed image can be avoided.

【0015】[0015]

【実施例】図2では物体情報の入力処理がフローチャー
トを用いて説明されており、最初に物体情報が逐次読み
込まれる(ステップ200)。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In FIG. 2, an object information input process is described with reference to a flow chart. First, the object information is sequentially read (step 200).

【0016】そして物体情報が読み込まれる毎に、この
情報で示された物体が外形の明瞭な剛性物体が不明瞭な
非剛性物体かを判断する処理が行なわれ(ステップ20
2)、剛性物体(例えば球,楕円体)の場合にはその情
報がメモリへ直ちに格納される(ステップ204)。
Then, every time the object information is read, a process is performed to judge whether the object indicated by this information is a rigid object with a clear outline or a non-rigid object with an unclear outline (step 20).
2) In the case of a rigid object (for example, a sphere or an ellipsoid), its information is immediately stored in the memory (step 204).

【0017】また、読み込まれた情報で示される物体が
外形の不明瞭な非剛性物体(例えばボクセルやメタボー
ル)の場合には、その非剛性物体は同物体が内包される
最小寸の簡易形状(例えば球やボックス)で表現されて
から(ステップ206)、この非剛性物体の情報がメモ
リに格納される(ステップ204)。
When the object indicated by the read information is a non-rigid object with an unclear outline (for example, voxels or metaballs), the non-rigid object is the smallest simple shape in which the object is included ( For example, after being represented by a sphere or a box (step 206), the information of this non-rigid object is stored in the memory (step 204).

【0018】図3では画素色の出力処理がフローチャー
トを用いて説明されており、全ての画素について光線ベ
クトル(光線は視点から画素を通過する)が順に設定さ
れ(ステップ302)、光線ベクトルが設定される毎に
光線追跡の処理(ステップ302)が行なわれる。
In FIG. 3, the pixel color output process is described with reference to a flow chart, in which the ray vector (the ray passes through the pixel from the viewpoint) is sequentially set for all pixels (step 302), and the ray vector is set. Each time a beam is traced, a ray tracing process (step 302) is performed.

【0019】この光線追跡の処理(ステップ302)で
はその画素の色を示す値が得られており、光線追跡の処
理が行なわれると、同処理で得られた画素色の値が出力
される(ステップ304)。
In this ray tracing process (step 302), a value indicating the color of the pixel is obtained, and when the ray tracing process is performed, the pixel color value obtained in the same process is output ( Step 304).

【0020】図4では光線追跡の処理がフローチャート
を用いて説明されており、この処理では光線ベクトルと
交差する物体を全て検出する処理(ステップ400)が
最初に行なわれる。
In FIG. 4, the ray tracing process is described with reference to a flowchart. In this process, the process of detecting all objects intersecting the ray vector (step 400) is first performed.

【0021】図5では光線ベクトルと交差する物体を全
て検出する処理(ステップ400)がフローチャートを
用いて説明されており、物体が剛性物体か非剛性物体か
を判定する処理(ステップ500)が全ての物体につい
て繰り返される。
In FIG. 5, the process of detecting all objects intersecting the ray vector (step 400) is described by using a flowchart, and all the processes of determining whether the object is a rigid object or a non-rigid object (step 500). Is repeated for the object.

【0022】そして、物体が剛性物体であることが確認
される毎にその種別が判別され(ステップ502)、同
物体に光線ベクトルが交差するか否かが判定される(ス
テップ504)。
Then, each time the object is confirmed to be a rigid object, its type is determined (step 502), and it is determined whether or not the ray vector intersects the same object (step 504).

【0023】また、物体が非剛性物体(境界物体)であ
ることが確認された場合にも、物体の種別がその都度判
別され(ステップ506)、同物体に光線ベクトルが交
差するか否かが判定される(ステップ508)。
Also, when it is confirmed that the object is a non-rigid object (boundary object), the type of the object is discriminated each time (step 506) and whether or not the ray vector intersects the same object. It is determined (step 508).

【0024】さらに、光線ベクトルの交差する物体の場
合には同物体が光線バッファに登録され(ステップ51
0)、最後に同物体の種別(タイプ)が追加登録される
(ステップ512)。
Furthermore, in the case of an object whose ray vectors intersect, the same object is registered in the ray buffer (step 51).
0), and finally, the type of the same object is additionally registered (step 512).

【0025】図4において光線ベクトルと交差する物体
の検出処理(ステップ400)が行なわれると、その物
体数がチェックされ(ステップ402)、0でない場合
には物体の並べ替え処理が開始される(ステップ40
4)。
In FIG. 4, when the process of detecting an object intersecting the ray vector (step 400) is performed, the number of the object is checked (step 402), and if it is not 0, the process of rearranging the objects is started (step 400). Step 40
4).

【0026】図6ではこの並べ替え処理がフローチャー
トを用いて説明されており、光線バッファに登録された
物体から視点の位置に最も近い物体を検索して光線バッ
ファ先頭側へ移動する処理が繰り返される(ステップ6
00,602,604,606,608)。
In FIG. 6, this rearrangement process is described using a flowchart, and the process of retrieving the object closest to the viewpoint position from the objects registered in the ray buffer and moving it to the front side of the ray buffer is repeated. (Step 6
00, 602, 604, 606, 608).

【0027】その結果、光線バッファに登録の物体が視
点の位置に最も近い順にバッファ先頭の側から並べられ
る(光線バッファの先頭側へ移動された物体は検索の対
象から除外される)。
As a result, the objects registered in the ray buffer are arranged in the order closest to the position of the viewpoint from the buffer head side (objects moved to the ray buffer head side are excluded from the search target).

【0028】ただし剛性物体と非剛性物体とが同一距離
のときには剛性物体の配列順序が非剛性物体に対して優
先されており、また、非剛性物体の距離計算には簡易形
状が使用されている。
However, when the rigid object and the non-rigid object have the same distance, the arrangement order of the rigid objects is given priority over the non-rigid object, and the simple shape is used for the distance calculation of the non-rigid object. .

【0029】このようにして各物体の並べ替えが行なわ
れると、図4において、それらの物体に光線ベクトルが
交差する点で仕切った区間を視点に近いものから区間バ
ッファへ格納する処理(ステップ406)が行なわれ
る。
When the respective objects are rearranged in this way, the process of storing the sections partitioned by the points where the ray vectors intersect these objects in the section buffer from the point closer to the viewpoint in FIG. 4 (step 406). ) Is performed.

【0030】さらに、区間光源2次バッファに物体を登
録(ステップ408)し、色を決定(ステップ410)
する処理が全ての区間について繰り返される(ステップ
412)。
Further, the object is registered in the secondary buffer of the section light source (step 408) and the color is determined (step 410).
The process is repeated for all the sections (step 412).

【0031】図7では区間光源2次バッファの説明が行
なわれており、同図(A)において、視点700の側か
ら引き出された光線ベクトル701上に3つの物体70
2B,702A,702Cが順に並んで存在しており、
区間t0,t1においては物体702A,702B,7
02Cが重なっている。
The section light source secondary buffer is described in FIG. 7, and in FIG. 7A, three objects 70 are arranged on the ray vector 701 extracted from the viewpoint 700 side.
2B, 702A, and 702C are arranged in order,
In the sections t0 and t1, the objects 702A, 702B, 7
02C overlaps.

【0032】この場合、同図(B)のように区間t0,
t1の区間光源2次バッファへ物体702B,702
A,702Cの情報(その実体を示すポインタ)がそれ
ら物体702B,702A,702Cの並び順で格納さ
れる。
In this case, as shown in FIG.
The objects 702B, 702 to the section light source secondary buffer at t1
Information of A and 702C (pointer indicating the substance) is stored in the order of arrangement of the objects 702B, 702A, and 702C.

【0033】図8では色決定の処理がフローチャートを
用いて説明されており、この処理は視点に最も近い先頭
の区間から後尾の区間へ向かって対象の区間光源2次バ
ッファを変えながら進められる。
In FIG. 8, the color determination processing is described using a flowchart, and this processing proceeds from the head section closest to the viewpoint to the tail section while changing the target section light source secondary buffer.

【0034】そして、処理対象となった区間光源2次バ
ッファの先頭から物体(の情報)が順に取り出され(ス
テップ800,802,814)、取り出された物体が
剛性物体か非剛性物体かが判別され(ステップ804,
806)、判別結果に応じた色値の積算処理(ステップ
808,810,812)が行なわれる(最終的に得ら
れた積算値はその画素の色を示す値として出力される・
・・図3_ステップ304)。
Then, the objects (information of the objects) are sequentially extracted from the head of the secondary light source for the section light source to be processed (steps 800, 802, 814) and it is determined whether the extracted objects are rigid objects or non-rigid objects. (Step 804,
806), color value integration processing (steps 808, 810, 812) is performed according to the determination result (the finally obtained integration value is output as a value indicating the color of the pixel.
.., FIG. 3_step 304).

【0035】図9には物体情報の格納用に本実施例で使
用される構造体が示されており、先頭の構造体メンバと
次の構造体メンバとに物体のタイプ(表現形式)とその
色(の値)とが各物体に共通する情報として各々格納さ
れる。
FIG. 9 shows a structure used in this embodiment for storing object information. The object type (expression form) and its structure are shown in the first structure member and the next structure member. The color (the value of the color) is stored as information common to each object.

【0036】すなわち、各物体に共通する情報が構造体
の先頭アドレスから一定量オフセットしたメンバ部分に
格納され、したがって、他の物体情報(頂点の座標,半
径など)が後続のメンバに格納されて構造体の大きさが
物体毎に異なる場合であっても、物体表現形式の種別を
判別する処理(図6_ステップ604,図8_ステップ
804,806)を簡略化してその処理の速度をさらに
高めることが可能となる。
That is, the information common to each object is stored in the member portion offset from the head address of the structure by a certain amount, and therefore, other object information (coordinates of vertices, radius, etc.) is stored in the following members. Even if the size of the structure is different for each object, the processing for determining the type of the object expression format (FIG. 6_step 604, FIG. 8_step 804, 806) is simplified to further speed up the processing. Is possible.

【0037】また、物体の表現形式を格納する変数とし
てはには図10(A)に示された4バイト長のものが使
用されており、同図(B)のように、物体の表現形式と
対応したビットをセットすることにより、4バイト変数
で32種類の物体を一括して取り扱うことが可能とな
る。
As the variable for storing the expression form of the object, the 4-byte length shown in FIG. 10A is used. As shown in FIG. 10B, the expression form of the object is By setting the bit corresponding to, it is possible to handle 32 types of objects collectively with a 4-byte variable.

【0038】以上説明したように本実施例では、ボクセ
ル表現やメタボール表現の非剛性物体が簡易な形状の物
体とみなされて外形が明瞭な通常の剛性物体と同様に取
り扱われる。したがって、表現形式の異なるこれらの物
体が同一の光線ベクトル上に存在する画像であっても、
物体の表現形式を変換して統一する処理が不要となり、
このため、画像の品質を高めることが可能となる。
As described above, in this embodiment, a non-rigid object represented by voxels or metaballs is regarded as an object having a simple shape, and is treated in the same manner as an ordinary rigid object having a clear outer shape. Therefore, even if these objects with different representations are on the same ray vector,
There is no need to convert and unify the expression form of the object,
Therefore, the quality of the image can be improved.

【0039】また、各物体の情報を格納する構造体の先
頭側へ全ての物体に共通な物体情報が集められるので
(図9参照)、各物体の表現形式を効率良く判別してそ
の処理速度を高めることが可能となる。
Further, since the object information common to all objects is collected at the head side of the structure storing the information of each object (see FIG. 9), the expression format of each object is efficiently determined and its processing speed is increased. It becomes possible to raise.

【0040】さらに、4バイト変数で32種類の物体を
同時に取り扱えることから(図10参照)、メモリ資源
も効率良く利用することが可能となる。
Further, since it is possible to handle 32 kinds of objects simultaneously with the 4-byte variable (see FIG. 10), it is possible to efficiently use the memory resource.

【0041】[0041]

【発明の効果】以上説明したように本発明によれば、ボ
クセル表現やメタボール表現の物体が簡易な形状とされ
て他の通常の物体とみなされるので、表現形式の異なる
物体が混在する場合であっても、物体の表現形式を変換
して統一する処理を省略でき、このため、表示画像の品
質を高めることが可能となる。
As described above, according to the present invention, an object having a voxel expression or a metaball expression has a simple shape and is regarded as another normal object. Even if there is, it is possible to omit the process of converting and unifying the expression form of the object, and thus it is possible to improve the quality of the display image.

【図面の簡単な説明】[Brief description of drawings]

【図1】発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the invention.

【図2】物体情報の入力処理を説明するフローチャート
である。
FIG. 2 is a flowchart illustrating an input process of object information.

【図3】画素色の出力処理を説明するフローチャートで
ある。
FIG. 3 is a flowchart illustrating a pixel color output process.

【図4】光源の追跡処理を説明するフローチャートであ
る。
FIG. 4 is a flowchart illustrating a light source tracking process.

【図5】交差物体の検出処理を説明するフローチャート
である。
FIG. 5 is a flowchart illustrating a process of detecting an intersecting object.

【図6】物体の並び替え処理を説明するフローチャート
である。
FIG. 6 is a flowchart illustrating an object rearrangement process.

【図7】2次バッファの説明図である。FIG. 7 is an explanatory diagram of a secondary buffer.

【図8】色決定処理を説明するフローチャートである。FIG. 8 is a flowchart illustrating a color determination process.

【図9】物体情報の構造説明図である。FIG. 9 is a diagram illustrating the structure of object information.

【図10】物体表現形式のデータ構成説明図である。FIG. 10 is an explanatory diagram of a data structure in an object expression format.

【符号の説明】[Explanation of symbols]

700 視点 701 光線ベクトル 702A,702B,702C 物体 700 viewpoint 701 ray vector 702A, 702B, 702C object

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 読み込まれた情報で示される全ての物体
を外形が明瞭な剛性物体と不明瞭な非剛性物体とに分類
して各非剛性物体を該物体が内包される最小寸の簡易形
状で表現し(ステップ100)、 画素毎に光線ベクトルを設定して各光線ベクトルが交差
する物体を検索し(ステップ102)、 同一の光線ベクトルについて検索された物体をベクトル
進行の方向に沿って配列し(ステップ104)、 配列された物体と光線が交差する点で仕切られた区間を
光線ベクトル毎に定め、区間内に存在する物体の表現形
式を物体の配列順で各区間について登録し(ステップ1
06)、 光線ベクトル毎にベクトル進行の方向へ対象となる区間
を変えながら物体の表現形式と対応した色値を表現形式
の登録順に積算して各画素の色値を求める(ステップ1
08)、 ことを特徴とした交点追跡法による画像生成方法。
1. A simple shape of a minimum size in which all the objects indicated by the read information are classified into a rigid object having a clear outer shape and a non-rigid object having an unclear outer shape, and each non-rigid object is included in the object. Is represented by (step 100), a ray vector is set for each pixel, and an object where each ray vector intersects is searched (step 102). Objects searched for the same ray vector are arranged along the direction of vector progression. Then, the section partitioned by the point where the arranged object and the ray intersect is defined for each ray vector, and the expression form of the object existing in the section is registered for each section in the object arrangement order (step 104). 1
06), while changing the target section in the vector progression direction for each ray vector, the color values corresponding to the object representation format are integrated in the registration order of the representation format to obtain the color value of each pixel (step 1
08), An image generation method by an intersection tracking method characterized by the following.
【請求項2】 物体情報を読み込み、該情報で示される
全ての物体を外形が明瞭な剛性物体と不明瞭な非剛性物
体とに分類し、各非剛性物体を該物体が内包される最小
寸の簡易形状で表現してから、全ての物体をメモリに格
納し(ステップ100)、 画素毎に光線ベクトルを設定して各光線ベクトルが交差
する物体をメモリ上で検索し(ステップ102)、 同一の光線ベクトルについて検索された物体をベクトル
進行の方向に沿って配列させて光線ベクトル毎に設けら
れたバッファへ格納し、かつ、剛性物体と非剛性物体と
が競合するときには剛性物体を非剛性物体に対し配列順
序を優先させ(ステップ104)、 配列された物体と光線が交差する点で仕切られた区間を
光線ベクトル毎に定め、各区間について区間内の物体を
配列順で他のバッファへ登録し(ステップ106)、 光線ベクトル毎に他のバッファを物体の配列順にアクセ
スして物体の表現形式と色値とが含まれる登録内容を順
に読み出し、読み出された情報で示される物体の表現形
式に応じた色値の積算を行ない、各光線ベクトルについ
て得られた最終的な積算結果を該当の画素に関する色の
情報として出力する(ステップ108)、 ことを特徴とした交点追跡法による画像生成方法。
2. Object information is read, all the objects indicated by the information are classified into a rigid object having a clear outer shape and a non-rigid object having an unclear outer shape, and each non-rigid object is included in the minimum dimension. Then, all objects are stored in the memory (step 100), a ray vector is set for each pixel, and an object intersecting each ray vector is searched in the memory (step 102). The objects searched for the ray vector are stored in the buffer provided for each ray vector by arranging them along the direction of vector progression, and when the rigid object and the non-rigid object compete, the rigid object is converted to the non-rigid object. The order of arrangement is prioritized (step 104), the sections partitioned by the points where the arranged objects and the rays intersect are defined for each ray vector, and the objects in the sections for each section are arranged in the other order in the arrangement order. Register to the buffer (step 106), access other buffers for each ray vector in the array order of the object, read the registered contents including the expression format and color value of the object in order, and display the object indicated by the read information. According to the intersection point tracing method, the color value is integrated according to the expression format of, and the final integrated result obtained for each ray vector is output as color information about the corresponding pixel (step 108). Image generation method.
JP29526793A 1993-11-25 1993-11-25 Image generation method by intersection tracking method Expired - Fee Related JP3251744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29526793A JP3251744B2 (en) 1993-11-25 1993-11-25 Image generation method by intersection tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29526793A JP3251744B2 (en) 1993-11-25 1993-11-25 Image generation method by intersection tracking method

Publications (2)

Publication Number Publication Date
JPH07146953A true JPH07146953A (en) 1995-06-06
JP3251744B2 JP3251744B2 (en) 2002-01-28

Family

ID=17818386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29526793A Expired - Fee Related JP3251744B2 (en) 1993-11-25 1993-11-25 Image generation method by intersection tracking method

Country Status (1)

Country Link
JP (1) JP3251744B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6780683B2 (en) 2018-09-20 2020-11-04 栗田工業株式会社 Aggregation status monitoring sensor

Also Published As

Publication number Publication date
JP3251744B2 (en) 2002-01-28

Similar Documents

Publication Publication Date Title
US11328472B2 (en) Watertight ray triangle intersection
EP0311081B1 (en) Displaying method and apparatus for three-dimensional computer graphics
US7119809B1 (en) Parallel architecture for graphics primitive decomposition
US4858149A (en) Method and system for solid modelling
US6731291B2 (en) Image processing device and system using the same
Wang et al. Volume sampled voxelization of geometric primitives
Agkland et al. The edge flag algorithm—a fill method for raster scan displays
US5809179A (en) Producing a rendered image version of an original image using an image structure map representation of the image
US7508394B1 (en) Systems and methods of multi-pass data processing
US6961065B2 (en) Image processor, components thereof, and rendering method
US5379371A (en) Displaying method and apparatus for three-dimensional computer graphics
US5027292A (en) Multiple depth buffers for graphics and solid modelling
JPH07120433B2 (en) Method and apparatus for rendering a trimmed parametric surface
JPH01216490A (en) Octory coded object 3-d display and apparatus applying the same
JPH02210587A (en) High-speed image expressing apparatus
JPS62288979A (en) Computer aided design system
JP3391864B2 (en) Image data processing method and apparatus and graphic system
JP3352181B2 (en) Image data processing method and apparatus
WO2023044029A1 (en) Accelerating triangle visibility tests for real-time ray tracing
KR20010012841A (en) Image processor and image processing method
US11341708B2 (en) Graphics processing
US20090157211A1 (en) Producing a locally optimal path through a lattice by overlapping search
US20240095993A1 (en) Reducing false positive ray traversal in a bounding volume hierarchy
US20240095995A1 (en) Reducing false positive ray traversal using ray clipping
US5926183A (en) Efficient rendering utilizing user defined rooms and windows

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091116

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees