JP5744421B2 - Hybrid rendering apparatus and method - Google Patents

Hybrid rendering apparatus and method Download PDF

Info

Publication number
JP5744421B2
JP5744421B2 JP2010132166A JP2010132166A JP5744421B2 JP 5744421 B2 JP5744421 B2 JP 5744421B2 JP 2010132166 A JP2010132166 A JP 2010132166A JP 2010132166 A JP2010132166 A JP 2010132166A JP 5744421 B2 JP5744421 B2 JP 5744421B2
Authority
JP
Japan
Prior art keywords
rendering
light
rendering method
hybrid
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010132166A
Other languages
Japanese (ja)
Other versions
JP2010287235A (en
Inventor
民 修 安
民 修 安
永 仁 高
永 仁 高
仁 友 河
仁 友 河
廷 桓 安
廷 桓 安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010287235A publication Critical patent/JP2010287235A/en
Application granted granted Critical
Publication of JP5744421B2 publication Critical patent/JP5744421B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Description

本発明の実施形態は、レンダリング対象の材質、ハードウェア性能などによってレンダリング方法を選択的に適用するハイブリッドレンダリング装置および方法に関する。   Embodiments described herein relate generally to a hybrid rendering apparatus and method for selectively applying a rendering method according to a material to be rendered, hardware performance, and the like.

レンダリングは、コンピュータグラフィックス分野において最も基本となるものであって、このための様々な方式が提案されている。最も広く用いているラスタライゼーション(rasterization)方式は、コンピュータグラフィックスのハードウェアの性能を最も多く活用しているが、直接光のみの表現が可能である。また、ラジオシティ(radiosity)方式の場合、光の拡散およびソフトシャドー(soft shadow)等を巧みに表現するが、反射、屈折などを表現するには限界があり、レイトレーシング(ray−tracing)方式の場合、光の反射、屈折などを巧みに表現するが、光の拡散およびソフトシャドーを表現するには限界がある。   Rendering is the most basic in the computer graphics field, and various schemes for this purpose have been proposed. The most widely used rasterization method makes the most use of the hardware performance of computer graphics, but can express only direct light. In the radiosity method, light diffusion and soft shadow are skillfully expressed. However, there is a limit in expressing reflection, refraction, and the like, and a ray-tracing method. In the case of, the reflection and refraction of light is skillfully expressed, but there is a limit in expressing the diffusion and soft shadow of light.

前述した課題を克服するために本発明は、既存のレンダリング方式が有する限界を克服し、材質の特性に応じてレンダリング効率を向上し、様々なハードウェアにおいて動作可能なレンダリング装置および方法が求められる。   In order to overcome the above-described problems, the present invention is directed to a rendering apparatus and method that overcomes the limitations of existing rendering methods, improves rendering efficiency according to material characteristics, and can operate on various hardware. .

本発明の一実施形態に係るハイブリッドレンダリング装置は、3次元(3D)レンダリングを行うためのレンダリング方式を選択する判断部と、第1レンダリング方式によって直接光を表し、前記3Dレンダリングを行う第1レンダリング部と、第2レンダリング方式によって間接光および影のうちの少なくとも1つを表現して前記3Dレンダリングを行う第2レンダリング部と、第3レンダリング方式によって反射光、屈折光、および回折光のうちの少なくとも1つを表現して前記3Dレンダリングを行う第3レンダリング部と、を含んでもよい。   A hybrid rendering apparatus according to an embodiment of the present invention includes a determination unit that selects a rendering method for performing three-dimensional (3D) rendering, and a first rendering that performs direct 3D rendering by directly expressing light using a first rendering method. A second rendering unit that performs the 3D rendering by expressing at least one of indirect light and shadow by a second rendering method, and a reflected light, a refracted light, and a diffracted light by a third rendering method. A third rendering unit that expresses at least one and performs the 3D rendering.

このとき、前記判断部は、レンダリング対象の特性を考慮してレンダリング方式を選択してもよい。   At this time, the determination unit may select a rendering method in consideration of characteristics of a rendering target.

また、前記判断部は、ハードウェア性能を考慮してレンダリング方式を選択してもよい。   The determination unit may select a rendering method in consideration of hardware performance.

また、前記第1レンダリング方式は、ベクトルデータをピクセルパターンイメージに変換してレンダリングするラスタライゼーションレンダリング方式であってもよい。   The first rendering method may be a rasterization rendering method in which vector data is converted into a pixel pattern image and rendered.

また、前記第2レンダリング方式は、光源、物体間の光、および拡散光のうちの少なくとも1つを考慮してレンダリングするラジオシティレンダリング方式であってもよい。   Further, the second rendering method may be a radiosity rendering method for rendering in consideration of at least one of a light source, light between objects, and diffused light.

また、前記第3レンダリング方式は、光線(レイ)が物体の表面から反射する経路を追跡してレンダリングするレイトレーシングレンダリング方式であってもよい。   In addition, the third rendering method may be a ray tracing rendering method in which a ray (ray) is traced to be reflected from a surface of an object and rendered.

本発明の一実施形態に係るハイブリッドレンダリング方法は、3次元(3D)レンダリングを行うためのレンダリング方式を選択するステップと、第1レンダリング方式によって直接光を表現して前記3Dレンダリングを行うステップと、第2レンダリング方式によって間接光および影のうちの少なくとも1つを表現して前記3Dレンダリングを行うステップと、第3レンダリング方式によって反射光、屈折光、および回折光のうちの少なくとも1つを表現して前記3Dレンダリングを行うステップと、を含んでもよい。   The hybrid rendering method according to an embodiment of the present invention includes a step of selecting a rendering method for performing three-dimensional (3D) rendering, a step of performing the 3D rendering by directly expressing light using a first rendering method, Performing the 3D rendering by expressing at least one of indirect light and shadow by a second rendering method; and expressing at least one of reflected light, refracted light, and diffracted light by a third rendering method. And performing the 3D rendering.

このとき、前記選択するステップは、前記第1レンダリング方式、前記第2レンダリング方式、および前記第3レンダリング方式のうちの少なくとも1つのレンダリング方式を選択するステップと、ラジオシティレンダリングのためのパッチおよびサンプルポイントの大きさと個数を調整するステップと、レイトレーシングのためのマスク生成、光の反射回数、および光の屈折回数を調整するステップと、を含んでもよい。   At this time, the selecting step includes a step of selecting at least one rendering method among the first rendering method, the second rendering method, and the third rendering method, and patches and samples for radiosity rendering. The method may include adjusting the size and number of points, and adjusting the generation of a mask for ray tracing, the number of times of light reflection, and the number of times of light refraction.

また、前記マスク生成、光の反射回数、および光の屈折回数を調整するステップは、前記レイトレーシングのためのマスクのピクセル値を決定して前記マスクを生成するステップと、前記光の反射回数および前記光の屈折回数のうちの少なくとも1つを調整するステップと、を含んでもよい。   Further, the step of adjusting the mask generation, the number of times of light reflection, and the number of times of light refraction includes determining a pixel value of the mask for the ray tracing and generating the mask, and the number of times of reflection of the light and Adjusting at least one of the number of refractions of the light.

また、前記マスクを生成するステップは、光線(レイ)を生成するための領域のピクセル値を第1設定値に設定するステップと、レイを生成しない領域のピクセル値を第2設定値に設定するステップと、を含んでもよい。   The step of generating the mask includes setting a pixel value of a region for generating a ray (ray) to a first set value, and setting a pixel value of a region not generating a ray to a second set value. Steps may be included.

本発明は、レンダリング対象の特性を考慮して1つ以上のレンダリング方式を選択的に適用することによって、各レンダリング方式の長所を最大に活用し、レンダリングの性能を極大化することができる。   In the present invention, by selectively applying one or more rendering methods in consideration of the characteristics of the rendering target, the advantages of each rendering method can be maximized and the rendering performance can be maximized.

また、ハードウェアの性能を考慮してレンダリング方式を適用することによって、レンダリングの速度および効果を調整し、ハードウェア性能に最適化されたレンダリングを行うことができる。   Also, by applying a rendering method in consideration of hardware performance, rendering speed and effect can be adjusted, and rendering optimized for hardware performance can be performed.

本発明の一実施形態に係るハイブリッドレンダリング装置を示す図である。It is a figure which shows the hybrid rendering apparatus which concerns on one Embodiment of this invention. 図1に示すハイブリッドレンダリング装置の判断部の構成を示す図である。It is a figure which shows the structure of the judgment part of the hybrid rendering apparatus shown in FIG. 本発明の他の一実施形態によってハイブリッドレンダリングを行う過程を示す図である。FIG. 6 is a diagram illustrating a process of performing hybrid rendering according to another embodiment of the present invention. 本発明の一実施形態に係るラジオシティレンダリング方式を説明するための図である。It is a figure for demonstrating the radiosity rendering system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るラスタライゼーションレンダリング方式を説明するための図である。It is a figure for demonstrating the rasterization rendering system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るレイトレーシングレンダリング方式を説明するための図である。It is a figure for demonstrating the ray tracing rendering system which concerns on one Embodiment of this invention. 本発明の一実施形態によってレイトレーシングのためのマスクを生成する過程を説明するための図である。FIG. 6 is a diagram illustrating a process of generating a mask for ray tracing according to an exemplary embodiment of the present invention. 本発明の一実施形態に係るハイブリッドレンダリング方法を説明するための動作フローチャートである。5 is an operation flowchart for explaining a hybrid rendering method according to an embodiment of the present invention. 図8に示すレンダリング方式を選択する過程の一実施形態を示す動作フローチャートである。FIG. 9 is an operation flowchart illustrating an embodiment of a process of selecting a rendering method illustrated in FIG. 8. 図9に示すマスク生成、光の反射回数、および光の屈折回数を調整する過程の一実施形態を示す動作フローチャートである。10 is an operation flowchart illustrating an embodiment of a process of adjusting the mask generation, the number of times of light reflection, and the number of times of light refraction shown in FIG. 図10に示すマスクを生成する過程の一実施形態を示す動作フローチャートである。11 is an operation flowchart illustrating an embodiment of a process for generating the mask illustrated in FIG. 10.

以下、添付の図面に記載された内容を参照して本発明に係る好適な実施形態を詳細に説明する。ただ、本発明が実施形態によって制限されたり限定されることはない。各図面に提示される同じ参照符号は同じ部材を示す。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the contents described in the accompanying drawings. However, the present invention is not limited or limited by the embodiments. The same reference numerals provided in each drawing denote the same members.

図1は、本発明の一実施形態に係るハイブリッドレンダリング装置を示す図である。   FIG. 1 is a diagram illustrating a hybrid rendering apparatus according to an embodiment of the present invention.

図1を参照すると、ハイブリッドレンダリング装置100は、判断部110、第1レンダリング部120、第2レンダリング部130、および第3レンダリング部130を備える。   Referring to FIG. 1, the hybrid rendering apparatus 100 includes a determination unit 110, a first rendering unit 120, a second rendering unit 130, and a third rendering unit 130.

判断部110は、3Dレンダリングを行うためのレンダリング方式を選択してもよい。このとき、判断部110は、レンダリング対象の特性を考慮してレンダリング方式を選択してもよい。例えば、レンダリング対象の材質情報を抽出し、レンダリング対象の材質が反射、屈折などが必要な材質であるか否か、光の拡散が必要な材質であるか否かなどを確認してもよい。このとき、対象物体が反射、屈折などが必要な場合には、レイトレーシングレンダリングを行うようにしてもよい。また、光の拡散が必要な場合にはラジオシティレンダリングを行うようにしてもよい。   The determination unit 110 may select a rendering method for performing 3D rendering. At this time, the determination unit 110 may select a rendering method in consideration of the characteristics of the rendering target. For example, material information to be rendered may be extracted to check whether the material to be rendered is a material that needs reflection, refraction, or the like, or a material that needs to diffuse light. At this time, if the target object needs reflection, refraction, etc., ray tracing rendering may be performed. Radiosity rendering may be performed when light diffusion is necessary.

また、ハードウェアの性能を考慮してレンダリング方式を選択してもよい。例えば、レイトレーシングレンダリング方式である場合、ハードウェアリソースを多く用いるため、低い性能のハードウェア仕様ではレイトレーシングレンダリングを行わず、ラスタライゼーションレンダリングおよびラジオシティレンダリングのうちの少なくとも1つだけを行うようにしてもよい。ここで、判断部110は、図2を参照して以下でより詳しく説明する。   In addition, a rendering method may be selected in consideration of hardware performance. For example, since the ray tracing rendering method uses a lot of hardware resources, ray tracing rendering is not performed in a hardware specification with low performance, and at least one of rasterization rendering and radiosity rendering is performed. May be. Here, the determination unit 110 will be described in more detail below with reference to FIG.

図2は、図1に示すハイブリッドレンダリング装置の判断部の構成を示す図である。   FIG. 2 is a diagram illustrating a configuration of a determination unit of the hybrid rendering apparatus illustrated in FIG.

図2を参照すると、判断部110は、レンダリング方式選択部210、第1媒介変数調整部220、および第2媒介変数調整部230を備えてもよい。   Referring to FIG. 2, the determination unit 110 may include a rendering method selection unit 210, a first parameter adjustment unit 220, and a second parameter adjustment unit 230.

レンダリング方式選択部210は、第1レンダリング方式、第2レンダリング方式、および第3レンダリング方式のうちの少なくとも1つのレンダリング方式を選択してもよい。すなわち、レンダリング対象の材質、ハードウェアの性能などによって様々なレンダリング方式のうちの少なくとも1つを選択してもよい。   The rendering method selection unit 210 may select at least one rendering method among the first rendering method, the second rendering method, and the third rendering method. That is, at least one of various rendering methods may be selected depending on the material to be rendered, the performance of hardware, and the like.

第1媒介変数調整部220は、ラジオシティレンダリングのためのパッチおよびサンプルポイントの大きさと個数を調整することができる。すなわち、ハードウェア性能および入力によって、レンダリング対象の色を決めるために用いるパッチとサンプルポイントの大きさおよび数を調整することによって、レンダリングの速度および効果を調整することができる。また、パッチまたはサンプルポイント間の色を決めるために、カメラの位置と近い位置にあるパッチおよびサンプルポイントは詳しく算出し、遠方にあるパッチおよびサンプルポイントに対する算出量は減らすことによって、画質上の差のないレンダリング性能をもたらすようにしてもよい。   The first parameter adjustment unit 220 may adjust the size and number of patches and sample points for radiosity rendering. That is, the speed and effect of rendering can be adjusted by adjusting the size and number of patches and sample points used to determine the color to be rendered, depending on hardware performance and input. Also, in order to determine the color between patches or sample points, patches and sample points that are close to the camera position are calculated in detail, and the amount of calculation for remote patches and sample points is reduced, resulting in a difference in image quality. It may be possible to provide a rendering performance without any problem.

第2媒介変数調整部230は、レイトレーシングのためのマスク生成、光の反射回数、および光の屈折回数を調整することができる。ここで、第2媒介変数調整部230は、マスク生成調整部231および反射回数調整部232を含んでもよい。   The second parameter adjustment unit 230 can adjust mask generation for ray tracing, the number of times of light reflection, and the number of times of light refraction. Here, the second parameter adjustment unit 230 may include a mask generation adjustment unit 231 and a reflection frequency adjustment unit 232.

マスク生成調整部231は、レイトレーシングのためのマスクのピクセル値を決めることができる。ここで、マスクはレイトレーシング適用領域を示すためのものであってもよい。すなわち、すべての領域が反射、屈折などを必要とするためのものではないため、反射、屈折などが必要な領域と必要でない領域を示すマスクを生成してもよい。   The mask generation adjustment unit 231 can determine a pixel value of a mask for ray tracing. Here, the mask may be for indicating a ray tracing application area. That is, since not all areas require reflection and refraction, a mask indicating areas that require reflection and refraction and areas that do not need to be generated may be generated.

また、カメラの位置とオブジェクトとの間の距離、反射/屈折係数、そして画面上でオブジェクトが占める面積などを考慮してマスクを生成することによって、レンダリング速度を調整してもよい。   The rendering speed may be adjusted by generating a mask in consideration of the distance between the camera position and the object, the reflection / refraction coefficient, the area occupied by the object on the screen, and the like.

反射回数調整部232は、光の反射回数および光の屈折回数のうちの少なくとも1つを調整することができる。すなわち、反射回数調整部232は、ハードウェア性能などを考慮して反射、屈折回数を調整することによって、レンダリング速度を調整してもよい。   The reflection frequency adjusting unit 232 can adjust at least one of the light reflection frequency and the light refraction frequency. That is, the reflection frequency adjustment unit 232 may adjust the rendering speed by adjusting the reflection and refraction frequency in consideration of hardware performance and the like.

再び図1を参照すると、第1レンダリング部120は、第1レンダリング方式によって直接光を表現して3Dレンダリングを行ってもよい。ここで、第1レンダリング方式は、ベクトルデータをピクセルパターンイメージに変換してレンダリングするラスタライゼーションレンダリング方式であってもよい。このとき、ラスタライゼーションレンダリング方式は、コンピュータグラフィックスのハードウェアの性能を最も巧みに活用することができる。   Referring to FIG. 1 again, the first rendering unit 120 may perform 3D rendering by directly expressing light using the first rendering method. Here, the first rendering method may be a rasterization rendering method in which vector data is converted into a pixel pattern image and rendered. At this time, the rasterization rendering method can best utilize the performance of computer graphics hardware.

第2レンダリング部130は、第2レンダリング方式によって間接光および影のうちの少なくとも1つを表現して3Dレンダリングを行ってもよい。ここで、前記第2レンダリング方式は、光源、物体との間の光、拡散光および影のうちの少なくとも1つを考慮してレンダリングするラジオシティレンダリング方式であってもよい。このとき、ラジオシティレンダリング方式は、光の拡散およびソフトシャドーなどを巧みに表現することができる。   The second rendering unit 130 may perform 3D rendering by expressing at least one of indirect light and shadow by the second rendering method. Here, the second rendering method may be a radiosity rendering method for rendering in consideration of at least one of a light source, light between an object, diffused light, and shadow. At this time, the radiosity rendering method can skillfully express light diffusion and soft shadow.

第3レンダリング部130は、第3レンダリング方式によって反射光、屈折光、および回折光のうちの少なくとも1つを表現して3Dレンダリングを行ってもよい。ここで、レイが物体の表面から反射する経路を追跡してレンダリングするレイトレーシングレンダリング方式であってもよい。このとき、レイトレーシングレンダリング方式は、光の反射、屈折などを巧みに表現することができる。   The third rendering unit 130 may perform 3D rendering by expressing at least one of reflected light, refracted light, and diffracted light by a third rendering method. Here, a ray tracing rendering method may be used in which a ray is traced and rendered along a path of reflection from the surface of the object. At this time, the ray tracing rendering method can skillfully express light reflection and refraction.

前述のように、レンダリング対象の材質およびハードウェア性能のうちの少なくとも1つによってレンダリング方式を選択することにより、レンダリングの効率を極大化して様々なハードウェア環境においても効率的なレンダリングを行うことができる。   As described above, by selecting a rendering method according to at least one of a material to be rendered and hardware performance, rendering efficiency can be maximized and efficient rendering can be performed even in various hardware environments. it can.

図3は、本発明の他の一実施形態によってハイブリッドレンダリングを行う過程を示す図である。   FIG. 3 is a diagram illustrating a process of performing hybrid rendering according to another embodiment of the present invention.

図3を参照すると、ステップ310においては、画面を構成するオブジェクトの集まりであるシーングラフと光情報を入力データとして入力されてもよい。   Referring to FIG. 3, in step 310, a scene graph that is a collection of objects constituting the screen and light information may be input as input data.

ステップ320では、光の拡散、ソフトシャドー等の広域照明の効果を算出するラジオシティレンダリングを行ってもよい。ここで、ラジオシティレンダリングのためにシーンを構成する物体の表面からパッチまたはサンプルポイントを抽出し、この間の相互作用をシミュレーションすることによってこれらの色を算出してもよい。   In step 320, radiosity rendering may be performed to calculate the effect of wide-area illumination such as light diffusion or soft shadow. Here, these colors may be calculated by extracting patches or sample points from the surface of the object constituting the scene for radiosity rendering and simulating the interaction therebetween.

ステップ330においては、抽出されるパッチまたはサンプルポイントの色情報などと、カメラおよびオブジェクトの材質情報を用いて、ラスタライゼーションレンダリングを行って画面に出力するための各ピクセル値をフレームバッファに格納してもよい。   In step 330, each pixel value to be rasterized and output to the screen is stored in the frame buffer using the color information of the extracted patch or sample point and the material information of the camera and the object. Also good.

ステップ340においては、レイトレーシングによって光の反射、屈折などの広域照明の効果を算出し、算出によって獲得される色値を用いてステップ320にて格納したフレームバッファの色値をアップデートしてもよい。   In step 340, the effect of wide-area illumination such as light reflection and refraction may be calculated by ray tracing, and the color value of the frame buffer stored in step 320 may be updated using the color value acquired by the calculation. .

ステップ350においては、アップデートされた値に基づいて光の反射、屈折を反映する3次元出力映像を最終的に生成してもよい。   In step 350, a three-dimensional output image reflecting light reflection and refraction may be finally generated based on the updated value.

図4は、本発明の一実施形態に係るラジオシティレンダリング方式を説明するための図である。   FIG. 4 is a diagram for explaining a radiosity rendering method according to an embodiment of the present invention.

図4を参照すると、ラジオシティレンダリング方式は、光源からの光のみならずレンダリング対象との間のやり取りする光の影響、拡散光などを算出するためにすべての表面を光量の分布に応じて再び小さいパッチ410、420、430に分けたり、表面でサンプリング点を抽出して算出してもよい。すなわち、シーンを構成しているすべての表面をパッチ410、420、430に分け、光源から第1パッチ410に、第1パッチ410から第2パッチ420に、再び第3パッチ430にどれくらいの光エネルギーが伝えられるかその量を算出してもよい。   Referring to FIG. 4, in the radiosity rendering method, not only the light from the light source but also the influence of the light exchanged with the rendering target, the diffused light, etc., all surfaces are again displayed according to the light quantity distribution. The calculation may be performed by dividing into small patches 410, 420, and 430, or by extracting sampling points on the surface. That is, all the surfaces constituting the scene are divided into patches 410, 420, 430, and how much light energy is applied from the light source to the first patch 410, from the first patch 410 to the second patch 420, and again to the third patch 430. May be calculated.

このような場合、大きな白色壁面、赤色青色の底から構成されるシーンにラジオシティレンダリング方式を適用すれば、赤色の底から反射した拡散光の影響を受け、白色壁面が赤色に表わせる。   In such a case, if the radiosity rendering method is applied to a scene composed of a large white wall surface and a red-blue base, the white wall surface can be displayed in red under the influence of diffused light reflected from the red bottom.

図5は、本発明の一実施形態に係るラスタライゼーションレンダリング方式を説明するための図である。   FIG. 5 is a view for explaining a rasterization rendering method according to an embodiment of the present invention.

図5を参照すると、三次元の位置と色を有する頂点510から多面体520を形成し、多面体をグラフィックハードウェアのフレームバッファのピクセルに変換530、540してもよい。一方、ラスタライゼーションレンダリング方式は、グラフィックハードウェアにより高速化してもよい一方、反射、屈折、また間接光などのような広域照明を表現するには困難がある。   Referring to FIG. 5, a polyhedron 520 may be formed from vertices 510 having a three-dimensional position and color, and the polyhedron may be converted 530, 540 into pixels of a graphic hardware frame buffer. On the other hand, the rasterization rendering method may be accelerated by graphic hardware, but it is difficult to express wide-area illumination such as reflection, refraction, and indirect light.

図6は、本発明の一実施形態に係るレイトレーシングレンダリング方式を説明するための図である。   FIG. 6 is a diagram for explaining a ray tracing rendering method according to an embodiment of the present invention.

図6を参照すると、レイトレーシングレンダリング方式は、時点から画面上の各ピクセルの方向に光線(レイ)を発射し、見られる物体の算出および見られる点の照度を算出する方式を意味する。このとき、時点で発射された1次レイ(primary ray)610は、物体にぶつかる瞬間の影が含まれるかの有無を算出するためのシャドーレイ(shadow ray)640、反射表面の場合に反射したイメージを求めるための反射レイ630、屈折表面の場合に屈折されたイメージを求めるための屈折レイ620等を再帰的に生成してもよい。レイトレーシングレンダリング方式によって反射/屈折などのような広域照明を表すことができるが、必要な演算量が大きいためにリアルタイムレンダリングに活用することが難しい場合もある。また、光の拡散およびソフトシャドーなどを表すためには、使わなければならないレイの数が急激に増加することから、必要な演算量が大きくなる場合もある。   Referring to FIG. 6, the ray tracing rendering method means a method in which a ray (ray) is emitted in the direction of each pixel on the screen from a point in time, and an object to be seen is calculated and an illuminance of the point to be seen is calculated. At this time, the primary ray 610 emitted at the time is reflected in the case of a shadow ray 640 for calculating whether or not a shadow at the moment of hitting an object is included, in the case of a reflective surface. A reflection ray 630 for obtaining an image, a refraction ray 620 for obtaining a refracted image in the case of a refractive surface, and the like may be recursively generated. Wide ray illumination such as reflection / refraction can be expressed by the ray tracing rendering method, but it may be difficult to use for real-time rendering due to the large amount of calculation required. In addition, in order to represent light diffusion, soft shadow, and the like, the number of rays that must be used increases rapidly, and thus the amount of computation required may increase.

図7は、本発明の一実施形態によってレイトレーシングのためのマスクを生成する過程を説明するための図である。   FIG. 7 is a view illustrating a process of generating a mask for ray tracing according to an exemplary embodiment of the present invention.

図7を参照すると、マスクは画面と同じ解像度を有してもよく、レイトレーシングレンダリングが必要な領域720または必要でない領域710を表現してもよい。一例として、マスク内の特定領域の値が0でない値を有するピクセルに対してのみレイを生成し、レイトレーシングを行ってもよい。ここで、マスク生成はシーンを構成する物体の単位からなり、その物体が有している反射、屈折の係数を基準として生成してもよい。   Referring to FIG. 7, the mask may have the same resolution as the screen and may represent an area 720 that does not require ray tracing rendering or an area 710 that does not require. As an example, ray tracing may be performed by generating a ray only for a pixel having a non-zero value in a specific area in the mask. Here, the mask generation is made up of units of objects constituting the scene, and may be generated based on the reflection and refraction coefficients of the objects.

一例として、物体の材質の反射、屈折係数が既に設定された値を越えない場合、物体が描かれる領域にあるピクセル値を0に設定してもよい。また、物体が既定値よりも遠くにある場合、物体が描かれる領域にあるピクセル値を0に設定してもよい。また、物体が描かれる領域が既定値よりも小さい場合、物体が描かれる領域にあるピクセル値を0に設定してもよい。   As an example, if the reflection and refraction coefficients of the material of the object do not exceed preset values, the pixel value in the area where the object is drawn may be set to zero. Further, when the object is farther than the predetermined value, the pixel value in the area where the object is drawn may be set to 0. Further, when the area where the object is drawn is smaller than the default value, the pixel value in the area where the object is drawn may be set to zero.

図8は、本発明の一実施形態に係るハイブリッドレンダリング方法を説明するための動作フローチャートである。   FIG. 8 is an operation flowchart for explaining a hybrid rendering method according to an embodiment of the present invention.

図8を参照すると、ステップ810においては3Dレンダリングを行うためのレンダリング方式を選択してもよい。一例として、レンダリング対象の特性、ハードウェア性能などによってレンダリング方式を選択してもよい。ここで、レンダリング対象の特性は、レンダリング対象が反射、屈折などを必要とするか否か、間接光の表現が必要であるか否かなどを含んでもよい。ここで、ステップ810は図9を参照して以下により詳しく説明する。   Referring to FIG. 8, in step 810, a rendering method for performing 3D rendering may be selected. As an example, a rendering method may be selected depending on the characteristics of the rendering target, hardware performance, and the like. Here, the characteristics of the rendering target may include whether the rendering target requires reflection, refraction, etc., whether indirect light needs to be expressed, or the like. Here, step 810 is described in more detail below with reference to FIG.

図9は、図8に示すレンダリング方式を選択する過程の一実施形態を示す動作フローチャートである。   FIG. 9 is an operational flowchart illustrating an embodiment of a process of selecting the rendering method illustrated in FIG.

図9を参照すると、ステップ910においては第1レンダリング方式、第2レンダリング方式、および第3レンダリング方式のうちの少なくとも1つのレンダリング方式を選択してもよい。ここで、第1レンダリング方式はラスタライゼーションレンダリング方式であり、第2レンダリング方式はラジオシティレンダリング方式であり、第3レンダリング方式はレイトレーシングレンダリング方式であってもよい。   Referring to FIG. 9, in step 910, at least one of the first rendering method, the second rendering method, and the third rendering method may be selected. Here, the first rendering method may be a rasterization rendering method, the second rendering method may be a radiosity rendering method, and the third rendering method may be a ray tracing rendering method.

ステップ920において、ラジオシティレンダリングのためのパッチおよびサンプルポイントの大きさと個数を調整してもよい。これによって、カメラの位置と近い位置にあるパッチおよびサンプリングポイントは詳しく算出し、遠方にあるパッチおよびサンプリングポイントは算出量を減らすことができる。   In step 920, the size and number of patches and sample points for radiosity rendering may be adjusted. This makes it possible to calculate in detail the patches and sampling points that are close to the camera position, and to reduce the amount of calculation for patches and sampling points that are far away.

ステップ930において、レイトレーシングのためのマスク生成、光の反射回数、および光の屈折回数を調整してもよい。ここで、ステップ930は図10を参照してより詳しく説明する。   In step 930, mask generation for ray tracing, the number of light reflections, and the number of light refractions may be adjusted. Here, step 930 will be described in more detail with reference to FIG.

図10は、図9に示すマスク生成、光の反射回数、および光の屈折回数を調整する過程の一実施形態を示す動作フローチャートである。   FIG. 10 is an operation flowchart illustrating an embodiment of a process of adjusting the mask generation, the number of times of light reflection, and the number of times of light refraction shown in FIG.

図10を参照すると、ステップ1010において、レイトレーシングのためのマスクのピクセル値を決定してマスクを生成してもよい。このとき、レイトレーシングを行おうとする領域のピクセル値とレイトレーシングを行わない領域のピクセル値とを区分して設定してもよい。マスクを生成する過程は図11を参照して詳細に説明する。   Referring to FIG. 10, in step 1010, a mask may be generated by determining pixel values of a mask for ray tracing. At this time, the pixel value of the region where the ray tracing is to be performed and the pixel value of the region where the ray tracing is not performed may be set separately. The process of generating the mask will be described in detail with reference to FIG.

図11は、図10に示すマスクを生成する過程の一実施形態を示す動作フローチャートである。   FIG. 11 is an operation flowchart showing an embodiment of a process for generating the mask shown in FIG.

図11を参照すると、ステップ1110においては、レイを生成するための領域のピクセル値を第1設定値に設定してもよい。このとき、第1設定値は0よりも大きい任意の値であってもよい。   Referring to FIG. 11, in step 1110, a pixel value of a region for generating a ray may be set to a first setting value. At this time, the first set value may be an arbitrary value larger than 0.

ステップ1120においては、レイを生成しない領域のピクセル値を第2設定値に設定してもよい。このとき、第2設定値は0であってもよい。   In step 1120, the pixel value of the region where no ray is generated may be set to the second set value. At this time, the second set value may be zero.

したがって、第1設定値と第2設定値は互いに区分される値であり、レンダリングを行うとき第1設定値と第2設定値によってレイトレーシングレンダリングが必要であるか否かを確認してもよい。   Therefore, the first setting value and the second setting value are values that are distinguished from each other, and it may be confirmed whether or not ray tracing rendering is necessary based on the first setting value and the second setting value when rendering is performed. .

再び図10を参照すると、ステップ1020においては、光の反射回数および光の屈折回数のうちの少なくとも1つを調整してもよい。光の反射回数および光の屈折回数は、ハードウェア性能などを考慮して調整してもよく、ハードウェア性能が高いほど回数を高く設定して優れた立体効果を表現してもよい。   Referring to FIG. 10 again, in step 1020, at least one of the number of times of light reflection and the number of light refractions may be adjusted. The number of times of reflection of light and the number of times of refraction of light may be adjusted in consideration of hardware performance or the like, and the higher the hardware performance, the higher the number of times may be expressed to express an excellent stereoscopic effect.

再び図8を参照すると、ステップ820においては第1レンダリング方式によって直接光を表現して3Dレンダリングを行ってもよい。このとき、第1レンダリング方式は、ラスタライゼーションレンダリング方式であってもよい。   Referring to FIG. 8 again, in step 820, 3D rendering may be performed by directly expressing light using the first rendering method. At this time, the first rendering method may be a rasterization rendering method.

ステップ830においては、第2レンダリング方式によって間接光および影のうちの少なくとも1つを表現して3Dレンダリングを行ってもよい。このとき、第2レンダリング方式はラジオシティレンダリング方式であってもよい。   In step 830, 3D rendering may be performed by expressing at least one of indirect light and shadow by the second rendering method. At this time, the second rendering method may be a radiosity rendering method.

ステップ840においては、第3レンダリング方式によって反射光、屈折光、および回折光のうちの少なくとも1つを表現して3Dレンダリングを行ってもよい。このとき、第3レンダリング方式はレイトレーシングレンダリング方式であってもよい。   In step 840, 3D rendering may be performed by expressing at least one of reflected light, refracted light, and diffracted light by a third rendering method. At this time, the third rendering method may be a ray tracing rendering method.

このとき、3Dレンダリングのために第1レンダリング方式、第2レンダリング方式、および第3レンダリング方式を選択的に適用してもよい。   At this time, the first rendering method, the second rendering method, and the third rendering method may be selectively applied for 3D rendering.

本発明の実施形態は、コンピュータによりハイブリッドレンダリング方法のステップを実行するためのプログラム命令を含み、さらに当該プログラム命令を含むコンピュータ読取可能な記録媒体を含む。当該記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むこともでき、記録媒体およびプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知であり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれる。また、記録媒体は、プログラム命令、データ構造などを保存する信号を送信する搬送波を含む光または金属線、導波管などの送信媒体でもある。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。上述したハードウェア装置は、本発明の動作を行うため1つ以上のソフトウェアモジュールとして作動するよう構成され、その逆も同様である。   Embodiments of the present invention include program instructions for performing the steps of the hybrid rendering method by a computer, and further include a computer-readable recording medium including the program instructions. The recording medium may include program instructions, data files, data structures, etc. alone or in combination, and the recording medium and program instructions may be specially designed and configured for the purposes of the present invention, It may be known and usable by those skilled in the computer software art. Examples of computer-readable recording media include magnetic media such as hard disks, floppy (registered trademark) disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic-lights such as floppy disks. A medium and a hardware device specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like are included. The recording medium is also a transmission medium such as an optical or metal line or a waveguide including a carrier wave that transmits a signal for storing program instructions, data structures, and the like. Examples of program instructions include not only machine language code generated by a compiler but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above is configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

上述したように、本発明の好ましい実施形態を参照して説明したが、該当の技術分野において熟練した当業者にとっては、特許請求の範囲に記載された本発明の思想および領域から逸脱しない範囲内で、本発明を多様に修正および変更させることができることを理解することができるであろう。すなわち、本発明の技術的範囲は、特許請求の範囲に基づいて定められ、発明を実施するための形態により制限されるものではない。
As described above, the preferred embodiments of the present invention have been described with reference to the preferred embodiments of the present invention. However, those skilled in the relevant art will not depart from the spirit and scope of the present invention described in the claims. Thus, it will be understood that the present invention can be variously modified and changed. In other words, the technical scope of the present invention is determined based on the scope of claims, and is not limited by the mode for carrying out the invention.

Claims (15)

3次元(3D)レンダリングを行うためのレンダリング方式を選択する判断部と、
第1レンダリング方式によって直接光を表し、前記3Dレンダリングを行う第1レンダリング部と、
第2レンダリング方式によって間接光および影のうちの少なくとも1つを表現して前記3Dレンダリングを行う第2レンダリング部であって、場面を構成する物体の表面からパッチ(patch)またはサンプルポイント(sample point)を抽出し、前記パッチおよび前記サンプルポイント間の相互作用をシミュレーションする、第2レンダリング部と、
第3レンダリング方式によって反射光、屈折光、および回折光のうちの少なくとも1つを表現して前記3Dレンダリングを行う第3レンダリング部と、
を含み、前記判断部は、
前記第1レンダリング方式、前記第2レンダリング方式、および前記第3レンダリング方式のうちの少なくとも1つのレンダリング方式を選択するレンダリング方式選択部と、
ラジオシティレンダリングのためのパッチおよびサンプルポイントの大きさと個数を調整する第1媒介変数調整部と、
レイトレーシングのためのマスク生成、光の反射回数、および光の屈折回数を調整する第2媒介変数調整部と、
を含み、
前記第2媒介変数調整部は、
前記レイトレーシングのためのマスクのピクセル値を決めるマスク生成調整部を含み、前記マスク生成調整部は、光線を生成するための領域のピクセル値を第1設定値に設定し、光線を生成しない領域のピクセル値を第2設定値に設定することを特徴とするハイブリッドレンダリング装置。
A determination unit that selects a rendering method for performing three-dimensional (3D) rendering;
A first rendering unit that directly represents light by a first rendering method and performs the 3D rendering;
A second rendering unit that performs the 3D rendering by expressing at least one of indirect light and shadow by a second rendering method, wherein a patch or a sample point is applied from a surface of an object constituting a scene. ) And simulating the interaction between the patch and the sample point;
A third rendering unit that performs the 3D rendering by expressing at least one of reflected light, refracted light, and diffracted light by a third rendering method;
The determination unit includes:
A rendering method selection unit that selects at least one of the first rendering method, the second rendering method, and the third rendering method;
A first parameter adjustment unit for adjusting the size and number of patches and sample points for radiosity rendering;
A second parameter adjustment unit for adjusting mask generation for ray tracing, the number of reflections of light, and the number of refractions of light;
Including
The second parameter adjustment unit
A mask generation adjustment unit that determines a pixel value of the mask for ray tracing, wherein the mask generation adjustment unit sets a pixel value of a region for generating a light ray to a first set value, and does not generate a light ray; A pixel rendering value is set to a second setting value .
前記判断部は、レンダリング対象の特性を考慮してレンダリング方式を選択することを特徴とする請求項1に記載のハイブリッドレンダリング装置。   The hybrid rendering apparatus according to claim 1, wherein the determination unit selects a rendering method in consideration of characteristics of a rendering target. 前記判断部は、ハードウェア性能を考慮してレンダリング方式を選択することを特徴とする請求項1に記載のハイブリッドレンダリング装置。   The hybrid rendering apparatus according to claim 1, wherein the determination unit selects a rendering method in consideration of hardware performance. 前記第1レンダリング方式は、ベクトルデータをピクセルパターンイメージに変換してレンダリングするラスタライゼーションレンダリング方式であることを特徴とする請求項1に記載のハイブリッドレンダリング装置。   The hybrid rendering apparatus according to claim 1, wherein the first rendering method is a rasterization rendering method in which vector data is converted into a pixel pattern image and rendered. 前記第2レンダリング方式は、光源、物体間の光、および拡散光のうちの少なくとも1つを考慮してレンダリングするラジオシティレンダリング方式であることを特徴とする請求項1に記載のハイブリッドレンダリング装置。   The hybrid rendering apparatus according to claim 1, wherein the second rendering method is a radiosity rendering method that performs rendering in consideration of at least one of a light source, light between objects, and diffused light. 前記第3レンダリング方式は、光線が物体の表面から反射する経路を追跡してレンダリングするレイトレーシングレンダリング方式であることを特徴とする請求項1に記載のハイブリッドレンダリング装置。   2. The hybrid rendering apparatus according to claim 1, wherein the third rendering method is a ray tracing rendering method that performs rendering by tracing a path in which light rays are reflected from the surface of an object. 前記第2媒介変数調整部は
記光の反射回数および前記光の屈折回数のうちの少なくとも1つを調整する反射回数調整部をさらに含むことを特徴とする請求項に記載のハイブリッドレンダリング装置。
The second parametric adjustment unit,
The hybrid rendering device according to claim 1, further comprising a number of reflections adjustment unit for adjusting at least one of refraction times the number of reflections and the light before Symbol light.
ハイブリッドレンダリング装置が実行するハイブリッドレンダリング方法であって、
3次元(3D)レンダリングを行うためのレンダリング方式を選択するステップと、
第1レンダリング方式によって直接光を表現して前記3Dレンダリングを行うステップと、
第2レンダリング方式によって間接光および影のうちの少なくとも1つを表現して前記3Dレンダリングを行うステップであって、場面を構成する物体の表面からパッチ(patch)またはサンプルポイント(sample point)を抽出し、前記パッチおよび前記サンプルポイント間の相互作用をシミュレーションする、ステップと、
第3レンダリング方式によって反射光、屈折光、および回折光のうちの少なくとも1つを表現して前記3Dレンダリングを行うステップと、
を含み、前記選択するステップは、
前記第1レンダリング方式、前記第2レンダリング方式、および前記第3レンダリング方式のうちの少なくとも1つのレンダリング方式を選択するステップと、
ラジオシティレンダリングのためのパッチおよびサンプルポイントの大きさと個数を調整するステップと、
レイトレーシングのためのマスク生成、光の反射回数、および光の屈折回数を調整するステップと、
を含み、
前記マスク生成、光の反射回数、および光の屈折回数を調整するステップは、前記レイトレーシングのためのマスクのピクセル値を決定して前記マスクを生成するステップを含み、
前記マスクを生成するステップは、
光線を生成するための領域のピクセル値を第1設定値に設定するステップと、
光線を生成しない領域のピクセル値を第2設定値に設定するステップと、
を含むことを特徴とするハイブリッドレンダリング方法。
A hybrid rendering method executed by a hybrid rendering device, comprising:
Selecting a rendering scheme for performing three-dimensional (3D) rendering;
Performing the 3D rendering by directly expressing light according to a first rendering method;
The step of performing the 3D rendering by expressing at least one of indirect light and shadow by a second rendering method, and extracting a patch or a sample point from the surface of an object constituting the scene Simulating the interaction between the patch and the sample point; and
Performing the 3D rendering by expressing at least one of reflected light, refracted light, and diffracted light by a third rendering method;
And the step of selecting comprises
Selecting at least one of the first rendering scheme, the second rendering scheme, and the third rendering scheme;
Adjusting the size and number of patches and sample points for radiosity rendering;
Adjusting the mask generation for raytracing, the number of light reflections, and the number of light refractions;
Including
Adjusting the mask generation, the number of reflections of light, and the number of refractions of light includes determining a pixel value of a mask for the ray tracing to generate the mask;
Generating the mask comprises:
Setting a pixel value of a region for generating a light ray to a first set value;
Setting a pixel value of a region that does not generate a light ray to a second setting value;
A hybrid rendering method comprising:
前記選択するステップは、レンダリング対象の特性を考慮してレンダリング方式を選択することを特徴とする請求項に記載のハイブリッドレンダリング方法。 The hybrid rendering method according to claim 8 , wherein the selecting step selects a rendering method in consideration of characteristics of a rendering target. 前記選択するステップは、ハードウェア性能を考慮してレンダリング方式を選択することを特徴とする請求項に記載のハイブリッドレンダリング方法。 The hybrid rendering method according to claim 8 , wherein the selecting step selects a rendering method in consideration of hardware performance. 前記第1レンダリング方式は、ベクトルデータをピクセルパターンイメージに変換してレンダリングするラスタライゼーションレンダリング方式であることを特徴とする請求項に記載のハイブリッドレンダリング方法。 The hybrid rendering method according to claim 8 , wherein the first rendering method is a rasterization rendering method in which vector data is converted into a pixel pattern image and rendered. 前記第2レンダリング方式は、光源、物体間の光、および拡散光のうちの少なくとも1つを考慮してレンダリングするラジオシティレンダリング方式であることを特徴とする請求項に記載のハイブリッドレンダリング方法。 The hybrid rendering method according to claim 8 , wherein the second rendering method is a radiosity rendering method that performs rendering in consideration of at least one of a light source, light between objects, and diffused light. 前記第3レンダリング方式は、光線が物体の表面から反射する経路を追跡してレンダリングするレイトレーシングレンダリング方式であることを特徴とする請求項に記載のハイブリッドレンダリング方法。 9. The hybrid rendering method according to claim 8 , wherein the third rendering method is a ray-tracing rendering method for rendering by tracing a path in which light rays are reflected from the surface of an object. 前記マスク生成、光の反射回数、および光の屈折回数を調整するステップは、
前記光の反射回数および前記光の屈折回数のうちの少なくとも1つを調整するステップと、
さらに含むことを特徴とする請求項に記載のハイブリッドレンダリング方法。
Adjusting the mask generation, the number of times of light reflection, and the number of times of light refraction,
Adjusting at least one of the number of reflections of the light and the number of refractions of the light;
The hybrid rendering method according to claim 8 , further comprising:
コンピュータに請求項〜請求項14のいずれか一項の方法を実行させるプログラム。 A program for causing a computer to execute the method according to any one of claims 8 to 14 .
JP2010132166A 2009-06-10 2010-06-09 Hybrid rendering apparatus and method Expired - Fee Related JP5744421B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090051283A KR20100132605A (en) 2009-06-10 2009-06-10 Apparatus and method for hybrid rendering
KR10-2009-0051283 2009-06-10

Publications (2)

Publication Number Publication Date
JP2010287235A JP2010287235A (en) 2010-12-24
JP5744421B2 true JP5744421B2 (en) 2015-07-08

Family

ID=42664303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010132166A Expired - Fee Related JP5744421B2 (en) 2009-06-10 2010-06-09 Hybrid rendering apparatus and method

Country Status (5)

Country Link
US (1) US20100315423A1 (en)
EP (1) EP2261862A1 (en)
JP (1) JP5744421B2 (en)
KR (1) KR20100132605A (en)
CN (1) CN101923727A (en)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8379022B2 (en) * 2008-09-26 2013-02-19 Nvidia Corporation Fragment shader for a hybrid raytracing system and method of operation
US8933960B2 (en) * 2009-08-14 2015-01-13 Apple Inc. Image alteration techniques
US9466127B2 (en) * 2010-09-30 2016-10-11 Apple Inc. Image alteration techniques
US9342322B2 (en) * 2011-09-12 2016-05-17 Microsoft Technology Licensing, Llc System and method for layering using tile-based renderers
US8830246B2 (en) 2011-11-30 2014-09-09 Qualcomm Incorporated Switching between direct rendering and binning in graphics processing
KR101369457B1 (en) * 2012-08-17 2014-03-06 (주)네오위즈씨알에스 Method and apparatus for rendering object
US10713838B2 (en) * 2013-05-03 2020-07-14 Nvidia Corporation Image illumination rendering system and method
KR102192484B1 (en) * 2013-10-17 2020-12-17 삼성전자주식회사 Method for rendering image and Image outputting device thereof
US9600904B2 (en) 2013-12-30 2017-03-21 Samsung Electronics Co., Ltd. Illuminating a virtual environment with camera light data
KR102224845B1 (en) 2014-07-22 2021-03-08 삼성전자주식회사 Method and apparatus for hybrid rendering
KR20160047317A (en) * 2014-10-22 2016-05-02 삼성전자주식회사 Method and apparatus for hybrid rendering
KR102444240B1 (en) 2015-07-29 2022-09-16 삼성전자주식회사 Method and apparatus for processing texture
US11010956B2 (en) * 2015-12-09 2021-05-18 Imagination Technologies Limited Foveated rendering
JP6202118B2 (en) 2016-03-09 2017-09-27 日本電気株式会社 Drawing apparatus, drawing method and program
CN107204029B (en) * 2016-03-16 2019-08-13 腾讯科技(深圳)有限公司 Rendering method and device
GB2558886B (en) * 2017-01-12 2019-12-25 Imagination Tech Ltd Graphics processing units and methods for controlling rendering complexity using cost indications for sets of tiles of a rendering space
KR102545172B1 (en) * 2017-12-28 2023-06-19 삼성전자주식회사 Graphic processor performing sampling-based rendering and Operating method thereof
US10754498B2 (en) * 2018-12-07 2020-08-25 Amazon Technologies, Inc. Hybrid image rendering system
CN110152291A (en) * 2018-12-13 2019-08-23 腾讯科技(深圳)有限公司 Rendering method, device, terminal and the storage medium of game picture
US10853994B1 (en) 2019-05-23 2020-12-01 Nvidia Corporation Rendering scenes using a combination of raytracing and rasterization
US11941752B2 (en) 2020-07-21 2024-03-26 Nvidia Corporation Streaming a compressed light field
US11501467B2 (en) 2020-11-03 2022-11-15 Nvidia Corporation Streaming a light field compressed utilizing lossless or lossy compression
CN114581589A (en) * 2020-11-30 2022-06-03 华为技术有限公司 Image processing method and related device
GB2603911B (en) * 2021-02-17 2023-06-07 Advanced Risc Mach Ltd Foveation for a holographic imaging system
GB2605156B (en) * 2021-03-24 2023-11-08 Sony Interactive Entertainment Inc Image rendering method and apparatus
WO2022201970A1 (en) * 2021-03-24 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
GB2605158B (en) 2021-03-24 2023-05-17 Sony Interactive Entertainment Inc Image rendering method and apparatus
GB2605152B (en) * 2021-03-24 2023-11-08 Sony Interactive Entertainment Inc Image rendering method and apparatus
CN113160379B (en) * 2021-05-24 2023-03-24 网易(杭州)网络有限公司 Material rendering method and device, storage medium and electronic equipment
CN116228995B (en) * 2023-05-09 2023-07-07 中建安装集团有限公司 Three-dimensional view-based fabricated building display method and system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01279380A (en) * 1988-04-30 1989-11-09 Fuji Electric Co Ltd Three-dimensional data retrieval system
US5031117A (en) * 1990-02-13 1991-07-09 International Business Machines Corporation Prioritization scheme for enhancing the display of ray traced images
JPH04195478A (en) * 1990-11-28 1992-07-15 Hitachi Ltd Image processor and its image display method, and picture element calculating method for display image
GB2312818B (en) * 1994-12-22 1999-11-03 Apple Computer Three-dimensional graphics rendering system
GB2334870B (en) * 1994-12-22 1999-10-13 Apple Computer Three dimensional graphics rendering system
US5831620A (en) * 1996-07-02 1998-11-03 Silicon Graphics Incorporated System and computer-based method for creating real-time mirror reflections
JPH10222701A (en) * 1997-02-05 1998-08-21 Toto Ltd Computer graphic device and generating method for image data
US6473085B1 (en) * 1999-12-17 2002-10-29 International Business Machines Corporation System for dynamically adjusting image quality for interactive graphics applications
US7126605B1 (en) * 2001-07-03 2006-10-24 Munshi Aaftab A Method and apparatus for implementing level of detail with ray tracing
JP4467267B2 (en) * 2002-09-06 2010-05-26 株式会社ソニー・コンピュータエンタテインメント Image processing method, image processing apparatus, and image processing system
JP3853329B2 (en) * 2004-03-31 2006-12-06 株式会社コナミデジタルエンタテインメント GAME PROGRAM AND GAME DEVICE
US7289119B2 (en) * 2005-05-10 2007-10-30 Sony Computer Entertainment Inc. Statistical rendering acceleration
US7973790B2 (en) * 2005-08-11 2011-07-05 Realtime Technology Ag Method for hybrid rasterization and raytracing with consistent programmable shading
US7439973B2 (en) * 2005-08-11 2008-10-21 International Business Machines Corporation Ray tracing with depth buffered display
US7408550B2 (en) * 2006-07-24 2008-08-05 Bunnell Michael T System and methods for real-time rendering of deformable geometry with global illumination
CN1916968A (en) * 2006-09-01 2007-02-21 上海大学 Setting up method for 3D virtual reality by using matrix to realize simulation of irradiation from ambient light
US8525826B2 (en) * 2008-08-08 2013-09-03 International Business Machines Corporation System for iterative interactive ray tracing in a multiprocessor environment

Also Published As

Publication number Publication date
US20100315423A1 (en) 2010-12-16
CN101923727A (en) 2010-12-22
EP2261862A1 (en) 2010-12-15
KR20100132605A (en) 2010-12-20
JP2010287235A (en) 2010-12-24

Similar Documents

Publication Publication Date Title
JP5744421B2 (en) Hybrid rendering apparatus and method
JP6910130B2 (en) 3D rendering method and 3D rendering device
WO2022116659A1 (en) Volumetric cloud rendering method and apparatus, and program and readable medium
US8115767B2 (en) Computer graphics shadow volumes using hierarchical occlusion culling
US7973790B2 (en) Method for hybrid rasterization and raytracing with consistent programmable shading
KR101845231B1 (en) Image processing apparatus and method
KR102465969B1 (en) Apparatus and method for performing graphics pipeline
JP5731566B2 (en) Information processing apparatus, control method, and recording medium
US20130063472A1 (en) Customized image filters
US20110043523A1 (en) Graphics processing apparatus for supporting global illumination
JP2003528406A (en) Apparatus and method for rendering 3D objects using parametric texture maps
KR20080061505A (en) Method and system for generating static-shadow
KR20120007398A (en) Image processing apparatus and method
KR20220154706A (en) Ray Tracing Multisample Anti-Aliasing
CN111986304A (en) Rendering a scene using a combination of ray tracing and rasterization
KR102558739B1 (en) 3d graphic rendering method and apparatus
JP2003168130A (en) System for previewing photorealistic rendering of synthetic scene in real-time
JP6393153B2 (en) Program, recording medium, luminance calculation device, and luminance calculation method
KR20190067070A (en) System and method for projection mapping in virtual space
KR100951121B1 (en) Rendering method for indirect illumination effect
Krivanek et al. Optimizing realistic rendering with many-light methods
JP2000099763A (en) Image processor, image processing method, and providing medium
JP6487578B1 (en) Program, recording medium, and shadow drawing method
Alonso Ajuria Implementation and performance analysis of several versions of a Realistic Ray Tracer (Python, CUDA and C++)
US20230274493A1 (en) Direct volume rendering apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150430

R150 Certificate of patent or registration of utility model

Ref document number: 5744421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees