WO2008062798A1 - Programme de rendu, dispositif de rendu et procédé de rendu - Google Patents

Programme de rendu, dispositif de rendu et procédé de rendu Download PDF

Info

Publication number
WO2008062798A1
WO2008062798A1 PCT/JP2007/072474 JP2007072474W WO2008062798A1 WO 2008062798 A1 WO2008062798 A1 WO 2008062798A1 JP 2007072474 W JP2007072474 W JP 2007072474W WO 2008062798 A1 WO2008062798 A1 WO 2008062798A1
Authority
WO
WIPO (PCT)
Prior art keywords
reflection
rendering
yarn
energy
light
Prior art date
Application number
PCT/JP2007/072474
Other languages
English (en)
French (fr)
Inventor
Ryou Kimura
Takayuki Arai
Yasuharu Kase
Kiyoshi Kawarazaki
Original Assignee
Digital Fashion Ltd.
Toyota Tsusho Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Fashion Ltd., Toyota Tsusho Corporation filed Critical Digital Fashion Ltd.
Priority to EP07832204A priority Critical patent/EP2088559B1/en
Priority to US12/312,700 priority patent/US8325185B2/en
Priority to AT07832204T priority patent/ATE522887T1/de
Publication of WO2008062798A1 publication Critical patent/WO2008062798A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Definitions

  • the present invention relates to a rendering program, a rendering device, and a rendering method for pasting a texture of a cloth on a stereo model created in advance in a virtual three-dimensional space and rendering the stereo model.
  • Equations (A) to (C) represent a frog key model.
  • FIG. 20 is a diagram for explaining the Kajaya Key model.
  • V Unit vector indicating the direction of the viewpoint
  • T Unit vector indicating fiber direction
  • the energy of reflected light can be obtained by setting the line-of-sight direction, the fiber direction, the light beam direction, and the like.
  • the Kajiyake model is intended for fur-like fabrics composed of long raised fibers, and it is difficult to realistically reproduce the texture of the fabric that has been brushed.
  • Non-Patent Document 1 J. Kajiya, T. Kay, Rendering fur witn three dimensional textures ", proceedings of SI GGRAPH (1989)
  • An object of the present invention is to provide a rendering program, a rendering device, and a rendering method capable of displaying the surface of a three-dimensional model with a cloth whose texture is realistically reproduced.
  • a rendering program according to the present invention is a rendering program for rendering a three-dimensional model created in advance in a virtual three-dimensional space, the model obtaining means for obtaining the three-dimensional model, and a high-level representing the surface shape of the cloth.
  • Texture acquisition means for acquiring the texture of the fabric affixed to the surface of the three-dimensional model, and the light ray direction in the virtual three-dimensional space
  • Rendering means for rendering the three-dimensional model using a reflection function representing the energy of the reflected light of the yarn according to the fiber direction indicated by the line-of-sight direction and the fiber direction information, and the texture, and a ray direction and The reflection characteristics of the actual yarn obtained by changing the line-of-sight direction and measuring the reflected light energy of the actual yarn are obtained.
  • a computer functioning as a correction characteristic for correcting the reflection function so that an error between the reflection characteristic acquired by the reflection characteristic acquisition unit and the energy of the reflected light obtained from the reflection function is minimized.
  • the rendering unit renders the solid model using the reflection function corrected by the correction unit.
  • a rendering device is a rendering device that renders a stereo model created in advance in a virtual three-dimensional space, and is a model acquisition unit that acquires the stereo model, and a high level representing the surface shape of the cloth.
  • Rendering means for rendering the three-dimensional model using the reflection function representing the energy of the object and the texture, and measuring the energy of the reflected light of the actual yarn by changing the light ray direction and the line-of-sight direction.
  • a reflection characteristic acquisition unit for acquiring the reflection characteristic of the yarn, and a difference between the reflection characteristic acquired by the reflection characteristic acquisition unit and the energy of the reflected light of the yarn obtained from the reflection function is minimized.
  • Correcting means for correcting the reflection function wherein the rendering means records the solid model using the reflection function corrected by the correcting means. It is characterized by the
  • a rendering method is a rendering method for rendering a stereo model created in advance in a virtual three-dimensional space, wherein the computer obtains the stereo model, and the computer obtains the surface shape of the cloth. Obtaining a texture of the cloth that is affixed to the surface of the three-dimensional model, and a computer in a virtual three-dimensional space. Rendering the three-dimensional model using the reflection function representing the energy of the reflected light of the yarn according to the light ray direction, the line-of-sight direction, and the fiber direction information and the texture, and a computer comprising: Obtain the reflection characteristics of the actual yarn obtained by changing the direction and measuring the energy of the reflected light of the actual yarn. And a step in which the computer corrects the reflection function so that an error between the reflection characteristic acquired by the reflection characteristic acquisition means and the energy of the reflected light obtained from the reflection function is minimized.
  • the rendering step includes rendering the solid model using the reflection function modified by the modification unit.
  • the reflection characteristic of the yarn obtained by measuring the reflected light of the actual yarn by changing the light beam direction and the line-of-sight direction is obtained, and the obtained reflection characteristic and the reflection function of the yarn are obtained.
  • the reflection function is modified so that the error with the energy of the reflected light obtained from is minimized, and the solid model is rendered using the modified reflection function and the texture of the cloth. Therefore, the reflection function can more realistically represent the reflection characteristics of the actual yarn,
  • the surface of the three-dimensional model can be displayed with a cloth whose texture is realistically reproduced.
  • FIG. 1 is a block diagram showing a hardware configuration of a rendering apparatus according to an embodiment of the present invention.
  • FIG. 2 is a functional block diagram of the rendering apparatus shown in FIG.
  • FIG. 3 is a cross-sectional view showing an actual cloth serving as a texture model used by the rendering apparatus.
  • FIG. 4 is a schematic diagram showing a texture data structure.
  • FIG. 5 is an explanatory diagram of a shielding correction coefficient.
  • FIG. 6 is a flowchart showing a process for calculating a coefficient included in a reflection function by the rendering apparatus.
  • FIG. 7 is a view showing the actual thread T2 placed on the sample placement table.
  • FIG. 8 An illustration of the yarn measurement method using the reflection characteristic measuring device.
  • (A) shows the case where the azimuth angle between the camera and the light source is 180 degrees.
  • (B) shows the azimuth force between the camera and the light source. The case of SO degree is shown.
  • FIG. 9 A graph showing the reflection characteristics of the yarn measured by the reflection characteristic measuring apparatus, wherein the vertical axis indicates energy, the horizontal axis indicates the azimuth, and the elevation angles of the camera and the light source.
  • FIG. 10 is an explanatory diagram of coefficient normalization.
  • FIG. 11 is a flowchart showing rendering processing by the rendering apparatus.
  • FIG. 12 is a diagram showing a three-dimensional model bump-mapped by a rendering unit.
  • FIG. 13 is a flowchart showing energy calculation processing.
  • FIG. 14 is a diagram showing a virtual screen set in a virtual three-dimensional space.
  • FIG. 15 is an explanatory diagram of a process for calculating gloss spread.
  • FIG. 16 is a screen view showing a rendering result by the rendering device when a car seat is adopted as a three-dimensional model.
  • A shows a case where the front side portion of the seat portion of the car seat is viewed from the upper side
  • B shows the front part of the seat on the car seat as seen from the front.
  • FIG. 18 Rendering results when using a textured cloth as a texture.
  • A shows the front part of the stool of the car seat as seen from above.
  • B Shows a case where the front side portion of the seat portion of the car seat is viewed from the front.
  • FIG. 19 is an explanatory diagram of napped reflection components.
  • FIG. 20 is a diagram for explaining a Kajaya Key model.
  • FIG. 1 is a block diagram showing a hardware configuration of a rendering apparatus according to an embodiment of the present invention.
  • This rendering device is composed of an ordinary computer, etc., and includes an input device 1, a ROM (Read Only Memory) 2, a CPU (Central Processing Unit) 3, a RAM (Random Access Memory) 4 , an external storage device 5, and a display device 6
  • Input device 1, ROM2, CPU3, RAM4, external storage device 5, GPU11, recording medium drive device 7, and I / F unit 9 are connected to an internal bus, and various data etc. are input / output through this bus, Various processes are executed under the control of CPU3.
  • the input device 1 includes a keyboard, a mouse, and the like, and is used by a user to input various data.
  • ROM2 stores system programs such as BIOS (Basic Input / Output System).
  • BIOS Basic Input / Output System
  • the external storage device 5 is composed of a hard disk drive or the like, and stores a predetermined OS (Operating System), a rendering program, and the like.
  • the CPU 3 reads the OS from the external storage device 5 and controls the operation of each block.
  • the RAM 4 is used as a work area for the CPU 3.
  • the display device 6 includes a liquid crystal display device and the like, and displays various images under the control of the GPU 11.
  • the recording medium driving device 7 includes a CD-ROM drive, a flexible disk drive, and the like.
  • the rendering program is stored in a computer-readable recording medium 8 such as a CD-ROM and distributed to the market.
  • the user loads the recording medium 8 into the recording medium driving device 7 to install the rendering program in the computer.
  • the rendering program is stored on a server on the Internet, and downloaded from this server. By downloading, the rendering program may be installed on the computer.
  • the I / F unit 9 includes, for example, a USB interface, and performs an input / output interface between the reflection characteristic measurement device 10 and the rendering device.
  • the reflection characteristic measuring apparatus 10 is composed of, for example, a shading information acquisition apparatus disclosed in Japanese Patent Application Laid-Open No. 2004-152015, and includes a sample table on which a sample is placed, a light source that irradiates light on the sample, and And a camera that receives the reflected light from the sample. The energy of the reflected light from the sample is measured while changing the direction of the light beam connecting the light source and the sample and the direction of the line of sight connecting the camera and the sample. It is a device that acquires.
  • the GPU 11 mainly executes image processing in the rendering device under the control of the CPU 3 and causes the display device 6 to display the processing result.
  • FIG. 2 shows a functional block diagram of the rendering apparatus shown in FIG.
  • the rendering device includes a processing unit 100, a storage unit 200, an input unit 300, and a display unit 400.
  • the processing unit 100 includes a GPU 11, and includes a model acquisition unit 101, a texture acquisition unit 102, a color information acquisition unit 103, a perturbation setting information acquisition unit 104, a reflection characteristic acquisition unit 105, a correction unit 106, a rendering unit 107, and a display.
  • the function of the control unit 108 is provided. These functions are realized when the GPU 11 executes the rendering program.
  • the model acquisition unit 101 acquires a stereo model to be rendered in accordance with the operation input from the user received by the input unit 300 and stores it in the model storage unit 201.
  • the 3D model is a 3D model of an object created in advance in a virtual 3D space using modeling software.
  • the texture acquisition unit 102 acquires the texture of the cloth attached to the surface of the three-dimensional model to be rendered in accordance with the operation input from the user received by the input unit 300 and stores it in the texture storage unit 202.
  • Fig. 3 is a cross-sectional view showing an actual cloth that is a texture model used by the rendering apparatus.
  • the fabric used as the texture model is a fabric that has been subjected to raising treatment on the surface of the textured portion on a flat plate having a woven or knitted structure.
  • the yarn that has undergone the raising treatment is untwisted, the fibers constituting the yarn extend toward the upper part of the ground tissue, and the cloth surface becomes fuzzy.
  • FIG. 1 is a cross-sectional view showing an actual cloth that is a texture model used by the rendering apparatus.
  • the fabric used as the texture model is a fabric that has been subjected to raising treatment on the surface of the textured portion on a flat plate having a woven or knitted structure.
  • the yarn that has undergone the raising treatment is un
  • the texture is a predetermined position (for example, the center of gravity) in each of a plurality of rectangular regions D1 arranged in N rows and M columns on the orthogonal u and V axes representing the position of the cloth surface.
  • the tissue information includes height information, fiber density information, fiber direction information, and normal direction information.
  • the size of the rectangular region D1 is, for example, a size (for example, a size on the order of several microns) enough to include a predetermined number (for example, one) of the yarn T1 subjected to the raising treatment.
  • the height information is the height of the raised yarn T1 at each sample point C1, that is, u
  • the fiber density information indicates the density of the yarn T1 that has been raised in the rectangular region D1 toward the upper portion of the ground texture portion. Specifically, the fiber density information indicates the ratio of the cross-sectional area of the fiber fl constituting the yarn T1 to the area of the rectangular region D1.
  • the fiber direction information is a unit vector indicating the direction of the yarn in the rectangular region D1.
  • the fiber direction information of the yarn T1 that has been raised toward the upper part of the textured portion is a unit vector that indicates the direction of the fiber fl that constitutes the yarn T1.
  • a representative value for example, an average value
  • the fiber direction information of the yarn T1 is adopted as the fiber direction information of the yarn T1.
  • the fiber direction information is a unit vector indicating the longitudinal direction of the warp TT1 of the ground texture portion.
  • the normal direction information is a unit vector indicating the normal direction of the yarn in the rectangular area D1.
  • the color information acquisition unit 103 acquires color information for designating the color of the surface of the three-dimensional model according to the operation input from the user received by the input unit 300.
  • the perturbation setting information acquisition unit 104 perturbs setting information for perturbing the fibers by biasing the direction of the fibers constituting the raised yarn in accordance with the operation input from the user received by the input unit 300. To get.
  • the reflection characteristic acquisition unit 105 acquires the reflection characteristic of the actual yarn measured by the reflection characteristic measurement device 10 and stores it in the reflection characteristic storage unit 203.
  • the correction unit 106 reads the reflection characteristic of the actual yarn from the reflection characteristic storage unit 203, and is obtained from the read reflection characteristic of the actual yarn and the reflection function of the yarn stored in the reflection function storage unit 204.
  • the reflection function is corrected using the norm fitting so that the error from the reflected light energy is minimized.
  • the reflection function stored in the reflection function storage unit 204 is a function that represents the energy of the reflected light of the yarn according to the light ray direction, the line-of-sight direction, and the fiber direction in the virtual three-dimensional space,
  • the specular reflection component indicating the energy of the specular reflection light of the yarn
  • the first diffuse reflection component indicating the energy of the diffuse reflection light considering the fiber direction of the yarn out of the diffuse reflection light of the yarn
  • the diffuse reflection light of the yarn Among them, a second diffuse reflection component indicating the energy of the diffuse reflected light not considering the fiber direction of the yarn and a napped reflection component indicating the energy of the reflected light scattered by the fiber fl constituting the raised yarn T1 are included.
  • the specular reflection component includes a variable part determined by the ray direction, the line-of-sight direction, and the fiber direction, the specular reflection coefficient applied to the variable part, and the gloss coefficient indicating the spread of the energy distribution of the specular reflection light.
  • the first diffuse reflection component includes a variable part determined by the light ray direction and the fiber direction, and a first diffuse reflection coefficient applied to the variable part.
  • the second diffuse reflection component includes a variable portion determined by the light ray direction and the normal direction of the yarn, and a second diffuse reflection coefficient applied to the variable portion.
  • the reflection function is represented by the equation (1).
  • I is the specular reflection component
  • I is the first diffuse reflection component
  • I is the second expansion s dl d2
  • a diffuse reflection component is indicated, and w is a napped reflection component.
  • the specular reflection component I shown in Expression (1) is expressed by Expression (2).
  • Equation (2) K represents a specular reflection coefficient, L represents a light ray direction, and V represents a line-of-sight direction.
  • Equation (3) ⁇ indicates the fiber direction, and indicates the inner product of the vectors.
  • S is a shielding correction coefficient for reproducing the decrease in the energy of the specular reflected light due to the existence of a shielding region where the light from the light source does not reach, and is expressed by Equation (3).
  • FIG. 5 is an explanatory diagram of the shielding correction coefficient. Since the fiber fl has a cylindrical shape, the light does not reach the arrival region R2 where the light from the light source reaches within the region R1 on the surface of the fiber fl where the fiber fl can be seen from the viewpoint force. ! / ⁇ Shielding region R3 is generated, resulting in a decrease in the energy of the specular reflection light. Therefore, in this rendering device, in order to reproduce this decrease in the energy of the specular reflection component, it is assumed that the cross section of the fiber fl is circular, and the shielding correction that represents the ratio of the size of the arrival region R2 to the size of the region R1.
  • the coefficient S is included in the specular reflection component I.
  • p in equation (2) represents a gloss coefficient representing the gloss spread, and is obtained by parameter fitting by the correction unit 106.
  • the first diffuse reflection component I shown in Expression (1) is expressed by Expression (4).
  • Equation (4) represents the first diffuse reflection coefficient.
  • the second diffuse reflection component I shown in Expression (1) is expressed by Expression (5).
  • K represents the second diffuse reflection coefficient.
  • is a unit vector indicating the normal direction of the thread.
  • the napped reflection component W shown in Expression (1) is expressed by Expression (6).
  • D in equation (6) indicates the fiber density, and the fiber density information included in the texture is substituted.
  • FIG. 19 is an explanatory diagram of the napped reflection component W. Since the raised yarn T1 is composed of a plurality of scattered fibers fl, the light from the light source is reflected at many places and the reflected light is scattered. Therefore, in order to reproduce the scattering of the reflected light, the rendering apparatus includes the napped reflection component W in the reflection function.
  • the correction unit 106 uses parameter fitting so that the reflection function obtains the reflection characteristic of the actual yarn, and uses the specular reflection coefficient K, the gloss coefficient p, and the first diffuse reflection coefficient K.
  • the second diffuse reflection coefficient K is calculated.
  • the correction unit 106 uses the specular reflection coefficient K, the gloss coefficient p, and the first diffuse reflection coefficient K.
  • At least one of the second diffuse reflection coefficient K may be calculated.
  • a predetermined value may be set for a coefficient that is not to be set, and a coefficient to be set may be obtained by parameter fitting.
  • the correction unit 106 calculates the total distribution of reflected light energy obtained from the reflection function when a light source that outputs light having an energy of 1 is arranged at a predetermined position in the virtual three-dimensional space.
  • Normalized diffuse reflection coefficient K normalized specular reflection coefficient K and first diffuse reflection coefficient
  • I F-I + C-(l -F) I + C ⁇ ⁇ + C ⁇ ⁇ + W (7)
  • Equation (7) represents the Fresnel formula and is expressed by Equation (8).
  • F (l / 2)-(tan 2 (0 1— ⁇ 2) / tan 2 ( ⁇ 1 + ⁇ 2) + sin 2 (0 1— ⁇ 2) / sin 2 ( ⁇ 1 + ⁇ 2 )) (8)
  • Equation (8) ⁇ 1 represents the incident angle, ⁇ 2 represents the refraction angle, and a predetermined value is adopted.
  • C in equation (7) indicates color information attached to the three-dimensional model, and the three color components R, G, and ⁇
  • C consists of three color components, R, G, and B.
  • I in Equation (7) consists of three color components R, G, and B.
  • the rendering unit 107 includes the reflection function shown in Expression (7) for which the coefficient is calculated by the correction unit 106, the color information acquired by the color information acquisition unit 103, or default color information, and the texture storage unit 202. Using the texture stored in the model storage unit 201.
  • the display control unit 108 displays the stereoscopic model rendered by the rendering unit 107 on the display unit 400.
  • the storage unit 200 includes the RAM included in the GPU 11 shown in FIG. 1, the external storage device 5 and the like.
  • a model storage unit 201 stores the three-dimensional model acquired by the model acquisition unit 101.
  • the texture storage unit 202 stores the texture acquired by the texture acquisition unit 102.
  • the reflection characteristic storage unit 203 stores the reflection characteristic of the actual yarn acquired by the reflection characteristic acquisition unit 105.
  • the reflection function storage unit 204 stores the reflection functions shown in Expression (1) and Expression (7).
  • the perturbation information storage unit 205 associates the position of the three-dimensional model surface of the thread to be perturbed (perturbation position) with a perturbation vector indicating the direction of the yarn that has undergone napping at each perturbation position.
  • Store perturbation information As the perturbation position and perturbation vector, positions and directions determined in advance according to the characteristics of the actual cloth serving as a texture model to be pasted on the surface of the three-dimensional model are adopted.
  • the input unit 300 includes the input device 1 shown in FIG. 1, and receives an operation input from a user for setting a stereo model, texture, color information, perturbation setting information, and the like.
  • the display unit 400 includes the display device 6 shown in FIG. 1, and displays the three-dimensional model rendered by the rendering unit 107.
  • FIG. 6 is a flowchart showing a process for calculating a coefficient included in the reflection function by the rendering apparatus.
  • the reflection characteristic measuring apparatus 10 irradiates the actual yarn placed on the sample table with light, changes the light beam direction and the line-of-sight direction, and changes the reflected light energy of the yarn. taking measurement.
  • FIG. 7 is a view showing the actual yarn T2 placed on the sample placement table.
  • multiple threads T2 are wound around a disk-shaped bobbin.
  • the reflection characteristic measuring apparatus 10 irradiates the wound yarn T2 with light, receives the reflected light, and acquires the energy of the yarn T2.
  • the longitudinal direction of the thread T2 wound around the bobbin is defined as the longitudinal direction of the thread
  • the direction perpendicular to the longitudinal direction of the thread is defined as the lateral direction of the thread.
  • Fig. 8 is an explanatory view of a method for measuring the thread T2 by the reflection characteristic measuring device 10, (A) shows the case where the azimuth angle between the camera and the light source is 180 degrees, and (B) shows the camera. This shows the case where the azimuth between the light source and the light source is 0 degree.
  • the reflection characteristic measuring apparatus 10 maintains the azimuth angle of the camera and the light source at 180 degrees, sets the elevation angle of the camera with respect to the thread T2 to 30 degrees, The elevation angle of the light source with respect to the thread T2 is changed with a predetermined resolution from 0 degrees to 90 degrees, and each time the angle of the light source is changed, the camera takes a picture of the thread ridge 2.
  • the azimuth angle between the light source and the camera is set so as to face the direction S of the straight line connecting the light source and the camera and the longitudinal direction of the thread.
  • the reflection characteristic measuring apparatus 10 sets the elevation angle of the camera to 45 degrees, changes the elevation angle of the light source to 0 degrees and force to 90 degrees with a predetermined resolution, and causes the camera to photograph the thread T2.
  • the reflection characteristic measuring apparatus 10 sets the elevation angle of the camera to 60 degrees, changes the elevation angle of the light source from 0 degrees to 90 degrees with a predetermined resolution, and causes the camera to photograph the thread T2.
  • the reflection characteristic measuring apparatus 10 sets the azimuth angle between the camera and the light source to 0 degrees, and the azimuth angle is 180 degrees, Change the elevation angle between the light source and the camera, and let the camera shoot the thread T2.
  • the azimuth angle between the camera and the light source is set so that the direction of the straight line connecting the camera and the light source faces the longitudinal direction of the thread.
  • the reflection characteristic measuring apparatus 10 changes the azimuth angle between the light source and the camera, and changes the elevation angle of the light source and the force lens to photograph the thread T2, and receives the reflected light of the thread T2 received by the camera. And measure the reflected light characteristics of thread T2.
  • FIG. 9 is a graph showing the reflection characteristics of the yarn T2 measured by the reflection characteristic measuring apparatus 10, where the vertical axis shows energy, the horizontal axis shows the azimuth, and the elevation angles of the camera and the light source.
  • the vertical axis shows energy
  • the horizontal axis shows the azimuth
  • the elevation angles of the camera and the light source is 180 degrees
  • the energy of the reflected light is almost curved upward when the elevation angle of the light source is changed while keeping the elevation angle of the camera constant. It can be seen that the pattern changes with a steep curve.
  • the azimuth force between the camera and the light source when the elevation angle of the light source is changed while the elevation angle of the camera is kept constant, the energy of the reflected light increases monotonously.
  • step S 2 shown in FIG. 6 the reflection characteristic acquisition unit 105 acquires the reflection characteristic of the yarn T 2 measured by the reflection characteristic measurement device 10 and stores it in the reflection characteristic storage unit 203.
  • the correcting unit 106 uses mirror fitting to minimize the error between the reflected light energy obtained from the reflection function shown in Equation (1) and the reflection characteristic of the thread T 2.
  • the reflection coefficient K, the gloss coefficient p, the first diffuse reflection coefficient K, and the second diffuse reflection coefficient K are used to minimize the error between the reflected light energy obtained from the reflection function shown in Equation (1) and the reflection characteristic of the thread T 2.
  • the correction unit 106 sets a predetermined value to d indicating the fiber density, and the light beam direction
  • d indicating the fiber density
  • the correction unit 106 calculates the total energy of reflected light for each line-of-sight direction of the reflection function when a light source that outputs light having an energy of 1 is arranged at a predetermined position in the virtual three-dimensional space.
  • the reflection coefficient is normalized (step S4).
  • Figure 10 is an explanatory diagram of coefficient normalization.
  • a light source is set at a predetermined position in the virtual three-dimensional space (for example, directly above the target point CP), and energy of a predetermined level (for example, 1) is incident on the target point CP.
  • the specular reflection coefficient K, the first diffuse reflection coefficient K, and the second diffuse reflection coefficient K are normalized so as to be equal to the energy incident on.
  • the correcting unit 106 substitutes the coefficients obtained in step S4 into I, I, 1 shown in Equation (7).
  • step S5 the coefficient of the reflection function incorporating the color information is set.
  • FIG. 11 is a flowchart showing rendering processing by the rendering apparatus.
  • step S11 when the input unit 300 receives an operation input of color information that specifies the color of the surface of the three-dimensional model from the user (YES in step S11), the color information acquisition unit 103 acquires color information. Then, the rendering unit 107 assigns the acquired color information to C of the reflection function shown in Expression (7), and sets the color information (step S13).
  • step S 11 if the input unit 300 does not accept an operation input of color information specifying the color of the surface of the three-dimensional model from the user (NO in step S 11), the process proceeds to step S 12.
  • the rendering unit 107 uses the color information preset in C in Expression (7).
  • perturbation setting information acquisition unit 104 acquires perturbation setting information (step S). 14).
  • the display control unit 108 causes the display unit 400 to display operation buttons and the like for allowing the user to input perturbation setting information, and inputs the perturbation setting information by clicking the operation button with a mouse.
  • the rendering unit 107 reads the stereo model from the model storage unit 201, and bump-maps the texture stored in the texture storage unit 202 to the read stereo model (step S15).
  • FIG. 12 shows a three-dimensional model bump-mapped by the rendering unit 107.
  • the rendering unit 107 pastes a texture on the surface of the stereo model, sets a sample point C1 on the surface of the stereo model, and makes a constant cut so that the center of the bottom surface is located at the sample point C1.
  • the length in the longitudinal direction of the thread T1 is determined from the height information at the sample point C1
  • the fiber direction T of the thread T1 is determined from the fiber direction information at the sample point C1.
  • the rendering unit 107 reads the perturbation information from the perturbation information storage unit 205, and the fiber direction T of the yarn T1 according to the read perturbation information. To correct. Specifically, the rendering unit 107 synthesizes the perturbation vector associated with the perturbation position in the fiber direction of the thread T1 when the raised thread T1 is designated as the perturbation position by the perturbation information. Then, correct the direction of the thread T1.
  • step S 16 shown in FIG. 11 the rendering unit 107 executes a calculation process of the reflected light energy of the three-dimensional model in which the thread T1 is set on the surface.
  • FIG. 13 is a flowchart showing the energy calculation process.
  • a virtual screen is set in the virtual three-dimensional space, and one pixel is set as a target pixel from among a plurality of pixels constituting the virtual screen (step S31).
  • FIG. 14 is a diagram showing a virtual screen set in the virtual three-dimensional space. As shown in FIG. 14, the virtual screen is composed of pixels arranged in a grid in a predetermined row and a predetermined column.
  • the rendering unit 107 sequentially sets one pixel among a plurality of pixels included in the virtual screen as the target pixel SCP, for example, from the upper left vertex pixel to the lower right vertex pixel on the virtual screen.
  • the rendering unit 107 presets the target pixel SCP in the virtual three-dimensional space. It is determined whether or not a 3D model exists on the extension line L21 of the straight line connecting the viewpoint, and if it is determined that a 3D model exists on the extension line L21, the intersection of the surface of the 3D model and the extension line L2 1 is determined. Set as the point of interest CP (step S32).
  • the rendering unit 107 calculates the gloss spread of the yarn T1 in which the attention point CP is set.
  • FIG. 15 is an explanatory diagram of the process of calculating the gloss spread.
  • the rendering unit 107 substitutes the fiber density information determined by the texture for the thread T1 for which the target point CP is set into d in Equation (9), and the distribution power of the specular reflection light at the target point CP Fiber density
  • the gloss coefficient is corrected so that the lower the information is, the wider the area is (step S33). In other words, ⁇ is increased as the fiber density increases, so by substituting p ′ for p in Equation (2), the distribution of the energy of the specular reflection light becomes wider as the fiber density information is lower.
  • indicates the gloss coefficient corrected to ⁇
  • indicates the luminosity coefficient for the thread T1 where the point of interest CP is set.
  • the rendering unit 107 calculates the specular reflection coefficient K using Equation (10) so that the total energy distribution of the specular reflection component I is kept constant before and after the correction of the gloss coefficient. Correct (Step S34).
  • indicates the specular reflection coefficient ⁇ after correction, and ⁇ indicates the specular reflection component before correction.
  • the rendering unit 107 uses the specular reflection coefficient so that the total power S of the specular reflection light energy distribution can be kept constant before and after the correction of the gloss coefficient shown in the equation (9). Correct K.
  • the rendering unit 107 calculates the energy of the reflected light at the point of interest CP using equation (7) (step S35), and uses the calculated energy of the reflected light as the pixel in the target pixel SCP. Calculate as data.
  • the rendering unit 107 calculates the light direction L at the point of interest CP from the position of the light source and the viewpoint in the virtual three-dimensional space. And the line-of-sight direction V is obtained.
  • the rendering unit 107 obtains the fiber direction T of the yarn T 1 in which the attention point CP is set as the fiber direction T of the attention point CP.
  • the rendering unit 107 obtains the normal direction N of the thread T1 in which the target point CP is set as the normal direction N of the target point CP.
  • the rendering unit 107 substitutes the calculated light ray direction L, line-of-sight direction V, and fiber direction T for L, V, and T in equations (2) to (6), and uses the gloss coefficient corrected in step S33. Substituting p in Equation (2) and substituting the specular reflection coefficient K ′ corrected in Step S34 into K in Equation (2), the fiber density information determined for the thread T1 with the target point CP set is obtained. Substituting d into equation (6) and calculating equation (7), the energy of the reflected light at the point of interest CP is calculated.
  • step S36 when the rendering unit 107 executes the processes of steps S3;! To S35 for the final pixel of the virtual screen (NO in step S36), the rendering unit 107 ends the energy calculation process and ends the final pixel. On the other hand, if the processes in steps S31 to S35 are not executed (NO in step S36), the process returns to step S31.
  • the rendering unit 107 outputs the virtual screen to the display control unit 108, and the display control unit 108 displays the virtual screen on the display unit 400 and displays the rendering result of the stereo model. This is displayed on part 400 (step S 17).
  • FIG. 16 is a screen view showing a rendering result by the rendering device when a car seat is adopted as a three-dimensional model, and (A) shows a case where the front side portion of the seat portion of the car seat is viewed from above. (B) shows a case where the front side portion of the seat portion of the car seat is viewed as a forward force. As shown in Fig. 16 (A) and (B), it can be seen that the raised fabric is realistically reproduced on the surface of the car seat.
  • FIG. 17 is a screen diagram showing a rendering result of the car seat when the raised fiber is perturbed.
  • the fiber is perturbed in a certain direction, and the raised fabric is reproduced more realistically on the surface of the car seat! A force.
  • Fig. 18 is a diagram showing a rendering result when a patterned cloth is used as a texture.
  • A shows a case where a front portion of a seat portion of a car seat is viewed from above.
  • B has shown the case where the front side part of the seat part of a car seat is seen from the front.
  • a cloth with a pattern as shown in FIG. 18 may be used as a texture model.
  • color information indicated by color components of R, G, and B is included in the texture information at each sample point C1 of the texture, and the rendering unit 107 converts the color information into C in Expression (7).
  • the reflection characteristic of the yarn obtained by measuring the reflected light of the actual yarn is obtained, and the obtained reflection characteristic and the reflection function force are reflected by the reflected light energy.
  • the reflection function can more accurately represent the reflection characteristics of the actual yarn. It is possible to display the surface of the 3D model with a cloth that has a realistic texture.
  • the reflection function includes a first diffuse reflection component I indicating diffuse reflection light in consideration of the fiber direction of the cloth yarn in the diffuse reflection light of the cloth, and a diffuse reflection not considering the fiber direction of the cloth yarn.
  • the reflection function makes the brushed fabric more realistic because it includes a second diffuse reflection component I that represents light and a napped reflection component W that represents the energy of the reflected light scattered by the brushed yarn T1.
  • the cloth displayed on the surface of the three-dimensional model can be reproduced more realistically.
  • the specular reflection coefficient K and the first and second diffuse reflection coefficients ⁇ and K are normalized so that the total energy distribution of the reflected light by the reflection function becomes 1, the reflection function Even if any color is taken in, the texture of the cloth can be expressed realistically.
  • the specular reflection component I includes the shielding correction coefficient S, it is possible to reproduce the decrease in the specular reflection light due to the light from the light source not reaching the surface of the yarn constituting the cloth.
  • the color information acquisition unit 103 since the color information acquisition unit 103 is provided, the color of the cloth on the surface of the three-dimensional model can be changed to a color desired by the user.
  • the fibers on the surface of the three-dimensional model can be perturbed, and more realistic rendering can be realized.
  • a rendering program according to the present invention is a rendering program for rendering a solid model created in advance in a virtual three-dimensional space, and includes a model acquisition means for acquiring the three-dimensional model, and a high level representing the surface shape of the cloth. Texture acquisition means for acquiring the texture of the fabric to be affixed to the surface of the three-dimensional model, and light rays in a virtual three-dimensional space.
  • Rendering means for rendering the three-dimensional model using a reflection function representing the energy of the reflected light of the yarn corresponding to the fiber direction indicated by the direction, the line-of-sight direction, and the fiber direction indicated by the fiber direction information, and the ray direction and line-of-sight Reflection to obtain the reflection characteristics of the actual yarn obtained by changing the direction and measuring the energy of the reflected light of the actual yarn.
  • a computer as correction means for correcting the reflection function so that the error between the property acquisition means, the reflection characteristic acquired by the reflection characteristic acquisition means, and the energy of the reflected light obtained from the reflection function is minimized.
  • the rendering unit renders the solid model using the reflection function corrected by the correction unit.
  • a rendering device is a rendering device that renders a stereoscopic model created in advance in a virtual three-dimensional space, and includes a model acquisition unit that acquires the stereoscopic model, and a high level that represents the surface shape of the cloth.
  • Texture acquisition means for acquiring the texture of the cloth affixed to the surface of the three-dimensional model, and the light ray direction in the virtual three-dimensional space
  • Rendering means for rendering the three-dimensional model using a reflection function that represents the line-of-sight direction and the reflected light energy of the yarn according to the fiber direction information and the texture, and the actual object by changing the ray direction and the line-of-sight direction
  • the reflection characteristic acquisition means for acquiring the reflection characteristic of the actual yarn obtained by measuring the energy of the reflected light of the yarn
  • the reflection characteristic acquisition Correcting means for correcting the reflection function so that an error between the reflection characteristic acquired by the means and the energy of the reflected light of the yarn obtained from the reflection function is minimized
  • the rendering means includes the rendering function
  • the solid model is rendered using the reflection function corrected by the correcting means.
  • the rendering method according to the present invention is a stereo model created in advance in a virtual three-dimensional space.
  • a computer obtains the three-dimensional model, and the computer obtains height information indicating the surface shape of the cloth and fiber direction information indicating the fiber direction of the yarn constituting the cloth.
  • the three-dimensional model is rendered.
  • the reflection characteristic of the yarn obtained by measuring the reflected light of the actual yarn by changing the light beam direction and the line-of-sight direction is acquired, and the acquired reflection characteristic and the reflection function of the yarn are obtained.
  • the reflection function is modified so that the error with the energy of the reflected light obtained from is minimized, and the solid model is rendered using the modified reflection function and the texture of the cloth. For this reason, the reflection function can more realistically represent the reflection characteristics of the actual yarn, and the surface of the three-dimensional model can be displayed with a cloth whose texture is realistically reproduced.
  • the reflection function includes a specular reflection component indicating the energy of the specular reflection light of the yarn and a first diffusion indicating the energy of the diffuse reflection light considering the fiber direction of the yarn among the diffuse reflection light of the yarn.
  • a reflection component and a second diffuse reflection component indicating the energy of the diffuse reflection light that does not consider the fiber direction of the yarn among the diffuse reflection light of the yarn, and the specular reflection component includes the ray direction, the line-of-sight direction, and A variable part determined by the fiber direction, a specular reflection coefficient applied to the variable part, and a gloss coefficient indicating a spread of the energy distribution of the specular reflection light
  • the first diffuse reflection component includes the light direction and A variable part defined by the fiber direction; and a first diffuse reflection coefficient applied to the variable part, wherein the second diffuse reflection component is a variable part defined by the ray direction and a normal direction of the yarn.
  • variable Such second and a diffuse reflection coefficient, the correcting means, the reflection characteristics obtained The specular reflection coefficient, the gloss coefficient, and the first diffuse reflection coefficient so that an error between the reflection characteristic obtained by the means and the energy of reflected light obtained from the reflection function is minimized. It is preferable to calculate at least one of the second diffuse reflection coefficients.
  • the reflection function includes the first diffuse reflection component indicating diffuse reflection light considering the fiber direction of the yarn in the diffuse reflection light of the yarn, and the diffuse reflection light not considering the fiber direction of the yarn. Therefore, the reflection function can reproduce the reflection characteristics of the actual yarn more realistically, making the cloth displayed on the surface of the three-dimensional model more realistic.
  • the power to reproduce is S.
  • the specular reflection coefficient included in the specular reflection component, the gloss coefficient, the first and second factors are set so that the error between the reflection characteristics of the actual yarn and the energy of the reflected light obtained from the reflection function is minimized. Since the first and second diffuse reflection coefficients included in the diffuse reflection component are calculated, the reflection function is reduced by the force S to reproduce the reflection characteristics of the actual yarn more realistically.
  • the correction means includes the specular reflection coefficient, the first diffuse reflection coefficient, and the total reflection light energy distribution obtained from the reflection function so as to be equal to the incident energy. And it is preferable to normalize the second diffuse reflection coefficient! /.
  • the reflection function is the texture of the cloth even when an arbitrary color is incorporated in the reflection function. Can be expressed in real.
  • the texture includes fiber density information indicating a density of fibers constituting the raised yarn, and the reflection function constitutes the raised yarn based on the fiber density information. It is preferable that a napped reflection component for calculating the energy of reflected light scattered by the fiber is further included.
  • the reflection function includes the napped reflection component, the raised fabric can be realistically reproduced on the surface of the three-dimensional model.
  • the rendering means corrects the gloss coefficient so that the distribution of the energy of the specular reflection light increases as the fiber density information is lower /.
  • the specular reflection component reproduces a decrease in the energy of the specular reflection light due to the presence of a shielding region where the light from the light source does not reach the surface of the fiber constituting the yarn.
  • the rendering unit preferably renders using a specular reflection component including the shielding correction coefficient.
  • the specular reflection component includes the shielding correction coefficient, it is possible to reproduce the decrease in the specular reflection light due to the light from the light source not reaching the surface of the fiber constituting the yarn. Monkey.
  • Color information acquisition means for acquiring color information for designating the color of the three-dimensional model is further provided, and the rendering means uses the color information acquired by the color information acquisition means. I prefer to render the model.
  • the force S is used to change the color of the cloth on the surface of the three-dimensional model to a color desired by the user.
  • Perturbation setting information acquisition means for acquiring perturbation setting information for perturbing the fiber by biasing the direction of the raised fiber, and the rendering means includes the perturbation setting information.
  • the rendering means includes the perturbation setting information.
  • a predetermined bias is given to the direction of the raised fiber, and the fiber is perturbed, so that more realistic rendering can be realized. I'll do it.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Treatment Of Fiber Materials (AREA)
  • Looms (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

明 細 書
レンダリングプログラム、レンダリング装置、及びレンダリング方法 技術分野
[0001] 本発明は、仮想 3次元空間内で予め作成された立体モデルに布のテクスチャを貼 り付け、前記立体モデルをレンダリングするレンダリングプログラム、レンダリング装置 、及びレンダリング方法に関するものである。
背景技術
[0002] コンピュータグラフィックスの分野では、光線方向及び視線方向と反射光との関係を 定める反射関数を用いて立体モデルをレンダリングすることが一般的になされている 。ここで、毛皮等の反射関数として、カジヤーケィモデルが知られている。
[0003] 式 (A)〜(C)は、カジャ一ケィモデルを示している。また、図 20は、カジャ一ケィモ デルを説明するための図である。
[0004] 1 = 1 +1 (A)
s d
I =K . S 'cosP[acos{L * (― T) }— acos (V * T)コ (B)
s s
I =K · sin (acos (L * T) ) (C)
d d
I :反射光のエネルギー
I:反射光のうち鏡面反射成分のエネルギー
s
I:反射光のうち拡散反射成分のエネルギー
d
P:反射光の拡がりを示す係数
K:鏡面反射成分のエネルギーをコントロールするための係数
κ:拡散反射成分のエネルギーをコントロールするための係数
d
L:光線方向を示す単位べクトノレ
V:視点の方向を示す単位ベクトル
T:繊維方向を示す単位ベクトル
[0005] このように、カジヤーケィモデルにおいては、視線方向、繊維方向、及び光線方向 等を設定することで、反射光のエネルギーを得ることができる。
[0006] しかしながら、カジヤーケィモデルにおいては、光源及び視線方向を変化させて現 物の糸の反射光を測定することで得られる糸の反射特性に基づいて係数 K , Κを
s d 定めることがなされていないため、糸の質感をリアルに再現することが困難であった。 また、カジヤーケィモデルは、立毛された長い繊維から構成される毛皮のようなフアブ リックを対象にしており、起毛処理のなされた布の質感をリアルに再現することは困難 であった。
非特許文献 1 :J. Kajiya, T. Kay, Rendering fur witn three dimensional textures" (3次元テクスチャを使用した毛皮のレンダリング)、 proceedings of SI GGRAPH (1989)
発明の開示
[0007] 本発明の目的は、立体モデル表面を質感がリアルに再現された布で表示すること ができるレンダリングプログラム、レンダリング装置、及びレンダリング方法を提供する ことである。
[0008] 本発明によるレンダリングプログラムは、仮想 3次元空間内で予め作成された立体 モデルをレンダリングするレンダリングプログラムであって、前記立体モデルを取得す るモデル取得手段と、布の表面形状を表す高さ情報と、布を構成する糸の繊維方向 を示す繊維方向情報とを含み、前記立体モデルの表面に貼り付けられる布のテクス チヤを取得するテクスチャ取得手段と、仮想 3次元空間内における光線方向、視線方 向、及び前記繊維方向情報により示される繊維方向に応じた糸の反射光のエネルギ 一を表す反射関数と前記テクスチャとを用いて前記立体モデルをレンダリングするレ ンダリング手段と、光線方向及び視線方向を変化させて現物の糸の反射光のェネル ギーを測定することで得られる現物の糸の反射特性を取得する反射特性取得手段と 、前記反射特性取得手段により取得された反射特性と、前記反射関数から得られる 反射光のエネルギーとの誤差が最小となるように前記反射関数を修正する修正手段 としてコンピュータを機能させ、前記レンダリング手段は、前記修正手段により修正さ れた前記反射関数を用いて前記立体モデルをレンダリングすることを特徴とする。
[0009] 本発明によるレンダリング装置は、仮想 3次元空間内で予め作成された立体モデル をレンダリングするレンダリング装置であって、前記立体モデルを取得するモデル取 得手段と、布の表面形状を表す高さ情報と、布を構成する糸の繊維方向を示す繊維 方向情報とを含み、前記立体モデルの表面に貼り付けられる布のテクスチャを取得 するテクスチャ取得手段と、仮想 3次元空間内における光線方向、視線方向、及び 前記繊維方向情報に応じた糸の反射光のエネルギーを表す反射関数と前記テクス チヤとを用いて前記立体モデルをレンダリングするレンダリング手段と、光線方向及 び視線方向を変化させて現物の糸の反射光のエネルギーを測定することで得られる 現物の糸の反射特性を取得する反射特性取得手段と、前記反射特性取得手段によ り取得された反射特性と前記反射関数から得られる糸の反射光のエネルギーとの誤 差が最小となるように前記反射関数を修正する修正手段とを備え、前記レンダリング 手段は、前記修正手段により修正された反射関数を用いて前記立体モデルをレンダ リングすることを特徴とする。
[0010] 本発明によるレンダリング方法は、仮想 3次元空間内で予め作成された立体モデル をレンダリングするレンダリング方法であって、コンピュータが、前記立体モデルを取 得するステップと、コンピュータが、布の表面形状を表す高さ情報と、布を構成する糸 の繊維方向を示す繊維方向情報とを含み、前記立体モデルの表面に貼り付けられる 布のテクスチャを取得するステップと、コンピュータが、仮想 3次元空間内における光 線方向、視線方向、及び前記繊維方向情報に応じた糸の反射光のエネルギーを表 す反射関数と前記テクスチャとを用いて前記立体モデルをレンダリングするステップ と、コンピュータが、光線方向及び視線方向を変化させて現物の糸の反射光のエネ ルギーを測定することで得られる現物の糸の反射特性を取得するステップと、コンビ ユータが、前記反射特性取得手段により取得された反射特性と前記反射関数から得 られる反射光のエネルギーとの誤差が最小となるように前記反射関数を修正するステ ップとを備え、前記レンダリングするステップは、前記修正手段により修正された反射 関数を用いて前記立体モデルをレンダリングすることを特徴とする。
[0011] これらの構成によれば、光線方向及び視線方向を変化させて現物の糸の反射光を 測定することで得られる糸の反射特性が取得され、取得された反射特性と糸の反射 関数から得られる反射光のエネルギーとの誤差が最小となるように反射関数が修正 され、修正された反射関数と布のテクスチャとを用いて立体モデルがレンダリングされ る。そのため、反射関数が実際の糸の反射特性をよりリアルに表すことが可能となり、 質感がリアルに再現された布で立体モデル表面を表示することができる。
図面の簡単な説明
[図 1]本発明の実施の形態によるレンダリング装置のハードウェア構成を示すブロック 図である。
[図 2]図 1に示すレンダリング装置の機能ブロック図である。
[図 3]本レンダリング装置が使用するテクスチャのモデルとなる現物の布を示した断面 図である。
[図 4]テクスチャのデータ構造を示す模式図である。
[図 5]遮蔽補正係数の説明図である。
[図 6]本レンダリング装置による反射関数に含まれる係数を算出する処理を示すフロ 一チャートである。
[図 7]試料載置テーブルに載置された現物の糸 T2を示した図である。
[図 8]反射特性測定装置による糸の測定手法の説明図であり、 (A)はカメラと光源と のなす方位角が 180度の場合を示し、 (B)はカメラと光源との方位角力 SO度の場合を 示している。
[図 9]反射特性測定装置において測定された糸の反射特性を示すグラフであり、縦 軸はエネルギーを示し、横軸は方位角、並びにカメラ及び光源の仰角を示している。
[図 10]係数の規格化の説明図である。
[図 11]本レンダリング装置によるレンダリング処理を示すフローチャートである。
[図 12]レンダリング部によりバンプマッピングされた立体モデルを示した図である。
[図 13]エネルギーの算出処理を示すフローチャートである。
[図 14]仮想 3次元空間内に設定された仮想スクリーンを示す図である。
[図 15]光沢の拡がりの算出過程の説明図である。
[図 16]立体モデルとしてカーシートを採用した場合の本レンダリング装置によるレンダ リング結果を示す画面図であり、 (A)はカーシートの腰掛け部の前側部分を上側から 見た場合を示し、(B)はカーシートの腰掛け部の前側部分を前方から見た場合を示 している。
[図 17]起毛処理された繊維を摂動させた場合におけるカーシートのレンダリング結果 を示した画面図である。
[図 18]模様の付された布をテクスチャとして用いた場合のレンダリング結果を示した 図であり、(A)はカーシートの腰掛け部の前側部分を上側から見た場合を示し、 (B) はカーシートの腰掛け部の前側部分を前方から見た場合を示している。
[図 19]立毛反射成分の説明図である。
[図 20]カジヤーケィモデルを説明するための図である。
発明を実施するための最良の形態
[0013] 図 1は、本発明の実施の形態によるレンダリング装置のハードウェア構成を示すブ ロック図である。本レンダリング装置は、通常のコンピュータ等から構成され、入力装 置 1、 ROM (リードオンリメモリ) 2、 CPU (中央演算処理装置) 3、 RAM (ランダムァク セスメモリ)4、外部記憶装置 5、表示装置 6、記録媒体駆動装置 7、インターフェイス 部(I/F)部 9、及び GPU (画像演算処理装置) 11を備える。入力装置 1、 ROM2、 CPU3、 RAM4、外部記憶装置 5、 GPU11、記録媒体駆動装置 7、及び I/F部 9は 内部のバスに接続され、このバスを介して種々のデータ等が入出され、 CPU3の制 御の下、種々の処理が実行される。
[0014] 入力装置 1は、キーボード、マウス等から構成され、ユーザが種々のデータを入力 するために使用される。 ROM2には、 BIOS (Basic Input/Output System)等 のシステムプログラムが記憶される。外部記憶装置 5は、ハードディスクドライブ等から 構成され、所定の OS (Operating System)及びレンダリングプログラム等が記憶さ れる。 CPU3は、外部記憶装置 5から OS等を読み出し、各ブロックの動作を制御する 。 RAM4は、 CPU3の作業領域等として用いられる。
[0015] 表示装置 6は、液晶表示装置等から構成され、 GPU11の制御の下に種々の画像 を表示する。記録媒体駆動装置 7は、 CD— ROMドライブ、フレキシブルディスクドラ イブ等から構成される。
[0016] なお、レンダリングプログラムは、 CD— ROM等のコンピュータ読み取り可能な記録 媒体 8に格納されて市場に流通される。ユーザはこの記録媒体 8を記録媒体駆動装 置 7に読み込ませることで、レンダリングプログラムをコンピュータにインストールする。 また、レンダリングプログラムをインターネット上のサーバに格納し、このサーバからダ ゥンロードすることで、レンダリングプログラムをコンピュータにインストールしてもよい。
[0017] I/F部 9は、例えば USBインターフェイスから構成され、反射特性測定装置 10とレ ンダリング装置との入出力インターフェイスを行う。
[0018] 反射特性測定装置 10は、例えば特開 2004— 152015号公報に開示されたシエー デイング情報取得装置から構成され、試料を載置する試料テーブルと、試料に対し て光を照射する光源と、試料の反射光を受光するカメラとを備え、光源及び試料を結 ぶ光線方向と、カメラ及び試料を結ぶ視線方向とを変更しながら、試料の反射光の エネルギーを測定し、試料の反射特性を取得する装置である。 GPU11は、 CPU3 の制御の下、本レンダリング装置における画像処理を主に実行し、処理結果を表示 装置 6に表示させる。
[0019] 図 2は、図 1に示すレンダリング装置の機能ブロック図を示している。レンダリング装 置は、処理部 100、記憶部 200、入力部 300、及び表示部 400を備えている。処理 部 100は、 GPU11から構成され、モデル取得部 101、テクスチャ取得部 102、色情 報取得部 103、摂動設定情報取得部 104、反射特性取得部 105、修正部 106、レン ダリング部 107、及び表示制御部 108の機能を備える。これらの機能は GPU11がレ ンダリングプログラムを実行することで実現される。
[0020] モデル取得部 101は、入力部 300により受け付けられたユーザからの操作入力に 従って、レンダリング対象となる立体モデルを取得し、モデル記憶部 201に記憶させ る。ここで、立体モデルは、モデリングソフトウェアを用いて仮想 3次元空間内で予め 作成されたある物体の立体モデルである。
[0021] テクスチャ取得部 102は、入力部 300により受け付けられたユーザからの操作入力 に従って、レンダリング対象となる立体モデルの表面に貼り付けられる布のテクスチャ を取得し、テクスチャ記憶部 202に記憶させる。図 3は、本レンダリング装置が使用す るテクスチャのモデルとなる現物の布を示した断面図である。図 3に示すように、テク スチヤのモデルとなる布は、織り又は編み構造を有する平板上の地組織部の表面に おいて、起毛処理が施された布である。ここで、布の表面に起毛処理が施されると、 起毛処理された糸の撚りがほどけ、糸を構成する繊維が地組織部の上方に向けて延 び、布表面が毛羽立った状態になる。 [0022] 図 4は、テクスチャのデータ構造を示す模式図である。図 4に示すようにテクスチャ は、布表面の位置を表す各々直交する u, V軸上に、 N行、 M列に配列された複数の 矩形領域 D1の各々の内部の所定の位置(例えば重心)に位置するサンプル点 C1の 座標と、各サンプル点 C1に関連付けられたテクスチャ情報とから構成されている。テ タスチヤ情報には、高さ情報、繊維密度情報、繊維方向情報、及び法線方向情報が 含まれている。ここで、矩形領域 D1のサイズは、例えば起毛処理された糸 T1が所定 本数 (例えば 1本)含まれる程度のサイズ (例えば数ミクロンオーダーのサイズ)を有し ている。
[0023] 高さ情報は、各サンプル点 C1における起毛処理された糸 T1の高さ、すなわち、 u
V平面に直交する高さ方向を示す w軸における糸 T1の先端の位置を示す。
[0024] 繊維密度情報は、矩形領域 D1内において地組織部の上方に向けて起毛処理さ れた糸 T1の密度を示す。具体的には、繊維密度情報は、矩形領域 D1の面積に対 する糸 T1を構成する繊維 flの断面積の割合を示す。
[0025] 繊維方向情報は、矩形領域 D1内における糸の方向を示す単位ベクトルである。地 組織部の上方に向けて起毛処理された糸 T1の繊維方向情報は、糸 T1を構成する 繊維 flの方向を示す単位ベクトルとなる。具体的には、糸 T1の繊維方向情報は、矩 形領域 D1内に存在する各繊維 flの方向を示す単位ベクトルの代表値 (例えば平均 値)が採用される。また、起毛処理が施された糸 T1が存在しない矩形領域 D11にお V、ては、繊維方向情報は地組織部の縦糸 TT1の長手方向を示す単位ベクトルとな る。法線方向情報は、矩形領域 D1内における糸の法線方向を示す単位ベクトルで ある。
[0026] 色情報取得部 103は、入力部 300により受け付けられたユーザからの操作入力に 従って、立体モデル表面の色を指定するための色情報を取得する。
[0027] 摂動設定情報取得部 104は、入力部 300により受け付けられたユーザからの操作 入力に従って、起毛処理された糸を構成する繊維の向きに偏りを与えて繊維を摂動 させるための摂動設定情報を取得する。
[0028] 反射特性取得部 105は、反射特性測定装置 10において測定された現物の糸の反 射特性を取得し、反射特性記憶部 203に記憶させる。 [0029] 修正部 106は、反射特性記憶部 203から現物の糸の反射特性を読み出し、読み出 した現物の糸の反射特性と、反射関数記憶部 204に記憶された糸の反射関数から 得られる反射光のエネルギーとの誤差が最小となるように、ノ ラメータフィッティングを 用いて反射関数を修正する。
[0030] すなわち、反射関数記憶部 204に記憶される反射関数は、仮想 3次元空間内にお ける光線方向、視線方向、及び繊維方向に応じた糸の反射光のエネルギーを表す 関数であり、糸の鏡面反射光のエネルギーを示す鏡面反射成分と、糸の拡散反射光 のうち糸の繊維方向を考慮した拡散反射光のエネルギーを示す第 1の拡散反射成 分と、糸の拡散反射光のうち糸の繊維方向を考慮しない拡散反射光のエネルギーを 示す第 2の拡散反射成分と、起毛処理された糸 T1を構成する繊維 flよって散乱する 反射光のエネルギーを示す立毛反射成分とを含む。
[0031] ここで、鏡面反射成分は、光線方向、視線方向、及び繊維方向により定められる変 数部と、変数部にかかる鏡面反射係数と、鏡面反射光のエネルギーの分布の拡がり を示す光沢係数とを含む。第 1の拡散反射成分は、光線方向及び繊維方向により定 められる変数部と、変数部にかかる第 1の拡散反射係数とを含む。第 2の拡散反射成 分は、光線方向、及び糸の法線方向により定められる変数部と、変数部にかかる第 2 の拡散反射係数とを含む。
[0032] 具体的には、反射関数は式(1)によって表される。
[0033] 1 = 1 +1 +1 +W (1)
s dl d2
ここで、 Iは鏡面反射成分を示し、 I は第 1の拡散反射成分を示し、 I は第 2の拡 s dl d2
散反射成分を示し、 wは立毛反射成分を示す。
[0034] 式(1)に示す鏡面反射成分 Iは、式(2)によって表される。
[0035] I =K . S 'cosP[acos{L * (― T) }— acos (V * T) ] (2)
s s
[0036] 式(2)に示す Kは鏡面反射係数を示し、 Lは光線方向を示し、 Vは視線方向を示し
、 Τは繊維方向を示し、 はベクトルの内積を示す。 Sは光源からの光が到達しな い遮蔽領域が存在することに起因する鏡面反射光のエネルギーの低下を再現する ための遮蔽補正係数であり、式(3)により表される。
[0037] S = l—(l/ 7T ) ' acos [{ (L—(L * T)T) / | L—(L * T)T | } * { (V—(V * T) τ)/ I V— (ν*τ)τ I }] (3)
[0038] 図 5は遮蔽補正係数の説明図である。繊維 flは円筒形状を有しているため、視点 力、ら繊維 flを見ることが可能な繊維 flの表面上の領域 R1内において光源からの光 が到達する到達領域 R2と光が到達しな!/ゝ遮蔽領域 R3が発生する結果、鏡面反射 光のエネルギーが低下してしまう。そこで、本レンダリング装置では、この鏡面反射成 分のエネルギーの低下を再現するために、繊維 flの断面を円形と仮定し、領域 R1 の大きさに対する到達領域 R2の大きさの割合を表す遮蔽補正係数 Sを鏡面反射成 分 Iに含ませている。
[0039] 式(2)に示す pは、光沢の拡がりを表す光沢係数を示し、修正部 106によるパラメ一 タフイツティングによって求められる。
[0040] 式(1)に示す第 1の拡散反射成分 I は、式 (4)によって表される。
[0041] I =K - sin (acos (L * T) ) (4)
式 (4)に示す K は第 1の拡散反射係数を示す。
[0042] 式(1)に示す第 2の拡散反射成分 I は式(5)によって表される。
[0043] I =K ,(L * N) (5)
式(5)に示す、 K は第 2の拡散反射係数を示す。また、 Νは糸の法線方向を示す 単位ベクトルである。
[0044] 式(1)に示す立毛反射成分 Wは、式(6)によって表される。
[0045] W= (d/N * V) ' (L * N) (6)
式(6)に示す dは繊維密度を示し、テクスチャに含まれる繊維密度情報が代入され
[0046] 図 19は、立毛反射成分 Wの説明図である。起毛処理された糸 T1は、複数本の散 らばった繊維 flから構成されているため、多くの箇所で光源からの光が反射され、反 射光が散乱する。そこで、この反射光の散乱を再現するために、本レンダリング装置 は、反射関数に立毛反射成分 Wを含ませている。
[0047] そして、修正部 106は、反射関数が、現物の糸の反射特性を得るように、パラメータ フィッティングを用いて、鏡面反射係数 Kと、光沢係数 pと、第 1の拡散反射係数 K と、第 2の拡散反射係数 K とを算出する。 [0048] なお、修正部 106は、鏡面反射係数 Kと、光沢係数 pと、第 1の拡散反射係数 K と
s dl
、第 2の拡散反射係数 K とのうち、少なくとも 1つの係数を算出するようにしてもよい
d2
。この場合、設定対象とならない係数に対しては予め定められた値を設定し、設定対 象となる係数をパラメータフィッティングにより求めればよい。
[0049] また、修正部 106は、仮想 3次元空間内の所定の位置にエネルギーが 1の光を出 力する光源を配置したときにおける反射関数から得られる反射光のエネルギーの分 布の合計が 1となるように、鏡面反射係数 Kと、第 1の拡散反射係数 K と、第 2の拡
s dl
散反射係数 K とを規格化し、規格化した鏡面反射係数 Kと、第 1の拡散反射係数
d2 s
κ と、第 2の拡散反射係数
dl κ とを色情報を取り込んだ反射関数の係数として設定
d2
する。
[0050] ここで、色情報を取り込んだ反射関数は式(7)で表される。
[0051] I = F-I + C - (l -F) I + C ·Ι + C ·Ι +W (7)
s RGB s RGB dl RGB d2
式(7)に示す Fはフレネルの公式を示し、式(8)によって表される。
[0052] F= (l/2) - (tan2 ( 0 1— Θ 2) /tan2 ( Θ 1 + Θ 2) + sin2 ( 0 1— Θ 2) /sin2 ( θ 1 + Θ 2) ) (8)
式(8)に示す θ 1は入射角を示し、 Θ 2は屈折角を示し、予め定められた値が採用 されている。
[0053] 式(7)に示す C は立体モデルに付される色情報を示し、 R, G, Βの 3つ色成分
RGB
からなり、立体モデルに貼り付けられるテクスチャの色情報、又は色情報取得部 103 により取得された色情報が採用される。 C は、 R, G, Bの 3つ色成分からなるため、
RGB
式(7)の Iは、 R, G, Bの 3つの色成分からなる。
[0054] レンダリング部 107は、修正部 106により係数が算出された式(7)に示す反射関数 と、色情報取得部 103により取得された色情報又はデフォルトの色情報と、テクスチ ャ記憶部 202に記憶されたテクスチャとを用いて、モデル記憶部 201に記憶された立
[0055] 表示制御部 108は、レンダリング部 107でレンダリングされた立体モデルを表示部 4 00に表示する。
[0056] 記憶部 200は、図 1に示す GPU11が備える RAM、及び外部記憶装置 5等から構 成され、モデル記憶部 201、テクスチャ記憶部 202、反射特性記憶部 203、反射関 数記憶部 204、及び摂動情報記憶部 205を備える。モデル記憶部 201は、モデル取 得部 101により取得された立体モデルを記憶する。テクスチャ記憶部 202は、テクス チヤ取得部 102により取得されたテクスチャを記憶する。反射特性記憶部 203は、反 射特性取得部 105により取得された現物の糸の反射特性を記憶する。反射関数記 憶部 204は、式(1)及び式(7)に示す反射関数を記憶する。
[0057] 摂動情報記憶部 205は、摂動させる糸の立体モデル表面の位置 (摂動位置)と、各 摂動位置において起毛処理された糸の向きの修正すべき方向を示す摂動ベクトルと が関連付けられた摂動情報を記憶する。ここで、摂動位置及び摂動ベクトルは立体 モデルの表面に貼り付けられるテクスチャのモデルとなる実際の布の特性に応じて予 め定められた位置及び方向が採用されている。
[0058] 入力部 300は、図 1に示す入力装置 1から構成され、立体モデル、テクスチャ、色情 報、及び摂動設定情報等を設定するためのユーザからの操作入力を受け付ける。
[0059] 表示部 400は、図 1に示す表示装置 6から構成され、レンダリング部 107によりレン ダリングされた立体モデルを表示する。
[0060] 図 6は、本レンダリング装置による反射関数に含まれる係数を算出する処理を示す フローチャートである。まず、ステップ S 1において、反射特性測定装置 10は、試料テ 一ブルに載置された現物の糸に光を照射し、光線方向と視線方向とを変更しながら 、糸の反射光のエネルギーを測定する。
[0061] 図 7は、試料載置テーブルに載置された現物の糸 T2を示した図である。図 7に示 すように糸 T2は、円盤状のボビンに複数巻回されている。反射特性測定装置 10は、 この巻回された糸 T2に光を照射し、反射光を受光し、糸 T2のエネルギーを取得する 。ここで、ボビンに巻回された糸 T2の長手方向を糸縦方向とし、糸縦方向と直交する 方向を糸横方向とする。
[0062] 図 8は、反射特性測定装置 10による糸 T2の測定手法の説明図であり、(A)はカメ ラと光源とのなす方位角が 180度の場合を示し、 (B)はカメラと光源との方位角が 0 度の場合を示している。まず、反射特性測定装置 10は、図 8 (A)に示すように、カメ ラと光源との方位角を 180度に保ち、糸 T2に対するカメラの仰角を 30度に設定し、 糸 T2に対する光源の仰角 0度から 90度まで所定の分解能で変更し、光源の角度が 変更される毎に、カメラに糸 Τ2を撮影させる。ここで、光源とカメラとの方位角は、光 源とカメラとを結ぶ直線の向き力 S、糸縦方向を向くように設定される。
[0063] 次に、反射特性測定装置 10は、カメラの仰角を 45度に設定し、光源の仰角を 0度 力も 90度まで所定の分解能で変更し、カメラに糸 T2を撮影させる。次に、反射特性 測定装置 10は、カメラの仰角を 60度に設定し、光源の仰角を 0度から 90度まで所定 の分解能で変更し、カメラに糸 T2を撮影させる。
[0064] 次に、反射特性測定装置 10は、図 8 (B)に示すように、カメラと光源との方位角を 0 度に設定し、方位角が 180度である場合と同様にして、光源とカメラとの仰角を変更 し、カメラに糸 T2を撮影させる。ここで、カメラと光源との方位角は、カメラと光源とを 結ぶ直線の向きが、糸縦方向を向くように設定される。
[0065] このように、反射特性測定装置 10は、光源とカメラとの方位角、並びに光源及び力 メラの仰角を変更して糸 T2を撮影し、カメラが受光する糸 T2の反射光を受光し、糸 T 2の反射光特性を測定する。
[0066] 図 9は、反射特性測定装置 10において測定された糸 T2の反射特性を示すグラフ であり、縦軸はエネルギーを示し、横軸は方位角、並びにカメラ及び光源の仰角を示 している。図 9に示すように、カメラと光源との方位角が 180度の場合、カメラの仰角を 一定にして、光源の仰角を変更していくと、反射光のエネルギーは上に凸のほぼ曲 線状の急峻なカーブを描いて変化することが分かる。一方、カメラと光源との方位角 力^度の場合、カメラの仰角を一定にして、光源の仰角を変更していくと、反射光のェ ネルギ一は単調に増加することが分かる。
[0067] 図 6に示すステップ S2において、反射特性取得部 105は、反射特性測定装置 10 により測定された糸 T2の反射特性を取得し、反射特性記憶部 203に記憶させる。次 に、修正部 106は、式(1)に示す反射関数から得られる反射光のエネルギーと、糸 T 2の反射特性との誤差が最小となるように、ノ ラメータフィッティングを用いて、鏡面反 射係数 Kと、光沢係数 pと、第 1の拡散反射係数 K と、第 2の拡散反射係数 K とを
s dl d2 算出する (ステップ S3)。
[0068] ここで、修正部 106は、繊維密度を示す dに予め定められた値を設定し、光線方向 L、視線方向 V、法線方向 Nを変化させたときの、式(1)に示す反射関数から得られ る反射光のエネルギーと、反射特性取得部 105により取得された反射特性との誤差 の二乗和が最小となるような鏡面反射係数 Kと、光沢係数 pと、第 1の拡散反射係数
K と、第 2の拡散反射係数 K とを算出する。
dl d2
[0069] 次に、修正部 106は、仮想 3次元空間内の所定の位置にエネルギーが 1の光を出 力する光源を配置したときにおける反射関数の視線方向毎の反射光のエネルギー の合計が 1となるように、鏡面反射係数 Kと、第 1の拡散反射係数 K と、第 2の拡散
s dl
反射係数 とを規格化する(ステップ S4)。図 10は、係数の規格化の説明図である
d2
。図 10に示すように、仮想 3次元空間内の所定の位置 (例えば、注目点 CPの真上) に光源を設定し、注目点 CPに所定レベル (例えば 1)のエネルギーを入射させ、光源 とカメラとの方位角を 0度から 360度まで変化させると共に、カメラの仰角を 0度から 9 0度まで変化させたときにおける式(1)に示す反射関数のエネルギーの分布の合計 力 注目点 CPに入射するエネルギーと等しくなるように鏡面反射係数 Kと、第 1の拡 散反射係数 K と、第 2の拡散反射係数 K とを規格化する。
dl d2
[0070] 次に、修正部 106は、ステップ S4で求めた係数を式(7)に示す I、 I 、 1 に代入し
s dl d2
、色情報を取り込んだ反射関数の係数を設定する(ステップ S5)。
[0071] 次に、本レンダリング装置によるレンダリング処理について説明する。図 11は、本レ ンダリング装置によるレンダリング処理を示すフローチャートである。まず、ステップ S1 1において、入力部 300により、ユーザから立体モデル表面の色を指定する色情報 の操作入力が受け付けられた場合 (ステップ S11で YES)、色情報取得部 103は、 色情報を取得してレンダリング部 107に渡し、レンダリング部 107は、式(7)に示す反 射関数の C に取得された色情報を代入し、色情報を設定する (ステップ S 13)。
RGB
[0072] 一方、入力部 300により、ユーザから立体モデル表面の色を指定する色情報の操 作入力が受け付けられない場合(ステップ S 11で NO)、処理がステップ S 12に進めら れる。この場合、レンダリング部 107は、式(7)の C に予め設定されている色情報
RGB
を設定する。
[0073] 次に、入力部 300により、摂動設定情報の操作入力が受け付けられた場合 (ステツ プ S12で YES)、摂動設定情報取得部 104は、摂動設定情報を取得する(ステップ S 14)。ここで、表示制御部 108は、ユーザに摂動設定情報を入力させるための操作 ボタン等を表示部 400に表示させ、この操作ボタンをマウスでクリックさせる等して摂 動設定情報を入力させる。
[0074] 次に、レンダリング部 107は、モデル記憶部 201から立体モデルを読み出し、読み 出した立体モデルに、テクスチャ記憶部 202に記憶されたテクスチャをバンプマツピ ングする(ステップ S 15)。図 12は、レンダリング部 107によりバンプマッピングされた 立体モデルを示している。図 12に示すように、レンダリング部 107は、立体モデル表 面にテクスチャを貼り付けて、立体モデル表面にサンプル点 C1を設定し、サンプル 点 C1に、底面の中心が位置するように一定の断面積を有する円筒を糸 T1として設 定する。ここで、糸 T1の長手方向の長さは、サンプル点 C1における高さ情報から定 められ、糸 T1の繊維方向 Tは、サンプル点 C1における繊維方向情報から定められ
[0075] また、レンダリング部 107は、摂動設定情報取得部 104により摂動設定情報が取得 された場合、摂動情報記憶部 205から摂動情報を読み出し、読み出した摂動情報に 従って、糸 T1の繊維方向 Tを修正する。具体的には、レンダリング部 107は、起毛処 理された糸 T1が摂動情報により摂動位置として指定されている場合は、当該糸 T1 の繊維方向に、当該摂動位置に関連付けられた摂動ベクトルを合成し、当該糸 T1 の向きを修正する。
[0076] 図 11に示すステップ S 16において、レンダリング部 107は、表面に糸 T1を設定した 立体モデルの反射光のエネルギーの算出処理を実行する。図 13は、エネルギーの 算出処理を示すフローチャートである。まず、ステップ S31において、仮想 3次元空 間内に仮想スクリーンを設定し、仮想スクリーンを構成する複数の画素の中から 1つ の画素を注目画素として設定する(ステップ S31)。図 14は、仮想 3次元空間内に設 定された仮想スクリーンを示す図である。図 14に示すように、仮想スクリーンは、所定 行 X所定列に格子状に配列された画素から構成されている。レンダリング部 107は、 仮想スクリーンに含まれる複数の中から 1つの画素を注目画素 SCPとして、例えば仮 想スクリーン上の左上の頂点の画素から右下の頂点の画素に向けて順次設定する。
[0077] 次に、レンダリング部 107は、注目画素 SCPと仮想 3次元空間内に予め設定された 視点とを結ぶ直線の延長線 L21上に立体モデルが存在するか否かを判定し、延長 線 L21上に立体モデルが存在すると判定した場合は、立体モデル表面と延長線 L2 1との交点を注目点 CPとして設定する(ステップ S32)。
[0078] 次に、レンダリング部 107は、注目点 CPが設定された糸 T1における光沢の拡がり を算出する。図 15は光沢の拡がりの算出過程の説明図である。レンダリング部 107 は、注目点 CPを設定した糸 T1に対してテクスチャにより定められた繊維密度情報を 式(9)の dに代入し、注目点 CPにおける鏡面反射光のエネルギーの分布力 繊維密 度情報が低い箇所ほど拡がるように光沢係数を補正する(ステップ S33)。すなわち、 ρΊま繊維密度が高くなるにつれて増大するため、 p'を式(2)の pに代入することで、 繊維密度情報が低い箇所ほど鏡面反射光のエネルギーの分布が拡がることになる。
[0079] p' =p - d2 (9)
但し、 ρΊま補正された光沢係数を示し、 ρは注目点 CPを設定した糸 T1における光 沢係数を示す。
[0080] 次に、レンダリング部 107は、光沢係数の修正の前後において、鏡面反射成分 Iの エネルギーの分布の総量が一定に保たれるように、式(10)を用いて鏡面反射係数 Kを補正する(ステップ S 34)。
[0081] Κ ' = ( (ρ' + 1) / (ρ+ 1) ) ·Κ (10)
但し、 Κ 'は、補正後の鏡面反射係数 Κを示し、 Κは補正前の鏡面反射成分を示 す。
[0082] すなわち、図 15に示すように、式(9)により注目点 CPにおける鏡面反射光のエネ ルギ一の分布を広げると、鏡面反射光のエネルギーの総量が増大してしまい、図 6の ステップ S4で係数を規格化した効果が小さくなつてしまう。そこで、レンダリング部 10 7は、式(10)により鏡面反射光のエネルギーの分布の総量力 S、式(9)に示す光沢係 数の補正の前後において、一定に保たれるように鏡面反射係数 Kを補正する。
[0083] 次に、レンダリング部 107は、式(7)を用いて、注目点 CPにおける反射光のェネル ギーを算出し (ステップ S35)、算出した反射光のエネルギーを注目画素 SCPにおけ る画素データとして算出する。ここで、レンダリング部 107は、図 14に示すように、仮 想 3次元空間内における光源及び視点の位置から、注目点 CPにおける光線方向 L 及び視線方向 Vを求める。また、レンダリング部 107は、注目点 CPが設定された糸 T 1における繊維方向 Tを、注目点 CPの繊維方向 Tとして求める。更に、レンダリング 部 107は、注目点 CPが設定された糸 T1における法線方向 Nを、注目点 CPの法線 方向 Nとして求める。
[0084] そして、レンダリング部 107は、求めた光線方向 L、視線方向 V、繊維方向 Tを式(2 )〜(6)の L, V, Tに代入し、ステップ S33で補正した光沢係数 を式(2)の pに代入 し、ステップ S34で補正した鏡面反射係数 K 'を式(2)の Kに代入し、注目点 CPが 設定された糸 T1に対して定められた繊維密度情報を式(6)の dに代入し、式(7)の 演算を行い、注目点 CPにおける反射光のエネルギーを算出する。
[0085] 次に、レンダリング部 107は、仮想スクリーンの最終画素に対して、ステップ S3;!〜 S35の処理を実行した場合は(ステップ S36で NO)、エネルギーの算出処理を終了 し、最終画素に対してステップ S31〜S35の処理を実行していない場合は(ステップ S36で NO)処理をステップ S31に戻す。
[0086] 図 11に戻り、レンダリング部 107は、仮想スクリーンを表示制御部 108に出力し、表 示制御部 108は、仮想スクリーンを表示部 400に表示して、立体モデルのレンダリン グ結果を表示部 400に表示する (ステップ S 17)。
[0087] 図 16は、立体モデルとしてカーシートを採用した場合の本レンダリング装置による レンダリング結果を示す画面図であり、 (A)はカーシートの腰掛け部の前側部分を上 側から見た場合を示し、 (B)はカーシートの腰掛け部の前側部分を前方力 見た場 合を示している。図 16 (A)、(B)に示すように、カーシートの表面において、起毛処 理が施された布がリアルに再現されていることが分かる。
[0088] 図 17は、起毛処理された繊維を摂動させた場合におけるカーシートのレンダリング 結果を示した画面図である。図 17の例えば閉曲線で囲まれた領域内において、繊 維が一定の方向に摂動され、カーシートの表面において、起毛処理が施された布が よりリアルに再現されて!/、ること力 S分力、る。
[0089] 図 18は、模様の付された布をテクスチャとして用いた場合のレンダリング結果を示 した図であり、 (A)はカーシートの腰掛け部の前側部分を上側から見た場合を示し、 (B)はカーシートの腰掛け部の前側部分を前方から見た場合を示している。この場 合、図 18に示すような模様が付された布をテクスチャのモデルとして採用すればよい 。具体的には、テクスチャの各サンプル点 C1におけるテクスチャ情報に例えば R, G , Bの色成分で示す色情報を含ませ、レンダリング部 107は、この色情報を式(7)の C
Figure imgf000019_0001
[0090] このように本レンダリング装置によれば、現物の糸の反射光を測定することで得られ る糸の反射特性が取得され、取得された反射特性と反射関数力 反射光のエネルギ との誤差が最小となるように、鏡面反射係数 K、光沢係数 p、第 1の拡散反射係数
K 、及び第 2の拡散反射係数 K が算出され、これらの係数が算出された反射関数 を用いて立体モデルがレンダリングされるため、反射関数が実際の糸の反射特性を よりリアルに表すことが可能となり、質感がリアルに再現された布で立体モデル表面を 表示すること力 sでさる。
[0091] また、反射関数は、布の拡散反射光のうち布の糸の繊維方向を考慮した拡散反射 光を示す第 1の拡散反射成分 I と、布の糸の繊維方向を考慮しない拡散反射光を 示す第 2の拡散反射成分 I と、起毛処理された糸 T1によって散乱する反射光のェ ネルギーを示す立毛反射成分 Wを含んでいるため、反射関数は、起毛処理された布 をよりリアルに再現することが可能となり、立体モデルの表面に表示される布をよりリア ルに再現することができる。
[0092] 更に、反射関数による反射光のエネルギーの分布の合計が 1となるように、鏡面反 射係数 K、第 1及び第 2の拡散反射係数 Κ , K が規格化されるため、反射関数に 任意の色を取り込んだ場合であっても、布の質感をリアルに表すことができる。
[0093] 更に、鏡面反射成分 Iは、遮蔽補正係数 Sを含むため、布を構成する糸の表面に おいて、光源からの光が届かないことによる鏡面反射光の低下を再現することができ
[0094] 更に、色情報取得部 103を備えているため、立体モデル表面における布の色をュ 一ザが所望する色に変更することができる。
[0095] 更に、摂動設定情報取得部 104を備えているため、立体モデル表面における繊維 を摂動させることができ、よりリアルなレンダリングを実現することができる。
[0096] (本発明の纏め) (1)本発明によるレンダリングプログラムは、仮想 3次元空間内で予め作成された立 体モデルをレンダリングするレンダリングプログラムであって、前記立体モデルを取得 するモデル取得手段と、布の表面形状を表す高さ情報と、布を構成する糸の繊維方 向を示す繊維方向情報とを含み、前記立体モデルの表面に貼り付けられる布のテク スチヤを取得するテクスチャ取得手段と、仮想 3次元空間内における光線方向、視線 方向、及び前記繊維方向情報により示される繊維方向に応じた糸の反射光のェネル ギーを表す反射関数と前記テクスチャとを用いて前記立体モデルをレンダリングする レンダリング手段と、光線方向及び視線方向を変化させて現物の糸の反射光のエネ ルギーを測定することで得られる現物の糸の反射特性を取得する反射特性取得手 段と、前記反射特性取得手段により取得された反射特性と、前記反射関数から得ら れる反射光のエネルギーとの誤差が最小となるように前記反射関数を修正する修正 手段としてコンピュータを機能させ、前記レンダリング手段は、前記修正手段により修 正された前記反射関数を用いて前記立体モデルをレンダリングすることを特徴とする
[0097] 本発明によるレンダリング装置は、仮想 3次元空間内で予め作成された立体モデル をレンダリングするレンダリング装置であって、前記立体モデルを取得するモデル取 得手段と、布の表面形状を表す高さ情報と、布を構成する糸の繊維方向を示す繊維 方向情報とを含み、前記立体モデルの表面に貼り付けられる布のテクスチャを取得 するテクスチャ取得手段と、仮想 3次元空間内における光線方向、視線方向、及び 前記繊維方向情報に応じた糸の反射光のエネルギーを表す反射関数と前記テクス チヤとを用いて前記立体モデルをレンダリングするレンダリング手段と、光線方向及 び視線方向を変化させて現物の糸の反射光のエネルギーを測定することで得られる 現物の糸の反射特性を取得する反射特性取得手段と、前記反射特性取得手段によ り取得された反射特性と前記反射関数から得られる糸の反射光のエネルギーとの誤 差が最小となるように前記反射関数を修正する修正手段とを備え、前記レンダリング 手段は、前記修正手段により修正された反射関数を用いて前記立体モデルをレンダ リングすることを特徴とする。
[0098] 本発明によるレンダリング方法は、仮想 3次元空間内で予め作成された立体モデル をレンダリングするレンダリング方法であって、コンピュータが、前記立体モデルを取 得するステップと、コンピュータが、布の表面形状を表す高さ情報と、布を構成する糸 の繊維方向を示す繊維方向情報とを含み、前記立体モデルの表面に貼り付けられる 布のテクスチャを取得するステップと、コンピュータが、仮想 3次元空間内における光 線方向、視線方向、及び前記繊維方向情報に応じた糸の反射光のエネルギーを表 す反射関数と前記テクスチャとを用いて前記立体モデルをレンダリングするステップ と、コンピュータが、光線方向及び視線方向を変化させて現物の糸の反射光のエネ ルギーを測定することで得られる現物の糸の反射特性を取得するステップと、コンビ ユータが、前記反射特性取得手段により取得された反射特性と前記反射関数から得 られる反射光のエネルギーとの誤差が最小となるように前記反射関数を修正するステ ップとを備え、前記レンダリングするステップは、前記修正手段により修正された反射 関数を用いて前記立体モデルをレンダリングすることを特徴とする。
[0099] これらの構成によれば、光線方向及び視線方向を変化させて現物の糸の反射光を 測定することで得られる糸の反射特性が取得され、取得された反射特性と糸の反射 関数から得られる反射光のエネルギーとの誤差が最小となるように反射関数が修正 され、修正された反射関数と布のテクスチャとを用いて立体モデルがレンダリングされ る。そのため、反射関数が実際の糸の反射特性をよりリアルに表すことが可能となり、 質感がリアルに再現された布で立体モデル表面を表示することができる。
[0100] (2)前記反射関数は、糸の鏡面反射光のエネルギーを示す鏡面反射成分と、糸の 拡散反射光のうち糸の繊維方向を考慮した拡散反射光のエネルギーを示す第 1の 拡散反射成分と、糸の拡散反射光のうち糸の繊維方向を考慮しない拡散反射光の エネルギーを示す第 2の拡散反射成分とを含み、前記鏡面反射成分は、前記光線 方向、前記視線方向、及び前記繊維方向により定められる変数部と、前記変数部に かかる鏡面反射係数と、鏡面反射光のエネルギーの分布の拡がりを示す光沢係数と を含み、前記第 1の拡散反射成分は、前記光線方向及び前記繊維方向により定めら れる変数部と、前記変数部にかかる第 1の拡散反射係数とを含み、前記第 2の拡散 反射成分は、前記光線方向、及び糸の法線方向により定められる変数部と、前記変 数部にかかる第 2の拡散反射係数とを含み、前記修正手段は、前記反射特性取得 手段により取得された反射特性と、前記反射関数から得られる反射光のエネルギー との誤差が最小となるように、前記鏡面反射係数と、前記光沢係数と、前記第 1の拡 散反射係数と、前記第 2の拡散反射係数とのうち、少なくともいずれか 1つの係数を 算出することが好ましい。
[0101] この構成によれば、反射関数は、糸の拡散反射光のうち糸の繊維方向を考慮した 拡散反射光を示す第 1の拡散反射成分と、糸の繊維方向を考慮しない拡散反射光 を示す第 2の拡散反射成分とを含んでいるため、反射関数は、現物の糸の反射特性 をよりリアルに再現することが可能となり、立体モデルの表面に表示される布をよりリア ノレに再現すること力 Sできる。また、現物の糸の反射特性と反射関数から得られる反射 光のエネルギーとの誤差が最小となるように、鏡面反射成分に含まれる鏡面反射係 数と、光沢係数と、第 1及び第 2の拡散反射成分に含まれる第 1及び第 2の拡散反射 係数とが算出されるため、反射関数は、現物の糸の反射特性をよりリアルに再現する こと力 Sでさる。
[0102] (3)前記修正手段は、前記反射関数から得られる反射光のエネルギーの分布の合 計が、入射するエネルギーと等しくなるように、前記鏡面反射係数、前記第 1の拡散 反射係数、及び前記第 2の拡散反射係数を規格化することが好まし!/、。
[0103] この構成によれば、鏡面反射係数、第 1及び第 2の拡散反射係数が規格化される ため、反射関数に任意の色を取り込んだ場合であっても、反射関数は布の質感をリ アルに表すことができる。
[0104] (4)前記テクスチャは、起毛処理された糸を構成する繊維の密度を示す繊維密度 情報を含み、前記反射関数は、前記繊維密度情報に基づいて、起毛処理された糸 を構成する繊維によって散乱する反射光のエネルギーを算出する立毛反射成分を 更に含むことが好ましい。
[0105] この構成によれば、反射関数は、立毛反射成分を含んでいるため、立体モデルの 表面において、起毛処理された布をリアルに再現することができる。
[0106] (5)前記レンダリング手段は、前記繊維密度情報が低!/、箇所ほど、鏡面反射光の エネルギーの分布が拡がるように前記光沢係数を補正することが好ましい。
[0107] この構成によれば、繊維密度情報の低!/、箇所ほど、鏡面反射光のエネルギーの分 布が広がるように、光沢係数が補正されるため、立体モデルの表面において、起毛 処理された布をよりリアルに再現することができる。
[0108] (6)前記鏡面反射成分は、糸を構成する繊維の表面において、光源からの光が到 達しない遮蔽領域が存在することに起因する鏡面反射光のエネルギーの低下を再 現するための遮蔽補正係数を更に含み、前記レンダリング手段は、前記遮蔽補正係 数を含む鏡面反射成分を用いてレンダリングすること好ましレ、。
[0109] この構成によれば、鏡面反射成分は遮蔽補正係数を含むため、糸を構成する繊維 の表面において、光源からの光が届かないことによる鏡面反射光の低下を再現する こと力 Sでさる。
[0110] (7)前記立体モデルの色を指定するための色情報を取得する色情取得手段を更 に備え、前記レンダリング手段は、前記色情報取得手段によって取得された色情報 を用いて前記立体モデルをレンダリングすることが好ましレ、。
[0111] この構成によれば、立体モデルの表面における布の色をユーザが所望する色に変 更すること力 Sでさる。
[0112] (8)前記起毛処理された繊維の向きに偏りを与えて繊維を摂動させるための摂動 設定情報を取得する摂動設定情報取得手段を更に備え、前記レンダリング手段は、 前記摂動設定情報が取得された場合、立体モデル表面の所定の領域にお!/、て起毛 処理された繊維の向きに所定の偏りを与えることが好ましい。
[0113] この構成によれば、立体モデル表面の所定の領域において、起毛処理された繊維 の向きに所定の偏りが付与されて繊維が摂動されるため、よりリアルなレンダリングを 実現すること力 Sでさる。

Claims

請求の範囲
[1] 仮想 3次元空間内で予め作成された立体モデルをレンダリングするレンダリングプ ログラムであって、
前記立体モデルを取得するモデル取得手段と、
布の表面形状を表す高さ情報と、布を構成する糸の繊維方向を示す繊維方向情 報とを含み、前記立体モデルの表面に貼り付けられる布のテクスチャを取得するテク スチヤ取得手段と、
仮想 3次元空間内における光線方向、視線方向、及び前記繊維方向情報により示 される繊維方向に応じた糸の反射光のエネルギーを表す反射関数と前記テクスチャ とを用いて前記立体モデルをレンダリングするレンダリング手段と、
光線方向及び視線方向を変化させて現物の糸の反射光のエネルギーを測定する ことで得られる現物の糸の反射特性を取得する反射特性取得手段と、
前記反射特性取得手段により取得された反射特性と、前記反射関数から得られる 反射光のエネルギーとの誤差が最小となるように前記反射関数を修正する修正手段 としてコンピュータを機能させ、
前記レンダリング手段は、前記修正手段により修正された反射関数を用いて前記
[2] 前記反射関数は、糸の鏡面反射光のエネルギーを示す鏡面反射成分と、糸の拡 散反射光のうち糸の繊維方向を考慮した拡散反射光のエネルギーを示す第 1の拡 散反射成分と、糸の拡散反射光のうち糸の繊維方向を考慮しない拡散反射光のェ ネルギーを示す第 2の拡散反射成分とを含み、
前記鏡面反射成分は、前記光線方向、前記視線方向、及び前記繊維方向により 定められる変数部と、前記変数部にかかる鏡面反射係数と、前記鏡面反射光のエネ ルギ一の分布の拡がりを示す光沢係数とを含み、
前記第 1の拡散反射成分は、前記光線方向及び前記繊維方向により定められる変 数部と、前記変数部にかかる第 1の拡散反射係数とを含み、
前記第 2の拡散反射成分は、前記光線方向、及び糸の法線方向により定められる 変数部と、前記変数部にかかる第 2の拡散反射係数とを含み、 前記修正手段は、前記反射特性取得手段により取得された反射特性と、前記反射 関数から得られる反射光のエネルギーとの誤差が最小となるように、前記鏡面反射係 数と、前記光沢係数と、前記第 1の拡散反射係数と、前記第 2の拡散反射係数とのう ち、少なくともいずれ力、 1つの係数を算出することを特徴とする請求項 1記載のレンダ リングプログラム。
[3] 前記修正手段は、前記反射関数から得られる反射光のエネルギーの分布の合計 力 入射するエネルギーと等しくなるように、前記鏡面反射係数、前記第 1の拡散反 射係数、及び前記第 2の拡散反射係数を規格化することを特徴とする請求項 2記載
[4] 前記テクスチャは、起毛処理された糸を構成する繊維の密度を示す繊維密度情報 を含み、
前記反射関数は、前記繊維密度情報に基づいて、起毛処理された糸を構成する 繊維によって散乱する反射光のエネルギーを算出する立毛反射成分を更に含むこと を特徴とする請求項 2又は 3記載のレンダリングプログラム。
[5] 前記レンダリング手段は、前記繊維密度情報が低レ、箇所ほど、前記鏡面反射光の エネルギーの分布が拡がるように前記光沢係数を補正することを特徴とする請求項 4
[6] 前記鏡面反射成分は、糸を構成する繊維の表面において、光源からの光が到達し ない遮蔽領域が存在することに起因する鏡面反射光のエネルギーの低下を再現す るための遮蔽補正係数を更に含み、
前記レンダリング手段は、前記遮蔽補正係数を含む鏡面反射成分を用いてレンダ リングすることを特徴とする請求項 2〜5のいずれかに記載のレンダリングプログラム。
[7] 前記立体モデルの色を指定するための色情報を取得する色情取得手段を更に備 え、
前記レンダリング手段は、前記色情報取得手段によって取得された色情報を用い て前記立体モデルをレンダリングすることを特徴とする請求項 1〜6のいずれかに記
[8] 前記起毛処理された繊維の向きに偏りを与えて繊維を摂動させるための摂動設定 情報を取得する摂動設定情報取得手段を更に備え、
前記レンダリング手段は、前記摂動設定情報が取得された場合、立体モデル表面 の所定の領域において起毛処理された繊維の向きに所定の偏りを与えることを特徴
Figure imgf000026_0001
置であって、
前記立体モデルを取得するモデル取得手段と、
布の表面形状を表す高さ情報と、布を構成する糸の繊維方向を示す繊維方向情 報とを含み、前記立体モデルの表面に貼り付けられる布のテクスチャを取得するテク スチヤ取得手段と、
仮想 3次元空間内における光線方向、視線方向、及び前記繊維方向情報に応じた 糸の反射光のエネルギーを表す反射関数と前記テクスチャとを用いて前記立体モデ
Figure imgf000026_0002
光線方向及び視線方向を変化させて現物の糸の反射光のエネルギーを測定する ことで得られる現物の糸の反射特性を取得する反射特性取得手段と、
前記反射特性取得手段により取得された反射特性と前記反射関数から得られる糸 の反射光のエネルギーとの誤差が最小となるように前記反射関数を修正する修正手 段とを備え、
前記レンダリング手段は、前記修正手段により修正された反射関数を用いて前記 立体モデルをレンダリングすることを特徴とするレンダリング装置。
仮想 3次元空間内で予め作成された立体モデルをレンダリングするレンダリング方 法であって、
コンピュータが、前記立体モデルを取得するステップと、
コンピュータが、布の表面形状を表す高さ情報と、布を構成する糸の繊維方向を示 す繊維方向情報とを含み、前記立体モデルの表面に貼り付けられる布のテクスチャ を取得するステップと、
コンピュータが、仮想 3次元空間内における光線方向、視線方向、及び前記繊維方 向情報に応じた糸の反射光のエネルギーを表す反射関数と前記テクスチャとを用い コンピュータが、光線方向及び視線方向を変化させて現物の糸の反射光のェネル ギーを測定することで得られる現物の糸の反射特性を取得するステップと、 コンピュータが、前記反射特性取得手段により取得された反射特性と前記反射関 数から得られる反射光のエネルギーとの誤差が最小となるように前記反射関数を修 正するステップとを備え、
前記レンダリングするステップは、前記修正手段により修正された反射関数を用い て前記立体モデルをレンダリングすることを特徴とするレンダリング方法。
PCT/JP2007/072474 2006-11-22 2007-11-20 Programme de rendu, dispositif de rendu et procédé de rendu WO2008062798A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP07832204A EP2088559B1 (en) 2006-11-22 2007-11-20 Rendering Program, Rendering Apparatus and Rendering Method
US12/312,700 US8325185B2 (en) 2006-11-22 2007-11-20 Computer-readable recording medium which stores rendering program, rendering apparatus and rendering method
AT07832204T ATE522887T1 (de) 2006-11-22 2007-11-20 Wiedergabeprogramm, wiedergabevorrichtung und wiedergabeverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006316205A JP4808600B2 (ja) 2006-11-22 2006-11-22 レンダリングプログラム、レンダリング装置、及びレンダリング方法
JP2006-316205 2006-11-22

Publications (1)

Publication Number Publication Date
WO2008062798A1 true WO2008062798A1 (fr) 2008-05-29

Family

ID=39429729

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/072474 WO2008062798A1 (fr) 2006-11-22 2007-11-20 Programme de rendu, dispositif de rendu et procédé de rendu

Country Status (5)

Country Link
US (1) US8325185B2 (ja)
EP (1) EP2088559B1 (ja)
JP (1) JP4808600B2 (ja)
AT (1) ATE522887T1 (ja)
WO (1) WO2008062798A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103262126A (zh) * 2010-12-09 2013-08-21 三星电子株式会社 图像处理装置、照明处理装置及其方法
CN110390713A (zh) * 2019-06-11 2019-10-29 中新软件(上海)有限公司 实体装潢中镜面互反效果的实现方法、装置及计算机设备
CN113486534A (zh) * 2021-07-30 2021-10-08 北京服装学院 虚拟织物光泽表征及模拟方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2085898A4 (en) * 2006-11-21 2010-06-23 Toyota Tsusho Corp PROGRAM FOR THE MANUFACTURE OF A SUBSTANCE MODEL, DEVICE FOR PREPARING A SUBSTANCE MODEL AND METHOD FOR PRODUCING A SUBSTANCE MODEL
US8791951B2 (en) 2008-12-01 2014-07-29 Electronics And Telecommunications Research Institute Image synthesis apparatus and method supporting measured materials properties
WO2011069285A1 (en) * 2009-12-07 2011-06-16 Peking University Concave surface modeling in image-based visual hull
US8674988B2 (en) * 2010-06-09 2014-03-18 Disney Enterprises, Inc. System and method for artist friendly controls for hair shading
KR101845231B1 (ko) 2011-06-14 2018-04-04 삼성전자주식회사 영상 처리 장치 및 방법
US9070220B2 (en) * 2012-12-19 2015-06-30 Nvidia Corporation Method of simulating clothing using long range attachments
US9965893B2 (en) * 2013-06-25 2018-05-08 Google Llc. Curvature-driven normal interpolation for shading applications
CN103400412A (zh) * 2013-07-17 2013-11-20 天脉聚源(北京)传媒科技有限公司 一种资源展示方法、装置和终端
EP3012805A1 (en) * 2014-10-21 2016-04-27 The Procter and Gamble Company Synthesizing an image of fibers
US20170046769A1 (en) * 2015-08-10 2017-02-16 Measur3D, Inc. Method and Apparatus to Provide A Clothing Model
US10410380B2 (en) 2016-06-29 2019-09-10 Cornell University Image rendering utilizing procedural yarn model generated in multi-stage processing pipeline
US11164381B2 (en) 2017-11-02 2021-11-02 Gerber Technology Llc Clothing model generation and display system
CA3120340A1 (en) * 2018-12-04 2020-06-11 Benjamin Moore & Co. Adjusted color prescriptions for aqueous coating compositions to correct gloss differences
CN111369658B (zh) * 2020-03-24 2024-02-02 北京畅游天下网络技术有限公司 一种渲染方法及装置
CN112634425B (zh) * 2020-12-30 2022-06-28 久瓴(江苏)数字智能科技有限公司 模型的渲染方法、装置、存储介质及计算机设备
CN113160369B (zh) * 2020-12-30 2022-06-28 久瓴(江苏)数字智能科技有限公司 模型的渲染方法、装置、存储介质及计算机设备
CN113112582B (zh) * 2021-04-20 2022-07-12 浙江凌迪数字科技有限公司 一种真实感服装渲染中的侧光织物面料实时渲染方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036449A (ja) * 2001-07-25 2003-02-07 Burein:Kk 繊維製品の3次元画像生成用マップデータの自動生成方法、及び、繊維製品の3次元シミュレーション画像生成方法
JP2004152015A (ja) * 2002-10-30 2004-05-27 Digital Fashion Ltd 画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法、シェーディング情報取得装置及びデータ構造
JP2007026049A (ja) * 2005-07-15 2007-02-01 Ritsumeikan 基準異方性反射分布を利用した画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体及び画像処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5488700A (en) * 1993-07-30 1996-01-30 Xerox Corporation Image rendering system with local, adaptive estimation of incident diffuse energy
US5704024A (en) * 1995-07-20 1997-12-30 Silicon Graphics, Inc. Method and an apparatus for generating reflection vectors which can be unnormalized and for using these reflection vectors to index locations on an environment map
US20040070565A1 (en) * 2001-12-05 2004-04-15 Nayar Shree K Method and apparatus for displaying images
US6831641B2 (en) * 2002-06-17 2004-12-14 Mitsubishi Electric Research Labs, Inc. Modeling and rendering of surface reflectance fields of 3D objects
US6903738B2 (en) * 2002-06-17 2005-06-07 Mitsubishi Electric Research Laboratories, Inc. Image-based 3D modeling rendering system
JP3972784B2 (ja) * 2002-09-30 2007-09-05 ソニー株式会社 画像処理装置およびその方法
US6983082B2 (en) * 2002-11-15 2006-01-03 Warner Bros. Entertainment Inc. Reality-based light environment for digital imaging in motion pictures
US7196849B2 (en) * 2003-05-22 2007-03-27 Optical Research Associates Apparatus and methods for illuminating optical systems
WO2004106983A2 (en) * 2003-05-22 2004-12-09 Optical Research Associates Illumination in optical systems
US7450310B2 (en) * 2005-05-03 2008-11-11 Optical Research Associates Head mounted display devices
US7689035B2 (en) * 2005-06-17 2010-03-30 The Regents Of The University Of California Methods for identifying, separating and editing reflection components in multi-channel images and videos

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036449A (ja) * 2001-07-25 2003-02-07 Burein:Kk 繊維製品の3次元画像生成用マップデータの自動生成方法、及び、繊維製品の3次元シミュレーション画像生成方法
JP2004152015A (ja) * 2002-10-30 2004-05-27 Digital Fashion Ltd 画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法、シェーディング情報取得装置及びデータ構造
JP2007026049A (ja) * 2005-07-15 2007-02-01 Ritsumeikan 基準異方性反射分布を利用した画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体及び画像処理方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ADDY NGAN: "Experimental analysis of BRDF models", EUROGRAPHICS SYMPOSIUM ON RENDERING, 1 January 2005 (2005-01-01), pages 117 - 226, XP007910123
ASHIKMIN M. ET AL.: "A microfacet-based BRDF generator", PROCEEDINGS OF THE 27TH ANNUAL CONFERENCE ON COMPUTER GRAPHICS AND INTERACTIVE TECHNIQUES, 2000, pages 65 - 74, XP001003542 *
CHEN Y. ET AL.: "Realistic rendering and animation of knitwear", TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS, vol. 9, no. 1, March 2003 (2003-03-01), pages 43 - 55, XP011095508 *
J, KAJIYA; T. KAY: "Rendering fur with three dimensional textures", SIGGRAPH, 1989
JINHUA YANG, A RENDERING METHOD FOR WOVEN CLOTHES REFLECTIONS, vol. 2003, no. 88, 1 January 2003 (2003-01-01), pages 33 - 40
OGATA N. ET AL.: "Car Seat Hyohizai Isho Sekkei Shien System", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 60, no. 4, 1 April 2006 (2006-04-01), pages 637 - 640, XP008110433 *
TAKEDA Y. ET AL.: "Hanshako Kaiseki ni Motozuku Shokufo no Bisai Hyomen Keijo Modeling", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU, SPECIAL INTERNET GROUP FOR GRAPHICS AND CAD HOKOKU, vol. 2006, no. 76, 11 July 2006 (2006-07-11), pages 7 - 12, XP003025825 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103262126A (zh) * 2010-12-09 2013-08-21 三星电子株式会社 图像处理装置、照明处理装置及其方法
CN103262126B (zh) * 2010-12-09 2016-10-12 三星电子株式会社 图像处理装置、照明处理装置及其方法
CN110390713A (zh) * 2019-06-11 2019-10-29 中新软件(上海)有限公司 实体装潢中镜面互反效果的实现方法、装置及计算机设备
CN110390713B (zh) * 2019-06-11 2023-05-12 中新软件(上海)有限公司 实体装潢中镜面互反效果的实现方法、装置及计算机设备
CN113486534A (zh) * 2021-07-30 2021-10-08 北京服装学院 虚拟织物光泽表征及模拟方法
CN113486534B (zh) * 2021-07-30 2023-12-26 北京服装学院 虚拟织物光泽表征及模拟方法

Also Published As

Publication number Publication date
US20090289940A1 (en) 2009-11-26
ATE522887T1 (de) 2011-09-15
EP2088559A4 (en) 2009-11-25
US8325185B2 (en) 2012-12-04
JP2008129950A (ja) 2008-06-05
EP2088559A1 (en) 2009-08-12
JP4808600B2 (ja) 2011-11-02
EP2088559B1 (en) 2011-08-31

Similar Documents

Publication Publication Date Title
WO2008062798A1 (fr) Programme de rendu, dispositif de rendu et procédé de rendu
US11869139B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
US9129438B2 (en) 3D modeling and rendering from 2D images
CN105701793B (zh) 用于数字化真实材料外观的方法及装置
US7737973B2 (en) Determining appearance of points in point cloud based on normal vectors of points
JP6378809B2 (ja) ボリューム・レンダリング画像について光方向を指示するための方法及びシステム
US20030107568A1 (en) Method, apparatus and program for processing a three-dimensional image
JP7027807B2 (ja) 表示装置、スキャナ、表示システム及びプログラム
CN105264566A (zh) 建模装置、三维模型生成装置、建模方法、程序和布局模拟器
JP2010510571A (ja) 3d画像の色補正の方法及びそのシステム
US20050151751A1 (en) Generation of texture maps for use in 3D computer graphics
US11624655B2 (en) Dental 3D scanner with angular-based shade matching
Funk et al. Using a raster display for photometric stereo
JP6610065B2 (ja) 化粧材シミュレーションシステム、方法、及びプログラム
JP2003216973A (ja) 三次元画像処理方法、三次元画像処理プログラム、三次元画像処理装置および三次元画像処理システム
WO2007108288A1 (ja) テクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法
US6346949B1 (en) Three-dimensional form data processor retaining information on color boundaries of an object when thinning coordinate data
JP2007026049A (ja) 基準異方性反射分布を利用した画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体及び画像処理方法
JP4764963B2 (ja) 画像処理装置
US11138791B2 (en) Voxel to volumetric relationship
JP2007072509A (ja) 表面に繊維シートを張り付けた三次元仮想物体に基づく二次元画像生成方法および生成装置
CN103679795A (zh) 体积数据的层显示
Mantzouratos et al. Concise exterior lighting simulation methodology
JP7463697B2 (ja) 光沢取得状態算出装置、光沢取得状態算出方法、光沢取得状態算出プログラム、端末及び光沢取得状態表示プログラム
Ladefoged et al. Spatially-varying diffuse reflectance capture using irradiance map rendering for image-based modeling applications

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07832204

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12312700

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007832204

Country of ref document: EP