WO2007108288A1 - テクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法 - Google Patents

テクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法 Download PDF

Info

Publication number
WO2007108288A1
WO2007108288A1 PCT/JP2007/053793 JP2007053793W WO2007108288A1 WO 2007108288 A1 WO2007108288 A1 WO 2007108288A1 JP 2007053793 W JP2007053793 W JP 2007053793W WO 2007108288 A1 WO2007108288 A1 WO 2007108288A1
Authority
WO
WIPO (PCT)
Prior art keywords
texture
dimensional
normal vector
unevenness information
calculated
Prior art date
Application number
PCT/JP2007/053793
Other languages
English (en)
French (fr)
Inventor
Yoshiyuki Sakaguchi
Koji Imao
Original Assignee
Digital Fashion Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Fashion Ltd. filed Critical Digital Fashion Ltd.
Publication of WO2007108288A1 publication Critical patent/WO2007108288A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Definitions

  • the present invention relates to a computer graphics technique, and more particularly to a technique for generating a three-dimensional texture representing unevenness information on an object surface.
  • Patent Document 1 is known as a technique related to the present invention.
  • Patent Document 1 Japanese Patent Laid-Open No. 2005-115645
  • An object of the present invention is to provide a texture generation program for generating a three-dimensional texture that allows a user to model a three-dimensional texture of an object to be simulated and to reproduce the texture of the object realistically.
  • a texture generation device and a texture generation method are provided.
  • a texture generation program is a texture generation program for generating a three-dimensional texture representing unevenness information on an object surface, and an acquisition means for acquiring a bidirectional reflectance distribution function of the object; Based on the bidirectional reflectance distribution function acquired by the acquisition unit, the computer is caused to function as a generation unit that generates a three-dimensional texture.
  • a texture generation apparatus is a texture generation apparatus for generating a three-dimensional texture representing unevenness information of an object surface, and includes an acquisition means for acquiring a bidirectional reflectance distribution function of the object. And generating means for generating a three-dimensional texture based on the bidirectional reflectance distribution function acquired by the acquiring means.
  • the texture generation method is a texture generation method in which a computer generates a three-dimensional texture representing unevenness information on an object surface, and obtains a bidirectional reflectance distribution function of the object; And a generation step of generating a three-dimensional texture based on the bidirectional reflectance distribution function acquired in the acquisition step.
  • a three-dimensional texture representing unevenness information on the object surface is generated based on the bidirectional reflectance distribution function of the object. Therefore, the user can obtain a three-dimensional texture representing unevenness information on the surface of the object simply by giving the bidirectional reflectance distribution function of the object to be simulated without modeling the three-dimensional texture.
  • a 3D texture corresponding to the object to be simulated is generated, it is not necessary to modify the 3D texture so that this object has the desired design. It becomes possible to obtain a three-dimensional texture
  • the By rendering the obtained 3D texture to a virtual 3D model the interior of the car seat can be reproduced realistically, and the interior design can be achieved without developing a prototype of the actual product. Evaluation can be performed and development costs can be reduced.
  • FIG. 1 shows a block configuration diagram of a texture generation device according to Embodiment 1 of the present invention.
  • FIG. 2 is a flowchart showing the operation of the texture generating device shown in FIG.
  • FIG. 3 is a drawing showing Sampu Nore points arranged in a grid in a virtual three-dimensional space.
  • FIG. 4 is a drawing for explaining a light beam direction LD and a line-of-sight direction VD.
  • FIG. 5 Drawings explaining the process for calculating unevenness information, (a) shows a drawing when the Sampnore points arranged in the XY plane are viewed from the Z direction, and (b) shows sample points set A perspective view of the virtual 3D space is shown.
  • FIG. 6 shows a block configuration diagram of a texture generation device according to Embodiment 2 of the present invention.
  • FIG. 7 is a flowchart showing the operation of the texture generation device shown in FIG.
  • FIG. 8 is a drawing showing an operation screen for selecting a texture texture.
  • FIG. 9 is a drawing showing a state where the Sampu Nore point P is moved according to the texture texture.
  • FIG. 10 is a drawing showing an operation screen on which a three-dimensional texture is displayed.
  • FIG. 11 A cross-sectional view of a three-dimensional texture is shown.
  • FIG. 12 is a drawing showing the result of rendering processing.
  • FIG. 13 is a drawing showing the result of rendering processing.
  • FIG. 14 is a drawing showing the result of rendering processing.
  • FIG. 15 is a drawing showing the result of rendering processing.
  • FIG. 1 shows a block configuration diagram of a texture generation apparatus according to Embodiment 1 of the present invention.
  • Texture generators are known
  • the computer includes a processing unit 10, a storage unit 20, an input unit 30, a display unit 40, and a BRDF (Bidirectional Reflectance Distribution Function) acquisition device 50.
  • the texture generator is a CD-ROM.
  • the processing unit 10 includes a CPU, and includes a regular reflection direction calculation unit (acquisition unit and regular reflection direction calculation unit) 11, a normal vector calculation unit (normal vector calculation unit) 12, and an uneven information calculation unit (unevenness) (Information calculation means) 13, correction unit 14, display control unit 15, and rendering processing unit 16.
  • the storage unit 20 includes a storage device such as a hard disk and a ROM (Read Only Memory), and includes a BRDF storage unit 21, a texture storage unit 22, and a 3D model storage unit 23.
  • the regular reflection direction calculation unit 11 to the rendering processing unit 16 and the BRDF storage unit 21 to the 3D model storage unit 23 are realized by the CPU executing the texture generation program according to the present invention.
  • the specular reflection direction calculation unit 11 arranges the sample points in a square lattice pattern in a horizontal plane in the virtual three-dimensional space and applies each sample point from a virtual light source arranged at a predetermined position in the virtual three-dimensional space.
  • the ray direction of the irradiated light is input to the BRDF representing the optical characteristics of the object surface to be simulated stored in the BRDF storage unit 21, and the line-of-sight direction when the BRDF outputs the maximum reflectance is calculated. Calculated as the regular reflection direction.
  • BRDF is a function that receives the light ray direction and the line-of-sight direction and outputs the reflectance.
  • the BRDF includes one in which the input / output relationship is expressed by a mathematical expression and one in which the input / output relationship is expressed in an LUT (lookup table) format.
  • the reflectance is represented by the ratio of the amount of reflected light to the amount of light emitted by the virtual light source.
  • the normal vector calculation unit 12 calculates, for each sample point, a vector whose direction is a straight line that bisects the angle between the ray direction and the line-of-sight direction. Calculate as a tuttle.
  • the unevenness information calculation unit 13 is a triangle formed by connecting adjacent sample points with a straight line.
  • the sample point is shifted in the Z direction to change the polygon direction so that the polygon is orthogonal to the normal vector of the sample point that is part of the polygon. Calculate as information. Thereby, a three-dimensional texture is generated.
  • the correction unit 14 corrects the three-dimensional texture calculated by the unevenness information calculation unit 13 or the shape of the three-dimensional texture stored in the texture storage unit 22 according to an operation command from the user.
  • the display control unit 15 includes a three-dimensional texture calculated by the unevenness information calculation unit 13, a three-dimensional texture corrected by the correction unit 14, a three-dimensional texture stored in the texture storage unit 22, and a rendering process.
  • the image rendered by the unit 16 is displayed on the display unit 40.
  • the rendering processing unit 16 texture maps the 3D texture calculated by the unevenness information calculating unit 13 to the virtual 3D model stored in the 3D model storage unit 23, and renders the virtual 3D model.
  • the BRDF storage unit 21 stores the BRDF acquired by the BRDF acquisition device 50.
  • the BRDF storage unit 21 may store a BRDF other than the BRDF acquired by the BRDF acquisition device 50.
  • the BRDF other than the BRDF acquired by the BRDF acquisition device 50 is represented by a BRDF created by numerical input or the like using an application software for setting the BRDF by the user, or a mathematical expression. Contains BRDF.
  • the BRDF acquired by the BRDF acquisition device 50 is a BRDF in LUT format.
  • the BRDF storage unit 21 stores a plurality of types of BRDFs.
  • the texture storage unit 22 stores the texture created by the concave / convex information calculation unit 13.
  • the 3D model storage unit 23 stores a virtual 3D model that has been modeled in advance.
  • the input unit 30 includes a known input device such as a keyboard and a mouse.
  • the display unit 40 includes a known display device such as a CRT (Cathode Ray Tube), a liquid crystal panel, a plasma panel, or the like.
  • the BRDF acquisition device 50 is a known device invented by the applicant of the present application. While photographing the sample while changing the light irradiation direction and the photographing direction with respect to the actual sample, the BRDF acquisition device 50 This device generates BRDF from images. Detailed contents are disclosed in JP-A-2005-115645.
  • step S1 when the input unit 30 receives a user operation command for designating one BRDF from the BRDF storage unit 21, the specular reflection direction calculation unit 11 converts the BRDF designated by the user into the BRDF. Read from the storage unit 21 to obtain the BR DF.
  • step S2 the specular reflection direction calculation unit 11 arranges a plurality of sample points in a lattice in the virtual three-dimensional space, and direct reflection of light when each sample point is irradiated with light from the virtual light source.
  • the direction is calculated using BRDF.
  • Fig. 3 is a drawing showing the Sampnore points arranged in a grid in a virtual three-dimensional space. As shown in Fig. 3, X, ⁇ , and ⁇ axes that are orthogonal to each other are set in the virtual three-dimensional space.
  • the vertical axis indicates the vertical direction, and the horizontal plane indicates the horizontal plane.
  • the regular reflection direction calculation unit 11 arranges the sample points ⁇ in a grid pattern on the ⁇ plane in the virtual three-dimensional space.
  • the sample points ⁇ are arranged on the XY plane with an interval d of mesoscale (scale of micron order to millimeter order).
  • the distance d is preferably about 10 to 100 ⁇ m when the object to be simulated is a texture on the surface of an automobile fabric or plastic.
  • the specular reflection direction calculation unit 11 obtains the light direction LD from the virtual light source VL with respect to the target sample point CP, inputs the obtained light direction LD to the BRDF obtained in step S1, changes the line-of-sight direction VD, Line-of-sight direction The reflectance for VD is calculated, and the line-of-sight direction that gives the maximum reflectance among the calculated reflectances is calculated as the regular reflection direction of light at the sample point CP.
  • VD the line-of-sight direction that gives the maximum reflectance among the calculated reflectances
  • the arrow with the sign of VD becomes longer as the reflectance is higher, so the line-of-sight direction VDMAX is calculated as the regular reflection direction RD.
  • the specular reflection direction RD is calculated for other sample points P in the same way.
  • the normal vector n at the sample point CP of interest is displayed exaggerated over the normal vector n at the other sample points P.
  • FIG. 4 is a drawing for explaining the light beam direction LD and the line-of-sight direction VD.
  • LD is represented by the angle LD formed by the projection LD ′ onto the XY plane LD ′ and the X ′ axis, and the angle ⁇ formed by the projection LD ′ and the beam direction LD.
  • the line-of-sight direction VD is expressed by the angle ⁇ formed by the projection of the line-of-sight direction VD onto the XY plane and the X ′ axis, and the projection VD ⁇ the angle ⁇ formed by the line-of-sight direction VD.
  • the regular reflection direction calculation unit 11 changes the angle ⁇ within a range of 0 to 90 degrees with a predetermined resolution (for example, 5 degrees), and the angle ⁇ within a range of _90 to 90 degrees. Change with a predetermined resolution (for example, 10 degrees) to change the line-of-sight direction VD.
  • a predetermined resolution for example, 5 degrees
  • step S3 shown in FIG. 2 the normal vector calculation unit 12 calculates a vector that bisects the angle ⁇ between the specular reflection direction RD and the ray direction LD of the sample point CP of interest shown in FIG. Calculated as the normal vector n for the plane containing the target Sampnore point CP.
  • step S4 shown in FIG. 2 the unevenness information calculation unit 13 calculates unevenness information of the sample point P as follows.
  • FIG. 5 is a diagram for explaining the process in which the concavo-convex information calculation unit 13 calculates the concavo-convex information.
  • A shows the drawing when the Sampu Nore points P arranged in the XY plane are viewed from the Z direction force.
  • (b) is a perspective view of a virtual three-dimensional space in which the Sampu Nore point P is set.
  • the unevenness information calculation unit 13 specifies the polygon PL1 located at the lower left of the two polygons constituting the lower left lattice K1 as the target polygon.
  • the sample point is set so that the direction of the polygon PL1 is orthogonal to the normal vector nl of the sample point P1 on the lower left.
  • P2 and P3 are moved in the Z direction, and the value of the Z component at the moved sample points P2 and P3 is calculated as the unevenness information of the sample points P2 and P3.
  • the unevenness information calculation unit 13 identifies the polygon PL2 positioned at the lower left of the polygons constituting the grid K2 adjacent to the grid K1, as the target polygon, and determines the orientation of the polygon PL2.
  • Sample points P4 and P5 are moved in the Z direction so that they are orthogonal to the normal vector n2 of the sample point P2 in the lower left of the three sample points P that make up the polygon PL2.
  • the Z component value of P4 and P5 is calculated as the unevenness information of sample points P4 and P5.
  • the concavo-convex information calculation unit 13 identifies the polygon PL3 in the lattice K3 adjacent to the upper side of the lattice K1 as the target polygon, and the orientation force of the polygon PL3 Sample point P
  • the sample point P6 is moved in the Z direction so that it is perpendicular to the normal vector n3 of 3 and the The Z component value of sample point P6 is calculated as the unevenness information of sample point P6.
  • the unevenness information calculation unit 13 identifies the polygon PL4 in the lattice K4 adjacent to the right side of the lattice K2 as the target polygon, and changes the orientation of the polygon PL4 in the same manner as the polygon PL2. In this way, the unevenness information calculation unit 13 sequentially identifies the target polygon from the polygon PL1 of the lower left grid K1 so as to meander obliquely upward to the right, and the orientation of the identified target polygon is as described above. Change and calculate the Z component value of each sample point after the change as unevenness information of each sample point to generate a 3D texture.
  • the unevenness information calculation unit 13 sequentially identifies the target polygon so as to meander from the lower right, upper left, and upper right lattices other than the lower left to meander to the upper left, lower right, and lower left. It may be.
  • a three-dimensional texture representing the unevenness information of the object surface is generated based on the bidirectional reflectance distribution function of the object. Therefore, the user can obtain a three-dimensional texture representing the unevenness information on the surface of the object simply by giving the bidirectional reflectance distribution function of the object to be simulated without modeling the three-dimensional texture. .
  • a 3D texture corresponding to the object to be simulated is generated, it is not necessary to modify the 3D texture so that this object has the desired design. It is possible to obtain a three-dimensional texture.
  • the interior of the car seat can be reproduced in real time, and the interior design can be done without developing a prototype of the actual product. The development cost can be reduced.
  • the generated 3D texture represents a 3D mesostructure.
  • FIG. 6 shows a block diagram of the texture generating apparatus according to the second embodiment.
  • the texture generation device according to the second embodiment is characterized in that the texture generation device according to the first embodiment further includes a texture texture storage unit 24.
  • the form of implementation in Embodiment 2 The same elements as those in the first aspect are denoted by the same reference numerals, and the description thereof is omitted.
  • the wrinkle texture storage unit 24 stores a wrinkle texture, which is a texture representing the unevenness (wrinkles) on the surface of the object expressed on a scale that can be visually recognized by a human eye.
  • the texture texture storage unit 24 stores a plurality of patterns of texture texture created in advance.
  • the regular reflection direction calculation unit 11a reads the texture texture selected by the user from the texture texture storage unit 24, and reads the texture The sample points P arranged in the XY plane are moved in the Z direction according to the texture. That is, the regular reflection direction calculation unit 11a sets an offset value for the Z component of the sampling point P.
  • the regular reflection direction calculation unit 11a corresponds to an example of an offset setting unit.
  • FIG. 7 is a flowchart showing the operation of the texture generation device according to the second embodiment.
  • the processing in step S21 is the same as step S1 shown in FIG.
  • the specular reflection direction calculation unit 11a reads the wrinkle texture from the wrinkle texture storage unit 24 according to the user operation command received by the input unit 30, and performs the same processing as in the first embodiment according to the read wrinkle texture. Move the Sampnore point P placed in the virtual 3D space in the Z direction.
  • FIG. 8 is a diagram showing an operation screen displayed on the display unit 40 when the user selects a texture texture. As shown in FIG. 8, a main frame MF shown on the left side and six subframes SF shown on the right side are displayed on this operation screen. In subframe SF, multiple patterns of textures stored in texture texture storage unit 24 are displayed.
  • the input unit 30 selects the grain texture displayed in the clicked subframe SF by the user. Accept as a textured texture.
  • the display control unit 15 displays the texture texture selected by the user in the main frame MF.
  • the generated 3D texture is displayed on the main frame MF instead of the selected texture.
  • a scroll bar SB for scrolling the three-dimensional texture displayed on the main frame MF is displayed on the left side and the lower side of the lower side of the main frame MF. When the scroll bar SB is dragged, the scroll bar SB is dragged. The display control unit 15 scrolls the grain texture displayed in the main frame MF according to the drag amount of the scroll bar SB.
  • FIG. 9 is a diagram showing how the sample point P is moved according to the texture.
  • each Sampnore point represents the rough shape of the object surface.
  • step S23 the specular reflection direction calculation unit 11a irradiates each sample point P translated in the Z direction according to the sci-fi texture in step S22 from the virtual light source VL. Similarly, the specular direction of each Sampnore point P is calculated.
  • steps S24 and S25 are the same as those in steps S3 and S4 shown in FIG.
  • step S26 the display control unit 15 causes the display unit 40 to display the three-dimensional texture generated through the process of step S25.
  • the display control unit 15 displays the generated three-dimensional texture on the main frame MF shown in FIG.
  • a three-dimensional texture is generated according to the texture that is displayed in the subframe SF in the first row and the third column.
  • the surface shape of the object is realistically reproduced and the force S is applied.
  • the rendering processing unit 16 uses the generated three-dimensional texture to store the virtual 3 stored in the three-dimensional mode storage unit.
  • the display control unit 15 renders the dimensional model, and causes the display unit 40 to display the rendered image.
  • FIG. 10 is a drawing showing an operation screen including an image rendered by the rendering processing unit 16.
  • the display control unit 15 displays the position of the virtual light source VL, the intensity of light emitted from the virtual light source VL, and the line-of-sight direction VD.
  • An operation screen (not shown) for changing the image is displayed on the display unit 40, and the user operates the operation screen to display the light intensity and the light beam direction on the three-dimensional texture.
  • the three-dimensional texture can be observed by adjusting the viewing direction.
  • the display control unit 15 displays an operation screen (not shown) for correcting the three-dimensional texture on the display unit 40. Let me show you.
  • the correction unit 14 corrects the shape of the 3D texture in accordance with the operation command from the user (step S28).
  • FIG. 11 shows a cross-sectional view of the 3D texture displayed on the operation screen for correcting the 3D texture, (a) shows a cross-sectional view before correction, and (b) shows the post-correction.
  • a cross-sectional view is shown.
  • the three-dimensional texture is represented by a low-frequency component S that represents rough irregularities and a high-frequency component that represents fine irregularities.
  • the low frequency component S is mainly caused by the texture texture.
  • the input unit 30 receives an operation command to drag the points PP1 and PP2 on the low-frequency component S shown in FIG. 11 (a) to the points ⁇ and PP2 ′ shown in FIG.
  • the unit 14 changes the height of the low frequency component shown in FIG. 11 (a) as shown in FIG. 11 (b) in accordance with the drag amount, thereby reducing the height of the wrinkles.
  • the correction unit 14 changes the high-frequency component so as to follow the change of the low-frequency component S.
  • the user can finely adjust the three-dimensional texture and change the height of the texture to a desired size.
  • step S27 shown in FIG. 7 if input unit 30 does not accept an operation command from the user (NO in S27), the process is terminated.
  • Figs. 12 to 15 show the rendering results when the virtual three-dimensional model of the interior of a car is rendered by bump mapping the three-dimensional texture generated by the texture generator to the dashboard of the automobile.
  • FIG. 12 to 15 it can be seen that the texture of the dashboard surface is reproduced realistically by rendering using the 3D model generated by this texture generator.
  • each sample point P can be obtained using a texture texture.
  • an offset is set for the Z component, it is possible to obtain a three-dimensional texture that reproduces the texture shape more realistically.
  • the present invention may adopt the following modes.
  • the normal vector n is corrected so that the normal vector n of each sample point P calculated follows a normal distribution, or 1 / f Change to follow fluctuations, and use the corrected normal vector n to perform steps S4 and S25 and later to generate a 3D texture. Furthermore, the 3D texture calculated without correcting the normal vector n, the 3D texture calculated using the normal vector n corrected to follow the normal distribution, and the 1 / f fluctuation.
  • the three-dimensional textures calculated using the normal vector n modified to comply with the above are calculated in parallel, listed in the subframe SF shown in Fig. 8, and these three-dimensional textures are used for rendering. Let the user choose a user.
  • the force illustrated as an offset value given to each sample point P is not limited to this, and a solid shape other than the warp may be given as an offset value.
  • the set offset value may be arbitrarily adjusted by the user by operating the input unit 30.
  • a texture generation program is a texture generation program for generating a three-dimensional texture representing unevenness information on an object surface, the acquisition means for acquiring a bidirectional reflectance distribution function of the object, The computer is made to function as a generating means for generating a three-dimensional texture based on the bidirectional reflectance distribution function acquired by the acquiring means.
  • the texture generation device is a texture generation device for generating a three-dimensional texture representing unevenness information of an object surface, and obtains a bidirectional reflectance distribution function of the object. And a generating means for generating a three-dimensional texture based on the bidirectional reflectance distribution function acquired by the acquiring means.
  • the texture generation method is a texture generation method in which a computer generates a three-dimensional texture representing unevenness information on the surface of an object, and obtains a bidirectional reflectance distribution function of the object; , Both acquired by the acquisition step And a generation step of generating a three-dimensional texture based on the directional reflectance distribution function.
  • a three-dimensional texture representing unevenness information on the object surface is generated based on the bidirectional reflectance distribution function of the object. Therefore, the user can obtain a three-dimensional texture representing unevenness information on the surface of the object simply by giving the bidirectional reflectance distribution function of the object to be simulated without modeling the three-dimensional texture.
  • a 3D texture corresponding to the object to be simulated is generated, it is not necessary to modify the 3D texture so that this object has the desired design.
  • a three-dimensional texture can be obtained.
  • the interior of the car seat can be reproduced realistically, and the interior design can be achieved without developing a prototype of the actual product. Evaluation can be performed and development costs can be reduced.
  • the generating unit arranges a plurality of sample points in a virtual three-dimensional space, and irradiates each of the arranged sample points from a virtual light source.
  • Regular reflection direction calculation means for calculating the regular reflection direction of light using the bidirectional reflectance distribution function, the regular reflection direction of light calculated by the regular reflection direction calculation means, and the input of light from the virtual light source.
  • the normal vector calculation means for calculating the normal vector of each sample point from the shooting direction and the unevenness for calculating the uneven information of each sample point based on the normal vector calculated by the normal vector calculation means. It is preferable to include an information calculation unit.
  • the regular reflection direction for each sample point arranged in the virtual three-dimensional space is calculated using the bidirectional reflectance distribution function for the object, and the calculated regular reflection direction and The normal vector of the surface including each sample point is calculated from the incident direction of the light from the virtual light source, and the unevenness information of each sample point is calculated based on the calculated normal vector no Since the original texture is generated, it is possible to generate a three-dimensional texture that expresses the unevenness information on the object surface with high accuracy.
  • the specular reflection direction calculation means specularly reflects the direction of the line of sight with respect to the direction of the virtual light source that outputs the maximum reflectance of the bidirectional reflectance distribution function.
  • the direction is preferred.
  • the normal vector calculation means corrects the normal vector at each sample point by varying it so that the direction of the normal vector follows a predetermined probability density function.
  • the concave / convex information calculating means preferably calculates the concave / convex information of each sample point using a normal vector corrected by the probability density function.
  • the unevenness information calculating means includes a three-dimensional tester composed of unevenness information calculated using a normal vector not corrected by the probability density function;
  • the unevenness information force calculated using the normal vector modified by the probability density function is calculated and the three-dimensional texture to be configured, and the user is presented with a plurality of three-dimensional textures calculated by the unevenness information calculation means,
  • the computer further function as presentation means for accepting a command from a user who selects any one of the presented three-dimensional textures.
  • the user can select a favorite 3D texture from a plurality of 3D textures.
  • the computer further function as offset setting means for setting an offset value in the height direction for each sample point.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 モデリングすることなく、シミュレーション対象となる素材の質感がリアルに再現された三次元テクスチャを生成する。テクスチャを構成する各サンプル点に仮想光源からの光を照射し、各サンプル点における光の正反射方向を、BRDFを用いて求める正反射方向算出部11と、正反射方向と仮想光源からの光の入射方向とから各サンプル点の法線ベクトルを算出する法線ベクトル算出部12と、算出された法線ベクトルを基に、各サンプル点の凹凸情報を算出する凹凸情報算出部13とを備える。

Description

明 細 書
テクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法 技術分野
[0001] 本発明は、コンピュータグラフィックスの技術に関し、特に物体表面の凹凸情報を表 す三次元テクスチャを生成する技術に関するものである。
背景技術
[0002] 近年、 自動車業界を中心に、実物の試作をしないで、コンピュータシミュレーション により仮想的にデザインを行レ、、デザインした物を評価し、製造につなげたいという二 ーズが高まってきている。
[0003] 自動車の分野では、エンジンに次いでカーシート等に使用されるファブリック等の 素材に対する開発コストが嵩んでしまう。素材のデザインは、実際にインテリアに適用 しなければその善し悪しの判断が困難であるため、デザインした素材をインテリアに 適用したものをコンピュータシミュレーションにより再現する種々の試みがなされてい る。
[0004] リアルなインテリアをコンピュータにより再現する場合、インテリアに使用される素材 表面の凹凸情報を肉眼では視認することができないような細力、なスケールで表す三 次元テクスチャをモデリングし、この三次元テクスチャを用いて仮想 3次元モデルをレ ンダリングすることにより行われる。なお、本発明に関連する技術として、特許文献 1 が知られている。
[0005] し力、しながら、上記従来の手法では、上述するようなスケールの三次元テクスチャを モデリングする必要があり、このモデリングには、膨大なデータを入力する必要がある ため、非常に手間力 Sかかるという課題があった。また、素材のデザインの善し悪しを判 断するためには、モデリングした三次元テクスチャをマクロ的に観察する必要があり、 そのためには、モデリングした三次元テクスチャ用いて仮想 3次元モデルをレンダリン グする必要がある。そして、素材のデザインを変更する場合は、三次元テクスチャを 修正する必要があるため、所望するデザインが得られるまで、三次元テクスチャの修 正と修正した三次元テクスチャのレンダリングとを繰り返し行わなければならならず、 膨大な時間と労力がかかるという課題があった。
特許文献 1 :特開 2005— 115645号公報
発明の開示
[0006] 本発明の目的は、シミュレーション対象となる物体の三次元テクスチャをユーザがモ デリングすることなぐし力も当該物体の質感がリアルに再現されるような三次元テクス チヤを生成するテクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成 方法を提供することである。
[0007] 本発明によるテクスチャ生成プログラムは、物体表面の凹凸情報を表す三次元テク スチヤを生成するためのテクスチャ生成プログラムであって、前記物体の双方向反射 率分布関数を取得する取得手段と、前記取得手段により取得された双方向反射率 分布関数を基に、三次元テクスチャを生成する生成手段としてコンピュータを機能さ せることを特徴とする。
[0008] 本発明によるテクスチャ生成装置は、物体表面の凹凸情報を表す三次元テクスチ ャを生成するためのテクスチャ生成装置であって、前記物体の双方向反射率分布関 数を取得する取得手段と、前記取得手段により取得された双方向反射率分布関数を 基に、三次元テクスチャを生成する生成手段とを備えることを特徴とするものである。
[0009] 本発明によるテクスチャ生成方法は、コンピュータが物体表面の凹凸情報を表す三 次元テクスチャを生成するテクスチャ生成方法であって、前記物体の双方向反射率 分布関数を取得する取得ステップと、前記取得ステップにより取得された双方向反射 率分布関数を基に、三次元テクスチャを生成する生成ステップとを備えることを特徴 とするものである。
[0010] これらの構成によれば、物体の双方向反射率分布関数を基に、物体表面の凹凸情 報を表す三次元テクスチャが生成される。そのため、ユーザは、三次元テクスチャの モデリングを行わなくとも、シミュレーション対象となる物体の双方向反射率分布関数 を与えるだけで、この物体表面の凹凸情報を表す三次元テクスチャを得ることができ る。また、シミュレーション対象となる物体に応じた三次元テクスチャが生成されている ため、この物体が所望するデザインとなるように三次元テクスチャを修正する作業が 不要となり、煩雑な作業を行わずに速やかに三次元テクスチャを得ることが可能とな る。そして、得られた三次元テクスチャを仮想 3次元モデルにマッピングするレンダリ ングを行うことで、カーシート等のインテリアをリアルに再現することができ、現物の試 作品を開発しなくともインテリアのデザインの評価を行うことができ、開発コストの低減 を図ることができる。
図面の簡単な説明
[0011] [図 1]本発明の実施の形態 1によるテクスチャ生成装置のブロック構成図を示している
[図 2]図 1に示すテクスチャ生成装置の動作を示すフローチャートである。
[図 3]仮想 3次元空間内に格子状に配列されたサンプノレ点を示した図面である。
[図 4]光線方向 LDと視線方向 VDとを説明する図面である。
[図 5]凹凸情報が算出される処理を説明する図面であり、 (a)は XY平面に配列され たサンプノレ点を Z方向から見たときの図面を示し、 (b)はサンプル点が設定された仮 想 3次元空間の斜視図を示している。
[図 6]本発明の実施の形態 2によるテクスチャ生成装置のブロック構成図を示している
[図 7]図 6に示すテクスチャ生成装置の動作を示すフローチャートである。
[図 8]シボテクスチャを選択する操作画面を示す図面である。
[図 9]サンプノレ点 Pがシボテクスチャに従って移動される様子を示す図面である。
[図 10]三次元テクスチャが表示された操作画面を示す図面である。
[図 11]三次元テクスチャの断面図を示している。
[図 12]レンダリング処理の結果を示す図面である。
[図 13]レンダリング処理の結果を示す図面である。
[図 14]レンダリング処理の結果を示す図面である。
[図 15]レンダリング処理の結果を示す図面である。
発明を実施するための最良の形態
[0012] (実施の形態 1)
以下、本発明の実施の形態 1について説明する。図 1は本発明の実施の形態 1によ るテクスチャ生成装置のブロック構成図を示している。テクスチャ生成装置は、公知の コンピュータから構成され、処理部 10、記憶部 20、入力部 30、表示部 40、及び BR DF (Bidirectional Reflectance Distribution Function:双方向反射率分布関数)取得 装置 50を備えている。なお、テクスチャ生成装置は、 CD-ROM
(Compact
Disc Read Only Memory)、フレキシブルディスク等のコンピュータ読み取り可能な記 録媒体に記録されたテクスチャ生成プログラムをコンピュータにインストールすること で実現される。
[0013] 処理部 10は、 CPUから構成され、正反射方向算出部(取得手段及び正反射方向 算出手段) 11、法線ベクトル算出部 (法線ベクトル算出手段) 12、凹凸情報算出部( 凹凸情報算出手段) 13、修正部 14、表示制御部 15、及びレンダリング処理部 16を 備えている。記憶部 20は、ハードディスク、 ROM (Read Only Memory)等の記憶装 置から構成され、 BRDF記憶部 21、テクスチャ記憶部 22、及び 3次元モデル記憶部 23を備えている。なお、正反射方向算出部 11〜レンダリング処理部 16と BRDF記憶 部 21〜3次元モデル記憶部 23とは CPUが本発明によるテクスチャ生成プログラムを 実行することで実現される。
[0014] 正反射方向算出部 11は、仮想 3次元空間内の水平面内にサンプル点を正方格子 状に配置し、仮想 3次元空間内の所定の位置に配置された仮想光源から各サンプル 点に照射される光の光線方向を、 BRDF記憶部 21に記憶されたシミュレーション対 象となる物体表面の光学的な特性を表す BRDFに入力し、 BRDFが最大の反射率 を出力するときの視線方向を正反射方向として算出する。
[0015] ここで、 BRDFは光線方向と視線方向とを入力とし、反射率を出力する関数である 。本実施の形態では、 BRDFは、入出力関係が数式で表されるものと入出力関係が LUT (ルックアップテーブル)形式で表されるものとが含まれる。反射率は仮想光源 力 照射される光の光量に対する反射光の光量の比率により表されている。
[0016] 法線ベクトル算出部 12は、各サンプル点に対し、光線方向と視線方向との角度を 二等分する直線の方向を向きとするベクトルを、注目サンプル点を含む面の法線べ タトルとして算出する。
[0017] 凹凸情報算出部 13は、隣接するサンプル点を直線で結ぶことで形成される三角形 のポリゴンを、そのポリゴンを構成するレ、ずれかのサンプル点の法線ベクトルに直交 するように、サンプル点を Z方向にずらしてポリゴンの向きを変更し、サンプノレ点の Z 成分の値を凹凸情報として算出する。これにより、三次元テクスチャが生成される。
[0018] 修正部 14は、凹凸情報算出部 13により算出された三次元テクスチャ、又はテクス チヤ記憶部 22に記憶された三次元テクスチャの形状を、ユーザからの操作指令に従 つて修正する。
[0019] 表示制御部 15は、凹凸情報算出部 13により算出された三次元テクスチャと、修正 部 14により修正された三次元テクスチャと、テクスチャ記憶部 22に記憶された三次元 テクスチャと、レンダリング処理部 16によりレンダリング処理された画像とを表示部 40 に表示させる。レンダリング処理部 16は、 3次元モデル記憶部 23に記憶された仮想 3次元モデルに、凹凸情報算出部 13により算出された三次元テクスチャをテクスチャ マッピングし、仮想 3次元モデルをレンダリングする。
[0020] BRDF記憶部 21は、 BRDF取得装置 50により取得された BRDFを記憶する。なお 、 BRDF記憶部 21は、 BRDF取得装置 50が取得した BRDF以外の BRDFを記憶し てもよレ、。ここで、 BRDF取得装置 50により取得された BRDF以外の BRDFとは、例 えばユーザが BRDFを設定するためのアプリケーションソフトウェアを用いて、数値入 力する等して作成された BRDFや、数式によって表される BRDFが含まれる。
[0021] また、 BRDF取得装置 50が取得する BRDFは、 LUT形式の BRDFである。また、 BRDF記憶部 21は複数種類の BRDFを記憶している。テクスチャ記憶部 22は、凹 凸情報算出部 13により作成されたテクスチャを記憶する。 3次元モデル記憶部 23は 、予めモデリングされた仮想 3次元モデルを記憶する。
[0022] 入力部 30は、キーボード、マウス等の公知の入力装置から構成されている。表示部 40は、 CRT (Cathode Ray Tube)、液晶パネル、プラズマパネル等の公知の表示装 置から構成されている。 BRDF取得装置 50は、本出願人によって発明された公知の 装置であり、現物の試料に対して光の照射方向と撮影方向とを変更しながら、試料を 撮影していき、得られた試料の画像から BRDFを生成する装置である。詳しい内容 は特開 2005— 115645号に開示されている。
[0023] 次に、図 1に示すテクスチャ生成装置の動作について図 2に示すフローチャートを 用いて説明する。まず、ステップ S1において、入力部 30が BRDF記憶部 21の中か ら 1つの BRDFを指定するためのユーザによる操作指令を受付けると、正反射方向 算出部 11は、ユーザにより指定された BRDFを BRDF記憶部 21から読み出して BR DFを取得する。
[0024] ステップ S2において、正反射方向算出部 11は仮想 3次元空間内に複数のサンプ ル点を格子状に配列し、仮想光源から各サンプル点に光を照射した時の光の正反 射方向を、 BRDFを用いて算出する。図 3は仮想 3次元空間内に格子状に配列され たサンプノレ点を示した図面である。図 3に示すように、仮想 3次元空間には、互いに 直交する X、 Υ、 Ζ軸が設定されている。ここで、 Ζ軸は鉛直方向を示し、 ΧΥ平面は水 平面を示している。正反射方向算出部 11は、仮想 3次元空間内の ΧΥ平面上にサン プル点 Ρを格子状に配列する。ここで、サンプル点 Ρはメゾスケール(ミクロンオーダー 以上ミリオーダー以下のスケール)の間隔 dで XY平面上に配列されている。間隔 d の値は、シミュレーション対象となる物体が自動車のファブリックやプラスチックの表面 のシボである場合、 10〜100 μ m程度が好ましい。
[0025] 以下、 XY平面上に配列されたサンプル点 Pのうち、処理対象となるサンプル点 Pを 注目サンプノレ点 CPと呼ぶ。正反射方向算出部 11は、注目サンプル点 CPに対する 仮想光源 VLからの光線方向 LDを求め、求めた光線方向 LDをステップ S 1で取得し た BRDFに入力し、視線方向 VDを変化させ、各視線方向 VDに対する反射率を求 め、求めた反射率のうち最大の反射率が得られる視線方向を注目サンプル点 CPで の光の正反射方向として算出する。図 3の例では、 VDの符号を付した矢印は反射率 が高いほど長くなつているため、視線方向 VDMAXが正反射方向 RDとして算出さ れる。他のサンプル点 Pも同様にして正反射方向 RDが算出される。なお、図 3では、 注目サンプル点 CPにおける法線ベクトル nを他のサンプル点 Pにおける法線ベクトル nよりも誇張して表示してレ、る。
[0026] 図 4は光線方向 LDと視線方向 VDとを説明する図面である。図 4に示すように注目 サンプノレ点 CPを原点として X'軸 (X軸に平行), Y'軸 (Y軸に平行), Z'軸(Z軸に平 行)を設定したとき、光線方向 LDは光線方向 LDの XY平面への射影 LD'と X'軸と のなす角度ひ、及び射影 LD'と光線方向 LDとのなす角度 βによって表される。また 、視線方向 VDは、視線方向 VDの XY平面への射影 と X'軸とのなす角度 γ、 及び射影 VD ^視線方向 VDとのなす角度 δによって表される。
[0027] ここで、正反射方向算出部 11は、角度 δを 0〜90度の範囲内で所定の分解能 (例 えば 5度)で変更し、角度 γを _ 90〜90度の範囲内で所定の分解能 (例えば 10度) で変更し、視線方向 VDを変化させていく。
[0028] 図 2に示すステップ S3において、法線ベクトル算出部 12は、図 3に示す注目サンプ ル点 CPの正反射方向 RDと光線方向 LDとのなす角度 Θを二等分するベクトルを、 注目サンプノレ点 CPを含む平面に対する法線ベクトル nとして算出する。
[0029] 図 2に示すステップ S4において、凹凸情報算出部 13は以下に示すようにして、サ ンプル点 Pの凹凸情報を算出する。図 5は、凹凸情報算出部 13が凹凸情報を算出 する処理を説明する図面であり、 (a)は XY平面に配列されたサンプノレ点 Pを Z方向 力、ら見たときの図面を示し、 (b)はサンプノレ点 Pが設定された仮想 3次元空間の斜視 図を示している。
[0030] まず、凹凸情報算出部 13は、図 5 (a)に示すように、左下の格子 K1を構成する 2個 のポリゴンのうち、左下に位置するポリゴン PL1を注目ポリゴンとして特定する。次に、 (b)に示すように、ポリゴン PL1を構成する 3個のサンプル点 Pのうち、ポリゴン PL1の 向きが、左下のサンプル点 P1の法線べクトノレ nlと直交するように、サンプノレ点 P2, P 3を Z方向に移動させ、移動後のサンプル点 P2, P3の Z成分の値をサンプル点 P2, P3の凹凸情報として算出する。
[0031] 次に、凹凸情報算出部 13は、(a)に示すように格子 K1に隣接する格子 K2を構成 するポリゴンのうち左下に位置するポリゴン PL2を注目ポリゴンとして特定し、ポリゴン PL2の向きが、ポリゴン PL2を構成する 3個のサンプル点 Pのうち、左下のサンプル 点 P2の法線べクトノレ n2と直交するように、サンプル点 P4, P5を Z方向に移動させ、 移動後のサンプル点 P4, P5の Z成分の値をサンプル点 P4, P5の凹凸情報として算 出する。
[0032] 次に、凹凸情報算出部 13は、 (a)に示すように、格子 K1の上側に隣接する格子 K 3内のポリゴン PL3を注目ポリゴンとして特定し、ポリゴン PL3の向き力 サンプル点 P 3の法線べクトノレ n3と直交するようにサンプル点 P6を Z方向に移動させ、移動後のサ ンプル点 P6の Z成分の値をサンプル点 P6の凹凸情報として算出する。
[0033] 次に、凹凸情報算出部 13は、格子 K2の右側に隣接する格子 K4内のポリゴン PL4 を注目ポリゴンとして特定し、ポリゴン PL2と同様にしてポリゴン PL4の向きを変更す る。このように凹凸情報算出部 13は、左下の格子 K1のポリゴン PL1から、右斜め上 方に向けて蛇行するように順次注目ポリゴンを特定していき、特定した注目ポリゴン の向きを上述したように変更し、変更後の各サンプノレ点の Z成分の値を各サンプル点 の凹凸情報として算出し、三次元テクスチャを生成する。
[0034] なお、凹凸情報算出部 13は、左下以外の右下、左上、右上の格子のポリゴンから、 左斜め上、右斜め下、左斜め下に向けて蛇行するように順次注目ポリゴンを特定して いってもよい。
[0035] このように実施の形態 1によるテクスチャ生成装置によれば、物体の双方向反射率 分布関数を基に、物体表面の凹凸情報を表す三次元テクスチャが生成される。その ため、ユーザは、三次元テクスチャのモデリングを行わなくとも、シミュレーション対象 となる物体の双方向反射率分布関数を与えるだけで、この物体表面の凹凸情報を表 す三次元テクスチャを得ることができる。また、シミュレーション対象となる物体に応じ た三次元テクスチャが生成されているため、この物体が所望するデザインとなるように 三次元テクスチャを修正する作業が不要となり、煩雑な作業を行わずに速やかに三 次元テクスチャを得ることが可能となる。そして、得られた三次元テクスチャを仮想 3次 元モデルにマッピングするレンダリングを行うことで、カーシート等のインテリアをリア ルに再現することができ、現物の試作品を開発しなくともインテリアのデザインの評価 を行うことができ、開発コストの低減を図ることができる。
[0036] また、サンプル点 Pカ^ゾスケールで配列されているため、生成された三次元テクス チヤは 3次元メゾ構造を表すこととなる。
[0037] (実施の形態 2)
次に実施の形態 2によるテクスチャ生成装置について説明する。図 6は、実施の形 態 2によるテクスチャ生成装置のブロック図を示している。実施の形態 2によるテクス チヤ生成装置は、実施の形態 1によるテクスチャ生成装置に対して、シボテクスチャ 記憶部 24を更に備えることを特徴としている。なお、実施の形態 2において実施の形 態 1と同一のものは同一の符号を付し、説明を省略する。
[0038] シボテクスチャ記憶部 24は、人間が肉眼で視認することができる程度のスケールで 表された物体表面の凹凸(シボ)を表すテクスチャであるシボテクスチャを記憶してい る。なお、シボテクスチャ記憶部 24は、予め作成された複数パターンのシボテクスチ ャを記憶している。
[0039] 正反射方向算出部 11aは、入力部 30がユーザからシボテクスチャを選択するため の操作指令を受付けたとき、ユーザによって選択されたシボテクスチャをシボテクス チヤ記憶部 24から読み出し、読み出したシボテクスチャに従って、 XY平面に配列さ れたサンプル点 Pを Z方向に移動させる。すなわち、正反射方向算出部 11aは、サン プノレ点 Pの Z成分にオフセット値を設定する。なお、本実施の形態において、正反射 方向算出部 11aは、オフセット設定手段の一例に相当する。
[0040] 図 7は、実施の形態 2によるテクスチャ生成装置の動作を示すフローチャートである 。ステップ S21の処理は図 2に示すステップ S1と同一であるため、説明を省略する。 ステップ S22において、正反射方向算出部 11aは、入力部 30が受付けたユーザの 操作指令に従って、シボテクスチャ記憶部 24からシボテクスチャを読み出し、読み出 したシボテクスチャに従って、実施の形態 1と同様にして仮想 3次元空間内に配置し たサンプノレ点 Pを Z方向に移動させる。
[0041] 図 8は、ユーザがシボテクスチャを選択する際に表示部 40に表示される操作画面 を示す図面である。図 8に示すようにこの操作画面には、左側に示すメインフレーム MFと右側に示す 6個のサブフレーム SFとが表示されている。サブフレーム SFには、 シボテクスチャ記憶部 24が記憶している複数パターンのシボテクスチャが表示される
[0042] ここで、入力部 30は、複数のサブフレーム SFのうち、いずれかのサブフレーム SF がユーザによりクリックされたとき、クリックされたサブフレーム SF内に表示されたシボ テクスチャをユーザにより選択されたシボテクスチャとして受付ける。このとき、表示制 御部 15は、ユーザにより選択されたシボテクスチャをメインフレーム MF内に表示させ る。なお、図 8の例では、メインフレーム MFには、選択されたシボテクスチャではなく 、生成された三次元テクスチャが表示されている。 [0043] メインフレーム MFの左辺の左側と下辺の下側には、メインフレーム MFに表示され た三次元テクスチャをスクロールするためのスクロールバー SBが表示され、このスク ロールバー SBがドラッグされると、表示制御部 15はスクロールバー SBのドラッグ量 に応じて、メインフレーム MF内に表示されたシボテクスチャをスクロールさせる。
[0044] 図 9は、サンプル点 Pがシボテクスチャに従って移動される様子を示す図面である。
図 9に示すように XY平面上に配列されたサンプル点 Pは、 XY平面上にマッピングさ れたシボテクスチャによって表されるシボの表面まで Z軸に沿って平行移動される。こ れにより、各サンプノレ点は物体表面の大まかな形状を表すこととなる。
[0045] ステップ S23において、正反射方向算出部 11aは、ステップ S22によりシボテクスチ ャに従って、 Z方向に平行移動された各サンプル点 Pに対し、仮想光源 VLから光を 照射し、実施の形態 1と同様にして、各サンプノレ点 Pの正反射方向を算出する。
[0046] ステップ S24、 S25の処理は、図 2に示すステップ S3、 S4と同一の処理であるため 説明省略する。
[0047] ステップ S26において、表示制御部 15は、ステップ S25の処理を経て生成された 三次元テクスチャを表示部 40に表示させる。この場合、表示制御部 15は、図 8に示 すメインフレーム MFに生成された三次元テクスチャを表示させる。なお、図 8の例で は、 1行 3列目のサブフレーム SF内に表示されたシボテクスチャに従って、三次元テ タスチヤが生成されてレ、る。図 8のメインフレーム MFに示すように物体の表面形状が リアルに再現されてレ、ること力 S分力る。
[0048] ここで、メインフレーム MFの上側に位置する「3D view」ボタンがクリックされると、 レンダリング処理部 16は、生成した三次元テクスチャを用いて 3次元モデノレ記憶部に 記憶された仮想 3次元モデルをレンダリングし、表示制御部 15はレンダリングされた 画像を表示部 40に表示させる。
[0049] 図 10は、レンダリング処理部 16によりレンダリングされた画像を含む操作画面を示 した図面である。入力部 30が図 10の左側に示す「Light」ボタンをクリックする操作指 令を受付けると、表示制御部 15は仮想光源 VLの位置、仮想光源 VLから照射される 光の強度、及び視線方向 VDを変更するための操作画面(図略)を表示部 40に表示 し、ユーザはこの操作画面を操作して、三次元テクスチャに光の強度及び光線方向 、並びに視線方向を調節し、三次元テクスチャを観察することができる。
[0050] 入力部 30が図 10に示す「Edit」ボタンをクリックする操作指令を受付けると、表示 制御部 15は、三次元テクスチャを修正するための操作画面(図略)を表示部 40に表 示させる。入力部 30が三次元テクスチャを修正する操作指令を受付けた場合 (ステツ プ S27で YES)、修正部 14はユーザからの操作指令に応じて、三次元テクスチャの 形状を修正する (ステップ S28)。
[0051] 図 11は、三次元テクスチャを修正するための操作画面に表示される三次元テクス チヤの断面図を示し、 (a)は修正前の断面図を示し、 (b)は修正後の断面図を示して いる。図 11 (a)、(b)に示すように、三次元テクスチャは、大まかな凹凸を表す低周波 成分 Sと、細かな凹凸を表す高周波成分 とによって表されている。ここで、低周波 成分 Sは、主にシボテクスチャに起因するものである。
[0052] 入力部 30が図 11 (a)に示す低周波成分 S上の点 PP1及び点 PP2を図 11 (b)に示 す点 ΡΡΓ及び点 PP2'までドラッグする操作指令を受付けると、修正部 14は、ドラッ グ量に応じて、図 11 (a)に示す低周波成分の高さを図 11 (b)に示すように変化させ 、シボの高さを低くする。このとき、修正部 14は、低周波成分 Sの変化に追従するよう に、高周波成分 を変化させる。これにより、ユーザは三次元テクスチャの微調整を 行うことができ、シボの高さを所望するサイズに変更することができる。
[0053] 図 7に示すステップ S27において、入力部 30がユーザからの操作指令を受付けな い場合(S27で NO)、処理が終了される。
[0054] 図 12〜図 15は、本テクスチャ生成装置により生成された三次元テクスチャを、 自動 車のダッシュボードにバンプマッピングして、 自動車のインテリアの仮想 3次元モデル をレンダリングしたときのレンダリング結果を示す図面である。図 12〜図 15に示すよう に、本テクスチャ生成装置により生成された 3次元モデルを用いてレンダリングするこ とで、ダッシュボード表面の質感がリアルに再現されていることが分かる。
[0055] 以上説明したように、実施の形態 2によるテクスチャ生成装置によれば、実施の形 態 1と同様の作用効果を奏することができることに加え、シボテクスチャを用いて各サ ンプル点 Pに対して Z成分にオフセットが設定されるため、シボの形状をよりリアルに 再現する三次元テクスチャを得ることができる。 [0056] なお、本発明は以下の態様を採用してもよい。
[0057] (1)図 2、図 7に示すフローチャートのステップ S3、 S24において、算出された各サ ンプル点 Pの法線ベクトル nが正規分布に従うように法線ベクトル nを修正する、又は 1/fゆらぎに従うように修正し、修正した法線ベクトル nを用いてステップ S4、 S25以 降の処理を行い、三次元テクスチャを生成してもよレ、。更に、法線べクトノレ nを修正す ることなしに算出した三次元テクスチャと、正規分布に従うように修正された法線べク トル nを用いて算出された三次元テクスチャと、 1/fゆらぎに従うように修正された 法線ベクトル nを用レ、て算出された三次元テクスチャとを並行して算出し、図 8に示す サブフレーム SFに一覧表示し、レンダリングする際、これらの三次元テクスチャをュ 一ザに選択させるようにしてもょレ、。
[0058] (2)実施の形態 2では、各サンプル点 Pに与えるオフセット値としてシボを例示した 力これに限定されず、シボ以外の立体形状をオフセット値として与えても良レ、。また、 設定したオフセット値をユーザが入力部 30を操作して任意に調整できるようにしても よい。
[0059] (本発明の纏め)
( 1 )本発明によるテクスチャ生成プログラムは、物体表面の凹凸情報を表す三次元 テクスチャを生成するためのテクスチャ生成プログラムであって、前記物体の双方向 反射率分布関数を取得する取得手段と、前記取得手段により取得された双方向反 射率分布関数を基に、三次元テクスチャを生成する生成手段としてコンピュータを機 能させることを特徴とするものである。
[0060] また、本発明によるテクスチャ生成装置は、物体表面の凹凸情報を表す三次元テク スチヤを生成するためのテクスチャ生成装置であって、前記物体の双方向反射率分 布関数を取得する取得手段と、前記取得手段により取得された双方向反射率分布 関数を基に、三次元テクスチャを生成する生成手段とを備えることを特徴とするもの である。
[0061] また、本発明によるテクスチャ生成方法は、コンピュータが物体表面の凹凸情報を 表す三次元テクスチャを生成するテクスチャ生成方法であって、前記物体の双方向 反射率分布関数を取得する取得ステップと、前記取得ステップにより取得された双方 向反射率分布関数を基に、三次元テクスチャを生成する生成ステップとを備えること を特徴とするものである。
[0062] これらの構成によれば、物体の双方向反射率分布関数を基に、物体表面の凹凸情 報を表す三次元テクスチャが生成される。そのため、ユーザは、三次元テクスチャの モデリングを行わなくとも、シミュレーション対象となる物体の双方向反射率分布関数 を与えるだけで、この物体表面の凹凸情報を表す三次元テクスチャを得ることができ る。また、シミュレーション対象となる物体に応じた三次元テクスチャが生成されている ため、この物体が所望するデザインとなるように三次元テクスチャを修正する作業が 不要となり、煩雑な作業を行わずに速やかに三次元テクスチャを得ることが可能とな る。そして、得られた三次元テクスチャを仮想 3次元モデルにマッピングするレンダリ ングを行うことで、カーシート等のインテリアをリアルに再現することができ、現物の試 作品を開発しなくともインテリアのデザインの評価を行うことができ、開発コストの低減 を図ることができる。
[0063] (2)また、上記構成にぉレ、て、前記生成手段は、複数のサンプル点を仮想 3次元空 間内に配置し、配置した各サンプル点に対して仮想光源から照射される光の正反射 方向を、前記双方向反射率分布関数を用いて算出する正反射方向算出手段と、前 記正反射方向算出手段により算出された光の正反射方向と仮想光源からの光の入 射方向とから各サンプル点の法線ベクトルを算出する法線ベクトル算出手段と、前記 法線ベクトル算出手段により算出された法線べクトルを基に、各サンプル点の凹凸情 報を算出する凹凸情報算出手段とを備えることが好ましい。
[0064] この構成によれば、物体に対する双方向反射率分布関数を用いて、仮想 3次元空 間内に配置された各サンプル点に対する正反射方向が算出され、算出された正反 射方向と、仮想光源からの光の入射方向とから各サンプル点を含む面の法線べタト ルが算出され、算出された法線べクトノレを基に、各サンプル点の凹凸情報が算出さ れ、三次元テクスチャが生成されているため、物体表面の凹凸情報を高精度に表す 三次元テクスチャを生成することができる。
[0065] (3)また、上記構成において、前記正反射方向算出手段は、前記双方向反射率分 布関数が最大の反射率を出力する仮想光源の方向に対する視線の方向を正反射 方向とすることが好ましい。
[0066] この構成によれば、双方向反射率分布関数が最大の反射率を出力する仮想光源 の方向に対する視線の方向が正反射方向として算出されるため、物体に所定方向か ら光を照射した場合、反射光のうち、正反射方向に対する光の反射率が最も高くなる という物理法則が反映された三次元テクスチャを得ることができ、よりリアルなコンビュ ータシミュレーションを行うことができる。
[0067] (4)また、上記構成にぉレ、て、前記法線ベクトル算出手段は、各サンプル点の法線 ベクトルの向きが所定の確率密度関数に従うようにバラツキを与えて修正し、前記凹 凸情報算出手段は、前記確率密度関数により修正された法線ベクトル用いて、各サ ンプル点の凹凸情報を算出することが好ましい。
[0068] この構成によれば、法線ベクトルが所定の確率密度関数に従うようにバラツキが与 えられるため、法線ベクトルが特定の方向に偏って算出されることを防止することがで きる。
[0069] (5)また、上記構成において、前記凹凸情報算出手段は、前記確率密度関数によ り修正されていない法線ベクトルを用いて算出した凹凸情報から構成される三次元テ タスチヤと、前記確率密度関数により修正された法線ベクトルを用いて算出した凹凸 情報力 構成される三次元テクスチャとを算出し、前記凹凸情報算出手段により算出 された複数の三次元テクスチャをユーザに提示し、提示した三次元テクスチャのうち いずれかの三次元テクスチャを選択するユーザからの指令を受付ける提示手段とし てコンピュータを更に機能させることが好ましい。
[0070] この構成によれば、ユーザは複数の三次元テクスチャの中から好みの三次元テクス チヤを選択することができる。
[0071] (6)また、上記構成において、各サンプノレ点に対して高さ方向にオフセット値を設 定するオフセット設定手段としてコンピュータを更に機能させることが好ましい。
[0072] この構成によれば、物体表面にある大まかな凹凸(例えば、シボ)を各サンプル点 のオフセット値として与えることが可能となり、これにより当該物体の凹凸情報をより精 度良く表す三次元テクスチャを生成することができる。

Claims

請求の範囲
[1] 物体表面の凹凸情報を表す三次元テクスチャを生成するためのテクスチャ生成プ ログラムであって、
前記物体の双方向反射率分布関数を取得する取得手段と、
前記取得手段により取得された双方向反射率分布関数を基に、三次元テクスチャ を生成する生成手段としてコンピュータを機能させることを特徴とするテクスチャ生成 プログラム。
[2] 前記生成手段は、
複数のサンプル点を仮想 3次元空間内に配置し、配置した各サンプノレ点に対して 仮想光源から照射される光の正反射方向を、前記双方向反射率分布関数を用いて 算出する正反射方向算出手段と、
前記正反射方向算出手段により算出された光の正反射方向と仮想光源からの光の 入射方向とから各サンプル点の法線ベクトルを算出する法線ベクトル算出手段と、 前記法線べ外ル算出手段により算出された法線ベクトルを基に、各サンプノレ点の 凹凸情報を算出する凹凸情報算出手段とを備えることを特徴とする請求項 1記載の テクスチャ生成プログラム。
[3] 前記正反射方向算出手段は、前記双方向反射率分布関数が最大の反射率を出 力する仮想光源の方向に対する視線の方向を正反射方向として算出することを特徴 とする請求項 2記載のテクスチャ生成プログラム。
[4] 前記法線ベクトル算出手段は、各サンプル点の法線ベクトルの向きが所定の確率 密度関数に従うようにバラツキを与えて修正し、
前記凹凸情報算出手段は、前記確率密度関数により修正された法線ベクトル用い て、各サンプノレ点の凹凸情報を算出することを特徴とする請求項 2又は 3記載のテク スチヤ生成プログラム。
[5] 前記凹凸情報算出手段は、前記確率密度関数により修正されていない法線べタト ルを用いて算出した凹凸情報から構成される三次元テクスチャと、前記確率密度関 数により修正された法線ベクトルを用いて算出した凹凸情報から構成される三次元テ タスチヤとを算出し、 前記凹凸情報算出手段により算出された複数の三次元テクスチャをユーザに提示 し、提示した三次元テクスチャのうちいずれかの三次元テクスチャを選択するユーザ 力 の指令を受付ける提示手段としてコンピュータを更に機能させることを特徴とする 請求項 4記載のテクスチャ生成プログラム。
[6] 各サンプノレ点に対して高さ方向にオフセット値を設定するオフセット設定手段として コンピュータを更に機能させることを特徴とする請求項 2〜5のいずれかに記載のテク スチヤ生成プログラム。
[7] 物体表面の凹凸情報を表す三次元テクスチャを生成するためのテクスチャ生成装 置であって、
前記物体の双方向反射率分布関数を取得する取得手段と、
前記取得手段により取得された双方向反射率分布関数を基に、三次元テクスチャ を生成する生成手段とを備えることを特徴とするテクスチャ生成装置。
[8] コンピュータが物体表面の凹凸情報を表す三次元テクスチャを生成するテクスチャ 生成方法であって、
前記物体の双方向反射率分布関数を取得する取得ステップと、
前記取得ステップにより取得された双方向反射率分布関数を基に、三次元テクス チヤを生成する生成ステップとを備えることを特徴とするテクスチャ生成方法。
PCT/JP2007/053793 2006-03-20 2007-02-28 テクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法 WO2007108288A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-077562 2006-03-20
JP2006077562A JP2007257079A (ja) 2006-03-20 2006-03-20 テクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法

Publications (1)

Publication Number Publication Date
WO2007108288A1 true WO2007108288A1 (ja) 2007-09-27

Family

ID=38522323

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/053793 WO2007108288A1 (ja) 2006-03-20 2007-02-28 テクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法

Country Status (2)

Country Link
JP (1) JP2007257079A (ja)
WO (1) WO2007108288A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190220555A1 (en) * 2018-01-17 2019-07-18 Toyota Jidosha Kabushiki Kaisha Simulation apparatus, method of estimating reflection characteristics, and non-transitory computer readable medium storing program
US10880538B2 (en) 2013-10-22 2020-12-29 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for detecting an object with circular-arc-shaped supporting elements

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2505987B1 (en) * 2011-03-30 2013-03-27 C.R.F. Società Consortile per Azioni Method for determining the bidirectional reflectance distribution function (BRDF) of a surface
JP2017001224A (ja) * 2015-06-08 2017-01-05 キヤノン株式会社 形状データ生成装置および形状データ生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07254072A (ja) * 1994-01-26 1995-10-03 Hitachi Ltd テクスチャマッピング方法及び装置
JPH11185054A (ja) * 1997-12-22 1999-07-09 Shima Seiki Mfg Ltd 画像処理装置
JP2002236938A (ja) * 2000-10-26 2002-08-23 Square Co Ltd 双方向反射分布関数に基づいて記憶されたテクスチャマップを使用するサーフェスシェーディング方法
JP2003036449A (ja) * 2001-07-25 2003-02-07 Burein:Kk 繊維製品の3次元画像生成用マップデータの自動生成方法、及び、繊維製品の3次元シミュレーション画像生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07254072A (ja) * 1994-01-26 1995-10-03 Hitachi Ltd テクスチャマッピング方法及び装置
JPH11185054A (ja) * 1997-12-22 1999-07-09 Shima Seiki Mfg Ltd 画像処理装置
JP2002236938A (ja) * 2000-10-26 2002-08-23 Square Co Ltd 双方向反射分布関数に基づいて記憶されたテクスチャマップを使用するサーフェスシェーディング方法
JP2003036449A (ja) * 2001-07-25 2003-02-07 Burein:Kk 繊維製品の3次元画像生成用マップデータの自動生成方法、及び、繊維製品の3次元シミュレーション画像生成方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10880538B2 (en) 2013-10-22 2020-12-29 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for detecting an object with circular-arc-shaped supporting elements
US20190220555A1 (en) * 2018-01-17 2019-07-18 Toyota Jidosha Kabushiki Kaisha Simulation apparatus, method of estimating reflection characteristics, and non-transitory computer readable medium storing program
CN110060327A (zh) * 2018-01-17 2019-07-26 丰田自动车株式会社 模拟装置、估计反射特性的方法以及计算机可读介质
CN110060327B (zh) * 2018-01-17 2023-03-21 丰田自动车株式会社 模拟装置、估计反射特性的方法以及计算机可读介质

Also Published As

Publication number Publication date
JP2007257079A (ja) 2007-10-04

Similar Documents

Publication Publication Date Title
JP4808600B2 (ja) レンダリングプログラム、レンダリング装置、及びレンダリング方法
JP6493395B2 (ja) 画像処理装置と画像処理方法
CN103198169B (zh) 用于模拟材料的装置、系统和方法
US20030034974A1 (en) System and method for animating real objects with projected images
US10895950B2 (en) Method and system for generating a holographic image having simulated physical properties
KR20180105797A (ko) 3차원 프린팅 데이터 생성 방법 및 장치
US7064753B2 (en) Image generating method, storage medium, image generating apparatus, data signal and program
WO2007108288A1 (ja) テクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法
JP2008117113A (ja) 画像生成装置および方法、画像生成プログラム
CN101149841A (zh) 三维应用程序中的凸面镜效果的模拟方法
US20180108168A1 (en) Surface material pattern finish simulation device and surface material pattern finish simulation method
JP6049327B2 (ja) 画像処理装置およびその制御方法
JP2003216973A (ja) 三次元画像処理方法、三次元画像処理プログラム、三次元画像処理装置および三次元画像処理システム
JP4736304B2 (ja) 透明体の動的透視歪み評価方法および透明体の三次元形状設計支援方法
US6346949B1 (en) Three-dimensional form data processor retaining information on color boundaries of an object when thinning coordinate data
JP2004280728A (ja) 画像合成装置及びカメラパラメータキャリブレーション用マーカー設定装置
JP2001184526A (ja) 3次元形状データにおける面生成方法
KR20190067070A (ko) 가상 공간에서의 프로젝션 맵핑 시스템 및 방법
JP6827609B2 (ja) 情報表示制御装置及び方法、並びにプログラム及び記録媒体
JP2013130928A (ja) 設計支援装置、設計支援方法及びプログラム
JP2007256240A (ja) 表面歪み欠陥検査装置、検査方法及びコンピュータプログラム
JP6672845B2 (ja) 面材模様仕上がりシミュレーションシステム及び面材模様仕上がりシミュレーション方法
JP3441804B2 (ja) 画像処理装置及び方法
US11321889B1 (en) Multi-layer lighting source with textured lighting gel layer
WO2007004448A1 (ja) 図柄埋込プログラム、図柄埋込装置、及び図柄埋込方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07715069

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07715069

Country of ref document: EP

Kind code of ref document: A1