JP2007257079A - Texture generation program, texture generation device, and texture generation method - Google Patents
Texture generation program, texture generation device, and texture generation method Download PDFInfo
- Publication number
- JP2007257079A JP2007257079A JP2006077562A JP2006077562A JP2007257079A JP 2007257079 A JP2007257079 A JP 2007257079A JP 2006077562 A JP2006077562 A JP 2006077562A JP 2006077562 A JP2006077562 A JP 2006077562A JP 2007257079 A JP2007257079 A JP 2007257079A
- Authority
- JP
- Japan
- Prior art keywords
- texture
- dimensional
- normal vector
- calculated
- sample point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、コンピュータグラフィックスの技術に関し、特に物体表面の凹凸情報を表す三次元テクスチャを生成する技術に関するものである。 The present invention relates to a computer graphics technique, and more particularly to a technique for generating a three-dimensional texture representing unevenness information on an object surface.
近年、自動車業界を中心に、実物の試作をしないで、コンピュータシミュレーションにより仮想的にデザインを行い、デザインした物を評価し、製造につなげたいというニーズが高まってきている。 In recent years, there has been a growing need in the automotive industry to virtually design by computer simulation without evaluating a prototype, evaluate the designed product, and lead to manufacturing.
自動車の分野では、エンジンに次いでカーシート等に使用されるファブリック等の素材に対する開発コストが嵩んでしまう。素材のデザインは、実際にインテリアに適用しなければその善し悪しの判断が困難であるため、デザインした素材をインテリアに適用したものをコンピュータシミュレーションにより再現する種々の試みがなされている。 In the field of automobiles, development costs for materials such as fabrics used for car seats after engines are increased. Since it is difficult to judge whether the design of the material is good or bad unless it is actually applied to the interior, various attempts have been made to reproduce the material applied to the interior by computer simulation.
リアルなインテリアをコンピュータにより再現する場合、インテリアに使用される素材表面の凹凸情報を肉眼では視認することができないような細かなスケールで表す三次元テクスチャをモデリングし、この三次元テクスチャを用いて仮想3次元モデルをレンダリングすることにより行われる。なお、本発明に関連する技術として、特許文献1が知られている。
しかしながら、上記従来の手法では、上述するようなスケールの三次元テクスチャをモデリングする必要があり、このモデリングには、膨大なデータを入力する必要があるため、非常に手間がかかるという課題があった。また、素材のデザインの善し悪しを判断するためには、モデリングした三次元テクスチャをマクロ的に観察する必要があり、そのためには、モデリングした3次元テクスチャ用いて仮想3次元モデルをレンダリングする必要がある。そして、素材のデザインを変更する場合は、3次元テクスチャを修正する必要があるため、所望するデザインが得られるまで、3次元テクスチャの修正と修正した3次元テクスチャのレンダリングとを繰り返し行わなければならならず、膨大な時間と労力がかかるという課題があった。 However, in the above conventional method, it is necessary to model a three-dimensional texture of the scale as described above, and this modeling has a problem that it takes a lot of time because it is necessary to input a huge amount of data. . In addition, in order to judge whether the material design is good or bad, it is necessary to observe the modeled three-dimensional texture in a macro manner, and for that purpose, it is necessary to render a virtual three-dimensional model using the modeled three-dimensional texture. . When changing the design of the material, it is necessary to correct the 3D texture. Therefore, until the desired design is obtained, the 3D texture must be corrected and the corrected 3D texture rendered repeatedly. However, there was a problem that it took a lot of time and labor.
本発明の目的は、シミュレーション対象となる物体の3次元テクスチャをユーザがモデリングすることなく、しかも当該物体の質感がリアルに再現されるような3次元テクスチャを生成するテクスチャ生成プログラム、テクスチャ生成装置、及びテクスチャ生成方法を提供することである。 An object of the present invention is to provide a texture generation program, a texture generation device, and a texture generation apparatus that generate a three-dimensional texture that allows a user to model a three-dimensional texture of an object to be simulated without causing the user to model the texture. And providing a texture generation method.
本発明によるテクスチャ生成プログラムは、物体表面の凹凸情報を表す三次元テクスチャを生成するためのテクスチャ生成プログラムであって、前記物体の双方向反射率分布関数を取得する取得手段と、前記取得手段により取得された双方向反射率分布関数を基に、三次元テクスチャを生成する生成手段としてコンピュータを機能させることを特徴とする。 A texture generation program according to the present invention is a texture generation program for generating a three-dimensional texture representing unevenness information of an object surface, and includes an acquisition unit that acquires a bidirectional reflectance distribution function of the object, and the acquisition unit. The computer is caused to function as generation means for generating a three-dimensional texture based on the obtained bidirectional reflectance distribution function.
また、上記構成において、前記生成手段は、複数のサンプル点を仮想3次元空間内に配
置し、配置した各サンプル点に対して仮想光源から照射される光の正反射方向を、前記双方向反射率分布関数を用いて算出する正反射方向算出手段と、前記正反射方向算出手段により算出された光の正反射方向と仮想光源からの光の入射方向とから各サンプル点の法線ベクトルを算出する法線ベクトル算出手段と、前記法線ベクトル算出手段により算出された法線ベクトルを基に、各サンプル点の凹凸情報を算出する凹凸情報算出手段とを備えることが好ましい。
Further, in the above configuration, the generating unit arranges a plurality of sample points in a virtual three-dimensional space, and changes the regular reflection direction of light emitted from the virtual light source to each of the arranged sample points. A normal vector of each sample point is calculated from a specular reflection direction calculation means calculated using a rate distribution function, and a regular reflection direction of light calculated by the specular reflection direction calculation means and an incident direction of light from a virtual light source. It is preferable to include a normal vector calculating unit that calculates the unevenness information of each sample point based on the normal vector calculated by the normal vector calculating unit.
また、前記正反射方向算出手段は、前記双方向反射率分布関数が最大の反射率を出力する仮想光源の方向に対する視線の方向を正反射方向とすることが好ましい。 Further, it is preferable that the regular reflection direction calculation means sets the direction of the line of sight to the direction of the virtual light source that outputs the maximum reflectance of the bidirectional reflectance distribution function as the regular reflection direction.
また、上記構成において、前記法線ベクトル算出手段は、各サンプル点の法線ベクトルの向きが所定の確率密度関数に従うようにバラツキを与えて修正し、前記凹凸情報算出手段は、前記確率密度関数により修正された法線ベクトル用いて、各サンプル点の凹凸情報を算出することが好ましい。 Further, in the above configuration, the normal vector calculation means corrects the normal vector at each sample point so that the direction of the normal vector follows a predetermined probability density function, and the unevenness information calculation means includes the probability density function. It is preferable to calculate the unevenness information of each sample point using the normal vector corrected by the above.
また、上記構成において、前記凹凸情報算出手段は、前記確率密度関数により修正されていない法線ベクトルを用いて算出した凹凸情報から構成される三次元テクスチャと、前記確率密度関数により修正された法線ベクトルを用いて算出した凹凸情報から構成される三次元テクスチャとを算出し、前記凹凸情報算出手段により算出された複数の三次元テクスチャをユーザに提示し、提示した三次元テクスチャのうちいずれかの三次元テクスチャを選択するユーザからの指令を受付ける提示手段としてコンピュータを更に機能させることが好ましい。 In the above configuration, the unevenness information calculating means includes a three-dimensional texture composed of unevenness information calculated using normal vectors not corrected by the probability density function, and a method corrected by the probability density function. Calculating a three-dimensional texture composed of uneven information calculated using a line vector, presenting a plurality of three-dimensional textures calculated by the uneven information calculating means to the user, and any one of the presented three-dimensional textures It is preferable to further cause the computer to function as a presentation unit that receives a command from a user who selects the three-dimensional texture.
また、上記構成において、各サンプル点に対して高さ方向にオフセット値を設定するオフセット設定手段としてコンピュータを更に機能させることが好ましい。 In the above configuration, it is preferable that the computer further function as offset setting means for setting an offset value in the height direction for each sample point.
本発明によるテクスチャ生成装置は、物体表面の構造を表す三次元テクスチャを生成するためのテクスチャ生成装置であって、前記物体の双方向反射率分布関数を取得する取得手段と、前記取得手段により取得された双方向反射率分布関数を基に、三次元テクスチャを生成する生成手段とを備えることを特徴とする。 The texture generation device according to the present invention is a texture generation device for generating a three-dimensional texture representing the structure of an object surface, and acquires the bidirectional reflectance distribution function of the object, and the acquisition unit acquires the bidirectional reflectance distribution function. And generating means for generating a three-dimensional texture based on the bidirectional reflectance distribution function.
本発明によるテクスチャ生成方法は、コンピュータが物体表面の構造を表す三次元テクスチャを生成するテクスチャ生成方法であって、前記物体の双方向反射率分布関数を取得する取得ステップと、前記取得ステップにより取得された双方向反射率分布関数を基に、三次元テクスチャを生成する生成ステップとを備えることを特徴とする。 The texture generation method according to the present invention is a texture generation method in which a computer generates a three-dimensional texture representing the structure of an object surface, the acquisition step acquiring a bidirectional reflectance distribution function of the object, and the acquisition step And a generating step for generating a three-dimensional texture based on the bidirectional reflectance distribution function.
請求項1記載の発明によれば、物体の双方向反射率分布関数を基に、物体表面の凹凸情報を表す三次元テクスチャが生成される。そのため、ユーザは、3次元テクスチャのモデリングを行わなくとも、シミュレーション対象となる物体の双方向反射率分布関数を与えるだけで、この物体表面の凹凸情報を表す三次元テクスチャを得ることができる。また、シミュレーション対象となる物体に応じた3次元テクスチャが生成されているため、この物体が所望するデザインとなるように3次元テクスチャを修正する作業が不要となり、煩雑な作業を行わずに速やかに3次元テクスチャを得ることが可能となる。そして、得られた3次元テクスチャを仮想3次元モデルにマッピングするレンダリングを行うことで、カーシート等のインテリアをリアルに再現することができ、現物の試作品を開発しなくともインテリアのデザインの評価を行うことができ、開発コストの低減を図ることができる。 According to the first aspect of the present invention, a three-dimensional texture representing the unevenness information of the object surface is generated based on the bidirectional reflectance distribution function of the object. Therefore, the user can obtain a three-dimensional texture representing the unevenness information on the surface of the object only by giving a bidirectional reflectance distribution function of the object to be simulated without modeling the three-dimensional texture. In addition, since a three-dimensional texture corresponding to the object to be simulated is generated, there is no need to modify the three-dimensional texture so that the object has a desired design, and it can be performed quickly without performing complicated work. A three-dimensional texture can be obtained. By rendering the obtained 3D texture to a virtual 3D model, the interior of the car seat can be reproduced realistically, and the interior design can be evaluated without developing an actual prototype. Development costs can be reduced.
請求項2記載の発明によれば、物体に対する双方向反射率分布関数を用いて、仮想3次元空間内に配置された各サンプル点に対する正反射方向が算出され、算出された正反射方
向と、仮想光源からの光の入射方向とから各サンプル点を含む面の法線ベクトルが算出され、算出された法線ベクトルを基に、各サンプル点の凹凸情報が算出され、三次元テクスチャが生成されているため、物体表面の凹凸情報を高精度に表す三次元テクスチャを生成することができる。
According to the second aspect of the present invention, using the bidirectional reflectance distribution function for the object, the regular reflection direction for each sample point arranged in the virtual three-dimensional space is calculated, and the calculated regular reflection direction; The normal vector of the surface including each sample point is calculated from the incident direction of light from the virtual light source, and the unevenness information of each sample point is calculated based on the calculated normal vector to generate a three-dimensional texture. Therefore, it is possible to generate a three-dimensional texture that expresses unevenness information on the object surface with high accuracy.
請求項3記載の発明によれば、双方向反射率分布関数が最大の反射率を出力する仮想光源の方向に対する視線の方向が正反射方向として算出されるため、物体に所定方向から光を照射した場合、反射光のうち、正反射方向に対する光の反射率が最も高くなるという物理法則が反映された三次元テクスチャを得ることができ、よりリアルなコンピュータシミュレーションを行うことができる。 According to the third aspect of the present invention, since the direction of the line of sight with respect to the direction of the virtual light source that outputs the maximum reflectance of the bidirectional reflectance distribution function is calculated as the regular reflection direction, the object is irradiated with light from a predetermined direction. In this case, it is possible to obtain a three-dimensional texture reflecting the physical law that the reflectance of light in the regular reflection direction is the highest among the reflected light, and a more realistic computer simulation can be performed.
請求項4記載の発明によれば、法線ベクトルが所定の確率密度関数に従うようにバラツキが与えられるため、法線ベクトルが特定の方向に偏って算出されることを防止することができる。 According to the fourth aspect of the invention, since the variation is given so that the normal vector follows a predetermined probability density function, it is possible to prevent the normal vector from being biased in a specific direction.
請求項5記載の発明によれば、ユーザは複数の3次元テクスチャの中から好みの3次元テクスチャを選択することができる。 According to the fifth aspect of the present invention, the user can select a favorite three-dimensional texture from a plurality of three-dimensional textures.
請求項6記載の発明によれば、物体表面にある大まかな凹凸(例えば、シボ)を各サンプル点のオフセット値として与えることが可能となり、これにより当該物体の凹凸情報をより精度良く表す三次元テクスチャを生成することができる。 According to the sixth aspect of the present invention, it is possible to give rough unevenness (for example, wrinkles) on the object surface as an offset value of each sample point, thereby three-dimensionally expressing the unevenness information of the object more accurately. A texture can be generated.
請求項7及び8記載の発明によれば、請求項1記載の発明と同様の効果を得ることができる。 According to the seventh and eighth aspects of the invention, the same effect as that of the first aspect of the invention can be obtained.
(実施の形態1)
以下、本発明の実施の形態1について説明する。図1は本発明の実施の形態1によるテクスチャ生成装置のブロック構成図を示している。テクスチャ生成装置は、公知のコンピュータから構成され、処理部10、記憶部20、入力部30、表示部40、及びBRDF(Bidirectional Reflectance Distribution Function:双方向反射率分布関数)取得装置50を備えている。
(Embodiment 1)
Embodiment 1 of the present invention will be described below. FIG. 1 shows a block configuration diagram of a texture generating apparatus according to Embodiment 1 of the present invention. The texture generation device is configured by a known computer, and includes a processing unit 10, a storage unit 20, an input unit 30, a display unit 40, and a BRDF (Bidirectional Reflectance Distribution Function) acquisition device 50. .
処理部10は、CPUから構成され、正反射方向算出部(取得手段及び正反射方向算出手段)11、法線ベクトル算出部(法線ベクトル算出手段)12、凹凸情報算出部(凹凸情報算出手段)13、修正部14、表示制御部15、及びレンダリング処理部16を備えている。記憶部20は、ハードディスク、ROM等の記憶装置から構成され、BRDF記憶部21、テクスチャ記憶部22、及び3次元モデル記憶部23を備えている。なお、正反射方向算出部11〜レンダリング処理部16とBRDF記憶部21〜3次元モデル記憶部23とはCPUが本発明によるテクスチャ生成プログラムを実行することで実現される。 The processing unit 10 includes a CPU, and includes a regular reflection direction calculation unit (acquisition unit and regular reflection direction calculation unit) 11, a normal vector calculation unit (normal vector calculation unit) 12, and a concavo-convex information calculation unit (concave / convex information calculation unit). ) 13, a correction unit 14, a display control unit 15, and a rendering processing unit 16. The storage unit 20 includes a storage device such as a hard disk and a ROM, and includes a BRDF storage unit 21, a texture storage unit 22, and a 3D model storage unit 23. The regular reflection direction calculation unit 11 to the rendering processing unit 16 and the BRDF storage unit 21 to the three-dimensional model storage unit 23 are realized by the CPU executing the texture generation program according to the present invention.
正反射方向算出部11は、仮想3次元空間内の水平面内にサンプル点を正方格子状に配置し、仮想3次元空間内の所定の位置に配置された仮想光源から各サンプル点に照射される光の光線方向を、BRDF記憶部21に記憶されたシミュレーション対象となる物体表面の光学的な特性を表すBRDFに入力し、BRDFが最大の反射率を出力するときの視線方向を正反射方向として算出する。 The regular reflection direction calculation unit 11 arranges sample points in a square lattice pattern in a horizontal plane in the virtual three-dimensional space, and irradiates each sample point from a virtual light source arranged at a predetermined position in the virtual three-dimensional space. The light ray direction is input to the BRDF representing the optical characteristics of the object surface to be simulated stored in the BRDF storage unit 21, and the line-of-sight direction when the BRDF outputs the maximum reflectance is defined as the regular reflection direction. calculate.
ここで、BRDFは光線方向と視線方向とを入力とし、反射率を出力する関数である。本実施の形態では、BRDFは、入出力関係が数式で表されるものと入出力関係がLUT
(ルックアップテーブル)形式で表されるものとが含まれる。反射率は仮想光源から照射される光の光量に対する反射光の光量の比率により表されている。
Here, BRDF is a function that takes the light ray direction and the line-of-sight direction as inputs and outputs the reflectance. In the present embodiment, the BRDF has an input / output relationship expressed by a mathematical expression and an input / output relationship of an LUT.
(Lookup table) format. The reflectance is represented by the ratio of the amount of reflected light to the amount of light emitted from the virtual light source.
法線ベクトル算出部12は、各サンプル点に対し、光線方向と視線方向との角度を二等分する直線の方向を向きとするベクトルを、注目サンプル点を含む面の法線ベクトルとして算出する。 The normal vector calculation unit 12 calculates, for each sample point, a vector whose direction is a straight line that bisects the angle between the ray direction and the line-of-sight direction as the normal vector of the surface including the sample point of interest. .
凹凸情報算出部13は、隣接するサンプル点を直線で結ぶことで形成される三角形のポリゴンを、そのポリゴンを構成するいずれかのサンプル点の法線ベクトルに直交するように、サンプル点をZ方向にずらしてポリゴンの向きを変更し、サンプル点のZ成分の値を凹凸情報として算出する。これにより、3次元テクスチャが生成される。 The concavo-convex information calculation unit 13 sets the sample points in the Z direction so that a triangular polygon formed by connecting adjacent sample points with a straight line is orthogonal to the normal vector of any sample point constituting the polygon. To change the orientation of the polygon, and calculate the value of the Z component of the sample point as the unevenness information. Thereby, a three-dimensional texture is generated.
修正部14は、凹凸情報算出部13により算出された3次元テクスチャ、又はテクスチャ記憶部22に記憶された3次元テクスチャの形状を、ユーザからの操作指令に従って修正する。 The correction unit 14 corrects the three-dimensional texture calculated by the unevenness information calculation unit 13 or the shape of the three-dimensional texture stored in the texture storage unit 22 according to an operation command from the user.
表示制御部15は、凹凸情報算出部13により算出された3次元テクスチャと、修正部14により修正された3次元テクスチャと、テクスチャ記憶部22に記憶された3次元テクスチャと、レンダリング処理部16によりレンダリング処理された画像とを表示部40に表示させる。レンダリング処理部16は、3次元モデル記憶部23に記憶された仮想3次元モデルに、凹凸情報算出部13により算出された3次元テクスチャをテクスチャマッピングし、仮想3次元モデルをレンダリングする。 The display control unit 15 uses the three-dimensional texture calculated by the unevenness information calculation unit 13, the three-dimensional texture corrected by the correction unit 14, the three-dimensional texture stored in the texture storage unit 22, and the rendering processing unit 16. The rendered image is displayed on the display unit 40. The rendering processing unit 16 texture maps the three-dimensional texture calculated by the unevenness information calculating unit 13 on the virtual three-dimensional model stored in the three-dimensional model storage unit 23 and renders the virtual three-dimensional model.
BRDF記憶部21は、BRDF取得装置50により取得されたBRDFを記憶する。なお、BRDF記憶部21は、BRDF取得装置50が取得したBRDF以外のBRDFを記憶してもよい。ここで、BRDF取得装置50により取得されたBRDF以外のBRDFとは、例えばユーザがBRDFを設定するためのアプリケーションソフトウェアを用いて、数値入力する等して作成されたBRDFや、数式によって表されるBRDFが含まれる。 The BRDF storage unit 21 stores the BRDF acquired by the BRDF acquisition device 50. The BRDF storage unit 21 may store a BRDF other than the BRDF acquired by the BRDF acquisition device 50. Here, the BRDF other than the BRDF acquired by the BRDF acquisition device 50 is represented by, for example, a BRDF created by a user inputting numerical values using application software for setting the BRDF, or a mathematical expression. BRDF is included.
また、BRDF取得装置50が取得するBRDFは、LUT形式のBRDFである。また、BRDF記憶部21は複数種類のBRDFを記憶している。テクスチャ記憶部22は、凹凸情報算出部13により作成されたテクスチャを記憶する。3次元モデル記憶部23は、予めモデリングされた仮想3次元モデルを記憶する。 Further, the BRDF acquired by the BRDF acquisition device 50 is a BRDF in the LUT format. The BRDF storage unit 21 stores a plurality of types of BRDFs. The texture storage unit 22 stores the texture created by the unevenness information calculation unit 13. The three-dimensional model storage unit 23 stores a virtual three-dimensional model modeled in advance.
入力部30は、キーボード、マウス等の公知の入力装置から構成されている。表示部40は、CRT、液晶パネル、プラズマパネル等の公知の表示装置から構成されている。BRDF取得装置50は、本出願人によって発明された公知の装置であり、現物の試料に対して光の照射方向と撮影方向とを変更しながら、試料を撮影していき、得られた試料の画像からBRDFを生成する装置である。詳しい内容は特開2005−115645号に開示されている。 The input unit 30 includes a known input device such as a keyboard and a mouse. The display unit 40 includes a known display device such as a CRT, a liquid crystal panel, a plasma panel, or the like. The BRDF acquisition device 50 is a known device invented by the present applicant. The BRDF acquisition device 50 photographs a sample while changing the light irradiation direction and the photographing direction with respect to the actual sample. It is a device that generates BRDF from an image. Detailed contents are disclosed in JP-A-2005-115645.
次に、図1に示すテクスチャ生成装置の動作について図2に示すフローチャートを用いて説明する。まず、ステップS1において、入力部30がBRDF記憶部21の中から1つのBRDFを指定するためのユーザによる操作指令を受付けると、正反射方向算出部11は、ユーザにより指定されたBRDFをBRDF記憶部21から読み出してBRDFを取得する。 Next, the operation of the texture generating apparatus shown in FIG. 1 will be described using the flowchart shown in FIG. First, in step S1, when the input unit 30 receives an operation command from the user for designating one BRDF from the BRDF storage unit 21, the regular reflection direction calculation unit 11 stores the BRDF designated by the user in the BRDF storage. Read from the unit 21 to obtain the BRDF.
ステップS2において、正反射方向算出部11は仮想3次元空間内に複数のサンプル点を格子状に配列し、仮想光源から各サンプル点に光を照射した時の光の正反射方向を、B
RDFを用いて算出する。図3は仮想3次元空間内に格子状に配列されたサンプル点を示した図面である。図3に示すように、仮想3次元空間には、互いに直交するX、Y、Z軸が設定されている。ここで、Z軸は鉛直方向を示し、XY平面は水平面を示している。正反射方向算出部11は、仮想3次元空間内のXY平面上にサンプル点Pを格子状に配列する。ここで、サンプル点Pはメゾスケール(ミクロンオーダー以上ミリオーダー以下のスケール)の間隔∂でXY平面上に配列されている。間隔∂の値は、シミュレーション対象となる物体が自動車のファブリックやプラスチックの表面のシボである場合、10〜100μm程度が好ましい。
In step S <b> 2, the regular reflection direction calculation unit 11 arranges a plurality of sample points in a virtual three-dimensional space in a lattice pattern, and determines the regular reflection direction of light when light is emitted from the virtual light source to each sample point.
Calculate using RDF. FIG. 3 is a diagram showing sample points arranged in a grid in a virtual three-dimensional space. As shown in FIG. 3, X, Y, and Z axes that are orthogonal to each other are set in the virtual three-dimensional space. Here, the Z axis indicates the vertical direction, and the XY plane indicates the horizontal plane. The regular reflection direction calculation unit 11 arranges the sample points P in a grid pattern on the XY plane in the virtual three-dimensional space. Here, the sample points P are arranged on the XY plane with an interval of mesoscale (scale of micron order to millimeter order). The value of the spacing flaw is preferably about 10 to 100 μm when the object to be simulated is a texture on the surface of an automobile fabric or plastic.
以下、XY平面上に配列されたサンプル点Pのうち、処理対象となるサンプル点Pを注目サンプル点CPと呼ぶ。正反射方向算出部11は、注目サンプル点CPに対する仮想光源VLからの光線方向LDを求め、求めた光線方向LDをステップS1で取得したBRDFに入力し、視線方向VDを変化させ、各視線方向VDに対する反射率を求め、求めた反射率のうち最大の反射率が得られる視線方向を注目サンプル点CPでの光の正反射方向として算出する。図3の例では、VDの符号を付した矢印は反射率が高いほど長くなっているため、視線方向VDMAXが正反射方向RDとして算出される。他のサンプル点Pも同様にして正反射方向RDが算出される。なお、図3では、注目サンプル点CPにおける法線ベクトルnを他のサンプル点Pにおける法線ベクトルnよりも誇張して表示している。 Hereinafter, among the sample points P arranged on the XY plane, the sample point P to be processed is referred to as a target sample point CP. The regular reflection direction calculation unit 11 obtains the light direction LD from the virtual light source VL with respect to the target sample point CP, inputs the obtained light direction LD to the BRDF obtained in step S1, changes the line-of-sight direction VD, and changes each line-of-sight direction. The reflectance with respect to VD is obtained, and the line-of-sight direction in which the maximum reflectance among the obtained reflectances is obtained is calculated as the regular reflection direction of light at the sample point CP of interest. In the example of FIG. 3, the arrow with the symbol VD is longer as the reflectance is higher, so the line-of-sight direction VGMAX is calculated as the regular reflection direction RD. The specular reflection direction RD is similarly calculated for other sample points P. In FIG. 3, the normal vector n at the sample point CP of interest is displayed exaggerated over the normal vectors n at the other sample points P.
図4は光線方向LDと視線方向VDとを説明する図面である。図4に示すように注目サンプル点CPを原点としてX´軸(X軸に平行),Y´軸(Y軸に平行),Z´軸(Z軸に平行)を設定したとき、光線方向LDは光線方向LDのXY平面への射影LD´とX´軸とのなす角度α、及び射影LD´と光線方向LDとのなす角度βによって表される。また、視線方向VDは、視線方向VDのXY平面への射影VD´とX´軸とのなす角度γ、及び射影VD´と視線方向VDとのなす角度δによって表される。 FIG. 4 is a diagram for explaining the light beam direction LD and the line-of-sight direction VD. As shown in FIG. 4, when the X ′ axis (parallel to the X axis), Y ′ axis (parallel to the Y axis), and Z ′ axis (parallel to the Z axis) are set with the target sample point CP as the origin, the light beam direction LD Is expressed by an angle α formed between the projection LD ′ of the light beam direction LD onto the XY plane and the X ′ axis, and an angle β formed between the projection LD ′ and the light beam direction LD. The line-of-sight direction VD is represented by an angle γ formed by the projection VD ′ of the line-of-sight direction VD onto the XY plane and the X ′ axis, and an angle δ formed by the projection VD ′ and the line-of-sight direction VD.
ここで、正反射方向算出部11は、角度δを0〜90度の範囲内で所定の分解能(例えば5度)で変更し、角度γを−90〜90度の範囲内で所定の分解能(例えば10度)で変更し、視線方向VDを変化させていく。 Here, the regular reflection direction calculation unit 11 changes the angle δ within a range of 0 to 90 degrees with a predetermined resolution (for example, 5 degrees), and changes the angle γ within a range of −90 to 90 degrees with a predetermined resolution ( For example, the line-of-sight direction VD is changed.
図2に示すステップS3において、法線ベクトル算出部12は、図3に示す注目サンプル点CPの正反射方向RDと光線方向LDとのなす角度θを二等分するベクトルを、注目サンプル点CPを含む平面に対する法線ベクトルnとして算出する。 In step S3 shown in FIG. 2, the normal vector calculation unit 12 sets a vector that bisects the angle θ formed between the specular reflection direction RD and the ray direction LD of the target sample point CP shown in FIG. Is calculated as a normal vector n for a plane including.
図2に示すステップS4において、凹凸情報算出部13は以下に示すようにして、サンプル点Pの凹凸情報を算出する。図5は、凹凸情報算出部13が凹凸情報を算出する処理を説明する図面であり、(a)はXY平面に配列されたサンプル点PをZ方向から見たときの図面を示し、(b)はサンプル点Pが設定された仮想3次元空間の斜視図を示している。 In step S4 shown in FIG. 2, the unevenness information calculating unit 13 calculates unevenness information of the sample point P as follows. FIG. 5 is a diagram for explaining a process in which the concavo-convex information calculation unit 13 calculates the concavo-convex information. FIG. 5A is a diagram when the sample points P arranged on the XY plane are viewed from the Z direction. ) Shows a perspective view of a virtual three-dimensional space in which sample points P are set.
まず、凹凸情報算出部13は、図5(a)に示すように、左下の格子K1を構成する2個のポリゴンのうち、左下に位置するポリゴンPL1を注目ポリゴンとして特定する。次に、(b)に示すように、ポリゴンPL1を構成する3個のサンプル点Pのうち、ポリゴンPL1の向きが左下のサンプル点P1の法線ベクトルn1と直交するように、サンプル点P2,P3をZ方向に移動させ、移動後のサンプル点P2,P3のZ成分の値をサンプル点P2,P3の凹凸情報として算出する。 First, as shown in FIG. 5A, the concavo-convex information calculation unit 13 specifies the polygon PL1 located at the lower left of the two polygons constituting the lower left lattice K1 as the target polygon. Next, as shown in (b), among the three sample points P constituting the polygon PL1, the sample points P2 and P2 are set so that the direction of the polygon PL1 is orthogonal to the normal vector n1 of the lower left sample point P1. P3 is moved in the Z direction, and the value of the Z component of the sample points P2 and P3 after the movement is calculated as the unevenness information of the sample points P2 and P3.
次に、凹凸情報算出部13は、(a)に示すように格子K1に隣接する格子K2を構成するポリゴンのうち左下に位置するポリゴンPL2を注目ポリゴンとして特定し、ポリゴンPL2の向きが、ポリゴンPL2を構成する3個のサンプル点Pのうち、左下のサンプ
ル点P2の法線ベクトルn2と直交するように、サンプル点P4,P5をZ方向に移動させ、移動後のサンプル点P4,P5のZ成分の値をサンプル点P4,P5の凹凸情報として算出する。
Next, as shown in (a), the unevenness information calculation unit 13 specifies the polygon PL2 positioned at the lower left of the polygons constituting the grid K2 adjacent to the grid K1 as the target polygon, and the orientation of the polygon PL2 is the polygon Among the three sample points P constituting PL2, the sample points P4 and P5 are moved in the Z direction so as to be orthogonal to the normal vector n2 of the lower left sample point P2, and the sample points P4 and P5 after the movement are moved. The value of the Z component is calculated as the unevenness information of the sample points P4 and P5.
次に、凹凸情報算出部13は、(a)に示すように、格子K1の上側に隣接する格子K3内のポリゴンPL3を注目ポリゴンとして特定し、ポリゴンPL3の向きが、サンプル点P3の法線ベクトルn3と直交するようにサンプル点P6をZ方向に移動させ、移動後のサンプル点P6のZ成分の値をサンプル点P6の凹凸情報として算出する。 Next, as shown in (a), the unevenness information calculation unit 13 specifies the polygon PL3 in the lattice K3 adjacent to the upper side of the lattice K1 as the target polygon, and the orientation of the polygon PL3 is the normal line of the sample point P3. The sample point P6 is moved in the Z direction so as to be orthogonal to the vector n3, and the value of the Z component of the sample point P6 after the movement is calculated as the unevenness information of the sample point P6.
次に、凹凸情報算出部13は、格子K2の右側に隣接する格子K4内のポリゴンPL4を注目ポリゴンとして特定し、ポリゴンPL2と同様にしてポリゴンPL4の向きを変更する。このように凹凸情報算出部13は、左下の格子K1のポリゴンPL1から、右斜め上方に向けて蛇行するように順次注目ポリゴンを特定していき、特定した注目ポリゴンの向きを上述したように変更し、変更後の各サンプル点のZ成分の値を各サンプル点の凹凸情報として算出し、3次元テクスチャを生成する。 Next, the unevenness information calculation unit 13 identifies the polygon PL4 in the lattice K4 adjacent to the right side of the lattice K2 as the target polygon, and changes the orientation of the polygon PL4 in the same manner as the polygon PL2. As described above, the unevenness information calculation unit 13 sequentially identifies the target polygon from the polygon PL1 of the lower left lattice K1 so as to meander obliquely upward to the right, and changes the direction of the identified target polygon as described above. Then, the Z component value of each sample point after the change is calculated as unevenness information of each sample point, and a three-dimensional texture is generated.
なお、凹凸情報算出部13は、左下以外の右下、左上、右上の格子のポリゴンから、左斜め上、右斜め下、左斜め下に向けて蛇行するように順次注目ポリゴンを特定していってもよい。 The unevenness information calculation unit 13 sequentially identifies the target polygon so as to meander from the polygons in the lower right, upper left, and upper right grids other than the lower left to meander to the upper left, lower right, and lower left. May be.
このように実施の形態1によるテクスチャ生成装置によれば、物体の双方向反射率分布関数を基に、物体表面の凹凸情報を表す三次元テクスチャが生成される。そのため、ユーザは、3次元テクスチャのモデリングを行わなくとも、シミュレーション対象となる物体の双方向反射率分布関数を与えるだけで、この物体表面の凹凸情報を表す三次元テクスチャを得ることができる。また、シミュレーション対象となる物体に応じた3次元テクスチャが生成されているため、この物体が所望するデザインとなるように3次元テクスチャを修正する作業が不要となり、煩雑な作業を行わずに速やかに3次元テクスチャを得ることが可能となる。そして、得られた3次元テクスチャを仮想3次元モデルにマッピングするレンダリングを行うことで、カーシート等のインテリアをリアルに再現することができ、現物の試作品を開発しなくともインテリアのデザインの評価を行うことができ、開発コストの低減を図ることができる。 As described above, according to the texture generation device according to the first embodiment, a three-dimensional texture representing the unevenness information of the object surface is generated based on the bidirectional reflectance distribution function of the object. Therefore, the user can obtain a three-dimensional texture representing the unevenness information on the surface of the object only by giving a bidirectional reflectance distribution function of the object to be simulated without modeling the three-dimensional texture. In addition, since a three-dimensional texture corresponding to the object to be simulated is generated, there is no need to modify the three-dimensional texture so that the object has a desired design, and it can be performed quickly without performing complicated work. A three-dimensional texture can be obtained. By rendering the obtained 3D texture to a virtual 3D model, the interior of the car seat can be reproduced realistically, and the interior design can be evaluated without developing an actual prototype. Development costs can be reduced.
また、サンプル点Pがメゾスケールで配列されているため、生成された3次元テクスチャは3次元メゾ構造を表すこととなる。 In addition, since the sample points P are arranged in a meso scale, the generated three-dimensional texture represents a three-dimensional meso structure.
(実施の形態2)
次に実施の形態2によるテクスチャ生成装置について説明する。図6は、実施の形態2によるテクスチャ生成装置のブロック図を示している。実施の形態2によるテクスチャ生成装置は、実施の形態1によるテクスチャ生成装置に対して、シボテクスチャ記憶部24を更に備えることを特徴としている。なお、実施の形態2において実施の形態1と同一のものは同一の符号を付し、説明を省略する。
(Embodiment 2)
Next, a texture generating apparatus according to Embodiment 2 will be described. FIG. 6 shows a block diagram of the texture generating apparatus according to the second embodiment. The texture generation device according to the second embodiment is characterized in that the texture generation device according to the first embodiment further includes a texture texture storage unit 24. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
シボテクスチャ記憶部24は、人間が肉眼で視認することができる程度のスケールで表された物体表面の凹凸(シボ)を表すテクスチャであるシボテクスチャを記憶している。なお、シボテクスチャ記憶部24は、予め作成された複数パターンのシボテクスチャを記憶している。 The wrinkle texture storage unit 24 stores a wrinkle texture, which is a texture representing the unevenness (texture) on the surface of the object represented on a scale that can be visually recognized by the human eye. The texture texture storage unit 24 stores a plurality of patterns of texture texture created in advance.
正反射方向算出部11aは、入力部30がユーザからシボテクスチャを選択するための操作指令を受付けたとき、ユーザによって選択されたシボテクスチャをシボテクスチャ記憶部24から読み出し、読み出したシボテクスチャに従って、XY平面に配列されたサン
プル点PをZ方向に移動させる。すなわち、正反射方向算出部11は、サンプル点PのZ成分にオフセット値を設定する。なお、本実施の形態において、正反射方向算出部11aは、オフセット設定手段の一例に相当する。
When the input unit 30 receives an operation command for selecting a texture texture from the user, the regular reflection direction calculation unit 11a reads the texture texture selected by the user from the texture texture storage unit 24, and in accordance with the read texture texture, The sample points P arranged on the XY plane are moved in the Z direction. That is, the regular reflection direction calculation unit 11 sets an offset value for the Z component of the sample point P. In the present embodiment, the regular reflection direction calculation unit 11a corresponds to an example of an offset setting unit.
図7は、実施の形態2によるテクスチャ生成装置の動作を示すフローチャートである。ステップS21の処理は図2に示すステップS1と同一であるため、説明を省略する。ステップS22において、正反射方向算出部11aは、入力部30が受付けたユーザの操作指令に従って、シボテクスチャ記憶部24からシボテクスチャを読み出し、読み出したシボテクスチャに従って、実施の形態1と同様にして仮想3次元空間内に配置したサンプル点PをZ方向に移動させる。 FIG. 7 is a flowchart showing the operation of the texture generation apparatus according to the second embodiment. Since the process of step S21 is the same as step S1 shown in FIG. 2, description is abbreviate | omitted. In step S22, the regular reflection direction calculation unit 11a reads a texture texture from the texture texture storage unit 24 in accordance with a user operation command received by the input unit 30, and performs virtual processing in the same manner as in the first embodiment according to the read texture texture. The sample point P arranged in the three-dimensional space is moved in the Z direction.
図8は、ユーザがシボテクスチャを選択する際に表示部40に表示される操作画面を示す図面である。図8に示すようにこの操作画面には、左側に示すメインフレームMFと右側に示す6個のサブフレームSFとが表示されている。サブフレームSFには、シボテクスチャ記憶部24が記憶している複数パターンのシボテクスチャが表示される。 FIG. 8 is a diagram illustrating an operation screen displayed on the display unit 40 when the user selects a texture. As shown in FIG. 8, the operation screen displays a main frame MF shown on the left side and six sub-frames SF shown on the right side. In the subframe SF, a plurality of patterns of textures stored in the texture texture storage unit 24 are displayed.
ここで、入力部30は、複数のサブフレームSFのうち、いずれかのサブフレームSFがユーザによりクリックされたとき、クリックされたサブフレームSF内に表示されたシボテクスチャをユーザにより選択されたシボテクスチャとして受付ける。このとき、表示制御部15は、ユーザにより選択されたシボテクスチャをメインフレームMF内に表示させる。なお、図8の例では、メインフレームMFには、選択されたシボテクスチャではなく、生成された3次元テクスチャが表示されている。 Here, when any subframe SF is clicked by the user among the plurality of subframes SF, the input unit 30 selects the texture that is displayed in the clicked subframe SF as the texture selected by the user. Accept as texture. At this time, the display control unit 15 causes the texture texture selected by the user to be displayed in the main frame MF. In the example of FIG. 8, the generated three-dimensional texture is displayed on the main frame MF instead of the selected texture.
メインフレームMFの左辺の左側と下辺の下側には、メインフレームMFに表示された3次元テクスチャをスクロールするためのスクロールバーSBが表示され、このスクロールバーSBがドラッグされると、表示制御部15はスクロールバーSBのドラッグ量に応じて、メインフレームMF内に表示されたシボテクスチャをスクロールさせる。 A scroll bar SB for scrolling the three-dimensional texture displayed on the main frame MF is displayed on the left side and the lower side of the left side of the main frame MF. When the scroll bar SB is dragged, the display control unit 15 scrolls the grain texture displayed in the main frame MF according to the drag amount of the scroll bar SB.
図9は、サンプル点Pがシボテクスチャに従って移動される様子を示す図面である。図9に示すようにXY平面上に配列されたサンプル点Pは、XY平面上にマッピングされたシボテクスチャによって表されるシボの表面までZ軸に沿って平行移動される。これにより、各サンプル点は物体表面の大まかな形状を表すこととなる。 FIG. 9 is a diagram illustrating how the sample points P are moved according to the texture. As shown in FIG. 9, the sample points P arranged on the XY plane are translated along the Z axis to the surface of the texture represented by the texture texture mapped on the XY plane. As a result, each sample point represents a rough shape of the object surface.
ステップS23において、正反射方向算出部11は、ステップS22によりシボテクスチャに従って、Z方向に平行移動された各サンプル点Pに対し、仮想光源VLから光を照射し、実施の形態1と同様にして、各サンプル点Pの正反射方向を算出する。 In step S23, the regular reflection direction calculation unit 11 irradiates light from the virtual light source VL to each sample point P translated in the Z direction according to the texture in step S22, and performs the same process as in the first embodiment. Then, the regular reflection direction of each sample point P is calculated.
ステップS24、S25の処理は、図2に示すステップS3、S4と同一の処理であるため説明省略する。 Steps S24 and S25 are the same as steps S3 and S4 shown in FIG.
ステップS26において、表示制御部15は、ステップS25の処理を経て生成された3次元テクスチャを表示部40に表示させる。この場合、表示制御部15は、図8に示すメインフレームMFに生成された3次元テクスチャを表示させる。なお、図8の例では、1行3列目のサブフレームSF内に表示されたシボテクスチャに従って、3次元テクスチャが生成されている。図8のメインフレームMFに示すように物体の表面形状がリアルに再現されていることが分かる。 In step S26, the display control unit 15 causes the display unit 40 to display the three-dimensional texture generated through the process of step S25. In this case, the display control unit 15 displays the generated three-dimensional texture on the main frame MF shown in FIG. In the example of FIG. 8, a three-dimensional texture is generated according to the texture texture displayed in the subframe SF in the first row and the third column. It can be seen that the surface shape of the object is realistically reproduced as shown in the main frame MF in FIG.
ここで、メインフレームMFの上側に位置する「3D view」ボタンがクリックされると、レンダリング処理部16は、生成した3次元テクスチャを用いて3次元モデル記憶部に記憶された仮想3次元モデルをレンダリングし、表示制御部15はレンダリングさ
れた画像を表示部40に表示させる。
Here, when the “3D view” button located on the upper side of the main frame MF is clicked, the rendering processing unit 16 uses the generated 3D texture to store the virtual 3D model stored in the 3D model storage unit. After rendering, the display control unit 15 causes the display unit 40 to display the rendered image.
図10は、レンダリング処理部16によりレンダリングされた画像を含む操作画面を示した図面である。入力部30が図10の左側に示す「Light」ボタンをクリックする操作指令を受付けると、表示制御部15は仮想光源VLの位置、仮想光源VLから照射される光の強度、及び視線方向VDを変更するための操作画面(図略)を表示部40に表示し、ユーザはこの操作画面を操作して、3次元テクスチャに光の強度及び光線方向、並びに視線方向を調節し、3次元テクスチャを観察することができる。 FIG. 10 is a diagram showing an operation screen including an image rendered by the rendering processing unit 16. When the input unit 30 receives an operation command to click the “Light” button shown on the left side of FIG. 10, the display control unit 15 determines the position of the virtual light source VL, the intensity of light emitted from the virtual light source VL, and the line-of-sight direction VD. An operation screen (not shown) for changing is displayed on the display unit 40, and the user operates the operation screen to adjust the light intensity and the light ray direction and the line-of-sight direction to the three-dimensional texture, and to display the three-dimensional texture. Can be observed.
入力部30が図10に示す「Edit」ボタンをクリックする操作指令を受付けると、表示制御部15は、3次元テクスチャを修正するための操作画面(図略)を表示部40に表示させる。入力部30が3次元テクスチャを修正する操作指令を受付けた場合(ステップS27でYES)、修正部14はユーザからの操作指令に応じて、3次元テクスチャの形状を修正する(S28)。 When the input unit 30 receives an operation command for clicking the “Edit” button shown in FIG. 10, the display control unit 15 causes the display unit 40 to display an operation screen (not shown) for correcting the three-dimensional texture. When the input unit 30 receives an operation command for correcting the three-dimensional texture (YES in step S27), the correction unit 14 corrects the shape of the three-dimensional texture according to the operation command from the user (S28).
図11は、3次元テクスチャを修正するための操作画面に表示される3次元テクスチャの断面図を示し、(a)は修正前の断面図を示し、(b)は修正後の断面図を示している。図11(a)、(b)に示すように、3次元テクスチャは、大まかな凹凸を表す低周波成分Sと、細かな凹凸を表す高周波成分S´とによって表されている。ここで、低周波成分Sは、主にシボテクスチャに起因するものである。 FIG. 11 shows a cross-sectional view of the three-dimensional texture displayed on the operation screen for correcting the three-dimensional texture, (a) shows a cross-sectional view before correction, and (b) shows a cross-sectional view after correction. ing. As shown in FIGS. 11A and 11B, the three-dimensional texture is represented by a low-frequency component S that represents rough unevenness and a high-frequency component S ′ that represents fine unevenness. Here, the low frequency component S is mainly caused by the texture texture.
入力部30が図11(a)に示す低周波成分S上の点P1及び点P2を図11(b)に示す点P1´及び点P2´までドラッグする操作指令を受付けると、修正部14は、ドラッグ量に応じて、図11(a)に示す低周波成分の高さを図11(b)に示すように変化させ、シボの高さを低くする。このとき、修正部14は、低周波成分Sの変化に追従するように、高周波成分S´を変化させる。これにより、ユーザは3次元テクスチャの微調整を行うことができ、シボの高さを所望するサイズに変更することができる。 When the input unit 30 receives an operation command for dragging the point P1 and the point P2 on the low frequency component S shown in FIG. 11A to the point P1 ′ and the point P2 ′ shown in FIG. Depending on the drag amount, the height of the low-frequency component shown in FIG. 11A is changed as shown in FIG. 11B to reduce the height of the wrinkles. At this time, the correction unit 14 changes the high frequency component S ′ so as to follow the change of the low frequency component S. As a result, the user can finely adjust the three-dimensional texture and change the height of the texture to a desired size.
図7に示すステップS27において、入力部30がユーザからの操作指令を受付けない場合(S27でNO)、処理が終了される。 In step S27 shown in FIG. 7, when the input unit 30 does not accept an operation command from the user (NO in S27), the process is terminated.
図12〜図15は、本テクスチャ生成装置により生成された3次元テクスチャを、自動車のダッシュボードにバンプマッピングして、自動車のインテリアの仮想3次元モデルをレンダリングしたときのレンダリング結果を示す図面である。図12〜図15に示すように、本テクスチャ生成装置により生成された3次元モデルを用いてレンダリングすることで、ダッシュボード表面の質感がリアルに再現されていることが分かる。 FIGS. 12 to 15 are drawings showing rendering results when the virtual three-dimensional model of the interior of the automobile is rendered by bump mapping the three-dimensional texture generated by the texture generating apparatus onto the dashboard of the automobile. . As shown in FIGS. 12 to 15, it is understood that the texture of the dashboard surface is realistically reproduced by rendering using the three-dimensional model generated by the texture generation apparatus.
以上説明したように、実施の形態2によるテクスチャ生成装置によれば、実施の形態1と同様の作用効果を奏することができることに加え、シボテクスチャを用いて各サンプル点Pに対してZ成分にオフセットが設定されるため、シボの形状をよりリアルに再現する3次元テクスチャを得ることができる。 As described above, according to the texture generating device according to the second embodiment, in addition to being able to achieve the same operational effects as those of the first embodiment, the texture component is used for the Z component for each sample point P. Since the offset is set, it is possible to obtain a three-dimensional texture that more realistically reproduces the texture shape.
なお、本発明は以下の態様を採用してもよい。 The present invention may adopt the following aspects.
(1)図2、図7に示すフローチャートのステップS3、S24において、算出された各サンプル点Pの法線ベクトルnが正規分布に従うように法線ベクトルnを修正する、又は1/fゆらぎに従うように修正し、修正した法線ベクトルnを用いてステップS4、S25以降の処理を行い、3次元テクスチャを生成してもよい。更に、法線ベクトルnを修正することなしに算出した3次元テクスチャと、正規分布に従うように修正された法線ベクトルnを用いて算出された3次元テクスチャと、1/fゆらぎに従うように修正された
法線ベクトルnを用いて算出された3次元テクスチャとを並行して算出し、図8に示すサブフレームSFに一覧表示し、レンダリングする際、これらの3次元テクスチャをユーザに選択させるようにしてもよい。
(1) In steps S3 and S24 of the flowcharts shown in FIGS. 2 and 7, the normal vector n is corrected so that the calculated normal vector n of each sample point P follows a normal distribution, or 1 / f fluctuation is followed. The three-dimensional texture may be generated by performing the processes in steps S4 and S25 using the corrected normal vector n. Furthermore, the three-dimensional texture calculated without correcting the normal vector n, the three-dimensional texture calculated using the normal vector n modified to follow the normal distribution, and the one-f fluctuation are corrected. The three-dimensional textures calculated using the normal vector n are calculated in parallel, displayed in a list in the subframe SF shown in FIG. 8, and are made to be selected by the user when rendering. It may be.
(2)実施の形態2では、各サンプル点Pに与えるオフセット値としてシボを例示したがこれに限定されず、シボ以外の立体形状をオフセット値として与えても良い。また、設定したオフセット値をユーザが入力部30を操作して任意に調整できるようにしてもよい。 (2) In Embodiment 2, the emboss is exemplified as the offset value to be given to each sample point P. However, the present invention is not limited to this, and a solid shape other than the emboss may be given as the offset value. The set offset value may be arbitrarily adjusted by the user operating the input unit 30.
10 処理部
11 正反射方向算出部
12 法線ベクトル算出部
13 凹凸情報算出部
14 修正部
15 表示制御部
16 レンダリング処理部
20 記憶部
21 BRDF記憶部
22 テクスチャ記憶部
23 3次元モデル記憶部
24 シボテクスチャ記憶部
30 入力部
40 表示部
50 BRDF取得装置
DESCRIPTION OF SYMBOLS 10 Processing part 11 Regular reflection direction calculation part 12 Normal vector calculation part 13 Concave / convex information calculation part 14 Correction part 15 Display control part 16 Rendering process part 20 Storage part 21 BRDF storage part 22 Texture storage part 23 3D model storage part 24 Texture storage unit 30 Input unit 40 Display unit 50 BRDF acquisition device
Claims (8)
前記物体の双方向反射率分布関数を取得する取得手段と、
前記取得手段により取得された双方向反射率分布関数を基に、三次元テクスチャを生成する生成手段としてコンピュータを機能させることを特徴とするテクスチャ生成プログラム。 A texture generation program for generating a three-dimensional texture representing unevenness information on an object surface,
Obtaining means for obtaining a bidirectional reflectance distribution function of the object;
A texture generation program that causes a computer to function as a generation unit that generates a three-dimensional texture based on the bidirectional reflectance distribution function acquired by the acquisition unit.
複数のサンプル点を仮想3次元空間内に配置し、配置した各サンプル点に対して仮想光源から照射される光の正反射方向を、前記双方向反射率分布関数を用いて算出する正反射方向算出手段と、
前記正反射方向算出手段により算出された光の正反射方向と仮想光源からの光の入射方向とから各サンプル点の法線ベクトルを算出する法線ベクトル算出手段と、
前記法線ベクトル算出手段により算出された法線ベクトルを基に、各サンプル点の凹凸情報を算出する凹凸情報算出手段とを備えることを特徴とする請求項1記載のテクスチャ生成プログラム。 The generating means includes
A regular reflection direction in which a plurality of sample points are arranged in a virtual three-dimensional space, and a regular reflection direction of light emitted from the virtual light source to each of the arranged sample points is calculated using the bidirectional reflectance distribution function A calculation means;
Normal vector calculation means for calculating a normal vector of each sample point from the regular reflection direction of light calculated by the regular reflection direction calculation means and the incident direction of light from the virtual light source;
The texture generating program according to claim 1, further comprising unevenness information calculating means for calculating unevenness information of each sample point based on the normal vector calculated by the normal vector calculating means.
前記凹凸情報算出手段は、前記確率密度関数により修正された法線ベクトル用いて、各サンプル点の凹凸情報を算出することを特徴とする請求項2又は3記載のテクスチャ生成プログラム。 The normal vector calculation means corrects by giving variation so that the direction of the normal vector of each sample point follows a predetermined probability density function,
The texture generation program according to claim 2 or 3, wherein the unevenness information calculating means calculates unevenness information of each sample point using a normal vector corrected by the probability density function.
前記凹凸情報算出手段により算出された複数の三次元テクスチャをユーザに提示し、提示した三次元テクスチャのうちいずれかの三次元テクスチャを選択するユーザからの指令を受付ける提示手段としてコンピュータを更に機能させることを特徴とする請求項4記載のテクスチャ生成プログラム。 The concavo-convex information calculating means is calculated using a three-dimensional texture composed of concavo-convex information calculated using a normal vector not corrected by the probability density function and a normal vector corrected by the probability density function. Calculated 3D texture composed of the uneven information,
The computer is caused to further function as a presentation unit that presents a plurality of three-dimensional textures calculated by the unevenness information calculation unit to the user and receives a command from the user that selects any one of the presented three-dimensional textures. The texture generation program according to claim 4, wherein:
前記物体の双方向反射率分布関数を取得する取得手段と、
前記取得手段により取得された双方向反射率分布関数を基に、三次元テクスチャを生成する生成手段とを備えることを特徴とするテクスチャ生成装置。 A texture generation device for generating a three-dimensional texture representing the structure of an object surface,
Obtaining means for obtaining a bidirectional reflectance distribution function of the object;
A texture generating apparatus comprising: generating means for generating a three-dimensional texture based on the bidirectional reflectance distribution function acquired by the acquiring means.
前記物体の双方向反射率分布関数を取得する取得ステップと、
前記取得ステップにより取得された双方向反射率分布関数を基に、三次元テクスチャを生成する生成ステップとを備えることを特徴とするテクスチャ生成方法。 A texture generation method in which a computer generates a three-dimensional texture representing a structure of an object surface,
Obtaining a bidirectional reflectance distribution function of the object;
A texture generation method comprising: a generation step of generating a three-dimensional texture based on the bidirectional reflectance distribution function acquired in the acquisition step.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006077562A JP2007257079A (en) | 2006-03-20 | 2006-03-20 | Texture generation program, texture generation device, and texture generation method |
PCT/JP2007/053793 WO2007108288A1 (en) | 2006-03-20 | 2007-02-28 | Texture producing program, texture producing apparatus, and texture producing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006077562A JP2007257079A (en) | 2006-03-20 | 2006-03-20 | Texture generation program, texture generation device, and texture generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007257079A true JP2007257079A (en) | 2007-10-04 |
Family
ID=38522323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006077562A Pending JP2007257079A (en) | 2006-03-20 | 2006-03-20 | Texture generation program, texture generation device, and texture generation method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2007257079A (en) |
WO (1) | WO2007108288A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012212424A (en) * | 2011-03-30 | 2012-11-01 | Crf Soc Consortile Per Azioni | Method for determining bidirectional reflectance distribution function (brdf) of surface |
JP2017001224A (en) * | 2015-06-08 | 2017-01-05 | キヤノン株式会社 | Configuration data generation apparatus and configuration data generation method |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013221415A1 (en) | 2013-10-22 | 2015-04-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method and device for detecting an object |
JP6950544B2 (en) * | 2018-01-17 | 2021-10-13 | トヨタ自動車株式会社 | Simulation equipment, reflection characteristic estimation method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3704734B2 (en) * | 1994-01-26 | 2005-10-12 | 株式会社日立製作所 | Texture mapping method and apparatus |
JP3035571B2 (en) * | 1997-12-22 | 2000-04-24 | 株式会社島精機製作所 | Image processing device |
US6765573B2 (en) * | 2000-10-26 | 2004-07-20 | Square Enix Co., Ltd. | Surface shading using stored texture map based on bidirectional reflectance distribution function |
JP2003036449A (en) * | 2001-07-25 | 2003-02-07 | Burein:Kk | Method for automatically generating map data for three- dimensional image generation of textile product and method for generating three-dimensional simulation image of textile product |
-
2006
- 2006-03-20 JP JP2006077562A patent/JP2007257079A/en active Pending
-
2007
- 2007-02-28 WO PCT/JP2007/053793 patent/WO2007108288A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012212424A (en) * | 2011-03-30 | 2012-11-01 | Crf Soc Consortile Per Azioni | Method for determining bidirectional reflectance distribution function (brdf) of surface |
JP2017001224A (en) * | 2015-06-08 | 2017-01-05 | キヤノン株式会社 | Configuration data generation apparatus and configuration data generation method |
Also Published As
Publication number | Publication date |
---|---|
WO2007108288A1 (en) | 2007-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6474995B2 (en) | Slice data creation device, slice data creation method, program, and computer-readable recording medium | |
JP4808600B2 (en) | Rendering program, rendering apparatus, and rendering method | |
US8711150B2 (en) | Methods and apparatus for deactivating internal constraint curves when inflating an N-sided patch | |
US5892691A (en) | Method, apparatus, and software product for generating weighted deformations for geometric models | |
JP2009042811A (en) | Three-dimensional shape development device, three-dimensional shape development method, and program for three-dimensional shape development | |
JP2011048586A (en) | Image processing apparatus, image processing method and program | |
KR20180105797A (en) | Method and apparatus for generating 3d printing data | |
US20170186221A1 (en) | Multiple light source simulation in computer graphics | |
JP2012190428A (en) | Stereoscopic image visual effect processing method | |
US20120173206A1 (en) | Method of simulating illuminated environment for off-line programming | |
JP2007257079A (en) | Texture generation program, texture generation device, and texture generation method | |
US20040056859A1 (en) | Image generating method, storage medium, image generating apparatus, data signal and program | |
JP2008117113A (en) | Image forming device and method, and image forming program | |
JP6252691B2 (en) | Face material pattern finish simulation apparatus and face material pattern finish simulation method | |
US9317967B1 (en) | Deformation of surface objects | |
JP4736304B2 (en) | Dynamic perspective distortion evaluation method for transparent body and three-dimensional shape design support method for transparent body | |
JPH08123835A (en) | Shape design support device | |
JP2007256240A (en) | Surface distortion defect inspection device, inspection method, and computer program | |
JP6672845B2 (en) | Surface material pattern finish simulation system and surface material pattern finish simulation method | |
WO2007004448A1 (en) | Pattern embedding program, pattern embedding device, and pattern embedding method | |
CN118334227B (en) | Visual texture mapping method and system based on three-dimensional engine | |
JPH0749965A (en) | Shape production supporting method and device therefor | |
JP2002092639A (en) | Method and device for forming animation representing particle behavior | |
Sakamoto et al. | A stochastic approach for rendering multiple irregular volumes | |
JP4799436B2 (en) | Electromagnetic analysis apparatus and program thereof |