JP4764963B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4764963B2 JP4764963B2 JP2004212790A JP2004212790A JP4764963B2 JP 4764963 B2 JP4764963 B2 JP 4764963B2 JP 2004212790 A JP2004212790 A JP 2004212790A JP 2004212790 A JP2004212790 A JP 2004212790A JP 4764963 B2 JP4764963 B2 JP 4764963B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- reflection component
- model
- specular reflection
- diffuse reflection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像処理装置に関し、特に、被写体の反射特性をより忠実に表現する画像処理装置に関するものである。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that more accurately expresses reflection characteristics of a subject.
近年、コンピュータグラフィックス(CG)の分野では、実世界に於ける物理現象や光学現象を忠実に再現するフォトリアリステックの追求が注目を集めている。この技術は、テレビや映画、ゲームなどの様々な分野に応用可能である。この技術の応用方法として、実在する物体をCGによって忠実にモデル化しようとする方法がある。例えば、歴史的に貴重な対象を精密に計測してデジタルアーカイブとして半永久的に保存したり、美術館や博物館に収蔵されている展示品をデジタル化し、バーチャルミュージアムとしてWEB上で公開することが考えられている。 In recent years, in the field of computer graphics (CG), the pursuit of photorealistic technology that faithfully reproduces physical and optical phenomena in the real world has attracted attention. This technology can be applied to various fields such as television, movies and games. As an application method of this technique, there is a method of faithfully modeling an actual object by CG. For example, it may be possible to measure historically valuable objects precisely and store them semi-permanently as digital archives, or digitize exhibits stored in museums and museums and publish them on the WEB as virtual museums. ing.
CGによって実物体を表現する際は、物体表面の反射特性は重要な役割を果たす。この反射特性を物理的・幾何学的な法則の基づいてモデル化したものが反射モデルである。この反射モデルは、物理現象を忠実にモデル化したものから、低計算コストを重視したものまで、用途に応じて様々なものが開発されている。反射モデルによる表現力は、CGによって実物体を再現するための重要な役割を果たしている。 When a real object is represented by CG, the reflection characteristics of the object surface play an important role. A reflection model is a model in which this reflection characteristic is modeled based on physical and geometrical laws. Various reflection models have been developed depending on the application, from models that faithfully model physical phenomena to models that emphasize low calculation costs. The expressive power by the reflection model plays an important role for reproducing a real object by CG.
更に、反射モデルのパラメータの設定によっては物体の質感は大きく変化するため、実物体をCGにて表現するためには、反射モデルのパラメータの設定が必要である。このパラメータを、少数の実写画像から推定する方法が提案されている(下記非特許文献1を参照)。 Furthermore, since the texture of the object varies greatly depending on the parameter setting of the reflection model, it is necessary to set the parameter of the reflection model in order to represent the real object in CG. A method for estimating this parameter from a small number of actually captured images has been proposed (see Non-Patent Document 1 below).
また、画像から反射特性パラメータを推定するのではなく、他の推定方法も提案されている。例えば、材質のサンプルを撮影した画像を、直接反射特性を表したデータとして用いることで、物体表面に忠実な表現を行う方法も提案されている(下記非特許文献2を参照)。
しかしながら、上記した非特許文献1記載の技術では、実物体の表面に於ける微細な凹凸が考慮されていなかった。このことから、CGで表現される実物体の表面の質感を忠実に表現することが困難であった。 However, in the technique described in Non-Patent Document 1, fine unevenness on the surface of the real object is not taken into consideration. For this reason, it has been difficult to faithfully express the texture of the surface of the real object expressed in CG.
更に、上記した非特許文献2記載の発明では、被写体の材質に応じてサンプルを用意して反射特性のパラメータを計測する必要がある。従って、パラメータの取得に費用と時間が掛かる問題があった。更には、サンプルを取得していない材質の被写体に対応できない問題があった。 Furthermore, in the above-described invention described in Non-Patent Document 2, it is necessary to prepare a sample according to the material of the subject and measure the parameter of the reflection characteristic. Therefore, there has been a problem that it takes cost and time to obtain parameters. Furthermore, there is a problem that it is not possible to deal with a subject made of a material for which a sample has not been acquired.
更にまた、物体表面の質感を高度に表現可能な他のモデルも提案されている。しかしながら、これらのモデルは、決定すべきパラメータの数が多すぎる、計算コストが高い等の諸問題を有していた。 Furthermore, other models capable of highly expressing the texture of the object surface have been proposed. However, these models have various problems such as too many parameters to be determined and high calculation cost.
本発明は、上記問題を鑑みて成されたものである。本発明の目的の一つは、被写体の表面の微細な凹凸を忠実に表現することができる画像処理装置を提供することにある。 The present invention has been made in view of the above problems. One object of the present invention is to provide an image processing apparatus capable of faithfully expressing fine irregularities on the surface of a subject.
本発明の画像処理装置は、物体を撮影した実写画像から鏡面反射成分の実測値を分離する分離手段と、前記鏡面反射成分の推定値を算出する推定手段と、前記鏡面反射成分の実測値と推定値との差に基づいて鏡面反射モデルのパラメータを算出する算出手段と、前記パラメータを使用する前記鏡面反射モデルにより、鏡面反射成分を含む画像を生成する生成手段と、を具備し、前記生成手段は、前記実測値と推定値との差に基づいて、バンプマッピングを行うことを特徴とする。
The image processing apparatus of the present invention includes a separating unit that separates an actual value of a specular reflection component from a real image obtained by photographing an object, an estimation unit that calculates an estimated value of the specular reflection component, and an actual value of the specular reflection component. A calculation unit that calculates a parameter of the specular reflection model based on a difference from the estimated value; and a generation unit that generates an image including a specular reflection component by the specular reflection model using the parameter , the generation The means is characterized in that bump mapping is performed based on a difference between the measured value and the estimated value .
本発明に依れば、鏡面反射成分を推定するモデルが、複数の粗さパラメータを有することから、より実際の物体に近い光沢点を有する画像を得ることができる。更に、拡散反射成分についても、三角関数をべき乗するパラメータを有するので、実画像に近い生成結果を得ることができる。 According to the present invention, since the model for estimating the specular reflection component has a plurality of roughness parameters, an image having a gloss point closer to an actual object can be obtained. Furthermore, since the diffuse reflection component also has a parameter that raises the power of the trigonometric function, a generation result close to a real image can be obtained.
更に、本発明に依れば、物体表面における微細な凹凸が反映された光沢点を含む画像が生成される。従って、質の高いコンピュータグラフィックスを得ることができる。更に、入力された実写画像から、鏡面反射成分モデルおよび拡散反射成分モデルのパラメータを算出している。従って、実際の被写体の表面形状がより正確に反映された画像処理を行うことができる。 Further, according to the present invention, an image including a gloss point reflecting fine irregularities on the object surface is generated. Therefore, high-quality computer graphics can be obtained. Further, parameters of the specular reflection component model and the diffuse reflection component model are calculated from the inputted real image. Therefore, it is possible to perform image processing in which the actual surface shape of the subject is reflected more accurately.
<第1の実施の形態>
本形態では、図1を参照して、本形態の画像処理装置10の基本的な構成を説明する。本発明の画像処理装置10は、バス17により互いが接続された各部から構成されている。そして、演算部11を中心とする各部が動作することにより、画像処理を行うことができる。
<First embodiment>
In this embodiment, a basic configuration of the image processing apparatus 10 of this embodiment will be described with reference to FIG. The image processing apparatus 10 according to the present invention is composed of parts connected to each other by a
演算部11は、半導体集積回路であり、所定のプログラムに従って演算が行えるように回路が形成されている。本形態では、この演算部11が所定の計算を行うことにより、画像の処理が行われている。 The calculation unit 11 is a semiconductor integrated circuit, and a circuit is formed so that calculation can be performed according to a predetermined program. In this embodiment, image processing is performed by the calculation unit 11 performing a predetermined calculation.
記憶部12は、半導体メモリ、ハードディスク等の記憶媒体である。この記憶部12には、演算部11を動作させるためのプログラム、被写体の3次元形状データ、暫定的に記憶される画像データ、各種パラメータ等の情報が保存されている。
The
入力部13は、画像処理装置10に対して情報を入力するためのデバイスである。例えば、キーボード、マウス等のデバイスが入力部13を構成している。
The
外部インターフェース14は、例えばUSB(Universal Serial Bus)であり、カメラ15から画像データを取り込む機能を有する。取り込まれた画像データは、記憶部12に保存される。
The
カメラ15は、例えばデジタルカメラ等であり、CCD等の撮像素子によりデジタル化された画像データを得る。
The
表示部16は、例えば液晶ディスプレイ等であり、カメラ15により撮影された画像データや、演算部11により生成された画像データを表示する機能を有する。
The
上記のように構成される画像処理装置10により、カメラ15により画像データを撮影し、この画像データを基に演算部11により演算を行い、生成された新たな画像データを表示部16に表示させている。更に画像処理装置10は、入力された撮影画像から、物体表面の粗さに関連したパラメータを推定する。また、得られたパラメータを用いてレンダリングを行っている。これらの詳細な処理方法については後述する。
The image processing apparatus 10 configured as described above captures image data with the
<第2の実施の形態>
本形態では、図2から図4を参照して、反射特性のモデル化の概要を説明する。本発明では、対象とする物体は、物体表面における反射が拡散反射と鏡面反射で表現できると仮定する。ここで、鏡面反射成分とは物体表面に現れるハイライトであり、光源が映り込むことによって生じる輝度値の高い領域である。また、この成分は表面から特定の方向に向かって反射する性質を持っている。拡散反射成分とは、表面の非常に細かい凹凸と内部反射によって光が全方向に散乱される反射であり、表面の色成分を表している。更に、物体表面には微細な凹凸があるものとする。
<Second Embodiment>
In this embodiment, an outline of modeling of reflection characteristics will be described with reference to FIGS. In the present invention, it is assumed that the reflection of the object surface can be expressed by diffuse reflection and specular reflection. Here, the specular reflection component is a highlight that appears on the surface of the object, and is a region having a high luminance value caused by the reflection of the light source. Further, this component has a property of reflecting from the surface toward a specific direction. The diffuse reflection component is a reflection in which light is scattered in all directions due to very fine irregularities on the surface and internal reflection, and represents a color component on the surface. Further, it is assumed that the object surface has fine irregularities.
図2を参照して、先ず、拡散反射モデルについて説明する。図2(A)は石膏の外観図であり、図2(B)は拡散反射成分の分布を示すグラフである。 First, the diffuse reflection model will be described with reference to FIG. FIG. 2A is an external view of gypsum, and FIG. 2B is a graph showing the distribution of diffuse reflection components.
本発明では、拡散反射モデルとして下記数1に示すようなLambertモデルを考える。Lambertモデルは、物体表面に於ける拡散反射を記述したモデルとして、長年にわたりコンピュータグラフィックスやコンピュータビジョン等の分野にて用いられている。しかしながら、完全拡散反射と考えられている石膏のような物体においても、実際にはLambertモデルではないことが判明している。 In the present invention, a Lambert model as shown in the following equation 1 is considered as a diffuse reflection model. The Lambert model has been used for many years in the fields of computer graphics and computer vision as a model describing diffuse reflection on the surface of an object. However, it has been found that an object such as gypsum, which is considered to be completely diffuse reflection, is not actually a Lambert model.
図2(B)のグラフは、図2(A)の横線で示されたスキャンラインの輝度値をプロットしたものである。一般に石膏はLambertモデルに合致した材質であるとされているが、実際に撮影した拡散反射とLambertモデルとの聞には差が有ることが確認できる。実際の拡散反射は、光源方向と面の法線とのなす角が小さい領域ではLambertモデルよりも緩やかに減衰する。また、光源方向と面の法線とのなす角が大きい領域においては、実際の拡散反射は、急激に減衰している。即ち、上記数1では、拡散反射を忠実に表現することが難しい。 The graph in FIG. 2B is a plot of the luminance values of the scan lines indicated by the horizontal lines in FIG. In general, gypsum is considered to be a material that matches the Lambert model, but it can be confirmed that there is a difference between the diffuse reflection actually taken and the Lambert model. Actual diffuse reflection attenuates more slowly than the Lambert model in a region where the angle between the light source direction and the surface normal is small. In the region where the angle formed by the light source direction and the surface normal is large, the actual diffuse reflection is rapidly attenuated. That is, in the above formula 1, it is difficult to faithfully express diffuse reflection.
そこで本発明では、下記数2に示すように、Lambertモデルにおけるcos(三角関数)の項を累乗するパラメータを加えることによって、その減衰の割合を変化させるモデルを開発した。以下の説明では、このモデルを拡張ランバートモデルと呼ぶ場合もある。 Therefore, in the present invention, as shown in the following Equation 2, a model has been developed in which the attenuation ratio is changed by adding a parameter that raises the term of cos (trigonometric function) in the Lambert model. In the following description, this model may be referred to as an extended Lambert model.
図3および図4を参照して、鏡面反射モデルに関して説明する。 The specular reflection model will be described with reference to FIGS.
図3を参照して、Torrance-Sparrowモデルについて説明する。図3(A)は光源方向等の各ベクトルの向きを示し、図3(B)は球形物体の実写画像であり、図3(C)は鏡面反射成分の分布を示すグラフである。 The Torrance-Sparrow model will be described with reference to FIG. 3A shows the direction of each vector such as the light source direction, FIG. 3B is a real image of a spherical object, and FIG. 3C is a graph showing the distribution of specular reflection components.
Torrance-Sparrowモデルは、金属などの実物体の表面での反射を表現可能なため、よく使用されている。しかし、このモデルにはパラメータが多数存在するため、全てのパラメータを実画像のみから推定することは困難である。図3(A)に示すように、光源方向ベクトルLと視線方向ベクトルVとの中間を示す中間点ベクトルをHとすると、Torrance-Sparrowモデルにおける鏡面反射成分Isは下記数3によって表される。 The Torrance-Sparrow model is often used because it can express reflections on the surface of real objects such as metal. However, since there are many parameters in this model, it is difficult to estimate all the parameters from only the actual image. As shown in FIG. 3A, when the intermediate point vector indicating the intermediate between the light source direction vector L and the line-of-sight direction vector V is H, the specular reflection component Is in the Torrance-Sparrow model is expressed by the following equation (3).
実物体での反射を観測すると、図3(B)のような金属色で塗装した物体表面における鏡面反射成分の分布は図3(C)のようになる。図3(C)では、縦軸は鏡面反射成分の輝度値を、横軸は中間ベクトルと物体表面の法線とのなす角を表している。このグラフからも分かるように、中間ベクトルと物体表面の法線とのなす角が大きい領域において、鏡面反射成分の減衰が単純な正規分布関数に比べ緩やかに分布している。従って、単純な正規分布関数による反射モデルでは金属等の特殊な表面材質を持つ物体の反射を忠実に再現することは困難である。 When the reflection on the real object is observed, the distribution of the specular reflection component on the surface of the object painted with a metal color as shown in FIG. 3B is as shown in FIG. In FIG. 3C, the vertical axis represents the luminance value of the specular reflection component, and the horizontal axis represents the angle formed by the intermediate vector and the normal of the object surface. As can be seen from this graph, in the region where the angle formed by the intermediate vector and the normal of the object surface is large, the attenuation of the specular reflection component is gently distributed compared to a simple normal distribution function. Therefore, it is difficult to faithfully reproduce the reflection of an object having a special surface material such as metal by a reflection model using a simple normal distribution function.
そこで、本発明では、マイクロファセット分布関数にパラメータを追加することで。より表現力の高いモデルヘ拡張する。図3(C)のような鏡面反射成分の分布は、異なるパラメータを持った複数の正規分布関数の和によって構成されていると考え、数5のようにマイクロファセット分布関数を変更した。 Therefore, in the present invention, by adding a parameter to the micro facet distribution function. Expand to a more expressive model. The distribution of the specular reflection component as shown in FIG. 3C is considered to be constituted by the sum of a plurality of normal distribution functions having different parameters, and the microfacet distribution function is changed as shown in Equation 5.
本発明では、ピクセルレベルでの凹凸を微細な凹凸とし、その特性に基づいてバンプモデルを定義する。ここでは物体表面に於ける微細な凹凸は、鏡面反射成分において顕著に表れることに注目して鏡面反射成分の推定曲線と観測データとの差を評価する。 In the present invention, the unevenness at the pixel level is defined as a fine unevenness, and the bump model is defined based on the characteristics. Here, the difference between the specular reflection component estimation curve and the observation data is evaluated by paying attention to the fact that fine unevenness on the object surface appears prominently in the specular reflection component.
図4(A)を参照して、この図に示す推定曲線は、上述した数6により得られたものである。この推定曲線は、鏡面反射成分と完全に一致することはなく、ある程度のばらつきを持って現れる。もし物体表面に微細な凹凸が存在しなければ、鏡面反射成分はモデル関数上からずれることなく分布するはずである。つまり、このばらつきは、鏡面反射成分が物体表面の微細な凹凸の影響により散乱しているために生じると考えることができる。 Referring to FIG. 4 (A), the estimated curve shown in this figure is obtained by the above-described equation (6). This estimated curve does not completely match the specular reflection component and appears with some variation. If there are no fine irregularities on the object surface, the specular reflection component should be distributed without deviating from the model function. That is, this variation can be considered to occur because the specular reflection component is scattered by the influence of fine irregularities on the object surface.
図4(B)を参照して、このグラフは、モデル関数曲線から観測値までの距離を図4(A)のように角度軸方向に計測し、その分布を調べたものである。このグラフの横軸は推定曲線と観測値との角度差β(radian)であり、縦軸は出現頻度である。得られたグラフはある角度をピークとして徐々に出現頻度が減少している。本発明では、この分布を正規分布であると仮定し、数7に示すモデル式を定義する。 Referring to FIG. 4B, this graph is obtained by measuring the distance from the model function curve to the observed value in the direction of the angle axis as shown in FIG. 4A and examining the distribution. The horizontal axis of this graph is the angle difference β (radian) between the estimated curve and the observed value, and the vertical axis is the appearance frequency. In the obtained graph, the appearance frequency gradually decreases with a certain angle as a peak. In the present invention, this distribution is assumed to be a normal distribution, and a model formula shown in Equation 7 is defined.
<第3の実施の形態>
本実施の形態では、具体的な画像の処理方法を説明する。即ち、入力された実写画像から各種パラメータを取得して、このパラメータを用いてレンダリングを行うまでの詳細を説明する。
<Third Embodiment>
In the present embodiment, a specific image processing method will be described. That is, the details of acquiring various parameters from the input real image and performing rendering using these parameters will be described.
先ず、図5を参照して具体的なプロセスを説明する。ステップS11では、カメラ位置・姿勢の特定を行う。ステップS12では、拡散反射成分画像の生成を行う。ステップS13では、鏡面反射成分の分離を行う。ステップS14では、鏡面反射色Ksの推定を行う。ステップS15では、光源半球の生成を行う。ステップS16では、鏡面反射に於ける表面の粗さパラメータσ1、σ2およびバンプモデルパラメータμ、υの推定を行う。ステップS17では、拡散反射指数nの推定を行う。ステップS18では、拡散反射画像の生成を行う。ステップS19では、拡散反射成分画像の統合とレンダリングを行う。これらのステップにより、入力された複数枚の実写画像から、反射モデルの各種パラメータを推定し、表面の質感が忠実に表現された画像を生成することができる。各ステップを以下にて詳述する。 First, a specific process will be described with reference to FIG. In step S11, the camera position / orientation is specified. In step S12, a diffuse reflection component image is generated. In step S13, the specular reflection component is separated. In step S14, specular reflection color Ks is estimated. In step S15, a light source hemisphere is generated. In step S16, surface roughness parameters σ1 and σ2 and bump model parameters μ and υ in specular reflection are estimated. In step S17, the diffuse reflection index n is estimated. In step S18, a diffuse reflection image is generated. In step S19, the diffuse reflection component image is integrated and rendered. By these steps, various parameters of the reflection model can be estimated from a plurality of inputted real images, and an image in which the texture of the surface is expressed faithfully can be generated. Each step is described in detail below.
ステップS11:図6参照
このステップでは、カメラ位置と姿勢の特定を行う。図6(A)は3次元座標が画像に投影される様子を示す図である。図6(B)は物体を撮影して実写画像を得る状態を示す図である。図6(C)は撮影された実写画像の例である。図6(D)は実写画像の3次元データを示す図である。
Step S11: See FIG. 6 In this step, the camera position and orientation are specified. FIG. 6A is a diagram illustrating a state in which three-dimensional coordinates are projected on an image. FIG. 6B is a diagram illustrating a state in which an actual image is obtained by photographing an object. FIG. 6C is an example of a photographed photographed image. FIG. 6D is a diagram showing three-dimensional data of a photographed image.
本発明では、より柔軟な撮影環境を実現するために撮影時のカメラ位置を固定としていない。従って、前もってその位置・姿勢の特定を行う必要がある。対象物体の3次元形状と撮影時におけるカメラの焦点距離は既知としている。従って、撮影画像と3次元形状の投影像が一致すれば、その投影位置・姿勢が撮影時におけるカメラの位置・姿勢として扱うことができる。ここでは、仮想空間中で3次元形状を回転・平行移動させることによってその3次元形状と撮影画像の位置合わせを行う。位置合わせに必要なパラメータとしては、並進成分(tx、ty、tz)と回転成分(roll、pitch、yaw)の6パラメータとなる。このようにしてカメラの位置・姿勢が特定できれば、撮影画像中の各画素に対応する3次元座標を求めることができる。画像上の点Ui=〔xi yi〕Tに対応する3次元座標pi=〔Xi Yi Zi〕Tは、下記数8により求められる。 In the present invention, the camera position at the time of shooting is not fixed in order to realize a more flexible shooting environment. Therefore, it is necessary to specify the position and orientation in advance. The three-dimensional shape of the target object and the focal length of the camera at the time of shooting are known. Therefore, if the captured image matches the three-dimensional projected image, the projection position / posture can be handled as the position / posture of the camera at the time of photographing. Here, the three-dimensional shape and the captured image are aligned by rotating and translating the three-dimensional shape in the virtual space. As parameters necessary for alignment, there are six parameters including a translation component (tx, ty, tz) and a rotation component (roll, pitch, yaw). If the position / orientation of the camera can be specified in this way, three-dimensional coordinates corresponding to each pixel in the captured image can be obtained. The three-dimensional coordinates p i = [X i Y i Z i ] T corresponding to the point U i = [x i y i ] T on the image are obtained by the following equation (8).
ステップS12:図7(A)参照
このステップでは、実写画像から反射成分を分離させる。本発明では鏡面・拡散反射成分をそれぞれ個別に解析するため、両成分の分離を行う必要がある。そのために拡散反射成分のみから構成される画像を生成する。物体表面に於ける光の反射が上述した拡散反射モデルに従うとすると、物体表面上の任意の1点における拡散反射成分は同一光源環境下では視点位置の変化に関わらず常に同じ輝度値として画像中に現れる。このことを利用して、同一光源環境下でカメラ位置を移動させながら撮影した複数枚の画像から、拡散反射成分のみから成る画像を生成する。
Step S12: See FIG. 7A In this step, the reflection component is separated from the photographed image. In the present invention, since the specular and diffuse reflection components are separately analyzed, it is necessary to separate both components. Therefore, an image composed only of the diffuse reflection component is generated. If the reflection of light on the object surface follows the diffuse reflection model described above, the diffuse reflection component at any one point on the object surface will always be the same luminance value in the image regardless of changes in the viewpoint position under the same light source environment. Appear in By utilizing this fact, an image composed of only the diffuse reflection component is generated from a plurality of images taken while moving the camera position under the same light source environment.
まず、撮影した画像の中から基準となる画像を1枚決め、その画像中の物体表面における3次元座標を取得する。3次元座標は、対象物体の3次元形状・カメラの撮影位置と内部パラメータは既知であるため、透視投影変換により求めることができる。次に、得られた3次元座標と対応する残りの画像における画像座標を求め、その輝度値Iを下記数11により計算する。 First, one reference image is determined from the captured images, and three-dimensional coordinates on the object surface in the image are acquired. The three-dimensional coordinates can be obtained by perspective projection conversion because the three-dimensional shape of the target object, the shooting position of the camera, and the internal parameters are known. Next, image coordinates in the remaining image corresponding to the obtained three-dimensional coordinates are obtained, and the luminance value I is calculated by the following equation (11).
図7(A)は、上記処理を示すフローチャートである。ステップS51では、基準画素中に於ける各画像の処理が終了しているか否かの判断を行う。終了している場合(ステップS51のYES)は、処理が終了する。終了していない場合(ステップS51のNO)は、ステップS52に移行する。 FIG. 7A is a flowchart showing the above process. In step S51, it is determined whether or not the processing of each image in the reference pixel has been completed. If it has been completed (YES in step S51), the process ends. If not completed (NO in step S51), the process proceeds to step S52.
そして、注目画像の3次元座標(Xatt、Yatt、Zatt)を取得し(ステップS52)、注目画像の輝度値を計算する(ステップS53)。その後、ステップS54では、参照していない画像が存在するか否かの判断を行う。存在しない場合(ステップS54のNO)は、ステップS51に戻る。存在する場合(ステップS54のYES)は、ステップS55に移行する。 Then, the three-dimensional coordinates (X att , Y att , Z att ) of the target image are acquired (step S52), and the luminance value of the target image is calculated (step S53). Thereafter, in step S54, it is determined whether there is an image that is not referred to. If it does not exist (NO in step S54), the process returns to step S51. If it exists (YES in step S54), the process proceeds to step S55.
ステップS55では、3次元座標(Xatt、Yatt、Zatt)に於ける画像座標(u、v)を取得する。更にステップS56では、画像座標(u、v)における輝度値Iattを計算する。 In step S55, image coordinates (u, v) in three-dimensional coordinates (X att , Y att , Z att ) are acquired. In step S56, the luminance value I att at the image coordinates (u, v) is calculated.
ステップS57では、輝度値の比較をおこなう。具体的には、これまでのステップにて最低の値が代入されているIがIattよりも大きいか否かを判断する。小さい場合(ステップS57のYES)は、IattをIに代入する。大きい場合(ステップS57のNO)は、ステップS54に戻る。以上がフローチャートの説明である。
In step S57, luminance values are compared. Specifically, it is determined whether or not I to which the lowest value is substituted in the steps so far is larger than Iatt. If it is smaller (YES in step S57), Iatt is substituted for I. If larger (NO in step S57), the process returns to step S54. The above is the description of the flowchart.
ステップS13:図7(B)参照
このステップでは、鏡面反射成分の分離を行う。具体的には、図7(B)のように得られた拡散反射成分画像と撮影画像の差分を取ることによって鏡面反射成分の分離を行う。これにより得られた鏡面反射成分画像には、鏡面反射成分の他に、周囲環境の映り込みや相互反射による影響等が含まれている。しかしながら、物体表面における反射成分は鏡面反射と拡散反射のみから構成されると仮定しており、また映り込みや相互反射による影響は鏡面反射成分に比べ比較的小さいものであるため、ここでは単にノイズとして扱う。
Step S13: See FIG. 7B In this step, the specular reflection component is separated. Specifically, the specular reflection component is separated by taking the difference between the diffuse reflection component image obtained as shown in FIG. 7B and the captured image. The specular reflection component image obtained in this way includes, in addition to the specular reflection component, the influence of the reflection of the surrounding environment and mutual reflection. However, the reflection component on the object surface is assumed to consist of only specular reflection and diffuse reflection, and the influence of reflection and mutual reflection is relatively small compared to the specular reflection component. Treat as.
ステップS14
このステップでは、鏡面反射色Ksを推定する。具体的には、Torrance-Sparrowモデルでは物体表面における鏡面反射成分は光源の輝度値に比例する。そこで、本工程では鏡面反射成分画像中の各画素におけるRGB色ベクトルの平均値を求めることで物体における鏡面反射色Ksとする。
Step S14
In this step, the specular reflection color Ks is estimated. Specifically, in the Torrance-Sparrow model, the specular reflection component on the object surface is proportional to the luminance value of the light source. Therefore, in this step, the average value of the RGB color vectors in each pixel in the specular reflection component image is obtained to obtain the specular reflection color Ks in the object.
ステップS15:図8参照
このステップでは、光源半球を生成して、光源方向ベクトルを推定する。図8(A)は光源半球を示す模式図であり、図8(B)は光源半球の画像である。
Step S15: See FIG. 8 In this step, a light source hemisphere is generated and a light source direction vector is estimated. FIG. 8A is a schematic diagram showing a light source hemisphere, and FIG. 8B is an image of the light source hemisphere.
図8(A)を参照して、得られた鏡面反射成分画像から反射強度と光源方向を推定するために、物体を覆う半球を考え、これを光源半球とする。まず、物体上の点Sにおける法線ベクトルと視線方向ベクトルから下記する数12を用いて正反射ベクトルを計算する。 With reference to FIG. 8A, in order to estimate the reflection intensity and the light source direction from the obtained specular reflection component image, a hemisphere covering an object is considered, and this is set as a light source hemisphere. First, a regular reflection vector is calculated from the normal vector and the line-of-sight direction vector at the point S on the object using the following equation (12).
こうして得られた光源半球は、光源を中心とした同心円上に対応する鏡面反射成分が広がっていることがわかる。この鏡面反射成分の広がりは物体固有のものであり、表面が粗い物体は広く、また表面が滑らかな物体は1点に集中した光源半球が得られる。 In the light source hemisphere thus obtained, it can be seen that the corresponding specular reflection component spreads on a concentric circle centered on the light source. The spread of the specular reflection component is unique to the object, and an object with a rough surface is wide, and an object with a smooth surface provides a light source hemisphere concentrated at one point.
ステップS16:図4参照
このステップでは、鏡面反射に於けるパラメータを推定する。具体的には、先ず、表面の光沢点の広がりに関連するパラメータである粗さパラメータσ1、σ2を推定する。次に、バンプモデルのパラメータを推定する。
Step S16: See FIG. 4 In this step, parameters in specular reflection are estimated. Specifically, first, roughness parameters σ1 and σ2 that are parameters related to the spread of the gloss point on the surface are estimated. Next, the bump model parameters are estimated.
具体的には、図4(A)のグラフを参照して、統計学的手法により、輝度値の実測値と推定値との差が最小になるようなσ1およびσ2を求める。推定値の算出には、上記した数6を用いる。従って、下記する数13に示す最小二乗問題を解くことにより、σ1およびσ2が推定される。
Specifically, with reference to the graph of FIG. 4A, σ1 and σ2 are obtained by a statistical method so that the difference between the measured value and the estimated value of the luminance value is minimized. The above equation 6 is used to calculate the estimated value. Therefore, σ1 and σ2 are estimated by solving the least square problem shown in
続いて、バンプモデルのパラメータを推定する。具体的には、数7に示す式による推定値と、図4(B)に示す実測値とを最小にするパラメータを求める。即ち、以下の数14の最小2乗問題を解くことにより、σとμを推定した。このことにより、実際の輝度値のばらつきが反映されたバンプモデルのパラメータを得ることができる。
Subsequently, the bump model parameters are estimated. Specifically, a parameter that minimizes the estimated value based on the equation shown in Equation 7 and the actually measured value shown in FIG. That is, σ and μ were estimated by solving the following least squares problem of
υ:出現頻度が最大となる角度+(観測される最大の角度−出現頻度が最大となる角度)/2
μ:出現頻度が最大となる角度
m:最大の出現頻度
上記パラメータを得ることにより、被写体となる物体の質感を忠実に再現することが可能となる。例えば、表面に凹凸を有するミカンが被写体である場合を想定すると、上記パラメータの設定により、このミカンの表面のざらつきが忠実に反映されたCGを得ることができる。
υ: angle at which appearance frequency is maximum + (maximum observed angle−angle at which appearance frequency is maximum) / 2
μ: angle at which appearance frequency is maximum m: maximum appearance frequency By obtaining the above parameters, it is possible to faithfully reproduce the texture of an object that is a subject. For example, assuming that a mandarin orange having an uneven surface is an object, a CG that faithfully reflects the roughness of the mandarin orange surface can be obtained by setting the above parameters.
ステップS17:図9(A)参照
このステップでは、拡散反射パラメータを推定する。鏡面反射成分は比較的限られた領域でしか観測することができず、物体表面上のすべての点における鏡面反射成分を推定することは困難である。このため、本発明では対象物体は均一な鏡面反射パラメータを持つものとして扱った。これに対し、拡散反射成分は物体表面の色そのものを表したものであり、鏡面反射成分に比べ減衰する比率が低いため、広い領域において観測することが可能である。そこで本発明では、鏡面反射成分は物体表面上で均一であるとするが、拡散反射成分に関しては物体上の各頂点において異なる値をとるものとして推定を行う。従って、本ステップでは、拡散反射指数nを推定した後に、各頂点の拡散反射成分を個別に推定する。
Step S17: See FIG. 9A In this step, the diffuse reflection parameter is estimated. The specular reflection component can be observed only in a relatively limited region, and it is difficult to estimate the specular reflection component at all points on the object surface. For this reason, in the present invention, the target object is treated as having a uniform specular reflection parameter. On the other hand, the diffuse reflection component represents the color of the object surface itself, and since the attenuation ratio is lower than that of the specular reflection component, it can be observed in a wide area. Therefore, in the present invention, the specular reflection component is assumed to be uniform on the object surface, but the diffuse reflection component is estimated as having different values at each vertex on the object. Therefore, in this step, after estimating the diffuse reflection index n, the diffuse reflection component at each vertex is estimated individually.
先ず、拡張Lambertモデルを用いたパラメータ推定を行う。拡散反射成分画像の各ピクセルにおける輝度値を縦軸にそのピクセルと対応する3次元座標における法線ベクトルと光源方向ベクトルとのなす角を横軸にとると、その分布は図9(A)のように規則的な減衰を示す分布となる。この分布に数2をフィッティングすることで、拡散反射指数nを推定することができる。物体表面における拡散反射指数nは下記する数15の最小2乗問題を解くことによって得られる。
First, parameter estimation using the extended Lambert model is performed. When the luminance value in each pixel of the diffuse reflection component image is plotted on the vertical axis and the angle between the normal vector and the light source direction vector in the three-dimensional coordinates corresponding to that pixel is plotted on the horizontal axis, the distribution is as shown in FIG. Thus, the distribution shows regular attenuation. The diffuse reflection index n can be estimated by fitting Equation 2 to this distribution. The diffuse reflection index n on the object surface can be obtained by solving the following least squares problem of
次に、拡散反射色Kdを推定する。上述したステップS12で生成した拡散反射成分画像は、物体そのものの色、すなわち拡散反射色を、定義した拡張Lambertモデルにより減衰させたものであると考えられる。このことから、拡散反射成分画像の各ピクセルにおける拡散反射色Kdは、下記する数16によって求めることができる。 Next, the diffuse reflection color Kd is estimated. The diffuse reflection component image generated in step S12 described above is considered to be obtained by attenuating the color of the object itself, that is, the diffuse reflection color by the defined extended Lambert model. From this, the diffuse reflection color Kd in each pixel of the diffuse reflection component image can be obtained by the following equation (16).
ステップS18:図9(B)参照
本ステップでは、拡散反射成分画像を生成する。即ち、物体形状への拡散反射係数画像のマッピングを行う。具体的には、得られた拡散反射係数画像を対象物体の3次元形状にマッピングすることによって、物体表面全体に対して拡散反射成分を与える。ここでは、物体表面の各頂点に対して異なる拡散反射成分を付与する。対象となる物体表面上の頂点における拡散反射成分は前節で推定した拡散反射係数画像との対応をとることで付与できる。しかしながら、1枚の画像のみでは、自己隠蔽や影の影響により全ての物体表面上の全ての頂点における拡散反射成分を観測することはできない。そこで、物体を回転させて推定した複数枚の拡散反射成分画像を統合することによって、物体表面上の全ての頂点における拡散反射成分を取得する。対象とする拡散反射係数画像は複数枚存在するため、1つの頂点に複数の画像が与えられる場合が考えられる。このときの処理として、画像中の各ビクセルに対して各頂点の法線ベクトルと、画像の撮影時のカメラの視線方向に基づいて、下記する数17に示す評価値を与える。
Step S18: See FIG. 9B In this step, a diffuse reflection component image is generated. That is, the diffuse reflection coefficient image is mapped onto the object shape. Specifically, the diffuse reflection component is given to the entire object surface by mapping the obtained diffuse reflection coefficient image to the three-dimensional shape of the target object. Here, a different diffuse reflection component is given to each vertex of the object surface. The diffuse reflection component at the apex on the target object surface can be given by taking the correspondence with the diffuse reflection coefficient image estimated in the previous section. However, with only one image, it is not possible to observe diffuse reflection components at all vertices on all object surfaces due to the influence of self-hiding and shadows. Therefore, the diffuse reflection components at all vertices on the object surface are acquired by integrating a plurality of diffuse reflection component images estimated by rotating the object. Since there are a plurality of target diffuse reflection coefficient images, there may be a case where a plurality of images are given to one vertex. As processing at this time, an evaluation value shown in
このステップでは、推定された各種パラメータを用いて鏡面反射成分のレンダリングを行う。
先ず、図10を参照して、レンダリングの詳細を説明する。図10(A)はバンプマッピングを適用していない画像であり、図10(B)はマッピング画像であり、図10(C)はバンプマッピングが適用された画像である。 First, the details of rendering will be described with reference to FIG. 10A is an image to which bump mapping is not applied, FIG. 10B is a mapping image, and FIG. 10C is an image to which bump mapping is applied.
ここでは、上述ステップにて推定したバンプモデルパラメータを用いて鏡面反射成分のレンダリングを行うために、バンプマッピングを使用する。バンプマッピングは、物体表面における凹凸を物体の幾何形状に変更を加えずに表現する手法であり、頂点の持つ法線ベクトルに摂動を与えることによって凹凸を表現する。このマッピングは、頂点座標を直接に摂動させるのではないため、座標の再計算の必要がなく、計算量の削減にもつながる。バンプマッピングは基本的にテクスチャマッピングの技術を応用したものであり、図10(B)のように個別に用意したマップ画像に従って法線ベクトルに摂動を与える。この手法では、レンダリング時における各ピクセルに対して摂動を与えるため、シェーディングアルゴリズムには、頂点の法線補問を行うPhongシェーディングを用いる。 Here, bump mapping is used to render the specular reflection component using the bump model parameters estimated in the above step. Bump mapping is a technique for expressing unevenness on the object surface without changing the geometric shape of the object, and expresses unevenness by perturbing the normal vector of the vertex. Since this mapping does not directly perturb the vertex coordinates, there is no need to recalculate the coordinates, and the amount of calculation is reduced. Bump mapping is basically an application of texture mapping technology, and perturbs the normal vector according to a separately prepared map image as shown in FIG. In this method, since each pixel is perturbed during rendering, Phong shading that performs vertex normal interpolation is used as the shading algorithm.
具体的には、最初に、バンプマップ画像の生成において、各ピクセルにおける法線の振れ角(β、φ)を輝度値として与える。各ピクセルにおける法線に付与する摂動はこのβ、φによって決定される。 Specifically, first, in the generation of the bump map image, a normal deflection angle (β, φ) in each pixel is given as a luminance value. The perturbation to be applied to the normal line at each pixel is determined by β and φ.
図10(D)は法線への摂動の付与を示す模式図である。同図を参照して、上記した数7で推定されたバンブパラメータは、βにのみ影響を与え、φには関与しない。従って、βには、上述ステップにて推定した平均μ、分散υとなる正規分布乱数により発生させた値を与える。更に、φには一様乱数で発生させた値を与える。このことにより、図10(B)に示すバンプマッピングを得る。図10(D)に示す方向ベクトルを、長さが1の単位ベクトルとして表現すると、この単位ベクトルは、X方向、Y方向、Z方向に対して3つの要素を持つベクトルとして表現できる。図10(B)では、バンプ画像が白黒の画像として表現されているが、実際は、この3成分を可視化したカラーの画像となっている。上記したバンプ画像は、被写体である物体の表面に於ける凹凸が反映されている。 FIG. 10D is a schematic diagram showing perturbation imparted to the normal. Referring to the figure, the bump parameter estimated by Equation 7 described above affects only β and does not participate in φ. Therefore, β is given a value generated by a normally distributed random number having the average μ and variance υ estimated in the above step. Further, a value generated with a uniform random number is given to φ. As a result, the bump mapping shown in FIG. 10B is obtained. When the direction vector shown in FIG. 10D is expressed as a unit vector having a length of 1, this unit vector can be expressed as a vector having three elements with respect to the X direction, the Y direction, and the Z direction. In FIG. 10B, the bump image is expressed as a black and white image, but in reality, the image is a color image in which these three components are visualized. The bump image described above reflects unevenness on the surface of the object that is the subject.
次に、上記したバンプ画像を用いて、鏡面反射成分のレンダリングを行う。具体的には、本発明により開発されたモデルである数6を用いて、各画素の鏡面反射成分を算出する。この際には、上述ステップにて算出されたσ1およびσ2が適用される。これらのパラメータを適用させることにより、鏡面反射成分である光沢点の「広がり」を、物体に対して忠実に再現することができる。更に、バンプマッピングが適用されることにより、物体表面の「ざらつき」が忠実に再現されて画像を得る。 Next, the specular reflection component is rendered using the bump image. Specifically, the specular reflection component of each pixel is calculated using Equation 6, which is a model developed according to the present invention. In this case, σ1 and σ2 calculated in the above steps are applied. By applying these parameters, the “spread” of the gloss point, which is a specular reflection component, can be faithfully reproduced with respect to the object. Further, by applying the bump mapping, the “roughness” of the object surface is faithfully reproduced to obtain an image.
図10(A)は、バンプマッピングが適用されずにレンダリングが行われた結果の画像である。この図を参照して、光沢点は1つの中心から周辺部方向に均一に分散している。従って、表面に凹凸を有する物体が被写体である場合は、この図に示す画像は、物体表面の凹凸が再現されていない不自然な画像である。 FIG. 10A shows an image obtained as a result of rendering without applying bump mapping. Referring to this figure, the gloss points are uniformly distributed from one center to the periphery. Therefore, when an object having irregularities on the surface is a subject, the image shown in this figure is an unnatural image in which the irregularities on the object surface are not reproduced.
図10(C)は、バンプマッピングが適用されてレンダリングが行われた画像である。図10(A)の画像と比較すると、物体表面の凹凸を良く表現している。即ち、この図に示す画像は、物体の表面の凹凸をより高品質に表現している。 FIG. 10C shows an image rendered by applying bump mapping. Compared with the image of FIG. 10A, the unevenness of the object surface is well expressed. That is, the image shown in this figure expresses the unevenness of the surface of the object with higher quality.
次に、図10(E)を参照して、視点位置の移動や焦点距離の変化を行った場合について説明する。物体表面における微細な凹凸の大きさを本発明のモデルにより推定することは困難である。そこで、ここでは撮影時における凹凸の大きさを画像生成時の1ピクセルに相当すると仮定している。しかし、視点位置の移動や焦点距離の変化するシーンをレンダリングする際、凹凸の大きさはその拡大率に伴って図10(E)のように変化すべきである。そこで、各画素における法線の変化量を示したバンプマップを、撮影時を基準とした拡大率に合わせて拡大・縮小することによって凹凸の大きさを変化させる。拡大・縮小時における画素の補問は単純な線形補間により実現する。 Next, a case where the viewpoint position is moved or the focal length is changed will be described with reference to FIG. It is difficult to estimate the size of fine irregularities on the object surface by the model of the present invention. Therefore, here, it is assumed that the size of the unevenness at the time of shooting corresponds to one pixel at the time of image generation. However, when rendering a scene in which the viewpoint position is moved or the focal length is changed, the size of the unevenness should be changed as shown in FIG. Therefore, the size of the unevenness is changed by enlarging / reducing the bump map indicating the amount of change in the normal line in each pixel in accordance with the enlargement ratio based on the time of shooting. Pixel interpolation at the time of enlargement / reduction is realized by simple linear interpolation.
図11に拡大率を変化させて生成した画像と、それに用いたバンプマップ画像を示す。 FIG. 11 shows an image generated by changing the enlargement ratio and a bump map image used therefor.
図11(A)は拡大率が1.0の画像であり、この画像のレンダリングの際には、図11(D)に示す拡大率1.0のバンプマップ画像が用いられる。 FIG. 11A shows an image with an enlargement ratio of 1.0. When rendering this image, a bump map image with an enlargement ratio of 1.0 shown in FIG. 11D is used.
図11(B)に示す画像は、図11(A)に示す画像を2倍に拡大した画像である。画像の拡大に伴って、拡大された凹凸が表現されている。この画像のレンダリングの際は、図11(E)に示すように2倍に拡大されたバンプマップ画像が適用される。 The image illustrated in FIG. 11B is an image obtained by enlarging the image illustrated in FIG. As the image is enlarged, enlarged unevenness is expressed. At the time of rendering of this image, a bump map image enlarged twice as shown in FIG. 11E is applied.
図11(C)に示す画像は、図11(A)に示す画像が4倍に拡大されたものである。この場合も画像に合わせて拡大された図11(F)に示すバンプマップ画像が適用される。 The image shown in FIG. 11C is obtained by enlarging the image shown in FIG. 11A four times. Also in this case, the bump map image shown in FIG. 11F enlarged to fit the image is applied.
以上が本発明の具体的な画像の処理方法である。上記した本形態は、静止画像、動画像の両方に適用可能である。具体的な本発明の適用範囲としては、例えば、電子カタログ、デジタルアーカイブ、バーチャルミュージアム、等が挙げられる。 The above is the specific image processing method of the present invention. The above-described embodiment can be applied to both still images and moving images. Specific examples of the scope of application of the present invention include electronic catalogs, digital archives, virtual museums, and the like.
<第4の実施の形態>
本形態では、図12のグラフを参照して、本発明の画像処理装置の具体的な効果を説明する。
<Fourth embodiment>
In the present embodiment, specific effects of the image processing apparatus of the present invention will be described with reference to the graph of FIG.
本願発明は、拡散反射成分の推定、鏡面反射成分の推定およびバンプの推定の3つの点に関して、従来よりも優れている。これらの詳細を、図12の各図を参照して説明する。 The present invention is superior to the related art in terms of three points of estimation of the diffuse reflection component, specular reflection component and bump estimation. These details will be described with reference to the respective drawings in FIG.
図12(A)を参照して、拡散反射成分の推定に関する本発明の効果を説明する。この図に示すグラフでは、縦軸は拡散反射成分の輝度値を示しており、横軸は光源方向と法線との成す角を示している。ここでは、被写体となる物体は青色の球体である。 With reference to FIG. 12A, the effect of the present invention relating to the estimation of the diffuse reflection component will be described. In the graph shown in this figure, the vertical axis indicates the luminance value of the diffuse reflection component, and the horizontal axis indicates the angle formed by the light source direction and the normal line. Here, the object to be the subject is a blue sphere.
このグラフにて、点の集合は、拡散反射成分の輝度値の観測値を示している。また、実線は、数2で示される本発明の推定曲線を示している。点線は、数1で示される従来体の推定曲線を示している。 In this graph, the set of points indicates the observed value of the luminance value of the diffuse reflection component. Moreover, the solid line has shown the estimation curve of this invention shown by Numerical formula 2. The dotted line shows the estimated curve of the conventional body represented by Equation 1.
このグラフからも明らかなように、実線にて示す本願発明の推定曲線は、点線にて示した従来例の推定曲線よりも、観測値との差が小さい。ここで、拡散反射成分画像と生成画像との差を比較した場合を考える。そうすると、従来のモデルでは、平均誤差および最大誤差が、0.0232および0.0849であった。それに対して、本願発明のモデルでは、平均誤差は0.0149であり、最大誤差は0.0732であった。即ち、本願発明のモデルの方が、拡散反射画像との差が小さい。従って、本願発明の拡散反射成分のモデルは、実際の拡散反射成分をより忠実にモデル化している。 As is clear from this graph, the estimated curve of the present invention indicated by the solid line is smaller in difference from the observed value than the estimated curve of the conventional example indicated by the dotted line. Here, consider a case where the difference between the diffuse reflection component image and the generated image is compared. Then, in the conventional model, the average error and the maximum error were 0.0232 and 0.0849. In contrast, in the model of the present invention, the average error was 0.0149 and the maximum error was 0.0732. That is, the difference between the model of the present invention and the diffuse reflection image is smaller. Therefore, the diffuse reflection component model of the present invention more accurately models the actual diffuse reflection component.
図12(B)を参照して、鏡面反射成分の推定に関する効果を説明する。このグラフの縦軸および横軸が示すものは、図12(A)と同様である。ここでは、銀色の球体が使用されている。この図を参照して、実線で示す本願発明の反射モデル(数6に示す)は、波線で示す従来の反射モデル(数3に示す)よりも実測値との差が小さいことが判る。ここで、鏡面反射成分画像と生成画像との差を比較した場合を考える。そうすると、従来のモデルでは、平均誤差および最大誤差が、0.076および0.377であった。それに対して、本願発明のモデルでは、平均誤差は0.064であり、最大誤差は0.264であった。即ち、本発明のモデルの方が、差が小さい。従って、鏡面反射成分においても、本発明のモデルは、実際の反射をより忠実に表現している。 With reference to FIG. 12B, an effect relating to specular reflection component estimation will be described. The vertical axis and horizontal axis of this graph indicate the same as in FIG. Here, a silver sphere is used. Referring to this figure, it can be seen that the reflection model of the present invention indicated by the solid line (shown in Equation 6) has a smaller difference from the measured value than the conventional reflection model indicated by the broken line (shown in Equation 3). Here, consider a case where the difference between the specular reflection component image and the generated image is compared. Then, in the conventional model, the average error and the maximum error were 0.076 and 0.377. In contrast, in the model of the present invention, the average error was 0.064 and the maximum error was 0.264. That is, the model of the present invention has a smaller difference. Therefore, even in the specular reflection component, the model of the present invention more accurately represents actual reflection.
図12(C)を参照して、バンプの推定に関して説明する。このグラフでは、縦軸は出現頻度を示し、横軸は推定曲線と観測値との角度差を示している。 The bump estimation will be described with reference to FIG. In this graph, the vertical axis represents the appearance frequency, and the horizontal axis represents the angle difference between the estimated curve and the observed value.
このグラフでは、薄い色の棒グラフは従来型のモデル(数3に示す)を用いた結果を示し、濃い色の棒グラフは本発明のモデルを用いた結果を示している。従来例のグラフの分布は、本発明のグラフの分布よりも角度方向(横軸方向)に広く分布している。このことから、本願発明のモデルは従来よりも、推定値との差が小さいことが判る。従って、本願発明の鏡面反射成分のモデルは、より実際の現象に近いモデルであることが理解できる。 In this graph, the light-colored bar graph shows the result using the conventional model (shown in Equation 3), and the dark-colored bar graph shows the result using the model of the present invention. The graph distribution of the conventional example is more widely distributed in the angular direction (horizontal axis direction) than the graph distribution of the present invention. From this, it can be seen that the model of the present invention has a smaller difference from the estimated value than the conventional model. Therefore, it can be understood that the specular reflection component model of the present invention is a model closer to an actual phenomenon.
更に、このグラフでは、実線の曲線は、本発明のバンプの推定曲線を示している。そして、波線の曲線は従来例のバンプの推定曲線を示している。同グラフから、実線で示す本発明の曲線は、従来例と比較すると、より棒グラフの分布に近似していることが理解できる。このことから、本願発明のバンプの推定曲線は、従来のものよりも優れていることが理解できる。
Furthermore, in this graph, the solid curve indicates the estimated curve of the bump of the present invention. The wavy curve shows the bump estimation curve of the conventional example. From the graph, it can be understood that the curve of the present invention indicated by the solid line is more approximate to the distribution of the bar graph than the conventional example. From this, it can be understood that the bump estimation curve of the present invention is superior to the conventional one.
Claims (5)
前記鏡面反射成分の推定値を算出する推定手段と、
前記鏡面反射成分の実測値と推定値との差に基づいて鏡面反射モデルのパラメータを算出する算出手段と、
前記パラメータを使用する前記鏡面反射モデルにより、鏡面反射成分を含む画像を生成する生成手段と、
を具備し、
前記生成手段は、前記実測値と推定値との差に基づいて、バンプマッピングを行うことを特徴とする画像処理装置。 Separation means for separating the actual value of the specular reflection component from the actual image obtained by photographing the object;
Estimating means for calculating an estimated value of the specular reflection component;
Calculation means for calculating a parameter of the specular reflection model based on a difference between the actual value and the estimated value of the specular reflection component;
Generating means for generating an image including a specular reflection component by the specular reflection model using the parameter;
Equipped with,
The image processing apparatus according to claim 1, wherein the generation unit performs bump mapping based on a difference between the measured value and the estimated value .
少なくとも、第1粗さパラメータから算出される第1正規分布関数と、第2粗さパラメータから算出される第2正規分布関数との和に基づいて、前記鏡面反射成分を算出することを特徴とする請求項1に記載の画像処理装置。 The specular reflection component is calculated based on at least a sum of a first normal distribution function calculated from the first roughness parameter and a second normal distribution function calculated from the second roughness parameter. The image processing apparatus according to claim 1.
前記Lambertモデルは、三角関数の項を累乗する0より大きく1以下のパラメータを有することを特徴とする請求項1記載の画像処理装置。 The generation unit generates an image including a diffuse reflection component calculated using a Lambert model,
The image processing apparatus according to claim 1, wherein the Lambert model has a parameter greater than 0 and less than or equal to 1 that raises a term of a trigonometric function.
前記拡散反射成分から、前記Lambertモデルの前記パラメータを得ることを特徴とする請求項4記載の画像処理装置。
The separating means separates a diffuse reflection component from the photographed image;
The image processing apparatus according to claim 4, wherein the parameter of the Lambert model is obtained from the diffuse reflection component.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004212790A JP4764963B2 (en) | 2004-07-21 | 2004-07-21 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004212790A JP4764963B2 (en) | 2004-07-21 | 2004-07-21 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006031595A JP2006031595A (en) | 2006-02-02 |
JP4764963B2 true JP4764963B2 (en) | 2011-09-07 |
Family
ID=35897830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004212790A Expired - Fee Related JP4764963B2 (en) | 2004-07-21 | 2004-07-21 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4764963B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4880091B2 (en) | 2008-07-30 | 2012-02-22 | パナソニック株式会社 | Image generating apparatus and method for super-resolution of 3D texture |
JP5136282B2 (en) * | 2008-08-21 | 2013-02-06 | 大日本印刷株式会社 | Design confirmation device, design confirmation method, and program |
JP2010048633A (en) * | 2008-08-21 | 2010-03-04 | Dainippon Printing Co Ltd | Device, method and program for visualizing luster unevenness |
JP5503573B2 (en) * | 2011-02-21 | 2014-05-28 | 日本放送協会 | Imaging apparatus and image processing information generation program |
US9275477B2 (en) * | 2011-12-05 | 2016-03-01 | Kabushiki Kaisha Square Enix | Real-time global illumination rendering system |
JP6338369B2 (en) * | 2013-12-26 | 2018-06-06 | キヤノン株式会社 | Information processing apparatus and information processing method |
JP7016646B2 (en) * | 2016-11-28 | 2022-02-07 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
-
2004
- 2004-07-21 JP JP2004212790A patent/JP4764963B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006031595A (en) | 2006-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gardner et al. | Deep parametric indoor lighting estimation | |
US11069135B2 (en) | On-set facial performance capture and transfer to a three-dimensional computer-generated model | |
JP4276178B2 (en) | Method for digital rendering of skin or similar | |
JP4335588B2 (en) | How to model a 3D object | |
JP6812271B2 (en) | Image processing equipment, image processing methods and programs | |
US10540810B2 (en) | System and method of rendering a graphical object with modification in structure | |
JP2010526295A (en) | Scanning 3D objects using a video camera and TV monitor | |
US7528831B2 (en) | Generation of texture maps for use in 3D computer graphics | |
Gibson et al. | Interactive reconstruction of virtual environments from video sequences | |
US8854392B2 (en) | Circular scratch shader | |
De Paolis et al. | Photogrammetric 3D reconstruction of small objects for a real-time fruition | |
Schwandt et al. | A single camera image based approach for glossy reflections in mixed reality applications | |
JP4764963B2 (en) | Image processing device | |
US6864889B2 (en) | System for previewing a photorealistic rendering of a synthetic scene in real-time | |
Ihrke et al. | Fast incident light field acquisition and rendering | |
JP2004252603A (en) | Three-dimensional data processing method | |
JPH06236440A (en) | Image processing method | |
Rohe | An Optical Test Simulator Based on the Open-Source Blender Software. | |
JP2007026049A (en) | Image processing apparatus using reference anisotropic reflection distribution, image processing program, recording medium where same program is recorded, and image processing method | |
JP2017211313A (en) | Image processing device, image processing method and program | |
JP5926626B2 (en) | Image processing apparatus, control method therefor, and program | |
JP6822086B2 (en) | Simulation equipment, simulation method and simulation program | |
AU2017228700A1 (en) | System and method of rendering a surface | |
Castro et al. | Light spatial distribution calibration based on local density estimation for reflectance transformation imaging | |
Chen et al. | Dynamic omnidirectional texture synthesis for photorealistic virtual content creation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070717 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070717 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070717 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100623 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100819 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101112 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20101027 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110209 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110530 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140624 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |