JP4764963B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4764963B2
JP4764963B2 JP2004212790A JP2004212790A JP4764963B2 JP 4764963 B2 JP4764963 B2 JP 4764963B2 JP 2004212790 A JP2004212790 A JP 2004212790A JP 2004212790 A JP2004212790 A JP 2004212790A JP 4764963 B2 JP4764963 B2 JP 4764963B2
Authority
JP
Japan
Prior art keywords
image
reflection component
model
specular reflection
diffuse reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004212790A
Other languages
Japanese (ja)
Other versions
JP2006031595A (en
Inventor
尚紀 浅田
雅之 椋木
雅志 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiroshima City University
Original Assignee
Hiroshima City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiroshima City University filed Critical Hiroshima City University
Priority to JP2004212790A priority Critical patent/JP4764963B2/en
Publication of JP2006031595A publication Critical patent/JP2006031595A/en
Application granted granted Critical
Publication of JP4764963B2 publication Critical patent/JP4764963B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置に関し、特に、被写体の反射特性をより忠実に表現する画像処理装置に関するものである。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that more accurately expresses reflection characteristics of a subject.

近年、コンピュータグラフィックス(CG)の分野では、実世界に於ける物理現象や光学現象を忠実に再現するフォトリアリステックの追求が注目を集めている。この技術は、テレビや映画、ゲームなどの様々な分野に応用可能である。この技術の応用方法として、実在する物体をCGによって忠実にモデル化しようとする方法がある。例えば、歴史的に貴重な対象を精密に計測してデジタルアーカイブとして半永久的に保存したり、美術館や博物館に収蔵されている展示品をデジタル化し、バーチャルミュージアムとしてWEB上で公開することが考えられている。   In recent years, in the field of computer graphics (CG), the pursuit of photorealistic technology that faithfully reproduces physical and optical phenomena in the real world has attracted attention. This technology can be applied to various fields such as television, movies and games. As an application method of this technique, there is a method of faithfully modeling an actual object by CG. For example, it may be possible to measure historically valuable objects precisely and store them semi-permanently as digital archives, or digitize exhibits stored in museums and museums and publish them on the WEB as virtual museums. ing.

CGによって実物体を表現する際は、物体表面の反射特性は重要な役割を果たす。この反射特性を物理的・幾何学的な法則の基づいてモデル化したものが反射モデルである。この反射モデルは、物理現象を忠実にモデル化したものから、低計算コストを重視したものまで、用途に応じて様々なものが開発されている。反射モデルによる表現力は、CGによって実物体を再現するための重要な役割を果たしている。   When a real object is represented by CG, the reflection characteristics of the object surface play an important role. A reflection model is a model in which this reflection characteristic is modeled based on physical and geometrical laws. Various reflection models have been developed depending on the application, from models that faithfully model physical phenomena to models that emphasize low calculation costs. The expressive power by the reflection model plays an important role for reproducing a real object by CG.

更に、反射モデルのパラメータの設定によっては物体の質感は大きく変化するため、実物体をCGにて表現するためには、反射モデルのパラメータの設定が必要である。このパラメータを、少数の実写画像から推定する方法が提案されている(下記非特許文献1を参照)。   Furthermore, since the texture of the object varies greatly depending on the parameter setting of the reflection model, it is necessary to set the parameter of the reflection model in order to represent the real object in CG. A method for estimating this parameter from a small number of actually captured images has been proposed (see Non-Patent Document 1 below).

また、画像から反射特性パラメータを推定するのではなく、他の推定方法も提案されている。例えば、材質のサンプルを撮影した画像を、直接反射特性を表したデータとして用いることで、物体表面に忠実な表現を行う方法も提案されている(下記非特許文献2を参照)。
”密な画像列からの光源状況と反射特性の推定”情報処理学会論文誌CVIM、vol.44 NO.SIG5 PP.1−10、2003 W.Matusik, H.Pfister. M.Brand, and L.Mcmillan, "A Data-Driven Reflectance Model" ACM TOG, Vol.22 No3, PP.759-769, 2003
Further, instead of estimating the reflection characteristic parameter from the image, another estimation method has been proposed. For example, a method has been proposed in which an image obtained by photographing a sample of a material is used as data representing direct reflection characteristics to faithfully represent the object surface (see Non-Patent Document 2 below).
"Estimation of light source condition and reflection characteristics from dense image sequence" CVIM, vol. 44 NO. SIG5 PP. 1-10, 2003 W.Matusik, H.Pfister. M.Brand, and L.Mcmillan, "A Data-Driven Reflectance Model" ACM TOG, Vol.22 No3, PP.759-769, 2003

しかしながら、上記した非特許文献1記載の技術では、実物体の表面に於ける微細な凹凸が考慮されていなかった。このことから、CGで表現される実物体の表面の質感を忠実に表現することが困難であった。   However, in the technique described in Non-Patent Document 1, fine unevenness on the surface of the real object is not taken into consideration. For this reason, it has been difficult to faithfully express the texture of the surface of the real object expressed in CG.

更に、上記した非特許文献2記載の発明では、被写体の材質に応じてサンプルを用意して反射特性のパラメータを計測する必要がある。従って、パラメータの取得に費用と時間が掛かる問題があった。更には、サンプルを取得していない材質の被写体に対応できない問題があった。   Furthermore, in the above-described invention described in Non-Patent Document 2, it is necessary to prepare a sample according to the material of the subject and measure the parameter of the reflection characteristic. Therefore, there has been a problem that it takes cost and time to obtain parameters. Furthermore, there is a problem that it is not possible to deal with a subject made of a material for which a sample has not been acquired.

更にまた、物体表面の質感を高度に表現可能な他のモデルも提案されている。しかしながら、これらのモデルは、決定すべきパラメータの数が多すぎる、計算コストが高い等の諸問題を有していた。   Furthermore, other models capable of highly expressing the texture of the object surface have been proposed. However, these models have various problems such as too many parameters to be determined and high calculation cost.

本発明は、上記問題を鑑みて成されたものである。本発明の目的の一つは、被写体の表面の微細な凹凸を忠実に表現することができる画像処理装置を提供することにある。   The present invention has been made in view of the above problems. One object of the present invention is to provide an image processing apparatus capable of faithfully expressing fine irregularities on the surface of a subject.

本発明の画像処理装置は、物体を撮影した実写画像から鏡面反射成分の実測値を分離する分離手段と、前記鏡面反射成分の推定値を算出する推定手段と、前記鏡面反射成分の実測値と推定値との差に基づいて鏡面反射モデルのパラメータを算出する算出手段と、前記パラメータを使用する前記鏡面反射モデルにより、鏡面反射成分を含む画像を生成する生成手段と、を具備し、前記生成手段は、前記実測値と推定値との差に基づいて、バンプマッピングを行うことを特徴とする。
The image processing apparatus of the present invention includes a separating unit that separates an actual value of a specular reflection component from a real image obtained by photographing an object, an estimation unit that calculates an estimated value of the specular reflection component, and an actual value of the specular reflection component. A calculation unit that calculates a parameter of the specular reflection model based on a difference from the estimated value; and a generation unit that generates an image including a specular reflection component by the specular reflection model using the parameter , the generation The means is characterized in that bump mapping is performed based on a difference between the measured value and the estimated value .

本発明に依れば、鏡面反射成分を推定するモデルが、複数の粗さパラメータを有することから、より実際の物体に近い光沢点を有する画像を得ることができる。更に、拡散反射成分についても、三角関数をべき乗するパラメータを有するので、実画像に近い生成結果を得ることができる。   According to the present invention, since the model for estimating the specular reflection component has a plurality of roughness parameters, an image having a gloss point closer to an actual object can be obtained. Furthermore, since the diffuse reflection component also has a parameter that raises the power of the trigonometric function, a generation result close to a real image can be obtained.

更に、本発明に依れば、物体表面における微細な凹凸が反映された光沢点を含む画像が生成される。従って、質の高いコンピュータグラフィックスを得ることができる。更に、入力された実写画像から、鏡面反射成分モデルおよび拡散反射成分モデルのパラメータを算出している。従って、実際の被写体の表面形状がより正確に反映された画像処理を行うことができる。   Further, according to the present invention, an image including a gloss point reflecting fine irregularities on the object surface is generated. Therefore, high-quality computer graphics can be obtained. Further, parameters of the specular reflection component model and the diffuse reflection component model are calculated from the inputted real image. Therefore, it is possible to perform image processing in which the actual surface shape of the subject is reflected more accurately.

<第1の実施の形態>
本形態では、図1を参照して、本形態の画像処理装置10の基本的な構成を説明する。本発明の画像処理装置10は、バス17により互いが接続された各部から構成されている。そして、演算部11を中心とする各部が動作することにより、画像処理を行うことができる。
<First embodiment>
In this embodiment, a basic configuration of the image processing apparatus 10 of this embodiment will be described with reference to FIG. The image processing apparatus 10 according to the present invention is composed of parts connected to each other by a bus 17. Then, image processing can be performed by the operation of each unit centering on the calculation unit 11.

演算部11は、半導体集積回路であり、所定のプログラムに従って演算が行えるように回路が形成されている。本形態では、この演算部11が所定の計算を行うことにより、画像の処理が行われている。   The calculation unit 11 is a semiconductor integrated circuit, and a circuit is formed so that calculation can be performed according to a predetermined program. In this embodiment, image processing is performed by the calculation unit 11 performing a predetermined calculation.

記憶部12は、半導体メモリ、ハードディスク等の記憶媒体である。この記憶部12には、演算部11を動作させるためのプログラム、被写体の3次元形状データ、暫定的に記憶される画像データ、各種パラメータ等の情報が保存されている。   The storage unit 12 is a storage medium such as a semiconductor memory or a hard disk. The storage unit 12 stores information such as a program for operating the calculation unit 11, three-dimensional shape data of the subject, temporarily stored image data, and various parameters.

入力部13は、画像処理装置10に対して情報を入力するためのデバイスである。例えば、キーボード、マウス等のデバイスが入力部13を構成している。   The input unit 13 is a device for inputting information to the image processing apparatus 10. For example, devices such as a keyboard and a mouse constitute the input unit 13.

外部インターフェース14は、例えばUSB(Universal Serial Bus)であり、カメラ15から画像データを取り込む機能を有する。取り込まれた画像データは、記憶部12に保存される。   The external interface 14 is a USB (Universal Serial Bus), for example, and has a function of capturing image data from the camera 15. The captured image data is stored in the storage unit 12.

カメラ15は、例えばデジタルカメラ等であり、CCD等の撮像素子によりデジタル化された画像データを得る。   The camera 15 is a digital camera, for example, and obtains image data digitized by an image pickup device such as a CCD.

表示部16は、例えば液晶ディスプレイ等であり、カメラ15により撮影された画像データや、演算部11により生成された画像データを表示する機能を有する。   The display unit 16 is, for example, a liquid crystal display, and has a function of displaying image data captured by the camera 15 and image data generated by the calculation unit 11.

上記のように構成される画像処理装置10により、カメラ15により画像データを撮影し、この画像データを基に演算部11により演算を行い、生成された新たな画像データを表示部16に表示させている。更に画像処理装置10は、入力された撮影画像から、物体表面の粗さに関連したパラメータを推定する。また、得られたパラメータを用いてレンダリングを行っている。これらの詳細な処理方法については後述する。   The image processing apparatus 10 configured as described above captures image data with the camera 15, performs an operation with the calculation unit 11 based on the image data, and causes the display unit 16 to display the generated new image data. ing. Furthermore, the image processing apparatus 10 estimates a parameter related to the roughness of the object surface from the input captured image. Rendering is performed using the obtained parameters. These detailed processing methods will be described later.

<第2の実施の形態>
本形態では、図2から図4を参照して、反射特性のモデル化の概要を説明する。本発明では、対象とする物体は、物体表面における反射が拡散反射と鏡面反射で表現できると仮定する。ここで、鏡面反射成分とは物体表面に現れるハイライトであり、光源が映り込むことによって生じる輝度値の高い領域である。また、この成分は表面から特定の方向に向かって反射する性質を持っている。拡散反射成分とは、表面の非常に細かい凹凸と内部反射によって光が全方向に散乱される反射であり、表面の色成分を表している。更に、物体表面には微細な凹凸があるものとする。
<Second Embodiment>
In this embodiment, an outline of modeling of reflection characteristics will be described with reference to FIGS. In the present invention, it is assumed that the reflection of the object surface can be expressed by diffuse reflection and specular reflection. Here, the specular reflection component is a highlight that appears on the surface of the object, and is a region having a high luminance value caused by the reflection of the light source. Further, this component has a property of reflecting from the surface toward a specific direction. The diffuse reflection component is a reflection in which light is scattered in all directions due to very fine irregularities on the surface and internal reflection, and represents a color component on the surface. Further, it is assumed that the object surface has fine irregularities.

図2を参照して、先ず、拡散反射モデルについて説明する。図2(A)は石膏の外観図であり、図2(B)は拡散反射成分の分布を示すグラフである。   First, the diffuse reflection model will be described with reference to FIG. FIG. 2A is an external view of gypsum, and FIG. 2B is a graph showing the distribution of diffuse reflection components.

本発明では、拡散反射モデルとして下記数1に示すようなLambertモデルを考える。Lambertモデルは、物体表面に於ける拡散反射を記述したモデルとして、長年にわたりコンピュータグラフィックスやコンピュータビジョン等の分野にて用いられている。しかしながら、完全拡散反射と考えられている石膏のような物体においても、実際にはLambertモデルではないことが判明している。   In the present invention, a Lambert model as shown in the following equation 1 is considered as a diffuse reflection model. The Lambert model has been used for many years in the fields of computer graphics and computer vision as a model describing diffuse reflection on the surface of an object. However, it has been found that an object such as gypsum, which is considered to be completely diffuse reflection, is not actually a Lambert model.

Figure 0004764963
上記の式で、Idは拡散反射成分であり、Kdは物体表面に於ける拡散反射色を示し、θは物体表面に於ける法線と光源方向との成す角を示している。
Figure 0004764963
In the above equation, Id is a diffuse reflection component, Kd indicates a diffuse reflection color on the object surface, and θ indicates an angle formed between a normal line on the object surface and the light source direction.

図2(B)のグラフは、図2(A)の横線で示されたスキャンラインの輝度値をプロットしたものである。一般に石膏はLambertモデルに合致した材質であるとされているが、実際に撮影した拡散反射とLambertモデルとの聞には差が有ることが確認できる。実際の拡散反射は、光源方向と面の法線とのなす角が小さい領域ではLambertモデルよりも緩やかに減衰する。また、光源方向と面の法線とのなす角が大きい領域においては、実際の拡散反射は、急激に減衰している。即ち、上記数1では、拡散反射を忠実に表現することが難しい。   The graph in FIG. 2B is a plot of the luminance values of the scan lines indicated by the horizontal lines in FIG. In general, gypsum is considered to be a material that matches the Lambert model, but it can be confirmed that there is a difference between the diffuse reflection actually taken and the Lambert model. Actual diffuse reflection attenuates more slowly than the Lambert model in a region where the angle between the light source direction and the surface normal is small. In the region where the angle formed by the light source direction and the surface normal is large, the actual diffuse reflection is rapidly attenuated. That is, in the above formula 1, it is difficult to faithfully express diffuse reflection.

そこで本発明では、下記数2に示すように、Lambertモデルにおけるcos(三角関数)の項を累乗するパラメータを加えることによって、その減衰の割合を変化させるモデルを開発した。以下の説明では、このモデルを拡張ランバートモデルと呼ぶ場合もある。   Therefore, in the present invention, as shown in the following Equation 2, a model has been developed in which the attenuation ratio is changed by adding a parameter that raises the term of cos (trigonometric function) in the Lambert model. In the following description, this model may be referred to as an extended Lambert model.

Figure 0004764963
上記数2にてnの範囲は0<n<=1である。そして、n=1のときは、数1に示したモデルが数2に示したものと同一となる。この数2に示すモデルは、多くの物体における拡散反射成分の表現に適用することができる。更にこのモデルは、他の拡散反射モデルと比較しても、計算コストが安い。
Figure 0004764963
In the above formula 2, the range of n is 0 <n <= 1. When n = 1, the model shown in Equation 1 is the same as that shown in Equation 2. The model shown in Equation 2 can be applied to the expression of diffuse reflection components in many objects. Furthermore, this model has a low calculation cost even when compared with other diffuse reflection models.

図3および図4を参照して、鏡面反射モデルに関して説明する。   The specular reflection model will be described with reference to FIGS.

図3を参照して、Torrance-Sparrowモデルについて説明する。図3(A)は光源方向等の各ベクトルの向きを示し、図3(B)は球形物体の実写画像であり、図3(C)は鏡面反射成分の分布を示すグラフである。   The Torrance-Sparrow model will be described with reference to FIG. 3A shows the direction of each vector such as the light source direction, FIG. 3B is a real image of a spherical object, and FIG. 3C is a graph showing the distribution of specular reflection components.

Torrance-Sparrowモデルは、金属などの実物体の表面での反射を表現可能なため、よく使用されている。しかし、このモデルにはパラメータが多数存在するため、全てのパラメータを実画像のみから推定することは困難である。図3(A)に示すように、光源方向ベクトルLと視線方向ベクトルVとの中間を示す中間点ベクトルをHとすると、Torrance-Sparrowモデルにおける鏡面反射成分Isは下記数3によって表される。   The Torrance-Sparrow model is often used because it can express reflections on the surface of real objects such as metal. However, since there are many parameters in this model, it is difficult to estimate all the parameters from only the actual image. As shown in FIG. 3A, when the intermediate point vector indicating the intermediate between the light source direction vector L and the line-of-sight direction vector V is H, the specular reflection component Is in the Torrance-Sparrow model is expressed by the following equation (3).

Figure 0004764963
数3に於いて、Lは光源色、Ksは鏡面反射色、Dはマイクロファセット分布関数、Gは幾何滅衰係数、Fはフレネル係数を表している。幾何減衰係数に関しては、面の法線と光源方向があまり離れていない部分を撮影するものとし、G=1とする。フレネル係数に関しては、Fは一定であるとして物体の持つ鏡面反射色Ksに含めるものとする。また、撮影時の光源に対してカメラのホワイトバランスが適切に設定されているものとし、光源色LはR:G:B=1:1:1とする。マイクロファセット分布関数Dは、物体表面における鏡面反射光の広がりを表す項と考えることができる。鏡のように物体が完全に滑らかな表面を持つ場合、単一の点光源によって照射された鏡面反射成分は1点に収まるが、粗い表面を持つ物体の場合には鏡面反射成分はある程度の広がりを持つ。Torrance-Sparrowモデルでは、この分布関数をガウス分布であると仮定している。ガウス分布を用いるとマイクロファセット分布関数は数4で表される
Figure 0004764963
In Equation 3, L is a light source color, Ks is a specular reflection color, D is a microfacet distribution function, G is a geometric extinction coefficient, and F is a Fresnel coefficient. As for the geometric attenuation coefficient, it is assumed that a portion where the normal of the surface and the light source direction are not so far apart is photographed, and G = 1. Regarding the Fresnel coefficient, F is assumed to be constant and is included in the specular reflection color Ks of the object. In addition, it is assumed that the white balance of the camera is appropriately set with respect to the light source at the time of shooting, and the light source color L is R: G: B = 1: 1: 1. The micro facet distribution function D can be considered as a term representing the spread of specular reflection light on the object surface. If the object has a perfectly smooth surface, such as a mirror, the specular reflection component irradiated by a single point light source can be reduced to one point, but in the case of an object with a rough surface, the specular reflection component will spread to some extent. have. In the Torrance-Sparrow model, this distribution function is assumed to be Gaussian. Using a Gaussian distribution, the microfacet distribution function is expressed as

Figure 0004764963
ここで、αは物体表面での法線ベクトルNと中間ベクトルHとのなす角、σはマイクロファセットの傾きを表している。σが小さいと物体の法線ベクトルNとマイクロファセットの法線との変化が少なく、鋭い鏡面反射となる。逆に、σが大きいと、法線からの変化が大きくなり、粗い物体表面によって広がりを持った鏡面反射光と成る。
Figure 0004764963
Here, α represents an angle formed by the normal vector N and the intermediate vector H on the object surface, and σ 2 represents the inclination of the microfacet. When σ 2 is small, there is little change between the normal vector N of the object and the normal of the micro facet, and sharp specular reflection occurs. On the other hand, when σ 2 is large, the change from the normal line becomes large, resulting in specular reflected light having a spread by a rough object surface.

実物体での反射を観測すると、図3(B)のような金属色で塗装した物体表面における鏡面反射成分の分布は図3(C)のようになる。図3(C)では、縦軸は鏡面反射成分の輝度値を、横軸は中間ベクトルと物体表面の法線とのなす角を表している。このグラフからも分かるように、中間ベクトルと物体表面の法線とのなす角が大きい領域において、鏡面反射成分の減衰が単純な正規分布関数に比べ緩やかに分布している。従って、単純な正規分布関数による反射モデルでは金属等の特殊な表面材質を持つ物体の反射を忠実に再現することは困難である。   When the reflection on the real object is observed, the distribution of the specular reflection component on the surface of the object painted with a metal color as shown in FIG. 3B is as shown in FIG. In FIG. 3C, the vertical axis represents the luminance value of the specular reflection component, and the horizontal axis represents the angle formed by the intermediate vector and the normal of the object surface. As can be seen from this graph, in the region where the angle formed by the intermediate vector and the normal of the object surface is large, the attenuation of the specular reflection component is gently distributed compared to a simple normal distribution function. Therefore, it is difficult to faithfully reproduce the reflection of an object having a special surface material such as metal by a reflection model using a simple normal distribution function.

そこで、本発明では、マイクロファセット分布関数にパラメータを追加することで。より表現力の高いモデルヘ拡張する。図3(C)のような鏡面反射成分の分布は、異なるパラメータを持った複数の正規分布関数の和によって構成されていると考え、数5のようにマイクロファセット分布関数を変更した。   Therefore, in the present invention, by adding a parameter to the micro facet distribution function. Expand to a more expressive model. The distribution of the specular reflection component as shown in FIG. 3C is considered to be constituted by the sum of a plurality of normal distribution functions having different parameters, and the microfacet distribution function is changed as shown in Equation 5.

Figure 0004764963
ここで、σ1、σ2は表面の粗さを表すパラメータである。より多くの粗さパラメータを用いることによって精密な表現が可能となる。しかしながら、多くのパラメータを設定した場合には、観測データからのパラメータ推定を安定に行うことが困難と考え、粗さパラメータは2パラメータのみとした。ここで、3つ以上のパラメータを用いることも可能であり、この場合は精度を向上させることができる。σ1=σ2のとき、数5は数4と同等のものとして扱うことができる。以上のことから、本手法で用いる鏡面反射成分のモデル式は数6のように定義される。
Figure 0004764963
Here, σ1 and σ2 are parameters representing the surface roughness. By using more roughness parameters, precise representation is possible. However, when many parameters are set, it is difficult to stably estimate the parameters from the observation data, and the roughness parameter is only two parameters. Here, it is also possible to use three or more parameters. In this case, the accuracy can be improved. When σ1 = σ2, Equation 5 can be treated as equivalent to Equation 4. From the above, the model expression of the specular reflection component used in the present method is defined as in Equation 6.

Figure 0004764963
次に、図4を参照して、物体表面における微細な凹凸のモデル化を説明する。図4(A)は鏡面反射成分の観測値とモデル関数を示すグラフである。図4(B)はモデル関数曲線と観測値との距離を示すグラフである。
Figure 0004764963
Next, modeling of fine irregularities on the object surface will be described with reference to FIG. FIG. 4A is a graph showing observed values and model functions of the specular reflection component. FIG. 4B is a graph showing the distance between the model function curve and the observed value.

本発明では、ピクセルレベルでの凹凸を微細な凹凸とし、その特性に基づいてバンプモデルを定義する。ここでは物体表面に於ける微細な凹凸は、鏡面反射成分において顕著に表れることに注目して鏡面反射成分の推定曲線と観測データとの差を評価する。   In the present invention, the unevenness at the pixel level is defined as a fine unevenness, and the bump model is defined based on the characteristics. Here, the difference between the specular reflection component estimation curve and the observation data is evaluated by paying attention to the fact that fine unevenness on the object surface appears prominently in the specular reflection component.

図4(A)を参照して、この図に示す推定曲線は、上述した数6により得られたものである。この推定曲線は、鏡面反射成分と完全に一致することはなく、ある程度のばらつきを持って現れる。もし物体表面に微細な凹凸が存在しなければ、鏡面反射成分はモデル関数上からずれることなく分布するはずである。つまり、このばらつきは、鏡面反射成分が物体表面の微細な凹凸の影響により散乱しているために生じると考えることができる。   Referring to FIG. 4 (A), the estimated curve shown in this figure is obtained by the above-described equation (6). This estimated curve does not completely match the specular reflection component and appears with some variation. If there are no fine irregularities on the object surface, the specular reflection component should be distributed without deviating from the model function. That is, this variation can be considered to occur because the specular reflection component is scattered by the influence of fine irregularities on the object surface.

図4(B)を参照して、このグラフは、モデル関数曲線から観測値までの距離を図4(A)のように角度軸方向に計測し、その分布を調べたものである。このグラフの横軸は推定曲線と観測値との角度差β(radian)であり、縦軸は出現頻度である。得られたグラフはある角度をピークとして徐々に出現頻度が減少している。本発明では、この分布を正規分布であると仮定し、数7に示すモデル式を定義する。   Referring to FIG. 4B, this graph is obtained by measuring the distance from the model function curve to the observed value in the direction of the angle axis as shown in FIG. 4A and examining the distribution. The horizontal axis of this graph is the angle difference β (radian) between the estimated curve and the observed value, and the vertical axis is the appearance frequency. In the obtained graph, the appearance frequency gradually decreases with a certain angle as a peak. In the present invention, this distribution is assumed to be a normal distribution, and a model formula shown in Equation 7 is defined.

Figure 0004764963
ここで、μは法線の振れ幅の平均、υは法線のふれ幅の分散である。多くの場合、平均は極めて0に近い値となる。
Figure 0004764963
Here, μ is the average of the fluctuation width of the normal line, and υ is the variance of the fluctuation width of the normal line. In many cases, the average is very close to zero.

<第3の実施の形態>
本実施の形態では、具体的な画像の処理方法を説明する。即ち、入力された実写画像から各種パラメータを取得して、このパラメータを用いてレンダリングを行うまでの詳細を説明する。
<Third Embodiment>
In the present embodiment, a specific image processing method will be described. That is, the details of acquiring various parameters from the input real image and performing rendering using these parameters will be described.

先ず、図5を参照して具体的なプロセスを説明する。ステップS11では、カメラ位置・姿勢の特定を行う。ステップS12では、拡散反射成分画像の生成を行う。ステップS13では、鏡面反射成分の分離を行う。ステップS14では、鏡面反射色Ksの推定を行う。ステップS15では、光源半球の生成を行う。ステップS16では、鏡面反射に於ける表面の粗さパラメータσ1、σ2およびバンプモデルパラメータμ、υの推定を行う。ステップS17では、拡散反射指数nの推定を行う。ステップS18では、拡散反射画像の生成を行う。ステップS19では、拡散反射成分画像の統合とレンダリングを行う。これらのステップにより、入力された複数枚の実写画像から、反射モデルの各種パラメータを推定し、表面の質感が忠実に表現された画像を生成することができる。各ステップを以下にて詳述する。   First, a specific process will be described with reference to FIG. In step S11, the camera position / orientation is specified. In step S12, a diffuse reflection component image is generated. In step S13, the specular reflection component is separated. In step S14, specular reflection color Ks is estimated. In step S15, a light source hemisphere is generated. In step S16, surface roughness parameters σ1 and σ2 and bump model parameters μ and υ in specular reflection are estimated. In step S17, the diffuse reflection index n is estimated. In step S18, a diffuse reflection image is generated. In step S19, the diffuse reflection component image is integrated and rendered. By these steps, various parameters of the reflection model can be estimated from a plurality of inputted real images, and an image in which the texture of the surface is expressed faithfully can be generated. Each step is described in detail below.

ステップS11:図6参照
このステップでは、カメラ位置と姿勢の特定を行う。図6(A)は3次元座標が画像に投影される様子を示す図である。図6(B)は物体を撮影して実写画像を得る状態を示す図である。図6(C)は撮影された実写画像の例である。図6(D)は実写画像の3次元データを示す図である。
Step S11: See FIG. 6 In this step, the camera position and orientation are specified. FIG. 6A is a diagram illustrating a state in which three-dimensional coordinates are projected on an image. FIG. 6B is a diagram illustrating a state in which an actual image is obtained by photographing an object. FIG. 6C is an example of a photographed photographed image. FIG. 6D is a diagram showing three-dimensional data of a photographed image.

本発明では、より柔軟な撮影環境を実現するために撮影時のカメラ位置を固定としていない。従って、前もってその位置・姿勢の特定を行う必要がある。対象物体の3次元形状と撮影時におけるカメラの焦点距離は既知としている。従って、撮影画像と3次元形状の投影像が一致すれば、その投影位置・姿勢が撮影時におけるカメラの位置・姿勢として扱うことができる。ここでは、仮想空間中で3次元形状を回転・平行移動させることによってその3次元形状と撮影画像の位置合わせを行う。位置合わせに必要なパラメータとしては、並進成分(tx、ty、tz)と回転成分(roll、pitch、yaw)の6パラメータとなる。このようにしてカメラの位置・姿勢が特定できれば、撮影画像中の各画素に対応する3次元座標を求めることができる。画像上の点U=〔xに対応する3次元座標p=〔Xは、下記数8により求められる。 In the present invention, the camera position at the time of shooting is not fixed in order to realize a more flexible shooting environment. Therefore, it is necessary to specify the position and orientation in advance. The three-dimensional shape of the target object and the focal length of the camera at the time of shooting are known. Therefore, if the captured image matches the three-dimensional projected image, the projection position / posture can be handled as the position / posture of the camera at the time of photographing. Here, the three-dimensional shape and the captured image are aligned by rotating and translating the three-dimensional shape in the virtual space. As parameters necessary for alignment, there are six parameters including a translation component (tx, ty, tz) and a rotation component (roll, pitch, yaw). If the position / orientation of the camera can be specified in this way, three-dimensional coordinates corresponding to each pixel in the captured image can be obtained. The three-dimensional coordinates p i = [X i Y i Z i ] T corresponding to the point U i = [x i y i ] T on the image are obtained by the following equation (8).

Figure 0004764963
ここで、R、Tはそれぞれ回転行列、並進ベクトルであり、カメラ位置姿勢の特定において得られたものである、Pは透視投影を表している。回転行列RはZ軸まわりの回転φ(roll)、Y軸まわりの回転ψ(yaw)、X軸まわりの回転θ(pitch)を用いて以下の数9で表すことができる。
Figure 0004764963
Here, R and T are a rotation matrix and a translation vector, respectively, which are obtained in specifying the camera position and orientation, and P represents perspective projection. The rotation matrix R can be expressed by the following equation 9 using the rotation φ (roll) around the Z axis, the rotation ψ (yaw) around the Y axis, and the rotation θ (pitch) around the X axis.

Figure 0004764963
また、3次元座標piが画像上の点Uiに投影されるとき、この関係はカメラの焦点距離fを用いて下記数10で表される。
Figure 0004764963
Further, when the three-dimensional coordinate pi is projected onto the point Ui on the image, this relationship is expressed by the following formula 10 using the focal length f of the camera.

Figure 0004764963
また、本ステップでは、図6(B)に示すように、カメラの位置を移動させて物体の実写画像を複数撮影している。具体的には、異なるカメラの位置から3枚の画像を撮影している。この画像の例を図6(C)に示す。物体が球形である場合の3次元の形状データを図6(D)に示す。本発明では、実写画像および物体の形状データが主たる入力情報である。これらの情報から、各種パラメータを算出してレンダリングを行っている。
Figure 0004764963
Further, in this step, as shown in FIG. 6B, the position of the camera is moved to capture a plurality of actual images of the object. Specifically, three images are taken from different camera positions. An example of this image is shown in FIG. FIG. 6D shows three-dimensional shape data when the object is spherical. In the present invention, the photographed image and the shape data of the object are the main input information. Rendering is performed by calculating various parameters from these pieces of information.

ステップS12:図7(A)参照
このステップでは、実写画像から反射成分を分離させる。本発明では鏡面・拡散反射成分をそれぞれ個別に解析するため、両成分の分離を行う必要がある。そのために拡散反射成分のみから構成される画像を生成する。物体表面に於ける光の反射が上述した拡散反射モデルに従うとすると、物体表面上の任意の1点における拡散反射成分は同一光源環境下では視点位置の変化に関わらず常に同じ輝度値として画像中に現れる。このことを利用して、同一光源環境下でカメラ位置を移動させながら撮影した複数枚の画像から、拡散反射成分のみから成る画像を生成する。
Step S12: See FIG. 7A In this step, the reflection component is separated from the photographed image. In the present invention, since the specular and diffuse reflection components are separately analyzed, it is necessary to separate both components. Therefore, an image composed only of the diffuse reflection component is generated. If the reflection of light on the object surface follows the diffuse reflection model described above, the diffuse reflection component at any one point on the object surface will always be the same luminance value in the image regardless of changes in the viewpoint position under the same light source environment. Appear in By utilizing this fact, an image composed of only the diffuse reflection component is generated from a plurality of images taken while moving the camera position under the same light source environment.

まず、撮影した画像の中から基準となる画像を1枚決め、その画像中の物体表面における3次元座標を取得する。3次元座標は、対象物体の3次元形状・カメラの撮影位置と内部パラメータは既知であるため、透視投影変換により求めることができる。次に、得られた3次元座標と対応する残りの画像における画像座標を求め、その輝度値Iを下記数11により計算する。   First, one reference image is determined from the captured images, and three-dimensional coordinates on the object surface in the image are acquired. The three-dimensional coordinates can be obtained by perspective projection conversion because the three-dimensional shape of the target object, the shooting position of the camera, and the internal parameters are known. Next, image coordinates in the remaining image corresponding to the obtained three-dimensional coordinates are obtained, and the luminance value I is calculated by the following equation (11).

Figure 0004764963
このようにして求められた数枚の画像中の対応するピクセルにおける輝度値の中でもっとも低い輝度値を画素における拡散反射成分として採用する。この処理を各画素に対して行うことで、拡散反射成分のみで構成される画像を生成することができる。ここで、得られた拡散反射成分画像中には光源からの光が到達しない領域も含まれるが、この段階では光源方向は未知であり、影かどうかの判定はできないため、この時点では影は考慮せず、拡散反射係数の推定時に考慮するものとする。
Figure 0004764963
The lowest luminance value among the luminance values of the corresponding pixels in the several images thus obtained is adopted as the diffuse reflection component in the pixels. By performing this process on each pixel, an image composed of only the diffuse reflection component can be generated. Here, the obtained diffuse reflection component image includes a region where the light from the light source does not reach, but at this stage the direction of the light source is unknown and it cannot be determined whether it is a shadow. It is not taken into account, but is taken into account when estimating the diffuse reflection coefficient.

図7(A)は、上記処理を示すフローチャートである。ステップS51では、基準画素中に於ける各画像の処理が終了しているか否かの判断を行う。終了している場合(ステップS51のYES)は、処理が終了する。終了していない場合(ステップS51のNO)は、ステップS52に移行する。   FIG. 7A is a flowchart showing the above process. In step S51, it is determined whether or not the processing of each image in the reference pixel has been completed. If it has been completed (YES in step S51), the process ends. If not completed (NO in step S51), the process proceeds to step S52.

そして、注目画像の3次元座標(Xatt、Yatt、Zatt)を取得し(ステップS52)、注目画像の輝度値を計算する(ステップS53)。その後、ステップS54では、参照していない画像が存在するか否かの判断を行う。存在しない場合(ステップS54のNO)は、ステップS51に戻る。存在する場合(ステップS54のYES)は、ステップS55に移行する。 Then, the three-dimensional coordinates (X att , Y att , Z att ) of the target image are acquired (step S52), and the luminance value of the target image is calculated (step S53). Thereafter, in step S54, it is determined whether there is an image that is not referred to. If it does not exist (NO in step S54), the process returns to step S51. If it exists (YES in step S54), the process proceeds to step S55.

ステップS55では、3次元座標(Xatt、Yatt、Zatt)に於ける画像座標(u、v)を取得する。更にステップS56では、画像座標(u、v)における輝度値Iattを計算する。 In step S55, image coordinates (u, v) in three-dimensional coordinates (X att , Y att , Z att ) are acquired. In step S56, the luminance value I att at the image coordinates (u, v) is calculated.

ステップS57では、輝度値の比較をおこなう。具体的には、これまでのステップにて最低の値が代入されているIがIattよりも大きいか否かを判断する小さい場合(ステップS57のYES)は、IattをIに代入する。大きい場合(ステップS57のNO)は、ステップS54に戻る。以上がフローチャートの説明である。
In step S57, luminance values are compared. Specifically, it is determined whether or not I to which the lowest value is substituted in the steps so far is larger than Iatt. If it is smaller (YES in step S57), Iatt is substituted for I. If larger (NO in step S57), the process returns to step S54. The above is the description of the flowchart.

ステップS13:図7(B)参照
このステップでは、鏡面反射成分の分離を行う。具体的には、図7(B)のように得られた拡散反射成分画像と撮影画像の差分を取ることによって鏡面反射成分の分離を行う。これにより得られた鏡面反射成分画像には、鏡面反射成分の他に、周囲環境の映り込みや相互反射による影響等が含まれている。しかしながら、物体表面における反射成分は鏡面反射と拡散反射のみから構成されると仮定しており、また映り込みや相互反射による影響は鏡面反射成分に比べ比較的小さいものであるため、ここでは単にノイズとして扱う。
Step S13: See FIG. 7B In this step, the specular reflection component is separated. Specifically, the specular reflection component is separated by taking the difference between the diffuse reflection component image obtained as shown in FIG. 7B and the captured image. The specular reflection component image obtained in this way includes, in addition to the specular reflection component, the influence of the reflection of the surrounding environment and mutual reflection. However, the reflection component on the object surface is assumed to consist of only specular reflection and diffuse reflection, and the influence of reflection and mutual reflection is relatively small compared to the specular reflection component. Treat as.

ステップS14
このステップでは、鏡面反射色Ksを推定する。具体的には、Torrance-Sparrowモデルでは物体表面における鏡面反射成分は光源の輝度値に比例する。そこで、本工程では鏡面反射成分画像中の各画素におけるRGB色ベクトルの平均値を求めることで物体における鏡面反射色Ksとする。
Step S14
In this step, the specular reflection color Ks is estimated. Specifically, in the Torrance-Sparrow model, the specular reflection component on the object surface is proportional to the luminance value of the light source. Therefore, in this step, the average value of the RGB color vectors in each pixel in the specular reflection component image is obtained to obtain the specular reflection color Ks in the object.

ステップS15:図8参照
このステップでは、光源半球を生成して、光源方向ベクトルを推定する。図8(A)は光源半球を示す模式図であり、図8(B)は光源半球の画像である。
Step S15: See FIG. 8 In this step, a light source hemisphere is generated and a light source direction vector is estimated. FIG. 8A is a schematic diagram showing a light source hemisphere, and FIG. 8B is an image of the light source hemisphere.

図8(A)を参照して、得られた鏡面反射成分画像から反射強度と光源方向を推定するために、物体を覆う半球を考え、これを光源半球とする。まず、物体上の点Sにおける法線ベクトルと視線方向ベクトルから下記する数12を用いて正反射ベクトルを計算する。   With reference to FIG. 8A, in order to estimate the reflection intensity and the light source direction from the obtained specular reflection component image, a hemisphere covering an object is considered, and this is set as a light source hemisphere. First, a regular reflection vector is calculated from the normal vector and the line-of-sight direction vector at the point S on the object using the following equation (12).

Figure 0004764963
次に、得られた正反射ベクトルと光源半球との交点に点Sの持つRGB値を与える。この操作を鏡面反射成分画像中の各ピクセルに適用することで、図8(B)のような光源半球を生成する。上記の作業により、光源方向ベクトルが算出される。
Figure 0004764963
Next, the RGB value of the point S is given to the intersection of the obtained regular reflection vector and the light source hemisphere. By applying this operation to each pixel in the specular reflection component image, a light source hemisphere as shown in FIG. 8B is generated. The light source direction vector is calculated by the above operation.

こうして得られた光源半球は、光源を中心とした同心円上に対応する鏡面反射成分が広がっていることがわかる。この鏡面反射成分の広がりは物体固有のものであり、表面が粗い物体は広く、また表面が滑らかな物体は1点に集中した光源半球が得られる。   In the light source hemisphere thus obtained, it can be seen that the corresponding specular reflection component spreads on a concentric circle centered on the light source. The spread of the specular reflection component is unique to the object, and an object with a rough surface is wide, and an object with a smooth surface provides a light source hemisphere concentrated at one point.

ステップS16:図4参照
このステップでは、鏡面反射に於けるパラメータを推定する。具体的には、先ず、表面の光沢点の広がりに関連するパラメータである粗さパラメータσ1、σ2を推定する。次に、バンプモデルのパラメータを推定する。
Step S16: See FIG. 4 In this step, parameters in specular reflection are estimated. Specifically, first, roughness parameters σ1 and σ2 that are parameters related to the spread of the gloss point on the surface are estimated. Next, the bump model parameters are estimated.

具体的には、図4(A)のグラフを参照して、統計学的手法により、輝度値の実測値と推定値との差が最小になるようなσ1およびσ2を求める。推定値の算出には、上記した数6を用いる。従って、下記する数13に示す最小二乗問題を解くことにより、σ1およびσ2が推定される。
Specifically, with reference to the graph of FIG. 4A, σ1 and σ2 are obtained by a statistical method so that the difference between the measured value and the estimated value of the luminance value is minimized. The above equation 6 is used to calculate the estimated value. Therefore, σ1 and σ2 are estimated by solving the least square problem shown in Equation 13 below.

Figure 0004764963
ここで、Nは物体の法線ベクトル、Lは光源方向ベクトル、αは中間ペクトルと法線ベクトルとのなす角である。また、~Is(x、y)は画像座標(x、y)における鏡面反射成分の輝度値を示している。
Figure 0004764963
Here, N is a normal vector of the object, L is a light source direction vector, and α is an angle formed by the intermediate vector and the normal vector. Further, ~ Is (x, y) indicates the luminance value of the specular reflection component at the image coordinates (x, y).

続いて、バンプモデルのパラメータを推定する。具体的には、数7に示す式による推定値と、図4(B)に示す実測値とを最小にするパラメータを求める。即ち、以下の数14の最小2乗問題を解くことにより、σとμを推定した。このことにより、実際の輝度値のばらつきが反映されたバンプモデルのパラメータを得ることができる。   Subsequently, the bump model parameters are estimated. Specifically, a parameter that minimizes the estimated value based on the equation shown in Equation 7 and the actually measured value shown in FIG. That is, σ and μ were estimated by solving the following least squares problem of Equation 14. This makes it possible to obtain bump model parameters that reflect actual variations in luminance values.

Figure 0004764963
上記数14にて、Siは角度iにおける鏡面反射成分の観測値の出現頻度である。また、mは出現頻度のスケールを表している。ここではμ、υ、mの3つのパラメータを同時に最適化するが、mはμ、υを適切に推定するために与えるものであり、バンプパラメータとしては定義していない。また、υは0<υ<90度の範囲内となるよう制約を加えた。それぞれのパラメータの初期値は以下のように設定する。
υ:出現頻度が最大となる角度+(観測される最大の角度−出現頻度が最大となる角度)/2
μ:出現頻度が最大となる角度
m:最大の出現頻度
上記パラメータを得ることにより、被写体となる物体の質感を忠実に再現することが可能となる。例えば、表面に凹凸を有するミカンが被写体である場合を想定すると、上記パラメータの設定により、このミカンの表面のざらつきが忠実に反映されたCGを得ることができる。
Figure 0004764963
In the above equation 14, Si is the appearance frequency of the observed value of the specular reflection component at the angle i. M represents the scale of appearance frequency. Here, the three parameters μ, υ, and m are simultaneously optimized. However, m is given to appropriately estimate μ and υ, and is not defined as a bump parameter. In addition, a constraint was added so that υ is in the range of 0 <υ <90 degrees. The initial value of each parameter is set as follows.
υ: angle at which appearance frequency is maximum + (maximum observed angle−angle at which appearance frequency is maximum) / 2
μ: angle at which appearance frequency is maximum m: maximum appearance frequency By obtaining the above parameters, it is possible to faithfully reproduce the texture of an object that is a subject. For example, assuming that a mandarin orange having an uneven surface is an object, a CG that faithfully reflects the roughness of the mandarin orange surface can be obtained by setting the above parameters.

ステップS17:図9(A)参照
このステップでは、拡散反射パラメータを推定する。鏡面反射成分は比較的限られた領域でしか観測することができず、物体表面上のすべての点における鏡面反射成分を推定することは困難である。このため、本発明では対象物体は均一な鏡面反射パラメータを持つものとして扱った。これに対し、拡散反射成分は物体表面の色そのものを表したものであり、鏡面反射成分に比べ減衰する比率が低いため、広い領域において観測することが可能である。そこで本発明では、鏡面反射成分は物体表面上で均一であるとするが、拡散反射成分に関しては物体上の各頂点において異なる値をとるものとして推定を行う。従って、本ステップでは、拡散反射指数nを推定した後に、各頂点の拡散反射成分を個別に推定する。
Step S17: See FIG. 9A In this step, the diffuse reflection parameter is estimated. The specular reflection component can be observed only in a relatively limited region, and it is difficult to estimate the specular reflection component at all points on the object surface. For this reason, in the present invention, the target object is treated as having a uniform specular reflection parameter. On the other hand, the diffuse reflection component represents the color of the object surface itself, and since the attenuation ratio is lower than that of the specular reflection component, it can be observed in a wide area. Therefore, in the present invention, the specular reflection component is assumed to be uniform on the object surface, but the diffuse reflection component is estimated as having different values at each vertex on the object. Therefore, in this step, after estimating the diffuse reflection index n, the diffuse reflection component at each vertex is estimated individually.

先ず、拡張Lambertモデルを用いたパラメータ推定を行う。拡散反射成分画像の各ピクセルにおける輝度値を縦軸にそのピクセルと対応する3次元座標における法線ベクトルと光源方向ベクトルとのなす角を横軸にとると、その分布は図9(A)のように規則的な減衰を示す分布となる。この分布に数2をフィッティングすることで、拡散反射指数nを推定することができる。物体表面における拡散反射指数nは下記する数15の最小2乗問題を解くことによって得られる。   First, parameter estimation using the extended Lambert model is performed. When the luminance value in each pixel of the diffuse reflection component image is plotted on the vertical axis and the angle between the normal vector and the light source direction vector in the three-dimensional coordinates corresponding to that pixel is plotted on the horizontal axis, the distribution is as shown in FIG. Thus, the distribution shows regular attenuation. The diffuse reflection index n can be estimated by fitting Equation 2 to this distribution. The diffuse reflection index n on the object surface can be obtained by solving the following least squares problem of Equation 15.

Figure 0004764963
ここで、~Id(x、y)は画像座標(x、y)におけるピクセルの輝度値を示している。また、Nは画像座標(x、y)に対応する3次元座標おける法線ベクトルを、Lは光源方向ベクトルを表している。
Figure 0004764963
Here, ~ Id (x, y) indicates the luminance value of the pixel at the image coordinates (x, y). N represents a normal vector in a three-dimensional coordinate corresponding to the image coordinates (x, y), and L represents a light source direction vector.

次に、拡散反射色Kdを推定する。上述したステップS12で生成した拡散反射成分画像は、物体そのものの色、すなわち拡散反射色を、定義した拡張Lambertモデルにより減衰させたものであると考えられる。このことから、拡散反射成分画像の各ピクセルにおける拡散反射色Kdは、下記する数16によって求めることができる。   Next, the diffuse reflection color Kd is estimated. The diffuse reflection component image generated in step S12 described above is considered to be obtained by attenuating the color of the object itself, that is, the diffuse reflection color by the defined extended Lambert model. From this, the diffuse reflection color Kd in each pixel of the diffuse reflection component image can be obtained by the following equation (16).

Figure 0004764963
法線ベクトルNと光源方向ベクトルLとのなす角θが90度以上の場合、その頂点は光源からの光が到達していないため、拡散反射係数は〔0、0、0〕(RGB)となる。上記の計算を拡散反射成分画像中の各ピクセルに対して行う。このことにより、画像中の各画素における拡散反射係数により構成される拡散反射係数画像を生成することができる。
Figure 0004764963
When the angle θ formed by the normal vector N and the light source direction vector L is 90 degrees or more, the light from the light source does not reach the vertex, and the diffuse reflection coefficient is [0, 0, 0] (RGB). Become. The above calculation is performed for each pixel in the diffuse reflection component image. This makes it possible to generate a diffuse reflection coefficient image composed of the diffuse reflection coefficient at each pixel in the image.

ステップS18:図9(B)参照
本ステップでは、拡散反射成分画像を生成する。即ち、物体形状への拡散反射係数画像のマッピングを行う。具体的には、得られた拡散反射係数画像を対象物体の3次元形状にマッピングすることによって、物体表面全体に対して拡散反射成分を与える。ここでは、物体表面の各頂点に対して異なる拡散反射成分を付与する。対象となる物体表面上の頂点における拡散反射成分は前節で推定した拡散反射係数画像との対応をとることで付与できる。しかしながら、1枚の画像のみでは、自己隠蔽や影の影響により全ての物体表面上の全ての頂点における拡散反射成分を観測することはできない。そこで、物体を回転させて推定した複数枚の拡散反射成分画像を統合することによって、物体表面上の全ての頂点における拡散反射成分を取得する。対象とする拡散反射係数画像は複数枚存在するため、1つの頂点に複数の画像が与えられる場合が考えられる。このときの処理として、画像中の各ビクセルに対して各頂点の法線ベクトルと、画像の撮影時のカメラの視線方向に基づいて、下記する数17に示す評価値を与える。
Step S18: See FIG. 9B In this step, a diffuse reflection component image is generated. That is, the diffuse reflection coefficient image is mapped onto the object shape. Specifically, the diffuse reflection component is given to the entire object surface by mapping the obtained diffuse reflection coefficient image to the three-dimensional shape of the target object. Here, a different diffuse reflection component is given to each vertex of the object surface. The diffuse reflection component at the apex on the target object surface can be given by taking the correspondence with the diffuse reflection coefficient image estimated in the previous section. However, with only one image, it is not possible to observe diffuse reflection components at all vertices on all object surfaces due to the influence of self-hiding and shadows. Therefore, the diffuse reflection components at all vertices on the object surface are acquired by integrating a plurality of diffuse reflection component images estimated by rotating the object. Since there are a plurality of target diffuse reflection coefficient images, there may be a case where a plurality of images are given to one vertex. As processing at this time, an evaluation value shown in Expression 17 below is given to each bixel in the image based on the normal vector of each vertex and the viewing direction of the camera at the time of capturing the image.

Figure 0004764963
法線ベクトルNと視線方向ベクトルVとのなす角θが90度以上の場合、その頂点はカメラの視点位置からは見えないため、評価値には0を与える。それぞれの頂点においてこの評価値が最大となる画像が最も適切な画像である。しかしながら、カメラで撮影された実写画像には、カメラ位置推定の際に生じる誤差が含まれる。このことから、形状モデル上の同じ位置であっても、画像のずれによって隣接する頂点で適用する画像が異なる境界付近では明度差が生じ不自然な結果となる可能性がある。そこで、各画像における最大の評価値を用いるのではなく、図9(B)のように評価値に基づいてブレンディング処理を行うことで、画像の境界付近における明度を滑らかに変化させる。画像tにおける混合の重みEtは、下記する数18によって決定する。ここでnは画像枚数とする。
Figure 0004764963
When the angle θ formed by the normal vector N and the line-of-sight direction vector V is 90 degrees or more, the vertex is not visible from the viewpoint position of the camera, so 0 is given to the evaluation value. The image having the maximum evaluation value at each vertex is the most appropriate image. However, an actual image captured by the camera includes an error that occurs when the camera position is estimated. For this reason, even at the same position on the shape model, there is a possibility that a difference in brightness occurs in the vicinity of a boundary where different images are applied at adjacent vertices due to image shift, resulting in an unnatural result. Therefore, instead of using the maximum evaluation value in each image, the brightness near the boundary of the image is smoothly changed by performing blending processing based on the evaluation value as shown in FIG. 9B. The blending weight Et in the image t is determined by the following Expression 18. Here, n is the number of images.

Figure 0004764963
ステップS19:図10および図11参照
このステップでは、推定された各種パラメータを用いて鏡面反射成分のレンダリングを行う。
Figure 0004764963
Step S19: See FIG. 10 and FIG. 11 In this step, the specular reflection component is rendered using the various estimated parameters.

先ず、図10を参照して、レンダリングの詳細を説明する。図10(A)はバンプマッピングを適用していない画像であり、図10(B)はマッピング画像であり、図10(C)はバンプマッピングが適用された画像である。   First, the details of rendering will be described with reference to FIG. 10A is an image to which bump mapping is not applied, FIG. 10B is a mapping image, and FIG. 10C is an image to which bump mapping is applied.

ここでは、上述ステップにて推定したバンプモデルパラメータを用いて鏡面反射成分のレンダリングを行うために、バンプマッピングを使用する。バンプマッピングは、物体表面における凹凸を物体の幾何形状に変更を加えずに表現する手法であり、頂点の持つ法線ベクトルに摂動を与えることによって凹凸を表現する。このマッピングは、頂点座標を直接に摂動させるのではないため、座標の再計算の必要がなく、計算量の削減にもつながる。バンプマッピングは基本的にテクスチャマッピングの技術を応用したものであり、図10(B)のように個別に用意したマップ画像に従って法線ベクトルに摂動を与える。この手法では、レンダリング時における各ピクセルに対して摂動を与えるため、シェーディングアルゴリズムには、頂点の法線補問を行うPhongシェーディングを用いる。   Here, bump mapping is used to render the specular reflection component using the bump model parameters estimated in the above step. Bump mapping is a technique for expressing unevenness on the object surface without changing the geometric shape of the object, and expresses unevenness by perturbing the normal vector of the vertex. Since this mapping does not directly perturb the vertex coordinates, there is no need to recalculate the coordinates, and the amount of calculation is reduced. Bump mapping is basically an application of texture mapping technology, and perturbs the normal vector according to a separately prepared map image as shown in FIG. In this method, since each pixel is perturbed during rendering, Phong shading that performs vertex normal interpolation is used as the shading algorithm.

具体的には、最初に、バンプマップ画像の生成において、各ピクセルにおける法線の振れ角(β、φ)を輝度値として与える。各ピクセルにおける法線に付与する摂動はこのβ、φによって決定される。   Specifically, first, in the generation of the bump map image, a normal deflection angle (β, φ) in each pixel is given as a luminance value. The perturbation to be applied to the normal line at each pixel is determined by β and φ.

図10(D)は法線への摂動の付与を示す模式図である。同図を参照して、上記した数7で推定されたバンブパラメータは、βにのみ影響を与え、φには関与しない。従って、βには、上述ステップにて推定した平均μ、分散υとなる正規分布乱数により発生させた値を与える。更に、φには一様乱数で発生させた値を与える。このことにより、図10(B)に示すバンプマッピングを得る。図10(D)に示す方向ベクトルを、長さが1の単位ベクトルとして表現すると、この単位ベクトルは、X方向、Y方向、Z方向に対して3つの要素を持つベクトルとして表現できる。図10(B)では、バンプ画像が白黒の画像として表現されているが、実際は、この3成分を可視化したカラーの画像となっている。上記したバンプ画像は、被写体である物体の表面に於ける凹凸が反映されている。   FIG. 10D is a schematic diagram showing perturbation imparted to the normal. Referring to the figure, the bump parameter estimated by Equation 7 described above affects only β and does not participate in φ. Therefore, β is given a value generated by a normally distributed random number having the average μ and variance υ estimated in the above step. Further, a value generated with a uniform random number is given to φ. As a result, the bump mapping shown in FIG. 10B is obtained. When the direction vector shown in FIG. 10D is expressed as a unit vector having a length of 1, this unit vector can be expressed as a vector having three elements with respect to the X direction, the Y direction, and the Z direction. In FIG. 10B, the bump image is expressed as a black and white image, but in reality, the image is a color image in which these three components are visualized. The bump image described above reflects unevenness on the surface of the object that is the subject.

次に、上記したバンプ画像を用いて、鏡面反射成分のレンダリングを行う。具体的には、本発明により開発されたモデルである数6を用いて、各画素の鏡面反射成分を算出する。この際には、上述ステップにて算出されたσ1およびσ2が適用される。これらのパラメータを適用させることにより、鏡面反射成分である光沢点の「広がり」を、物体に対して忠実に再現することができる。更に、バンプマッピングが適用されることにより、物体表面の「ざらつき」が忠実に再現されて画像を得る。   Next, the specular reflection component is rendered using the bump image. Specifically, the specular reflection component of each pixel is calculated using Equation 6, which is a model developed according to the present invention. In this case, σ1 and σ2 calculated in the above steps are applied. By applying these parameters, the “spread” of the gloss point, which is a specular reflection component, can be faithfully reproduced with respect to the object. Further, by applying the bump mapping, the “roughness” of the object surface is faithfully reproduced to obtain an image.

図10(A)は、バンプマッピングが適用されずにレンダリングが行われた結果の画像である。この図を参照して、光沢点は1つの中心から周辺部方向に均一に分散している。従って、表面に凹凸を有する物体が被写体である場合は、この図に示す画像は、物体表面の凹凸が再現されていない不自然な画像である。   FIG. 10A shows an image obtained as a result of rendering without applying bump mapping. Referring to this figure, the gloss points are uniformly distributed from one center to the periphery. Therefore, when an object having irregularities on the surface is a subject, the image shown in this figure is an unnatural image in which the irregularities on the object surface are not reproduced.

図10(C)は、バンプマッピングが適用されてレンダリングが行われた画像である。図10(A)の画像と比較すると、物体表面の凹凸を良く表現している。即ち、この図に示す画像は、物体の表面の凹凸をより高品質に表現している。   FIG. 10C shows an image rendered by applying bump mapping. Compared with the image of FIG. 10A, the unevenness of the object surface is well expressed. That is, the image shown in this figure expresses the unevenness of the surface of the object with higher quality.

次に、図10(E)を参照して、視点位置の移動や焦点距離の変化を行った場合について説明する。物体表面における微細な凹凸の大きさを本発明のモデルにより推定することは困難である。そこで、ここでは撮影時における凹凸の大きさを画像生成時の1ピクセルに相当すると仮定している。しかし、視点位置の移動や焦点距離の変化するシーンをレンダリングする際、凹凸の大きさはその拡大率に伴って図10(E)のように変化すべきである。そこで、各画素における法線の変化量を示したバンプマップを、撮影時を基準とした拡大率に合わせて拡大・縮小することによって凹凸の大きさを変化させる。拡大・縮小時における画素の補問は単純な線形補間により実現する。   Next, a case where the viewpoint position is moved or the focal length is changed will be described with reference to FIG. It is difficult to estimate the size of fine irregularities on the object surface by the model of the present invention. Therefore, here, it is assumed that the size of the unevenness at the time of shooting corresponds to one pixel at the time of image generation. However, when rendering a scene in which the viewpoint position is moved or the focal length is changed, the size of the unevenness should be changed as shown in FIG. Therefore, the size of the unevenness is changed by enlarging / reducing the bump map indicating the amount of change in the normal line in each pixel in accordance with the enlargement ratio based on the time of shooting. Pixel interpolation at the time of enlargement / reduction is realized by simple linear interpolation.

図11に拡大率を変化させて生成した画像と、それに用いたバンプマップ画像を示す。   FIG. 11 shows an image generated by changing the enlargement ratio and a bump map image used therefor.

図11(A)は拡大率が1.0の画像であり、この画像のレンダリングの際には、図11(D)に示す拡大率1.0のバンプマップ画像が用いられる。   FIG. 11A shows an image with an enlargement ratio of 1.0. When rendering this image, a bump map image with an enlargement ratio of 1.0 shown in FIG. 11D is used.

図11(B)に示す画像は、図11(A)に示す画像を2倍に拡大した画像である。画像の拡大に伴って、拡大された凹凸が表現されている。この画像のレンダリングの際は、図11(E)に示すように2倍に拡大されたバンプマップ画像が適用される。   The image illustrated in FIG. 11B is an image obtained by enlarging the image illustrated in FIG. As the image is enlarged, enlarged unevenness is expressed. At the time of rendering of this image, a bump map image enlarged twice as shown in FIG. 11E is applied.

図11(C)に示す画像は、図11(A)に示す画像が4倍に拡大されたものである。この場合も画像に合わせて拡大された図11(F)に示すバンプマップ画像が適用される。   The image shown in FIG. 11C is obtained by enlarging the image shown in FIG. 11A four times. Also in this case, the bump map image shown in FIG. 11F enlarged to fit the image is applied.

以上が本発明の具体的な画像の処理方法である。上記した本形態は、静止画像、動画像の両方に適用可能である。具体的な本発明の適用範囲としては、例えば、電子カタログ、デジタルアーカイブ、バーチャルミュージアム、等が挙げられる。   The above is the specific image processing method of the present invention. The above-described embodiment can be applied to both still images and moving images. Specific examples of the scope of application of the present invention include electronic catalogs, digital archives, virtual museums, and the like.

<第4の実施の形態>
本形態では、図12のグラフを参照して、本発明の画像処理装置の具体的な効果を説明する。
<Fourth embodiment>
In the present embodiment, specific effects of the image processing apparatus of the present invention will be described with reference to the graph of FIG.

本願発明は、拡散反射成分の推定、鏡面反射成分の推定およびバンプの推定の3つの点に関して、従来よりも優れている。これらの詳細を、図12の各図を参照して説明する。   The present invention is superior to the related art in terms of three points of estimation of the diffuse reflection component, specular reflection component and bump estimation. These details will be described with reference to the respective drawings in FIG.

図12(A)を参照して、拡散反射成分の推定に関する本発明の効果を説明する。この図に示すグラフでは、縦軸は拡散反射成分の輝度値を示しており、横軸は光源方向と法線との成す角を示している。ここでは、被写体となる物体は青色の球体である。   With reference to FIG. 12A, the effect of the present invention relating to the estimation of the diffuse reflection component will be described. In the graph shown in this figure, the vertical axis indicates the luminance value of the diffuse reflection component, and the horizontal axis indicates the angle formed by the light source direction and the normal line. Here, the object to be the subject is a blue sphere.

このグラフにて、点の集合は、拡散反射成分の輝度値の観測値を示している。また、実線は、数2で示される本発明の推定曲線を示している。点線は、数1で示される従来体の推定曲線を示している。   In this graph, the set of points indicates the observed value of the luminance value of the diffuse reflection component. Moreover, the solid line has shown the estimation curve of this invention shown by Numerical formula 2. The dotted line shows the estimated curve of the conventional body represented by Equation 1.

このグラフからも明らかなように、実線にて示す本願発明の推定曲線は、点線にて示した従来例の推定曲線よりも、観測値との差が小さい。ここで、拡散反射成分画像と生成画像との差を比較した場合を考える。そうすると、従来のモデルでは、平均誤差および最大誤差が、0.0232および0.0849であった。それに対して、本願発明のモデルでは、平均誤差は0.0149であり、最大誤差は0.0732であった。即ち、本願発明のモデルの方が、拡散反射画像との差が小さい。従って、本願発明の拡散反射成分のモデルは、実際の拡散反射成分をより忠実にモデル化している。   As is clear from this graph, the estimated curve of the present invention indicated by the solid line is smaller in difference from the observed value than the estimated curve of the conventional example indicated by the dotted line. Here, consider a case where the difference between the diffuse reflection component image and the generated image is compared. Then, in the conventional model, the average error and the maximum error were 0.0232 and 0.0849. In contrast, in the model of the present invention, the average error was 0.0149 and the maximum error was 0.0732. That is, the difference between the model of the present invention and the diffuse reflection image is smaller. Therefore, the diffuse reflection component model of the present invention more accurately models the actual diffuse reflection component.

図12(B)を参照して、鏡面反射成分の推定に関する効果を説明する。このグラフの縦軸および横軸が示すものは、図12(A)と同様である。ここでは、銀色の球体が使用されている。この図を参照して、実線で示す本願発明の反射モデル(数6に示す)は、波線で示す従来の反射モデル(数3に示す)よりも実測値との差が小さいことが判る。ここで、鏡面反射成分画像と生成画像との差を比較した場合を考える。そうすると、従来のモデルでは、平均誤差および最大誤差が、0.076および0.377であった。それに対して、本願発明のモデルでは、平均誤差は0.064であり、最大誤差は0.264であった。即ち、本発明のモデルの方が、差が小さい。従って、鏡面反射成分においても、本発明のモデルは、実際の反射をより忠実に表現している。   With reference to FIG. 12B, an effect relating to specular reflection component estimation will be described. The vertical axis and horizontal axis of this graph indicate the same as in FIG. Here, a silver sphere is used. Referring to this figure, it can be seen that the reflection model of the present invention indicated by the solid line (shown in Equation 6) has a smaller difference from the measured value than the conventional reflection model indicated by the broken line (shown in Equation 3). Here, consider a case where the difference between the specular reflection component image and the generated image is compared. Then, in the conventional model, the average error and the maximum error were 0.076 and 0.377. In contrast, in the model of the present invention, the average error was 0.064 and the maximum error was 0.264. That is, the model of the present invention has a smaller difference. Therefore, even in the specular reflection component, the model of the present invention more accurately represents actual reflection.

図12(C)を参照して、バンプの推定に関して説明する。このグラフでは、縦軸は出現頻度を示し、横軸は推定曲線と観測値との角度差を示している。   The bump estimation will be described with reference to FIG. In this graph, the vertical axis represents the appearance frequency, and the horizontal axis represents the angle difference between the estimated curve and the observed value.

このグラフでは、薄い色の棒グラフは従来型のモデル(数3に示す)を用いた結果を示し、濃い色の棒グラフは本発明のモデルを用いた結果を示している。従来例のグラフの分布は、本発明のグラフの分布よりも角度方向(横軸方向)に広く分布している。このことから、本願発明のモデルは従来よりも、推定値との差が小さいことが判る。従って、本願発明の鏡面反射成分のモデルは、より実際の現象に近いモデルであることが理解できる。   In this graph, the light-colored bar graph shows the result using the conventional model (shown in Equation 3), and the dark-colored bar graph shows the result using the model of the present invention. The graph distribution of the conventional example is more widely distributed in the angular direction (horizontal axis direction) than the graph distribution of the present invention. From this, it can be seen that the model of the present invention has a smaller difference from the estimated value than the conventional model. Therefore, it can be understood that the specular reflection component model of the present invention is a model closer to an actual phenomenon.

更に、このグラフでは、実線の曲線は、本発明のバンプの推定曲線を示している。そして、波線の曲線は従来例のバンプの推定曲線を示している。同グラフから、実線で示す本発明の曲線は、従来例と比較すると、より棒グラフの分布に近似していることが理解できる。このことから、本願発明のバンプの推定曲線は、従来のものよりも優れていることが理解できる。
Furthermore, in this graph, the solid curve indicates the estimated curve of the bump of the present invention. The wavy curve shows the bump estimation curve of the conventional example. From the graph, it can be understood that the curve of the present invention indicated by the solid line is more approximate to the distribution of the bar graph than the conventional example. From this, it can be understood that the bump estimation curve of the present invention is superior to the conventional one.

本発明の画像処理装置の電気的構成を示す図である。It is a figure which shows the electrical constitution of the image processing apparatus of this invention. 石膏を示す図(A)、拡散反射成分の分布を示す図(B)である。It is a figure (A) which shows gypsum, and a figure (B) which shows distribution of a diffuse reflection component. 光源方向等のベクトルの方向を示す図(A)、被写体としての物体の一例を示す図(B)、鏡面反射成分の分布を示す図(C)である。FIG. 4A is a diagram showing a vector direction such as a light source direction, FIG. 4B is a diagram showing an example of an object as a subject, and FIG. 4C is a diagram showing a distribution of specular reflection components. 鏡面反射成分の輝度値を示す図(A)、推定値からはずれた鏡面反射成分を示す図(B)である。It is a figure (A) which shows a luminance value of a specular reflection component, and a figure (B) which shows a specular reflection component which deviated from an estimated value. 画像処理方法を示すフロー図である。It is a flowchart which shows an image processing method. 3次元形状と撮影画像の位置合わせを示す図(A)、撮影方法を示す図(B)、撮影された画像を示す図(C)、入力される3次元座標データを示す図(D)である。The figure (A) showing the alignment of the three-dimensional shape and the photographed image, the figure (B) showing the photography method, the figure (C) showing the photographed image, and the figure (D) showing the inputted three-dimensional coordinate data. is there. 拡散反射成分画像の生成方法を示すフロー図(A)、鏡面反射成分の分離を示す図(B)である。It is a flowchart (A) which shows the production | generation method of a diffuse reflection component image, and a figure (B) which shows isolation | separation of a specular reflection component. 光源半球を示す図(A)、光源半球画像を示す図(B)である。It is a figure (A) which shows a light source hemisphere, and a figure (B) which shows a light source hemisphere image. 拡散反射成分画像の分布を示す図(A)、拡散反射成分画像の混合を示す図(B)である。It is a figure (A) which shows distribution of a diffuse reflection component image, and a figure (B) which shows mixing of a diffuse reflection component image. バンプマッピングが適用されない画像を示す図(A)、マッピング画像を示す図(B)、バンプマッピングが適用された画像を示す図(C)、法線への摂動を示す図(D)、マッピング画像のスケーリングを示す図(E)である。A diagram showing an image to which bump mapping is not applied (A), a diagram showing a mapping image (B), a diagram showing an image to which bump mapping is applied (C), a diagram showing perturbation to normal (D), a mapping image It is a figure (E) which shows scaling of. バンプマッピングが適用された画像を示す図(A)−(C)、マッピング画像を示す図(D)−(F)である。FIGS. 4A to 4C show images to which bump mapping is applied, and FIGS. 4D to 4F show mapping images. FIGS. 拡散反射成分の輝度値を示す図(A)、鏡面反射成分の輝度値を示す図(B)、鏡面反射成分の推定値の差を示す図(C)である。FIG. 4A is a diagram showing a luminance value of a diffuse reflection component, FIG. 4B is a diagram showing a luminance value of a specular reflection component, and FIG.

Claims (5)

物体を撮影した実写画像から鏡面反射成分の実測値を分離する分離手段と、
前記鏡面反射成分の推定値を算出する推定手段と、
前記鏡面反射成分の実測値と推定値との差に基づいて鏡面反射モデルのパラメータを算出する算出手段と、
前記パラメータを使用する前記鏡面反射モデルにより、鏡面反射成分を含む画像を生成する生成手段と、
を具備し、
前記生成手段は、前記実測値と推定値との差に基づいて、バンプマッピングを行うことを特徴とする画像処理装置。
Separation means for separating the actual value of the specular reflection component from the actual image obtained by photographing the object;
Estimating means for calculating an estimated value of the specular reflection component;
Calculation means for calculating a parameter of the specular reflection model based on a difference between the actual value and the estimated value of the specular reflection component;
Generating means for generating an image including a specular reflection component by the specular reflection model using the parameter;
Equipped with,
The image processing apparatus according to claim 1, wherein the generation unit performs bump mapping based on a difference between the measured value and the estimated value .
前記鏡面反射モデルは、Torrance−Sparrowモデルにより、  The specular reflection model is a Torrance-Sparrow model,
少なくとも、第1粗さパラメータから算出される第1正規分布関数と、第2粗さパラメータから算出される第2正規分布関数との和に基づいて、前記鏡面反射成分を算出することを特徴とする請求項1に記載の画像処理装置。  The specular reflection component is calculated based on at least a sum of a first normal distribution function calculated from the first roughness parameter and a second normal distribution function calculated from the second roughness parameter. The image processing apparatus according to claim 1.
前記第1粗さパラメータおよび前記第2粗さパラメータは、前記鏡面反射成分の実測値から求めることを特徴とする請求項2記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the first roughness parameter and the second roughness parameter are obtained from measured values of the specular reflection component. 前記生成手段は、Lambertモデルを用いて算出された拡散反射成分を含む画像を生成し、
前記Lambertモデルは、三角関数の項を累乗する0より大きく1以下のパラメータを有することを特徴とする請求項1記載の画像処理装置。
The generation unit generates an image including a diffuse reflection component calculated using a Lambert model,
The image processing apparatus according to claim 1, wherein the Lambert model has a parameter greater than 0 and less than or equal to 1 that raises a term of a trigonometric function.
前記分離手段は、前記実写画像から拡散反射成分を分離し、
前記拡散反射成分から、前記Lambertモデルの前記パラメータを得ることを特徴とする請求項4記載の画像処理装置。

The separating means separates a diffuse reflection component from the photographed image;
The image processing apparatus according to claim 4, wherein the parameter of the Lambert model is obtained from the diffuse reflection component.

JP2004212790A 2004-07-21 2004-07-21 Image processing device Expired - Fee Related JP4764963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004212790A JP4764963B2 (en) 2004-07-21 2004-07-21 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004212790A JP4764963B2 (en) 2004-07-21 2004-07-21 Image processing device

Publications (2)

Publication Number Publication Date
JP2006031595A JP2006031595A (en) 2006-02-02
JP4764963B2 true JP4764963B2 (en) 2011-09-07

Family

ID=35897830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004212790A Expired - Fee Related JP4764963B2 (en) 2004-07-21 2004-07-21 Image processing device

Country Status (1)

Country Link
JP (1) JP4764963B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4880091B2 (en) 2008-07-30 2012-02-22 パナソニック株式会社 Image generating apparatus and method for super-resolution of 3D texture
JP5136282B2 (en) * 2008-08-21 2013-02-06 大日本印刷株式会社 Design confirmation device, design confirmation method, and program
JP2010048633A (en) * 2008-08-21 2010-03-04 Dainippon Printing Co Ltd Device, method and program for visualizing luster unevenness
JP5503573B2 (en) * 2011-02-21 2014-05-28 日本放送協会 Imaging apparatus and image processing information generation program
US9275477B2 (en) * 2011-12-05 2016-03-01 Kabushiki Kaisha Square Enix Real-time global illumination rendering system
JP6338369B2 (en) * 2013-12-26 2018-06-06 キヤノン株式会社 Information processing apparatus and information processing method
JP7016646B2 (en) * 2016-11-28 2022-02-07 キヤノン株式会社 Image processing equipment, image processing methods and programs

Also Published As

Publication number Publication date
JP2006031595A (en) 2006-02-02

Similar Documents

Publication Publication Date Title
Gardner et al. Deep parametric indoor lighting estimation
US11069135B2 (en) On-set facial performance capture and transfer to a three-dimensional computer-generated model
JP4276178B2 (en) Method for digital rendering of skin or similar
JP4335588B2 (en) How to model a 3D object
JP6812271B2 (en) Image processing equipment, image processing methods and programs
US10540810B2 (en) System and method of rendering a graphical object with modification in structure
JP2010526295A (en) Scanning 3D objects using a video camera and TV monitor
US7528831B2 (en) Generation of texture maps for use in 3D computer graphics
Gibson et al. Interactive reconstruction of virtual environments from video sequences
US8854392B2 (en) Circular scratch shader
De Paolis et al. Photogrammetric 3D reconstruction of small objects for a real-time fruition
Schwandt et al. A single camera image based approach for glossy reflections in mixed reality applications
JP4764963B2 (en) Image processing device
US6864889B2 (en) System for previewing a photorealistic rendering of a synthetic scene in real-time
Ihrke et al. Fast incident light field acquisition and rendering
JP2004252603A (en) Three-dimensional data processing method
JPH06236440A (en) Image processing method
Rohe An Optical Test Simulator Based on the Open-Source Blender Software.
JP2007026049A (en) Image processing apparatus using reference anisotropic reflection distribution, image processing program, recording medium where same program is recorded, and image processing method
JP2017211313A (en) Image processing device, image processing method and program
JP5926626B2 (en) Image processing apparatus, control method therefor, and program
JP6822086B2 (en) Simulation equipment, simulation method and simulation program
AU2017228700A1 (en) System and method of rendering a surface
Castro et al. Light spatial distribution calibration based on local density estimation for reflectance transformation imaging
Chen et al. Dynamic omnidirectional texture synthesis for photorealistic virtual content creation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070717

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101112

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110209

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110530

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees