JP2005149390A - Image processing method and device - Google Patents

Image processing method and device Download PDF

Info

Publication number
JP2005149390A
JP2005149390A JP2003389492A JP2003389492A JP2005149390A JP 2005149390 A JP2005149390 A JP 2005149390A JP 2003389492 A JP2003389492 A JP 2003389492A JP 2003389492 A JP2003389492 A JP 2003389492A JP 2005149390 A JP2005149390 A JP 2005149390A
Authority
JP
Japan
Prior art keywords
subject
texture
information
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003389492A
Other languages
Japanese (ja)
Inventor
Tomoaki Mizuno
知章 水野
Hideyasu Ishibashi
磴  秀康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003389492A priority Critical patent/JP2005149390A/en
Publication of JP2005149390A publication Critical patent/JP2005149390A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make data size of image information required for texture reproduction small, to shorten image processing time and to easily obtain a texture reproduced image. <P>SOLUTION: When an object image is acquired by photographing an object, texture information data is compressed by acquiring the texture information data expressing the texture of the object, separating the object image into each component in which feature values of the texture information data have approximately the same value based on the feature values and making a representative value of the feature values in each component correspond to each separated component. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像処理方法および装置に係り、特に、物体の質感を忠実に再現するための質感画像データを処理する際の負荷を軽減し、質感を重視した画像を容易に再現する画像処理方法および装置に関する。   The present invention relates to an image processing method and apparatus, and in particular, an image processing method that reduces the load when processing texture image data for faithfully reproducing the texture of an object and easily reproduces an image that emphasizes the texture. And device.

今日、光学機器および画像処理技術の進歩により、被写体をカメラで撮影し、あるいは被写体をスキャナで読み取って、高画質の画像を得ることができるようになってきたが、被写体の光沢感や被写体の表面の細かな凹凸等の質感を再現することは難しく、被写体の質感をよりリアルに再現することが望まれている。   Today, with advances in optical equipment and image processing technology, it has become possible to capture a subject with a camera or read a subject with a scanner to obtain a high-quality image. It is difficult to reproduce the texture such as fine irregularities on the surface, and it is desired to reproduce the texture of the subject more realistically.

現実の被写体は、通常3次元の物体であり、被写体の撮影には被写体を照明する光源が必要である。被写体に照明をあてると、被写体表面の明るさが場所によって変化する。その明るさは、被写体表面における反射のしかたによって異なり、反射のしかたは、被写体表面の材質によって異なる。
被写体表面における光の反射には、一般に、物体の色を表す拡散(内部)反射と光沢を表す鏡面(表面)反射とがある。
An actual subject is usually a three-dimensional object, and a light source that illuminates the subject is necessary for photographing the subject. When the subject is illuminated, the brightness of the subject surface changes depending on the location. The brightness varies depending on the manner of reflection on the subject surface, and the manner of reflection varies depending on the material of the subject surface.
In general, the reflection of light on the surface of an object includes diffuse (internal) reflection that represents the color of an object and specular (surface) reflection that represents gloss.

拡散反射光は、表面から入射した光が物質内で多重散乱した後、表面に出た光であり、あらゆる方向に同じ強さで反射するものである。拡散反射は石膏や白墨(チョーク)のように表面がざらざらしたものに多く見られる。
また、鏡面反射光は、被写体表面での直接反射によって生じる。鏡面反射は、金属やよく磨かれた陶器などが照明された場合に、その表面の一部にハイライトを生じさせる。鏡面反射光は、入射面と反射面が等しい正反射の方向に光が最も強く反射される。一般に、被写体を照明すると拡散反射光と鏡面反射光の両方が生じる。
そこで、被写体をリアルに再現した画像を得るためには、その被写体表面の材質の違いによる反射光の変化を忠実に再現する必要がある。
Diffuse reflected light is light that is incident on the surface and then exits the surface after multiple scattering within the material, and is reflected with the same intensity in all directions. Diffuse reflections are often seen on rough surfaces such as plaster and chalk.
The specular reflection light is generated by direct reflection on the surface of the subject. Specular reflection causes highlights on parts of the surface when metal or well-polished pottery is illuminated. The specular reflection light is reflected most strongly in the direction of regular reflection where the incident surface and the reflection surface are equal. In general, when a subject is illuminated, both diffuse reflection light and specular reflection light are generated.
Therefore, in order to obtain an image that realistically reproduces the subject, it is necessary to faithfully reproduce the change in reflected light due to the difference in the material of the subject surface.

物体の質感を再現するための情報を含む質感画像データは、偏角(変角)情報、分光情報、距離情報等の情報を保持したデータであり、それらを組み合わせ、予測画像を計算することで、忠実に質感再現を達成した画像を生成し、表示することが可能となる。   The texture image data including information for reproducing the texture of the object is data holding information such as declination (variation) information, spectral information, distance information, etc., and combining them to calculate a predicted image It is possible to generate and display an image that faithfully achieves the reproduction of the texture.

例えば、自動車の外装等の塗装色をデザインする際の色再現方法として、外板色塗板の変角分光反射率を測定し、測定した変角分光反射率から変角に関する特徴量と波長に関する特徴量を抽出し、これらを用いて変角分光反射率を再構成することにより塗装色の画像を表示する色再現方法が知られている(例えば、特許文献1等参照)。
特開平9−33347号公報
For example, as a color reproduction method when designing paint colors for the exterior of automobiles, etc., the variable angle spectral reflectance of the outer color coating plate is measured, and the characteristic amount related to the variable angle and the characteristic regarding the wavelength from the measured variable spectral reflectance A color reproduction method for displaying an image of a paint color by extracting the amount and reconstructing the variable angle spectral reflectance using these is known (see, for example, Patent Document 1).
JP-A-9-33347

しかしながら、前述したような従来の質感画像再現方法では、質感再現に必要な質感画像データの情報量が非常に膨大であり、画像の伝送や記録をも含めた画像の処理における負荷が大きく、処理時間も長くかかってしまうという問題がある。   However, in the conventional texture image reproduction method as described above, the amount of information of the texture image data necessary for the texture reproduction is very large, and the load in image processing including image transmission and recording is large. There is a problem that it takes a long time.

本発明は、前記従来の問題に鑑みてなされたものであり、質感再現に必要な画像情報のデータサイズを小さくし、画像処理時間を短縮し、簡単に質感再現画像を得ることのできる画像処理方法および装置を提供することを課題とする。   The present invention has been made in view of the above-described conventional problems, and can reduce the data size of image information necessary for texture reproduction, shorten the image processing time, and easily obtain a texture reproduction image. It is an object to provide a method and apparatus.

前記課題を解決するために、本発明の第1の態様は、被写体を撮影して被写体画像を取得する際、前記被写体の質感を表す質感情報データを取得し、前記質感情報データの特徴量に基づいて、前記被写体画像を、前記特徴量が略同一の値を有する各構成要素に分離し、前記分離された各構成要素に、前記各構成要素における前記特徴量の代表値を対応させることにより、前記質感情報データを圧縮するようにしたことを特徴とする画像処理方法を提供する。   In order to solve the above-described problem, according to a first aspect of the present invention, when a subject is photographed to obtain a subject image, the material information data representing the texture of the subject is obtained, and the feature amount of the texture information data is obtained. Based on the subject image, the feature amount is separated into each component having substantially the same value, and a representative value of the feature amount in each component is associated with each separated component. The image processing method is characterized in that the texture information data is compressed.

また、前記質感情報データの特徴量として、前記被写体の表面上の各点における2次元的な距離情報と、偏角分光情報を用いることが好ましい。   Further, it is preferable to use two-dimensional distance information and declination spectral information at each point on the surface of the subject as the feature amount of the texture information data.

また、前記被写体の偏角分光情報を、偏角情報と分光情報に分解して、前記特微量として用いることが好ましい。   Further, it is preferable that the declination spectral information of the subject is decomposed into declination information and spectral information and used as the feature amount.

また、前記被写体の2次元的な距離情報から前記被写体表面上の各点の法線ベクトル方向を算出して、前記特徴量として用いることが好ましい。   Further, it is preferable that the normal vector direction of each point on the subject surface is calculated from the two-dimensional distance information of the subject and used as the feature amount.

また、同様に前記課題を解決するために、本発明の第2の態様は、被写体を撮影して被写体画像を取得する際、前記被写体の質感を表す質感情報データを取得する手段と、前記質感情報データの特徴量に基づいて、前記被写体画像を、前記特徴量が略同一の値を有する各構成要素に分離する手段と、前記分離された各構成要素に、前記各構成要素における前記特徴量の代表値を対応させる手段と、を有し、前記質感情報データを圧縮するようにしたことを特徴とする画像処理装置を提供する。   Similarly, in order to solve the above-described problem, the second aspect of the present invention provides a means for acquiring texture information data representing the texture of the subject when photographing the subject and obtaining the subject image, and the texture Based on the feature amount of the information data, the means for separating the subject image into each component having the substantially same value as the feature amount, and the feature amount in each component in each separated component An image processing apparatus characterized in that the texture information data is compressed.

また、前記被写体の質感を表す質感情報データを取得する手段は、前記被写体の表面上の各点における2次元的な距離情報を取得する距離情報取得手段及び前記被写体の表面上の各点における偏角分光情報を取得する偏角分光情報取得手段であることが好ましい。   The means for obtaining the texture information data representing the texture of the subject includes distance information obtaining means for obtaining two-dimensional distance information at each point on the surface of the subject, and bias at each point on the surface of the subject. A declination spectroscopic information acquisition unit that acquires angular spectroscopic information is preferable.

また、前記画像処理装置において、さらに、前記被写体の偏角分光情報を、偏角情報と分光情報に分解する手段を有することが好ましい。   The image processing apparatus preferably further includes means for decomposing the declination spectral information of the subject into declination information and spectral information.

また、前記画像処理装置において、さらに、前記被写体の2次元的な距離情報から前記被写体表面上の各点の法線ベクトル方向を算出する手段を有することが好ましい。   The image processing apparatus preferably further includes means for calculating a normal vector direction of each point on the subject surface from the two-dimensional distance information of the subject.

また、同様に前記課題を解決するために、本発明の第3の態様は、画像処理方法を実行するためのプログラムを提供する。   Similarly, in order to solve the above problem, a third aspect of the present invention provides a program for executing an image processing method.

本発明によれば、被写体画像を、質感が同じ(一様な)各構成要素に分離し、各構成要素毎にその質感を表す質感情報データを1つの代表点で代表させることにより、質感画像データ量を圧縮し、データを記憶、保持する際の記憶容量の節約およびデータ伝送時のトラフィック、時間軽減を図ることができ、簡単に質感を忠実に再現した画像を得ることができる。   According to the present invention, a subject image is separated into constituent elements having the same (uniform) texture, and the texture information data representing the texture for each constituent element is represented by one representative point, thereby providing a texture image. By compressing the data amount, it is possible to save the storage capacity when storing and holding the data and reduce the traffic and time at the time of data transmission, and it is possible to easily obtain an image that faithfully reproduces the texture.

以下、本発明の画像処理方法および装置について、添付の図面に示される好適実施形態を基に詳細に説明する。   Hereinafter, an image processing method and apparatus according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.

図1は、本発明に係る画像処理方法を実行する画像処理装置の一実施形態の概略構成を示すブロック図である。
本実施形態の画像処理装置は、被写体を撮影するとともに、被写体の質感を再現するために必要な質感情報データを取得して、画像中の被写体を、質感情報データの特徴量が略同一の値を有する構成要素に分離し、各構成要素に、その構成要素における特徴量の代表値を対応させることにより質感情報データを圧縮(データ量を縮小)して、その後の質感を再現するための画像処理を容易にすることを特徴とするものである。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an image processing apparatus that executes an image processing method according to the present invention.
The image processing apparatus according to the present embodiment shoots a subject, acquires texture information data necessary to reproduce the texture of the subject, and sets the subject in the image to a value with substantially the same feature amount of the texture information data. An image for reproducing the texture after compressing the texture information data (reducing the data amount) by associating each component with a representative value of the feature value of the component. It is characterized by facilitating processing.

図1に示すように、本実施形態の画像処理装置は、被写体10を撮影して被写体画像を取得する際、被写体10の質感を表す質感情報データを取得する手段12、質感情報データの特徴量に基づいて、被写体画像をそれぞれ同じ質感を有する各構成要素に分離する構成要素分離手段14、各構成要素に質感情報データの特徴量の代表値を対応させる代表値対応手段16及び各構成要素ごとにその質感に応じた画像処理を施す画像処理手段18を有している。
被写体10の質感を表す質感情報データを取得する質感情報取得手段12は、偏角分光情報取得手段20及び距離情報取得手段22を含んで構成される。
As shown in FIG. 1, when the image processing apparatus according to the present embodiment captures a subject 10 and obtains a subject image, means 12 for obtaining texture information data representing the texture of the subject 10, and feature amounts of the texture information data The component separation means 14 for separating the subject image into the respective components having the same texture, the representative value handling means 16 for associating the representative values of the feature values of the texture information data with the respective components, and the respective components Image processing means 18 for performing image processing according to the texture.
The texture information acquisition unit 12 that acquires the texture information data representing the texture of the subject 10 includes a declination spectral information acquisition unit 20 and a distance information acquisition unit 22.

また、本実施形態の画像処理装置は、光学属性データとして、偏角分光情報取得手段20が取得した偏角分光情報を偏角情報と分光情報に分解するための偏角情報取得手段24と分光情報取得手段26を有している。また、画像処理装置は、さらに、被写体表面の各点における法線ベクトルの方向を算出し、法線方向データを取得する法線ベクトル方向算出手段28を有している。   The image processing apparatus according to the present embodiment also includes the declination information acquisition unit 24 and the spectroscopic unit for decomposing the declination spectral information acquired by the declination spectral information acquisition unit 20 into declination information and spectral information as optical attribute data. Information acquisition means 26 is provided. The image processing apparatus further includes normal vector direction calculation means 28 for calculating the direction of the normal vector at each point on the subject surface and acquiring normal direction data.

偏角分光情報取得手段20は、被写体10の偏角(変角)分光情報、すなわち、被写体10を照明する光源の位置(角度)及び被写体10からの反射光を受光する受光角を変化させた変角毎の分光反射率を取得するものである。
これは、具体的には、特には限定はされないが、例えば、複数チャンネルで複数のスペクトル画像を撮影可能なマルチバンドカメラを用いることができる。すなわち、マルチバンドカメラを用いて、被写体10に対する光源の角度を変化させて被写体10を複数の方向から撮影し、複数のスペクトル画像を得るようにしてもよい。
あるいは、例えば村上色彩技術研究所製GCMS−3等の変角分光光度計を用いて各変角毎の分光分布を測定するようにしてもよい。この場合には別途画像を撮影して画像データを取得する必要がある。
The declination spectral information acquisition means 20 changes the declination (variation) spectroscopic information of the subject 10, that is, the position (angle) of the light source that illuminates the subject 10 and the light receiving angle for receiving the reflected light from the subject 10. The spectral reflectance for each variable angle is acquired.
Specifically, this is not particularly limited, but for example, a multiband camera capable of capturing a plurality of spectral images with a plurality of channels can be used. That is, using a multiband camera, the angle of the light source with respect to the subject 10 may be changed, and the subject 10 may be photographed from a plurality of directions to obtain a plurality of spectral images.
Alternatively, for example, a spectral distribution for each variable angle may be measured using a variable angle spectrophotometer such as GCMS-3 manufactured by Murakami Color Research Laboratory. In this case, it is necessary to take a separate image and acquire the image data.

距離情報取得手段22は、被写体10の表面上の各点の撮影距離を測定するものである。すなわち、被写体10上の各点について、距離情報取得手段22から前記各点までの距離を測定して、各点毎のいわば2次元的な距離情報を得るものである。またこの距離情報は被写体10の表面形状を表す情報であると言うこともできる。距離情報取得手段22は、特に限定されるものではなく、例えば、光ビームを用いた距離センサでもよく、光三角測量法の原理に基づいて計測対象までの距離を求める3次元画像計測手法を用いるものでもよい。   The distance information acquisition unit 22 measures the shooting distance of each point on the surface of the subject 10. That is, for each point on the subject 10, the distance from the distance information acquisition means 22 to each point is measured, and so-called two-dimensional distance information for each point is obtained. It can also be said that this distance information is information representing the surface shape of the subject 10. The distance information acquisition unit 22 is not particularly limited, and may be a distance sensor using a light beam, for example, and uses a three-dimensional image measurement method for obtaining a distance to a measurement object based on the principle of the optical triangulation method. It may be a thing.

偏角情報取得手段24は、偏角分光情報から被写体10の偏角情報として、拡散反射成分を推定するものである。偏角情報取得手段24は、被写体画像の各画素毎に、上記偏角分光情報取得手段20が取得した偏角分光画像の強度が最低値となるものを抽出し、それを拡散反射成分とするものである。
このとき、被写体10の距離情報(表面形状情報)と光源の方向の情報から被写体10において影の部分となる領域がわかるが、この影領域はあまり拡散反射成分を含んでおらず強度も弱いので、これは除いて上記被写体10の拡散反射成分の推定を行うようにしている。
The declination information acquisition unit 24 estimates a diffuse reflection component as declination information of the subject 10 from the declination spectral information. The declination information acquisition unit 24 extracts, for each pixel of the subject image, the one having the lowest intensity of the declination spectral image acquired by the declination spectral information acquisition unit 20 and uses it as a diffuse reflection component. Is.
At this time, the distance information (surface shape information) of the subject 10 and the information on the direction of the light source indicate the shadow area in the subject 10, but the shadow region does not contain so much diffuse reflection component and is weak in intensity. Except for this, the diffuse reflection component of the subject 10 is estimated.

分光情報取得手段26は、被写体10の分光反射モデルとしてPhongのモデルを仮定して、光源方向(入射角)及び観察方向(受光角)が変化した際の、被写体10の分光反射率を推定するために、上記Phongのモデルにおけるパラメータα及びnを算出するものである。
ここでPhongのモデルについて説明する。
The spectral information acquisition unit 26 assumes a Phong model as a spectral reflection model of the subject 10 and estimates the spectral reflectance of the subject 10 when the light source direction (incident angle) and the observation direction (light reception angle) change. Therefore, the parameters α and n in the Phong model are calculated.
Here, the Phong model will be described.

図2は、Phongのモデルを説明するための図であり、光源30から射出された光は、表面32上で反射され、観察(受光)される。
このとき、表面32の法線方向の単位ベクトルをN、入射角をθi 、受光角をθr 、光源方向の単位ベクトルをL、観察方向の単位ベクトルをV、受光点の鏡面反射方向を表す単位ベクトルをRv 、光源スペクトルをE(λ)、被写体(表面52)の拡散反射率をSd (λ)、とするとPhongのモデルによれば、観察される反射率Y(λ)は、α及びnを被写体の材質に依存するパラメータとして、次の式(1)によって表される。なお、式(1)中において(A,B)は、ベクトルAとBの内積を表す。
Y(λ)= α(Rv ・L)n E(λ)+(N・L)Sd (λ)E(λ)
・・・(1)
FIG. 2 is a diagram for explaining the Phong model. Light emitted from the light source 30 is reflected on the surface 32 and observed (received).
At this time, the unit vector in the normal direction of the surface 32 is N, the incident angle is θ i , the light receiving angle is θ r , the unit vector in the light source direction is L, the unit vector in the observation direction is V, and the specular reflection direction of the light receiving point is If the unit vector to be represented is R v , the light source spectrum is E (λ), and the diffuse reflectance of the subject (surface 52) is S d (λ), then the observed reflectance Y (λ) is , Α and n are expressed by the following equation (1), with parameters depending on the material of the subject. In equation (1), (A, B) represents the inner product of vectors A and B.
Y (λ) = α (R v · L) n E (λ) + (N · L) S d (λ) E (λ)
... (1)

上記式(1)に示すように、Phongのモデルは、観察方向の鏡面反射方向からのずれによる鏡面反射成分の減少の割合を、そのずれ角(θr −θi )のcos(これは上記内積(Rv ・L)に等しい)のn乗によって近似するものである。
上記モデル式(1)中における未定のパラメータα及びnは、偏角測定を2種類以上の角度で収録することによって一意に決定することができる。ただし、実際には、多くの偏角測定データにより最適値を計算することが望ましい。
As shown in the above equation (1), the Phong's model shows the ratio of the decrease in the specular reflection component due to the deviation of the observation direction from the specular reflection direction, and the cos of the deviation angle (θ r −θ i ) It is approximated by the nth power of the inner product (equal to Rv · L).
The undetermined parameters α and n in the model equation (1) can be uniquely determined by recording declination measurements at two or more angles. However, in practice, it is desirable to calculate an optimum value from a large amount of deviation angle measurement data.

法線ベクトル方向算出手段28は、距離情報取得手段22から受け取った距離情報(表面形状情報)より、被写体10表面上の各点における外向き法線ベクトルの方向を計算するものである。
この外向き法線ベクトル方向は、被写体10表面上の各点における距離情報をX、Y、Z方向(すなわち、縦、横、奥行き方向)にそれぞれ微分した値と同等である。
The normal vector direction calculation means 28 calculates the direction of the outward normal vector at each point on the surface of the subject 10 from the distance information (surface shape information) received from the distance information acquisition means 22.
This outward normal vector direction is equivalent to a value obtained by differentiating the distance information at each point on the surface of the subject 10 in the X, Y, and Z directions (that is, the vertical, horizontal, and depth directions).

構成要素分離手段14は、被写体10の色や光沢等を表す光学属性データである偏角分光情報(詳しくは、偏角情報である拡散反射率データと分光情報であるPhongのモデルのパラメータα、n)と、被写体10の表面形状を表す距離情報(詳しくは、距離情報を3次元方向に微分して得られる被写体10上の各点の法線ベクトル方向)に基づいて、被写体画像を、大雑把に言って、その質感が同じである構成要素に分離するものである。
この構成要素への分離は、質感が同じ構成要素はその光学属性データ及び法線方向データが同じであると考えられるため、拡散反射率及びパラメータα、nあるいは法線ベクトル方向が略同じ値となるような点からなる領域を、同一の質感を有する構成要素として分離することによって行う。
The component separating means 14 is a declination spectroscopic information that is optical attribute data representing the color, gloss, etc. of the subject 10 (specifically, diffuse reflectance data that is declination information and a parameter α of the Phong model that is spectroscopic information, n) and the distance information representing the surface shape of the subject 10 (specifically, the normal vector direction of each point on the subject 10 obtained by differentiating the distance information in the three-dimensional direction) In other words, it is separated into components having the same texture.
In this separation into components, components having the same texture are considered to have the same optical attribute data and normal direction data, so that the diffuse reflectance and the parameters α, n or the normal vector direction are substantially the same value. This is done by separating regions consisting of such points as components having the same texture.

特徴量代表値対応手段16は、同じ質感を有する領域として分離された各構成要素に対し、例えば、その構成要素の各点における拡散反射率、Phongのモデルのパラメータα、nあるいは法線ベクトル方向の平均値を、各特徴量の代表値、すなわち各構成要素の代表点のデータとして対応させるものである。
このとき、その特徴量の値そのものを対応させるのではなく、その値に一意に対応する符号等を対応させるようにしてもよい。これにより、質感情報データのデータ量を大きく圧縮することが可能となる。
The feature quantity representative value handling unit 16 applies, for example, the diffuse reflectance at each point of the component, the parameter α, n of the Phong model, or the normal vector direction to each component separated as a region having the same texture. Is associated with the representative value of each feature quantity, that is, the data of the representative point of each component.
At this time, the value of the feature amount itself may not be associated, but a code uniquely corresponding to the value may be associated. As a result, the data amount of the texture information data can be greatly compressed.

画像処理手段18は、分離された各構成要素毎に、その質感に応じた画像処理を施して、質感を忠実に再現した画像を形成するものである。
すなわち、各構成要素に対応させられたその代表点のデータと、光源のスペクトルデータ、光源の方向の位置データ、観察位置データをPhongのモデルに適用して、各点毎の観察方向への分光反射率データを計算して、各構成要素毎の質感再現画像データを作成し、これらの各構成要素毎のデータを組み合わせることによって質感再現画像を作成するものである。
The image processing means 18 performs image processing corresponding to the texture for each separated component, and forms an image that faithfully reproduces the texture.
That is, the data of the representative point corresponding to each component, the spectrum data of the light source, the position data in the direction of the light source, and the observation position data are applied to the Phong model, and the spectrum in the observation direction for each point. The reflectance data is calculated, texture reproduction image data for each component is created, and a texture reproduction image is created by combining the data for each component.

以下、本実施形態の作用として、本発明に係る画像処理方法について説明する。本発明の画像処理方法は、被写体を質感が同じ(一様)と見なせる構成要素に分離し、各構成要素の代表点にその質感を表すデータを対応させることにより、質感情報データのデータ量を圧縮して質感再現画像の作成を容易にしたものである。図3に、本実施形態の画像処理方法の処理の流れをフローチャートで示す。以下、図3のフローチャートに沿って説明する。   Hereinafter, as an operation of the present embodiment, an image processing method according to the present invention will be described. The image processing method of the present invention separates the subject into components that can be regarded as having the same (uniform) texture, and associates the data representing the texture with the representative points of each component, thereby reducing the data amount of the texture information data. This makes it easy to create a texture reproduction image by compression. FIG. 3 is a flowchart showing the processing flow of the image processing method of this embodiment. Hereinafter, it demonstrates along the flowchart of FIG.

まず、図3のステップ100において、被写体10の画像を撮影する。本実施形態では、被写体10として、図4に示すような金属でできた三角錐40を用いることとする。三角錐40は、全体が金属で一様にできており、左面42も右面44も同じ材質で、同じ色であるとする。しかし、左面42と右面44とはその法線方向が異なっており、再現画像においては、その左面42と右面44との違いが表現できることが望ましい。   First, in step 100 of FIG. 3, an image of the subject 10 is taken. In the present embodiment, a triangular pyramid 40 made of metal as shown in FIG. The triangular pyramid 40 is entirely made of metal, and the left surface 42 and the right surface 44 are made of the same material and have the same color. However, the normal directions of the left surface 42 and the right surface 44 are different, and it is desirable that the difference between the left surface 42 and the right surface 44 can be expressed in the reproduced image.

また、ステップ110において、上記撮影とともに被写体10(三角錐40)の質感情報データを取得する。ここで、質感情報データとしては、偏角分光情報及び距離情報を用いることとする。偏角分光情報の取得方法は、特に限定されるものではなく、例えば、光源位置及びカメラの撮影位置の少なくとも一方を移動しながら三角錐40をマルチバンドカメラで撮影して、複数のスペクトル画像を得て、これから偏角分光情報を得るようにし、前述したように、市販の偏角分光光度計を用いて直接測定するようにしてもよい。また、距離情報取得手段22によって、距離情報取得手段22から三角錐40上の各点までの距離を測定し距離情報を取得する。   In step 110, texture information data of the subject 10 (triangular pyramid 40) is acquired together with the above photographing. Here, declination spectroscopic information and distance information are used as the texture information data. The method of acquiring the declination spectral information is not particularly limited. For example, the triangular pyramid 40 is photographed with a multiband camera while moving at least one of the light source position and the photographing position of the camera, and a plurality of spectral images are obtained. Thus, the declination spectroscopic information may be obtained from this, and as described above, it may be directly measured using a commercially available declination spectrophotometer. Further, the distance information acquisition unit 22 measures the distance from the distance information acquisition unit 22 to each point on the triangular pyramid 40 and acquires the distance information.

次にステップ120において、偏角情報取得手段24により、偏角分光情報から偏角情報を取得する。偏角情報は被写体10の色を表す拡散反射成分であり、例えば、被写体10(三角錐40)の各画素毎に偏角分光画像の強度が最低値となるものを抽出することによって得られる。
また、ステップ130において、分光情報取得手段26において偏角分光情報から分光情報を取得する。すなわち、被写体10(三角錐40)の偏角分光画像から前述したphongのモデルにおける2つのパラメータα及びnを算出する。本実施形態の場合、被写体10は全体が金属でできた三角錐40であり、左面42においても右面44においてもPhongのモデルのパラメータα及びnは近い値を持ち、かつ色情報を示す拡散反射成分も近い値が得られた。これにより、被写体10(三角錐40)は、実際に両面とも共通の材質でできていると判断することができる。
Next, in step 120, the declination information acquisition unit 24 acquires declination information from the declination spectral information. The declination information is a diffuse reflection component that represents the color of the subject 10, and is obtained, for example, by extracting the pixel having the lowest declination spectral image intensity for each pixel of the subject 10 (triangular pyramid 40).
In step 130, the spectral information acquisition unit 26 acquires spectral information from the declination spectral information. That is, the two parameters α and n in the above-described phon model are calculated from the declination spectral image of the subject 10 (triangular pyramid 40). In the present embodiment, the subject 10 is a triangular pyramid 40 made entirely of metal, and the parameters α and n of the Phong model have similar values on both the left surface 42 and the right surface 44, and diffuse reflection that indicates color information. Values close to the components were obtained. Thereby, it can be determined that the subject 10 (triangular pyramid 40) is actually made of a common material on both sides.

次にステップ140において、法線ベクトル方向算出手段28において、距離情報から被写体10(三角錐40)上の各点の外向き法線ベクトルの方向を算出する。外向き法線ベクトル方向は、各点における距離情報をX、Y、Z方向(縦、横、奥行き方向)に微分することによって得られる。
本実施形態における被写体10である三角錐40についてこの外向き法線ベクトル方向を計算すると、左面42では、約((1/3)1/2 ,(1/3)1/2 ,(1/3)1/2 )、右面44では、約(−(1/3)1/2 ,(1/3)1/2 ,(1/3)1/2 )という値が得られた。
Next, in step 140, the normal vector direction calculation means 28 calculates the direction of the outward normal vector of each point on the subject 10 (triangular pyramid 40) from the distance information. The outward normal vector direction is obtained by differentiating the distance information at each point in the X, Y, and Z directions (vertical, horizontal, and depth directions).
When the outward normal vector direction is calculated for the triangular pyramid 40 that is the subject 10 in the present embodiment, the left surface 42 is approximately ((1/3) 1/2 , (1/3) 1/2 , (1 / 3) 1/2 ), and the right surface 44 obtained values of about (-(1/3) 1/2 , (1/3) 1/2 , (1/3) 1/2 ).

次にステップ150において、構成要素分離手段14において、光学属性データすなわち偏角情報と分光情報、及び法線方向データすなわち外向き法線ベクトル方向によって、被写体10を、質感が同じ(一様)と考えられる各構成要素に分離する。
構成要素分離手段14は、上で得られた被写体10上の拡散反射スペクトル、Phongのパラメータ(α、n)及び法線ベクトル方向を用いて、これらの質感を表現する特徴量が略同一の値を有する点は同じ構成要素に属するとして、被写体10を各構成要素に分離する。このとき、拡散反射スペクトルが同じであれば、同じ色を示し、Phongのパラメータ(α、n)が同じであれば同じ鏡面反射特性(光沢)を有し、また、法線べクトル方向が同じであれば、同一平面上にあると考えられる。そこで、これらを適宜組み合わせることによって被写体10の構成要素への分離が行われる。
Next, in step 150, in the component separation means 14, the subject 10 has the same texture (uniform) by the optical attribute data, that is, declination information and spectral information, and the normal direction data, that is, the outward normal vector direction. Separate into each possible component.
The component separation unit 14 uses the diffuse reflection spectrum on the subject 10 obtained above, the Phong parameters (α, n), and the normal vector direction, and the feature quantities expressing these textures have substantially the same values. And the subject 10 is separated into the respective components. At this time, if the diffuse reflection spectrum is the same, it shows the same color, and if the Phong parameters (α, n) are the same, it has the same specular reflection characteristic (gloss), and the normal vector direction is the same. If so, it is considered to be on the same plane. Therefore, the subject 10 is separated into constituent elements by appropriately combining them.

今回、被写体10として用いた三角錐40の場合、材質および色は同じであり、拡散反射スペクトルおよびPhongのパラメータ(α、n)は、左面42、右面44とも略同じ値となった。また、前述したように、外向き法線ベクトル方向は左面42では約((1/3)1/2 ,(1/3)1/2 ,(1/3)1/2 )、右面44では、約(−(1/3)1/2 ,(1/3)1/2 ,(1/3)1/2 )という値が得られた。
そこで、三角錐40においては、左面42と右面44は、色、材質は同じであるが、その形状により別の構成要素として分離される。
In the case of the triangular pyramid 40 used as the subject 10 this time, the material and the color are the same, and the diffuse reflection spectrum and the Phong parameter (α, n) are substantially the same values on the left surface 42 and the right surface 44. As described above, the outward normal vector direction is about ((1/3) 1/2 , (1/3) 1/2 , (1/3) 1/2 ) on the left surface 42, and on the right surface 44. , About (− (1/3) 1/2 , (1/3) 1/2 , (1/3) 1/2 ).
Therefore, in the triangular pyramid 40, the left surface 42 and the right surface 44 have the same color and material, but are separated as different components depending on their shapes.

次にステップ160において、特徴量代表値対応手段16により、上で分離した各構成要素に特徴量の代表値を対応させる。
三角錐40の場合、全体が同じ材質であると判断されるため、Phongのパラメータ(α、n)は各点毎に保持するのではなく、一組のパラメータ(α、n)で代表させる。この代表点の決め方は、各点のパラメータ(α、n)を各々平均して決定する。また、拡散反射成分も各々平均し一つの拡散反射スペクトルで代表させることにより、共通化する。このように、代表点のみを保持することにより、保持するデータ量を縮小することができる。
Next, in step 160, the feature quantity representative value handling means 16 associates the representative value of the feature quantity with each component separated above.
In the case of the triangular pyramid 40, since it is judged that the whole is made of the same material, the Phong parameter (α, n) is not held for each point but is represented by a set of parameters (α, n). This representative point is determined by averaging the parameters (α, n) of each point. Further, the diffuse reflection components are averaged, and are made common by representing them with one diffuse reflection spectrum. Thus, by holding only representative points, the amount of data to be held can be reduced.

また、法線ベクトル方向については、左面42の全ての点で法線ベクトル方向は((1/3)1/2 ,(1/3)1/2 ,(1/3)1/2 )で代表させ、右面44の全ての点で法線ベクトル方向は(−(1/3)1/2 ,(1/3)1/2 ,(1/3)1/2 )で代表させる。
この時、一般的には、法線ベクトル方向を共通化する際、まず何度以内の法線方向の変化であれば共通化するのかを決定する。例えば、X、Y、Z各方向で数度(例えば5度)以内のデータを共通化するようにする。次に、共通化された法線ベクトル方向の平均値を計算して、代表値を決定する。
As for the normal vector direction, the normal vector directions are ((1/3) 1/2 , (1/3) 1/2 , (1/3) 1/2 ) at all points on the left surface 42. The normal vector directions are represented by (− (1/3) 1/2 , (1/3) 1/2 , (1/3) 1/2 ) at all points on the right surface 44.
At this time, in general, when the normal vector direction is made common, first, it is determined how many normal direction changes should be made common. For example, data within several degrees (for example, 5 degrees) in each of the X, Y, and Z directions is shared. Next, the average value in the direction of the common normal vector is calculated to determine the representative value.

次に、三角錐40の場合、左面42の代表値である法線ベクトルデータ((1/3)1/2 ,(1/3)1/2 ,(1/3)1/2 )に番号1を付与し、右面44の代表値である法線ベクトルデータ(−(1/3)1/2 ,(1/3)1/2 ,(1/3)1/2 )に番号2を付与する。そして、各点毎に、法線ベクトルデータを持つ代わりに、上で付与した番号1または2を持たせるようにする。
すなわち、左面42の各点では法線ベクトルデータは1、右面44の各点では法線ベクトルデータは2、となる。また別途、各番号1および2とそれぞれが表す法線ベクトルデータとの対応を保持するようにする。これにより、各点毎に法線ベクトルデータを保持する場合に比べ、データ量を約1/3に縮小することができる。
Next, in the case of the triangular pyramid 40, the normal vector data ((1/3) 1/2 , (1/3) 1/2 , (1/3) 1/2 ) which is a representative value of the left surface 42 is numbered. 1 is assigned, and number 2 is assigned to the normal vector data (-(1/3) 1/2 , (1/3) 1/2 , (1/3) 1/2 ), which is a representative value of the right surface 44. To do. Each point is given the number 1 or 2 given above instead of having the normal vector data.
That is, the normal vector data is 1 at each point on the left surface 42, and the normal vector data is 2 at each point on the right surface 44. Separately, the correspondence between the numbers 1 and 2 and the normal vector data represented by the numbers 1 and 2 is maintained. As a result, the amount of data can be reduced to about 比 べ as compared with the case where normal vector data is held for each point.

このように、被写体を各構成要素に分離して、各構成要素において、拡散反射率データとPhongのモデルのパラメータ(α、n)を1つの代表点により共通化して保持し、また、法線ベクトルデータについても、1つの値で代表させて保持することにより、質感を再現するためのデータである質感情報データを大幅に縮小することができる。   In this way, the subject is separated into each component, and in each component, diffuse reflectance data and Phong model parameters (α, n) are held in common by one representative point, and the normal line The vector data is also represented by a single value, and the texture information data, which is data for reproducing the texture, can be greatly reduced.

また、上で説明したように、圧縮して保持された質感情報データを利用して、画像処理を行い、質感を再現した画像を作成する場合には、以下のようにして行う。
まずステップ170において、分離された各構成要素毎に質感再現画像データを作成する。上記圧縮して保持された質感情報データと、光源のスペクトルデータ、光源の位置データ、観察位置データをPhongのモデルに適用することで、各点毎の観察位置への分光反射率データが計算できる。
すなわち、被写体の位置情報より計算される法線ベクトル、光源の位置情報、観察位置情報にPhongのモデルのパラメータ、拡散反射率データを掛け合わせることで、観察方向での被写体の分光分布値を計算し、質感再現画像データを作成する。
Further, as described above, when image processing is performed using texture information data compressed and held to create an image in which the texture is reproduced, the processing is performed as follows.
First, in step 170, texture reproduction image data is created for each separated component. By applying the compressed texture information data, light source spectrum data, light source position data, and observation position data to the Phong model, spectral reflectance data to the observation position for each point can be calculated. .
That is, the spectral distribution value of the object in the observation direction is calculated by multiplying the normal vector calculated from the object position information, the position information of the light source, and the observation position information by the parameters of the Phong model and the diffuse reflectance data. Then, material reproduction image data is created.

次にステップ180において、各構成要素毎に作成された質感再現画像データを組み合わせることにより被写体の質感再現性を重視した、質感再現画像を作成する。
このように、本実施形態においては、偏角情報(拡散反射率データ)、分光情報(Phongのモデルのパラメータ)、距離情報(法線ベクトル方向)という質感情報データとしての特徴量を用いて、被写体画像を、質感が同じ(一様な)各構成要素に分離し、各構成要素毎にその質感を表す質感情報データを1つの代表点で代表させることにより、質感画像データ量を圧縮し、データを記憶、保持する際の記憶容量の節約およびデータ伝送時のトラフィック、時間軽減を図ることができる。
Next, in step 180, a texture reproduction image that emphasizes the texture reproducibility of the subject is created by combining the texture reproduction image data created for each component.
As described above, in the present embodiment, using the feature amount as the texture information data such as declination information (diffuse reflectance data), spectral information (Phong's model parameter), and distance information (normal vector direction), The subject image is separated into each component having the same texture (uniform), and the texture information data representing the texture is represented by one representative point for each component, thereby compressing the amount of the texture image data, It is possible to save storage capacity when storing and holding data and reduce traffic and time during data transmission.

また、以上説明した画像処理方法を実行するプログラムを組んで所定の記録媒体に記憶し、これから読み込んで、あるいは、ネットワーク等を通じてダウンロードすることにより任意のコンピュータで本発明の画像処理方法を実行することができ、簡単に質感を忠実に再現した画像を得ることが可能となる。   Also, the image processing method of the present invention can be executed on an arbitrary computer by assembling a program for executing the above-described image processing method, storing the program in a predetermined recording medium, and reading or downloading the program through a network or the like. Therefore, it is possible to easily obtain an image that faithfully reproduces the texture.

以上、本発明の画像処理方法および装置について、詳細に説明したが、本発明は、以上の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、各種の改良や変更を行ってもよいのはもちろんである。   The image processing method and apparatus of the present invention have been described in detail above. However, the present invention is not limited to the above embodiments, and various improvements and modifications can be made without departing from the gist of the present invention. Of course you can go.

本発明に係る画像処理方法を実行する画像処理装置の一実施形態の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an embodiment of an image processing apparatus that executes an image processing method according to the present invention. Phongのモデルを説明するための図である。It is a figure for demonstrating the model of Phong. 本実施形態の画像処理方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing method of this embodiment. 本実施形態において被写体として用いる三角錐を表す斜視図である。It is a perspective view showing the triangular pyramid used as a to-be-photographed object in this embodiment.

符号の説明Explanation of symbols

10 被写体
12 質感情報データ取得手段
14 構成要素分離手段
16 特徴量代表値対応手段
18 画像処理手段
20 偏角分光情報取得手段
22 距離情報取得手段
24 偏角情報取得手段
26 分光情報取得手段
28 法線ベクトル方向算出手段
30 光源
32 表面
40 三角錐
42 左面
44 右面
DESCRIPTION OF SYMBOLS 10 Subject 12 Texture information data acquisition means 14 Component element separation means 16 Feature quantity representative value correspondence means 18 Image processing means 20 Declination spectral information acquisition means 22 Distance information acquisition means 24 Declination information acquisition means 26 Spectral information acquisition means 28 Normal line Vector direction calculation means 30 Light source 32 Surface 40 Triangular pyramid 42 Left side 44 Right side

Claims (9)

被写体を撮影して被写体画像を取得する際、前記被写体の質感を表す質感情報データを取得し、
前記質感情報データの特徴量に基づいて、前記被写体画像を、前記特徴量が略同一の値を有する各構成要素に分離し、
前記分離された各構成要素に、前記各構成要素における前記特徴量の代表値を対応させることにより、前記質感情報データを圧縮するようにしたことを特徴とする画像処理方法。
When capturing a subject image by capturing a subject, acquiring material information data representing the texture of the subject,
Based on the feature amount of the texture information data, the subject image is separated into constituent elements having the same feature value.
An image processing method, wherein the texture information data is compressed by associating each separated component with a representative value of the feature amount in each component.
前記質感情報データの特徴量として、前記被写体の表面上の各点における2次元的な距離情報と、偏角分光情報を用いる請求項1に記載の画像処理方法。   The image processing method according to claim 1, wherein two-dimensional distance information and declination spectral information at each point on the surface of the subject are used as the feature amount of the texture information data. 前記被写体の偏角分光情報を、偏角情報と分光情報に分解して、前記特徴量として用いる請求項2に記載の画像処理方法。   The image processing method according to claim 2, wherein the declination spectral information of the subject is decomposed into declination information and spectral information and used as the feature amount. 前記被写体の2次元的な距離情報から前記被写体表面上の各点の法線ベクトル方向を算出して、前記特徴量として用いる請求項2または3に記載の画像処理方法。   The image processing method according to claim 2 or 3, wherein a normal vector direction of each point on the subject surface is calculated from the two-dimensional distance information of the subject and used as the feature amount. 被写体を撮影して被写体画像を取得する際、前記被写体の質感を表す質感情報データを取得する手段と、
前記質感情報データの特徴量に基づいて、前記被写体画像を、前記特徴量が略同一の値を有する各構成要素に分離する手段と、
前記分離された各構成要素に、前記各構成要素における前記特徴量の代表値を対応させる手段と、
を有し、前記質感情報データを圧縮するようにしたことを特徴とする画像処理装置。
Means for acquiring texture information data representing the texture of the subject when photographing the subject and obtaining the subject image;
Means for separating the subject image into components having substantially the same value based on the feature amount of the texture information data;
Means for associating each separated component with a representative value of the feature value in each component;
And an image processing apparatus characterized in that the texture information data is compressed.
前記被写体の質感を表す質感情報データを取得する手段は、前記被写体の表面上の各点における2次元的な距離情報を取得する距離情報取得手段及び前記被写体の表面上の各点における偏角分光情報を取得する偏角分光情報取得手段である請求項5に記載の画像処理装置。   Means for obtaining texture information data representing the texture of the subject includes distance information obtaining means for obtaining two-dimensional distance information at each point on the surface of the subject and declination spectroscopy at each point on the surface of the subject. The image processing apparatus according to claim 5, which is a declination spectral information acquisition unit that acquires information. 請求項6に記載の画像処理装置であって、さらに、前記被写体の偏角分光情報を、偏角情報と分光情報に分解する手段を有する画像処理装置。   The image processing apparatus according to claim 6, further comprising means for decomposing the declination spectral information of the subject into declination information and spectral information. 請求項6または7に記載の画像処理装置であって、さらに、前記被写体の2次元的な距距離情報から前記被写体表面上の各点の法線ベクトル方向を算出する手段を有する画像処理装置。   8. The image processing apparatus according to claim 6, further comprising means for calculating a normal vector direction of each point on the subject surface from two-dimensional distance information of the subject. 請求項1〜4のいずれかに記載の画像処理方法を実行するためのプログラム。
The program for performing the image processing method in any one of Claims 1-4.
JP2003389492A 2003-11-19 2003-11-19 Image processing method and device Withdrawn JP2005149390A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003389492A JP2005149390A (en) 2003-11-19 2003-11-19 Image processing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003389492A JP2005149390A (en) 2003-11-19 2003-11-19 Image processing method and device

Publications (1)

Publication Number Publication Date
JP2005149390A true JP2005149390A (en) 2005-06-09

Family

ID=34696222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003389492A Withdrawn JP2005149390A (en) 2003-11-19 2003-11-19 Image processing method and device

Country Status (1)

Country Link
JP (1) JP2005149390A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7486837B2 (en) 2004-12-07 2009-02-03 Panasonic Corporation Method, device, and program for image conversion, method, device and program for texture mapping, and server-client system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7486837B2 (en) 2004-12-07 2009-02-03 Panasonic Corporation Method, device, and program for image conversion, method, device and program for texture mapping, and server-client system

Similar Documents

Publication Publication Date Title
Finlayson et al. Solving for colour constancy using a constrained dichromatic reflection model
US7200262B2 (en) 3-dimensional image processing method, 3-dimensional image processing device, and 3-dimensional image processing system
US6831641B2 (en) Modeling and rendering of surface reflectance fields of 3D objects
US6903738B2 (en) Image-based 3D modeling rendering system
JP4324238B2 (en) Image processing system, method and apparatus
JP6039008B2 (en) Coloring evaluation apparatus and coloring evaluation method
US20030231173A1 (en) Modeling 3D objects with opacity hulls
EP2833327B1 (en) Method and system for digitally generating appearance data
JP2015155892A (en) Color inspection device and color inspection method
KR20010012303A (en) Method for image processing
Pintus et al. State‐of‐the‐art in Multi‐Light Image Collections for Surface Visualization and Analysis
Elkhuizen et al. Gloss, color, and topography scanning for reproducing a painting’s appearance using 3D printing
JP6371237B2 (en) Coloring evaluation apparatus and coloring evaluation method
Apollonio et al. Photogrammetry driven tools to support the restoration of open-air bronze surfaces of sculptures: an integrated solution starting from the experience of the Neptune Fountain in Bologna
JP2018004421A (en) Apparatus and method for evaluating feel of metal surface
JP2018128436A (en) Surface roughness determination device and determination method
Tonsho et al. Development of goniophotometric imaging system for recording reflectance spectra of 3D objects
JP4756148B2 (en) Gloss / color reproduction system, gloss / color reproduction program
JP2005149390A (en) Image processing method and device
WO2023281207A1 (en) Method and system for generating predictive computer-generated images, and lighting-condition-acquiring equipment implemented in this system
Zendagui et al. Quality assessment of reconstruction and relighting from RTI images: application to manufactured surfaces
Elkhuizen et al. Reproducing oil paint gloss in print for the purpose of creating reproductions of Old Masters
Maczkowski et al. Integrated method for three-dimensional shape and multispectral color measurement
Gaiani Color Acquisition, Management, rendering, and assessment in 3D reality-based models construction
Goesele New acquisition techniques for real objects and light sources in computer graphics

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206