JP2014224718A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2014224718A
JP2014224718A JP2013103330A JP2013103330A JP2014224718A JP 2014224718 A JP2014224718 A JP 2014224718A JP 2013103330 A JP2013103330 A JP 2013103330A JP 2013103330 A JP2013103330 A JP 2013103330A JP 2014224718 A JP2014224718 A JP 2014224718A
Authority
JP
Japan
Prior art keywords
image processing
gloss
characteristic data
processing apparatus
focus position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013103330A
Other languages
Japanese (ja)
Other versions
JP6100086B2 (en
Inventor
佐野 利行
Toshiyuki Sano
利行 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013103330A priority Critical patent/JP6100086B2/en
Publication of JP2014224718A publication Critical patent/JP2014224718A/en
Application granted granted Critical
Publication of JP6100086B2 publication Critical patent/JP6100086B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To faithfully reproduce texture of an object.SOLUTION: An image processing apparatus includes: an input part for inputting gloss characteristic data indicating gloss characteristics of an object; a setting part which sets a focus position on the basis of the gloss characteristic data inputted by the input part and a reference gloss value; and an acquisition part which acquires deflection characteristic data of the object measured with a plurality of angles and focus positions, on the basis of the focus position.

Description

本発明は、物体の質感再現技術に関する。   The present invention relates to a texture reproduction technique for an object.

近年、カメラなどの製品のデザイン段階において、モックアップを作成する代わりに、モニタ上でデザインを確認する際にコンピュータグラフィックス(以下、CG)が利用されている。そして、製品の仕上がりを確認するために、光沢感などの質感をCGにおいて実物に忠実に再現することが求められている。   In recent years, in the design stage of products such as cameras, computer graphics (hereinafter referred to as CG) is used to check a design on a monitor instead of creating a mockup. In order to confirm the finished product, it is required to reproduce the texture such as glossiness faithfully in the CG.

実物の質感に忠実な再現方法として、入射光/出射光の角度変化に伴う物体の変角特性を表すBRDFや、物体の位置ごとのBRDFの分布であるBTFを実際に測定し、測定値を用いて物体の質感を再現する手法がある。なお、BRDFは、Bidirectional Reflectance Distribution Function、BTFは、Bidirectional Texture Functionの略語である。   As a reproduction method that is faithful to the texture of the real object, BRDF that represents the change in the angle of the object accompanying the change in the angle of the incident light / outgoing light and the BTF that is the BRDF distribution for each position of the object are actually measured, and the measured value is obtained. There is a method to reproduce the texture of an object. BRDF is an abbreviation of Bidirectional Texture Distribution Function, and BTF is an abbreviation of Bidirectional Texture Function.

物体の光沢特性によって、物体に周囲が写り込んだ像の鮮鋭性が変化する。また、写り込みの鮮鋭性が高い場合、人間は写り込む像を観察するのに対し、写り込みの鮮鋭性が低い場合、物体表面を観察する傾向がある。   Depending on the gloss characteristics of the object, the sharpness of the image in which the surroundings are reflected in the object changes. Further, when the sharpness of the reflection is high, a human observes the reflected image, whereas when the sharpness of the reflection is low, the person tends to observe the object surface.

一方、物体の変角特性は測定器からピント面までの距離であるフォーカス位置により特性が異なる。このため、物体の変角特性の測定値を単純にCGに利用しても、人間が感じる質感と一致しない場合がある。そこで、特許文献1では、誇張パラメータを設定し、設定した誇張パラメータを変角特性の測定値に乗じることにより、人間が物体を観察した場合の質感を再現している。   On the other hand, the variable angle characteristic of an object differs depending on the focus position, which is the distance from the measuring instrument to the focus surface. For this reason, even if the measured value of the variable angle characteristic of an object is simply used for CG, it may not match the texture that humans feel. Therefore, in Patent Document 1, an exaggerated parameter is set, and the set exaggerated parameter is multiplied by a measured value of the angle change characteristic to reproduce the texture when a human observes the object.

特開2008−243046号公報JP 2008-243046 A

しかしながら、特許文献1の手法は、人間の観察時の特性が測定に関連付けられていないため、事前に誇張パラメータを設定する必要がある。また、単純な乗算により変角特性データを生成しているため、生成される変角特性データは必ずしも実際の特性を反映しているとは限らず、質感を忠実に再現できない場合がある。
そこで、本発明は、物体の質感を忠実に再現することを目的とする。
However, in the method of Patent Document 1, since the characteristics at the time of human observation are not associated with measurement, it is necessary to set exaggeration parameters in advance. In addition, since the angle change characteristic data is generated by simple multiplication, the generated angle change characteristic data does not necessarily reflect the actual characteristic, and the texture may not be faithfully reproduced.
Therefore, an object of the present invention is to faithfully reproduce the texture of an object.

本発明に係る画像処理装置は、物体の光沢特性を示す光沢特性データを入力する入力部と、前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定部と、前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得部とを有する。   An image processing apparatus according to the present invention includes an input unit that inputs gloss characteristic data indicating the gloss characteristics of an object, and a setting unit that sets a focus position based on the gloss characteristic data and the reference gloss value input by the input unit. And an acquisition unit that acquires the variable angle characteristic data of the object measured at a plurality of angles and a plurality of focus positions based on the focus position.

本発明は、物体の質感を忠実に再現することができる。   The present invention can faithfully reproduce the texture of an object.

実施例1の画像処理装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 1. FIG. 実施例1の画像処理装置の画像処理装置が行う処理の原理を示す図。FIG. 3 is a diagram illustrating the principle of processing performed by the image processing apparatus of the image processing apparatus according to the first embodiment. 実施例1の画像処理装置における処理を示すフローチャート。3 is a flowchart illustrating processing in the image processing apparatus according to the first exemplary embodiment. 変角特性の取得方法を示す概念図。The conceptual diagram which shows the acquisition method of a variable angle characteristic. 変角特性データの一例を示す図。The figure which shows an example of the variable angle characteristic data. 実施例1におけるフォーカス位置設定処理のフローチャート。7 is a flowchart of focus position setting processing in Embodiment 1. 光沢特性の高い物体、光沢特性の低い物体の変角特性の相違を示す図。The figure which shows the difference in the variable angle characteristic of an object with a high gloss characteristic, and an object with a low gloss characteristic. 実施例2における画像処理装置の構成を示すブロック図。FIG. 4 is a block diagram illustrating a configuration of an image processing apparatus according to a second embodiment. 実施例2における画像処理装置の処理を示すフローチャート。9 is a flowchart showing processing of an image processing apparatus in Embodiment 2. 実施例2における変角特性取得処理のフローチャート。9 is a flowchart of a variable angle characteristic acquisition process in the second embodiment. 実施例2における光量算出処理のフローチャート。10 is a flowchart of light amount calculation processing in the second embodiment. レンダリングを実施するための幾何条件の一例を示した図。The figure which showed an example of the geometric conditions for implementing rendering. 実施例3における変角特性取得処理のフローチャート。10 is a flowchart of a variable angle characteristic acquisition process according to the third embodiment.

以下、本発明の実施例に係る画像処理を図面を参照して詳細に説明する。なお、同一の構成については、同じ符号を付して説明する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, about the same structure, the same code | symbol is attached | subjected and demonstrated.

本実施例に係る画像処理装置の構成について、図1のブロック図を参照して説明する。素材特性入力部11は、質感を再現する対象物体(以降、物体とも呼ぶ)の光沢特性データを入力する。フォーカス位置設定部12は、素材特性入力部11で入力された光沢特性データに基づき、物体の変角特性測定時の測定器からピント面までの距離であるフォーカス位置を設定する。変角特性測定部13は、フォーカス位置設定部12で設定されたフォーカス位置に基づき、物体の変角特性を測定する。変角特性出力部14は、変角特性測定部13で測定された測定データを変角特性保持部15へ出力する。変角特性保持部15は、変角特性出力部14から出力された測定データを保持する。画像処理装置は、図示しない中央処理装置(CPU)が装置全体の制御を行い、読み出し専用記憶装置(ROM)や、計算処理時にCPUが一時的な読み書きを行う記憶装置(RAM)などを含む。   The configuration of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG. The material characteristic input unit 11 inputs gloss characteristic data of a target object (hereinafter also referred to as an object) whose texture is to be reproduced. The focus position setting unit 12 sets a focus position that is a distance from the measuring instrument to the focus surface when measuring the variable angle characteristic of the object based on the gloss characteristic data input by the material characteristic input unit 11. The variable angle characteristic measuring unit 13 measures the variable angle characteristic of the object based on the focus position set by the focus position setting unit 12. The variable angle characteristic output unit 14 outputs the measurement data measured by the variable angle characteristic measuring unit 13 to the variable angle characteristic holding unit 15. The variable angle characteristic holding unit 15 holds the measurement data output from the variable angle characteristic output unit 14. The image processing apparatus includes a central processing unit (CPU) (not shown) that controls the entire apparatus, and includes a read-only storage device (ROM) and a storage device (RAM) that the CPU temporarily reads and writes during calculation processing.

<実施例1における情報処理装置が実行する処理>
本実施例における画像処理装置が実行する処理の原理について説明する。人間は光沢特性の高い物体(例えば、鏡)を観察する場合、物体に写り込む像に注目する。従って、例えば屋内で物体を観察した場合、物体に写り込む照明が観察される。一方、光沢特性の低い物体(例えば、表面の艶消し加工を施したソリッド塗板)を観察する場合、物体表面のテクスチャに注目する。従って、例えば屋内で物体を観察した場合、物体の表面の細かいテクスチャやキズが観察される。
<Processing Performed by Information Processing Device in Embodiment 1>
The principle of processing executed by the image processing apparatus in this embodiment will be described. When a human observes an object with high gloss characteristics (for example, a mirror), he / she pays attention to an image reflected on the object. Therefore, for example, when an object is observed indoors, illumination reflected in the object is observed. On the other hand, when observing an object with low gloss characteristics (for example, a solid coated plate having a matte surface), attention is paid to the texture of the object surface. Therefore, for example, when an object is observed indoors, fine textures and scratches on the surface of the object are observed.

図2は、同一の物体に対し、仰角45度の方向から平行光を照射した際の、試料面にフォーカス位置を設定した場合と写り込む照明像にフォーカス位置を設定した場合とにおける変角特性の測定データを示している。   FIG. 2 shows an angle change characteristic when the same object is irradiated with parallel light from a direction with an elevation angle of 45 degrees and when the focus position is set on the sample surface and when the focus position is set on the reflected illumination image. The measured data is shown.

図2(a)は2つの変角特性の反射強度の相対的な関係を示した図である。図2(a)において、実線201は試料面にフォーカス位置を設定した(以降、試料面フォーカスとも呼ぶ)変角特性の測定値であり、波線202は照明像にフォーカス位置を設定した(以降、照明像フォーカスとも呼ぶ)変角特性の測定値である。なお、実線201及び波線202は、波線202の反射強度の最大値が1になるように正規化している。図2(a)が示すように、試料面フォーカスの測定データは、反射強度のレンジが100:1であるのに対し、照明像フォーカスの反射強度はレンジが300:1であり2つの測定データのレンジは大きく異なる。   FIG. 2A is a diagram showing the relative relationship between the reflection intensities of the two deflection characteristics. In FIG. 2A, a solid line 201 is a measured value of the variable angle characteristic with the focus position set on the sample surface (hereinafter also referred to as sample surface focus), and a wavy line 202 sets the focus position on the illumination image (hereinafter referred to as “focus position”). This is a measured value of the variable angle characteristic (also called illumination image focus). The solid line 201 and the wavy line 202 are normalized so that the maximum value of the reflection intensity of the wavy line 202 is 1. As shown in FIG. 2A, the sample surface focus measurement data has a reflection intensity range of 100: 1, whereas the illumination image focus reflection intensity has a range of 300: 1 and two measurement data. The range is very different.

図2(b)は2つの変角特性の形状の相対的な関係を比較した図である。実線203は、試料面にフォーカス位置を設定した設定した変角特性データ、波線204は、照明像にフォーカス位置を設定した変角特性データであり、それぞれの反射強度が1になるように正規化した図である。図2(b)が示すように、両データの半値幅(正反射から反射強度が半分になったときの角度)の差は約0.3度と異なることがわかる。   FIG. 2B is a diagram comparing the relative relationship between the shapes of the two deflection characteristics. The solid line 203 is the declination characteristic data set with the focus position set on the sample surface, and the wavy line 204 is the declination characteristic data set with the focus position on the illumination image, normalized so that each reflection intensity becomes 1. FIG. As shown in FIG. 2B, it can be seen that the difference between the half-value widths (angles when the reflection intensity is halved from regular reflection) of both data is different from about 0.3 degrees.

従って、物体の質感を忠実に再現するためには、物体の光沢特性に応じて、適切なフォーカス位置で測定した変角特性を用いることが重要である。本実施例における画像処理装置は、物体の光沢特性に応じて観察時のフォーカス位置が適切な変角特性を用いる。   Therefore, in order to faithfully reproduce the texture of the object, it is important to use the variable angle characteristic measured at an appropriate focus position in accordance with the gloss characteristic of the object. The image processing apparatus in the present embodiment uses a variable angle characteristic in which the focus position at the time of observation is appropriate according to the gloss characteristic of the object.

以下、実施例1における画像処理装置が実行する処理について、図3のフローチャートを用いて説明する。   Hereinafter, processing executed by the image processing apparatus according to the first embodiment will be described with reference to the flowchart of FIG.

ステップS301では、素材特性入力部11からユーザにより再現したいと指示された対象物体の光沢特性データを入力する。なお、本実施例では対象の物体の光沢特性データとして、物体について事前に所定の複数角度、フォーカス位置で測定し、図示しないメモリに保持された複数の変角特性データの中からユーザ指示により選択されたものを入力するものとして説明する。   In step S301, the gloss characteristic data of the target object instructed by the user from the material characteristic input unit 11 is input. In this embodiment, as the gloss characteristic data of the target object, the object is measured in advance at a predetermined multiple angles and focus positions, and selected from a plurality of variable angle characteristic data held in a memory (not shown) according to a user instruction. It is assumed that the input is input.

ステップS302では、フォーカス位置設定部12は、素材特性入力部11で入力された光沢特性データに基づいてフォーカス位置Dを設定する。ステップS302の処理の詳細については後述する。   In step S <b> 302, the focus position setting unit 12 sets the focus position D based on the gloss characteristic data input by the material characteristic input unit 11. Details of the processing in step S302 will be described later.

ステップS303では、変角特性測定部13は、フォーカス位置設定部12で設定されたフォーカス位置Dに基づいて物体の変角特性を測定する。図4は変角特性測定部13が実行する変角特性測定方法の概念を示した図である。図4において、光源401は、対象物体403に照射するための平行光源である。例えば、白色ハロゲンランプのほかレーザ光などを用いることができる。受光器402は、対象物体403の中心位置を中心に角度を変化させることが可能である。受光器402は光源401から照射され、対象物体403に反射された反射光量を取得する。ここでは、受光器402を撮像装置として説明するが、必ずしも撮像装置である必要はなく、受光素子を平面上に有するものであればよい。像404は試料に写り込む照明像である。   In step S <b> 303, the variable angle characteristic measuring unit 13 measures the variable angle characteristic of the object based on the focus position D set by the focus position setting unit 12. FIG. 4 is a diagram showing the concept of the variable angle characteristic measuring method executed by the variable angle characteristic measuring unit 13. In FIG. 4, a light source 401 is a parallel light source for irradiating a target object 403. For example, in addition to a white halogen lamp, laser light or the like can be used. The light receiver 402 can change the angle around the center position of the target object 403. The light receiver 402 acquires the amount of reflected light emitted from the light source 401 and reflected by the target object 403. Here, the light receiver 402 will be described as an imaging device, but the imaging device is not necessarily an imaging device, and may have any light receiving element on a plane. An image 404 is an illumination image reflected on the sample.

像404が示すように、対象物体403に写り込む照明像は、対象物体面に対して対称な位置にあると見なすことができる。従って、光源401に対して受光器402が、例えば正反射方向に設置されている場合、像404は受光器402と正対させたときの距離D離れた位置にあると見なすことができる。 As the image 404 indicates, the illumination image reflected on the target object 403 can be regarded as being in a symmetric position with respect to the target object plane. Therefore, the light receiver 402 with respect to the light source 401, for example, if installed in the specular direction, the image 404 can be regarded as a distance D L away when directly facing the light receiver 402.

また、位置405はフォーカス位置設定部12が設定した位置である。すなわち図4が示すように、受光器402は、受光器から試料面の方向にDだけ離れた位置405にピントが合うように撮影を行う。   A position 405 is a position set by the focus position setting unit 12. That is, as shown in FIG. 4, the light receiver 402 performs imaging so as to focus on a position 405 separated from the light receiver by D in the direction of the sample surface.

上記のような構成において、変角特性測定部13は、物体に対して入射角(θin, φin)、と、受光角(θout, φout)を変化させながら撮影を行う。なお、上記では撮影を行うことで物体の変角特性を取得した。一方、予め複数の角度および複数のフォーカス位置により測定された物体の変角特性を示す複数の変角特性データを図示しないメモリに保持しておき、その中からステップS302で設定されたフォーカス位置Dに対応する変角特性データを取得してもよい。 In the configuration as described above, the variable angle characteristic measurement unit 13 performs imaging while changing the incident angle (θ in , φ in ) and the light receiving angle (θ out , φ out ) with respect to the object. In the above description, the deflection characteristic of the object is acquired by photographing. On the other hand, a plurality of variable angle characteristic data indicating the variable angle characteristics of the object measured in advance by a plurality of angles and a plurality of focus positions are held in a memory (not shown), and the focus position D set in step S302 is stored therein. Deflection characteristic data corresponding to may be acquired.

ステップS304では、変角特性出力部14は、ステップS303で変角特性測定部13が撮影した撮影データの各画像に対して、共通する画素位置の画素値を、撮影画像ごとにまとめることで、変角特性データへ変換し、変角特性保持部15へ出力する。図5は変角特性保持部15が保持する変角特性データの一例を示す図である。図5が示すように、測定時のフォーカス位置の情報に加えて、位置(x, y)ごとに入射角(θin, φin)、受光角(θout, φout)毎の反射率データが格納される。 In step S304, the variable angle characteristic output unit 14 collects the pixel values of the common pixel positions for each image of the captured data captured by the variable angle characteristic measurement unit 13 in step S303 for each captured image. The converted angle characteristic data is output to the variable angle characteristic holding unit 15. FIG. 5 is a diagram showing an example of the angle change characteristic data held by the angle change characteristic holding unit 15. As shown in FIG. 5, in addition to information on the focus position at the time of measurement, reflectance data for each incident angle (θ in , φ in ) and each receiving angle (θ out , φ out ) for each position (x, y). Is stored.

<ステップS302の処理の詳細>
以下では、ステップS302のフォーカス位置設定方法について、図6のフローチャートを用いて説明する。
<Details of Step S302>
Hereinafter, the focus position setting method in step S302 will be described with reference to the flowchart of FIG.

ステップS601では、ステップS301で入力された光沢特性データから、式1を満たす角度θを算出する。   In step S601, an angle θ satisfying Equation 1 is calculated from the gloss characteristic data input in step S301.

Figure 2014224718
Figure 2014224718

なお、式(1)においてImaxは反射強度の最大値であり、θは反射強度が半値となる角度である半値幅に相当する。   In Expression (1), Imax is the maximum value of the reflection intensity, and θ corresponds to a half-value width that is an angle at which the reflection intensity becomes half value.

図7は光沢特性の異なる2つの素材の変角特性を表した図である。実線701は光沢特性の高い物体の変角特性を、波線702は光沢特性の低い物体の変角特性を表している。図7が示すように光沢特性の高い物体の半値幅は約0.5度と低い値を示すが、光沢特性の低い物体の半値幅は約5.0度と高い値を示す。従って、本ステップでは、物体の光沢特性を示す光沢値として変角特性の半値幅θを用いる。   FIG. 7 is a diagram showing the deflection characteristics of two materials having different gloss characteristics. A solid line 701 represents the angle change characteristic of an object having high gloss characteristics, and a wavy line 702 represents the angle change characteristic of an object having low gloss characteristics. As shown in FIG. 7, the full width at half maximum of an object with high gloss characteristics is as low as about 0.5 degrees, while the full width at half maximum of an object with low gloss characteristics is as high as about 5.0 degrees. Therefore, in this step, the half-value width θ of the variable angle characteristic is used as the gloss value indicating the gloss characteristic of the object.

ステップS602では、ステップS601で算出した半値幅θと、基準となる高光沢な試料、及び低光沢な試料の光沢値(基準光沢値)との比率を用いて、以下の式(2)によりフォーカス位置Dを算出する。なお、式(2)において、θは基準となる高光沢な試料の変角特性の半値幅であり、例えば、黒色研磨ガラス(BK7)の半値幅である。θは基準となる低光沢な試料の変角特性の半値幅であり、例えば、エナメル(バインダ)に顔料粒子(金属酸化物など)を分散させたソリッド塗板などの半値幅である。θ、θは、図示しないメモリに予め保持する。また、図4に記載のように、Dは受光器402から対象物体403までの距離であり、Dは受光器と正対した場合の受光器から光源までの距離(すなわち、受光器402と照明像404の距離)である。 In step S602, using the ratio between the half-value width θ calculated in step S601 and the gloss value (reference gloss value) of the reference high-gloss sample and low-gloss sample, the focus is calculated by the following equation (2). The position D is calculated. In Equation (2), θ H is the half-value width of the variable angle characteristic of the reference high-gloss sample, for example, the half-value width of black polished glass (BK7). θ L is the half-value width of the variable angle characteristic of the low-gloss sample as a reference, for example, the half-value width of a solid coated plate in which pigment particles (metal oxide or the like) are dispersed in enamel (binder). θ H and θ L are stored in advance in a memory (not shown). As shown in FIG. 4, DH is the distance from the light receiver 402 to the target object 403, and DL is the distance from the light receiver to the light source when facing the light receiver (that is, the light receiver 402). And the distance of the illumination image 404).

Figure 2014224718
Figure 2014224718

本実施例によれば、物体観察時の人間の特性を考慮し、物体の光沢特性に適切な変角特性データを取得することが可能になる。   According to the present embodiment, it is possible to acquire variable angle characteristic data appropriate for the gloss characteristic of an object in consideration of human characteristics during object observation.

実施例1では、物体の光沢特性に応じた変角特性の測定方法について説明した。本実施例では、測定した変角特性データを用いて物体の質感を再現する方法について実施例1と異なる点を中心に簡潔に説明する。   In the first embodiment, the method for measuring the angle change characteristic according to the gloss characteristic of the object has been described. In the present embodiment, a method for reproducing the texture of an object using measured deflection angle characteristic data will be briefly described focusing on differences from the first embodiment.

実施例2における画像処理装置の構成について図8のブロック図を参照して説明する。図8において、変角特性保持部81は、物体の変角特性を複数のフォーカス位置で測定した変角特性データを保持する。素材特性入力部82は、質感を再現する対象である物体の光沢特性データを入力する。変角特性取得部83は、素材特性入力部82で入力された素材特性データに基づいて、変角特性保持部81の変角特性データから、再現する物体の変角特性データを取得する。レンダリング部86は、変角特性取得部83で取得された変角特性データ、及び、環境情報保持部84に保持されている環境光情報と、3D形状保持部85に保持されている物体の三次元形状データを用いて、CG画像を生成する。画像出力部87は、レンダリング部86で算出されたCG画像をディスプレイなどの外部出力機器へ出力する。   The configuration of the image processing apparatus according to the second embodiment will be described with reference to the block diagram of FIG. In FIG. 8, the variable angle characteristic holding unit 81 holds variable angle characteristic data obtained by measuring the variable angle characteristic of an object at a plurality of focus positions. The material characteristic input unit 82 inputs gloss characteristic data of an object that is a target for reproducing a texture. The variable angle characteristic acquisition unit 83 acquires the variable angle characteristic data of the object to be reproduced from the variable angle characteristic data of the variable angle characteristic holding unit 81 based on the material characteristic data input by the material characteristic input unit 82. The rendering unit 86 includes the variable angle characteristic data acquired by the variable angle characteristic acquisition unit 83, the ambient light information held in the environment information holding unit 84, and the tertiary of the object held in the 3D shape holding unit 85. A CG image is generated using the original shape data. The image output unit 87 outputs the CG image calculated by the rendering unit 86 to an external output device such as a display.

以下、実施例2における画像処理装置が実行する処理について、図9のフローチャートを用いて説明する。   Hereinafter, processing executed by the image processing apparatus according to the second embodiment will be described with reference to the flowchart of FIG.

ステップS901は実施例1におけるステップS301と同様であるため、説明を省略する。   Since step S901 is the same as step S301 in the first embodiment, description thereof is omitted.

ステップS902では、変角特性取得部83は、ステップS901で入力された光沢特性データに基づいて、物体の変角特性データを取得する。なお、ステップS902の詳細は後述する。   In step S902, the variable angle characteristic acquisition unit 83 acquires variable angle characteristic data of the object based on the gloss characteristic data input in step S901. Details of step S902 will be described later.

ステップS903では、ステップS902で取得された物体の変角特性データ及び、環境情報保持部84に保持されている環境光情報、3D形状保持部85に保持されている再現物体の三次元形状データを基に、物体に反射する光量を算出しCG画像を生成する。なお、ステップS903の詳細は後述する。   In step S903, the variable angle characteristic data of the object acquired in step S902, the ambient light information held in the environment information holding unit 84, and the three-dimensional shape data of the reproduced object held in the 3D shape holding unit 85 are obtained. Based on this, the amount of light reflected by the object is calculated to generate a CG image. Details of step S903 will be described later.

ステップS904では、画像出力部87は、ステップS902で算出されたCG画像をディスプレイなどの外部出力機器へ出力する。   In step S904, the image output unit 87 outputs the CG image calculated in step S902 to an external output device such as a display.

<ステップS902の詳細>
以下では、実施例2における変角特性取得方法について、図10のフローチャートを用いて説明する。
<Details of Step S902>
In the following, the variable angle characteristic acquisition method according to the second embodiment will be described with reference to the flowchart of FIG.

ステップS1001、ステップS1002は、実施例1におけるステップS601、S602と同様である。   Steps S1001 and S1002 are the same as steps S601 and S602 in the first embodiment.

ステップS1003では、ステップS1002で算出したフォーカス位置Dで測定した物体の変角特性データを変角特性保持部81から取得する。   In step S1003, the variable angle characteristic data of the object measured at the focus position D calculated in step S1002 is acquired from the variable angle characteristic holding unit 81.

<ステップS903の詳細>
以下では、実施例2におけるステップS903の光量算出処理について、図11のフローチャートを用いて説明する。
<Details of Step S903>
Hereinafter, the light amount calculation processing in step S903 in the second embodiment will be described with reference to the flowchart of FIG.

S1101では、環境情報保持部84に記憶されている照明データを読み込む。   In S1101, the illumination data stored in the environment information holding unit 84 is read.

S1102では、3D形状保持部85に記憶されている物体の3D形状データを読み込む。   In S1102, the 3D shape data of the object stored in the 3D shape holding unit 85 is read.

S1103では、レンダリングを実施するための仮想カメラ、仮想スクリーン、物体位置、および照明位置の幾何条件を設定する。図12(a)はレンダリングを実施するための幾何条件の一例を示した図である。   In step S1103, the virtual camera, virtual screen, object position, and illumination position geometric conditions for rendering are set. FIG. 12A is a diagram illustrating an example of a geometric condition for performing rendering.

S1104では、仮想スクリーン上における注目画素を初期値(例えば、X=0,Y=0の画素)に設定する。   In step S1104, the target pixel on the virtual screen is set to an initial value (for example, a pixel with X = 0, Y = 0).

S1105では、仮想カメラと、仮想スクリーン上の注目画素とを結ぶ直線を、視線ベクトルとして設定し、視線ベクトルと対象物体との交点(xc、yc、zc)を算出する。   In S1105, a straight line connecting the virtual camera and the target pixel on the virtual screen is set as a line-of-sight vector, and an intersection (xc, yc, zc) between the line-of-sight vector and the target object is calculated.

S1106では、S1105にて算出した交点における、対象物体の法線ベクトルNを算出する。   In S1106, the normal vector N of the target object at the intersection calculated in S1105 is calculated.

S1107では、S1105にて算出した交点と、照明とを結ぶ照明ベクトルNを算出する。   In S1107, an illumination vector N that connects the intersection calculated in S1105 and the illumination is calculated.

S1108では、S1105にて算出した交点における、対象物体の変角特性データを設定する。具体的にはステップS1105で算出した交点に対応した位置(x、y)の変角特性であるBTF(x、y、φ)を設定する。   In S1108, the angle-changing characteristic data of the target object at the intersection calculated in S1105 is set. Specifically, BTF (x, y, φ), which is the deflection characteristic of the position (x, y) corresponding to the intersection calculated in step S1105, is set.

S1109では、S1108にて算出した変角特性データ、および、視線ベクトル、法線ベクトル、照明ベクトルを用い、注目画素の輝度値を算出する。   In S1109, the luminance value of the target pixel is calculated using the variable angle characteristic data calculated in S1108, the line-of-sight vector, the normal vector, and the illumination vector.

S1110では、仮想スクリーン上のすべての画素について、輝度算出処理を行ったか否かを判断し、終了していれば、S1112に進み、終了していなければ、S1111に進む。   In S1110, it is determined whether or not the luminance calculation processing has been performed for all the pixels on the virtual screen. If completed, the process proceeds to S1112. If not completed, the process proceeds to S1111.

S1111では、注目画素を、仮想スクリーン上の未処理画素に変更し、S1105に戻る。   In step S1111, the target pixel is changed to an unprocessed pixel on the virtual screen, and the process returns to step S1105.

S1112では、S1109にて算出した輝度データに基づきCG画像を描画する。   In S1112, a CG image is drawn based on the luminance data calculated in S1109.

なお、図12(b)はステップS1105からステップS1108における視線ベクトル、法線ベクトル、照明ベクトルとの関係を表している。   FIG. 12B shows the relationship between the line-of-sight vector, the normal vector, and the illumination vector in steps S1105 to S1108.

本実施例によれば、物体の光沢特性に適した変角特性データを用いることにより、物体観察時の質感を忠実に再現することが可能となる。   According to the present embodiment, it is possible to faithfully reproduce the texture at the time of object observation by using the variable angle characteristic data suitable for the gloss characteristic of the object.

実施例2では、変角特性取得部において、フォーカス位置の変角特性の測定値は予め測定されているものとして説明を行った。しかしながら、変角特性保持部には必ずしも所望のフォーカス位置で測定した測定データが保持されているとは限らない。そこで、本実施例では、変角特性取得部において、所望のフォーカス位置の測定値を保持しない場合であっても任意のフォーカス位置の変角特性を推定する。そして、推定した変角特性データを用いて忠実に質感を再現する場合について実施例1及び実施例2と異なる点を中心に簡潔に説明する。   In the second embodiment, the explanation is made on the assumption that the measured value of the changing angle characteristic of the focus position is measured in advance in the changing angle characteristic acquisition unit. However, measurement data measured at a desired focus position is not always held in the variable angle characteristic holding unit. Therefore, in this embodiment, the variable angle characteristic acquisition unit estimates the variable angle characteristic of an arbitrary focus position even when the measured value of the desired focus position is not held. A case where the texture is faithfully reproduced using the estimated angle-change characteristic data will be briefly described focusing on differences from the first and second embodiments.

<実施例3における変角特性取得方法に関する処理の詳細>
以下では、実施例3における変角特性取得処理について、図13のフローチャートを用いて説明する。
<Details of Process Regarding Deflection Characteristic Acquisition Method in Example 3>
Hereinafter, the variable angle characteristic acquisition process in the third embodiment will be described with reference to the flowchart of FIG.

ステップS1301及びステップS1302は、ステップS1001及びステップS1002と同様である。   Step S1301 and step S1302 are the same as step S1001 and step S1002.

ステップS1303では、以下の式(3)を満たすフォーカス位置D及びDN+1を取得する。なお、式(3)において、DはDよりも小さい値でかつDに最も近いフォーカス位置であり、DN+1とは、Dよりも大きくかつDに最も近いフォーカス位置である。ただし、D及びDN+1は測定に用いたフォーカス位置である。 In step S1303, focus positions DN and DN + 1 satisfying the following expression (3) are acquired. In Expression (3), DN is a value smaller than D and closest to D, and DN + 1 is a focus position larger than D and closest to D. However, DN and DN + 1 are focus positions used for measurement.

Figure 2014224718
Figure 2014224718

ステップS1104では、ステップS1103で取得したD及びDN+1に対応する変角特性データを変角特性保持部から取得し、以下の式(4)により、フォーカス位置Dに対応した変角特性データを生成する。 In step S1104, the variable angle characteristic data corresponding to DN and DN + 1 acquired in step S1103 is acquired from the variable angle characteristic holding unit, and the variable angle characteristic data corresponding to the focus position D is obtained by the following equation (4). Generate.

Figure 2014224718
Figure 2014224718

なお、式(4)において、BTF及びBTFN+1はそれぞれフォーカス位置Dの変角特性データ、フォーカス位置DN+1の変角特性データである。 In Expression (4), BTF N and BTF N + 1 are the angle change characteristic data of the focus position D and the angle change characteristic data of the focus position D N + 1 , respectively.

本実施例によれば、事前に所望のフォーカス位置による変角特性を測定しない場合であっても、任意のフォーカス位置の変角特性データを推定することにより、物体の質感を再現することが可能となる。   According to this embodiment, even if the angle change characteristic at a desired focus position is not measured in advance, the texture of the object can be reproduced by estimating the angle change characteristic data at an arbitrary focus position. It becomes.

〔他の実施例〕
実施例3では、所望の測定値を測定していない場合に変角特性データを推定する方法について説明したが、必ずしも推定する必要はない。例えば、フォーカス位置Dに最も近いフォーカス位置の変角特性データを変角特性保持部から選択してもよい。
[Other Examples]
In the third embodiment, the method of estimating the variable angle characteristic data when the desired measurement value is not measured has been described. However, the estimation is not necessarily required. For example, the change angle characteristic data of the focus position closest to the focus position D may be selected from the change angle characteristic holding unit.

上記実施例では、物体の素材特性として簡易的に測定した変角特性データを入力し半値幅を算出したが、光沢特性に相当するデータであればこれに限らない。例えば、算出されるデータは、半値幅の変わりに物体の変角特性の反射強度の最大値であってもよい。この場合、光沢特性が高い物体であれば大きい値となり、光沢特性が低い物体であれば小さい値となるため、上記最大値を用いることが可能である。   In the above embodiment, the angle difference characteristic data simply measured as the material characteristic of the object is input and the half-value width is calculated. However, the present invention is not limited to this as long as the data corresponds to the gloss characteristic. For example, the calculated data may be the maximum value of the reflection intensity of the variable angle characteristic of the object instead of the half width. In this case, if the object has high gloss characteristics, the value is large, and if the object has low gloss characteristics, the value is small. Therefore, the maximum value can be used.

また、入力されるデータは物体の表面粗さのデータであってもよい。この場合、表面粗さの分散値が算出可能であり、分散値が大きいほど低光沢となり、分散値が小さいほど高光沢となるため、粗さのデータを用いることが可能である。   The input data may be data on the surface roughness of the object. In this case, the dispersion value of the surface roughness can be calculated, and the higher the dispersion value, the lower the gloss, and the smaller the dispersion value, the higher the gloss. Therefore, the roughness data can be used.

また、本発明は、上述した実施例の機能(例えば、上記のフローチャートにより示される工程)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。   The present invention can also be realized by supplying a storage medium storing a program code of software for realizing the functions of the above-described embodiments (for example, the steps shown in the above flowchart) to a system or apparatus. In this case, the functions of the above-described embodiments are realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium so that the computer can read the program code. Further, the program may be executed by one computer or may be executed in conjunction with a plurality of computers.

Claims (8)

物体の光沢特性を示す光沢特性データを入力する入力部と、
前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定部と、
前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得部と
を有することを特徴とする画像処理装置。
An input unit for inputting gloss characteristic data indicating the gloss characteristic of the object;
A setting unit for setting a focus position based on the gloss characteristic data and the reference gloss value input by the input unit;
An image processing apparatus comprising: an acquisition unit configured to acquire change angle characteristic data of an object measured at a plurality of angles and a plurality of focus positions based on the focus position.
前記取得部は、前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性を測定し、前記フォーカス位置は、該測定時の受光器とピント面との距離であることを特徴とする請求項1に記載の画像処理装置。   The acquisition unit measures an angle change characteristic of an object measured at a plurality of angles and a plurality of focus positions based on the focus position, and the focus position is a distance between a light receiver and a focus surface at the time of the measurement. The image processing apparatus according to claim 1, wherein the image processing apparatus is provided. 前記光沢特性は、変角特性データの反射強度、半値幅、または、表面粗さの分散値の少なくともいずれか1つを含むことを特徴とする請求項1または請求項2に記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein the gloss characteristic includes at least one of a reflection intensity, a half-value width, and a surface roughness dispersion value of the variable angle characteristic data. . 前記設定部で設定されるフォーカス位置は、受光器と試料面までの距離、及び、受光器と光源を正対させた時の距離と、物体の素材特性から算出される反射強度、半値幅、または、表面粗さの分散値のいずれか1つの値との比から算出されることを特徴とする請求項1または請求項2に記載の画像処理装置。   The focus position set by the setting unit is the distance between the light receiver and the sample surface, the distance when the light receiver and the light source are directly opposed, the reflection intensity calculated from the material characteristics of the object, the half width, The image processing apparatus according to claim 1, wherein the image processing apparatus is calculated from a ratio of any one of the dispersion values of the surface roughness. 物体の画素ごとの変角特性を用いてCG画像を生成する生成部を有し、
前記生成部は、前記取得部により取得した変角特性データから前記CG画像を生成することを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。
A generation unit that generates a CG image using the deflection characteristics for each pixel of the object;
The image processing apparatus according to claim 1, wherein the generation unit generates the CG image from the variable angle characteristic data acquired by the acquisition unit.
前記取得部は、前記複数のフォーカス位置で取得した変角特性データを用いて任意のフォーカス位置の変角特性を推定することを特徴とする請求項1乃至請求項5の何れか一項に記載の画像処理装置。   The said acquisition part estimates the angle-change characteristic of arbitrary focus positions using the angle-change characteristic data acquired in these focus positions, The Claim 1 thru | or 5 characterized by the above-mentioned. Image processing apparatus. コンピュータを、請求項1乃至請求項6の何れか一項に記載された画像処理装置の各部として機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 6. 入力部が、物体の光沢特性を示す光沢特性データを入力する入力ステップと、
設定部が、前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定ステップと、
取得部が、前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得ステップと
を有することを特徴とする画像処理方法。
An input step in which the input unit inputs gloss characteristic data indicating the gloss characteristics of the object;
A setting step in which the setting unit sets a focus position based on the gloss characteristic data and the reference gloss value input by the input unit;
An image processing method comprising: an acquisition unit that acquires, based on the focus position, variable angle characteristic data of an object measured at a plurality of angles and a plurality of focus positions.
JP2013103330A 2013-05-15 2013-05-15 Image processing apparatus and image processing method Active JP6100086B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013103330A JP6100086B2 (en) 2013-05-15 2013-05-15 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013103330A JP6100086B2 (en) 2013-05-15 2013-05-15 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2014224718A true JP2014224718A (en) 2014-12-04
JP6100086B2 JP6100086B2 (en) 2017-03-22

Family

ID=52123496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013103330A Active JP6100086B2 (en) 2013-05-15 2013-05-15 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6100086B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197035A (en) * 2015-04-02 2016-11-24 株式会社ナリス化粧品 Powder screening method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129794A (en) * 1993-11-04 1995-05-19 Toyota Central Res & Dev Lab Inc Computer graphic device with controlling function for depth feeling of image
JPH08123981A (en) * 1994-10-25 1996-05-17 Toyota Motor Corp Computer graphics device
US20020060679A1 (en) * 2000-03-17 2002-05-23 Thomas Malzbender Apparatus for and method of rendering 3D objects with parametric texture maps
JP2003528406A (en) * 2000-03-17 2003-09-24 ヒューレット・パッカード・カンパニー Apparatus and method for rendering 3D objects using parametric texture maps
JP2005149027A (en) * 2003-11-13 2005-06-09 Toyota Motor Corp Device and method for displaying observed color of automobile
JP2009021964A (en) * 2007-07-13 2009-01-29 Kao Corp Image composition apparatus, image compositing method and image compositing program
JP2011248476A (en) * 2010-05-24 2011-12-08 Canon Inc Image processing device and image processing method
JP2012048657A (en) * 2010-08-30 2012-03-08 Canon Inc Image processing apparatus and image processing method
JP2013182417A (en) * 2012-03-01 2013-09-12 Canon Inc Image processing device and image processing method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129794A (en) * 1993-11-04 1995-05-19 Toyota Central Res & Dev Lab Inc Computer graphic device with controlling function for depth feeling of image
JPH08123981A (en) * 1994-10-25 1996-05-17 Toyota Motor Corp Computer graphics device
US20020060679A1 (en) * 2000-03-17 2002-05-23 Thomas Malzbender Apparatus for and method of rendering 3D objects with parametric texture maps
JP2003528406A (en) * 2000-03-17 2003-09-24 ヒューレット・パッカード・カンパニー Apparatus and method for rendering 3D objects using parametric texture maps
JP2005149027A (en) * 2003-11-13 2005-06-09 Toyota Motor Corp Device and method for displaying observed color of automobile
JP2009021964A (en) * 2007-07-13 2009-01-29 Kao Corp Image composition apparatus, image compositing method and image compositing program
JP2011248476A (en) * 2010-05-24 2011-12-08 Canon Inc Image processing device and image processing method
US20120327086A1 (en) * 2010-05-24 2012-12-27 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2012048657A (en) * 2010-08-30 2012-03-08 Canon Inc Image processing apparatus and image processing method
JP2013182417A (en) * 2012-03-01 2013-09-12 Canon Inc Image processing device and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197035A (en) * 2015-04-02 2016-11-24 株式会社ナリス化粧品 Powder screening method

Also Published As

Publication number Publication date
JP6100086B2 (en) 2017-03-22

Similar Documents

Publication Publication Date Title
CN105335950B (en) Image processing method and image processing apparatus
CN105847786B (en) System and method for determining color conversion parameters
Meilland et al. 3d high dynamic range dense visual slam and its application to real-time object re-lighting
JP2019510311A (en) Method and computer program product for calibrating a stereo imaging system using a planar mirror
WO2015166684A1 (en) Image processing apparatus and image processing method
EP2568436A1 (en) Image viewer for panoramic images
WO2012029193A1 (en) Product imaging device, product imaging method, image conversion device, image processing device, image processing system, program, and information recording medium
TW201011690A (en) Image converter
US10249076B2 (en) Image processing apparatus, image capturing apparatus, image processing method and storage medium storing image processing program
US20220375045A1 (en) Learning-Based Lens Flare Removal
JP2013127774A (en) Image processing device, image processing method, and program
US10255664B2 (en) Image processing device and method
JP6869652B2 (en) Image processing device, imaging device, image processing method, image processing program, and storage medium
JP5762015B2 (en) Image processing apparatus, image processing method, and program
JP6255008B2 (en) Method and microscope performed during operation of the microscope
JP2013182417A (en) Image processing device and image processing method
JP6100086B2 (en) Image processing apparatus and image processing method
JP6679966B2 (en) Three-dimensional virtual space presentation system, three-dimensional virtual space presentation method and program
Kang et al. View-dependent scene appearance synthesis using inverse rendering from light fields
US8611674B1 (en) System and method for invariant-based normal estimation
JP7279352B2 (en) Texture adjustment support system and texture adjustment support method
JP4764963B2 (en) Image processing device
Zhao et al. Removal of parasitic image due to metal specularity based on digital micromirror device camera
JP2011134133A (en) Image processing apparatus, image processing method and program
JP7476511B2 (en) Image processing system, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170222

R151 Written notification of patent or utility model registration

Ref document number: 6100086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151