JP2014224718A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2014224718A JP2014224718A JP2013103330A JP2013103330A JP2014224718A JP 2014224718 A JP2014224718 A JP 2014224718A JP 2013103330 A JP2013103330 A JP 2013103330A JP 2013103330 A JP2013103330 A JP 2013103330A JP 2014224718 A JP2014224718 A JP 2014224718A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- gloss
- characteristic data
- processing apparatus
- focus position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、物体の質感再現技術に関する。 The present invention relates to a texture reproduction technique for an object.
近年、カメラなどの製品のデザイン段階において、モックアップを作成する代わりに、モニタ上でデザインを確認する際にコンピュータグラフィックス(以下、CG)が利用されている。そして、製品の仕上がりを確認するために、光沢感などの質感をCGにおいて実物に忠実に再現することが求められている。 In recent years, in the design stage of products such as cameras, computer graphics (hereinafter referred to as CG) is used to check a design on a monitor instead of creating a mockup. In order to confirm the finished product, it is required to reproduce the texture such as glossiness faithfully in the CG.
実物の質感に忠実な再現方法として、入射光/出射光の角度変化に伴う物体の変角特性を表すBRDFや、物体の位置ごとのBRDFの分布であるBTFを実際に測定し、測定値を用いて物体の質感を再現する手法がある。なお、BRDFは、Bidirectional Reflectance Distribution Function、BTFは、Bidirectional Texture Functionの略語である。 As a reproduction method that is faithful to the texture of the real object, BRDF that represents the change in the angle of the object accompanying the change in the angle of the incident light / outgoing light and the BTF that is the BRDF distribution for each position of the object are actually measured, and the measured value is obtained. There is a method to reproduce the texture of an object. BRDF is an abbreviation of Bidirectional Texture Distribution Function, and BTF is an abbreviation of Bidirectional Texture Function.
物体の光沢特性によって、物体に周囲が写り込んだ像の鮮鋭性が変化する。また、写り込みの鮮鋭性が高い場合、人間は写り込む像を観察するのに対し、写り込みの鮮鋭性が低い場合、物体表面を観察する傾向がある。 Depending on the gloss characteristics of the object, the sharpness of the image in which the surroundings are reflected in the object changes. Further, when the sharpness of the reflection is high, a human observes the reflected image, whereas when the sharpness of the reflection is low, the person tends to observe the object surface.
一方、物体の変角特性は測定器からピント面までの距離であるフォーカス位置により特性が異なる。このため、物体の変角特性の測定値を単純にCGに利用しても、人間が感じる質感と一致しない場合がある。そこで、特許文献1では、誇張パラメータを設定し、設定した誇張パラメータを変角特性の測定値に乗じることにより、人間が物体を観察した場合の質感を再現している。
On the other hand, the variable angle characteristic of an object differs depending on the focus position, which is the distance from the measuring instrument to the focus surface. For this reason, even if the measured value of the variable angle characteristic of an object is simply used for CG, it may not match the texture that humans feel. Therefore, in
しかしながら、特許文献1の手法は、人間の観察時の特性が測定に関連付けられていないため、事前に誇張パラメータを設定する必要がある。また、単純な乗算により変角特性データを生成しているため、生成される変角特性データは必ずしも実際の特性を反映しているとは限らず、質感を忠実に再現できない場合がある。
そこで、本発明は、物体の質感を忠実に再現することを目的とする。
However, in the method of
Therefore, an object of the present invention is to faithfully reproduce the texture of an object.
本発明に係る画像処理装置は、物体の光沢特性を示す光沢特性データを入力する入力部と、前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定部と、前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得部とを有する。 An image processing apparatus according to the present invention includes an input unit that inputs gloss characteristic data indicating the gloss characteristics of an object, and a setting unit that sets a focus position based on the gloss characteristic data and the reference gloss value input by the input unit. And an acquisition unit that acquires the variable angle characteristic data of the object measured at a plurality of angles and a plurality of focus positions based on the focus position.
本発明は、物体の質感を忠実に再現することができる。 The present invention can faithfully reproduce the texture of an object.
以下、本発明の実施例に係る画像処理を図面を参照して詳細に説明する。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, about the same structure, the same code | symbol is attached | subjected and demonstrated.
本実施例に係る画像処理装置の構成について、図1のブロック図を参照して説明する。素材特性入力部11は、質感を再現する対象物体(以降、物体とも呼ぶ)の光沢特性データを入力する。フォーカス位置設定部12は、素材特性入力部11で入力された光沢特性データに基づき、物体の変角特性測定時の測定器からピント面までの距離であるフォーカス位置を設定する。変角特性測定部13は、フォーカス位置設定部12で設定されたフォーカス位置に基づき、物体の変角特性を測定する。変角特性出力部14は、変角特性測定部13で測定された測定データを変角特性保持部15へ出力する。変角特性保持部15は、変角特性出力部14から出力された測定データを保持する。画像処理装置は、図示しない中央処理装置(CPU)が装置全体の制御を行い、読み出し専用記憶装置(ROM)や、計算処理時にCPUが一時的な読み書きを行う記憶装置(RAM)などを含む。
The configuration of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG. The material
<実施例1における情報処理装置が実行する処理>
本実施例における画像処理装置が実行する処理の原理について説明する。人間は光沢特性の高い物体(例えば、鏡)を観察する場合、物体に写り込む像に注目する。従って、例えば屋内で物体を観察した場合、物体に写り込む照明が観察される。一方、光沢特性の低い物体(例えば、表面の艶消し加工を施したソリッド塗板)を観察する場合、物体表面のテクスチャに注目する。従って、例えば屋内で物体を観察した場合、物体の表面の細かいテクスチャやキズが観察される。
<Processing Performed by Information Processing Device in
The principle of processing executed by the image processing apparatus in this embodiment will be described. When a human observes an object with high gloss characteristics (for example, a mirror), he / she pays attention to an image reflected on the object. Therefore, for example, when an object is observed indoors, illumination reflected in the object is observed. On the other hand, when observing an object with low gloss characteristics (for example, a solid coated plate having a matte surface), attention is paid to the texture of the object surface. Therefore, for example, when an object is observed indoors, fine textures and scratches on the surface of the object are observed.
図2は、同一の物体に対し、仰角45度の方向から平行光を照射した際の、試料面にフォーカス位置を設定した場合と写り込む照明像にフォーカス位置を設定した場合とにおける変角特性の測定データを示している。 FIG. 2 shows an angle change characteristic when the same object is irradiated with parallel light from a direction with an elevation angle of 45 degrees and when the focus position is set on the sample surface and when the focus position is set on the reflected illumination image. The measured data is shown.
図2(a)は2つの変角特性の反射強度の相対的な関係を示した図である。図2(a)において、実線201は試料面にフォーカス位置を設定した(以降、試料面フォーカスとも呼ぶ)変角特性の測定値であり、波線202は照明像にフォーカス位置を設定した(以降、照明像フォーカスとも呼ぶ)変角特性の測定値である。なお、実線201及び波線202は、波線202の反射強度の最大値が1になるように正規化している。図2(a)が示すように、試料面フォーカスの測定データは、反射強度のレンジが100:1であるのに対し、照明像フォーカスの反射強度はレンジが300:1であり2つの測定データのレンジは大きく異なる。
FIG. 2A is a diagram showing the relative relationship between the reflection intensities of the two deflection characteristics. In FIG. 2A, a
図2(b)は2つの変角特性の形状の相対的な関係を比較した図である。実線203は、試料面にフォーカス位置を設定した設定した変角特性データ、波線204は、照明像にフォーカス位置を設定した変角特性データであり、それぞれの反射強度が1になるように正規化した図である。図2(b)が示すように、両データの半値幅(正反射から反射強度が半分になったときの角度)の差は約0.3度と異なることがわかる。
FIG. 2B is a diagram comparing the relative relationship between the shapes of the two deflection characteristics. The
従って、物体の質感を忠実に再現するためには、物体の光沢特性に応じて、適切なフォーカス位置で測定した変角特性を用いることが重要である。本実施例における画像処理装置は、物体の光沢特性に応じて観察時のフォーカス位置が適切な変角特性を用いる。 Therefore, in order to faithfully reproduce the texture of the object, it is important to use the variable angle characteristic measured at an appropriate focus position in accordance with the gloss characteristic of the object. The image processing apparatus in the present embodiment uses a variable angle characteristic in which the focus position at the time of observation is appropriate according to the gloss characteristic of the object.
以下、実施例1における画像処理装置が実行する処理について、図3のフローチャートを用いて説明する。 Hereinafter, processing executed by the image processing apparatus according to the first embodiment will be described with reference to the flowchart of FIG.
ステップS301では、素材特性入力部11からユーザにより再現したいと指示された対象物体の光沢特性データを入力する。なお、本実施例では対象の物体の光沢特性データとして、物体について事前に所定の複数角度、フォーカス位置で測定し、図示しないメモリに保持された複数の変角特性データの中からユーザ指示により選択されたものを入力するものとして説明する。
In step S301, the gloss characteristic data of the target object instructed by the user from the material
ステップS302では、フォーカス位置設定部12は、素材特性入力部11で入力された光沢特性データに基づいてフォーカス位置Dを設定する。ステップS302の処理の詳細については後述する。
In step S <b> 302, the focus
ステップS303では、変角特性測定部13は、フォーカス位置設定部12で設定されたフォーカス位置Dに基づいて物体の変角特性を測定する。図4は変角特性測定部13が実行する変角特性測定方法の概念を示した図である。図4において、光源401は、対象物体403に照射するための平行光源である。例えば、白色ハロゲンランプのほかレーザ光などを用いることができる。受光器402は、対象物体403の中心位置を中心に角度を変化させることが可能である。受光器402は光源401から照射され、対象物体403に反射された反射光量を取得する。ここでは、受光器402を撮像装置として説明するが、必ずしも撮像装置である必要はなく、受光素子を平面上に有するものであればよい。像404は試料に写り込む照明像である。
In step S <b> 303, the variable angle
像404が示すように、対象物体403に写り込む照明像は、対象物体面に対して対称な位置にあると見なすことができる。従って、光源401に対して受光器402が、例えば正反射方向に設置されている場合、像404は受光器402と正対させたときの距離DL離れた位置にあると見なすことができる。
As the
また、位置405はフォーカス位置設定部12が設定した位置である。すなわち図4が示すように、受光器402は、受光器から試料面の方向にDだけ離れた位置405にピントが合うように撮影を行う。
A
上記のような構成において、変角特性測定部13は、物体に対して入射角(θin, φin)、と、受光角(θout, φout)を変化させながら撮影を行う。なお、上記では撮影を行うことで物体の変角特性を取得した。一方、予め複数の角度および複数のフォーカス位置により測定された物体の変角特性を示す複数の変角特性データを図示しないメモリに保持しておき、その中からステップS302で設定されたフォーカス位置Dに対応する変角特性データを取得してもよい。
In the configuration as described above, the variable angle
ステップS304では、変角特性出力部14は、ステップS303で変角特性測定部13が撮影した撮影データの各画像に対して、共通する画素位置の画素値を、撮影画像ごとにまとめることで、変角特性データへ変換し、変角特性保持部15へ出力する。図5は変角特性保持部15が保持する変角特性データの一例を示す図である。図5が示すように、測定時のフォーカス位置の情報に加えて、位置(x, y)ごとに入射角(θin, φin)、受光角(θout, φout)毎の反射率データが格納される。
In step S304, the variable angle
<ステップS302の処理の詳細>
以下では、ステップS302のフォーカス位置設定方法について、図6のフローチャートを用いて説明する。
<Details of Step S302>
Hereinafter, the focus position setting method in step S302 will be described with reference to the flowchart of FIG.
ステップS601では、ステップS301で入力された光沢特性データから、式1を満たす角度θを算出する。
In step S601, an angle θ
なお、式(1)においてImaxは反射強度の最大値であり、θは反射強度が半値となる角度である半値幅に相当する。 In Expression (1), Imax is the maximum value of the reflection intensity, and θ corresponds to a half-value width that is an angle at which the reflection intensity becomes half value.
図7は光沢特性の異なる2つの素材の変角特性を表した図である。実線701は光沢特性の高い物体の変角特性を、波線702は光沢特性の低い物体の変角特性を表している。図7が示すように光沢特性の高い物体の半値幅は約0.5度と低い値を示すが、光沢特性の低い物体の半値幅は約5.0度と高い値を示す。従って、本ステップでは、物体の光沢特性を示す光沢値として変角特性の半値幅θを用いる。
FIG. 7 is a diagram showing the deflection characteristics of two materials having different gloss characteristics. A
ステップS602では、ステップS601で算出した半値幅θと、基準となる高光沢な試料、及び低光沢な試料の光沢値(基準光沢値)との比率を用いて、以下の式(2)によりフォーカス位置Dを算出する。なお、式(2)において、θHは基準となる高光沢な試料の変角特性の半値幅であり、例えば、黒色研磨ガラス(BK7)の半値幅である。θLは基準となる低光沢な試料の変角特性の半値幅であり、例えば、エナメル(バインダ)に顔料粒子(金属酸化物など)を分散させたソリッド塗板などの半値幅である。θH、θLは、図示しないメモリに予め保持する。また、図4に記載のように、DHは受光器402から対象物体403までの距離であり、DLは受光器と正対した場合の受光器から光源までの距離(すなわち、受光器402と照明像404の距離)である。
In step S602, using the ratio between the half-value width θ calculated in step S601 and the gloss value (reference gloss value) of the reference high-gloss sample and low-gloss sample, the focus is calculated by the following equation (2). The position D is calculated. In Equation (2), θ H is the half-value width of the variable angle characteristic of the reference high-gloss sample, for example, the half-value width of black polished glass (BK7). θ L is the half-value width of the variable angle characteristic of the low-gloss sample as a reference, for example, the half-value width of a solid coated plate in which pigment particles (metal oxide or the like) are dispersed in enamel (binder). θ H and θ L are stored in advance in a memory (not shown). As shown in FIG. 4, DH is the distance from the
本実施例によれば、物体観察時の人間の特性を考慮し、物体の光沢特性に適切な変角特性データを取得することが可能になる。 According to the present embodiment, it is possible to acquire variable angle characteristic data appropriate for the gloss characteristic of an object in consideration of human characteristics during object observation.
実施例1では、物体の光沢特性に応じた変角特性の測定方法について説明した。本実施例では、測定した変角特性データを用いて物体の質感を再現する方法について実施例1と異なる点を中心に簡潔に説明する。 In the first embodiment, the method for measuring the angle change characteristic according to the gloss characteristic of the object has been described. In the present embodiment, a method for reproducing the texture of an object using measured deflection angle characteristic data will be briefly described focusing on differences from the first embodiment.
実施例2における画像処理装置の構成について図8のブロック図を参照して説明する。図8において、変角特性保持部81は、物体の変角特性を複数のフォーカス位置で測定した変角特性データを保持する。素材特性入力部82は、質感を再現する対象である物体の光沢特性データを入力する。変角特性取得部83は、素材特性入力部82で入力された素材特性データに基づいて、変角特性保持部81の変角特性データから、再現する物体の変角特性データを取得する。レンダリング部86は、変角特性取得部83で取得された変角特性データ、及び、環境情報保持部84に保持されている環境光情報と、3D形状保持部85に保持されている物体の三次元形状データを用いて、CG画像を生成する。画像出力部87は、レンダリング部86で算出されたCG画像をディスプレイなどの外部出力機器へ出力する。
The configuration of the image processing apparatus according to the second embodiment will be described with reference to the block diagram of FIG. In FIG. 8, the variable angle characteristic holding unit 81 holds variable angle characteristic data obtained by measuring the variable angle characteristic of an object at a plurality of focus positions. The material
以下、実施例2における画像処理装置が実行する処理について、図9のフローチャートを用いて説明する。 Hereinafter, processing executed by the image processing apparatus according to the second embodiment will be described with reference to the flowchart of FIG.
ステップS901は実施例1におけるステップS301と同様であるため、説明を省略する。 Since step S901 is the same as step S301 in the first embodiment, description thereof is omitted.
ステップS902では、変角特性取得部83は、ステップS901で入力された光沢特性データに基づいて、物体の変角特性データを取得する。なお、ステップS902の詳細は後述する。
In step S902, the variable angle
ステップS903では、ステップS902で取得された物体の変角特性データ及び、環境情報保持部84に保持されている環境光情報、3D形状保持部85に保持されている再現物体の三次元形状データを基に、物体に反射する光量を算出しCG画像を生成する。なお、ステップS903の詳細は後述する。
In step S903, the variable angle characteristic data of the object acquired in step S902, the ambient light information held in the environment
ステップS904では、画像出力部87は、ステップS902で算出されたCG画像をディスプレイなどの外部出力機器へ出力する。
In step S904, the
<ステップS902の詳細>
以下では、実施例2における変角特性取得方法について、図10のフローチャートを用いて説明する。
<Details of Step S902>
In the following, the variable angle characteristic acquisition method according to the second embodiment will be described with reference to the flowchart of FIG.
ステップS1001、ステップS1002は、実施例1におけるステップS601、S602と同様である。 Steps S1001 and S1002 are the same as steps S601 and S602 in the first embodiment.
ステップS1003では、ステップS1002で算出したフォーカス位置Dで測定した物体の変角特性データを変角特性保持部81から取得する。 In step S1003, the variable angle characteristic data of the object measured at the focus position D calculated in step S1002 is acquired from the variable angle characteristic holding unit 81.
<ステップS903の詳細>
以下では、実施例2におけるステップS903の光量算出処理について、図11のフローチャートを用いて説明する。
<Details of Step S903>
Hereinafter, the light amount calculation processing in step S903 in the second embodiment will be described with reference to the flowchart of FIG.
S1101では、環境情報保持部84に記憶されている照明データを読み込む。
In S1101, the illumination data stored in the environment
S1102では、3D形状保持部85に記憶されている物体の3D形状データを読み込む。
In S1102, the 3D shape data of the object stored in the 3D
S1103では、レンダリングを実施するための仮想カメラ、仮想スクリーン、物体位置、および照明位置の幾何条件を設定する。図12(a)はレンダリングを実施するための幾何条件の一例を示した図である。 In step S1103, the virtual camera, virtual screen, object position, and illumination position geometric conditions for rendering are set. FIG. 12A is a diagram illustrating an example of a geometric condition for performing rendering.
S1104では、仮想スクリーン上における注目画素を初期値(例えば、X=0,Y=0の画素)に設定する。 In step S1104, the target pixel on the virtual screen is set to an initial value (for example, a pixel with X = 0, Y = 0).
S1105では、仮想カメラと、仮想スクリーン上の注目画素とを結ぶ直線を、視線ベクトルとして設定し、視線ベクトルと対象物体との交点(xc、yc、zc)を算出する。 In S1105, a straight line connecting the virtual camera and the target pixel on the virtual screen is set as a line-of-sight vector, and an intersection (xc, yc, zc) between the line-of-sight vector and the target object is calculated.
S1106では、S1105にて算出した交点における、対象物体の法線ベクトルNを算出する。 In S1106, the normal vector N of the target object at the intersection calculated in S1105 is calculated.
S1107では、S1105にて算出した交点と、照明とを結ぶ照明ベクトルNを算出する。 In S1107, an illumination vector N that connects the intersection calculated in S1105 and the illumination is calculated.
S1108では、S1105にて算出した交点における、対象物体の変角特性データを設定する。具体的にはステップS1105で算出した交点に対応した位置(x、y)の変角特性であるBTF(x、y、φ)を設定する。 In S1108, the angle-changing characteristic data of the target object at the intersection calculated in S1105 is set. Specifically, BTF (x, y, φ), which is the deflection characteristic of the position (x, y) corresponding to the intersection calculated in step S1105, is set.
S1109では、S1108にて算出した変角特性データ、および、視線ベクトル、法線ベクトル、照明ベクトルを用い、注目画素の輝度値を算出する。 In S1109, the luminance value of the target pixel is calculated using the variable angle characteristic data calculated in S1108, the line-of-sight vector, the normal vector, and the illumination vector.
S1110では、仮想スクリーン上のすべての画素について、輝度算出処理を行ったか否かを判断し、終了していれば、S1112に進み、終了していなければ、S1111に進む。 In S1110, it is determined whether or not the luminance calculation processing has been performed for all the pixels on the virtual screen. If completed, the process proceeds to S1112. If not completed, the process proceeds to S1111.
S1111では、注目画素を、仮想スクリーン上の未処理画素に変更し、S1105に戻る。 In step S1111, the target pixel is changed to an unprocessed pixel on the virtual screen, and the process returns to step S1105.
S1112では、S1109にて算出した輝度データに基づきCG画像を描画する。 In S1112, a CG image is drawn based on the luminance data calculated in S1109.
なお、図12(b)はステップS1105からステップS1108における視線ベクトル、法線ベクトル、照明ベクトルとの関係を表している。 FIG. 12B shows the relationship between the line-of-sight vector, the normal vector, and the illumination vector in steps S1105 to S1108.
本実施例によれば、物体の光沢特性に適した変角特性データを用いることにより、物体観察時の質感を忠実に再現することが可能となる。 According to the present embodiment, it is possible to faithfully reproduce the texture at the time of object observation by using the variable angle characteristic data suitable for the gloss characteristic of the object.
実施例2では、変角特性取得部において、フォーカス位置の変角特性の測定値は予め測定されているものとして説明を行った。しかしながら、変角特性保持部には必ずしも所望のフォーカス位置で測定した測定データが保持されているとは限らない。そこで、本実施例では、変角特性取得部において、所望のフォーカス位置の測定値を保持しない場合であっても任意のフォーカス位置の変角特性を推定する。そして、推定した変角特性データを用いて忠実に質感を再現する場合について実施例1及び実施例2と異なる点を中心に簡潔に説明する。 In the second embodiment, the explanation is made on the assumption that the measured value of the changing angle characteristic of the focus position is measured in advance in the changing angle characteristic acquisition unit. However, measurement data measured at a desired focus position is not always held in the variable angle characteristic holding unit. Therefore, in this embodiment, the variable angle characteristic acquisition unit estimates the variable angle characteristic of an arbitrary focus position even when the measured value of the desired focus position is not held. A case where the texture is faithfully reproduced using the estimated angle-change characteristic data will be briefly described focusing on differences from the first and second embodiments.
<実施例3における変角特性取得方法に関する処理の詳細>
以下では、実施例3における変角特性取得処理について、図13のフローチャートを用いて説明する。
<Details of Process Regarding Deflection Characteristic Acquisition Method in Example 3>
Hereinafter, the variable angle characteristic acquisition process in the third embodiment will be described with reference to the flowchart of FIG.
ステップS1301及びステップS1302は、ステップS1001及びステップS1002と同様である。 Step S1301 and step S1302 are the same as step S1001 and step S1002.
ステップS1303では、以下の式(3)を満たすフォーカス位置DN及びDN+1を取得する。なお、式(3)において、DNはDよりも小さい値でかつDに最も近いフォーカス位置であり、DN+1とは、Dよりも大きくかつDに最も近いフォーカス位置である。ただし、DN及びDN+1は測定に用いたフォーカス位置である。 In step S1303, focus positions DN and DN + 1 satisfying the following expression (3) are acquired. In Expression (3), DN is a value smaller than D and closest to D, and DN + 1 is a focus position larger than D and closest to D. However, DN and DN + 1 are focus positions used for measurement.
ステップS1104では、ステップS1103で取得したDN及びDN+1に対応する変角特性データを変角特性保持部から取得し、以下の式(4)により、フォーカス位置Dに対応した変角特性データを生成する。 In step S1104, the variable angle characteristic data corresponding to DN and DN + 1 acquired in step S1103 is acquired from the variable angle characteristic holding unit, and the variable angle characteristic data corresponding to the focus position D is obtained by the following equation (4). Generate.
なお、式(4)において、BTFN及びBTFN+1はそれぞれフォーカス位置Dの変角特性データ、フォーカス位置DN+1の変角特性データである。 In Expression (4), BTF N and BTF N + 1 are the angle change characteristic data of the focus position D and the angle change characteristic data of the focus position D N + 1 , respectively.
本実施例によれば、事前に所望のフォーカス位置による変角特性を測定しない場合であっても、任意のフォーカス位置の変角特性データを推定することにより、物体の質感を再現することが可能となる。 According to this embodiment, even if the angle change characteristic at a desired focus position is not measured in advance, the texture of the object can be reproduced by estimating the angle change characteristic data at an arbitrary focus position. It becomes.
〔他の実施例〕
実施例3では、所望の測定値を測定していない場合に変角特性データを推定する方法について説明したが、必ずしも推定する必要はない。例えば、フォーカス位置Dに最も近いフォーカス位置の変角特性データを変角特性保持部から選択してもよい。
[Other Examples]
In the third embodiment, the method of estimating the variable angle characteristic data when the desired measurement value is not measured has been described. However, the estimation is not necessarily required. For example, the change angle characteristic data of the focus position closest to the focus position D may be selected from the change angle characteristic holding unit.
上記実施例では、物体の素材特性として簡易的に測定した変角特性データを入力し半値幅を算出したが、光沢特性に相当するデータであればこれに限らない。例えば、算出されるデータは、半値幅の変わりに物体の変角特性の反射強度の最大値であってもよい。この場合、光沢特性が高い物体であれば大きい値となり、光沢特性が低い物体であれば小さい値となるため、上記最大値を用いることが可能である。 In the above embodiment, the angle difference characteristic data simply measured as the material characteristic of the object is input and the half-value width is calculated. However, the present invention is not limited to this as long as the data corresponds to the gloss characteristic. For example, the calculated data may be the maximum value of the reflection intensity of the variable angle characteristic of the object instead of the half width. In this case, if the object has high gloss characteristics, the value is large, and if the object has low gloss characteristics, the value is small. Therefore, the maximum value can be used.
また、入力されるデータは物体の表面粗さのデータであってもよい。この場合、表面粗さの分散値が算出可能であり、分散値が大きいほど低光沢となり、分散値が小さいほど高光沢となるため、粗さのデータを用いることが可能である。 The input data may be data on the surface roughness of the object. In this case, the dispersion value of the surface roughness can be calculated, and the higher the dispersion value, the lower the gloss, and the smaller the dispersion value, the higher the gloss. Therefore, the roughness data can be used.
また、本発明は、上述した実施例の機能(例えば、上記のフローチャートにより示される工程)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。 The present invention can also be realized by supplying a storage medium storing a program code of software for realizing the functions of the above-described embodiments (for example, the steps shown in the above flowchart) to a system or apparatus. In this case, the functions of the above-described embodiments are realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium so that the computer can read the program code. Further, the program may be executed by one computer or may be executed in conjunction with a plurality of computers.
Claims (8)
前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定部と、
前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得部と
を有することを特徴とする画像処理装置。 An input unit for inputting gloss characteristic data indicating the gloss characteristic of the object;
A setting unit for setting a focus position based on the gloss characteristic data and the reference gloss value input by the input unit;
An image processing apparatus comprising: an acquisition unit configured to acquire change angle characteristic data of an object measured at a plurality of angles and a plurality of focus positions based on the focus position.
前記生成部は、前記取得部により取得した変角特性データから前記CG画像を生成することを特徴とする請求項1乃至請求項4の何れか一項に記載の画像処理装置。 A generation unit that generates a CG image using the deflection characteristics for each pixel of the object;
The image processing apparatus according to claim 1, wherein the generation unit generates the CG image from the variable angle characteristic data acquired by the acquisition unit.
設定部が、前記入力部で入力された光沢特性データと基準光沢値とに基づき、フォーカス位置を設定する設定ステップと、
取得部が、前記フォーカス位置に基づき、複数の角度および複数のフォーカス位置により測定された物体の変角特性データを取得する取得ステップと
を有することを特徴とする画像処理方法。 An input step in which the input unit inputs gloss characteristic data indicating the gloss characteristics of the object;
A setting step in which the setting unit sets a focus position based on the gloss characteristic data and the reference gloss value input by the input unit;
An image processing method comprising: an acquisition unit that acquires, based on the focus position, variable angle characteristic data of an object measured at a plurality of angles and a plurality of focus positions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013103330A JP6100086B2 (en) | 2013-05-15 | 2013-05-15 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013103330A JP6100086B2 (en) | 2013-05-15 | 2013-05-15 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014224718A true JP2014224718A (en) | 2014-12-04 |
JP6100086B2 JP6100086B2 (en) | 2017-03-22 |
Family
ID=52123496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013103330A Active JP6100086B2 (en) | 2013-05-15 | 2013-05-15 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6100086B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016197035A (en) * | 2015-04-02 | 2016-11-24 | 株式会社ナリス化粧品 | Powder screening method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129794A (en) * | 1993-11-04 | 1995-05-19 | Toyota Central Res & Dev Lab Inc | Computer graphic device with controlling function for depth feeling of image |
JPH08123981A (en) * | 1994-10-25 | 1996-05-17 | Toyota Motor Corp | Computer graphics device |
US20020060679A1 (en) * | 2000-03-17 | 2002-05-23 | Thomas Malzbender | Apparatus for and method of rendering 3D objects with parametric texture maps |
JP2003528406A (en) * | 2000-03-17 | 2003-09-24 | ヒューレット・パッカード・カンパニー | Apparatus and method for rendering 3D objects using parametric texture maps |
JP2005149027A (en) * | 2003-11-13 | 2005-06-09 | Toyota Motor Corp | Device and method for displaying observed color of automobile |
JP2009021964A (en) * | 2007-07-13 | 2009-01-29 | Kao Corp | Image composition apparatus, image compositing method and image compositing program |
JP2011248476A (en) * | 2010-05-24 | 2011-12-08 | Canon Inc | Image processing device and image processing method |
JP2012048657A (en) * | 2010-08-30 | 2012-03-08 | Canon Inc | Image processing apparatus and image processing method |
JP2013182417A (en) * | 2012-03-01 | 2013-09-12 | Canon Inc | Image processing device and image processing method |
-
2013
- 2013-05-15 JP JP2013103330A patent/JP6100086B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129794A (en) * | 1993-11-04 | 1995-05-19 | Toyota Central Res & Dev Lab Inc | Computer graphic device with controlling function for depth feeling of image |
JPH08123981A (en) * | 1994-10-25 | 1996-05-17 | Toyota Motor Corp | Computer graphics device |
US20020060679A1 (en) * | 2000-03-17 | 2002-05-23 | Thomas Malzbender | Apparatus for and method of rendering 3D objects with parametric texture maps |
JP2003528406A (en) * | 2000-03-17 | 2003-09-24 | ヒューレット・パッカード・カンパニー | Apparatus and method for rendering 3D objects using parametric texture maps |
JP2005149027A (en) * | 2003-11-13 | 2005-06-09 | Toyota Motor Corp | Device and method for displaying observed color of automobile |
JP2009021964A (en) * | 2007-07-13 | 2009-01-29 | Kao Corp | Image composition apparatus, image compositing method and image compositing program |
JP2011248476A (en) * | 2010-05-24 | 2011-12-08 | Canon Inc | Image processing device and image processing method |
US20120327086A1 (en) * | 2010-05-24 | 2012-12-27 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2012048657A (en) * | 2010-08-30 | 2012-03-08 | Canon Inc | Image processing apparatus and image processing method |
JP2013182417A (en) * | 2012-03-01 | 2013-09-12 | Canon Inc | Image processing device and image processing method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016197035A (en) * | 2015-04-02 | 2016-11-24 | 株式会社ナリス化粧品 | Powder screening method |
Also Published As
Publication number | Publication date |
---|---|
JP6100086B2 (en) | 2017-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105335950B (en) | Image processing method and image processing apparatus | |
CN105847786B (en) | System and method for determining color conversion parameters | |
Meilland et al. | 3d high dynamic range dense visual slam and its application to real-time object re-lighting | |
JP2019510311A (en) | Method and computer program product for calibrating a stereo imaging system using a planar mirror | |
WO2015166684A1 (en) | Image processing apparatus and image processing method | |
EP2568436A1 (en) | Image viewer for panoramic images | |
WO2012029193A1 (en) | Product imaging device, product imaging method, image conversion device, image processing device, image processing system, program, and information recording medium | |
TW201011690A (en) | Image converter | |
US10249076B2 (en) | Image processing apparatus, image capturing apparatus, image processing method and storage medium storing image processing program | |
US20220375045A1 (en) | Learning-Based Lens Flare Removal | |
JP2013127774A (en) | Image processing device, image processing method, and program | |
US10255664B2 (en) | Image processing device and method | |
JP6869652B2 (en) | Image processing device, imaging device, image processing method, image processing program, and storage medium | |
JP5762015B2 (en) | Image processing apparatus, image processing method, and program | |
JP6255008B2 (en) | Method and microscope performed during operation of the microscope | |
JP2013182417A (en) | Image processing device and image processing method | |
JP6100086B2 (en) | Image processing apparatus and image processing method | |
JP6679966B2 (en) | Three-dimensional virtual space presentation system, three-dimensional virtual space presentation method and program | |
Kang et al. | View-dependent scene appearance synthesis using inverse rendering from light fields | |
US8611674B1 (en) | System and method for invariant-based normal estimation | |
JP7279352B2 (en) | Texture adjustment support system and texture adjustment support method | |
JP4764963B2 (en) | Image processing device | |
Zhao et al. | Removal of parasitic image due to metal specularity based on digital micromirror device camera | |
JP2011134133A (en) | Image processing apparatus, image processing method and program | |
JP7476511B2 (en) | Image processing system, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170222 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6100086 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |