JP6758837B2 - Equipment, methods and programs for acquiring a two-dimensional distribution of gloss mapping - Google Patents

Equipment, methods and programs for acquiring a two-dimensional distribution of gloss mapping Download PDF

Info

Publication number
JP6758837B2
JP6758837B2 JP2016009310A JP2016009310A JP6758837B2 JP 6758837 B2 JP6758837 B2 JP 6758837B2 JP 2016009310 A JP2016009310 A JP 2016009310A JP 2016009310 A JP2016009310 A JP 2016009310A JP 6758837 B2 JP6758837 B2 JP 6758837B2
Authority
JP
Japan
Prior art keywords
gloss
image
distribution
illumination
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016009310A
Other languages
Japanese (ja)
Other versions
JP2017129473A5 (en
JP2017129473A (en
Inventor
島田 卓也
卓也 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016009310A priority Critical patent/JP6758837B2/en
Priority to EP17150930.0A priority patent/EP3196633B1/en
Priority to US15/409,415 priority patent/US10240982B2/en
Publication of JP2017129473A publication Critical patent/JP2017129473A/en
Publication of JP2017129473A5 publication Critical patent/JP2017129473A5/en
Application granted granted Critical
Publication of JP6758837B2 publication Critical patent/JP6758837B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、物体の光学特性を測定する技術に関する。 The present invention relates to a technique for measuring the optical properties of an object.

光源の照明方向や観察方向に応じて、表面の見え方が変化する物体がある。これは、物体の表面に照射した光の反射光が、照明方向や観察方向に応じて異なる特性をもつためである。そこで、このような物体の反射特性を測定する技術が広く知られている。特許文献1は、複数の角度の反射光を測定する方法について開示している。まず光源の位置に対応する所定領域内で受光部をスキャンし、受光量が最大となる正反射光の位置を特定する。そして、特定した正反射光の位置を基準として複数の測定位置を決定し、受光部を移動させて測光することで、測定対象物の反射特性を測定している。 There are objects whose surface appearance changes depending on the illumination direction and observation direction of the light source. This is because the reflected light of the light applied to the surface of the object has different characteristics depending on the illumination direction and the observation direction. Therefore, a technique for measuring the reflection characteristics of such an object is widely known. Patent Document 1 discloses a method of measuring reflected light at a plurality of angles. First, the light receiving portion is scanned within a predetermined area corresponding to the position of the light source, and the position of the specularly reflected light that maximizes the amount of received light is specified. Then, a plurality of measurement positions are determined with reference to the position of the specified specular reflected light, and the reflection characteristics of the object to be measured are measured by moving the light receiving portion to measure the light.

特開2008−249521号公報Japanese Unexamined Patent Publication No. 2008-249521

しかしながら、特許文献1に記載の方法によれば、受光部を複数の位置に設定するために、モータやアームなどの機構を必要とするため、複雑な構成となる。
そこで本発明は、光源や受光部の位置を移動させるための機構を必要とせず、より簡易的な構成により物体の反射特性を測定することを目的とする。
However, according to the method described in Patent Document 1, since a mechanism such as a motor or an arm is required to set the light receiving portion at a plurality of positions, the configuration is complicated.
Therefore, an object of the present invention is to measure the reflection characteristics of an object with a simpler configuration without requiring a mechanism for moving the position of a light source or a light receiving unit.

上記課題を解決するために、本発明における装置は、互いに位相の異なる周期関数に応じて光量が周期的に変化する複数の点光源からの光が照射された物体を、異なるタイミングで複数回撮像して得られる画像それぞれを表す複数の画像データを取得する第1取得手段と、前記取得された複数の画像データに基づいて、各画像データが表す画像間について、同一画素位置の画素値の正弦波状の変化の振幅を表す振幅情報を生成する生成手段と、前記振幅情報に基づいて、前記物体の光沢写像性の2次元分布を取得する第2取得手段と、を有することを特徴とする。 In order to solve the above problems, the apparatus of the present invention captures an object irradiated with light from a plurality of point light sources whose light amount periodically changes according to periodic functions having different phases at different timings. A sine of pixel values at the same pixel position between the images represented by each image data based on the first acquisition means for acquiring a plurality of image data representing each of the obtained images and the plurality of acquired image data. It is characterized by having a generation means for generating amplitude information representing the amplitude of a wavy change, and a second acquisition means for acquiring a two-dimensional distribution of gloss mapping of the object based on the amplitude information.

本発明によれば、簡易的な構成により物体の反射特性を測定することができる。 According to the present invention, the reflection characteristics of an object can be measured by a simple configuration.

実施形態1の測定装置の外観を示す模式図。The schematic diagram which shows the appearance of the measuring apparatus of Embodiment 1. FIG. 実施形態1の情報処理装置の構成を示すブロック図。The block diagram which shows the structure of the information processing apparatus of Embodiment 1. 実施形態1の処理を示すフローチャート。The flowchart which shows the process of Embodiment 1. 実施形態1の照明用画像の一例を示す模式図。The schematic diagram which shows an example of the illumination image of Embodiment 1. 点光源と受光素子の関係を説明する模式図。The schematic diagram explaining the relationship between a point light source and a light receiving element. 実施形態1の照明装置および各点光源の変調情報と照明輝度の関係を示す模式図。The schematic diagram which shows the relationship between the modulation information of the lighting apparatus of Embodiment 1 and each point light source, and illumination brightness. 照明光と撮影装置で受光する反射光との関係を説明する模式図。The schematic diagram explaining the relationship between the illumination light and the reflected light received by a photographing apparatus. 位相の異なる変調信号の合成を説明する模式図。The schematic diagram explaining the synthesis of the modulation signal of a different phase. 測定対象の一例を説明する模式図。The schematic diagram explaining an example of the measurement object. 光沢写像性変換テーブルの一例を示す模式図。The schematic diagram which shows an example of a gloss mapping conversion table. 実施形態1の撮影装置の光学系を示す模式図。The schematic diagram which shows the optical system of the imaging apparatus of Embodiment 1. FIG. 撮影画像の輝度値の変化と振幅情報の関係を示す模式図。The schematic diagram which shows the relationship between the change of the brightness value of a photographed image, and the amplitude information. 楕円による光沢異方性の表現を説明する模式図。The schematic diagram explaining the expression of gloss anisotropy by an ellipse. 実施形態2の照明用画像の一例を示す模式図。The schematic diagram which shows an example of the illumination image of Embodiment 2. 実施形態2の処理を示すフローチャートFlowchart showing the process of the second embodiment 変形例2の照明装置を説明する模式図。The schematic diagram explaining the lighting apparatus of the modification 2. 変形例2のテップS301の詳細手順を示すフローチャート。The flowchart which shows the detailed procedure of the Tep S301 of the modification 2. 変形例2のステップS302の詳細手順を示すフローチャート。The flowchart which shows the detailed procedure of the step S302 of the modification 2. 変形例3の照明装置の概略構成を説明する模式図。The schematic diagram explaining the schematic structure of the lighting apparatus of the modification 3. 実施形態2の機能構成を示すブロック図。The block diagram which shows the functional structure of Embodiment 2. 反射モデルにおける反射光の構成を説明する模式図。The schematic diagram explaining the structure of the reflected light in a reflection model. 反射モデルにおける光沢写像性αの算出手順を示すフローチャート。The flowchart which shows the calculation procedure of glossy mapping property α in a reflection model. 実施形態3の測定装置の外観を示す模式図。The schematic diagram which shows the appearance of the measuring apparatus of Embodiment 3. 実施形態3の照明用画像の一例を示す図。The figure which shows an example of the illumination image of Embodiment 3. 撮影画像の輝度値の変化と位相情報およびバイアス情報の関係を示す模式図。The schematic diagram which shows the relationship between the change of the brightness value of a photographed image, phase information and bias information. 鏡面反射変換テーブルの一例を示す模式図。The schematic diagram which shows an example of a specular reflection conversion table. 実施形態3の処理を示すフローチャート。The flowchart which shows the process of Embodiment 3. 位相情報Bの補正処理を示すフローチャート。The flowchart which shows the correction process of the phase information B. 実施形態3の機能構成を示すブロック図。The block diagram which shows the functional structure of Embodiment 3.

本発明を実施するための形態について図面を参照して説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。 A mode for carrying out the present invention will be described with reference to the drawings. However, the components described in this embodiment are merely examples, and are not intended to limit the scope of the present invention to them.

[実施形態1]
まず、物体の反射特性について説明する。図21は、物体の反射特性を説明する模式図である。図21(a)は、矢印の方向から点1701に向かって光を照射したときの反射特性を示し、点1701と曲線1702上の点1703とを結ぶ線分の長さが、点1701から点1703の方向に反射する反射光の強度分布を示す。物体の表面を反射した光は、図21(b)に示す拡散反射成分と、図21(c)に示す鏡面反射成分とに分離できる。拡散反射成分とは、入射光が測定面の内部で乱反射することで生じる成分であり、あらゆる方向において均一の強度で観察される。一方鏡面反射成分とは、入射光が測定面の表面で鏡面反射することで生じる光沢感に係る成分であり、特定の方向に偏った強度で観察される。以下では、鏡面反射成分の強度が最大となる反射方向を最大反射方向と呼ぶ鏡面反射成分の強度は、典型的には、反射方向に関して最大反射方向を対称の中心とする鐘状の分布を示す。
[Embodiment 1]
First, the reflection characteristics of an object will be described. FIG. 21 is a schematic diagram illustrating the reflection characteristics of an object. FIG. 21A shows the reflection characteristics when light is irradiated from the direction of the arrow toward the point 1701, and the length of the line segment connecting the point 1701 and the point 1703 on the curve 1702 is from the point 1701 to the point. The intensity distribution of the reflected light reflected in the direction of 1703 is shown. The light reflected on the surface of the object can be separated into a diffuse reflection component shown in FIG. 21B and a specular reflection component shown in FIG. 21C. The diffuse reflection component is a component generated by diffuse reflection of incident light inside the measurement surface, and is observed with uniform intensity in all directions. On the other hand, the specular reflection component is a component related to a glossiness generated by specular reflection of incident light on the surface of the measurement surface, and is observed with an intensity biased in a specific direction. In the following, the reflection direction in which the intensity of the specular reflection component is maximized is referred to as the maximum reflection direction. The intensity of the specular reflection component typically shows a bell-shaped distribution centered on the maximum reflection direction with respect to the reflection direction. ..

図9は、実施形態1が測定対象とする加飾印刷物の一例を示す模式図である。図9(a)に示す加飾印刷物1001は、光沢写像性の小さい領域1002と光沢写像性の大きい領域1003(斜線部)とで構成される。光沢写像性は、光沢のある物体において、写りこむ像の鮮明さに関わる指標である。物体の光沢写像性の値が大きい場合、物体に写り込む照明の像は鮮明に観察され、逆に光沢写像性の値が小さい場合、物体に写り込む照明の像はぼけて観察される。図9(b)の曲線1004は領域1002における反射特性を表す。また、図9(c)の曲線1005は領域1003における反射特性を表す。いずれの反射特性においても、点1007の方向から点1006に向かって光を照射した場合、点1006から点1009へ向かう方向が最大反射方向になる。しかし図9(b)および(c)では、最大反射方向近傍の反射光強度の分布形状が異なっている。 FIG. 9 is a schematic view showing an example of a decorative printed matter to be measured in the first embodiment. The decorative printed matter 1001 shown in FIG. 9A is composed of a region 1002 having a small glossy mapping property and a region 1003 (hatched portion) having a large glossy mapping property. Glossy mapability is an index related to the sharpness of the reflected image in a glossy object. When the gloss mapping value of the object is large, the image of the illumination reflected on the object is clearly observed, and conversely, when the gloss mapping value of the object is small, the image of the illumination reflected on the object is blurred. The curve 1004 in FIG. 9B represents the reflection characteristics in the region 1002. Further, the curve 1005 in FIG. 9C represents the reflection characteristic in the region 1003. In any of the reflection characteristics, when light is irradiated from the direction of the point 1007 toward the point 1006, the direction from the point 1006 to the point 1009 becomes the maximum reflection direction. However, in FIGS. 9B and 9C, the distribution shape of the reflected light intensity near the maximum reflection direction is different.

曲線1005の方が、曲線1004に比べて、鏡面反射成分の角度範囲が狭く、反射方向に対して強度変化が急峻である。そのため最大反射方向およびその近傍方向から観察すれば領域1002と領域1003は異なる明るさで観察される。一方、鏡面反射成分を含まない方向(最大反射方向から離れた方向)、例えば点1008から点1006を観察すると、領域1002と領域1003の明るさは一致する。その結果、加飾印刷物1001は、観察方向によって均一面に見えたり模様が見えたりする。このように光沢写像性は、物体の見え方に作用する。特に図9(a)に示すような印刷物を測定物とする場合、光沢写像性の2次元分布を測定することで特定の方向から観察した時の見え方を把握できる。そこで実施形態1では、光沢写像性の2次元分布を測定する。 The curve 1005 has a narrower angular range of the specular reflection component than the curve 1004, and the intensity change is steeper with respect to the reflection direction. Therefore, when observed from the maximum reflection direction and the direction in the vicinity thereof, the region 1002 and the region 1003 are observed with different brightness. On the other hand, when observing a direction that does not include a specular reflection component (a direction away from the maximum reflection direction), for example, points 1008 to 1006, the brightness of the area 1002 and the area 1003 match. As a result, the decorative printed matter 1001 looks like a uniform surface or a pattern depending on the observation direction. In this way, the glossy mapping property affects the appearance of the object. In particular, when a printed matter as shown in FIG. 9A is used as a measurement object, the appearance when observed from a specific direction can be grasped by measuring the two-dimensional distribution of gloss mapping. Therefore, in the first embodiment, the two-dimensional distribution of gloss mapping is measured.

ここで光沢写像性は、鏡面反射方向およびその近傍方向の反射光の強度変化に関する値であり、JIS K 7374、ASTM D5767などの規格で定義されている。なお、本発明の測定システムが出力する光沢写像性を示す指標は、上記の規格に基づく値に限らない。照明方向に対して鏡面反射となる方向およびその近傍方向の反射光の強度変化に関する特徴量の値が使用できる。例えば、反射強度が最大値の半値となる角度範囲でもよいし、反射方向に関する反射強度の微分値でもよい。また、コンピュータグラフィック(以下CGとも言う)の反射モデルでは、物体表面が微小面の集合で構成されると仮定し、この微小面の法線方向分布を関数で近似して光沢写像性を表現する。法線方向の関数としては、正規分布やベックマン分布、Trowbridge−Reitzの提案した分布などが使用される。これらの分布のパラメータも光沢写像性と見なすことが可能であり、本測定システムは、これらの分布のパラメータを出力する形態としてもよい。なお、分布のパラメータによっては、パラメータの値の大小と光沢写像性の大小が反対になることもあるが問題はない。また、光沢写像性は物体表面の平滑性とも相関がある。物体の表面が平滑である場合、光沢写像性は大きくなり、物体の表面が凸凹であれば光沢写像性は小さくなる。よって、表面の平滑性に関する値も光沢写像性とみなすことが可能である。従って本測定システムは、表面の平滑性を測定する装置としても使用できる。 Here, the gloss mapping property is a value relating to a change in the intensity of reflected light in the specular reflection direction and its vicinity, and is defined by standards such as JIS K 7374 and ASTM D5767. The index indicating the gloss mapping property output by the measurement system of the present invention is not limited to the value based on the above standard. The value of the feature amount related to the change in the intensity of the reflected light in the direction of specular reflection with respect to the illumination direction and the direction in the vicinity thereof can be used. For example, it may be an angle range in which the reflection intensity is half of the maximum value, or it may be a differential value of the reflection intensity with respect to the reflection direction. In the reflection model of computer graphics (hereinafter also referred to as CG), it is assumed that the surface of the object is composed of a set of minute surfaces, and the normal distribution of the minute surfaces is approximated by a function to express gloss mapping. .. As the function in the normal direction, a normal distribution, a Beckman distribution, a distribution proposed by Forwardbridge-Reitz, or the like is used. The parameters of these distributions can also be regarded as gloss mapping, and the measurement system may be in the form of outputting the parameters of these distributions. Depending on the parameters of the distribution, the magnitude of the parameter value and the magnitude of the gloss mapping property may be opposite, but there is no problem. The gloss mapping property also correlates with the smoothness of the object surface. When the surface of the object is smooth, the glossy mapping property is large, and when the surface of the object is uneven, the glossy mapping property is small. Therefore, the value related to the smoothness of the surface can also be regarded as the gloss mapping property. Therefore, this measurement system can also be used as a device for measuring the smoothness of the surface.

(測定装置の概要)
図1に本実施形態の測定システムの外観を示す。測定システム100は、平面状の照明装置11と撮影装置12と操作パネル13と情報処理装置14を有する。本実施形態の測定システムは、操作パネル13を用いたユーザ操作に基づき、照明装置11により照明された測定物15を撮影装置12が撮影する。情報処理装置14は、撮影装置12が撮影して得られる撮影画像に基づいて、測定物15における光沢写像性の2次元分布を導出する。なお、以下の説明において、X、Y、Z座標の方向と、照明方向、受光方向、法線方向に係る方位角φと天頂角θの方向は、図1に示すように定義する。X、Y、Z座標の原点は、撮影装置12の光軸と、測定物15との交点とし、測定物15の表面をXY平面とする。
(Outline of measuring device)
FIG. 1 shows the appearance of the measurement system of the present embodiment. The measurement system 100 includes a flat lighting device 11, a photographing device 12, an operation panel 13, and an information processing device 14. In the measurement system of the present embodiment, the photographing device 12 photographs the measured object 15 illuminated by the lighting device 11 based on the user operation using the operation panel 13. The information processing device 14 derives a two-dimensional distribution of gloss mapping property in the measurement object 15 based on a captured image obtained by photographing the photographing device 12. In the following description, the directions of the X, Y, and Z coordinates, and the directions of the azimuth φ and the zenith angle θ related to the illumination direction, the light receiving direction, and the normal direction are defined as shown in FIG. The origin of the X, Y, and Z coordinates is the intersection of the optical axis of the photographing device 12 and the measurement object 15, and the surface of the measurement object 15 is the XY plane.

照明装置11は、面上に配置した複数の点光源を用いて、測定物15を照明する。各点光源は、独立して輝度値を制御可能であり、点灯と消灯だけでなく、中間的な輝度で発光する。本実施形態では、照明装置11は、測定物側に対応して設定されたフラットパネルのディスプレイを有する。この場合、後述する照明用画像に基づいて各画素の輝度値を設定し発光させることにより、ディスプレイにおける各画素が点光源として機能する。なおディスプレイは、モノクロディスプレイでもよい。 The illuminating device 11 illuminates the measurement object 15 using a plurality of point light sources arranged on the surface. Each point light source can independently control the brightness value, and emits light with an intermediate brightness as well as turning on and off. In the present embodiment, the lighting device 11 has a flat panel display set corresponding to the object to be measured. In this case, each pixel in the display functions as a point light source by setting the brightness value of each pixel based on the illumination image described later and causing the light to be emitted. The display may be a monochrome display.

撮影装置12は、光を集光するレンズと、受光するセンサを有するデジタルカメラである。レンズは、両側テレセントリックレンズであり、受光方向に係るレンズの光軸方向は、方位角φoが0度、天頂角θoが45度とする。レンズは、測定物15の像をセンサ面に結像する。測定物15の表面に対してレンズの光軸が傾斜しているため、センサ面およびレンズは、公知のシャインプルーフの原理を満足する位置に設置されている。図11は、シャインプルーフの原理を満足する位置に設置された、レンズおよびセンサを含む撮影装置12の光学系を示す模式図である。測定物15の表面を反射した光は、第一レンズの主面122、絞り124、第二レンズの主面123の順に通過して、センサ面121に結像する。センサは、受光素子からなるCCDやCMOSなどの2次元センサである。センサにおける各受光素子は、受光した光の光量を電気信号に変換する。その結果、受光した光量に比例する画素値の画素からなる画像が生成される。 The photographing device 12 is a digital camera having a lens that collects light and a sensor that receives light. The lens is a telecentric lens on both sides, and the optical axis direction of the lens related to the light receiving direction is 0 degrees for the azimuth φo and 45 degrees for the zenith angle θo. The lens forms an image of the object 15 on the sensor surface. Since the optical axis of the lens is inclined with respect to the surface of the object to be measured 15, the sensor surface and the lens are installed at positions that satisfy the known Scheimpflug principle. FIG. 11 is a schematic view showing an optical system of a photographing apparatus 12 including a lens and a sensor, which is installed at a position satisfying the principle of Scheimpflug. The light reflected from the surface of the object 15 passes through the main surface 122 of the first lens, the aperture 124, and the main surface 123 of the second lens in this order, and forms an image on the sensor surface 121. The sensor is a two-dimensional sensor such as a CCD or CMOS composed of a light receiving element. Each light receiving element in the sensor converts the amount of received light into an electric signal. As a result, an image composed of pixels having a pixel value proportional to the amount of received light is generated.

第1レンズおよび第2レンジはテレセントリックレンズであるため、主光線は光軸に変更いなる。測定物15における全ての測定点において、受光方向は一定となる。従って線sなが生成する画像の各画素は、測定面の表面における1点に対応づくことになる。なおセンサが生成する画像における画素値の階調数は、10bit、センササイズは2/3インチ、撮影解像度は、X方向、Y方向共に800dpiとする。撮影装置12は、測定物15を斜め方向から撮影するため、一般に撮影解像度はX方向とY方向で異なる。X方向とY方向の解像度を一致させる解像度変換処理は、撮影直後に行ってもよいし、後述する画像処理の後、測定結果を出力する前に実施してもよい。また、行わなくてもよい。 Since the first lens and the second range are telecentric lenses, the main ray is changed to the optical axis. The light receiving direction is constant at all measurement points on the measurement object 15. Therefore, each pixel of the image generated by the line s corresponds to one point on the surface of the measurement surface. The number of gradations of the pixel value in the image generated by the sensor is 10 bits, the sensor size is 2/3 inch, and the shooting resolution is 800 dpi in both the X direction and the Y direction. Since the photographing device 12 photographs the object 15 from an oblique direction, the photographing resolution is generally different in the X direction and the Y direction. The resolution conversion process for matching the resolutions in the X direction and the Y direction may be performed immediately after shooting, or may be performed after image processing described later and before outputting the measurement result. Moreover, it does not have to be done.

操作パネル13は、ここではタッチパネルを用いる。測定システムのユーザは、操作パネル13状のユーザインタフェースを介して各種測定条件の設定や測定開始の指示を行う。また、操作パネル13は、表示用ディスプレイとしても機能し、設定されている測定条件や測定結果を表示する。 The operation panel 13 uses a touch panel here. The user of the measurement system sets various measurement conditions and gives an instruction to start measurement via the user interface of the operation panel 13. The operation panel 13 also functions as a display for display, and displays set measurement conditions and measurement results.

情報処理装置14は、操作パネル13を介して入力されたユーザの指示に基づき、照明装置11と撮影装置12を制御して測定物15の撮影画像を取得する。また、情報処理装置14は、撮影画像に後述する演算処理を施し、光沢写像性の2次元分布を算出する。すなわち実施形態1において情報処理装置14は、照明制御手段、撮影制御手段、画像処理手段として機能する。情報処理装置14は、演算処理の処理経過や処理結果を操作パネル13や図示しない外部装置に出力する。 The information processing device 14 controls the lighting device 11 and the photographing device 12 based on the user's instruction input via the operation panel 13 to acquire the photographed image of the measurement object 15. In addition, the information processing device 14 performs arithmetic processing described later on the captured image to calculate a two-dimensional distribution of glossy mapping. That is, in the first embodiment, the information processing device 14 functions as a lighting control means, a photographing control means, and an image processing means. The information processing device 14 outputs the processing progress and processing result of the arithmetic processing to the operation panel 13 or an external device (not shown).

(測定方法の概要)
ここで、実施形態1における測定システム100が測定物15の反射特性を測定する方法について概要を説明する。図5は、光源と撮影装置12で受光する反射光との関係を示す図である。撮影装置12のセンサ上の画素Pは、測定物15上の測定点151の位置において反射した光を受光している。また、測定点151において、画素Pで受光する反射光と、点光源Lnからの照明光が鏡面反射の関係であり、測定物15は鏡のように鏡面性の高い物体とする。この場合、点光源Lnから照射される光の強度を図5(b)に示すように変調させると、画素Pの輝度値は、図5(b)と同様に図5(c)に示すような正弦波状に変化する。
(Outline of measurement method)
Here, an outline of a method in which the measurement system 100 in the first embodiment measures the reflection characteristics of the object 15 will be described. FIG. 5 is a diagram showing the relationship between the light source and the reflected light received by the photographing device 12. The pixel P on the sensor of the photographing device 12 receives the reflected light at the position of the measurement point 151 on the measurement object 15. Further, at the measurement point 151, the reflected light received by the pixel P and the illumination light from the point light source Ln have a mirror-finished relationship, and the object 15 is a highly mirror-finished object such as a mirror. In this case, when the intensity of the light emitted from the point light source Ln is modulated as shown in FIG. 5 (b), the brightness value of the pixel P is as shown in FIG. 5 (c) as in FIG. 5 (b). It changes into a sinusoidal shape.

実施形態1では、最大反射方向と、さらにその近傍方向から照明された反射光の特性を測定する。そのため実施形態1における照明装置11は、図6に示すように複数の位置に点光源を配置したディスプレイを有する。図6は、点光源として利用される照明装置11のディスプレイにおける各画素と撮影装置12の位置関係を説明する模式図であり、測定システム100のXZ断面を示す。点光源Lj{j:1,2,..8}それぞれは、照明装置11のディスプレイにおける画素に対応する。各点光源Ljは、測定物15における測定点151を異なる方向θjから照明する。測定点151において反射した反射光は、撮影装置12における画素Pにより受光される。なおここでは説明のため、ディスプレイには1列8個の画素からなる例を示している。ここで各点光源の強度は、互いに位相の異なる正弦波状に変調させる。図6(b)は、各点光源L1,L2、L6からの照射光の強度変調の一例を示す模式図である。点光源L1,L2、L6はいずれも正弦波状に変調した光を照射するが、変調の位相は点光源L1の位相を基準として互いに異なっている。図6(c)は、各点光源の位置(照明方向を示す天頂角)と位相の関係を示す。点光源L1の位相は、0度とする。つまり点光源L1の強度は、K1cosθ+K2で変調される。なおK1およびK2は照明装置11が制御可能な強度(輝度値)に応じて設定される定数である。同様に、点光源L2の位相は、45であり、点光源L2の強度は、K1cos(θ―45)+K2で変調される。点光源L6の位相は225度であり、点光源L2の強度は、K1cos(θ―225)+K2で変調される。 In the first embodiment, the characteristics of the reflected light illuminated from the maximum reflection direction and the direction in the vicinity thereof are measured. Therefore, the lighting device 11 in the first embodiment has a display in which point light sources are arranged at a plurality of positions as shown in FIG. FIG. 6 is a schematic view illustrating the positional relationship between each pixel and the photographing device 12 in the display of the lighting device 11 used as a point light source, and shows an XZ cross section of the measurement system 100. Point light source Lj {j: 1, 2, ... .. 8} Each corresponds to a pixel in the display of the lighting device 11. Each point light source Lj illuminates the measurement point 151 on the object 15 from different directions θj. The reflected light reflected at the measurement point 151 is received by the pixel P in the photographing device 12. For the sake of explanation, the display shows an example of eight pixels in a row. Here, the intensity of each point light source is modulated into a sinusoidal shape having different phases from each other. FIG. 6B is a schematic diagram showing an example of intensity modulation of irradiation light from each point light source L1, L2, L6. The point light sources L1, L2, and L6 all irradiate light modulated in a sinusoidal shape, but the modulation phases are different from each other with reference to the phase of the point light source L1. FIG. 6C shows the relationship between the position of each point light source (the zenith angle indicating the illumination direction) and the phase. The phase of the point light source L1 is 0 degrees. That is, the intensity of the point light source L1 is modulated by K1cosθ + K2. Note that K1 and K2 are constants set according to the intensity (luminance value) that the lighting device 11 can control. Similarly, the phase of the point light source L2 is 45, and the intensity of the point light source L2 is modulated by K1cos (θ-45) + K2. The phase of the point light source L6 is 225 degrees, and the intensity of the point light source L2 is modulated by K1cos (θ-225) + K2.

このように各点光源の強度を互いに位相の異なる正弦波状に変調させながら、撮影装置12が測定物15を動画撮影したとする。このとき撮影装置12のセンサにおける画素Pの受光強度は、測定物15の光沢写像性に応じて変調の振幅が変化する。測定物の光沢写像性が大きい場合、画素Pが受光する光は、特定の点光源で照射された光の反射光が支配的となる。図7は、照明光と受光される反射光の関係を示す模式図であり、図7(a)は光沢写像性の大きい測定物の場合を示す。測定物の光沢写像性が大きい場合、測定物表面での散乱は小さく、特定の方向から照射された光は特定の方向に反射する。図7(a)において、画素Pは、点光源Lnからの照射光の反射光のみを受光するものとする。この場合、光源Ln−1からの照射光は全て方向Rn−1に反射し、撮影装置12における画素Pでは受光されない。従って光沢写像性が高い場合、画素Pが受光する光強度は、図5(b)のように点光源Lnのみに依存し、点光源Lnの照射強度の変化に応じて線形に変化する。以下では、このような点光源Lnを画素Pの主光源と呼ぶ。 It is assumed that the photographing device 12 takes a moving image of the measurement object 15 while modulating the intensities of the light sources at each point into sinusoidal shapes having different phases. At this time, the amplitude of modulation of the light receiving intensity of the pixel P in the sensor of the photographing device 12 changes according to the gloss mapping property of the measurement object 15. When the gloss mapping property of the object to be measured is high, the light received by the pixel P is dominated by the reflected light of the light emitted by the specific point light source. FIG. 7 is a schematic view showing the relationship between the illumination light and the reflected light received, and FIG. 7A shows the case of a measured object having a high glossy mapping property. When the gloss mapping property of the measured object is large, the scattering on the surface of the measured object is small, and the light emitted from a specific direction is reflected in a specific direction. In FIG. 7A, it is assumed that the pixel P receives only the reflected light of the irradiation light from the point light source Ln. In this case, all the irradiation light from the light source Ln-1 is reflected in the direction Rn-1, and is not received by the pixel P in the photographing apparatus 12. Therefore, when the gloss mapping property is high, the light intensity received by the pixel P depends only on the point light source Ln as shown in FIG. 5B, and changes linearly according to the change in the irradiation intensity of the point light source Ln. Hereinafter, such a point light source Ln is referred to as a main light source of the pixel P.

一方、測定物の表面が凸凹で光沢写像性が小さい場合、反射光は多方向へ散乱する。その結果、画素Pは主光源以外の点光源からの光も受光する。図7(b)は、光沢写像性の小さい測定物における、照明光と受光される反射光の関係を示す。図7(b)において光源Ln−1からの照明光は、方向Rn−1だけでなく、その近傍方向に反射する。よって、撮影装置12の画素Pは、点光源Lnからの照明光の反射光に加えて、点光源Ln−1からの照明光の反射光も受光する。その結果、画素Pが受光する反射光は、異なる方向からの光の反射光を合成したものとなる。なお、光沢写像性が異なっても鏡面反射成分の総反射強度(体積)は等しいとする。例えば、図7(a)に係る光沢写像性の大きい測定物の測定において画素Pが受光する反射光は、点光源Lnからの光のみで、受光強度は1であるとする。また、図7(b)に係る光沢写像性の小さい測定物の測定おいて画素Pが受光する反射光は、点光源Ln(主光源)、点光源Ln−1および点光源Ln+1からの光で、受光強度はそれぞれ0.8、0.1、0.1(合計すると1)とする。なお鏡面反射成分の総反射強度が等しい場合、光沢写像性が小さいほど主光源からの反射光が占める割合は小さくなる。 On the other hand, when the surface of the object to be measured is uneven and the gloss mapping property is small, the reflected light is scattered in multiple directions. As a result, the pixel P also receives light from a point light source other than the main light source. FIG. 7B shows the relationship between the illumination light and the received reflected light in the measured object having a low gloss mapping property. In FIG. 7B, the illumination light from the light source Ln-1 is reflected not only in the direction Rn-1 but also in the vicinity thereof. Therefore, the pixel P of the photographing device 12 receives the reflected light of the illumination light from the point light source Ln-1 in addition to the reflected light of the illumination light from the point light source Ln. As a result, the reflected light received by the pixel P is a combination of the reflected light of light from different directions. It is assumed that the total reflection intensity (volume) of the specular reflection component is the same even if the gloss mapping property is different. For example, it is assumed that the reflected light received by the pixel P in the measurement of the measurement object having high gloss mapping property according to FIG. 7A is only the light from the point light source Ln, and the light receiving intensity is 1. Further, the reflected light received by the pixel P in the measurement of the measurement object having a small glossy imageability according to FIG. 7B is the light from the point light source Ln (main light source), the point light source Ln-1, and the point light source Ln + 1. The light receiving intensities are 0.8, 0.1, and 0.1 (1 in total), respectively. When the total reflection intensity of the specular reflection components is the same, the smaller the glossy mapping property, the smaller the proportion of the reflected light from the main light source.

図8は、測定物の光沢写像性と画素Pが受光する光強度の関係を示す模式図であり、横軸は位相に対応づけられた時間、縦軸は光強度を示す。図8(a)は、各点光源の光強度を同じ位相の正弦波で変調させていると仮定したときの受光強度の変化を示す。曲線802は、図7(b)に係る光沢写像性の小さい測定物の測定における、点光源Lnで照射された光の反射光の強度変化を示す。曲線803は、同様に、点光源Ln−1およびLn+1で照射された光の反射光の強度変化を示す。また、曲線801は、図7(a)に係る写像性の大きい測定物の測定における、点光源Lnで照射された光の反射光の強度変化を示す。曲線802の光強度と曲線803の光強度の2倍を足し合わせると、曲線801に一致する。すなわち、画素Pの輝度の変化は測定物の光沢写像性によらず一定となる。しかしながら実施形態1では、光沢写像性(鏡面反射成分の広がり)を推定するため、それぞれの点光源の光強度を、位相を異ならせた正弦波状に変調させる。図8(b)と(c)は、各点光源の光強度を異なる位相の正弦波で変調させたときの受光強度の変化を示す。図8(b)の曲線804、805、806は、それぞれ、図7(b)に係る光沢写像性の小さい測定物の測定における、点光源Ln−1、Ln、Ln+1からの光の反射光の強度変化を示す。図8(c)の曲線807は、曲線804、805、806が示す各点光源からの反射光の合成光の強度変化を示す。光沢写像性が小さい場合の受光強度(曲線807)は、光沢写像性が大きい場合の受光強度(曲線801)よりも振幅が小さくなる。このように、各点光源の光強度を異なる位相で変調させると、測定物の光沢写像性に応じて画素の輝度変化の振幅が変化する。そこで実施形態1における測定システムは、画素Pの輝度変化における振幅を算出して、測定点151における光沢写像性(鏡面反射成分の広がり)を推定する。これにより、測定物15の光沢写像性の2次元分布を導出する。 FIG. 8 is a schematic diagram showing the relationship between the gloss mapping property of the measured object and the light intensity received by the pixel P, where the horizontal axis shows the time associated with the phase and the vertical axis shows the light intensity. FIG. 8A shows a change in the light receiving intensity when it is assumed that the light intensity of each point light source is modulated by a sine wave having the same phase. The curve 802 shows the intensity change of the reflected light of the light emitted by the point light source Ln in the measurement of the measurement object having a small gloss mapping property according to FIG. 7B. Curve 803 also shows the intensity change of the reflected light of the light irradiated by the point light sources Ln-1 and Ln + 1. Further, the curve 801 shows a change in the intensity of the reflected light of the light emitted by the point light source Ln in the measurement of the measurement object having a large mapping property according to FIG. 7A. The sum of the light intensity of the curve 802 and twice the light intensity of the curve 803 matches the curve 801. That is, the change in the brightness of the pixel P is constant regardless of the gloss mapping property of the measured object. However, in the first embodiment, in order to estimate the glossy mapping property (spread of the specular reflection component), the light intensity of each point light source is modulated into a sinusoidal shape having different phases. 8 (b) and 8 (c) show changes in the light receiving intensity when the light intensity of each point light source is modulated by a sine wave having a different phase. Curves 804, 805, and 806 of FIG. 8 (b) show the reflected light of the light from the point light sources Ln-1, Ln, and Ln + 1, respectively, in the measurement of the measurement object having a small gloss mapping property according to FIG. 7 (b). Shows a change in strength. The curve 807 of FIG. 8C shows the intensity change of the combined light of the reflected light from each point light source shown by the curves 804, 805, and 806. The light receiving intensity (curve 807) when the glossy mapping property is small has a smaller amplitude than the light receiving intensity (curve 801) when the glossy mapping property is large. In this way, when the light intensity of each point light source is modulated in different phases, the amplitude of the change in the brightness of the pixel changes according to the gloss mapping property of the measured object. Therefore, the measurement system in the first embodiment calculates the amplitude of the change in the brightness of the pixel P to estimate the glossy mapping property (spread of the specular reflection component) at the measurement point 151. Thereby, the two-dimensional distribution of the gloss mapping property of the measurement object 15 is derived.

(情報処理装置の構成)
ここで、照明装置11および撮影装置12の制御、画像処理を実行する情報処理装置14の構成について説明する。図2(a)は、情報処理装置14のハード構成を示す。マイクロプロセッサ(CPU)201は、ランダムアクセスメモリ(RAM)などのメインメモリ202をワークメモリとする。また、ハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)などの記憶部203やリードオンリメモリ(ROM)204に格納されたプログラムを実行し、システムバス205を介して照明装置11や撮影装置12を制御する。なお、記憶部203やROM204には、測定を実現するプログラムや各種データが格納されている。USB(Universal Serial Bus)などの汎用インターフェース(I/F)206には、操作パネル13や、USBメモリやメモリカードなどの記録メディア(コンピュータが読み取り可能な記録媒体)207などが接続される。また、操作パネル13は、ビデオカード(VC)208にも接続され、CPU201によって、ユーザインタフェース(UI)や、後述する画像処理の処理経過や処理結果を示す情報が表示される。照明装置11は、ビデオカードなどの照明インターフェース(I/F)209を介してシステムバス205に接続される。撮影装置12は、USBやカメラリンクなどのカメラインターフェース(I/F)210を介してシステムバス205に接続される。CPU201は、例えば、操作パネル13を介して入力されるユーザ指示に従いROM204、記憶部203または記録メディア207に格納されたアプリケーションプログラム(AP)や各種データをメインメモリ202の所定領域にロードする。そして、APを実行し、APに従い操作パネル13にUIを表示する。CPU201は、UIを用いて入力したユーザ指示に従って照明装置11と撮影装置12を制御して測定面15を撮影し、撮影画像データをメインメモリ202や記憶部203に格納する。さらに、CPU201は、APに従いメインメモリ202に格納した撮影画像データに所定の演算処理を施す。そして、CPU201は、ユーザ指示に従い演算処理結果を操作パネル13に表示したり、記憶部203や記録メディア207に格納したりする。また、CPU201は、システムバス205に接続された図示しないネットワークI/Fを介して、有線または無線ネットワーク上のコンピュータ装置やサーバ装置との間でプログラム、データ、演算処理結果および中間処理データの送受信を行うこともできる。
(Configuration of information processing device)
Here, the configuration of the information processing device 14 that controls the lighting device 11 and the photographing device 12 and executes image processing will be described. FIG. 2A shows a hardware configuration of the information processing device 14. The microprocessor (CPU) 201 uses a main memory 202 such as a random access memory (RAM) as a work memory. Further, a program stored in a storage unit 203 such as a hard disk drive (HDD) or a solid state drive (SSD) or a read-only memory (ROM) 204 is executed, and the lighting device 11 and the photographing device 12 are connected via the system bus 205. Control. The storage unit 203 and the ROM 204 store a program for realizing the measurement and various data. An operation panel 13 or a recording medium (computer-readable recording medium) 207 such as a USB memory or a memory card is connected to a general-purpose interface (I / F) 206 such as USB (Universal Serial Bus). The operation panel 13 is also connected to a video card (VC) 208, and the CPU 201 displays a user interface (UI) and information indicating the processing progress and processing result of image processing described later. The lighting device 11 is connected to the system bus 205 via a lighting interface (I / F) 209 such as a video card. The photographing device 12 is connected to the system bus 205 via a camera interface (I / F) 210 such as USB or a camera link. For example, the CPU 201 loads the application program (AP) and various data stored in the ROM 204, the storage unit 203, or the recording medium 207 into a predetermined area of the main memory 202 according to a user instruction input via the operation panel 13. Then, the AP is executed, and the UI is displayed on the operation panel 13 according to the AP. The CPU 201 controls the lighting device 11 and the photographing device 12 according to a user instruction input using the UI to photograph the measurement surface 15, and stores the photographed image data in the main memory 202 or the storage unit 203. Further, the CPU 201 performs a predetermined arithmetic process on the captured image data stored in the main memory 202 according to the AP. Then, the CPU 201 displays the calculation processing result on the operation panel 13 according to the user's instruction, or stores it in the storage unit 203 or the recording medium 207. Further, the CPU 201 transmits / receives programs, data, arithmetic processing results, and intermediate processing data to / from a computer device or server device on a wired or wireless network via a network I / F (not shown) connected to the system bus 205. Can also be done.

(情報処理装置14の機能構成)
図2(b)は、本実施形態における情報処理装置14の機能構成を示すブロック図である。図2(b)を用いて、情報処理装置14の詳細な機能構成について説明する。情報処理装置14は、デバイス制御部1501とデータ格納部1502、撮影画像補正部1503を備える。デバイス制御部1501は、照明装置11に照明用画像を転送し、照明装置11のディスプレイに照明用画像を表示させる。また、照明用画像に基づいて照明された測定物15を撮影装置12に撮影させ、撮影装置12から得られる撮影画像をデータ格納部1502に格納する。撮影画像補正部1503は、データ格納部1502に格納された撮影画像に対して所定の階調補正を実行する。
(Functional configuration of information processing device 14)
FIG. 2B is a block diagram showing a functional configuration of the information processing apparatus 14 according to the present embodiment. The detailed functional configuration of the information processing apparatus 14 will be described with reference to FIG. 2 (b). The information processing device 14 includes a device control unit 1501, a data storage unit 1502, and a captured image correction unit 1503. The device control unit 1501 transfers the illumination image to the illumination device 11 and causes the display of the illumination device 11 to display the illumination image. Further, the measuring object 15 illuminated based on the illumination image is photographed by the photographing device 12, and the photographed image obtained from the photographing device 12 is stored in the data storage unit 1502. The captured image correction unit 1503 executes a predetermined gradation correction on the captured image stored in the data storage unit 1502.

振幅分布取得部1504は、撮影画像補正部1503によって補正された補正画像に基づいて、補正画像における各画素の振幅分布を取得する。振幅分布とは、各画素における輝度値の変化特性における振幅を格納した画像である。これは、各画素が受光した光は、いくつの点光源からの反射光が合成した光であるかを特定するための情報である。光沢写像性変換テーブル格納部1506は、各画素の振幅を、光沢写像性を評価する値に変換するテーブルを保持する。光沢写像性分布取得部1505は、光沢写像性変換テーブルを参照して、振幅分布に基づいて、各画素の振幅を光沢写像性に変換し、光沢写像性の2次元分布を導出する。 The amplitude distribution acquisition unit 1504 acquires the amplitude distribution of each pixel in the corrected image based on the corrected image corrected by the captured image correction unit 1503. The amplitude distribution is an image in which the amplitude in the change characteristic of the brightness value in each pixel is stored. This is information for specifying how many point light sources the reflected light from each pixel is combined with the light received by each pixel. The gloss mapping conversion table storage unit 1506 holds a table that converts the amplitude of each pixel into a value for evaluating gloss mapping. The gloss mapping distribution acquisition unit 1505 converts the amplitude of each pixel into gloss mapping based on the amplitude distribution with reference to the gloss mapping conversion table, and derives a two-dimensional distribution of gloss mapping.

出力部1507は、光沢写像性の2次元分布を出力する。あるいは、撮影画像や中間データである振幅分布などを出漁してもよい。 The output unit 1507 outputs a two-dimensional distribution with gloss mapping. Alternatively, the captured image or the amplitude distribution which is the intermediate data may be caught.

(照明装置11の制御について)
次に、照明装置11に表示させる照明用画像について説明する。ディスプレイにおける各点光源(画素)は、上述の通り互いに位相の異なる正弦波状に変調された光を照射する。各点光源を正弦波状に変調させながら撮影装置12が測定物15を測定すると、撮影装置12が生成する画像における各画素は、点光源と同様、正弦波状に輝度値が変化する。情報処理装置14は、各画素の輝度変化における正弦波の振幅により、各測定点の光沢写像性を導出する。正弦波の振幅を算出するためには、少なくとも1周期において3回の測定点が必要である。実施形態1では、4回測定する。図4は、照明用画像を説明する図である。図4(a)は、ディスプレイを示し、矩形は画素である。図4(b)〜(e)は、照明用画像を示す。4回の測定で各点光源が1周期分の変調された輝度になるように、4つの照明用画像を生成している。情報処理装置14は、照明装置11に図4(b)〜(e)に示す照明用画像を順に送信する。照明装置11は、受信した照明用画像に基づいてディスプレイの各画素の輝度値を制御する。情報処理装置14は、照明用画像を切り替えることにより照明装置11のディスプレイにおける各画素(点光源)を変調させる。
(About control of lighting device 11)
Next, a lighting image to be displayed on the lighting device 11 will be described. As described above, each point light source (pixel) in the display irradiates light sine-wave-modulated with different phases. When the photographing device 12 measures the measurement object 15 while modulating each point light source in a sinusoidal shape, the brightness value of each pixel in the image generated by the photographing device 12 changes in a sinusoidal shape as in the point light source. The information processing device 14 derives the gloss mapping property of each measurement point from the amplitude of the sine wave in the brightness change of each pixel. In order to calculate the amplitude of the sine wave, three measurement points are required in at least one cycle. In the first embodiment, the measurement is performed four times. FIG. 4 is a diagram illustrating an image for illumination. FIG. 4A shows a display, and the rectangle is a pixel. 4 (b) to 4 (e) show images for illumination. Four illumination images are generated so that each point light source has a modulated brightness for one cycle in four measurements. The information processing device 14 sequentially transmits the lighting images shown in FIGS. 4 (b) to 4 (e) to the lighting device 11. The lighting device 11 controls the brightness value of each pixel of the display based on the received illumination image. The information processing device 14 modulates each pixel (point light source) in the display of the lighting device 11 by switching the illumination image.

ディスプレイにおける各画素の輝度値Lは、ある位相δ(Xd)の正弦波状に変調させるため、式(1)によって表される。 The brightness value L of each pixel in the display is represented by the equation (1) because it is modulated in a sinusoidal shape having a certain phase δ (Xd).

L(Xd,Yd,Δi)=K1×cos(Δi−δ(Xd))+K2・・・(1)
ここで、XdとYdは、照明装置11のディsプレイにおけるX軸方向およびY軸方向の位置に係る画素番号である。また、Δiは変調情報、K1およびK2は定数、δは初期位相に係る位相分布関数を示す。定数K1および定数K2は、それぞれ、照明用画像のコントラストと平均輝度のパラメータである。照明用画像の各画素の画素値が8bit(256階調)である場合には、例えば、定数K1および定数K2は127である。位相分布関数δは、式(2)で与えられる。
L (Xd, Yd, Δi) = K1 × cos (Δi−δ (Xd)) + K2 ... (1)
Here, Xd and Yd are pixel numbers related to the positions in the X-axis direction and the Y-axis direction in the display of the lighting device 11. Further, Δi indicates modulation information, K1 and K2 indicate constants, and δ indicates a phase distribution function related to the initial phase. The constant K1 and the constant K2 are parameters of the contrast and the average brightness of the illumination image, respectively. When the pixel value of each pixel of the illumination image is 8 bits (256 gradations), for example, the constant K1 and the constant K2 are 127. The phase distribution function δ is given by Eq. (2).

δ(Xd)=K3×Xd・・・(2)
ここでK3は定数であり、例えば1である。式(2)の位相分布関数は、X方向の位置に応じて位相が決定されることを意味する。式(1)における変調情報Δiの添え字iの値は、輝度変調の番号を示す。輝度の切り替え数(照明用画像の数)がn個の場合、iは1からnの値をとる。本実施形態ではn=4であり、1周期分の位相を4分割するため(Δ1,Δ2,Δ3,Δ4)=(0度,90度,180度,270度)となる。なお、図4はX方向に並ぶ点光源を互いの異なる位相となるように設定したが、位相を異ならせる方向はX方向に限らない。例えば、Y方向において各点光源を互いに異なる位相となるように設定しもよい。この場合、上記の式(1)および式(2)におけるδ(Xd)のXdは、Ydに置き換えられる。
δ (Xd) = K3 × Xd ... (2)
Here, K3 is a constant, for example 1, 1. The phase distribution function of the equation (2) means that the phase is determined according to the position in the X direction. The value of the subscript i of the modulation information Δi in the equation (1) indicates the luminance modulation number. When the number of luminance switchings (the number of illumination images) is n, i takes a value from 1 to n. In the present embodiment, n = 4, and the phase for one cycle is divided into four (Δ1, Δ2, Δ3, Δ4) = (0 degree, 90 degree, 180 degree, 270 degree). In FIG. 4, the point light sources arranged in the X direction are set to have different phases from each other, but the directions in which the phases are different are not limited to the X direction. For example, the point light sources may be set to have different phases in the Y direction. In this case, Xd of δ (Xd) in the above equations (1) and (2) is replaced with Yd.

(測定手順)
図3は、本実施形態の情報処理装置14が実行する測定手順を示すフローチャートである。ステップS302〜ステップS309は、情報処理装置14が有するCPUが以降に説明するフローチャートを実行するプログラムを読み出し、実行することにより実現する。
(Measurement procedure)
FIG. 3 is a flowchart showing a measurement procedure executed by the information processing apparatus 14 of the present embodiment. Steps S302 to S309 are realized by reading and executing a program in which the CPU of the information processing device 14 executes the flowchart described below.

まず、ステップS301においてデバイス制御部1501は、図4(b)〜(e)に示す各照明用画像を順に照明装置11に転送し、表示させる。照明装置11が測定物15を照明する度、撮影装置12に測定物15を撮影させる。ここでは測定の結果、4つの撮影画像を取得する。照明装置11と測定物15および撮影装置12の位置関係は、照明用画像を切り替えても一定に保つ。データ格納部1502は、取得した撮影画像を記憶する。撮影画像補正部1503は、各撮影画像に対して所定の階調補正を実行する。 First, in step S301, the device control unit 1501 sequentially transfers and displays the lighting images shown in FIGS. 4B to 4E to the lighting device 11. Every time the lighting device 11 illuminates the measurement object 15, the photographing device 12 is made to photograph the measurement object 15. Here, as a result of the measurement, four captured images are acquired. The positional relationship between the lighting device 11, the measuring object 15, and the photographing device 12 is kept constant even when the lighting image is switched. The data storage unit 1502 stores the acquired captured image. The captured image correction unit 1503 executes a predetermined gradation correction for each captured image.

ステップS302において振幅分布取得部1504は、各撮影画像の画素値に対応する振幅を算出する。まず振幅分布取得部1504は、撮影画像における各画素の輝度値の変化を算出する。図12は、撮影画像におけるある画素の輝度値の変化を算出した結果の一例を示す図である。横軸は、撮影タイミングに対応する照明用画像の変調情報、縦軸は輝度値である。振幅分布取得部1504は、4つの撮影画像における処理対象画素の輝度値をプロットする。この測定結果は正弦波状に変化するので、4つのプロット点を式(1)の正弦波に近似する。ここでは、次の式(3)から式(5)を用いて測定結果を近似した正弦波を算出する。 In step S302, the amplitude distribution acquisition unit 1504 calculates the amplitude corresponding to the pixel value of each captured image. First, the amplitude distribution acquisition unit 1504 calculates the change in the brightness value of each pixel in the captured image. FIG. 12 is a diagram showing an example of the result of calculating the change in the brightness value of a certain pixel in the captured image. The horizontal axis is the modulation information of the illumination image corresponding to the shooting timing, and the vertical axis is the brightness value. The amplitude distribution acquisition unit 1504 plots the brightness values of the processing target pixels in the four captured images. Since this measurement result changes in a sine wave shape, the four plot points are approximated to the sine wave in the equation (1). Here, a sine wave that approximates the measurement result is calculated using the following equations (3) to (5).

ss(Xc,Yc)=Σ(Ii(Xc,Yc)×sin(Δi))・・・(3)
sc(Xc,Yc)=Σ(Ii(Xc,Yc)×cos(Δi))・・・(4)
ここで、XcおよびYcは、撮影画像の画素番号を示す。またΔiはi番目の変調情報、Iiはi番目の輝度変調の照明用画像で照明したときの撮影画像の輝度値を示す。式(3)と式(4)のΣは、添え字iに関する総和を求める。フィッティングした正弦波の振幅の値Aを振幅情報として算出する。
ss (Xc, Yc) = Σ (Ii (Xc, Yc) × sin (Δi)) ... (3)
sc (Xc, Yc) = Σ (Ii (Xc, Yc) × cos (Δi)) ... (4)
Here, Xc and Yc indicate the pixel number of the captured image. Further, Δi indicates the i-th modulation information, and Ii indicates the brightness value of the captured image when illuminated by the i-th brightness-modulated illumination image. Σ in Eqs. (3) and (4) finds the sum for the subscript i. The value A of the amplitude of the fitted sine wave is calculated as the amplitude information.

A(Xc,Yc)=(ss(Xc,Yc)^2+sc(Xc,Yc)^2)^(1/2)・・・(5)
振幅分布算出部1504は、全ての画素(Xc,Yc)について振幅情報を算出すると、各画素に振幅情報を格納した画像を振幅分布として出力する。
A (Xc, Yc) = (ss (Xc, Yc) ^ 2 + sc (Xc, Yc) ^ 2) ^ (1/2) ... (5)
When the amplitude distribution calculation unit 1504 calculates the amplitude information for all the pixels (Xc, Yc), the amplitude distribution calculation unit 1504 outputs an image in which the amplitude information is stored in each pixel as an amplitude distribution.

ステップS303において光沢写像性分布取得部1505は、振幅分布において測定物15の光沢写像性の2次元分布を取得する。光沢写像性の2次元分布は、撮影画像の各画素(Xc,Yc)に対応する光沢写像性の値Sを保持する画像である。各画素の光沢写像性の値Sは、あらかじめ作成しておいた光沢写像性変換テーブルを参照して算出する。図10は、光沢写像性変換テーブルの一例を示す模式図である。図10に示すように、光沢写像性変換テーブルは、離散的な振幅情報Aに対応する光沢写像性Sを記述したテーブルである。任意の振幅情報の値に対応する光沢写像性の値は、公知の補間方法を利用して計算される。また、光沢写像性変換テーブルは、光沢写像性が既知の測定物を測定することで作成し、光沢写像性変換テーブル格納部1506に格納しておく。なお、上述したように、光沢写像性を表す指標には種類がある。より好適には、複数の光沢写像性の指標に対応する光沢写像性変換テーブルを備えておき、ユーザの指示に応じて光沢写像性変換テーブルを切り替える構成とするとよい。例えば、JIS K 7374の規格に係る数値を光沢写像性の指標として振幅を変換する光沢写像性変換テーブルと、反射モデルの正規分布のパラメータをこ光沢写像性の指標として振幅を変換する光沢写像性変換テーブルを用意しておく。 In step S303, the gloss mapping distribution acquisition unit 1505 acquires a two-dimensional gloss mapping distribution of the measurement object 15 in the amplitude distribution. The two-dimensional distribution of glossy mapping is an image that retains the glossy mapping value S corresponding to each pixel (Xc, Yc) of the captured image. The gloss mapping value S of each pixel is calculated with reference to the gloss mapping conversion table created in advance. FIG. 10 is a schematic view showing an example of a gloss mapping conversion table. As shown in FIG. 10, the gloss mapping conversion table is a table in which the gloss mapping S corresponding to the discrete amplitude information A is described. The gloss mapping value corresponding to the value of arbitrary amplitude information is calculated by using a known interpolation method. Further, the gloss mapping conversion table is created by measuring a measured object having a known gloss mapping property, and is stored in the gloss mapping property conversion table storage unit 1506. As described above, there are various types of indexes representing glossy mapping. More preferably, it is preferable to provide a glossy mapping conversion table corresponding to a plurality of glossy mapping indicators and to switch the glossy mapping conversion table according to a user's instruction. For example, a gloss mapping conversion table that converts the amplitude using the numerical value according to the JIS K 7374 standard as an index of gloss mapping, and a gloss mapping that converts the amplitude using the parameters of the normal distribution of the reflection model as an index of gloss mapping. Prepare a conversion table.

ステップS304において出力部1507は、ステップS303で求めた測定物15の光沢写像性の2次元分布を出力して終了する。なお、出力項目は、撮影画像や振幅分布などの中間処理データを含んでもよい。 In step S304, the output unit 1507 outputs the two-dimensional distribution of the gloss mapping property of the measurement object 15 obtained in step S303, and ends. The output item may include intermediate processing data such as a captured image and an amplitude distribution.

以上の通り、本実施形態では照明装置11の複数の点光源に互いの異なる正弦波状に変調させながら同時に発光させ、測定物15を照明する。撮影装置12は、各点光源の変調1周期分のうち複数回、測定物15を撮影し撮影画像を得る。撮影画像における各画素の輝度値は、点光源と同様に、正弦波状に変化する。さらに、各画素の輝度変化における正弦波の振幅は、測定物15の光沢写像性に対応づけることができる。そこで各画素の輝度変化における正弦波の振幅を用いて、測定物15の光沢写像性を推定する。特に前述の実施形態では、位相の異なる光量に変調させて各点光源を同時に発光させるので、1つ1つの点光源を順に発光させながらその都度測定物15を測定する方法に比べて大幅に時間を短縮できる。また、少なくとも3回異なる照明用画像のタイミングで撮影するだけで、各画素の輝度変化を検出できる。これにより撮影画像を保存するメモリ容量や、演算に係る時間を短縮することもできる。前述では、1周期分の位相を4回に分けて撮影した場合を例に説明したが、3回の場合は、変調情報iΔは、(Δ1,Δ2,Δ3)=(0度,120度,240度)と設定するとよい。ただし、照明用画像の切り替え(撮影回数)は多いほど、撮影画像に含まれるノイズの影響を抑制できる。そのため照明用画像の切り替え(撮影回数)は、ユーザによる測定精度などを考慮して設定することが望ましい。 As described above, in the present embodiment, the plurality of point light sources of the illuminating device 11 are simultaneously modulated into different sinusoidal shapes and simultaneously emitted light to illuminate the object 15 to be measured. The photographing device 12 photographs the measured object 15 a plurality of times in one modulation cycle of each point light source to obtain a captured image. The brightness value of each pixel in the captured image changes in a sinusoidal manner, similar to a point light source. Further, the amplitude of the sine wave in the change in the brightness of each pixel can be associated with the gloss mapping property of the measurement object 15. Therefore, the gloss mapping property of the measurement object 15 is estimated by using the amplitude of the sine wave in the brightness change of each pixel. In particular, in the above-described embodiment, since the light sources having different phases are modulated to emit light at the same time, the time is significantly longer than that of the method of measuring the measurement object 15 each time while emitting light from each point light source in order. Can be shortened. In addition, the change in brightness of each pixel can be detected only by taking pictures at least three times at different timings of the illumination image. As a result, it is possible to reduce the memory capacity for storing captured images and the time required for calculation. In the above description, the case where the phase for one cycle is divided into four times is described as an example, but in the case of three times, the modulation information iΔ is (Δ1, Δ2, Δ3) = (0 degrees, 120 degrees, 240 degrees) should be set. However, the more the lighting image is switched (the number of times of shooting), the more the influence of noise contained in the shot image can be suppressed. Therefore, it is desirable to set the switching (number of times of shooting) of the illumination image in consideration of the measurement accuracy by the user.

なお、複数の点光源として用いるディスプレイは、表示可能な最大輝度と最初輝度の比である輝度コントラストが高く、輝度の時間変動が小さく、ディスプレイ内における各画素の輝度のムラが少ない方が、各点光源を識別しやすく望ましい。また、複数の点光源は密に配置され、連続的に位相をずらして各点光源に発光させることが望ましい。そのため実施形態1ではディスプレイを測定物15の照明に用いた。ディスプレイを用いる場合、ディスプレイの解像度は、点光源の配置密度でもあり、測定精度に関わる。また、ディスプレイのサイズは、撮影装置12が測定する測定面15における全ての測定点に対し、鏡面反射成分(最大反射方向からの反射光)を受光できることを考慮して設計されていることが望ましい。 A display used as a plurality of point light sources has a high luminance contrast, which is the ratio of the maximum luminance that can be displayed and the initial luminance, a small time variation of the luminance, and a smaller uneven luminance of each pixel in the display. It is desirable that the point light source can be easily identified. Further, it is desirable that the plurality of point light sources are densely arranged and the phase is continuously shifted so that each point light source emits light. Therefore, in the first embodiment, the display is used to illuminate the measurement object 15. When a display is used, the resolution of the display is also the arrangement density of the point light source and is related to the measurement accuracy. Further, it is desirable that the size of the display is designed in consideration of being able to receive a specular reflection component (light reflected from the maximum reflection direction) for all measurement points on the measurement surface 15 measured by the photographing device 12. ..

なお、以上の説明では、全ての画素で振幅情報の値を求めた後に、光沢写像性の値を求める構成を説明したが、1画素毎に光沢写像性の値まで計算するように構成してもよいし、n画素毎に光沢写像性の値まで計算するように構成してもよい。 In the above description, a configuration is described in which the value of the amplitude information is obtained for all the pixels and then the value of the glossy mapping property is obtained. However, the value of the glossy mapping property is calculated for each pixel. Alternatively, it may be configured to calculate the value of gloss mapping property for each n pixels.

[変形例1]
実施形態1では、撮影画像の各画素の輝度値の変化を三角関数にフィッティングすることで振幅情報の値を計算する例を説明したが、変形例1では、最大輝度値と最小輝度値から振幅情報を計算する例について説明する。なお、実施形態1と同じ構成については、詳細な説明を省略する。変形例1の測定手順は、ステップS302の処理が実施形態1と異なる。変形例1のステップS302では、各画素の振幅情報Aは、次の式(6)で算出する。
[Modification 1]
In the first embodiment, an example in which the value of the amplitude information is calculated by fitting the change in the brightness value of each pixel of the captured image to a trigonometric function has been described, but in the modified example 1, the amplitude is calculated from the maximum brightness value and the minimum brightness value. An example of calculating information will be described. A detailed description of the same configuration as that of the first embodiment will be omitted. In the measurement procedure of the first modification, the process of step S302 is different from that of the first embodiment. In step S302 of the first modification, the amplitude information A of each pixel is calculated by the following equation (6).

A(Xc,Yc)=Max(Ii(Xc,Yc))−Min(Ii(Xc,Yc))・・・(6)
すなわち、振幅情報Aは、異なる照明用画像で撮影した輝度値Iiの最大値と最小値の差とする。また、変形例1の機能構成は、振幅分布取得部1504が実施形態1と異なる。変形例1の振幅分布取得部1504は、撮影画像補正部1503で補正された補正画像に基づいて上記の変形例1のステップS302の処理を行って振幅分布を取得する。すなわち、補正画像の各画素の輝度値から上記式(6)によって振幅分布の各画素の振幅情報の値を計算する。
A (Xc, Yc) = Max (Ii (Xc, Yc))-Min (Ii (Xc, Yc)) ... (6)
That is, the amplitude information A is the difference between the maximum value and the minimum value of the brightness values Ii taken with different illumination images. Further, the functional configuration of the modified example 1 is different from that of the first embodiment in the amplitude distribution acquisition unit 1504. The amplitude distribution acquisition unit 1504 of the modification 1 acquires the amplitude distribution by performing the process of step S302 of the modification 1 above based on the corrected image corrected by the captured image correction unit 1503. That is, the value of the amplitude information of each pixel of the amplitude distribution is calculated from the brightness value of each pixel of the corrected image by the above equation (6).

変形例1は、三角関数にフィッティングする代わりに最大値と最小値を利用して振幅情報を計算する。これによって、複数の撮影画像の各画素の輝度変化を三角関数に近似する演算が不要となり、処理を高速化できる。 In the first modification, the amplitude information is calculated by using the maximum value and the minimum value instead of fitting to the trigonometric function. This eliminates the need for an operation that approximates the brightness change of each pixel of a plurality of captured images to a trigonometric function, and can speed up the processing.

[変形例2]
実施形態1では、照明装置に面光源のディスプレイを利用する例を説明したが、変形例2ではライン光源を利用する例について説明する。なお、実施形態1と同じ構成については、詳細な説明を省略する。
[Modification 2]
In the first embodiment, an example of using a display of a surface light source for the lighting device has been described, but in the second modification, an example of using a line light source will be described. A detailed description of the same configuration as that of the first embodiment will be omitted.

(照明装置)
図16は、変形例2の照明装置を説明する模式図である。図16に示すように、Xd方向に点光源を配したライン光源1801は、Yd方向に移動可能に構成されている。そこで変形例2では、実施形態1の照明装置11が照明する範囲と同じ範囲を照明するように、ライン光源をYd方向に操作しながら分割して照明する。なお、ライン光源の配置は、この例に限らない。例えば、Yd方向に点光源を配したライン光源をXd方向に移動可能に構成してもよい。ライン光源1801の各画素は、実施形態1と同様に、式(1)で与えられる輝度で発光する。
(Lighting device)
FIG. 16 is a schematic view illustrating the lighting device of the second modification. As shown in FIG. 16, the line light source 1801 in which the point light source is arranged in the Xd direction is configured to be movable in the Yd direction. Therefore, in the second modification, the line light source is divided and illuminated while operating in the Yd direction so as to illuminate the same range as the illuminating device 11 of the first embodiment. The arrangement of the line light source is not limited to this example. For example, a line light source in which a point light source is arranged in the Yd direction may be configured to be movable in the Xd direction. Each pixel of the line light source 1801 emits light with the brightness given by the equation (1), as in the first embodiment.

(測定手順)
変形例2は、ステップS301およびステップS302の処理が実施形態1と異なる。図17は、変形例2における測定手順ステップS301の詳細手順を示す説明するフローチャートである。まず、ステップS1901において、ライン光源の走査位置を指定する定数Cに0を設定する。次に、ステップS1902において、ライン光源をYd=Cの位置に移動する。次に、ステップS1903において、照明装置11に照明用画像を順に表示して、各照明用画像を表示したときの測定面15を撮影装置12で撮影する。表示する照明用画像は、実施形態1の照明用画像におけるYd=Cの位置のラインパターンである。次に、ステップS1904において、全ての走査位置Ydでの撮影が完了したか判断する。全ての走査位置における撮影が完了した場合は、終了する。他の場合は、ステップS1905に進む。ステップS1905では、定数Cをインクリメントして、次のライン光源の走査位置Ydを設定し、ステップS1902に戻る。この工程によって、「輝度変調の照明用画像数×ライン光源の走査位置の数」の個数の撮影画像が取得される。
(Measurement procedure)
In the second modification, the processing of step S301 and step S302 is different from that of the first embodiment. FIG. 17 is a flowchart illustrating a detailed procedure of the measurement procedure step S301 in the second modification. First, in step S1901, 0 is set in the constant C that specifies the scanning position of the line light source. Next, in step S1902, the line light source is moved to the position of Yd = C. Next, in step S1903, the illumination images are sequentially displayed on the illumination device 11, and the measurement surface 15 when each illumination image is displayed is photographed by the imaging device 12. The illumination image to be displayed is a line pattern at the position of Yd = C in the illumination image of the first embodiment. Next, in step S1904, it is determined whether or not the imaging at all the scanning positions Yd is completed. When the shooting at all the scanning positions is completed, the process ends. In other cases, the process proceeds to step S1905. In step S1905, the constant C is incremented to set the scanning position Yd of the next line light source, and the process returns to step S1902. By this step, the number of captured images of "the number of illumination images for luminance modulation x the number of scanning positions of the line light source" is acquired.

図18は、変形例2における測定手順ステップS302の詳細手順を示すフローチャートである。まず、ステップS2001において、測定面15の振幅分布を取得する。変形例2では、ライン光源の走査位置毎に実施形態1のステップS302の処理を行い、ライン光源の走査位置の数の振幅分布を取得する。次に、ステップS2002において、測定面15の最大振幅分布を取得する。最大振幅分布は、ステップS2001で求めた振幅分布群の同じ画素位置における画素値(振幅情報)を比較し、最大の振幅情報を選択した画像である。変形例2では、実施形態1の振幅分布の代わりに、この最大振幅分布を使用する。 FIG. 18 is a flowchart showing a detailed procedure of the measurement procedure step S302 in the second modification. First, in step S2001, the amplitude distribution of the measurement surface 15 is acquired. In the second modification, the processing of step S302 of the first embodiment is performed for each scanning position of the line light source, and the amplitude distribution of the number of scanning positions of the line light source is acquired. Next, in step S2002, the maximum amplitude distribution of the measurement surface 15 is acquired. The maximum amplitude distribution is an image in which the pixel values (amplitude information) at the same pixel position of the amplitude distribution group obtained in step S2001 are compared and the maximum amplitude information is selected. In the second modification, this maximum amplitude distribution is used instead of the amplitude distribution of the first embodiment.

(機能構成)
変形例2は、デバイス制御部1501と振幅分布取得部1504が実施形態1と異なる。変形例2におけるデバイス制御部1501は、上述した変形例2の測定手順のステップS301の処理を行う。すなわち、ライン光源の各走査位置で、照明装置11に各照明用画像を表示して撮影装置12で測定面15を撮影する。そして、ライン光源の走査位置の数と照明用画像数の積に一致する数の撮影画像を取得する。変形例2における振幅分布取得部1504は、上述した変形例2の測定手順のステップS302の処理を行う。
(Functional configuration)
In the second modification, the device control unit 1501 and the amplitude distribution acquisition unit 1504 are different from the first embodiment. The device control unit 1501 in the modification 2 performs the process of step S301 of the measurement procedure of the modification 2 described above. That is, at each scanning position of the line light source, each illumination image is displayed on the lighting device 11, and the measurement surface 15 is photographed by the photographing device 12. Then, the number of captured images corresponding to the product of the number of scanning positions of the line light source and the number of illumination images is acquired. The amplitude distribution acquisition unit 1504 in the modified example 2 performs the process of step S302 of the measurement procedure of the modified example 2 described above.

以上説明したように、本変形例の測定装置は、面光源の代わりにムラや輝度安定性に優れるライン光源を利用する。これによって、アピアランスに係る光沢写像性の2次元分布を高精度に取得できる。 As described above, the measuring device of this modified example uses a line light source having excellent unevenness and luminance stability instead of the surface light source. As a result, the two-dimensional distribution of gloss mapping related to appearance can be acquired with high accuracy.

[変形例3]
実施形態1では、照明装置に面光源のディスプレイを利用する例を説明したが、変形例3ではプロジェクタとスクリーンを利用する構成について説明する。なお、実施形態1と同じ構成については、詳細な説明を省略する。
[Modification 3]
In the first embodiment, an example in which a display of a surface light source is used for the lighting device has been described, but in the third modification, a configuration using a projector and a screen will be described. A detailed description of the same configuration as that of the first embodiment will be omitted.

(照明装置)
図19は、変形例3の照明装置を説明する模式図である。変形例3の照明装置11は、プロジェクタ2101と、裏面照射型の透過タイプのスクリーン2102からなる。なお、スクリーンは透過タイプに限らず反射タイプであってもよい。不図示の測定面15は、スクリーン2102に対してプロジェクタ2101の反対側にあり、スクリーン2102を透過した光によって照明される。本変形例では、このスクリーン2102の面上の点を点光源として利用する。スクリーン2102の面上の点は、プロジェクタ2101に入力する画像の画素に対応し、入力する画像の画素値に応じて、任意の中間レベルの輝度で発光する。スクリーン2102は、測定面15と平行に設置する。また、プロジェクタ2101は、入力する画像の画素番号を(Xp,Yp)とするとき、Ypの値が等しい画素に対応するスクリーン2102の面上の点が直線を構成し、その方向が測定装置のX軸方向と平行になるように設置する。同様に、Xpの値が等しい画素に対応するスクリーン2102の面上の点が直線を構成し、その方向が測定装置のY軸方向と平行になるように設置する。この場合、プロジェクタ2101に入力する画像の画素番号(Xp,Yp)を実施形態1の照明装置の画素番号(Xd,Yd)として、実施形態1と同じ処理で光沢写像性の2次元分布を取得できる。すなわち、実施形態1の説明におけるXdをXp、YdをYpに置き換えればよい。または、座標変換によって、プロジェクタに入力する画像の画素番号(Xp,Yp)と測定装置のX軸とY軸に対応した座標系を相互に変換してもよい。この場合、当該座標系による画素番号を実施例1の照明装置の画素番号(Xd,Yd)とすればよい。
(Lighting device)
FIG. 19 is a schematic view illustrating the lighting device of the third modification. The lighting device 11 of the modification 3 includes a projector 2101 and a back-illuminated transmissive screen 2102. The screen is not limited to the transmissive type and may be a reflective type. The measurement surface 15 (not shown) is on the opposite side of the projector 2101 with respect to the screen 2102 and is illuminated by the light transmitted through the screen 2102. In this modification, a point on the surface of the screen 2102 is used as a point light source. The points on the surface of the screen 2102 correspond to the pixels of the image input to the projector 2101, and emit light at an arbitrary intermediate level brightness according to the pixel value of the input image. The screen 2102 is installed parallel to the measurement surface 15. Further, in the projector 2101, when the pixel number of the input image is (Xp, Yp), the points on the surface of the screen 2102 corresponding to the pixels having the same Yp value form a straight line, and the direction is the direction of the measuring device. Install so that it is parallel to the X-axis direction. Similarly, the points on the surface of the screen 2102 corresponding to the pixels having the same value of Xp form a straight line, and the points are installed so that the direction is parallel to the Y-axis direction of the measuring device. In this case, the pixel numbers (Xp, Yp) of the image input to the projector 2101 are set as the pixel numbers (Xd, Yd) of the lighting device of the first embodiment, and the two-dimensional distribution of gloss mapping is acquired by the same processing as that of the first embodiment. it can. That is, Xd may be replaced with Xp and Yd may be replaced with Yp in the description of the first embodiment. Alternatively, the coordinate system corresponding to the pixel numbers (Xp, Yp) of the image input to the projector and the X-axis and the Y-axis of the measuring device may be mutually converted by the coordinate conversion. In this case, the pixel number in the coordinate system may be the pixel number (Xd, Yd) of the lighting device of the first embodiment.

以上説明したように、本変形例の測定装置は、ディスプレイの代わりに大型化が容易なプロジェクタを利用する。測定時のみスクリーンを設置する構成にすれば、使用しないときはコンパクトで、かつ、大きいサイズの測定が可能な測定装置が実現できる。 As described above, the measuring device of this modified example uses a projector that can be easily increased in size instead of the display. If the screen is installed only during measurement, it is possible to realize a measuring device that is compact and capable of measuring a large size when not in use.

[実施形態2]
実施形態2は、光沢異方性の2次元分布を測定する構成について説明する。なお、実施形態1と同じ構成については、詳細な説明を省略する。
[Embodiment 2]
The second embodiment describes a configuration for measuring a two-dimensional distribution of gloss anisotropy. A detailed description of the same configuration as that of the first embodiment will be omitted.

(光沢異方性)
平面体の表面も微視的に見れば、多数の微小面の集合と見なすことができる。この微小面の法線方向が特定の方向に偏って分布する平面は、その法線を軸にして回転させたとき、照明方向と受光方向を固定していても観察される光量が変化する。このような平面は、異方性反射特性を表す面、または光沢異方性を表す面と呼ばれる。例えば、ヘアーライン加工された金属や、織目が規則的な凹凸構造を持つサテン刺繍などは、光沢異方性を表す。また近年、加飾印刷では、表面に微細な凹凸構造を形成して光沢異方性を発現させ、意匠性を向上させる技術が提案されている。これらの反射特性の品質管理のため、光沢異方性の簡易測定が求められている。
(Gloss anisotropy)
If the surface of a flat body is also viewed microscopically, it can be regarded as a set of a large number of minute surfaces. When the plane whose normal direction of the minute surface is unevenly distributed in a specific direction is rotated about the normal direction, the amount of light observed changes even if the illumination direction and the light receiving direction are fixed. Such a plane is called a surface exhibiting anisotropic reflection characteristics or a surface exhibiting gloss anisotropy. For example, hairline-processed metal and satin embroidery with a regular texture have a gloss anisotropy. Further, in recent years, in decorative printing, a technique has been proposed in which a fine uneven structure is formed on a surface to develop gloss anisotropy and improve designability. Simple measurement of gloss anisotropy is required for quality control of these reflection characteristics.

(測定対象)
光沢異方性を表す面は、微小面法線の方向のばらつきが、方位角によって変化する。また、微小面法線の方向のばらつきは、光沢写像性に対応する。例えば、JIS K 7374に基づく光沢写像性の値は、微小面法線の方向のばらつきが大きいほど値が小さくなる。すなわち、光沢異方性を表す面は、光沢写像性の値が方位角によって変化する。典型的には、光沢写像性が最も大きい方位角と、光沢写像性が最も小さい方位角が直交し、その間の方位角において光沢写像性は滑らかに変化する。この様な光沢異方性の特性は、楕円を使用したモデルで近似表現される。この楕円モデルによれば、光沢写像性が最大となる方位角を楕円の長軸方向とし、この方位角方向の光沢写像性の値を楕円の長軸の長さ、当該方位角に直交する方向の光沢写像性の値を楕円の短軸の長さに対応付ける。この時、任意の方位角φの方向の光沢写像性の値は、上記の楕円と、この楕円の中心を通る方位角φの直線との2つの交点を結ぶ線分の長さに対応付けられる。図13は、上記の楕円モデルによる光沢異方性の表現を説明する模式図である。楕円1401は、光沢写像性が最大となる方位角がφuであり、この方位角方向の光沢写像性の値がαu、φuに直交する方向の光沢写像性の値がαvの光沢異方性を表す。任意の方位角φの方向の光沢写像性は、線分abの長さに対応した値で与えられる。本実施形態の測定器は、上記楕円モデルのパラメータの2次元分布を測定する。すなわち、光沢写像性が最大となる方位角φuの値と、方位角φu方向の光沢写像性の値αuと、φuに直交する方向の光沢写像性の値αvの3つの値の2次元分布を測定する。
(Measurement target)
In the surface exhibiting gloss anisotropy, the variation in the direction of the minute surface normal changes depending on the azimuth angle. Further, the variation in the direction of the minute surface normal corresponds to the glossy mapping property. For example, the value of gloss mapping property based on JIS K 7374 becomes smaller as the variation in the direction of the minute surface normal increases. That is, the value of gloss mapping property of the surface showing gloss anisotropy changes depending on the azimuth angle. Typically, the azimuth with the highest gloss mapping and the azimuth with the lowest gloss mapping are orthogonal to each other, and the gloss mapping changes smoothly in the azimuth between them. Such a characteristic of gloss anisotropy is approximately expressed by a model using an ellipse. According to this ellipse model, the azimuth that maximizes the gloss mapping is the major axis direction of the ellipse, and the value of the gloss mapping in this azimuth is the length of the major axis of the ellipse, the direction orthogonal to the orientation angle. Corresponds the value of gloss mapping of to the length of the minor axis of the ellipse. At this time, the value of the gloss mapping property in the direction of an arbitrary azimuth angle φ is associated with the length of the line segment connecting the two intersections of the above ellipse and the straight line of the azimuth angle φ passing through the center of the ellipse. .. FIG. 13 is a schematic diagram illustrating the expression of gloss anisotropy by the ellipse model. The ellipse 1401 has an azimuth angle of φu at which the gloss mapping property is maximized, and the gloss mapping property value in the azimuth angle direction is αu, and the gloss mapping property value in the direction orthogonal to φu is αv. Represent. The gloss mapping property in the direction of an arbitrary azimuth angle φ is given by a value corresponding to the length of the line segment ab. The measuring instrument of the present embodiment measures the two-dimensional distribution of the parameters of the ellipse model. That is, the two-dimensional distribution of three values, that is, the value of the azimuth angle φu that maximizes the gloss mapping property, the value αu of the gloss mapping property in the direction of the azimuth angle φu, and the value αv of the glossy mapping property in the direction orthogonal to φu. Measure.

(照明用画像)
次に、照明装置11に表示する照明用画像について説明する。照明用画像は、実施形態1と同様に、周期関数で多階調に変調した輝度情報を画素毎に保持する画像であり、各画素の輝度Lは上記の式(1)で与えられる。ただし、光沢異方性の測定では、実施形態1と異なり、縞の方向の異なる3つのグループのパターンを使用する。そのため位相δ(Xd)は、Xd方向のみではなく、Yd方向にも依存し、位相δ(Xd、Yd)となる。これによって、方位角の異なる3つの光沢写像性を取得し、この3つの光沢写像性から上記方位角φuと上記楕円の長軸および短軸の長さに相当する光沢写像性の値を取得する。各グループの縞の方向は、例えば、X軸に直交する方向と、X軸と平行の方向と、X軸と−45度を成す方向である。これらの縞パターンで照明することで、それぞれ、方位角0度、方位角90度、方位角45度の光沢写像性を取得する。以下、この順で第一グループ、第二グループ、第三グループと呼ぶ。第一グループの照明用画像の位相分関数δは、上記の式(2)で与えられる。第二グループおよび第三グループの照明用画像の位相分布関数δは、それぞれ、次の式(7)および式(8)で与えられる。
(Image for lighting)
Next, the lighting image to be displayed on the lighting device 11 will be described. The illumination image is an image that holds the luminance information modulated in multiple gradations by the periodic function for each pixel, as in the first embodiment, and the luminance L of each pixel is given by the above equation (1). However, in the measurement of gloss anisotropy, unlike the first embodiment, three groups of patterns having different stripe directions are used. Therefore, the phase δ (Xd) depends not only on the Xd direction but also on the Yd direction, and becomes the phase δ (Xd, Yd). As a result, three glossy mapping properties having different azimuth angles are acquired, and from these three glossy mapping properties, the glossy mapping values corresponding to the azimuth angle φu and the lengths of the long axis and the short axis of the ellipse are obtained. .. The directions of the stripes in each group are, for example, a direction orthogonal to the X-axis, a direction parallel to the X-axis, and a direction forming −45 degrees with the X-axis. By illuminating with these striped patterns, glossy mapping properties of 0 degree azimuth, 90 degree azimuth, and 45 degree azimuth are obtained, respectively. Hereinafter, they will be referred to as a first group, a second group, and a third group in this order. The phase division function δ of the illumination image of the first group is given by the above equation (2). The phase distribution functions δ of the illumination images of the second group and the third group are given by the following equations (7) and (8), respectively.

δ(Xd,Yd)=K4×Yd・・・(7)
δ(Xd,Yd)=K5×(Xd/(2^0.5)−Yd/(2^0.5))・・・(8)
ここで、K4およびK5は定数であり、例えば1である。各グループとも輝度変調のための最少照明用画像数は3パターンであり、3グループ合わせて最少9パターンで光沢異方性を測定する。図14は、輝度変調のパターン数n=4のときの照明用画像の例を示す模式図である。図14(a)は、照明装置11と照明用画像の位置関係を示す。また、図14(b)乃至図14(e)は第一グループの照明用画像、図14(f)乃至図14(i)は第二グループの照明用画像、図14(j)乃至図14(m)は第三グループの照明用画像を示す。
δ (Xd, Yd) = K4 × Yd ... (7)
δ (Xd, Yd) = K5 × (Xd / (2 ^ 0.5) -Yd / (2 ^ 0.5)) ... (8)
Here, K4 and K5 are constants, for example 1. In each group, the minimum number of images for illumination for luminance modulation is 3 patterns, and the gloss anisotropy is measured with a minimum of 9 patterns in total for the 3 groups. FIG. 14 is a schematic diagram showing an example of an illumination image when the number of luminance modulation patterns n = 4. FIG. 14A shows the positional relationship between the lighting device 11 and the lighting image. 14 (b) to 14 (e) are images for illumination of the first group, FIGS. 14 (f) to 14 (i) are images for illumination of the second group, and FIGS. 14 (j) to 14 are shown. (M) shows the illumination image of the third group.

(測定手順)
図15は、本実施形態の測定手順を示すフローチャートである。まず、ステップS1701において、上述した実施形態2の照明用画像を照明装置11に表示して測定面15を撮影し、撮影画像を取得する。照明装置11と測定面15および撮影装置12の位置関係は、照明用画像を切り替えても一定に保つ。また、撮影装置12で撮影した画像データは、照明ムラやカメラの暗電流ノイズを補正し、画素値が受光量に比例するように補正する。
(Measurement procedure)
FIG. 15 is a flowchart showing the measurement procedure of the present embodiment. First, in step S1701, the illumination image of the second embodiment described above is displayed on the illumination device 11, the measurement surface 15 is photographed, and the photographed image is acquired. The positional relationship between the lighting device 11, the measuring surface 15, and the photographing device 12 is kept constant even when the lighting image is switched. Further, the image data captured by the photographing device 12 corrects illumination unevenness and dark current noise of the camera, and corrects the pixel value so that it is proportional to the amount of received light.

次に、ステップS1702において、測定面15の振幅分布を取得する。実施形態2では、照明用画像のグループ毎に実施形態1のステップS302の処理を行い、3つの振幅分布を取得する。次に、ステップS1703において、測定面15の光沢写像性の2次元分布を取得する。実施形態2では、照明用画像のグループ毎に実施形態1のステップS303の処理を行い、光沢写像性の2次元分布を3つ取得する。第一、第二、第三のグループの光沢写像性分布は、それぞれ、方位角0度、90度、45度の光沢写像性分布である。 Next, in step S1702, the amplitude distribution of the measurement surface 15 is acquired. In the second embodiment, the processing of step S302 of the first embodiment is performed for each group of illumination images, and three amplitude distributions are acquired. Next, in step S1703, the two-dimensional distribution of the gloss mapping property of the measurement surface 15 is acquired. In the second embodiment, the processing of step S303 of the first embodiment is performed for each group of illumination images to acquire three two-dimensional distributions of gloss mapping. The gloss mapping distributions of the first, second, and third groups are gloss mapping distributions having azimuth angles of 0 degrees, 90 degrees, and 45 degrees, respectively.

次に、ステップS1704において、光沢異方性を表すパラメータの2次元分布を取得する。上述したように、光沢異方性を表すパラメータは、光沢写像性が最大となる方位角φuと、方位角φu方向の光沢写像性の値αuと、φuに直交する方向の光沢写像性の値αvの3つである。φuとαu、αvの値は、次の式(9)乃至式(11)で与えられる。 Next, in step S1704, a two-dimensional distribution of parameters representing gloss anisotropy is acquired. As described above, the parameters representing the gloss anisotropy are the azimuth angle φu that maximizes the gloss mapping property, the gloss mapping property value αu in the azimuth angle φu direction, and the gloss mapping property value in the direction orthogonal to φu. There are three of αv. The values of φu, αu, and αv are given by the following equations (9) to (11).

φu=arctan(P3/(P1−P2))/2・・・(9)
αu=1/(((P1+P2)−((P1−P2)^2+P3^2)^0.5)/2)^0.5・・・(10)
αv=1/(((P1+P2)+((P1−P2)^2+P3^2)^0.5)/2)^0.5・・・(11)
ただし、P1、P2、P3の値は、次の式(12)乃至式(14)による。
φu = arctan (P3 / (P1-P2)) / 2 ... (9)
αu = 1 / (((P1 + P2)-((P1-P2) ^ 2 + P3 ^ 2) ^ 0.5) / 2) ^ 0.5 ... (10)
αv = 1 / (((P1 + P2) + ((P1-P2) ^ 2 + P3 ^ 2) ^ 0.5) / 2) ^ 0.5 ... (11)
However, the values of P1, P2, and P3 are based on the following equations (12) to (14).

P1=−4xS90^2/P4・・・(12)
P2=−4xS0^2/P4 ・・・(13)
P3=−4x(S0^2+S90^2−2xS45^2)/P4・・・(14)
ただし、P4の値は、次の式(15)による。
P1 = -4xS90 ^ 2 / P4 ... (12)
P2 = -4xS0 ^ 2 / P4 ... (13)
P3 = -4x (S0 ^ 2 + S90 ^ 2-2xS45 ^ 2) / P4 ... (14)
However, the value of P4 is based on the following equation (15).

P4=(S0^2+2*S0*S90+S90^2−2×S45^2)×(S0^2−2xS0xS90+S90^2−2×S45^2)・・・(15)
ここで、S0、S90、S45は、それぞれ、方位角0度、90度、45度の光沢写像性の値であり、ステップS1703で取得した光沢写像性分布の画素の値である。画素毎に、上記式(9)乃至式(11)を計算してφu、αu、αvの2次元分布を求める。
P4 = (S0 ^ 2 + 2 * S0 * S90 + S90 ^ 2-2 x S45 ^ 2) x (S0 ^ 2-2xS0xS90 + S90 ^ 2-2 x S45 ^ 2) ... (15)
Here, S0, S90, and S45 are the values of the gloss mapping property at the azimuth angles of 0 degrees, 90 degrees, and 45 degrees, respectively, and are the values of the pixels of the gloss mapping property distribution acquired in step S1703. For each pixel, the above equations (9) to (11) are calculated to obtain a two-dimensional distribution of φu, αu, and αv.

次に、ステップS1705において、光沢異方性分布画像を生成する。光沢異方性分布画像は、光沢異方性の2次元分布を表すカラー画像であり、各画素の色は、ステップS1704で求めたφu、αu、αvの2次元分布における対応する画素の値に基づいて決定する。例えば、光沢異方性分布画像の画素(Xc,Yc)の色の色相角hと彩度C*は、次の式(16)および式(17)で計算される値とする。 Next, in step S1705, a gloss anisotropic distribution image is generated. The gloss anisotropy distribution image is a color image representing a two-dimensional distribution of gloss anisotropy, and the color of each pixel is the value of the corresponding pixel in the two-dimensional distribution of φu, αu, and αv obtained in step S1704. Determine based on. For example, the hue angle h and the saturation C * of the colors of the pixels (Xc, Yc) of the gloss anisotropic distribution image are the values calculated by the following equations (16) and (17).

h(Xc,Yc)=φn(Xc,Yc)x2・・・(16)
C*(Xc,Yc)=Kc×(αu(Xc,Yc)−αv(Xc,Yc))・・・(17)
ここで、Kcは定数であり、φn(Xc,Yc)、αu(Xc,Yc)、αv(Xc,Yc)の値は、φu、αu、αvの2次元分布における画素(Xc,Yc)の値である。明度L*の値は中間値の50とするか、または、sRGBの色域において、各色相で彩度C*が最大となる明度の値とする。光沢異方性分布画像は、好適には、sRGBの値を保持する汎用的なカラー画像である。この画像は、公知の方法によって、上記のL*、h、C*が示す色に対応するsRGBの値を計算することで生成される。
h (Xc, Yc) = φn (Xc, Yc) x2 ... (16)
C * (Xc, Yc) = Kc × (αu (Xc, Yc) -αv (Xc, Yc)) ... (17)
Here, Kc is a constant, and the values of φn (Xc, Yc), αu (Xc, Yc), and αv (Xc, Yc) are the values of the pixels (Xc, Yc) in the two-dimensional distribution of φu, αu, and αv. The value. The value of the lightness L * is set to 50, which is an intermediate value, or the value of the lightness at which the saturation C * is maximized in each hue in the sRGB color gamut. The gloss anisotropic distribution image is preferably a general-purpose color image that retains the sRGB value. This image is generated by calculating the value of sRGB corresponding to the color indicated by the above L *, h, C * by a known method.

次に、ステップS1706において、各種測定結果を出力して終了する。出力項目は、光沢異方性分布画像、光沢異方性パラメータであるφu、αu、αvの2次元分布の他、方位角0度、90度、45度の光沢写像性分布、振幅分布、撮影画像などの中間データを含んでもよい。 Next, in step S1706, various measurement results are output and the process ends. Output items include gloss anisotropy distribution image, two-dimensional distribution of gloss anisotropy parameters φu, αu, and αv, gloss mapping distribution with azimuth angles of 0 degrees, 90 degrees, and 45 degrees, amplitude distribution, and imaging. It may include intermediate data such as images.

(機能構成)
図20は、本実施形態における測定装置100の機能構成を示すブロック図である。図21を用いて、情報処理装置14の行う処理について説明する。情報処理装置14は、デバイス制御部2201とデータ格納部2202、撮影画像補正部1503を備える。デバイス制御部2201および撮影画像補正部2203は、上述した測定手順のステップS1701の処理を行う。すなわち、デバイス制御部1701は、上述した実施形態2の照明用画像を照明装置11に表示して撮影装置12で測定面15を撮影する。そして、撮影した画像データを撮影装置12から入力してデータ格納部2202に格納する。撮影画像補正部2203は、データ格納部2202に格納された撮影画像データの階調補正を行う。また、情報処理装置14は、振幅分布取得部2204、光沢写像性分布取得部2205、光沢写像性変換テーブル格納部1506を備える。振幅分布取得部2204は、撮影画像補正部2203で補正された補正画像に基づいて上述した測定手順のステップS1702の処理を行って振幅分布を取得する。光沢写像性分布取得部2205は、振幅分布取得部2204で取得した振幅分布に基づいて上述した測定手順のステップS1703の処理を行って、光沢写像性の2次元分布を取得する。詳細には、光沢写像性変換テーブル格納部1506に格納された光沢写像性変換テーブルを参照し、公知の補間方法によって、振幅分布の各画素が保持する振幅情報の値を光沢写像性の値に変換する。また、情報処理装置14は、光沢異方性パラメータ取得部2206、光沢異方性分布画像生成部2207を備える。光沢異方性パラメータ取得部2206は、光沢写像性分布取得部2205で取得した光沢写像性分布に基づいて上述した測定手順のステップS1704の処理を行って光沢異方性を表すパラメータの2次元分布を取得する。光沢異方性分布画像生成部2207は、光沢異方性パラメータ取得部2206で取得した光沢異方性を表すパラメータの2次元分布に基づいて、上述した測定手順のステップS1705の処理を行って光沢異方性分布画像を生成する。また、情報処理装置14は、出力部2208を備える。出力部2208は、上述した測定手順のステップS1706の処理を行う。すなわち、ユーザの指示に基づき、光沢異方性分布画像、光沢異方性パラメータであるφu、αu、αvの2次元分布などの処理結果やその他の中間データを出力する。なお、以上の説明では、各機能構成の説明において、全ての画素の処理が完了して分布画像を取得または生成した後に、次の処理に移る構成を説明したが、1画素毎に処理するように構成してもよいし、複数画素毎に処理するように構成してもよい。
(Functional configuration)
FIG. 20 is a block diagram showing a functional configuration of the measuring device 100 according to the present embodiment. The processing performed by the information processing apparatus 14 will be described with reference to FIG. The information processing device 14 includes a device control unit 2201, a data storage unit 2202, and a captured image correction unit 1503. The device control unit 2201 and the captured image correction unit 2203 perform the process of step S1701 of the measurement procedure described above. That is, the device control unit 1701 displays the illumination image of the second embodiment described above on the illumination device 11 and photographs the measurement surface 15 with the imaging device 12. Then, the captured image data is input from the photographing device 12 and stored in the data storage unit 2202. The captured image correction unit 2203 corrects the gradation of the captured image data stored in the data storage unit 2202. Further, the information processing apparatus 14 includes an amplitude distribution acquisition unit 2204, a gloss mapping property distribution acquisition unit 2205, and a gloss mapping property conversion table storage unit 1506. The amplitude distribution acquisition unit 2204 acquires the amplitude distribution by performing the process of step S1702 of the measurement procedure described above based on the corrected image corrected by the captured image correction unit 2203. The gloss mapping distribution acquisition unit 2205 acquires the gloss mapping two-dimensional distribution by performing the process of step S1703 of the above-mentioned measurement procedure based on the amplitude distribution acquired by the amplitude distribution acquisition unit 2204. For details, the gloss mapping conversion table stored in the gloss mapping conversion table storage unit 1506 is referred to, and the value of the amplitude information held by each pixel of the amplitude distribution is converted into the gloss mapping value by a known interpolation method. Convert. Further, the information processing device 14 includes a gloss anisotropy parameter acquisition unit 2206 and a gloss anisotropy distribution image generation unit 2207. The gloss anisotropy parameter acquisition unit 2206 performs the process of step S1704 of the above-mentioned measurement procedure based on the gloss mapping distribution acquired by the gloss mapping distribution acquisition unit 2205, and performs a two-dimensional distribution of parameters representing the gloss anisotropy. To get. The gloss anisotropy distribution image generation unit 2207 performs the process of step S1705 of the above-mentioned measurement procedure based on the two-dimensional distribution of the parameters representing the gloss anisotropy acquired by the gloss anisotropy parameter acquisition unit 2206 to perform the gloss. Generate an anisotropic distribution image. Further, the information processing device 14 includes an output unit 2208. The output unit 2208 performs the process of step S1706 of the measurement procedure described above. That is, based on the user's instruction, the processing results such as the gloss anisotropy distribution image, the two-dimensional distribution of the gloss anisotropy parameters φu, αu, and αv, and other intermediate data are output. In the above description, in the description of each functional configuration, the configuration in which the next processing is performed after the processing of all the pixels is completed and the distribution image is acquired or generated has been described, but the processing is performed for each pixel. It may be configured to process in each of a plurality of pixels.

以上説明したように、本実施形態の測定装置によれば、最少9つの撮影画像からアピアランスに係る光沢異方性の2次元分布を測定できる。その結果、より多数の撮影が必要な従来法と比較して、短時間に物体のアピアランスが測定できる。 As described above, according to the measuring device of the present embodiment, it is possible to measure the two-dimensional distribution of gloss anisotropy related to appearance from a minimum of nine captured images. As a result, the appearance of the object can be measured in a short time as compared with the conventional method that requires a larger number of photographs.

[実施形態3]
実施形態3は、BRDFの2次元分布であるSVBRDF(Spatially Varying BRDF)に係る反射モデルのパラメータを測定する構成について説明する。なお、上記実施形態と同じ構成については、詳細な説明を省略する。BRDFは、照明方向ωi(θi,φi)および観察方向ωo(θo,φo)の4次元の関数であり、物体表面に任意の方向から光が入射したとき、各方向へどれだけの光が反射されるのかを表す。SVBRDFは、上記のBRDFの4変数に位置変数Pxy(X,Y)を加えた6次元の関数である。次元数が大きいため、各変数を密に標本化すると大量のデータになり、測定には長い時間を要する。また、SVBRDFは、ノイズの影響を受けやすい微小な光量を検出する必要があるため難しい。一方、BRDFを少ないパラメータで表現する反射モデルが多数提案されている。このパラメータの2次元分布を測定すれば、反射モデルで近似したSVBRDFが得られる。本実施形態の測定装置は、反射モデルのパラメータを測定する。SVBRDFが得られると、任意の条件で照明し、任意の方向で観察したときの測定物の見え方を予測できる。その結果、メタリック塗装や加飾印刷の効果を実際のサンプルを使うことなくCGで確認できるようになる。
[Embodiment 3]
The third embodiment describes a configuration for measuring the parameters of the reflection model related to the SVBRDF (Spatially Varying BRDF), which is a two-dimensional distribution of the BRDF. A detailed description of the same configuration as that of the above embodiment will be omitted. BRDF is a four-dimensional function of the illumination direction ωi (θi, φi) and the observation direction ωo (θo, φo), and when light is incident on the surface of an object from any direction, how much light is reflected in each direction. Indicates whether it will be done. The SVBRDF is a six-dimensional function obtained by adding the positional variable Pxy (X, Y) to the above four variables of BRDF. Due to the large number of dimensions, dense sampling of each variable results in a large amount of data, which takes a long time to measure. Further, SVBRDF is difficult because it is necessary to detect a minute amount of light that is easily affected by noise. On the other hand, many reflection models have been proposed that express the BRDF with a small number of parameters. By measuring the two-dimensional distribution of this parameter, an SVBRDF approximated by the reflection model can be obtained. The measuring device of this embodiment measures the parameters of the reflection model. Once the SVBRDF is obtained, it is possible to predict how the measured object will look when it is illuminated under arbitrary conditions and observed in any direction. As a result, the effects of metallic painting and decorative printing can be confirmed by CG without using actual samples.

ここで、本実施形態の測定システムが算出するBRDFの反射モデルについて説明する。この反射モデルによれば、本測定装置が測定するパラメータを用いて、任意の照明条件および観察方向で観察される反射光が推定できる。本反射モデルは、次の式(18)で示すように、反射光Iを拡散反射成分Idと鏡面反射成分Isとの和で表現する。 Here, the BRDF reflection model calculated by the measurement system of the present embodiment will be described. According to this reflection model, the reflected light observed in an arbitrary lighting condition and observation direction can be estimated by using the parameters measured by this measuring device. In this reflection model, as shown by the following equation (18), the reflected light I is expressed by the sum of the diffuse reflection component Id and the specular reflection component Is.

I=Id+Is・・・(18)
図21は、拡散反射成分と鏡面反射成分を説明する模式図である。拡散反射成分は、入射光が測定面の内部で乱反射することで生じる成分であり、あらゆる方向において均一の強度で観察されると仮定する。Lambertのモデルを使用する本反射モデルでは、反射光の拡散反射成分Idは、次の式(19)によって与えられる。
I = Id + Is ... (18)
FIG. 21 is a schematic diagram illustrating a diffuse reflection component and a specular reflection component. It is assumed that the diffuse reflection component is a component generated by diffuse reflection of incident light inside the measurement surface and is observed with uniform intensity in all directions. In this reflection model using the Lambert model, the diffuse reflection component Id of the reflected light is given by the following equation (19).

Id(X,Y,θi,φi)=Rd(X,Y)×Ein(θi,φi)×cos(θi)・・・(19)
ここで、Einは照明光の強度である。Rdは、拡散反射成分の反射率(以下、拡散反射率と呼ぶ)であり、例えば、測定面に対して0度から照明し、45度で受光したときの輝度値Id_smpと、同じ条件で取得した基準拡散反射面からの輝度値Id_stdとの比率である。また、照明を消灯または遮光して撮影したときの輝度値Id_bkを用いて黒レベルを補正し、基準拡散反射面の0度照明45度受光における拡散反射率の値Cal_Rd045を用いてスケーリングする。この場合、拡散反射率Rdは、次の式(20)で与えられる。
Id (X, Y, θi, φi) = Rd (X, Y) × Ein (θi, φi) × cos (θi) ... (19)
Here, Ein is the intensity of the illumination light. Rd is the reflectance of the diffuse reflection component (hereinafter referred to as the diffuse reflectance). For example, it is acquired under the same conditions as the brightness value Id_smp when the measurement surface is illuminated from 0 degrees and received at 45 degrees. It is a ratio with the brightness value Id_std from the reference diffuse reflection surface. Further, the black level is corrected by using the brightness value Id_bk when the illumination is turned off or shaded, and the scaling is performed by using the diffuse reflectance value Cal_Rd045 in the 0 degree illumination 45 degree light reception of the reference diffuse reflection surface. In this case, the diffuse reflectance Rd is given by the following equation (20).

Rd(X,Y)=(Id_smp(X,Y)−Id_bk(X,Y))/Id_std(X,Y)×Cal_Rd045・・・(20)
基準拡散反射面としては、硫酸バリウム粉末やPTFE粉末の圧着面が利用できる。また、好適には、Cal_Rd045の値は公的な計量機関で値付けされた値を使用する。
Rd (X, Y) = (Id_smp (X, Y) -Id_bk (X, Y)) / Id_std (X, Y) × Cal_Rd045 ... (20)
As the reference diffuse reflection surface, a pressure-bonded surface of barium sulfate powder or PTFE powder can be used. Also, preferably, the value of Cal_Rd045 uses a value priced by a public measuring institution.

鏡面反射成分は、入射光が測定面の表面で反射することで生じる成分である。鏡面反射成分は、鏡面反射方向およびその近傍方向において大きな強度が観察される。Torrance−Sparrowのモデルを改変した本反射モデルでは、反射光の鏡面反射成分は、次の式(21)で与えられる。 The specular reflection component is a component generated by reflecting incident light on the surface of the measurement surface. A large intensity of the specular reflection component is observed in the specular reflection direction and its vicinity. In this reflection model, which is a modification of the Torrance-Sparrow model, the specular reflection component of the reflected light is given by the following equation (21).

Is(X,Y,θi,φi,θo,φo)=F(X,Y,θi)xD(X,Y,θi,φi,θo,φo)×Ein/cos(θo)・・・(21)
ここで、Einは照明光の強度、Fはフレネル反射を表す関数、Dは光沢写像性を表す関数である。フレネル反射は、入射光または反射光の方向によって反射率が変化し、天頂角が90度に近づくほど反射率が大きくなる現象である。関数Fは、次の式(22)で与えられる。
Is (X, Y, θi, φi, θo, φo) = F (X, Y, θi) xD (X, Y, θi, φi, θo, φo) × Ein / cos (θo) ... (21)
Here, Ein is the intensity of the illumination light, F is a function representing Fresnel reflection, and D is a function representing gloss mapping. Fresnel reflection is a phenomenon in which the reflectance changes depending on the direction of incident light or reflected light, and the reflectance increases as the zenith angle approaches 90 degrees. The function F is given by the following equation (22).

F(X,Y,θi,φi)=1−(1−Rs(X,Y))×W(θi,φi)・・・(22)
Rsは本測定装置で測定される鏡面反射率である。この反射率は、次の式(23)で与えられる天頂角θmにおける反射率である。
F (X, Y, θi, φi) = 1- (1-Rs (X, Y)) × W (θi, φi) ... (22)
Rs is the mirror reflectance measured by this measuring device. This reflectance is the reflectance at the zenith angle θm given by the following equation (23).

θm=arccos(V・Nv)・・・(23)
ここで、Vは受光方向を示すベクトルであり、本測定装置では天頂角45度、方位角0度である。また、Nvは本測定装置で測定される光学的法線方向を示すベクトルである。光学的法線方向は、入射光の方向と、受光される反射光の強度が最も大きくなる受光方向との組み合わせから推定される仮想的な面法線の方向である。この定義は、入射光の方向と受光方向を逆にしても成り立つ。すなわち、光学的法線方向は、受光方向と、受光される反射光の強度が最も大きくなる入射光の方向との組み合わせから推定される仮想的な面法線の方向である。なお、記号・はベクトルの内積を示し、θmはVとNvの成す角度である。
θm = arccos (V · Nv) ・ ・ ・ (23)
Here, V is a vector indicating the light receiving direction, and in this measuring device, the zenith angle is 45 degrees and the azimuth angle is 0 degrees. Further, Nv is a vector indicating the optical normal direction measured by this measuring device. The optical normal direction is the direction of the virtual surface normal estimated from the combination of the direction of the incident light and the light receiving direction in which the intensity of the received reflected light is maximum. This definition holds even if the direction of incident light and the direction of light reception are reversed. That is, the optical normal direction is the direction of the virtual surface normal estimated from the combination of the light receiving direction and the direction of the incident light having the highest intensity of the received reflected light. The symbol · indicates the inner product of the vectors, and θm is the angle formed by V and Nv.

また、上記の式(22)のWは、測定される天頂角θmのフレネル反射の反射率と、照明方向ωi(θi,φi)と光学的法線方向Nvとの成す角度θvのフレネル反射の反射率との比であり、次の式(24)で与えられる。 Further, W in the above equation (22) is the Fresnel reflection at an angle θv formed by the measured reflectance of Fresnel reflection at the zenith angle θm and the illumination direction ωi (θi, φi) and the optical normal direction Nv. It is a ratio to the reflectance and is given by the following equation (24).

W=(1−cos(θv))^5/(1−cos(θm))^5・・・(24)
ここで、θvは次の式(25)による。
W = (1-cos (θv)) ^ 5 / (1-cos (θm)) ^ 5 ... (24)
Here, θv is based on the following equation (25).

θv=arccos(ωi・Nv)・・・(25)
ただし、ωiは照明方向を示すベクトルである。
θv = arccos (ωi ・ Nv) ・ ・ ・ (25)
However, ωi is a vector indicating the illumination direction.

上記の式(21)のDは、光沢写像性に係る微小面の法線分布を表す。Torrance−Sparrowの反射モデルでは、物体表面が完全な鏡面反射を生じる微小面の集合で構成されると仮定し、この微小面の法線方向の分布に基づいて各方向への散乱を表現する。本反射モデルは、この法線方向の分布を表現する関数に次の式(26)で与えられるTrowbridge−Reitzによって提案された分布モデルを使用する。 D in the above formula (21) represents the normal distribution of the minute surface related to the gloss mapping property. The Torrance-Sparrow reflection model assumes that the surface of an object is composed of a set of microfacets that produce perfect specular reflection, and expresses scattering in each direction based on the distribution of these microfacets in the normal direction. This reflection model uses the distribution model proposed by Trowbridge-Reitz given by the following equation (26) for the function expressing the distribution in the normal direction.

D=(α^2/(cos(θg)^2×(α^2−1)+1))^2・・・(26)
ここで、αは分布形状に関するパラメータであり、測定される光沢写像性を示す。αは1以下の値をとり、値が小さいほど大きな光沢写像性を示す。光沢写像性αの値は、実施形態2と同様に楕円モデルで表し、光沢異方性を表現する。本実施形態の測定装置は、光沢写像性が最大となる方位角φuと、方位角φu方向の光沢写像性αuとφuに直交する方向の光沢写像性αvを測定する。照明方向ωi、観察方向ωoにおける光沢写像性αは、上記のパラメータφu、αu、αvを用いて算出される。図23は、光沢写像性αの算出手順を示すフローチャートである。まず、ステップS2401において、照明方向を示すベクトルωiと観察方向を示すベクトルωoの2等分方向であるハーフベクトルHvを次の式(27)で算出する。
D = (α ^ 2 / (cos (θg) ^ 2 × (α ^ 2-1) +1)) ^ 2 ... (26)
Here, α is a parameter related to the distribution shape and indicates the measured gloss mapping property. α has a value of 1 or less, and the smaller the value, the greater the glossy mapping property. The value of the gloss mapping property α is represented by an elliptical model as in the second embodiment, and the gloss anisotropy is represented. The measuring device of the present embodiment measures the azimuth angle φu that maximizes the gloss mapping property, the gloss mapping property αu in the azimuth angle φu direction, and the gloss mapping property αv in the direction orthogonal to φu. The gloss mapping property α in the illumination direction ωi and the observation direction ωo is calculated using the above parameters φu, αu, and αv. FIG. 23 is a flowchart showing a procedure for calculating the gloss mapping property α. First, in step S2401, the half vector Hv, which is the bisection direction of the vector ωi indicating the illumination direction and the vector ωo indicating the observation direction, is calculated by the following equation (27).

Hv=(ωi+ωo)/|ωi+ωo|・・・(27)
ここで、|ωi+ωo|は、ベクトル(ωi+ωo)の大きさを表す。
Hv = (ωi + ωo) / | ωi + ωo | ... (27)
Here, | ωi + ωo | represents the magnitude of the vector (ωi + ωo).

次に、ステップS2402において、ハーフベクトルHvの方位角成分φhを次の式(28)で算出する。 Next, in step S2402, the azimuth component φh of the half vector Hv is calculated by the following equation (28).

φh=arctan(Hv_y/Hv_x)・・・(28)
ただし、Hv_xおよびHv_yは、それぞれ、ベクトルHvのX成分およびY成分である。
φh = arctan (Hv_y / Hv_x) ... (28)
However, Hv_x and Hv_y are the X component and the Y component of the vector Hv, respectively.

次に、ステップS2403において、方位角φhに対応する光沢写像性αを次の式(29)で算出する。 Next, in step S2403, the gloss mapping property α corresponding to the azimuth angle φh is calculated by the following equation (29).

α=(αwxαv)/(αv^2×(cos(φh))^2+αu^2×(sin(φh))^2)^0.5・・・(29)
上記の式(26)のθgは、ハーフベクトルHvと光学的法線方向を示すベクトルNvの成す角度であり、次の式(30)で与えられる。
α = (αwxαv) / (αv ^ 2 × (cos (φh)) ^ 2 + αu ^ 2 × (sin (φh)) ^ 2) ^ 0.5 ... (29)
Θg in the above equation (26) is an angle formed by the half vector Hv and the vector Nv indicating the optical normal direction, and is given by the following equation (30).

θg=arccos(Hv・Nv)・・・(30)
以上説明したように、本反射モデルによれば、任意の照明方向および観察方向において観察される反射光の強度が、本測定装置で測定されるパラメータRd、Rs、φu、αu、αvおよびNvから算出できる。また、複数方向から照明されたときの反射光は、各照明方向の光に関する反射光の足し合わせによって求めることができる。よって、任意の照明条件で観察される反射光が算出できる。
θg = arccos (Hv · Nv) ・ ・ ・ (30)
As described above, according to the present reflection model, the intensity of the reflected light observed in an arbitrary illumination direction and the observation direction is obtained from the parameters Rd, Rs, φu, αu, αv and Nv measured by the present measuring device. Can be calculated. Further, the reflected light when illuminated from a plurality of directions can be obtained by adding the reflected light with respect to the light in each illumination direction. Therefore, the reflected light observed under arbitrary lighting conditions can be calculated.

(測定装置の構成)
図23に本実施形態の測定装置の外観を示す。測定装置2500は、実施形態1の構成に加えて、拡散反射率を測定するための照明装置2501を備える。照明装置2501は、測定面を天頂角0度方向から平行光で照明する。照明光源は、LED、ハロゲン、キセノンなどが利用できる。演色性が高く、明るく、輝度の時間変動が小さく、面内ムラの小さい光源が好適である。撮影装置12は、実施形態1と同じ構成である。照明装置11で照明した測定面15に加えて、照明装置2501で照明した測定面15を撮影する。照明装置11で照明して撮影するときは、照明装置2501は消灯するか遮光し、照明装置2501で照明して撮影するときは、照明装置11は消灯するか遮光する。また、照明装置11と照明装置2501の両方を消灯または遮光した状態でも撮影する。なお、以下では、照明装置11で照明して撮影した撮影画像を拡散反射撮影画像、照明装置2501で照明して撮影した撮影画像を鏡面反射撮影画像と言う。また、両者とも消灯もしくは遮光して撮影した画像データを黒レベル撮影画像と言う。本実施形態の情報処理装置14は、照明装置11と撮影装置12に加えて、上記照明装置2401を制御して測定面15の撮影画像を取得する。また、情報処理装置14は、撮影画像に後述する演算処理を施し、上述した反射モデルのパラメータを算出する。そして、演算処理の処理経過や処理結果を操作パネル13や図示しない外部装置に出力する。
(Configuration of measuring device)
FIG. 23 shows the appearance of the measuring device of this embodiment. The measuring device 2500 includes a lighting device 2501 for measuring the diffuse reflectance in addition to the configuration of the first embodiment. The illuminating device 2501 illuminates the measurement surface with parallel light from the direction of the zenith angle of 0 degrees. As the illumination light source, LEDs, halogens, xenon and the like can be used. A light source having high color rendering properties, brightness, small time variation in brightness, and small in-plane unevenness is preferable. The photographing device 12 has the same configuration as that of the first embodiment. In addition to the measuring surface 15 illuminated by the illuminating device 11, the measuring surface 15 illuminated by the illuminating device 2501 is photographed. When the lighting device 11 illuminates and shoots, the lighting device 2501 turns off or blocks light, and when the lighting device 2501 illuminates and shoots, the lighting device 11 turns off or blocks light. Further, the image is taken even when both the lighting device 11 and the lighting device 2501 are turned off or shaded. In the following, a photographed image taken by illuminating with the lighting device 11 will be referred to as a diffuse reflection photographed image, and a photographed image taken by illuminating with the illumination device 2501 will be referred to as a specular reflection photographed image. Further, the image data taken by turning off or shading both of them is called a black level photographed image. The information processing device 14 of the present embodiment controls the lighting device 2401 in addition to the lighting device 11 and the photographing device 12, and acquires a photographed image of the measurement surface 15. In addition, the information processing device 14 performs arithmetic processing described later on the captured image to calculate the parameters of the reflection model described above. Then, the processing progress and processing result of the arithmetic processing are output to the operation panel 13 or an external device (not shown).

(照明用画像)
照明装置2501は、全面均一な照明であり、パターンを表示しない。照明装置11に表示する照明用画像は、実施形態2で使用した、縞の方向が異なる3つのグループの照明用画像を使用する。
(Image for lighting)
The lighting device 2501 has uniform lighting over the entire surface and does not display a pattern. As the illumination image to be displayed on the illumination device 11, the illumination images of the three groups having different stripe directions used in the second embodiment are used.

(測定方法の概要)
拡散反射率Rdは、照明装置2501で照明して撮影した測定面15の撮影画像に基づいて、上記の式(20)で算出する。また、光沢異方性に関するパラメータφu、αu、αvは、実施形態2と同様にして求める。ただし、光沢写像性の値には、上記式(26)のαの値を利用する。光沢写像性変換テーブルには、離散的な振幅情報Aに対応するαの値を記述する。
(Outline of measurement method)
The diffuse reflectance Rd is calculated by the above formula (20) based on the photographed image of the measurement surface 15 photographed by illuminating with the illumination device 2501. Further, the parameters φu, αu, and αv related to gloss anisotropy are obtained in the same manner as in the second embodiment. However, the value of α in the above equation (26) is used as the value of glossy mapping property. In the gloss mapping conversion table, the value of α corresponding to the discrete amplitude information A is described.

次に、光学的法線方向Nvの測定原理を説明する。図24は、光学的法線方向の測定原理を説明する模式図である。図24(a)において、2601は測定面15の面上の点、2602および2603は、それぞれ、点2601に関する受光方向および光学的法線方向を示す。また、2604は、光学的法線方向2603に関して受光方向2602と鏡面反射の関係となる照明方向を示し、2605は、この照明方向に対応する点光源を示す。また、点2601に対応する撮影画像の画素を2606(不図示)とする。受光方向2602は、測定装置の構成で決まる既知の情報である。また、撮影装置12は測定面15に焦点を合わせているため、撮影画像の画素と測定面15の面上の点は一対一に対応付られる。よって、画素2606の座標から点2601のXYZ座標が取得できる。ここで、仮に点光源2605のXYZ座標(Xill,Yill,Zill)が分かれば、点2601のXYZ座標(Xsmp,Ysmp,Zsmp)から照明方向2604(Xvi,Yvi,Zvi)が次の式(31)から式(33)で算出できる。 Next, the measurement principle of the optical normal direction Nv will be described. FIG. 24 is a schematic diagram illustrating a measurement principle in the optical normal direction. In FIG. 24 (a), 2601 indicates a point on the surface of the measurement surface 15, and 2602 and 2603 indicate the light receiving direction and the optical normal direction with respect to the point 2601, respectively. Further, 2604 indicates an illumination direction having a specular reflection relationship with the light receiving direction 2602 with respect to the optical normal direction 2603, and 2605 indicates a point light source corresponding to this illumination direction. Further, the pixel of the captured image corresponding to the point 2601 is set to 2606 (not shown). The light receiving direction 2602 is known information determined by the configuration of the measuring device. Further, since the photographing device 12 focuses on the measurement surface 15, the pixels of the photographed image and the points on the surface of the measurement surface 15 have a one-to-one correspondence. Therefore, the XYZ coordinates of the point 2601 can be obtained from the coordinates of the pixel 2606. Here, if the XYZ coordinates (Xill, Yill, Zill) of the point light source 2605 are known, the illumination direction 2604 (Xvi, Yvi, Zvi) from the XYZ coordinates (Xsmp, Ysmp, Zsmp) of the point 2601 is the following equation (31). ) Can be calculated by the formula (33).

Xvi=(Xill−Xsmp)/norm・・・(31)
Yvi=(Xill−Xsmp)/norm・・・(32)
Zvi=(Zill−Zsmp)/norm・・・(33)
ただし、normは次の式(37)による。
Xvi = (Xill-Xsmp) / norm ... (31)
Yvi = (Xill-Xsmp) / norm ... (32)
Zvi = (Zill-Zsmp) / norm ... (33)
However, the norm is based on the following equation (37).

norm=((Xill−Xsmp)^2+(Xill−Xsmp)^2+(Zill−Zsmp)^2)^0.5・・・(34)
このとき、光学的法線方向2603(Xvn,Yvn,Zvn)は、照明方向2604(Xvi,Yvi,Zvi)と受光方向2602(Xvc,Yvc,Zvc)から次の式(35)から式(36)で求められる。
norm = (((Xill-Xsmp) ^ 2 + (Xill-Xsmp) ^ 2 + (Zill-Zsmp) ^ 2) ^ 0.5 ... (34)
At this time, the optical normal direction 2603 (Xvn, Yvn, Zvn) is from the illumination direction 2604 (Xvi, Yvi, Zvi) and the light receiving direction 2602 (Xvc, Yvc, Zvc) to the following equations (35) to (36). ) Is required.

Xvn=(Xvi+Xvc)/(2×norm)・・・(35)
Yvn=(Yvi+Yvc)/(2×norm)・・・(36)
Zvn=(Zvi+Zvc)/(2×norm)・・・(37)
ただし、normは次の式(38)による。
Xvn = (Xvi + Xvc) / (2 × norm) ... (35)
Yvn = (Yvi + Yvc) / (2 × norm) ... (36)
Zvn = (Zvi + Zvc) / (2 × norm) ... (37)
However, the norm is based on the following equation (38).

norm=(((Xvi+Xvc)/2)^2+((Yvi+Yvc)/2)^2+((Zvi+Zvc)/2)^2)^0.5・・(38)
本測定装置は、点光源2605のXYZ座標を画素2606の輝度変化の位相情報から求める。図25は、撮影画像の輝度値の変化を示す模式図である。図25の横軸は、照明用画像の変調情報、縦軸は対応する照明用画像で撮影したときの撮影画像の輝度値を示す。プロット点は、輝度変調のパターン数n=4のときの撮影画像の輝度値Ii{i:1,2,..n}を示し、曲線2701は、このプロット点を上記の式(1)の正弦波にフィッティングした結果を示す。位相情報Bは、フィッティングした正弦波の位相の値である。位相情報Bは、次の式(39)から式(42)で与えられる。
norm = (((Xvi + Xvc) / 2) ^ 2 + ((Yvi + Yvc) / 2) ^ 2 + ((Zvi + Zvc) / 2) ^ 2) ^ 0.5 ... (38)
This measuring device obtains the XYZ coordinates of the point light source 2605 from the phase information of the brightness change of the pixel 2606. FIG. 25 is a schematic diagram showing changes in the brightness value of the captured image. The horizontal axis of FIG. 25 shows the modulation information of the illumination image, and the vertical axis shows the brightness value of the captured image when the corresponding illumination image is captured. The plot points are the luminance values Ii {i: 1, 2, ... Of the captured image when the number of luminance modulation patterns n = 4. .. n} is shown, and the curve 2701 shows the result of fitting this plot point to the sine wave of the above equation (1). The phase information B is the phase value of the fitted sine wave. The phase information B is given by the following equations (39) to (42).

0≦ssかつ0≦scのとき、
B=arctan(ss/sc)・・・(39)
0≦ssかつsc<0のとき、
B=arctan(ss/sc)+180度・・・(40)
ss<0かつsc<0のとき、
B=arctan(ss/sc)+180度・・・(41)
ss<0かつ0≦scのとき、
B=arctan(ss/sc)+360度・・・(42)
ただし、ssおよびscの値は、次の式(43)、式(44)による。
When 0 ≤ ss and 0 ≤ sc
B = arctan (ss / sc) ... (39)
When 0≤ss and sc <0,
B = arctan (ss / sc) + 180 degrees ... (40)
When ss <0 and sc <0,
B = arctan (ss / sc) + 180 degrees ... (41)
When ss <0 and 0 ≤ sc
B = arctan (ss / sc) + 360 degrees ... (42)
However, the values of ss and sc are based on the following equations (43) and (44).

ss=Σ(Iixsin(Δi))・・・(43)
sc=Σ(Iixcos(Δi))・・・(44)
ここで、Σは、添え字iに関する総和を求める記号である。式(39)から式(42)で計算した位相情報Bの値は、0度から360度の範囲であり、式(2)、式(7)および式(8)のδがこの範囲外の値を含む場合は、必要に応じて位相情報Bを補正する。詳細は、後述する。
ss = Σ (Iixsin (Δi)) ... (43)
sc = Σ (Iixcos (Δi)) ・ ・ ・ (44)
Here, Σ is a symbol for obtaining the sum of the subscript i. The value of the phase information B calculated by the equations (39) to (42) is in the range of 0 degrees to 360 degrees, and δ of the equations (2), (7) and (8) is out of this range. If a value is included, the phase information B is corrected as necessary. Details will be described later.

図24(b)乃至(e)は、照明装置11に表示する照明用画像を示し、四角で囲った位置が点光源2605を示す。点光源2605の輝度値は、照明用画像によって変化する。このとき、点光源2605からの鏡面反射光を受光する画素2606の輝度値は、点光源2605の輝度値の変化に同期して変化する。よって、画素2606の輝度変化の位相は、点光源2605の輝度変化の位相と一致する。図24(b)乃至(e)の照明用画像は、Xd方向に位相δが変化したパターンであり、このパターンで照明した撮影画像から求めた位相情報Bの値Bxは、点光源2605のXd方向の画素番号Xdxに対応する位相δxに一致する。よって、Bxから点光源2605のXd方向の画素番号Xd’が求められる。同様に、図24(f)乃至(i)の照明用画像は、Yd方向に位相δが変化したパターンであり、このパターンで照明した撮影画像から求めた位相情報Bの値Byは、点光源2605のYd方向の画素番号Yd’に対応する位相δyに一致する。よって、Byから点光源2605のYd方向の画素番号Yd’が求められる。点光源の画素番号(Xd’,Yd’)が分かれば、測定装置の構成から、点光源2605のXYZ座標(Xill,Yil,Zill)が求められる。 24 (b) to 24 (e) show an image for illumination to be displayed on the illumination device 11, and a position surrounded by a square indicates a point light source 2605. The brightness value of the point light source 2605 changes depending on the illumination image. At this time, the brightness value of the pixel 2606 that receives the specularly reflected light from the point light source 2605 changes in synchronization with the change in the brightness value of the point light source 2605. Therefore, the phase of the brightness change of the pixel 2606 coincides with the phase of the brightness change of the point light source 2605. The illumination images of FIGS. 24 (b) to 24 (e) are patterns in which the phase δ changes in the Xd direction, and the value Bx of the phase information B obtained from the captured image illuminated by this pattern is Xd of the point light source 2605. It corresponds to the phase δx corresponding to the pixel number Xdx in the direction. Therefore, the pixel number Xd'in the Xd direction of the point light source 2605 is obtained from Bx. Similarly, the illumination images of FIGS. 24 (f) to 24 (i) are patterns in which the phase δ changes in the Yd direction, and the value By of the phase information B obtained from the captured image illuminated by this pattern is a point light source. It corresponds to the phase δy corresponding to the pixel number Yd'in the Yd direction of 2605. Therefore, the pixel number Yd'in the Yd direction of the point light source 2605 is obtained from By. If the pixel numbers (Xd', Yd') of the point light source are known, the XYZ coordinates (Xill, Yil, Zill) of the point light source 2605 can be obtained from the configuration of the measuring device.

次に、鏡面反射率Rsの測定原理を説明する。図25においてバイアス情報Cは、撮影画像の輝度値を正弦波にフィッティングしたときのバイアスの値である。バイアス情報Cは、次の式(45)で算出する。 Next, the measurement principle of the mirror reflectance Rs will be described. In FIG. 25, the bias information C is a bias value when the brightness value of the captured image is fitted to a sine wave. The bias information C is calculated by the following equation (45).

C=Σ(Ii)・・・(45)
ここで、Σは、添え字iに関する総和を求める。バイアス情報Cは、鏡面反射方向周辺の反射光強度の平均値を示す。バイアス情報Cに対応する反射光には、拡散反射成分も含まれる。拡散反射成分を減じたバイアス情報Csは、測定面のバイアス情報CをCsmp、基準拡散反射面のバイアス情報CをCstd、測定面の拡散反射率RdをRd_smpとすると、次の式(46)で与えられる。
C = Σ (Ii) ... (45)
Here, Σ is the sum of the subscripts i. The bias information C indicates the average value of the reflected light intensity around the specular reflection direction. The reflected light corresponding to the bias information C also includes a diffuse reflection component. The bias information Cs obtained by subtracting the diffuse reflection component is calculated by the following equation (46), where Csmp is the bias information C of the measurement surface, Cstd is the bias information C of the reference diffuse reflection surface, and Rd_smp is the diffuse reflectance Rd of the measurement surface. Given.

Cs=Csmp−Cstd×Rd_smp/Cal_R045・・・(46)
ただし、Cal_R045は、基準拡散反射面の0度照明45度受光における反射率である。
Cs = Csmp-Cstd × Rd_smp / Cal_R045 ... (46)
However, Cal_R045 is the reflectance of the reference diffuse reflection surface at 0 degree illumination and 45 degree light reception.

鏡面反射成分は、微小面の法線分布に基づいて鏡面反射方向周辺に分布し、求める鏡面反射率Rsは、分布の中心である鏡面反射方向の反射光に関係する。ここで、鏡面反射成分の分布形状は、上述した関数Dで与えられる。よって、関数Dを全ての反射方向について積分して平均値Daveを求めれば、この値と、関数Dの鏡面反射方向の値Dsとの比から、鏡面反射方向の反射光に対応するバイアス情報Csdが次の式(47)で与えられる。 The specular reflection component is distributed around the specular reflection direction based on the normal distribution of the minute surface, and the desired specular reflectance Rs is related to the reflected light in the specular reflection direction, which is the center of the distribution. Here, the distribution shape of the specular reflection component is given by the above-mentioned function D. Therefore, if the function D is integrated for all reflection directions to obtain the average value Dave, the bias information Csd corresponding to the reflected light in the specular reflection direction is obtained from the ratio of this value to the value Ds in the specular reflection direction of the function D. Is given by the following equation (47).

Csd=Cs×Ds/Dave・・・(47)
関数Dが上記の式(26)で与えられるとき、Dsの値は1である。一方、αuとαvの値に依存するDaveの値は、離散的なαuとαvの値に対応するDaveの値を記述した鏡面反射変換テーブルを用意しておき、この変換テーブルを参照して公知の補間法によって計算する。図26は、鏡面反射変換テーブルの一例を示す。鏡面反射変換テーブルは、上記の式(26)に基づいて、あらかじめ作成しておく。鏡面反射率Rsの値は、測定面のCsdの値と、基準鏡面反射面のバイアス情報Cの値Cstd_sと、基準鏡面反射面の45度方向のフレネル反射率の値Cal_Rs45から次の式(48)で算出する。
Csd = Cs × Ds / Dave ... (47)
When the function D is given by the above equation (26), the value of Ds is 1. On the other hand, the Dave value depending on the αu and αv values is known by preparing a specular reflection conversion table in which the Dave values corresponding to the discrete αu and αv values are described, and referring to this conversion table. Calculated by the interpolation method of. FIG. 26 shows an example of a specular reflection conversion table. The specular reflection conversion table is prepared in advance based on the above equation (26). The value of the specular reflectance Rs is calculated from the Csd value of the measurement surface, the bias information C value Cstd_s of the reference specular reflection surface, and the Fresnel reflectance value Cal_Rs45 in the 45 degree direction of the reference specular reflection surface by the following equation (48 ).

Rs=Csd/Cstd_s×Cal_Rs45・・・(48)
基準鏡面反射面としては、光学ガラスBK7の黒色研磨ガラスが利用できる。好適には、Cal_Rs_45の値は公的な計量機関で値付けされた値を使用する。
Rs = Csd / Cstd_s × Cal_Rs45 ... (48)
As the reference specular reflection surface, black polished glass of optical glass BK7 can be used. Preferably, the value of Cal_Rs_45 uses a value priced by a public measuring agency.

(測定手順)
図27(a)は、本実施形態の測定手順を示すフローチャートである。まず、ステップS2901において測定装置の校正を行う。ここで校正とは、上述した基準面のデータおよび黒レベルを取得する処理を指す。この工程では、上記の黒レベル撮影画像、基準拡散反射面の拡散反射撮影画像、および、基準拡散反射面と基準鏡面反射面のバイアス分布を取得する。詳細は、後述する。
(Measurement procedure)
FIG. 27A is a flowchart showing the measurement procedure of the present embodiment. First, the measuring device is calibrated in step S2901. Here, the calibration refers to the process of acquiring the above-mentioned reference plane data and the black level. In this step, the black level photographed image, the diffuse reflection photographed image of the reference diffuse reflection surface, and the bias distribution of the reference diffuse reflection surface and the reference specular reflection surface are acquired. Details will be described later.

次に、ステップS2902において、測定面の撮影を行う。上述したように、本測定装置では、照明装置2501で照明した撮影と、照明装置11に第一グループ、第二グループ、第三グループの各照明用画像を表示した撮影を行う。すなわち、必要な最少撮影数は第2の実施形態と同じ9つである。ステップS2903において、測定面の振幅分布を取得する。振幅分布は、撮影画像の各画素に対応する振幅情報Aの値を格納した画像である。実施形態3では、実施形態2と同様にして、照明用画像のグループ毎に実施形態1のステップS302の処理を行い、3つの振幅分布を取得する。 Next, in step S2902, the measurement surface is photographed. As described above, in this measuring device, shooting is performed by illuminating with the lighting device 2501 and shooting by displaying the images for illumination of the first group, the second group, and the third group on the lighting device 11. That is, the minimum number of shots required is nine, which is the same as in the second embodiment. In step S2903, the amplitude distribution of the measurement surface is acquired. The amplitude distribution is an image in which the value of the amplitude information A corresponding to each pixel of the captured image is stored. In the third embodiment, the process of step S302 of the first embodiment is performed for each group of the illumination images in the same manner as in the second embodiment, and three amplitude distributions are acquired.

次に、ステップS2904において、測定面の位相分布を取得する。位相分布は、撮影画像の各画素に対応する位相情報Bの値を格納した画像である。照明装置11に第一グループと第二グループの照明用画像を表示して撮影した撮影画像について、グループ毎に処理を行い、2つの位相分布を取得する。各画素の位相情報Bは、撮影画像の各画素の輝度値Iiと変調の情報Δiとから、上記の式(39)から式(42)で算出する。ステップS2905において、測定面のバイアス分布を取得する。バイアス分布は、撮影画像の各画素に対応するバイアス情報Cの値を格納した画像である。照明装置11に第一グループの照明用画像を表示して撮影した撮影画像について処理を行い、1つのバイアス分布を取得する。各画素のバイアス情報Cは、撮影画像の各画素の輝度値Iiから、上記の式(45)で算出する。 Next, in step S2904, the phase distribution of the measurement surface is acquired. The phase distribution is an image in which the value of the phase information B corresponding to each pixel of the captured image is stored. The captured images taken by displaying the illumination images of the first group and the second group on the lighting device 11 are processed for each group, and two phase distributions are acquired. The phase information B of each pixel is calculated from the above equations (39) to (42) from the luminance value Ii of each pixel of the captured image and the modulation information Δi. In step S2905, the bias distribution of the measurement surface is acquired. The bias distribution is an image in which the value of the bias information C corresponding to each pixel of the captured image is stored. The illumination device 11 displays the illumination image of the first group, processes the captured image, and acquires one bias distribution. The bias information C of each pixel is calculated by the above equation (45) from the brightness value Ii of each pixel of the captured image.

ステップS2906において、拡散反射率Rdの2次元分布を取得する。Rdの値は、上記の式(20)で算出する。式(20)において、Id_smpはステップS2902で取得した拡散反射画像の画素値、Id_bkおよびId_stdはステップS2901で取得した黒レベル撮影画像と基準拡散反射面の拡散反射撮影画像の画素値である。ステップS2907において、光学的法線方向Nvの2次元分布を取得する。光学的法線方向Nvは、天頂角θnと方位角φnで構成される。この工程で取得する2次元分布は、各画素にθnとφnの値を格納する画像である。図27(d)は、ステップS2907の詳細手順を説明するフローチャートである。まず、ステップS3101において、ステップS2904で求めた位相分布から、反射光の位相情報Bが照明光の位相δに一致する照明装置11の点光源(画素)の画素番号(Xd,Yd)を求める。撮影画像の各画素(Xc,Yc)に対応する照明装置11の点光源の画素番号は、式(2)および式(7)に基づき、次の式(49)および式(50)により与えられる。 In step S2906, the two-dimensional distribution of the diffuse reflectance Rd is acquired. The value of Rd is calculated by the above formula (20). In the formula (20), Id_smp is the pixel value of the diffuse reflection image acquired in step S2902, and Id_bk and Id_std are the pixel values of the black level photographed image and the diffuse reflection image of the reference diffuse reflection surface acquired in step S2901. In step S2907, a two-dimensional distribution of Nv in the optical normal direction is acquired. The optical normal direction Nv is composed of a zenith angle θn and an azimuth angle φn. The two-dimensional distribution acquired in this step is an image in which the values of θn and φn are stored in each pixel. FIG. 27D is a flowchart illustrating the detailed procedure of step S2907. First, in step S3101, the pixel numbers (Xd, Yd) of the point light source (pixel) of the lighting device 11 whose phase information B of the reflected light matches the phase δ of the illumination light are obtained from the phase distribution obtained in step S2904. The pixel numbers of the point light sources of the lighting device 11 corresponding to each pixel (Xc, Yc) of the captured image are given by the following equations (49) and (50) based on the equations (2) and (7). ..

Xd(Xc,Yc)=B(Xc,Yc)/K3・・・(49)
Yd(Xc,Yc)=B(Xc,Yc)/K4・・・(50)
式(49)および式(50)で計算される点光源の画素番号(Xd,Yd)は、一般に、整数に限らない。すなわち、本測定装置によれば、照明装置の画素密度よりも高い分解能で光学的法線方向を求めることができる。
Xd (Xc, Yc) = B (Xc, Yc) / K3 ... (49)
Yd (Xc, Yc) = B (Xc, Yc) / K4 ... (50)
The pixel numbers (Xd, Yd) of the point light source calculated by the equations (49) and (50) are generally not limited to integers. That is, according to this measuring device, the optical normal direction can be obtained with a resolution higher than the pixel density of the lighting device.

次に、ステップS3102において、ステップS3101で求めた照明装置11の点光源の画素番号(Xd,Yd)に対応するXYZ座標(Xill,Yill,Zill)を求める。XYZ座標(Xill,Yill,Zill)は、次の式(51)から式(53)で与えられる。 Next, in step S3102, the XYZ coordinates (Xill, Yill, Zill) corresponding to the pixel numbers (Xd, Yd) of the point light source of the lighting device 11 obtained in step S3101 are obtained. The XYZ coordinates (Xill, Yill, Zill) are given by the following equations (51) to (53).

Xill=Kill_11×Xd+Kill_13・・・(51)
Yill=Kill_22×Yd+Kill_23・・・(52)
Zill=Kill_33 ・・・(53)
ここで、Kill_11およびKill_22は、照明装置11の画素サイズに係る定数、Kill_13およびKill_23は、照明装置11の設置位置に係る定数、Kill_33は照明装置11と測定面15との距離に関する定数である。
Xill = Kill_11 × Xd + Kill_13 ... (51)
Yill = Kill_22 x Yd + Kill_23 ... (52)
Zill = Kill_33 ... (53)
Here, Kill_11 and Kill_22 are constants related to the pixel size of the lighting device 11, Kill_13 and Kill_23 are constants related to the installation position of the lighting device 11, and Kill_33 is a constant related to the distance between the lighting device 11 and the measurement surface 15.

次に、ステップS3103において、撮影画像の各画素に対応する測定面15の面上の点のXYZ座標(Xsmp,Ysmp,Zsmp)を求める。XYZ座標(Xsmp,Ysmp,Zsmp)は、次の式(54)から式(56)で与えられる。 Next, in step S3103, the XYZ coordinates (Xsmp, Ysmp, Zsmp) of the points on the surface of the measurement surface 15 corresponding to each pixel of the captured image are obtained. The XYZ coordinates (Xsmp, Ysmp, Zsmp) are given by the following equations (54) to (56).

Xsmp=Kcam_11×Xc+Kcam_13・・・(54)
Ysmp=Kcam_22×Yc+Kcam_23・・・(55)
Zsmp=0 ・・・(56)
Kcam_11およびKcam_22は撮影装置12の解像度に係る定数、Kcam_13およびKcam_23は、撮影装置12の解像度とセンサの画素数に係る定数である。ステップS3104において、照明方向ベクトル(Xvi,Yvi,Zvi)を求める。照明方向ベクトルは、上記の式(31)から式(33)で算出する。次に、ステップS3105において、光学的法線方向Nvの2次元分布を取得する。光学的法線方向を示す単位ベクトル(Xvn,Yvn,Zvn)は、ステップS3104で求めた照明方向ベクトルと受光方向ベクトル(Xvc,Yvc,Zvc)とから、上記の式(35)から式(37)で算出する。ただし、天頂角45度、方位角0度の受光方向ベクトル(Xvc,Yvc,Zvc)は、次の式(57)から式(59)で与えられる。
Xsmp = Kcam_11 × Xc + Kcam_13 ... (54)
Ysmp = Kcam_22 × Yc + Kcam_23 ... (55)
Zsmp = 0 ... (56)
Kcam_11 and Kcam_22 are constants related to the resolution of the photographing device 12, and Kcam_13 and Kcam_23 are constants related to the resolution of the photographing device 12 and the number of pixels of the sensor. In step S3104, the illumination direction vector (Xvi, Yvi, Zvi) is obtained. The illumination direction vector is calculated by the above equation (31) to the equation (33). Next, in step S3105, a two-dimensional distribution of Nv in the optical normal direction is acquired. The unit vector (Xvn, Yvn, Zvn) indicating the optical normal direction is derived from the above equation (35) to equation (37) from the illumination direction vector and the light receiving direction vector (Xvc, Yvc, Zvc) obtained in step S3104. ). However, the light receiving direction vectors (Xvc, Yvc, Zvc) having a zenith angle of 45 degrees and an azimuth angle of 0 degrees are given by the following equations (57) to (59).

Xvc=1/√2・・・(57)
Yvc=0 ・・・(58)
Zvc=1/√2・・・(59)
光沢的法線方向の天頂角θnと方位角φnの値は、ベクトル(Xvn,Yvn,Zvn)から次の式(60)および式(61)で与えられる。
Xvc = 1 / √2 ... (57)
Yvc = 0 ... (58)
Zvc = 1 / √2 ... (59)
The values of the zenith angle θn and the azimuth angle φn in the glossy normal direction are given by the following equations (60) and (61) from the vectors (Xvn, Yvn, Zvn).

φn=arctan(Yvn/Xvn)・・・(60)
θn=arctan(Zvc/((Xvn^2+Ync^2)^0.5))・・・(61)
なお、光学的法線方向は、方位角と天頂角で表現する代わりに、ベクトルのX成分、Y成分、Z成分で表現しても構わない。この場合、光学的法線方向の2次元分布は、各画素にXvn、Yvn、Zvnの値を格納する画像である。このような画像データは、コンピュータグラフィックスのテクスチャデータである法線マップとして使用される。この場合、例えば、次の式(62)から式(64)によって、ベクトルのX成分とY成分の値(−1から1の範囲)をそれぞれ、R信号およびG信号の0から255に対応づけ、Z成分の値(0から1の範囲)をB信号の0から255に対応づける。
φn = arctan (Yvn / Xvn) ... (60)
θn = arctan (Zvc / ((Xvn ^ 2 + Ync ^ 2) ^ 0.5)) ... (61)
The optical normal direction may be expressed by the X component, the Y component, and the Z component of the vector instead of being expressed by the azimuth angle and the zenith angle. In this case, the two-dimensional distribution in the optical normal direction is an image in which the values of Xvn, Yvn, and Zvn are stored in each pixel. Such image data is used as a normal map which is texture data of computer graphics. In this case, for example, the values of the X component and the Y component (range of -1 to 1) of the vector are associated with 0 to 255 of the R signal and the G signal, respectively, by the following equations (62) to (64). , Z component values (range 0 to 1) correspond to 0 to 255 of the B signal.

R=(Xvn+1)/2x255・・・(62)
G=(Yvn+1)/2x255・・・(63)
G=Zvnx255 ・・・(64)
図27(a)の測定手順の説明に戻る。次に、ステップS2908において、光沢異方性を表すパラメータの2次元分布を取得する。この工程では、ステップS2903で求めた振幅分布に基づいて、実施形態2のステップS1703の処理を行い、φu、αu、αvの2次元分布を求める。
R = (Xvn + 1) / 2x255 ... (62)
G = (Yvn + 1) / 2x255 ... (63)
G = Zvnx255 ... (64)
Returning to the description of the measurement procedure of FIG. 27 (a). Next, in step S2908, a two-dimensional distribution of parameters representing gloss anisotropy is acquired. In this step, based on the amplitude distribution obtained in step S2903, the process of step S1703 of the second embodiment is performed to obtain a two-dimensional distribution of φu, αu, and αv.

次に、ステップS2909において、鏡面反射率Rsの2次元分布を取得する。図27(c)は、ステップS2909の詳細手順を説明するフローチャートである。まず、ステップS3201において、拡散反射成分を減じたバイアス情報Csの2次元分布を求める。Csの値は、上記の式(46)で算出する。式(46)において、CsmpはステップS2905で取得したバイアス分布の画素値、CstdはステップS2901で取得した基準拡散反射面のバイアス分布の画素値である。また、Rd_smpはステップS2906で取得した拡散反射率Rdの2次元分布の画素値である。ステップS3202において、関数Dの全ての反射方向の平均値Daveの2次元分布を求める。Daveの値は、上述した鏡面反射変換テーブルを参照して、ステップS2908で取得した異方性パラメータαu、αvの2次元分布の画素値から、公知の補間方法によって算出する。 Next, in step S2909, the two-dimensional distribution of the mirror reflectance Rs is acquired. FIG. 27 (c) is a flowchart illustrating the detailed procedure of step S2909. First, in step S3201, the two-dimensional distribution of the bias information Cs obtained by subtracting the diffuse reflection component is obtained. The value of Cs is calculated by the above formula (46). In the formula (46), Csmp is the pixel value of the bias distribution acquired in step S2905, and Cstd is the pixel value of the bias distribution of the reference diffuse reflection surface acquired in step S2901. Further, Rd_smp is a pixel value of the two-dimensional distribution of the diffuse reflectance Rd acquired in step S2906. In step S3202, the two-dimensional distribution of the average value Dave of all the reflection directions of the function D is obtained. The value of Dave is calculated by a known interpolation method from the pixel values of the two-dimensional distribution of the anisotropic parameters αu and αv acquired in step S2908 with reference to the specular reflection conversion table described above.

ステップS3203において、鏡面反射方向の反射光に対応するバイアス情報Csdの2次元分布を求める。Csdの値は、上記の式(47)で算出する。式(47)において、CsはステップS3201で求めたCsの2次元分布の画素値であり、Dsの値は1であり、DaveはステップS3202で求めたDaveの2次元分布の画素値である。ステップS3204において、鏡面反射率Rsの2次元分布を求める。Rsの値は、上記の式(48)で算出する。式(48)において、CsdはステップS3203で求めたCsdの2次元分布の画素値、Cstd_sはステップS2901で取得した基準鏡面反射面のバイアス分布の画素値である。 In step S3203, the two-dimensional distribution of the bias information Csd corresponding to the reflected light in the specular reflection direction is obtained. The value of Csd is calculated by the above formula (47). In the formula (47), Cs is the pixel value of the two-dimensional distribution of Cs obtained in step S3201, the value of Ds is 1, and Dave is the pixel value of the two-dimensional distribution of Dave obtained in step S3202. In step S3204, the two-dimensional distribution of the mirror reflectance Rs is obtained. The value of Rs is calculated by the above formula (48). In the formula (48), Csd is the pixel value of the two-dimensional distribution of Csd obtained in step S3203, and Cstd_s is the pixel value of the bias distribution of the reference specular reflection surface acquired in step S2901.

図27(a)の測定手順の説明に戻る。最後に、ステップS2910において、ユーザの指示に基づいて、各種測定結果を出力して終了する。出力項目は、反射モデルのパラメータRd,Rs,Nv,φu,αu,αvの2次元分布の他、受光方向を示すベクトルVや、振幅情報分布、位相情報分布、バイアス情報分布、撮影画像などの中間データを含んでもよい。 Returning to the description of the measurement procedure of FIG. 27 (a). Finally, in step S2910, various measurement results are output and ended based on the user's instruction. Output items include the two-dimensional distribution of the reflection model parameters Rd, Rs, Nv, φu, αu, and αv, the vector V indicating the light receiving direction, the amplitude information distribution, the phase information distribution, the bias information distribution, and the captured image. It may include intermediate data.

次に、ステップS2901の校正の処理手順について説明する。図27(b)は、校正の処理手順を示すフローチャートである。まず、ステップS3001において、基準拡散反射面を照明装置2501で照明して撮影し、拡散反射撮影画像を取得する。ステップS3002において、照明装置11に第一グループの照明用画像を表示して基準拡散反射面を撮影する。ステップS3003において、照明装置11に第一グループの照明用画像を表示して基準鏡面反射面を撮影する。 Next, the calibration processing procedure of step S2901 will be described. FIG. 27B is a flowchart showing a calibration processing procedure. First, in step S3001, the reference diffuse reflection surface is illuminated by the illumination device 2501 and photographed, and a diffuse reflection photographed image is acquired. In step S3002, the illumination device 11 is displayed with the illumination image of the first group, and the reference diffuse reflection surface is photographed. In step S3003, the illumination device 11 is displayed with the illumination image of the first group, and the reference specular reflection surface is photographed.

ステップS3004において、照明装置11と照明装置2501を両方とも消灯または遮光した状態で撮影し、黒レベル撮影画像を取得する。ステップS3005において、基準拡散反射面のバイアス分布を取得する。バイアス分布は、上述したステップS2905の処理を行って取得する。ステップS3006において、基準鏡面反射面のバイアス分布を取得する。バイアス分布は、上述したステップS2905の処理を行って取得する。 校正処理に必要な最少の撮影数は、基準拡散反射面の拡散反射撮影画像の撮影に1、第一グループの照明用画像の撮影に3、基準鏡面反射面の第一グループの照明用画像の撮影に3、黒レベル撮影画像の撮影に1の合計8つである。すなわち、本測定装置によれば、測定面の撮影と合わせて、最少17の撮影画像からSVBRDFが取得できる。 In step S3004, both the lighting device 11 and the lighting device 2501 are photographed in a state of being turned off or shielded from light, and a black level photographed image is acquired. In step S3005, the bias distribution of the reference diffuse reflection surface is acquired. The bias distribution is obtained by performing the process of step S2905 described above. In step S3006, the bias distribution of the reference specular reflection surface is acquired. The bias distribution is obtained by performing the process of step S2905 described above. The minimum number of shots required for the calibration process is 1 for taking a diffuse reflection image of the reference specular reflection surface, 3 for taking a first group illumination image, and 3 for the first group illumination image of the reference specular reflection surface. There are a total of eight, three for shooting and one for shooting black-level shot images. That is, according to this measuring device, SVBRDF can be acquired from a minimum of 17 captured images together with the imaging of the measurement surface.

次に、ステップS2904で求めた位相情報Bの補正手順について説明する。上述したように、式(39)から式(42)で計算した位相情報Bの値は、0度から360度の範囲であり、真の位相を360で割った余りである。よって、式(2)および式(7)のδがこの範囲外の値を含む場合は、位相情報Bを補正する。補正の原理は、次の通り。撮影画像の各画素が受光する受光方向と鏡面反射の関係となる、照明装置11の点光源(画素)の位置POSは、光学的法線方向によって変化する。しかし、光学的法線方向は測定面の法線方向周辺に分布する。よって、上記点光源は、光学的法線方向が測定面の法線に一致するときの点光源の周辺に存在すると想定される。よって、求めた位相情報Bの値が、光学的法線方向が測定面の法線に一致するときの上記点光源POSの位相に対して、±180度の範囲に入るまで、Bに360度を繰り返し加える。 Next, the procedure for correcting the phase information B obtained in step S2904 will be described. As described above, the value of the phase information B calculated by the equations (39) to (42) is in the range of 0 degrees to 360 degrees, which is the remainder obtained by dividing the true phase by 360. Therefore, when δ in the equations (2) and (7) includes a value outside this range, the phase information B is corrected. The principle of correction is as follows. The position POS of the point light source (pixel) of the lighting device 11, which has a relationship between the light receiving direction received by each pixel of the captured image and the specular reflection, changes depending on the optical normal direction. However, the optical normal direction is distributed around the normal direction of the measurement surface. Therefore, it is assumed that the point light source exists around the point light source when the optical normal direction coincides with the normal of the measurement surface. Therefore, 360 degrees to B until the obtained value of the phase information B falls within the range of ± 180 degrees with respect to the phase of the point light source POS when the optical normal direction coincides with the normal of the measurement surface. Is added repeatedly.

図28は、位相情報Bの補正手順を説明するフローチャートである。まず、ステップS3301において、撮影画像の画素毎に、光学的法線方向が測定面の法線に一致するときの上記点光源POSの画素番号(Xd,Yd)を求める。この画素番号(Xd,Yd)は、次の式(65)および式(66)によって与えられる。 FIG. 28 is a flowchart illustrating a procedure for correcting the phase information B. First, in step S3301, the pixel numbers (Xd, Yd) of the point light source POS when the optical normal direction coincides with the normal of the measurement surface are obtained for each pixel of the captured image. The pixel numbers (Xd, Yd) are given by the following equations (65) and (66).

Xd(Xc,Yc)=(Kcam_11×Xc+Kcam_13−Kill_33−Kill_13)/Kill_11・・・(65)
Yd(Xc,Yc)=(Kcam_22×Yc+Kcam_23−Kill_23)/Kill_22・・・(66)
次に、ステップS3302において、式(65)および式(66)で求めたXdおよびYdを式(2)および式(7)に代入して、基準位相Psを求める。
Xd (Xc, Yc) = (Kcam_11 × Xc + Kcam_13-Kill_33-Kill_13) / Kill_11 ... (65)
Yd (Xc, Yc) = (Kcam_22 × Yc + Kcam_23-Kill_23) / Kill_22 ... (66)
Next, in step S3302, the reference phase Ps is obtained by substituting Xd and Yd obtained by the formulas (65) and (66) into the formulas (2) and (7).

次に、ステップS3303において、B+180度の値と、Psの値を比較する。前者が後者より小さい場合は、ステップS3304に進み、他の場合は、補正後の位相としてBを出力して処理を終了する。ステップS3304では、Bに360度を加えてステップS3303に戻る。 Next, in step S3303, the value of B + 180 degrees and the value of Ps are compared. If the former is smaller than the latter, the process proceeds to step S3304, and in other cases, B is output as the corrected phase and the process ends. In step S3304, 360 degrees is added to B to return to step S3303.

(機能構成)
図29は、本実施形態における測定装置2500の機能構成を示すブロック図である。図29を用いて、情報処理装置14の行う処理について説明する。情報処理装置14は、デバイス制御部3401とデータ格納部3402を備える。デバイス制御部3401は、測定手順のステップS2901およびステップS2902の処理を行う。すなわち、拡散反射測定用の照明装置2501と、鏡面反射測定用の照明装置11と、撮影装置12を制御して一連の撮影を行い、撮影した画像データを撮影装置12から入力してデータ格納部3402に格納する。また、情報処理装置14は、位相情報取得部3403、振幅情報取得部3404、バイアス情報取得部3405、拡散反射情報取得部3406を備える。位相情報取得部3403は、データ格納部3402に格納された第一グループおよび第二グループの照明用画像で照明された測定面の撮影画像に測定手順のステップS2904の処理を行って位相分布を取得する。振幅情報取得部3404は、データ格納部3402に格納された第一グループ乃至第三グループの照明用画像で照明された測定面の撮影画像に測定手順のステップS2903の処理を行って振幅分布を取得する。バイアス情報取得部3405は、データ格納部3402に格納された第一グループの照明用画像で照明された基準拡散反射面の撮影画像に校正手順のステップS3005の処理を行ってバイアス分布を取得し、校正データ格納部3413に格納する。また、データ格納部3402に格納された第一グループの照明用画像で照明された基準鏡面反射面の撮影画像に校正手順のステップS3006の処理を行ってバイアス分布を取得し、校正データ格納部3413に格納する。また、データ格納部3402に格納された第一グループの照明用画像で照明された測定面の撮影画像に測定手順のステップS2905の処理を行ってバイアス分布を取得する。拡散反射情報取得部3406は、データ格納部3402に格納された照明装置2501で照明された測定面の撮影画像に上述した測定手順のステップS2906の処理を行って拡散反射率Rdの2次元分布を取得する。また、情報処理装置14は、光学的法線方向取得部3407、光沢異方性パラメータ取得部3408、光沢写像性変換テーブル格納部3411を備える。光学的法線方向取得部3407は、位相情報取得部3403が取得した位相分布に測定手順のステップS2907の処理を行って光学的法線方向Nvの2次元分布を取得する。光沢異方性パラメータ取得部3408は、振幅情報取得部3404が取得した振幅分布に測定手順のステップS2908の処理を行って光沢異方性パラメータφu、αu、αvの2次元分布を取得する。このとき、光沢写像性変換テーブル格納部3411が格納する光沢写像性変換テーブルを参照する。また、情報処理装置14は、鏡面反射率分布取得部3409と鏡面反射変換テーブル格納部3412を備える。鏡面反射率分布取得部3409は、次のデータを使用して測定手順のステップS2909の処理を行って鏡面反射率Rsの2次元分布を取得する。鏡面反射率分布取得部3409は、校正データ格納部に格納された基準拡散反射面のバイアス分布と、基準鏡面反射面のバイアス分布を使用して鏡面反射率Rsの2次元分布を取得する。また、鏡面反射率分布取得部3409は、拡散反射情報取得部3406が取得した拡散反射率Rdの2次元分布と、光沢異方性パラメータ取得部3408が取得した光沢異方性パラメータαu、αvの2次元分布を使用して鏡面反射率Rsの2次元分布を取得する。また、鏡面反射率分布取得部3409は、バイアス情報取得部3405が取得した測定面のバイアス分布を使用して鏡面反射率Rsの2次元分布を取得する。さらに、鏡面反射率分布取得部3409は、鏡面反射率Rsの2次元分布を取得する処理において、鏡面反射変換テーブル格納部3412に格納される鏡面反射変換テーブルを参照する。また、情報処理装置14は、出力部3410を備える。出力部3410は、測定手順のステップS2910の処理を行う。すなわち、ユーザの指示に基づき、測定結果である反射モデルのパラメータRd,Rs,Nv,φu,αu,αvの2次元分布やその他の中間データを出力する。なお、以上の説明では、3403乃至3410の各機能構成の説明において、全ての画素の処理が完了して分布画像を取得した後に、次の処理に移る構成を説明したが、1画素毎に処理するように構成してもよいし、複数画素毎に処理するように構成してもよい。
(Functional configuration)
FIG. 29 is a block diagram showing a functional configuration of the measuring device 2500 according to the present embodiment. The processing performed by the information processing apparatus 14 will be described with reference to FIG. 29. The information processing device 14 includes a device control unit 3401 and a data storage unit 3402. The device control unit 3401 performs the processes of step S2901 and step S2902 of the measurement procedure. That is, a series of shooting is performed by controlling the lighting device 2501 for diffuse reflection measurement, the lighting device 11 for specular reflection measurement, and the photographing device 12, and the photographed image data is input from the photographing device 12 to store the data. Store in 3402. Further, the information processing apparatus 14 includes a phase information acquisition unit 3403, an amplitude information acquisition unit 3404, a bias information acquisition unit 3405, and a diffuse reflection information acquisition unit 3406. The phase information acquisition unit 3403 acquires the phase distribution by performing the processing of step S2904 of the measurement procedure on the captured image of the measurement surface illuminated by the illumination images of the first group and the second group stored in the data storage unit 3402. To do. The amplitude information acquisition unit 3404 acquires the amplitude distribution by performing the processing of step S2903 of the measurement procedure on the captured image of the measurement surface illuminated by the illumination images of the first group to the third group stored in the data storage unit 3402. To do. The bias information acquisition unit 3405 acquires the bias distribution by performing the processing of step S3005 of the calibration procedure on the captured image of the reference diffuse reflection surface illuminated by the illumination image of the first group stored in the data storage unit 3402. It is stored in the calibration data storage unit 3413. Further, the captured image of the reference specular reflection surface illuminated by the illumination image of the first group stored in the data storage unit 3402 is subjected to the processing of step S3006 of the calibration procedure to acquire the bias distribution, and the calibration data storage unit 3413. Store in. Further, the captured image of the measurement surface illuminated by the illumination image of the first group stored in the data storage unit 3402 is subjected to the processing of step S2905 of the measurement procedure to acquire the bias distribution. The diffuse reflection information acquisition unit 3406 performs the process of step S2906 of the above-mentioned measurement procedure on the captured image of the measurement surface illuminated by the illumination device 2501 stored in the data storage unit 3402 to obtain a two-dimensional distribution of the diffuse reflectance Rd. get. In addition, the information processing device 14 includes an optical normal direction acquisition unit 3407, a gloss anisotropy parameter acquisition unit 3408, and a gloss mapping conversion table storage unit 3411. The optical normal direction acquisition unit 3407 acquires the two-dimensional distribution of the optical normal direction Nv by performing the process of step S2907 of the measurement procedure on the phase distribution acquired by the phase information acquisition unit 3403. The gloss anisotropy parameter acquisition unit 3408 performs the processing of step S2908 of the measurement procedure on the amplitude distribution acquired by the amplitude information acquisition unit 3404 to acquire the two-dimensional distribution of the gloss anisotropy parameters φu, αu, and αv. At this time, the glossy mapping conversion table stored in the glossy mapping conversion table storage unit 3411 is referred to. Further, the information processing device 14 includes a specular reflectance distribution acquisition unit 3409 and a specular reflection conversion table storage unit 3412. The mirror reflectance distribution acquisition unit 3409 uses the following data to perform the process of step S2909 of the measurement procedure to acquire the two-dimensional distribution of the mirror reflectance Rs. The specular reflectance distribution acquisition unit 3409 acquires a two-dimensional distribution of the specular reflectance Rs by using the bias distribution of the reference diffuse reflection surface stored in the calibration data storage unit and the bias distribution of the reference mirror reflection surface. Further, the mirror reflectance distribution acquisition unit 3409 has a two-dimensional distribution of the diffuse reflectance Rd acquired by the diffuse reflectance information acquisition unit 3406 and the gloss anisotropy parameters αu and αv acquired by the gloss anisotropy parameter acquisition unit 3408. The two-dimensional distribution is used to obtain the two-dimensional distribution of the mirror reflectance Rs. Further, the mirror reflectance distribution acquisition unit 3409 acquires a two-dimensional distribution of the mirror reflectance Rs by using the bias distribution of the measurement surface acquired by the bias information acquisition unit 3405. Further, the specular reflectance distribution acquisition unit 3409 refers to the specular reflection conversion table stored in the specular reflection conversion table storage unit 3412 in the process of acquiring the two-dimensional distribution of the specular reflectance Rs. Further, the information processing device 14 includes an output unit 3410. The output unit 3410 performs the process of step S2910 of the measurement procedure. That is, based on the user's instruction, the two-dimensional distribution of the reflection model parameters Rd, Rs, Nv, φu, αu, αv, which is the measurement result, and other intermediate data are output. In the above description, in the description of each functional configuration of 3403 to 3410, the configuration in which the next processing is performed after the processing of all the pixels is completed and the distribution image is acquired has been described, but the processing is performed for each pixel. It may be configured to process each of a plurality of pixels.

以上説明したように、本実施形態の測定装置によれば、最少17の撮影画像からSVBRDが取得できる。 As described above, according to the measuring device of the present embodiment, the SVBRD can be acquired from a minimum of 17 captured images.

[その他の実施形態]
上記の実施形態では、照明装置として、平面または直線上に点光源を配置した例について説明したが、点光源は曲面や曲線上に配置してもよい。また、平面や直線上に点光源を配置する場合であっても、当該平面や直線は、測定面に平行でなくてもよい。この場合、照明装置の形状の自由度が広くなり、測定装置を小型化することができる。また、照明装置の光源は、モノクロでもよいしRGBカラーでもよい。さらに、マルチバンドカラーまたは分光光源でもよい。RGBカラーやマルチバンドカラー、分光光源の照明装置を使用した場合は、光沢写像性を色毎に取得できる。撮影装置は、モノクロカメラでもよいし、RGBカラーカメラでも良い。さらに、マルチバンドカメラでもよいし、分光カメラでもよい。照明装置の場合と同様に、RGBカラーカメラやマルチバンドカメラ、分光カメラを使用した場合は、光沢写像性を色毎に取得できる。また、撮影装置は、CCDやCMOSなどの2次元センサに限らず、ラインセンサを備えたものでもよい。レンズもテレセントリックレンズに限らないし、シャインプルーフ条件を満たすレンズでなくてもよい。例えば、広角レンズを使用し、光軸が測定面の法線方向と平行になるように設置し、光軸中心から外れた測定面をセンサ面に結像する構成でもよい。照明用画像は、正弦波パターンに限らない。例えば、三角波でもよい。また、照明用画像の縞の方向は、実施形態の例に限らず、他の方向でも構わない。また、異方性の方位角として光沢写像性が最大となる方位角を出力する例について説明したが、これに限らず、例えば、光沢写像性が最小となる方位角を出力する構成でもよい。また、光沢異方性の特徴を楕円モデルのパラメータで表す例について説明したが、これに限らず、例えば、多方向の方位角の光沢写像性で表すようにしてもよい。この場合、例えば、照明用画像の縞の方向を15度間隔にして24グループの照明用画像を用いれば、24方位角の光沢写像性が測定できる。また、測定装置は、測定結果や処理の中間データをネットワークI/Fを介して、インターネット上のサーバに登録するように構成してもよい。
[Other Embodiments]
In the above embodiment, an example in which the point light source is arranged on a plane or a straight line as the lighting device has been described, but the point light source may be arranged on a curved surface or a curved surface. Further, even when the point light source is arranged on a plane or a straight line, the plane or the straight line does not have to be parallel to the measurement surface. In this case, the degree of freedom in the shape of the lighting device is widened, and the measuring device can be miniaturized. Further, the light source of the lighting device may be monochrome or RGB color. Further, it may be a multi-band color or a spectroscopic light source. When an RGB color, a multi-band color, or a spectroscopic light source illumination device is used, glossy mapping can be obtained for each color. The photographing device may be a monochrome camera or an RGB color camera. Further, it may be a multi-band camera or a spectroscopic camera. When an RGB color camera, a multi-band camera, or a spectroscopic camera is used as in the case of a lighting device, glossy mapping can be obtained for each color. Further, the photographing apparatus is not limited to a two-dimensional sensor such as a CCD or CMOS, and may be equipped with a line sensor. The lens is not limited to a telecentric lens, and does not have to be a lens that satisfies the Scheimpflug condition. For example, a wide-angle lens may be used, the optical axis may be installed so as to be parallel to the normal direction of the measurement surface, and the measurement surface deviated from the center of the optical axis may be imaged on the sensor surface. The illumination image is not limited to the sinusoidal pattern. For example, it may be a triangular wave. Further, the direction of the stripes of the illumination image is not limited to the example of the embodiment, and may be any other direction. Further, the example of outputting the azimuth that maximizes the glossy mapping property as the azimuth angle of anisotropy has been described, but the present invention is not limited to this, and for example, the azimuth angle that minimizes the glossy mapping property may be output. Further, the example in which the feature of gloss anisotropy is represented by the parameters of the ellipse model has been described, but the present invention is not limited to this, and for example, the gloss mapping property of azimuth angles in multiple directions may be used. In this case, for example, if 24 groups of illumination images are used with the stripe directions of the illumination images at intervals of 15 degrees, the gloss mapping property at 24 azimuth angles can be measured. Further, the measuring device may be configured to register the measurement result and the intermediate data of the processing in the server on the Internet via the network I / F.

また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、システム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路によっても実現可能である。 Further, the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit that realizes one or more functions.

Claims (12)

互いに位相の異なる周期関数に応じて光量が周期的に変化する複数の点光源からの光が照射された物体を、異なるタイミングで複数回撮像して得られる画像それぞれを表す複数の画像データを取得する第1取得手段と、
前記取得された複数の画像データに基づいて、各画像データが表す画像間について、同一画素位置の画素値の正弦波状の変化の振幅を表す振幅情報を生成する生成手段と、
前記振幅情報に基づいて、前記物体の光沢写像性の2次元分布を取得する第2取得手段と、
を有することを特徴とする装置。
Acquire a plurality of image data representing each image obtained by imaging an object irradiated with light from a plurality of point light sources whose light intensity changes periodically according to periodic functions having different phases from each other at different timings. The first acquisition means to do
Based on the plurality of acquired image data, a generation means for generating amplitude information representing the amplitude of a sinusoidal change in a pixel value at the same pixel position between images represented by each image data,
A second acquisition means for acquiring a two-dimensional distribution of gloss mapping of the object based on the amplitude information,
A device characterized by having.
前記生成手段は、前記画素値の変化に近似する周期関数を決定し、前記周期関数の振幅を表す前記振幅情報を生成することを特徴とする請求項1に記載の装置。 The apparatus according to claim 1, wherein the generation means determines a periodic function that approximates a change in the pixel value, and generates the amplitude information that represents the amplitude of the periodic function. 互いに位相の異なる周期関数で変調した複数の照明用画像に基づいて発光する複数の点光源を制御することによって、前記物体に光を照射する照明制御手段をさらに有することを特徴とする請求項1又は請求項2に記載の装置。 Claim 1 is characterized in that it further includes an illumination control means for irradiating the object with light by controlling a plurality of point light sources that emit light based on a plurality of illumination images modulated by periodic functions having different phases from each other. Or the apparatus according to claim 2. 前記照明制御手段が制御する光源は、平面に複数の点光源を備える面光源であって、
前記照明制御手段は、前記複数の照明用画像を切り替えることを特徴とする請求項3に記載の装置。
The light source controlled by the illumination control means is a surface light source having a plurality of point light sources on a plane.
The device according to claim 3, wherein the lighting control means switches the plurality of lighting images.
前記複数の照明用画像は、前記各画像データが表す画像の各画素位置における輝度値が周期関数に沿って変調するように生成され、前記複数の照明用画像はそれぞれ周期的なパターンを有することを特徴とする請求項3又は請求項4に記載の装置。 The plurality of illumination images are generated so that the brightness value at each pixel position of the image represented by the image data is modulated according to a periodic function, and the plurality of illumination images each have a periodic pattern. The apparatus according to claim 3 or 4. 前記照明制御手段が制御する光源は、ディスプレイであることを特徴とする請求項3に記載の装置。 The device according to claim 3, wherein the light source controlled by the lighting control means is a display. 前記第2取得手段は、前記振幅情報が表す振幅と光沢写像性との対応関係を表すテーブルに基づいて、前記物体の光沢写像性の2次元分布を取得することを特徴とする請求項1乃至請求項6のいずれか一項に記載の装置。 The second acquisition means is characterized in that it acquires a two-dimensional distribution of the gloss mapping property of the object based on a table showing a correspondence relationship between the amplitude represented by the amplitude information and the gloss mapping property. The device according to any one of claims 6. 前記光沢写像性の2次元分布に基づいて、前記物体の光沢異方性を表すパラメータの2次元分布を取得する第3取得手段をさらに有することを特徴とする請求項1乃至請求項7のいずれか一項に記載の装置。 Any of claims 1 to 7, further comprising a third acquisition means for acquiring a two-dimensional distribution of parameters representing the gloss anisotropy of the object based on the two-dimensional distribution of gloss mapping. The device according to one item. 前記物体の光沢異方性を表すパラメータの2次元分布に基づいて、光沢写像性が最大又は最小となる方位角と、前記方位角と前記方位角に直交する方位角とにおける光沢写像性に応じたカラー画像である光沢異方性の分布画像と、を取得する第4取得手段をさらに有することを特徴とする請求項8に記載の装置。 Based on the two-dimensional distribution of parameters representing the gloss anisotropy of the object, depending on the azimuth at which the gloss reproducibility is maximum or minimum and the azimuth at the azimuth and the azimuth orthogonal to the azimuth. The apparatus according to claim 8, further comprising a fourth acquisition means for acquiring a distribution image of gloss azimuth, which is a color image. 前記生成手段は、画素位置ごとに、前記振幅情報を生成することを特徴とする請求項1乃至請求項9のいずれか一項に記載の装置。 The apparatus according to any one of claims 1 to 9, wherein the generation means generates the amplitude information for each pixel position. コンピュータを、請求項1乃至請求項10のいずれか一項に記載の装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the device according to any one of claims 1 to 10 . 互いに位相の異なる周期関数に応じて光量が周期的に変化する複数の点光源からの光が照射された物体を、異なるタイミングで複数回撮像して得られる画像それぞれを表す複数の画像データを取得する第1取得ステップと、
前記取得された複数の画像データに基づいて、各画像データが表す画像間について、同一画素位置の画素値の正弦波状の変化の振幅を表す振幅情報を生成する生成ステップと、
前記振幅情報に基づいて、前記物体の光沢写像性の2次元分布を取得する第2取得ステップと、
を有することを特徴とする方法。
Acquire a plurality of image data representing each image obtained by imaging an object irradiated with light from a plurality of point light sources whose light intensity changes periodically according to periodic functions having different phases from each other at different timings. The first acquisition step to do and
Based on the plurality of acquired image data, a generation step of generating amplitude information representing the amplitude of a sinusoidal change in the pixel value at the same pixel position between images represented by each image data, and a generation step.
A second acquisition step of acquiring a two-dimensional distribution of gloss mapping of the object based on the amplitude information, and
A method characterized by having.
JP2016009310A 2016-01-20 2016-01-20 Equipment, methods and programs for acquiring a two-dimensional distribution of gloss mapping Active JP6758837B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016009310A JP6758837B2 (en) 2016-01-20 2016-01-20 Equipment, methods and programs for acquiring a two-dimensional distribution of gloss mapping
EP17150930.0A EP3196633B1 (en) 2016-01-20 2017-01-11 Apparatus and method for measuring a reflection characteristic of an object
US15/409,415 US10240982B2 (en) 2016-01-20 2017-01-18 Measurement system, information processing apparatus, information processing method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016009310A JP6758837B2 (en) 2016-01-20 2016-01-20 Equipment, methods and programs for acquiring a two-dimensional distribution of gloss mapping

Publications (3)

Publication Number Publication Date
JP2017129473A JP2017129473A (en) 2017-07-27
JP2017129473A5 JP2017129473A5 (en) 2019-02-28
JP6758837B2 true JP6758837B2 (en) 2020-09-23

Family

ID=59394745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016009310A Active JP6758837B2 (en) 2016-01-20 2016-01-20 Equipment, methods and programs for acquiring a two-dimensional distribution of gloss mapping

Country Status (1)

Country Link
JP (1) JP6758837B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7272124B2 (en) * 2019-06-11 2023-05-12 コニカミノルタ株式会社 Evaluation device and evaluation method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004034167A1 (en) * 2004-07-15 2006-02-09 Byk Gardner Gmbh Apparatus for the goniometric examination of optical surface properties
US8238641B2 (en) * 2008-06-20 2012-08-07 Arc Harima Co., Ltd. Method for measuring mirror index and apparatus thereof
JP5631041B2 (en) * 2010-04-02 2014-11-26 キヤノン株式会社 Color processing apparatus, color processing method, and image forming apparatus
JP5681021B2 (en) * 2011-04-01 2015-03-04 アークハリマ株式会社 Surface texture measuring device
JP6506507B2 (en) * 2013-05-15 2019-04-24 キヤノン株式会社 Measurement apparatus and control method thereof

Also Published As

Publication number Publication date
JP2017129473A (en) 2017-07-27

Similar Documents

Publication Publication Date Title
EP3196633B1 (en) Apparatus and method for measuring a reflection characteristic of an object
JP6942876B2 (en) Information processing equipment, information processing methods and programs
CN104990516B (en) Intensity and colored display for three-dimensional metrology system
JP6506507B2 (en) Measurement apparatus and control method thereof
JP5443303B2 (en) Appearance inspection apparatus and appearance inspection method
US20080095468A1 (en) Method And Device For Representing A Digital Image On A Surface Which Is Non-Trivial In Terms Of Its Geometry And Photometry
US20120147224A1 (en) Imaging apparatus
US10430940B2 (en) Inspection system and inspection method
JP6364777B2 (en) Image data acquisition system and image data acquisition method
TW201337212A (en) Profile measuring apparatus, structure manufacturing system, method for measuring profile, method for manufacturing structure, and non-transitory computer readable medium
JP3809838B2 (en) Image highlight correction method using image source specific HSV color coordinates, image highlight correction program, and image acquisition system
JP5612969B2 (en) Appearance inspection apparatus and appearance inspection method
CN113011206A (en) Handheld scanner and scanning method thereof
JP2017122614A (en) Image generation method and inspection device
JP2019168286A (en) Image processing device
US20230260236A1 (en) Displaying a virtual object in a real-life scene
JP6758837B2 (en) Equipment, methods and programs for acquiring a two-dimensional distribution of gloss mapping
JP6776004B2 (en) Image processing equipment, image processing methods and programs
JP2009236696A (en) Three-dimensional image measurement method, measurement system, and measurement program for subject
JP2020128931A (en) Inspection device
WO2020259625A1 (en) Three-dimensional scanning method, scanner, three-dimensional scanning system, computer device, and computer-readable storage medium
KR102171773B1 (en) Inspection area determination method and visual inspection apparatus using the same
JP7409014B2 (en) display device
Park et al. Projector compensation framework using differentiable rendering
JP2016008837A (en) Shape measuring method, shape measuring device, structure manufacturing system, structure manufacturing method, and shape measuring program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200902

R151 Written notification of patent or utility model registration

Ref document number: 6758837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151