WO2011058823A1 - パール色を有する対象物の評価方法及び評価装置 - Google Patents

パール色を有する対象物の評価方法及び評価装置 Download PDF

Info

Publication number
WO2011058823A1
WO2011058823A1 PCT/JP2010/066351 JP2010066351W WO2011058823A1 WO 2011058823 A1 WO2011058823 A1 WO 2011058823A1 JP 2010066351 W JP2010066351 W JP 2010066351W WO 2011058823 A1 WO2011058823 A1 WO 2011058823A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
image
pearl
value
color
Prior art date
Application number
PCT/JP2010/066351
Other languages
English (en)
French (fr)
Inventor
茂樹 中内
敏裕 豊田
Original Assignee
国立大学法人豊橋技術科学大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人豊橋技術科学大学 filed Critical 国立大学法人豊橋技術科学大学
Priority to JP2011540443A priority Critical patent/JP5637399B2/ja
Publication of WO2011058823A1 publication Critical patent/WO2011058823A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/87Investigating jewels

Definitions

  • the present invention relates to an evaluation method and an evaluation apparatus for an object having a pearl color such as a pearl or an object to be coated with a pearl color paint (for example, a pearl mica-containing paint).
  • a pearl color paint for example, a pearl mica-containing paint
  • the pearl layer is composed of overlapping thin translucent crystal layers.
  • the light transmitted through the upper crystal layer is partially reflected by the lower crystal layer and the remaining light is transmitted through the lower crystal layer. Therefore, the reflected lights interfere with each other, resulting in a pearl-specific luster and color (ie, pearl color).
  • the pearl color is a color composed of a solid color that is the original color of the object and an interference color that is generated by light interference in addition to the solid color. (That is, the abundance of interference colors) is an important evaluation item.
  • Patent Documents 1 to 3 Conventional pearl evaluation methods include the methods described in Patent Documents 1 to 3 below.
  • a pearl image obtained by illuminating a pearl placed on a pearl placing table with diffused light illumination, blocking a back side of the pearl with respect to the illumination direction from outside light, and capturing an image from a direction orthogonal to the illumination direction. The color of the pearl is judged from the color distribution.
  • a slit light source is used to project an image of the light source on the surface of the pearl, the image is picked up by an image sensor, a luminance distribution is obtained, and the glossiness is determined from the luminance distribution.
  • Patent Document 3 places a pearl series on a rotary table, illuminates the pearl series from a direction orthogonal to the placement surface of the pearl series, images the pearl series from a direction opposite to the illumination direction, The image is analyzed by image processing means.
  • Non-Patent Document 1 the gloss perceived by humans when observing an observation target is related to the skewness of the luminance distribution of the observation target, and the greater the skewness is, the stronger the gloss is perceived. It is described.
  • the present invention is intended to solve the problems described above, the correct evaluation of the gloss of an object having a pearl color are possible, and by extension, the correct evaluation capable evaluation method and evaluated object having a pearl color
  • An object is to provide an apparatus.
  • the evaluation method of the present invention is an evaluation method for an object having a pearl color, and a plurality of images with different exposures are obtained by imaging an object illuminated with a white light source a plurality of times with a digital imaging device while changing the exposure.
  • An image data acquisition step for acquiring data and a plurality of image data are combined to generate image data of a wide luminance dynamic range (hereinafter referred to as “wide DR image data”) having a wider luminance range than each image data.
  • the distortion value of the luminance value in the region to be processed of the wide DR image data hereinafter referred to as “processing target region” based on the wide DR image data generation step to be performed and each pixel value in the wide DR image data.
  • the gloss is evaluated based on the skewness of the luminance obtained from the information that is not missing due to overexposure or underexposure, it is possible to correctly evaluate the gloss of the object, and thus correct for the object. An evaluation can be performed.
  • the transmission image data acquisition step for acquiring the transmission image data for each sorting light, and the pixel value of the processing target area of the transmission image data for each sorting light
  • Normalized image data generating step for normalizing and generating normalized image data for each selected light, and for the normalized image data for each selected light, average image data corresponding to the average of the pearl normalized image data in the wavelength direction
  • An interference color determination image generation step for generating interference color determination image data representing a difference between the interference color determination image data and the interference color determination image data for each sorting light , It is preferable to evaluate the color of the pearl.
  • each a wavelength that intensity occurs interference when transmitted through the pearls, a plurality of sorting light narrow band centered wavelength, by transmitting the pearl, captures the transmitted light Since the color is evaluated based on the image data for interference color determination excluding the average intensity change pattern in the image data, it is evaluated whether the intensity change is large, that is, whether the interference color is abundant. And correctly evaluate the color of pearls.
  • the interference color determination image data for each sorting light has an interference color visualization step of generating a color image to visualize expression of the interference color in pearls, evaluate the color of the pearl based on the color image This makes it easy to visually understand the state of occurrence of interference colors.
  • an interference color quantification step for calculating a contrast value representing the contrast between the central portion and the peripheral portion in the interference color determination image data for each sorting light, and if the pearl color is evaluated based on the contrast value,
  • the interference color can be evaluated by numerical values.
  • the sorting light as follows. That is, for each of a plurality of pearl samples divided into a plurality of ranks, a plurality of narrow-band lights having different center wavelengths are transmitted from one side of the pearl sample, and the other side of the pearl sample is imaged by a digital imaging device.
  • the transmission image data for each narrowband light is obtained, the pixel value of the processing target area of the transmission image data for each narrowband light is normalized, and the normalized image data for each narrowband light is generated.
  • Interference color for each narrowband light is generated by generating interference color determination image data representing the difference between the normalized image data for the band light and the average image data corresponding to the average in the wavelength direction of the normalized image data of the pearl sample.
  • a contrast value representing the contrast between the central portion and the peripheral portion in the judgment image data is calculated, and the contrast value is averaged for each rank.
  • the center wavelength of the narrow band light is higher or lower projecting than the other ranks, the center wavelength of the selected light.
  • the sorting light is light having a wavelength such that the contrast state of the central portion and the peripheral portion in the image data for interference color determination is greatly different depending on the rank, each sorting light is transmitted through the pearl. If the interference color determination image data is generated, the pearl rank can be determined based on the contrast state between the central portion and the peripheral portion.
  • variable degree a value indicating the degree of variation in the color value in the processing target area of the wide DR image data (hereinafter referred to as “variation degree”) based on each pixel value in the wide DR image data. It is good also as calculating and evaluating the color of a pearl based on the dispersion
  • wide DR image data can be generated by preferentially using pixel values of image data that are in a predetermined effective exposure range and have large exposure.
  • Image data with a large exposure ie, a long exposure time
  • image data with a small exposure ie, a short exposure time. This is because the skewness of the luminance value can be calculated more accurately.
  • An evaluation apparatus is an evaluation apparatus for an object having a pearl color, and includes an imaging unit and an image processing unit.
  • the imaging unit includes a support unit that supports the object, and a white light source that illuminates the object. And a digital image pickup device that picks up an image of the object, and the object that is supported by the support portion and illuminated by the white light source is imaged a plurality of times by changing the exposure with the digital image pickup device.
  • the image processing unit is configured to output a plurality of image data, and the image processing unit obtains a wide DR image data by synthesizing the plurality of image data with an image data acquisition unit that acquires the plurality of image data.
  • Data generation means, and evaluation value calculation means for calculating the skewness of the luminance value in the processing target area of the wide DR image data as the gloss evaluation amount based on each pixel value in the wide DR image data. The And butterflies.
  • the gloss is evaluated based on the skewness of the luminance obtained from the information that is not missing due to overexposure or underexposure, it is possible to correctly evaluate the gloss of the object, and thus correct for the object. An evaluation can be performed.
  • the object is a pearl, narrowband imaging unit, each of which, a wavelength that intensity occurs interference when transmitted through the pearls, it emits a plurality of sorting light narrow band centered wavelength provided with a light source, narrow the band source by transmitting from one side of pearls supported each sorting light to the support portion, by imaging the other surface of the pearl in digital imaging device, transmitting the image data for each sorting light is configured to output the image data acquisition unit acquires the transmission image data for each sorting light, the image processing unit, the pixel value of the pearl area of the transmitted image data for each selected light is normalized, the Normalized image data generating means for generating normalized image data for the selected light, and for the normalized image data for each selected light, the average image data corresponding to the average in the wavelength direction of the normalized image data of the pearl
  • the interference color determination image data representing the difference between, and the interference color determination image generation unit to be generated, it is preferably provided with a.
  • each a wavelength that intensity occurs interference when transmitted through the pearls, a plurality of sorting light narrow band centered wavelength, by transmitting the pearl, light transmitted through the pearls Since the color is evaluated based on the interference color determination image data excluding the average intensity change pattern in the transmission image data that captures the image, whether the intensity change is large, that is, whether the interference color is abundant The color of the pearl can be evaluated correctly.
  • the image processing section based on the interference color determination image data for each sorting light, if providing the interference color visualization means for generating a color image to visualize expression of the interference color in pearls, visual It becomes easy to understand the expression state of the interference color.
  • the image processing unit includes interference color digitizing means for calculating a contrast value representing the contrast between the central portion and the peripheral portion in the interference color determination image data for each sorting light, the interference color is numerically expressed. Can be evaluated.
  • the evaluation value calculation means may calculate the variation degree of the color value in the processing target area of the wide DR image data as the color evaluation amount based on each pixel value in the wide DR image data. This is because the degree of variation in the color value represents the richness of interference colors.
  • the gloss is evaluated based on the skewness of the luminance determined by the information that is free from overexposure or blackout, and therefore, it is possible to correctly evaluate the gloss of an object having a pearl color. It is possible to perform a correct evaluation on an object having a pearl color.
  • FIG. 5 is a flowchart of gloss and color digitization processing according to the first and second embodiments.
  • 4 is a flowchart of image shooting processing according to the first embodiment. It is a flowchart of the process target area
  • FIG. 1 It is a figure for demonstrating the production
  • FIG. It is an image figure of the image data acquired with a spectral image measuring device. It is a flowchart of the image shooting process which concerns on 2nd Embodiment. It is a flowchart of the wide DR image generation processing according to the second embodiment.
  • the evaluation device 10 includes an imaging unit 9 and an image processing device (corresponding to an image processing unit) 7 connected to the imaging unit 9. includes an outer light-shielding box 8, respectively in the interior of the external light shielding box 8 disposed, the image measuring device (corresponding to the digital imaging device.) 1, a white light source 3, corresponding to the sample holder (support. ) 4, a sample mounting base 5, and a light absorbing plate 6.
  • the outside light shielding box 8 is configured to block outside light, and the inner surface is black with substantially no secondary reflection (that is, non-glossy), and a sample is placed on the upper surface of the bottom wall of the outside light shielding box 8.
  • a table 5 is installed, a light absorption plate 6 is laid on the upper surface of the sample installation table 5, and a sample holder 4 is arranged on the upper surface of the light absorption plate 6.
  • the surface of the light absorbing plate 6 is black with substantially no secondary reflection.
  • the sample holder 4 supports a measurement object (corresponding to an object) 2 having a pearl color, and the surface of the sample holder 4 is also black, which has substantially no secondary reflection, like the inner surface of the external light shielding box 8.
  • the sample mount 5 may be configured to move up and down so that the entire measurement object 2 can be captured by the image measurement device 1.
  • the image measuring device 1 is an RGB camera configured to be able to change the exposure (that is, the exposure time) by changing the shutter speed, and the measurement target 2 supported by the sample holder 4 is viewed from above along a substantially vertical direction. It arrange
  • the image measuring device 1 is connected to the image processing device 7 and configured to be able to transmit image data acquired by imaging to the image processing device 7.
  • White light source 3 is intended to emit white light, the photographing direction (i.e., vertical direction) obliquely from above at an angle of approximately 45 ° with respect to, for irradiating light onto the target object 2, which is supported by the sample holder 4
  • the photographing direction i.e., vertical direction
  • the irradiation angle may be variable.
  • the angle formed by the photographing direction and the light from the white light source 3 is preferably matched with the angle formed by the line of sight when the person observes the measurement object 2 and the light from the light source.
  • the measuring object 2 is a pearl P in this embodiment.
  • the image processing apparatus 7 is constituted by a general-purpose personal computer, a receiving means for receiving image data transmitted from the image measuring apparatus 1 (corresponding to the image data acquisition means for acquiring image data.), A plurality of images received Processing target region extraction for generating processing target region extraction information indicating whether each pixel value is within the processing target region by comparing each pixel value of image data having the maximum exposure among the data with a predetermined threshold value A wide DR image that generates wide DR image data (that is, image data of a wide luminance dynamic range having a wider luminance range than each image data before synthesis) by synthesizing a plurality of received image data with the information generation means Based on the data generation means, each pixel value in the wide DR image data and the processing target region extraction information, the processing value of the wide DR image data is determined as the gloss evaluation amount.
  • the evaluation value calculation means outputs the calculated distortion degree of the luminance value and variation degree of the color value to an output means (in this embodiment, a display apparatus) provided in the image processing apparatus 7.
  • the gloss and the color are digitized according to the flow shown in FIG. That is, first, the image of the pearl P is taken by the image measuring device 1 in the imaging unit 9 (step S101). Next, the image processing device 7 generates a processing target region extraction mask (corresponding to processing target region extraction information) based on image data received from the image measuring device 1 (hereinafter also simply referred to as “image”). (S102). Then, the image processing device 7 generates wide DR image data based on the received image data (S103), and uses the wide DR image data and the processing target region extraction mask as a gloss evaluation amount, as a processing target region.
  • a processing target region extraction mask corresponding to processing target region extraction information
  • the gloss numerical value processing for calculating the skewness of the luminance value in the image is performed (S104), and the color numerical value processing for calculating the variation degree of the color value in the processing target region is performed as the color evaluation amount (S105). .
  • the degree of variation is calculated based on the standard deviation, but of course, the degree of variation may be calculated based on other statistics such as variance.
  • the order of the processing target area extraction mask generation process (S102) and the wide-DR image generating process (S103) may be reversed, in order reverse digitizing process of gloss (S104) and color of the digitizing process (S105) Good.
  • the image capturing process (S101) is the image data acquisition step
  • the process target area extraction mask generation process (S102) is the process target area extraction information generation step
  • the wide DR image generation process (S103) is the wide DR image data generation step.
  • the gloss digitization process (S104) and the color digitization process (S105) correspond to the evaluation value calculation step, respectively.
  • the number of shots is variable depending on the dynamic range of the image measuring device 1 and the pearl P, and shooting is repeated while changing S.S. until there is no overexposure or underexposure.
  • the adjustment of the zoom of the image measuring apparatus 1, the change of S.S. and the photographing are performed manually, but of course, it may be configured to be performed automatically.
  • the image measuring device 1 has m pixels horizontally and n pixels vertically (m and n are positive integers).
  • the image L 0 (i, j) is simply abbreviated as image L 0
  • the image S 1 (i, j) described later is simply abbreviated as image S 1 ,.
  • the image measuring device 1 transmits the image L 0 to the image processing device 7, and the image processing device 7 performs an effective exposure area mask generation process for the image L 0 (S202).
  • the effective exposure area mask generation process will be described in detail.
  • the image obtained from the image measuring device 1 takes a range of DEV_MIN to DEV_MAX for each pixel.
  • DEV_MIN and DEV_MAX are both values determined from the performance of the image measurement apparatus 1, and DEV_MIN ⁇ DEV_MAX.
  • the image measuring apparatus 1 also determines an effective exposure area (effective exposure range; a pixel value range that is not “whiteout” or “blackout”), and this range is TH_MIN to TH_MAX.
  • Both TH_MIN and TH_MAX are values determined from the performance of the image measuring apparatus 1, and DEV_MIN ⁇ TH_MIN ⁇ TH_MAX ⁇ DEV_MAX.
  • the effective exposure area mask is effective exposure area extraction information for extracting a signal within the effective exposure area in the image, and the logical product of the effective exposure area mask of each signal component of the image Use an effective exposure area mask. That is, when all signal components are within the effective exposure area in each pixel, the pixel is assumed to be within the effective exposure area.
  • the pixel values output from each pixel (i, j) are R values (R signals), G values (G signals), and Since the B value (B signal) is included as a component, it is determined whether each of the R value, the G value, and the B value is in the effective exposure area.
  • an effective exposure area mask is generated for each component of the RGB signal, and the logical product of these effective exposure area masks is used as the effective exposure area mask of the image.
  • the SS is changed to tS 1 faster than tL 0 and the pearl P is imaged to obtain the image S 1 (i, j). (S206).
  • Shot image counter becomes counting the number of photographed image S 1 or later.
  • the image measuring device 1 transmits the image S 1 to the image processing device 7, and the image processing device 7 performs an effective exposure area mask generation process on the image S 1 in the same manner as in the case of the image L 0 (S207). Then, it is determined whether or not all the pixels of the image S 1 are within the effective exposure area (S 208).
  • the image of the pearl P is captured while gradually increasing the SS (that is, shortening the exposure time) until an image S k in which all pixels are within the effective exposure range is obtained, and the image S 1 (i, j) ,..., S N (i, j) are acquired and their effective exposure area masks are generated (S205 to 208).
  • all the pixels of the image SN are within the effective exposure area.
  • the image processing apparatus 7 In the processing target area extraction mask generation process (S102), the image processing apparatus 7 generates a processing target area extraction mask indicating whether each pixel value is within the processing target area.
  • the processing target region refers to a region to be processed in the image, that is, a region set as a pearl P, and is hereinafter also referred to as a pearl region.
  • the pearl region is substantially circular.
  • a processing target region extraction mask to be used is generated.
  • the loop of step S301 and S305 has shown repeating the process between it changing the value of i and j. The same applies to the following flowcharts.
  • the using image L 0 is the image L 0, S 1 obtained, ..., long the most exposure time in S N, since the signal (pixel value) is the largest image, part of the pearl P This is because there is little possibility of being treated as a background portion because the signal is small in spite of the corresponding pixel.
  • the image processing apparatus 7 first sets the pixel value W (i, j) to 0 (S602).
  • W (i, j) is set to S N (i, j) / tS N (S611).
  • E_S N (i, j) since 1 pixel does not exist is not satisfied
  • E_S N (i, j) satisfying 1 It is not judged whether or not.
  • the image processing apparatus 7 generates a wide DR image by preferentially adopting pixel values of an image having a pixel value within the effective exposure area and having a long SS (that is, a large exposure). .
  • the pixel values of an image in order to eliminate the influence of S.S. from the pixel value, by dividing the pixel value in S.S. in imaging of the image, the pixel values per unit time.
  • the black portion indicates that it is outside the effective exposure area.
  • a value obtained by dividing each pixel value (indicated by a white portion in the figure) within the effective exposure area by SS, L 0 (i, j) / tL 0 is the pixel value of the wide DR image (hereinafter referred to as “wide DR pixel value”).
  • wide DR pixel value the pixel value of the wide DR image
  • the effective exposure area is the portion indicated by the shaded portion in (b), but the white portion in (a) is given priority over the portion overlapping with the white portion in (a).
  • (B) of the shaded portion the value obtained by dividing each pixel value by SS and S 1 (i, j) / tS 1 as the wide DR pixel value for the portion not overlapping the white portion of (a).
  • S 2 (i, j) / tS 2 is set to a wide DR pixel value for a portion that does not overlap with the hatched portion of (b), and the image during the horizontal line portion of the show the effective exposure area of S 3 (d), the shaded area for non-overlapping portions and, S 3 (i, j) / tS 3 wide DR pixel value of (c).
  • a wide DR image is generated as shown in (e).
  • Each hatched portion and horizontal line portion shown in (e) has a narrower range than similar hatched portions and horizontal line portions shown in (b) to (d). This is because the pixel value with the larger exposure is preferentially adopted.
  • each pixel value W (i, j) is the R value, G value, and, because it has a B value, from these values, conforming to the standard 601-1 to CCIR (International Radio Consultative Committee) has recommended
  • the luminance value Y (i, j) is calculated using the following equation [Equation 1].
  • R, G, and B represent an R value, a G value, and a B value, respectively.
  • a skewness Sk which is a third-order statistic, is calculated (S706).
  • P is a vector (P (1), P (2),..., P (H)) made up of the processing target luminance values P (h), and ⁇ is P (1).
  • is the standard deviation of P (1), P (2),.
  • the image processing apparatus 7 uses the processing target region extraction mask to set pixel values (colors) of each pixel of the wide DR image.
  • the color value of the pixel in the processing target area is extracted from the value) (S801 to 804).
  • the processing target region extraction mask value TGT (i , J) is determined to be 1 (S802).
  • a standard deviation (Cv) that is a secondary statistic is calculated (S805).
  • Q is a vector (Q (1), Q (2),..., Q (L)) made up of the processing target color values Q (l), and ⁇ is Q (1). , Q (2),..., Q (L), and ⁇ is the standard deviation of Q (1), Q (2),.
  • the variation degree of the color value in this embodiment is obtained as follows (i) to (iii).
  • the image processing device 7 displays the degree of distortion of the luminance value and the degree of variation of the color value in the processing target area of the wide DR image calculated as described above on the display device. From the non-patent document 1, it is known that if the skewness of the luminance value is positive, the human will feel glossy, and the greater the skewness of the luminance value, the stronger the glossiness. Therefore, gloss can be evaluated from the skewness of the luminance value. Moreover, it can be said that the greater the degree of variation in the color value, the richer the interference colors, the better the pearl color. Therefore, the color can be evaluated from the variation degree of the color value.
  • Test Example 1 in which the evaluation of the first embodiment was performed will be described.
  • an RGB camera here, YWD001 made by Hyundai
  • pearl P is used as the measuring object 2
  • artificial sunlamps simulating the characteristics of sunlight as the white light source 3.
  • the sample holder 4 used was a glossy black plate
  • the sample setting table 5 was a desk
  • the light absorbing plate 6 was a dark screen
  • the image processing device 7 was an evaluation device 10 equipped with a general-purpose personal computer.
  • a dark room was used as the external light shielding box 8
  • the image processing apparatus 7 was installed in the external light shielding box 8.
  • the area of 30 ⁇ 30 pixels in the upper left is the area that is almost black in the wide DR image of each pearl P, that is, the area that is definitely the background.
  • TH_TGT 15 may be set to a fixed value. Further, TH_TGT may be determined by selecting a threshold for Otsu, which will be described later.
  • a threshold for Otsu As the measurement object 2, pearls P classified into three stages A to C by visual evaluation by experts were used. There are 15 A ranks, 18 B ranks, and 17 C ranks. The number of shots for wide DR (wide brightness dynamic range) was four for each pearl P, and images L 0 , S 1 , S 2 and S 3 were obtained for each pearl P. TL 0 , tS 1 , tS 2 , tS 3 are as shown in Table 4.
  • the image processing device 7 uses the image L 0 of each pearl P acquired from the image measurement device 1 to generate a processing target extraction mask for each pearl P. Further, each pearl P, generates an effective exposure area mask for each image L 0, S 1, S 2 , S 3, with their effective exposure area mask image L 0, S 1, S 2 , S A wide DR image was generated from 3 . And about each pearl P, the skewness of the luminance value and the variation degree of the color value were calculated from the wide DR image. Table 1 shows the calculated skewness of the luminance value and the variation degree of the color value of each pearl P. In Table 1, the symbols A-1, A-2,... Indicate the rank given to each pearl P and the number within the rank. The upper “gloss” is the luminance value skewness, and the lower “color diversity” is the color value variation.
  • Table 2 averages the gloss and color diversity of each pearl P shown in Table 1 for each rank.
  • FIG. 13 illustrates the gloss and color diversity of each pearl P shown in Table 1 with gloss on the horizontal axis and color diversity on the vertical axis, and the average for each rank shown in Table 2. Is.
  • FIG. 14 shows whether or not there is a statistically significant difference in the numerical value of each rank. Is a result of testing by a significant difference test by analysis of variance (p ⁇ 0.05).
  • the upper right shows the test results for gloss and the lower left shows the color diversity
  • indicates a significant difference
  • X indicates no significant difference.
  • FIG. 14 there is a significant difference between any ranks for gloss, but for color diversity, there is a significant difference between A rank and B rank, and between A rank and C rank. Although there is, there is no significant difference between B rank and C rank.
  • a processing target region extraction mask indicating a comparison result between each pixel value of the image L 0 and the threshold value TH_TGT is generated, and a pixel determined to be within the processing target region using the processing target region extraction mask Since only the value is extracted and the evaluation amount is calculated based on the extracted pixel value, even when the background portion is included in the image data, the portion other than the background (that is, the object corresponds to the object). Part) can be extracted as a processing target area, the influence of the background part can be removed, and correct evaluation can be performed.
  • a wide DR image is generated by combining a plurality of images having different exposures, and the distortion of the luminance value and the degree of variation of the color value are calculated from the wide DR image to obtain the glossiness. Since the color is evaluated, it is possible to prevent information loss due to overexposure or underexposure due to restrictions of the imaging apparatus. Therefore, the distortion degree of the luminance value and the degree of variation of the color value can be calculated more accurately than when the wide DR image is not used, and the pearl luster and color can be more correctly evaluated.
  • the first embodiment when a wide DR image is generated, a pixel value that is in the effective exposure range and has a larger exposure is preferentially used. Since the image data with a large exposure has a larger signal and captures the color of the object more accurately than the image data with a small exposure, according to the first embodiment, compared to the case where such a wide DR image is not used. In addition, it is possible to accurately calculate the skewness of the luminance value and the variation degree of the color value.
  • the cost can be reduced.
  • the evaluation apparatus 10B according to the second embodiment has the same configuration as that of the first embodiment shown in FIG. 1 except that the image measurement apparatus 1B is not a RGB camera but a spectral image measurement apparatus also called a multispectral camera. have.
  • the spectral image measurement device is a digital imaging device that can capture the intensity of light for each wavelength.
  • FIG. 15 is an image of an image acquired by the spectral image measurement device, but an image for each wavelength ⁇ (hereinafter referred to as “spectral image”) (x, y) is obtained by one shooting, and a plurality of these images are obtained.
  • spectral image an image for each wavelength ⁇
  • One image is formed with the spectral image (x, y). For example, if light in the wavelength range of 420 nm to 720 nm, which is visible light, is measured in increments of 10 nm, 31 spectral images can be obtained.
  • the spectral image measurement apparatus requires (1) a process for obtaining a spectral reflectance from a spectral image, and (2) a process for obtaining a color value under a certain light source by calculation.
  • the spectral reflectance is obtained by dividing the spectral reflectance by an image obtained by measuring a standard white plate that reflects substantially all of the light. Further, the wide DR processing is performed at the spectral reflectance level.
  • the image photographing process (S101) corresponding to the image data acquisition step
  • the processing target area extraction information Processing target region extraction mask generation processing corresponding to the generation step (S102), wide DR image generation processing corresponding to the wide DR image data generation step (S103), and gloss digitization processing corresponding to the evaluation value calculation step (S104)
  • color digitization processing S105
  • the process (1) is included in the image photographing process (S101)
  • the process (2) is included in the wide DR image generation process.
  • the image measuring apparatus 1B m pixels in the horizontal, vertically n pixels (m, n is a positive integer) has a wavelength lambda 1 is set at equal intervals in the range of visible light, lambda 2, ..., lambda K
  • tL 0 is set to a slow shutter speed so that there is no blackened portion (underexposed portion) when the pearl P is photographed.
  • the number of shots is 2 for each of the standard white plate and the pearl P.
  • the number of shots can be changed according to the performance of the image measuring apparatus 1.
  • the number of shots is the same for the standard white plate and the pearl P.
  • the photographing order of the standard white plate and the pearl P is arbitrary.
  • the images wL 0 , pL 0 , wS 1 , and pS 1 acquired by the image measurement device 1B are transmitted to the image processing device 7B.
  • a spectral reflectance image rS 1 is referred to as a spectral reflectance image rS 1 .
  • the image processing device 7B performs wide DR image generation (S1101) and then performs color value conversion (S1102). .
  • the spectral reflectance images rL 0 , rS 1 are composed of reflectance images of wavelengths ⁇ 1 , ⁇ 2 ,..., ⁇ K , respectively. , Respectively, obtain effective exposure area masks and perform a logical product of them. The acquisition of an effective exposure area mask will be described with reference to FIG. 19.
  • an effective exposure area mask at that wavelength is acquired.
  • Such an effective exposure area mask is obtained for each of the wavelengths ⁇ 1 , ⁇ 2 ,..., ⁇ K , and the logical product of the effective exposure area masks for each wavelength is obtained as the spectral reflectance image.
  • Use an effective exposure area mask is
  • the image processing apparatus 7B using the spectral reflectance image rL 0, rS 1, and an effective exposure region mask generated for each of the spectral reflectance image rL 0, rS 1 as described above, the first embodiment Similar to the embodiment, the pixel value of the image that is in the effective exposure area and has a long SS is preferentially adopted (that is, in the present embodiment, the pixel value of the spectral reflectance image rL 0 is spectrally divided). A wide DR image is generated by preferentially adopting the pixel value of the reflectance image rS 1 . When a pixel value of an image is adopted, the pixel value per unit time is obtained by dividing the pixel value by SS at the time of capturing the image.
  • the wide DR image generated at this time is a spectral reflectance image that has been widened, it is hereinafter referred to as a wide DR spectral reflectance image.
  • the image processing device 7B performs color value conversion (S1102). Specifically, the image processing device 7B first illuminates with the assumed light source using the spectral distribution characteristic E ( ⁇ k ) of the light source assumed to calculate the color value and the wide DR spectral reflectance image.
  • rW ( ⁇ k ) rW (i, j, ⁇ k )
  • the reflection spectrum S ( ⁇ k ) is obtained for each pixel (i, j).
  • FIG. 20 shows the spectral distribution characteristics of the C light source.
  • the reflection spectrum S ( ⁇ k ) of each pixel (i, j) of the wide DR image is recommended by the CIE (International Commission on Illumination) using the following equation [Formula 6]. Convert to tristimulus values (X, Y, Z) of CIE1931 color system.
  • x ( ⁇ k ), y ( ⁇ k ), and z ( ⁇ k ) are values of CIE1931 color matching functions as shown in FIG. 21 and are known in advance. That is, according to [Equation 6], the tristimulus values (X, Y, Z) can be obtained for each pixel (i, j) of the wide DR image.
  • the image processing device 7B calculates the tristimulus values (X, Y, Z) of each pixel (i, j) of the wide DR image, the luminance value Y ′ and the color value ( x, y).
  • Y ′ obtained by [Equation 7] is used as the luminance value, but Y obtained by [Equation 6] may be used.
  • the image processing device 7B recommends the CIE 1931 colorimetric tristimulus values (X, Y, Z) or color values (x, y) for each pixel (i, j) of the wide DR image by the CIE.
  • the color value (u ′, v ′) of the CIE1976 color system is calculated.
  • the CIE1976 color system calculates the color value of the CIE1976 color system. This is because the color space is also called a uniform color space corresponding to the color difference (color difference) to be felt. Therefore, in the color digitization process described later, the color value (u ′, v ′) of the CIE1976 color system is used. If this point is not taken into consideration, the color value (x, y) of the CIE 1931 color system is used. May be used.
  • the luminance value skewness is calculated as the gloss evaluation amount using the luminance value Y ′ of the CIE1931 color system calculated in the color value conversion processing (S1102). To do.
  • the luminance value Y ′ (i, j) of the pixel is adopted as the processing target luminance value P (h), and is not adopted unless it is 1. Note that the calculation of the luminance value performed in step S701 of the first embodiment has already been performed in step S1102, and is not performed here.
  • the color value (u ′, v ′) of the CIE1976 color system calculated in the color conversion processing (S1102) is used as the color evaluation amount.
  • the degree of variation is calculated.
  • each color value Q (l) has a u ′ value and a v ′ value
  • the degree of variation of the color value in this embodiment is obtained as follows (i) to (iii).
  • the image processing device 7B displays the degree of distortion of the luminance value and the degree of variation of the color value in the processing target area of the wide DR image calculated as described above on the display device.
  • Test Example 2 in which the evaluation of the second embodiment was performed will be described below.
  • an evaluation apparatus 10B configured as shown in FIG.
  • a spectroscopic image measuring device here, Nuance VI-3042 manufactured by Cambridge Research & Inc., Inc.
  • the pearl P is measured as the measuring object 2.
  • the C light source is used as the assumed light source.
  • As the measurement object 2 a total of six pearls P were used, each having two ranks classified into three stages A to C as in the first embodiment by visual evaluation of experts.
  • SS is different for each wavelength as shown in Table 5.
  • the function of changing the SS for each wavelength is a function that the image measuring apparatus 1 has in order to improve the S / N ratio over the entire wavelength range.
  • the image measuring device 1 determines tL 0 so that the standard white plate is not saturated and tS 1 does not saturate the highlight portion of the pearl P.
  • the image processing device 7B generates a processing target extraction mask for each pearl P using the spectral reflectance image L 0 of each pearl P acquired from the image measurement device 1B. Further, each pearl P, respectively to produce an effective exposure region mask for the image L 0, S 1, with their effective exposure region mask to produce a wide-DR spectral reflectance image from the image L 0, S 1. And about each pearl P, color value conversion is performed with respect to a wide DR spectral reflectance image, a wide DR image is produced
  • Table 3 shows the skewness of the brightness value and the variation degree of the color value of each pearl P calculated.
  • the symbols A-1, A-2,... Indicate the rank given to each pearl P and the number within the rank.
  • the upper “gloss” is the luminance value skewness
  • the lower “color diversity” is the color value variation.
  • FIG. 22 shows the gloss and color diversity of each pearl P shown in Table 3 with gloss on the horizontal axis and color diversity on the vertical axis. As can be seen from Table 3 and FIG. 22, the evaluation amounts are higher in the order of C rank, B rank, and A rank for both gloss and color diversity, and are consistent with the evaluation by experts.
  • a spectral image measurement device is used as the image measurement device 1, luminance values and color values in a color space that does not depend on the device can be acquired, and the pearl P is correctly evaluated. Is possible.
  • a third embodiment of the present invention will be described with reference to the drawings.
  • C is given to the reference numerals of the components of the evaluation device 10 of the first embodiment, and the description thereof is omitted as appropriate. To do.
  • the evaluation apparatus 10C includes an imaging unit 9C and an image processing apparatus (corresponding to an image processing unit) 7C connected to the imaging unit 9C.
  • the unit 9C includes an external light shielding box 8C, an image measuring device (corresponding to a digital imaging device) 1C, a white light source 3C, a sample holder (corresponding to a support unit) 4C, and a narrow-band light source 11. ing.
  • the white light source 3C and the sample holder 4C are disposed inside the external light shielding box 8C.
  • the white light source 3 ⁇ / b> C has the same configuration as the white light source 3, and the external light shielding box 8 ⁇ / b> C has the same configuration as the external light shielding box 8.
  • the measurement object 2 is a pearl P.
  • the image measuring device 1C is connected to the image processing device 7C.
  • the image processing device 7C is a general-purpose personal computer similar to the image processing device 7. Like the image processing device 7, the image processing device 7C is an image data acquisition unit, a processing target region extraction information generation unit, a wide DR image data generation unit, and an evaluation unit. A value calculating unit, but the evaluation value calculating unit does not calculate the degree of variation of the color value.
  • the image data acquisition unit also acquires transmission image data for each sorting light by reception. Further, the image processing device 7C normalizes the pixel value of the pearl region of the transmission image data with respect to each sorting light and generates normalized image data with respect to each sorting light, and a normalization with respect to each sorting light.
  • a color image is generated based on interference color determination image generation means for generating interference color determination image data representing a difference from the average image data, and interference color determination image data for each sorting light.
  • Interference color visualization means, and interference color digitization means for calculating a contrast value representing the contrast between the central portion and the peripheral portion in the interference color determination image data for each selected light.
  • the transmission image data refers to image data obtained by transmitting light from one surface side of the measurement object 2 and imaging the other surface side of the measurement object 2. The light at this time is prevented from leaking directly to the other surface side of the measurement object 2 without passing through the measurement object 2.
  • Normalized image data refers to image data obtained by normalizing a processing target area in transparent image data.
  • the narrow-band light source 11 is a multi-wavelength variable light source (in this embodiment, ELS-VIS manufactured by Nikon), and changes the center wavelength at intervals of 10 nm within a wavelength range of 420 to 720 nm and narrow-band light having a bandwidth of about 20 nm. Can emit light. In addition, as will be described later, light having central wavelengths of 520 nm, 580 nm, and 650 nm is selected light.
  • the sample holder 4 ⁇ / b> C is provided with a circular hole 41 penetrating in the vertical direction, and the pearl P is supported by the upper end edge of the hole 41.
  • FIG. 23B is a plan view of the sample holder 4C.
  • the diameter of the hole 41 is smaller than the diameter of the pearl P, and the light from the narrow-band light source 11 directly supports the pearl P (that is, without passing through the pearl P).
  • the diameter is such that it does not leak to the upper surface side.
  • the diameter of the pearl P is about 7 mm, and the diameter of the hole 41 is 5.5 mm.
  • the image measuring device 1C is a monochrome camera (in this embodiment, ORCA-ER-1394 manufactured by Hamamatsu Photonics), and a lens storage portion is arranged inside the external light shielding box 8C and is a pearl supported in the hole 41.
  • An image of P is taken from above along a substantially vertical direction. That is, the image measuring device 1C is arranged so as to face the narrow band light source 11, and other than the pearl P on the opposite side to the one surface side (the lower surface side in the present embodiment) illuminated by the narrow band light source 11.
  • the surface side (upper surface side in this embodiment) is imaged.
  • the white light source 3C illuminates the pearl P obliquely from above (desirably, a direction inclined about 30 to 45 ° with respect to the direction directly above the pearl P). Therefore, when the image measuring device 1C captures the reflected light reflected by the pearl P when capturing the pearl P illuminated by the white light source 3C, the image measuring device 1C captures the reflected pearl P illuminated by the narrow-band light source 11. Will capture the transmitted light that has passed through the pearl P.
  • a pearl sample whose rank is known is supported by the sample holder 4C as described above and illuminated from below with the narrow-band light source 11, and the wavelength of light emitted from the narrow-band light source 11 (center wavelength)
  • the image measuring device 1C picks up an image while changing the above. That is, each pearl sample is imaged with light of wavelengths ⁇ 1 , ⁇ 2 ,..., ⁇ N to obtain N images (corresponding to transmission image data) (step S1301 in FIG. 24). These images are input to the image processing device 7C.
  • the number of pearl samples was about 7 mm in diameter, and 10 pearl samples were used for each of A rank, B rank, and C rank.
  • the image processing device 7C generates a background mask for extracting a pearl region (S1302 in FIG. 24). Specifically, first, a pearl region and a background for a single image in which a pearl selected from the N images and a background are clearly divided, or for an image obtained by averaging the N images. Select a threshold for separating. The threshold selection uses Otsu's threshold selection. The threshold selection for Otsu is described in the following reference (1) and is not described in detail because it is well known.
  • the pixel value groups are classified into two groups of (i, j) ⁇ I TH and I TH ⁇ I (i, j) ⁇ I MAX , and the variation in pixel values between groups is more than the variation in pixel values within each group.
  • the maximum threshold value I TH is obtained.
  • the image processing apparatus 7C performs signal normalization on the N images in order to reduce artifacts such as camera sensitivity and light source intensity (S1303 in FIG. 24). This will be described in detail with reference to FIG.
  • an average pixel value P (k) for each wavelength is calculated based on the image I (i, j, k).
  • the wavelength k is fixed, the average pixel value P (k) and the number of additions C are set to 0 (S1501), and the image I (i, j, k) is determined by the background mask M (i, j).
  • the pixel value in the pearl region is extracted and added to P (k), and the number of additions is counted (see “Loop 2” in FIG. 26).
  • the average pixel value P (k) is generated for the wavelength k by dividing the P (k) by the number of additions (S1504). . This is repeated for all wavelengths k, and an average pixel value P (k) is obtained for each wavelength k.
  • the normalized image is obtained by dividing each pixel value in the pearl region of the image I (i, j, k) by the average pixel value P (k).
  • In (i, j, k) is generated (S1505, S1506).
  • the pixel value outside the pearl area is set to 0 (S1507).
  • the image processing device 7C extracts spatial signal change by interference color based on each normalized image In (i, j, k) (S1304 in FIG. 24). ). This will be described in detail with reference to FIG.
  • the image processing device 7C sums up the pixel values in the wavelength direction for each pixel of each normalized image In (i, j, k) (see “Loop 2” in FIG. 27), and adds the sum by the number of additions C. By dividing, the average pixel value S (i, j) is generated. This is repeated for all pixels (i, j) to generate an average image (corresponding to average image data) S (i, j) (see “Loop 1” in FIG. 27).
  • the average image S (i, j) is subtracted from the normalized image In (i, j, k) to remove the average image intensity change (corresponding to image data for interference color determination) Inn. (I, j, k) is generated (see “Loop 3” in FIG. 27).
  • the image Inn (i, j, k) reflects the difference from the average image S (i, j), that is, the deviation from the average intensity change pattern, and the deviation is a pattern in the two-dimensional space. It can also be visualized as a spatial pattern visualization image.
  • 28 (a) is a background masked camera image of an A-rank pearl sample
  • (b) is a spatial pattern visualization image of the pearl sample
  • (c) is a B-rank pearl sample
  • (d) is C Rank pearl sample
  • (f) is a space pattern visualization image of a ball bearing.
  • the images are obtained when light of wavelengths 520, 580, and 650 nm is transmitted sequentially from the top.
  • 28 (b) to (d) when the wavelength is 520 nm, the peripheral portion is dark and the central portion is bright in the A rank, but the peripheral portion is bright and the central portion is dark in the B and C ranks. It can be seen that the pattern varies depending on the rank.
  • imitation pearls and ball bearings do not have a pattern in which brightness and darkness are separated between the peripheral part and the central part like real pearls. Therefore, it is understood that pearls can be ranked according to the spatial pattern visualized image by selecting a wavelength at which the pattern difference is often generated according to the rank.
  • the contrast value representing the contrast between the central part and the peripheral part of the pearl is calculated from the spatial pattern visualized image as follows. To do.
  • the image processing device 7C calculates a contrast value based on the image Inn (i, j, k) (S1305 in FIG. 24). This will be described in detail with reference to FIG. In FIG. 29, C (k) is the central contrast variable, S (k) is the peripheral contrast variable, CSC (k) is the contrast value, CNT is the counter, and FC (i, j) is the central part of the pearl region from the peripheral part. FS (i, j) is a weighting coefficient set so that the peripheral part of the pearl region is heavier than the central part. A method for determining these weighting coefficients will be described later.
  • the image processing device 7C performs the processing shown in “Loop 1” in FIG. 29 for the image Inn (i, j, k) for each wavelength k. That is, first, C (k), S (k), CSC (k), and CNT are set to 0 (S1701), and a weight is applied to each pixel value in the pearl area of the image Inn (i, j, k). The weighting coefficient FC (i, j) is multiplied and added to C (k), and the weighting coefficient FS (i, j) is multiplied and added to S (k), and the number of additions is counted by CNT ( (See “Loop 2” in FIG. 29).
  • CSC (k) is obtained by subtracting S (k) from C (k) by CNT.
  • Ask for. CSC (k) is a value representing the contrast between the central portion and the peripheral portion in the pearl region of the spatial pattern visualized image Inn (i, j, k) with the wavelength k. If CSC (k) is positive, the central portion is If it is brighter than the peripheral part and negative, the peripheral part is brighter than the central part, and the larger the absolute value of CSC (k), the stronger the contrast between the central part and the peripheral part.
  • the image processing device 7C detects the position and size of the pearl region according to the flowchart shown in FIG.
  • x is the coordinate of the right end of the entire image
  • y is the coordinate of the lower end of the entire image
  • x1, y1, x2, and y2 are variables for obtaining the coordinates of the left end, upper end, right end, and lower end of the pearl region, respectively.
  • Xc is the center coordinate in the left-right direction of the pearl region
  • yc is the center coordinate in the vertical direction of the pearl region
  • c is the diameter of the pearl region.
  • the image processing apparatus 7C calculates a weighting coefficient according to the flowchart shown in FIG.
  • sc is a sum of weights when the center part has a large weight
  • ss is a sum of weights when the periphery part is a large weight
  • fc (i, j) is a weight coefficient matrix when the center part is a large weight.
  • Fs (i, j) is a weighting coefficient matrix when the peripheral part has a large weight
  • the variance-covariance matrix S is a matrix represented by the following formula [Equation 10].
  • C in [Equation 10] is the diameter of the pearl region.
  • FIG. 32 shows a schematic diagram of the determined weighting coefficients.
  • FIG. 32A shows a case where the central portion has a large weight
  • FIG. 32B shows a case where the peripheral portion has a large weight.
  • FIG. 33 shows the calculated contrast value with the horizontal axis as the wavelength of the narrow-band light source 11 and the vertical axis as the contrast value, where (a) is an A-rank pearl, (b) is a B-rank pearl, (C) is a C-rank pearl, (d) is an imitation pearl, (e) is the contrast value of the ball bearing, and in (a) to (e), the thin line indicates the contrast value of each sample, and an error bar The thick line with a mark shows an average. (F) is an average of (a) to (e).
  • the wavelength at which the average contrast value increases differs depending on the rank of the pearl sample. Therefore, for each rank, the pearls can be ranked if the wavelength at which the average contrast value protrudes higher (or lower) than the other ranks is the wavelength of the selection light.
  • 520 nm for the A rank, 580 nm for the B rank, and 650 nm for the C rank are selected as the wavelengths having higher average contrast values than the other ranks, and are used as the wavelengths of the selection light.
  • the thick vertical lines in FIGS. 33A to 33F indicate these selected wavelengths.
  • the evaluation device 10C When the gloss of the pearl P is evaluated using the evaluation device 10C, a plurality of different exposures are obtained by illuminating with the white light source 3C and imaging the pearl P a plurality of times while changing the exposure as in the first embodiment. Get one image. Then, a wide DR image is generated from these images, and the skewness of luminance in the pearl region is obtained from the wide DR image, and the higher the skewness is, the better the gloss is. Since the image measuring device 1C is a monochrome camera, the pixel value output from the image measuring device 1C has a linear relationship with the luminance value and can be used as the luminance value as it is. That is, in the third embodiment, it is not necessary to calculate the luminance value from the RGB values as in the first embodiment.
  • step S1801 is a transmission image data acquisition step
  • steps S1802 and S1803 are a normalized image data generation step
  • step S1804 is an interference color determination image generation step
  • step S1805 is an interference color visualization step
  • the pearl P is supported on the sample holder 4C as described above, and the narrowband light source 11 irradiates the selection light with wavelengths (center wavelengths) of 520 nm, 580 nm, and 650 nm, and the image measurement apparatus 1C. (Step S1801 in FIG. 34). That is, three images per pearl P are obtained and input to the image processing device 7C.
  • the image processing device 7C generates a background mask for extracting a pearl region (S1802 in FIG. 34).
  • a threshold I TH for separating the pearl region and the background is selected by threshold selection of Otsu, and the background mask M ( i, j) is generated.
  • the image processing device 7C extracts spatial signal change by the interference color based on each normalized image In (i, j, k) as shown in FIG.
  • the spatial pattern visualized image Inn (i, j, k) is generated (S1804 in FIG. 34).
  • the rank of the pearl P can be determined.
  • the interference color is visualized or digitized based on the spatial pattern visualized image as described below.
  • FIG. 35 is a plot of the contrast value for each sampled light of each sample in wavelength selection, (a) for 520 nm and 580 nm, (b) for 580 nm and 650 nm, and (c) for 650 nm and 520 nm. It is.
  • black circles are A rank pearls
  • black squares are B rank pearls
  • black rhombuses are C rank pearls
  • black upward triangles are imitation pearls
  • black downward triangles are ball bearings
  • numbers in each figure are This is the number assigned to the sample.
  • 35 (c) shows that there is a strong correlation between the contrast values for wavelengths 520 nm and 650 nm. Therefore, either one of these two sorting lights can be reduced.
  • 650 nm is reduced, and RGB values are determined as follows using a spatial pattern visualization image with two wavelengths of 520 nm and 580 nm. Visualization is performed.
  • the image processing device 7C sets the pixel value Inn (i, j, 1) or Inn (i, j, 2) for each pixel (i, j) in the pearl region to -TH to + TH (TH; maximum after normalization).
  • the image processing device 7C first determines a normalization coefficient MX (S1901).
  • the pixel value Inn (i, j, 2) having a wavelength of 580 nm multiplied by the normalization coefficient MX is added to 0.5 and the R value ( RGB (i, j, 1)), and a pixel value Inn (i, j, 1) having a wavelength of 520 nm multiplied by a normalization coefficient MX is added to 0.5 to obtain a G value (RGB (i, j, 2)) ),
  • the pixel value Inn (i, j, 2) having a wavelength of 580 nm multiplied by the normalization coefficient MX is added to 0.5 to obtain a B value (RGB (i, j, 3)) (S1903).
  • the image processing apparatus 7C performs color gamut determination (S1904).
  • the color gamut determination it is determined whether the R value, the G value, and the B value calculated in step S1902 are 0.0 or more and 1.0 or less, respectively, 0.0 if it is less than 0.0, and 1.0 if it exceeds 1.0. . That is, the RGB values are each in the range of 0.0 to 1.0.
  • the maximum value TH after normalization is greater than 0.5, pixels having a certain contrast value or more are highlighted with the maximum intensity value. If the maximum value TH after normalization is 0.5 or less, the RGB value does not exceed the range of 0.0 to 1.0, so that the color gamut determination is unnecessary. In this embodiment, the maximum value TH after normalization is set to 0.5, and the color gamut determination is unnecessary.
  • the image processing device 7C sets all the RGB values to 0.0 (S1905).
  • the image processing device 7C extracts the maximum pixel value from each pixel value Inn (i, j, k) from the spatial pattern visualized image for wavelengths 520 nm and 580 nm (see “Loop 1” in FIG. 37). ). Then, a value obtained by dividing the normalized maximum value TH by the maximum pixel value is set as a normalization coefficient MX (S2006). Thus, if the normalization coefficient MX is determined for each pearl P, the visualization image intensity can be adjusted for each pearl P.
  • the image processing device 7C sets the preset normalization coefficient CMX as the normalization coefficient MX (S2007).
  • FIG. 38 A color image generated by the visualization processing of FIG. 36 from the space pattern visualization images of ranks A to C shown in FIG. 28, imitation pearls, and ball bearings is shown in FIG. 38 in black and white.
  • images of A-rank pearls, B-rank pearls, C-rank pearls, imitation pearls, and ball bearings are shown in order from the top, and a spatial pattern visualization image with a wavelength of 520 nm and a space with a wavelength of 580 are sequentially shown from the left.
  • a pattern visualized image and a black and white image representing a color image generated therefrom in black and white are shown. In these black-and-white images, the dark part is a magenta part in the color image, and the light part is the green part in the color image. From FIG.
  • magenta appears in the center.
  • FIG. 39 shows in black and white the color image generated by the above visualization process for each sample used for wavelength selection.
  • the background is white.
  • many of the A-ranked pearl color images have a pattern in which magenta appears in the center and green in the center, and many of the C-ranked pearl color images have green in the center. It can be seen that both patterns are mixed in the color image of the B-rank pearl. Therefore, it can be seen that if the color image is generated as described above from the spatial pattern visualized image by the selection light having the wavelengths of 520 nm and 580 nm, the rank of the pearl P can be discriminated by the color pattern in the color image.
  • the image processing device 7C calculates the contrast value (S1806), and digitizes the interference color (S1807). Details will be described below. First, the image processing device 7C calculates the contrast value as shown in FIG. 29 based on the spatial pattern visualized image Inn (i, j, k) of the pearl P, as in the case of wavelength selection. As described above, since there is a strong correlation between the contrast values obtained by the 520 nm and 650 nm selection light, the 520 nm and 580 nm selection light is not used in the digitization process. Calculate the contrast value by.
  • FIG. 40 shows an XY plane in which the contrast value of each sample used for wavelength selection is set such that the horizontal axis (X axis) is a contrast value for 520 nm sorting light and the vertical axis (Y axis) is a contrast value for 580 nm sorting light.
  • (A) is a pearl sample of rank A
  • (b) is a pearl sample of rank B
  • (c) is a pearl sample of rank C
  • (d) is an imitation pearl
  • (e) is a ball.
  • Bearing, (f) shows all samples.
  • the figure in a figure is defined similarly to FIG.
  • a plurality of narrow-band selection lights each having a wavelength at which the intensity (contrast) is generated in interference when transmitted through the pearl is a pearl P make it transparent. Since the color is evaluated based on the spatial pattern visualization image representing the deviation from the average intensity change pattern in the image capturing the transmitted light, whether the intensity change is large, that is, there are many interference colors Whether or not the pearl P can be evaluated correctly.
  • the third embodiment for a plurality of pearl samples whose ranks are known, a plurality of narrowband lights each having a different center wavelength are transmitted, a spatial pattern visualized image is generated, a contrast value is calculated, For the rank, narrowband light whose average contrast value is prominently higher or lower than the other ranks is selected, and the center wavelength is set as the center wavelength of the sorting light. That is, for each pearl rank, the wavelength at which the intensity of interference is most prominent is selected to be the center wavelength of the sorting light. Specifically, the sorting light is centered in the spatial pattern visualization image according to the rank. The light has a wavelength such that the contrast state between the light source and the peripheral part is greatly different. Therefore, if a spatial pattern visualized image is generated by transmitting each sorting light to the pearl P, the rank of the pearl P can be determined based on the strength of the interference, specifically, the contrast state between the central portion and the peripheral portion. .
  • the color image in which the expression of the interference color is visualized is generated based on the image data for interference color determination, it is easy to visually understand the expression state of the interference color.
  • the expression state of the interference color can be quantified, so that the color of the pearl P can be easily evaluated.
  • the grade of the measurement object 2 is determined according to a predetermined rule, and the grade is displayed. You may make it do.
  • the image measuring devices 1, 1B, 1C may not be connected to the image processing devices 7, 7B, 7C.
  • the image data is recorded on a detachable recording medium in the image measuring apparatuses 1, 1B, 1C, and the image processing apparatuses 7, 7B, 7C read the recording medium (corresponding to image data acquisition means).
  • the image processing devices 7, 7B, and 7C may read the image data from the recording medium.
  • the inner surfaces of the sample holders 4, 4B, 4C, 4C ′, the light absorbing plates 6, 6B, and the external light shielding boxes 8, 8B, 8C may be gray with substantially no secondary reflection.
  • the background color may be any color as long as the output signal is small enough to be separated from the measurement object 2 with a certain threshold. Although it is desirable that there is no secondary reflection at all, secondary reflection that does not affect the evaluation accuracy of the evaluation devices 10, 10B, and 10C is allowed.
  • the image processing apparatuses 7, 7B, and 7C may be dedicated devices instead of general-purpose personal computers.
  • the exposure may be changed by other methods such as changing the aperture (F value).
  • the center wavelength of the sorting light can be arbitrarily selected from the ranges of 510 to 530 nm, 570 to 590 nm, and 640 to 660 nm. This is because within these ranges, the contrast value varies depending on the rank (see FIG. 33).
  • the bandwidth of the selection light depends on the performance of the narrow-band light source 11, and of course is not limited to the above bandwidth. Furthermore, it is possible to increase or decrease the number of sorting lights depending on the number of ranks.
  • the narrow band light source 11 may be a light emitting diode or a laser diode.
  • FIG. 41A is a plan view of the sample holder 4C ′ in a state where a plurality of pearls P are placed
  • FIG. 41B is a longitudinal sectional view thereof.
  • the sample holder 4C ′ is provided with a plurality of holes 41 ′ similar to the holes 41.
  • Each hole 41 ′ supports a pearl P, and light from the narrow-band light source 11 is transmitted to the holes 41 ′ from below.
  • a plurality of pearls P can be measured simultaneously.
  • the narrow band light source 11 is replaced with a white light source, and the pearl P (a pearl sample in the case of wavelength selection) is imaged to obtain a white light image. Then, the total pixel value of the pearl region of the white light image is obtained, and the sum is divided by the number of pixels of the pearl region of the white light image to obtain the average pixel value of the pearl region of the white light image. Then, the white light image is normalized by dividing each pixel value of the pearl region of the white light image by the obtained average pixel value to obtain an average image. Note that pixel values other than the pearl region in the average image are set to 0.
  • FIG. 42A shows the above (I)
  • FIG. 42B shows the above (II)
  • FIG. 42C shows the contrast value rank for each selection light when a white light image using pseudo white light is an average image. Average.
  • the figure in a figure is defined similarly to FIG. From this figure, it can be seen that the white light image may be used as the average image.
  • the sorting light of 650 nm is not necessary when generating the spatial pattern visualized image, so that the sorting light may be two of 520 nm and 580 nm. Become. Thus, the number of ranks does not necessarily match the number of sorting lights.
  • the interference color visualization process is performed using two wavelengths of 520 nm and 580 nm.
  • the interference color visualization process may be performed using three wavelengths of 520 nm, 580 nm, and 650 nm. Good.
  • the pixel value Inn (i, j, 2) having the wavelength of 580 nm multiplied by the normalization coefficient MX is added to 0.5 to obtain the R value, and the pixel having the wavelength of 520 nm.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

 パール色を有する対象物について正しい評価を行うことが可能な、パール色を有する対象物の評価方法を提供する。 白色光源3で照明された計測対象2を画像計測装置1で露出を変えて複数回撮像することにより、露出が異なる複数の画像データを取得する画像データ取得ステップと、取得した複数の画像データを合成することにより、広輝度ダイナミックレンジの画像データ(以下、「広DR画像データ」という。)を生成する広DR画像データ生成ステップと、広DR画像データ内の各画素値に基づいて、広DR画像データの処理対象領域における輝度値の歪度を算出する評価値算出ステップと、を有し、輝度値の歪度に基づいて光沢を評価する評価方法。

Description

パール色を有する対象物の評価方法及び評価装置
 本発明は、真珠や、パール色塗料(例えば、パールマイカ含有塗料)を塗装した被塗装物等、パール色を有する対象物の評価方法及び評価装置に関する。
 真珠層は薄い半透明の結晶層が重なって構成されており、上の結晶層を透過した光は、下の結晶層で一部が反射し、残りの光は透過してさらに下の結晶層に至るということが繰り返されるため、反射光同士が干渉を起こし、真珠特有の光沢と色(即ち、パール色)とを生じることとなる。即ち、パール色とは、その物本来の色である実体色と、実体色とは別に光の干渉によって生じる干渉色とから構成される色であり、真珠においては、光沢と、色の多様性(即ち、干渉色の豊富さ)とが、重要な評価項目とされる。
 従来の真珠の評価方法としては、下記特許文献1~3に記載された方法がある。特許文献1記載の方法では、真珠載置台に載置した真珠を拡散光照明で照明し、照明方向に対する真珠の背面側を外光から遮断し、照明方向と直交する方向から撮像した真珠の画像の色の分布状態から真珠のてりのグレードを判定している。特許文献2記載の方法では、スリット光源を用いて真珠の表面にその光源の像を映し、その像を撮像素子で撮像して輝度分布を求め、輝度分布から光沢度を判定している。特許文献3記載の方法は、回転テーブルに真珠連を載置し、真珠連の載置面に対して直交する方向から真珠連を照明し、照明方向とは反対方向から真珠連を撮像し、その画像を画像処理手段によって分析している。
 また、非特許文献1には、観察対象を観察したときに人間が知覚する光沢は、観察対象の輝度分布の歪度と関係があり、歪度が正でかつ大きい程、光沢を強く知覚することが記載されている。
特開2006-337352号公報 特開平11-142331号公報 特開2008-178638号公報
本吉勇(Isamu Motoyoshi),外3名,「画像統計量と表面品質の知覚(Image statistics and the perception of surface qualities)」,ネイチャー(Nature),(イギリス),2007年5月10日,第447巻,p.206-209
 上記特許文献1~3記載の評価方法では、いずれも、撮像装置の制約に起因する白とび(即ち、露出過剰)や黒つぶれ(即ち、露出不足)による情報の欠落の虞があるため、パール色を有する対象物の光沢について正しい評価を行うことができない虞があった。
 本発明は、上述した問題を解決するものであり、パール色を有する対象物の光沢について正しい評価が可能であり、延いては、パール色を有する対象物について正しい評価が可能な評価方法及び評価装置を提供することを目的とする。
 本発明の評価方法は、パール色を有する対象物の評価方法であって、白色光源で照明された対象物をデジタル撮像装置で露出を変えて複数回撮像することにより、露出が異なる複数の画像データを取得する画像データ取得ステップと、複数の画像データを合成することにより、各画像データよりも輝度範囲が広い広輝度ダイナミックレンジの画像データ(以下、「広DR画像データ」という。)を生成する広DR画像データ生成ステップと、広DR画像データ内の各画素値に基づいて、広DR画像データの処理対象とすべき領域(以下、「処理対象領域」という。)における輝度値の歪度を算出する評価値算出ステップと、を有し、輝度値の歪度に基づいて真珠の光沢を評価することを特徴とする。
 これによれば、白とびや黒つぶれによる欠落が無い情報により求められた輝度の歪度で光沢を評価するので、対象物の光沢について正しい評価が可能であり、延いては、対象物について正しい評価を行うことが可能である。
 そして、対象物が真珠である場合には、それぞれが、真珠を透過したときの干渉に強弱が生じるような波長を、中心波長とする狭帯域の複数の選別光を、真珠の一面側から透過させて、真珠の他面側をデジタル撮像装置で撮像することにより、各選別光に対する透過画像データを取得する透過画像データ取得ステップと、各選別光に対する透過画像データの処理対象領域の画素値を正規化して、各選別光に対する正規化画像データを生成する正規化画像データ生成ステップと、各選別光に対する正規化画像データについて、真珠の正規化画像データの波長方向の平均に相当する平均画像データとの差を表す干渉色判定用画像データを、生成する干渉色判定用画像生成ステップと、を有し、各選別光に対する干渉色判定用画像データに基づいて、真珠の色を評価することが好ましい。
 これによれば、それぞれが、真珠を透過したときの干渉に強弱が生じるような波長を、中心波長とする狭帯域の複数の選別光を、真珠に透過させて、その透過光を捉えた透過画像データにおける、平均的な強度変化パターンを除いた干渉色判定用画像データに基づいて、色を評価するので、強度変化が大きいか否か、即ち、干渉色が豊富か否かを評価することができて、真珠について正しく色を評価できる。
 さらに、各選別光に対する干渉色判定用画像データに基づいて、真珠における干渉色の発現を視覚化したカラー画像を生成する干渉色可視化ステップを有し、カラー画像に基づいて前記真珠の色を評価すれば、視覚的に干渉色の発現状態が分かり易くなる。
 また、各選別光に対する干渉色判定用画像データにおける中心部と周辺部とのコントラストを表すコントラスト値を算出する干渉色数値化ステップを有し、コントラスト値に基づいて真珠の色を評価すれば、数値により干渉色を評価することができる。
 また、選別光は次のように決定することが好ましい。すなわち、複数のランクに分けられる複数の真珠サンプルのそれぞれについて、それぞれ中心波長の異なる複数の狭帯域光を真珠サンプルの一面側から透過させて、真珠サンプルの他面側をデジタル撮像装置で撮像することにより、各狭帯域光に対する透過画像データを取得し、各狭帯域光に対する透過画像データの処理対象領域の画素値を正規化して、各狭帯域光に対する正規化画像データを生成し、各狭帯域光に対する正規化画像データについて、真珠サンプルの正規化画像データの波長方向の平均に相当する平均画像データとの差を表す干渉色判定用画像データを、生成し、各狭帯域光に対する干渉色判定用画像データにおける中心部と周辺部とのコントラストを表すコントラスト値を計算し、各ランクについて、コントラスト値の平均が他のランクに比して突出して高く或いは低くなる狭帯域光の中心波長を、選別光の中心波長とする。
 これによれば、選別光は、ランクによって、干渉色判定用画像データにおける中心部と周辺部とのコントラストの状態が大きく異なるような波長の光とされているため、各選別光を真珠に透過させて干渉色判定用画像データを生成すれば、その中心部と周辺部とのコントラストの状態により、真珠のランクを判別することができる。
 また、評価値算出ステップにおいて、広DR画像データ内の各画素値に基づいて、広DR画像データの処理対象領域における色彩値のばらつきの度合いを示す値(以下、「ばらつき度」という。)を算出し、色彩値のばらつき度に基づいて真珠の色を評価することとしてもよい。色彩値のばらつき度は干渉色の豊富さを表すものだからである。
 また、広DR画像データ生成ステップにおいて、所定の有効露光範囲にある画素値であって、かつ、露出が大きい画像データの画素値を優先的に用いることにより、広DR画像データを生成することが好ましい。露出が大きい(即ち、露光時間が長い)画像データの方が、露出が小さい(即ち、露光時間が短い)画像データよりも、信号が大きく、対象物の色彩をより正確に捉えているので、より正確に輝度値の歪度を計算できるからである。
 本発明の評価装置は、パール色を有する対象物の評価装置であって、撮像部と画像処理部とを備え、撮像部は、対象物を支持する支持部と、対象物を照明する白色光源と、対象物を撮像するデジタル撮像装置と、を備えて、支持部に支持されて白色光源で照明された対象物を、デジタル撮像装置で露出を変えて複数回撮像することにより、露出が異なる複数の画像データを出力するように構成され、画像処理部は、複数の画像データを取得する画像データ取得手段と、複数の画像データを合成することにより、広DR画像データを生成する広DR画像データ生成手段と、広DR画像データ内の各画素値に基づいて、光沢の評価量として、広DR画像データの処理対象領域における輝度値の歪度を算出する評価値算出手段と、を備えることを特徴とする。
 これによれば、白とびや黒つぶれによる欠落が無い情報により求められた輝度の歪度で光沢を評価するので、対象物の光沢について正しい評価が可能であり、延いては、対象物について正しい評価を行うことが可能である。
 そして、対象物が真珠である場合には、撮像部が、それぞれが、真珠を透過したときの干渉に強弱が生じるような波長を、中心波長とする狭帯域の複数の選別光を発する狭帯域光源を備えて、狭帯域光源から各選別光を支持部に支持された真珠の一面側から透過させて、真珠の他面側をデジタル撮像装置で撮像することにより、各選別光に対する透過画像データを出力するように構成され、画像データ取得手段が、前記各選別光に対する透過画像データを取得し、画像処理部が、各選別光に対する透過画像データの真珠領域の画素値を正規化して、各選別光に対する正規化画像データを生成する正規化画像データ生成手段と、各選別光に対する正規化画像データについて、真珠の正規化画像データの波長方向の平均に相当する平均画像データとの差を表す干渉色判定用画像データを、生成する干渉色判定用画像生成手段と、を備えることが好ましい。
 これによれば、それぞれが、真珠を透過したときの干渉に強弱が生じるような波長を、中心波長とする狭帯域の複数の選別光を、真珠に透過させて、その真珠を透過した透過光を捉えた透過画像データにおける、平均的な強度変化パターンを除いた干渉色判定用画像データに基づいて、色を評価するので、強度変化が大きいか否か、即ち、干渉色が豊富か否かを評価することができて、真珠について正しく色の評価を行える。
 また、画像処理部が、各選別光に対する干渉色判定用画像データに基づいて、真珠における干渉色の発現を視覚化したカラー画像を生成する干渉色可視化手段を備えることとすれば、視覚的に干渉色の発現状態が分かり易くなる。
 また、画像処理部が、各選別光に対する干渉色判定用画像データにおける中心部と周辺部とのコントラストを表すコントラスト値を算出する干渉色数値化手段を備えることとすれば、数値により干渉色を評価することができる。
 また、評価値算出手段が、広DR画像データ内の各画素値に基づいて、色の評価量として、広DR画像データの処理対象領域における色彩値のばらつき度を算出することとしてもよい。色彩値のばらつき度は干渉色の豊富さを表すものだからである。
 本発明によれば、白とびや黒つぶれによる欠落が無い情報により求められた輝度の歪度で光沢を評価するので、パール色を有する対象物の光沢について正しい評価が可能であり、延いては、パール色を有する対象物について正しい評価を行うことが可能である。
本発明の第1、2実施形態に係る評価装置の概略図である。 第1、2実施形態に係る光沢及び色彩の数値化処理のフローチャートである。 第1実施形態に係る画像撮影処理のフローチャートである。 第1実施形態に係る処理対象領域判定処理のフローチャートである。 第1実施形態に係る広DR画像生成処理のフローチャートである。 第1実施形態に係る有効露光域マスクの取得方法の説明図である。 第1実施形態に係る有効露光域マスク取得処理のフローチャートである。 第1、2実施形態に係る広DR画像結合処理のフローチャートである。 広DR画像の生成方法を説明するための図である。 第1、2実施形態に係る光沢の数値化処理のフローチャートである。 第1、2実施形態に係る色彩の数値化処理のフローチャートである。 試験例1、2で用いた評価装置の概略図である。 試験例1の結果を示す図である。 試験例1の結果について有意差検定を行なった結果を示す図である。 分光画像計測装置で取得される画像データのイメージ図である。 第2実施形態に係る画像撮影処理のフローチャートである。 第2実施形態に係る広DR画像生成処理のフローチャートである。 第2実施形態に係る有効露光域マスクの取得方法の説明図である。 第2実施形態に係る有効露光域マスク取得処理のフローチャートである。 仮定した光源の分光分布特性を示す図である。 CIE1931等色関数のグラフである。 試験例2の結果を示す図である。 本発明の第3実施形態に係る評価装置の概略図である。 第3実施形態に係る波長選択処理のフローチャートである。 第3実施形態に係る背景マスク生成処理のフローチャートである。 第3実施形態に係る信号の正規化処理のフローチャートである。 第3実施形態に係る空間的信号変化の抽出処理のフローチャートである。 カメラ画像及び空間パターン可視化画像を示す図である。 第3実施形態に係る空間コントラスト計算処理のフローチャートである。 第3実施形態に係る対象物の位置・大きさ検出処理のフローチャートである。 第3実施形態の重みづけ係数の計算処理のフローチャートである。 重みづけ係数の模式図である。 空間コントラスト値のグラフである。 第3実施形態に係る真珠の色の評価処理のフローチャートである。 空間コントラスト値をプロットした図である。 第3実施形態に係る可視化処理のフローチャートである。 第3実施形態に係る信号正規化係数決定処理のフローチャートである。 空間パターン可視化画像、及び、カラー画像を白黒で表した白黒画像の図である。 波長の選択で用いた各サンプルについて生成したカラー画像を白黒で示した図である。 波長の選択で用いた各サンプルの空間コントラスト値をプロットした図である。 複数の真珠を同時に計測するときのサンプルホルダの図である。 平均画像を変えたときの空間コントラスト値のグラフである。
 〈第1実施形態〉本発明の第1実施形態を図面に基づいて説明する。第1実施形態は、画像データとして各画素のR値、G値、B値を出力するいわゆるRGBカメラと称されるデジタルカメラを用いた形態である。
 図1に示すように、第1実施形態に係る評価装置10は、撮像部9と、撮像部9に接続された画像処理装置(画像処理部に相当。)7とから構成され、撮像部9は、外光遮蔽箱8と、外光遮蔽箱8の内部にそれぞれ配設された、画像計測装置(デジタル撮像装置に相当。)1と、白色光源3と、サンプルホルダ(支持部に相当。)4と、サンプル設置台5と、光吸収板6とから構成されている。
 詳しくは、外光遮蔽箱8は、外光を遮断するように構成されて内面は2次反射が略無い(即ち、つやのない)黒色とされ、外光遮蔽箱8の底壁上面にサンプル設置台5が設置され、サンプル設置台5の上面に光吸収板6が敷設され、光吸収板6の上面にサンプルホルダ4が配置されている。光吸収板6の表面は、外光遮蔽箱8の内面と同じく、2次反射が略無い黒色とされている。サンプルホルダ4は、パール色を有する計測対象(対象物に相当。)2を支持するものであり、サンプルホルダ4の表面も、外光遮蔽箱8の内面と同じく、2次反射が略無い黒色とされている。なお、光吸収板6及びサンプルホルダ4においては、少なくとも白色光源3からの光が照射される面を、2次反射が略無い黒色とすればよい。また、サンプル設置台5は、計測対象2全体が画像計測装置1で捉えられるように、上下動するように構成してもよい。
 画像計測装置1は、シャッタースピードを変えることにより露出(即ち、露光時間)を変更可能に構成されたRGBカメラであり、サンプルホルダ4に支持された計測対象2を略鉛直方向に沿って上方から撮像するように、配置されている。なお、画像計測装置1全体を外光遮蔽箱8内に配置しなくても、少なくとも、画像計測装置1のレンズ収納部分を外光遮蔽箱8内に配置すればよく、要するに、外光がレンズを介して画像計測装置1内に入射しないように配置すればよい。また、画像計測装置1の撮影角度を可変に構成してもよい。画像計測装置1は、画像処理装置7に接続され、撮像により取得した画像データを画像処理装置7に送信可能に構成されている。
 白色光源3は、白色光を発するものであり、撮影方向(即ち、鉛直方向)に対して約45°の角度をなす斜め上方から、サンプルホルダ4に支持された計測対象2に光を照射するように配置されている。なお、照射角度を可変に構成してもよい。撮影方向と白色光源3からの光とがなす角度は、人が計測対象2を観察するときの視線と光源からの光とがなす角度に合わせることが好ましい。計測対象2は、本実施形態では真珠Pである。
 画像処理装置7は、汎用のパーソナルコンピュータから構成され、画像計測装置1から送信された画像データを受信する受信手段(画像データを取得する画像データ取得手段に相当。)と、受信した複数の画像データのうち露出が最大の画像データの各画素値を所定の閾値と比較することにより、各画素値が処理対象領域内のものか否かを示す処理対象領域抽出情報を生成する処理対象領域抽出情報生成手段と、受信した複数の画像データを合成することにより、広DR画像データ(即ち、合成前の各画像データよりも輝度範囲が広い広輝度ダイナミックレンジの画像データ)を生成する広DR画像データ生成手段と、広DR画像データ内の各画素値と処理対象領域抽出情報とに基づいて、光沢の評価量として、広DR画像データの処理対象領域における輝度値の歪度を算出するとともに、色の評価量として、処理対象領域における色彩値のばらつき度を算出する評価値算出手段とを備えている。評価値算出手段は、算出した輝度値の歪度及び色彩値のばらつき度を、画像処理装置7が備える出力手段(本実施形態では、ディスプレイ装置。)に出力する。
 以上のように構成された評価装置10を用いて、真珠Pの光沢及び色を評価する評価方法について、次に説明する。
 評価装置10では、図2に示すような流れで、光沢及び色(即ち、色彩)の数値化を行なう。即ち、まず、撮像部9において画像計測装置1により真珠Pの画像撮影を行なう(ステップS101)。次に、画像計測装置1から受信した画像データ(以下、単に「画像」ともいう。)に基づいて、画像処理装置7が処理対象領域抽出マスク(処理対象領域抽出情報に相当。)を生成する(S102)。そして、画像処理装置7は、受信した画像データに基づいて広DR画像データを生成し(S103)、広DR画像データと処理対象領域抽出マスクとを用いて、光沢の評価量として、処理対象領域内の輝度値の歪度を算出する光沢の数値化処理を行い(S104)、色の評価量として、処理対象領域内の色彩値のばらつき度を算出する色彩の数値化処理を行う(S105)。本実施形態では、標準偏差に基いてばらつき度を算出するが、勿論、分散等の他の統計量に基づいてばらつき度を算出してもよい。なお、処理対象領域抽出マスク生成処理(S102)と広DR画像生成処理(S103)の順序は逆でもよく、光沢の数値化処理(S104)と色彩の数値化処理(S105)の順序は逆でもよい。画像撮影処理(S101)が画像データ取得ステップに、処理対象領域抽出マスク生成処理(S102)が処理対象領域抽出情報生成ステップに、広DR画像生成処理(S103)が広DR画像データ生成ステップに、光沢の数値化処理(S104)及び色彩の数値化処理(S105)が評価値算出ステップに、それぞれ相当する。
 以下、ステップS101~105の各処理について詳述する。
 [画像撮影処理]画像撮影処理(S101)では、サンプルホルダ4に支持された真珠Pを白色光源3で照明し、真珠P全体ができるだけ鮮明に撮影できるように画像計測装置1のズーム等を調整する。そして、露出を変えつつ画像計測装置1で複数回撮像することにより、露出が異なる複数の画像データを取得する。なお、露出を変えつつ複数回の撮像を行なうのは、一回の撮像では捉えられない部分(即ち、白とびや黒つぶれ部分)が発生する虞があるためである。本実施形態では、露出を変えるために、シャッタースピード(以下、「S.S.」とも表記。)を変更する。撮影枚数は、画像計測装置1及び真珠Pのダイナミックレンジに依存して可変とし、白とびや黒つぶれ部分がなくなるまで、S.S.を変えて撮影を繰り返す。なお、画像計測装置1のズーム等の調整、S.S.の変更及び撮影は手動により行うが、勿論、自動で行なうように構成してもよい。
 詳しくは、図3に示すように、まず、黒つぶれ部分が無いように十分遅いS.S.=tL0で、真珠Pを撮像し、画像L0(i,j)を取得する(S201)。なお、画像計測装置1は横にm画素、縦にn画素(m、nは正整数)を有するものとし、画像L0(i,j)というときは、各画素(i,j)の出力値(画素値)L0(i,j)(但し、i=1,2,…,m、j=1,2,…,n)からなる画像データという意である。以下、画像L0(i,j)を単に画像L0、後述する画像S1(i,j)を単に画像S1、…というように略す。
 画像計測装置1は画像L0を画像処理装置7に送信し、画像処理装置7は、画像L0について有効露光域マスク生成処理を行う(S202)。有効露光域マスク生成処理について、詳説する。画像計測装置1から得られた画像は、各画素でDEV_MIN~DEV_MAXの範囲を取る。但し、DEV_MIN、DEV_MAXはいずれも、画像計測装置1の性能から定められる値であり、DEV_MIN<DEV_MAXである。また、画像計測装置1によって有効露光域(有効露光範囲。「白とび」や「黒つぶれ」でない画素値の範囲。)も定まり、この範囲をTH_MIN~TH_MAXとする。TH_MIN、TH_MAXはいずれも、画像計測装置1の性能から定められる値であり、DEV_MIN≦TH_MIN<TH_MAX≦DEV_MAXである。
 有効露光域マスクとは、画像中の有効露光域内の信号を抽出するための有効露光域抽出情報であり、画像の各信号成分の有効露光域マスクの論理積をとったものを、その画像の有効露光域マスクとする。つまり、各画素において、全信号成分が有効露光域内にあるとき、その画素を有効露光域内にあるとする。図6に示すように、画像計測装置1がRGBカメラである場合には、各画素(i,j)から出力された画素値は、R値(R信号)、G値(G信号)、及び、B値(B信号)を成分として含むので、R値、G値、B値のそれぞれについて、有効露光域にあるか否かを判定して、有効露光域にあれば値1、なければ値0とすることにより、RGB信号の各成分について有効露光域マスクを生成し、それらの有効露光域マスクの論理積を取ったものを、その画像の有効露光域マスクとする。
 本実施形態では、図7に示すように、処理対象とする画像中の各画素(i,j)(但し、i=1,2,…,m、j=1,2,…,n)について、R値R(i,j)が有効露光域内にあるか否か、即ち、TH_MIN<R(i,j)<TH_MAXを満たすか否かを判定し(S502)、満たさなければE(i,j)=0とし(S503)、満たせば、次に、G値G(i,j)が有効露光域内にあるか否か、即ち、TH_MIN<G(i,j)<TH_MAXを満たすか否かを判定し(S504)、満たさなければE(i,j)=0とし(S505)、満たせば、さらに、B値B(i,j)が有効露光域内にあるか否か、即ち、TH_MIN<B(i,j)<TH_MAXを満たすか否かを判定し(S506)、満たさなければE(i,j)=0とし(S505)、満たせばE(i,j)=1とする(S508)。即ち、R値、G値、B値の全てが有効露光域内にある画素については値1、そうでない画素については値0をとるような有効露光域マスクを生成する。
 次に、画像処理装置7は、画像L0の全ての画素が有効露光域内か否か、すなわち、画像L0の全画素(i,j)についてE(i,j)=1か否かを判断し(S203)、全画素(i,j)についてE(i,j)=1であれば、画像撮影処理を終えるが、1つでもE(i,j)=0の画素があれば、画像処理装置7は、画像計測装置1にtL0より速いS.S.での撮影を行わせる。画像計測装置1は、撮影枚数カウンタの値kを0とし(S204)、kを1増加させて(S205)、S.S.=tL0では捉えられなかった部分(輝度が画像計測装置1の能力を超えて飽和状態となっている部分。即ち、白とび部分)を捉えられるように、S.S.をtL0より速いtS1に変更して、真珠Pを撮像し、画像S1(i,j)を取得する(S206)。撮影枚数カウンタは、画像S1以降の撮影枚数をカウントすることとなる。
 画像計測装置1は画像S1を画像処理装置7に送信し、画像処理装置7は、画像S1について、画像L0の場合と同様にして、有効露光域マスク生成処理を行う(S207)。そして、画像S1の全画素が有効露光域内か否かを判定し(S208)、全画素が有効露光域内であれば、画像撮影処理を終え、そうでなければ、kを1増加させて(S205)、S.S.=tL0及びS.S.=tS1では捉えられなかった部分を捉えられるように、S.S.をtS1より速いtS2に変更して、画像計測装置1により真珠Pを撮像し、画像S2(i,j)を取得して(S206)、画像S2について有効露光域マスク生成処理を行う(S207)。同様に、全画素が有効露光域内にある画像Skが得られるまで、段々とS.S.を早くしつつ(即ち、露光時間を短くしつつ)真珠Pを撮像し、画像S1(i,j),…,SN(i,j)を取得するとともに、それらの有効露光域マスクを生成する(S205~208)。画像S1,S2,…,SNを取得したときのS.S.は、それぞれ、tS1,tS2,…,tSNであり、tL0>tS1>tS2>…>tSNである。また、画像SNの全画素は有効露光域内にある。
 [処理対象領域抽出マスク生成処理]処理対象領域抽出マスク生成処理(S102)では、画像処理装置7は、各画素値が処理対象領域内のものか否かを示す処理対象領域抽出マスクを生成する。処理対象領域とは、画像において処理対象とすべき領域、即ち、真珠Pとされる領域をいい、以下、真珠領域ともいう。真珠領域は略円形である。画像が、真珠P以外の背景部分等、処理対象とすべきでない部分を含む場合には、画像中の各画素が処理対象領域に入っているか否かを判定する必要があるため、この判定に用いる処理対象領域抽出マスクを生成する。
 詳しくは、上記画像撮影処理で取得した複数の画像のうち、最も露光時間が長い画像L0を用い、図4に示すように、各画素値L0(i,j)(但し、i=1,2,…,m、j=1,2,…,n)について、画素値L0(i,j)と所定の閾値TH_TGTとを比較し、閾値TH_TGTより大きい場合にはTGT(i,j)=1とし、大きくない場合にはTGT(i,j)=0とする処理を行なう(S301~305)。これにより、処理対象領域抽出マスクTGT(i,j)(但し、i=1,2,…,m、j=1,2,…,n)が生成される。即ち、処理対象領域抽出マスクは、各画素値と所定の閾値との比較結果を0,1で示すものである。なお、ステップS301及びS305のループは、i、jの値を変えつつ、その間の処理を繰り返すことを示している。以下のフローチャートでも同様である。
 閾値TH_TGTは、背景として扱うべき信号の最大値である。したがって、TGT(i,j)=1であれば画素(i,j)は処理対象領域内に、TGT(i,j)=0であれば画素(i,j)は処理対象領域外にあるといえる。画像計測装置1においては、背景はサンプルホルダ4または光吸収板6であり、2次反射の無い黒色であるので、閾値TH_TGTは0に近い小さい値となる。また、画像L0を用いたのは、取得した画像L0,S1,…,SNの中で最も露光時間が長く、信号(画素値)が最も大きい画像であるため、真珠Pの部分に相当する画素であるにもかかわらず信号が小さいために背景部分として扱われてしまうような虞が少ないからである。
 [広DR画像生成処理]広DR画像生成処理(S103)では、画像処理装置7は、画像L0,S1,…,SNについての有効露光域マスクを用いて、広DR画像結合処理を行なう(S401)。以下、画像L0,S1,…,SNについて生成した有効露光域マスクの各画素値を、それぞれ、E_L0(i,j)、E_S1(i,j)、…、E_SN(i,j)と表記する。例えば、E_L0(i,j)は、画像L0の画素(i,j)に対する有効露光域マスクの画素値であり、E_L0(i,j)=1であれば、画像L0の画素(i,j)が有効露光域内にあり、0であれば有効露光域内にないことを示している。
 図8に示すように、生成しようとする広DR画像の各画素値をW(i,j)(但し、i=1,2,…,m、j=1,2,…,n)としたとき、画像処理装置7は、まず、画素値W(i,j)を0とする(S602)。次に、画像処理装置7は、最もS.S.が長い画像L0の画素(i,j)が有効露光域内にあるか否か、即ち、E_L0(i,j)=1を満たすか否かを判定し(S603)、満たせば、W(i,j)をL0(i,j)/tL0とし(S604)、満たさなければ、次にS.S.が長い画像S1の画素(i,j)が有効露光域内にあるか否か、即ち、E_S1(i,j)=1を満たすか否かを判定する(S605)。そして、満たせば、W(i,j)をS1(i,j)/tS1とし(S606)、満たさなければ、次にS.S.が長い画像S2の画素(i,j)が有効露光域内にあるか否か、即ち、E_S2(i,j)=1を満たすか否かを判定する(S607)、という処理を、S.S.が長い画像から順に行なう。なお、E_SN-1(i,j)=1を満たさない画素(i,j)については、W(i,j)をSN(i,j)/tSNとする(S611)。上述したように、画像SNの全画素は有効露光域内にあることから、E_SN(i,j)=1を満たさない画素は存在しないので、E_SN(i,j)=1を満たすか否かは判定しない。そして、かかる処理を各画素(i,j)(但し、i=1,2,…,m、j=1,2,…,n)について行うことにより、画素値W(i,j)(但し、i=1,2,…,m、j=1,2,…,n)からなる広DR画像を生成する。
 即ち、画像処理装置7は、有効露光域内にある画素値であって、かつ、S.S.が長い(即ち、露出が大きい)画像の画素値を優先的に採用することにより、広DR画像を生成する。なお、ある画像の画素値を採用するときには、画素値からS.S.の影響を排除するため、その画像の撮像時のS.S.で画素値を除算することにより、単位時間当たりの画素値とする。
 図9を用いて、撮影枚数が4枚の場合の広DR画像生成について説明する。図9の(a)~(e)において黒色部分は、有効露光域外であることを示す。まず、画像L0については、(a)に示すように、その有効露光域内で(図中、白色部分で示す)の各画素値をS.S.で除算した値、L0(i,j)/tL0を広DR画像の画素値(以下、「広DR画素値」という。)とする。これにより、(a)の白色部分について広DR画素値が決まる。次に、画像S1については、その有効露光域は(b)の斜線部分に示す部分であるが、(a)の白色部分と重なる部分については(a)の白色部分の方を優先するので、(b)の斜線部分中、(a)の白色部分と重ならない部分について、各画素値をS.S.で除算した値、S1(i,j)/tS1を広DR画素値とする。同様に、画像S2の有効露光域を示す(c)の斜線部分中、(b)の斜線部分と重ならない部分について、S2(i,j)/tS2を広DR画素値とし、画像S3の有効露光域を示す(d)の横線部分中、(c)の斜線部分と重ならない部分について、S3(i,j)/tS3を広DR画素値とする。これにより、(e)に示すように広DR画像が生成される。(e)に示された各斜線部分及び横線部分は、(b)~(d)に示された同様の斜線部分及び横線部分よりも範囲が狭くなっている。これは、露出の大きい方の画素値を優先して採用しているからである。
 [光沢の数値化処理]光沢の数値化処理(S104)では、画像処理装置7は、図10に示すように、まず、広DR画像の各画素値W(i,j)から各画素の輝度値Y(i,j)を計算する(S701)。詳しくは、各画素値W(i,j)はR値、G値、及び、B値を有するので、これらの値から、CCIR(国際無線通信諮問委員会)が勧告する規格601‐1に則った次式[数1]を用いて、輝度値Y(i,j)を計算する。なお、以下の式において、R、G、Bは、それぞれR値、G値、B値を表す。
Figure JPOXMLDOC01-appb-M000001
 次に、画像処理装置7は、処理対象領域抽出マスクを用いて、広DR画像の各画素の輝度値から処理対象領域内の画素の輝度値を抽出する(S702~705)。詳しくは、各画素(i,j)(但し、i=1,2,…,m、j=1,2,…,n)について、その画素に対応する処理対象領域抽出マスクの値TGT(i,j)が1か否かを判定し(S703)、1であれば、処理対象輝度値(処理対象領域内の画素の輝度値)の数hを1加算して、その画素の輝度値Y(i,j)を処理対象輝度値P(h)として採用する(S704)。なお、hの初期値は0とする。一方、TGT(i,j)=1でなければ、その画素の輝度値は処理対象輝度値として採用しない。
 画像処理装置7は、抽出した処理対象輝度値P(h)(但し、h=1,2,…,H)から、光沢の評価量として、次式[数2]により、処理対象輝度値の3次統計量である歪度Skを算出する(S706)。
Figure JPOXMLDOC01-appb-M000002
 なお、[数2]において、Pは、処理対象輝度値P(h)からなるベクトル(P(1),P(2),…,P(H))であり、μは、P(1),P(2),…,P(H)の平均、σはP(1),P(2),…,P(H)の標準偏差である。
 [色彩の数値化処理]色彩の数値化処理(S105)では、画像処理装置7は、図11に示すように、処理対象領域抽出マスクを用いて、広DR画像の各画素の画素値(色彩値)から処理対象領域内の画素の色彩値を抽出する(S801~804)。詳しくは、各画素(i,j)(但し、i=1,2,…,m、j=1,2,…,n)について、その画素に対応する処理対象領域抽出マスクの値TGT(i,j)が1か否かを判定し(S802)、1であれば、処理対象色彩値(処理対象領域内の画素の色彩値)の数lを1加算し、その画素の画素値W(i,j)を処理対象色彩値Q(l)として採用する(S803)。なお、lの初期値は0とする。一方、TGT(i,j)=1でなければ、その画素の色彩値は処理対象色彩値として採用しない。
 画像処理装置7は、抽出した処理対象色彩値Q(l)(但し、l=1,2,…,L)から、色彩の評価量として、次式[数3]により色彩値のばらつき度(本実施形態では、2次統計量である標準偏差)Cvを算出する(S805)。
Figure JPOXMLDOC01-appb-M000003
 なお、[数3]において、Qは、処理対象色彩値Q(l)からなるベクトル(Q(1),Q(2),…,Q(L))であり、μは、Q(1),Q(2),…,Q(L)の平均、σはQ(1),Q(2),…,Q(L)の標準偏差である。
 色彩値Q(l)はR値、G値、及び、B値を有するので、本実施形態の色彩値のばらつき度は、次の(i)~(iii)のように求める。
 (i) 色彩値Q(l)のR値、G値、及び、B値を次式[数4]で正規化し、正規化信号R´、G´、B´を得る。
Figure JPOXMLDOC01-appb-M000004
 (ii)正規化信号R´、G´、B´についてそれぞれ標準偏差CvR、CvG、CvBを求める。
 (iii)CvR、CvG、CvBをRGB色空間(3次元空間)内のベクトルとして、次式[数5]によりユークリッド距離を計算し、色彩値のばらつき度とする。
Figure JPOXMLDOC01-appb-M000005
 画像処理装置7は、以上のように算出した広DR画像の処理対象領域内の輝度値の歪度、及び、色彩値のばらつき度をディスプレイ装置に表示する。上記非特許文献1から、輝度値の歪度が正であれば人間は光沢があると感じ、かつ、輝度値の歪度が大きい程光沢が強いと感じることが分かっている。したがって、輝度値の歪度から光沢を評価することができる。また、色彩値のばらつき度が大きい程、干渉色が豊富であり、パール色として優れているといえる。したがって、色彩値のばらつき度から色を評価することができる。
 《試験例1》以下、第1実施形態の評価を行なった試験例1について説明する。試験例1では、図12に示すように、画像計測装置1としてRGBカメラ(ここでは、ヤマハ社製YWD001)、計測対象2として真珠P、白色光源3として太陽光の特性を模擬した人工太陽灯、サンプルホルダ4としてつやのない黒色板、サンプル設置台5として机、光吸収板6として暗幕、画像処理装置7として汎用パーソナルコンピュータを備えた評価装置10を用いた。また、外光遮蔽箱8として暗室を用い、画像処理装置7は外光遮蔽箱8内に設置した。
 画像計測装置1の出力値の分解能は12bit(0~4095)であり、即ち、DEV_MIN=0、DEV_MAX=4095である。また、画素数は、横m=320、縦n=240である。また、TH_MIN=0、TH_MAX=4095とした。また、試験例1では、TH_TGTは、固定値ではなく、各真珠Pについての処理の度に、広DR画像の左上30×30ピクセルの領域の平均輝度とその標準偏差σを算出し、TH_TGT=平均輝度+3σとした。左上30×30ピクセルの領域を採用したのは、各真珠Pの広DR画像において略黒色となる領域、すなわち、まず間違いなく背景となる領域であり、この領域の平均輝度+3σ以下であれば背景として扱ってよいからである。なお、この平均輝度+3σが約15となったことから、TH_TGT=15と固定値にしてもよい。また、後述する大津の閾値選択により、TH_TGTを定めてもよい。計測対象2としては、専門家の目視評価によりA~Cの3段階に分類された真珠Pを用いた。Aランクは15個、Bランクは18個、Cランクは17個である。広DR化(広輝度ダイナミックレンジ化)のための撮影枚数は、各真珠Pで4枚ずつとし、各真珠Pについて画像L0、S1、S2、S3を得た。なお、tL0、tS1、tS2、tS3は表4に示すとおりである。
 画像処理装置7は、画像計測装置1から取得した各真珠Pの画像L0を用いて、各真珠Pについて、処理対象抽出マスクを生成した。また、各真珠Pについて、それぞれ画像L0、S1、S2、S3に対する有効露光域マスクを生成し、それらの有効露光域マスクを用いて、画像L0、S1、S2、S3から広DR画像を生成した。そして、各真珠Pについて、広DR画像から輝度値の歪度と色彩値のばらつき度とを算出した。算出された各真珠Pの輝度値の歪度と色彩値のばらつき度とを、表1に示す。表1において、A-1、A-2、…の記号は、各真珠Pに付されたランクとランク内での番号を示す。また、上段の「光沢」は輝度値の歪度であり、下段の「色の多様性」は色彩値のばらつき度である。
 表2は、表1に示す各真珠Pの光沢及び色の多様性を、ランク毎に平均したものである。また、図13は、光沢を横軸、色の多様性を縦軸として、表1に示す各真珠Pの光沢及び色の多様性を図示するとともに、表2に示すランク毎の平均を図示したものである。
 表2及び図13から、光沢の評価は、Cランク、Bランク、Aランクの順に高くなっており、色の多様性の評価は、Bランク、Cランク、Aランクの順に高くなっており、専門家による評価に略合致していることが分かる。
 なお、色の多様性については、BランクとCランクとの間で、専門家による評価と逆転しているが、図14は、各ランクの数値のばらつきに統計的有意差があるか否かを、分散分析による有意差検定(p<0.05)で検定した結果を示すものである。図14の右上は光沢、左下は色の多様性に関する検定結果を示し、○は有意差あり、×は有意差なしを示す。図14に示すように、光沢についてはいずれのランク間でも有意差があるが、色の多様性については、AランクとBランクとの間、AランクとCランクとの間には、有意差があるものの、BランクとCランクとの間には有意差がない。即ち、試験例1における色の多様性についてのB,Cランク間の評価の逆転に統計的意味は無く、BランクとCランクとは色の多様性については同等であるといえる。したがって、光沢において優れているBランクの真珠Pの方が、全体としてCランクの真珠Pよりも優れていると評価できる。
 試験例1から、第1実施形態によれば、真珠Pについて、専門家による評価に合致した正しい評価を行なうことが可能であることが分かる。
 第1実施形態では、画像L0の各画素値と閾値TH_TGTとの比較結果を示す処理対象領域抽出マスクを生成し、その処理対象領域抽出マスクを用いて、処理対象領域内と判定される画素値のみを抽出して、抽出された画素値により評価量を算出しているので、画像データに背景部分が入ってしまう場合にも、画像データから背景以外の部分(即ち、対象物に相当する部分)を処理対象領域として抽出することが可能となり、背景部分の影響を除去できて、正しい評価を行うことが可能である。
 また、第1実施形態では、露出が異なる複数の画像を合成して広DR画像を生成し、その広DR画像から、輝度値の歪度と色彩値のばらつき度とを算出して、光沢と色とを評価しているので、撮像装置の制約に起因する白とびや黒つぶれによる情報の欠落を防止できる。したがって、広DR画像を用いない場合よりも正確に、輝度値の歪度及び色彩値のばらつき度を算出でき、真珠の光沢と色について、より正しい評価を行なうことが可能である。
 また、第1実施形態では、広DR画像を生成するときに、有効露光範囲にある画素値であって、かつ、露出が大きい方の画素値を優先的に用いている。露出が大きい画像データの方が露出が小さい画像データよりも、信号が大きく、対象物の色彩をより正確に捉えているので、第1実施形態によれば、かかる広DR画像を用いない場合よりも正確に、輝度値の歪度と色彩値のばらつき度を計算できる。
 さらに、第1実施形態では、画像計測装置1として比較的安価なRGBカメラを用いているので、コストを低減できる。
 〈第2実施形態〉次に、本発明の第2実施形態を図面に基づいて説明する。以下、第1実施形態の評価装置10の構成要素に対応する第2実施形態の構成要素については、第1実施形態の評価装置10の構成要素の符号にBを付し、適宜その説明を省略する。
 第2実施形態に係る評価装置10Bは、画像計測装置1BがRGBカメラではなく、マルチスペクトルカメラとも称される分光画像計測装置である点を除き、図1に示す第1実施形態と同様の構成を有している。
 分光画像計測装置は、波長毎に光の強度を捉えることができるデジタル撮像装置である。図15は、分光画像計測装置が取得する画像のイメージであるが、1回の撮影で、波長λ毎の画像(以下、「分光画像」という。)(x,y)が得られ、これら複数の分光画像(x,y)で1つの画像が形成される。例えば、可視光である波長420nm~720nmの範囲の光を、10nm刻みで計測するとすれば、31枚の分光画像が得られることとなる。分光画像計測装置では、(1)分光画像から分光反射率を求めるプロセス、及び、(2)ある光源下での色彩値を計算で求めるプロセスが必要となる。なお、分光反射率は、光を略すべて反射する標準白色板を計測した画像と割り算することで求める。また、広DR化処理は分光反射率レベルで行う。
 第2実施形態に係る評価装置10Bを用いて、計測対象2である真珠Pの光沢及び色を評価する評価方法について、次に説明する。
 第2実施形態に係る評価装置10Bにおいても、第1実施形態に係る評価装置10と同じく、図2に示すように、画像データ取得ステップに相当する画像撮影処理(S101)、処理対象領域抽出情報生成ステップに相当する処理対象領域抽出マスク生成処理(S102)、広DR画像データ生成ステップに相当する広DR画像生成処理(S103)、及び、評価値算出ステップに相当する光沢の数値化処理(S104)及び色彩の数値化処理(S105)を実行する。但し、画像撮影処理(S101)に上記プロセス(1)が、広DR画像生成処理に上記プロセス(2)が入る。以下、これらの処理について説明する。
 [画像撮影処理]画像撮影処理(S101)では、図16に示すように、まず、画像計測装置1Bにより、S.S.=tL0で標準白色板を撮影して、画像wL0を取得する(S1001)。なお、画像計測装置1Bは横にm画素、縦にn画素(m、nは正整数)を有し、可視光の範囲で等間隔に設定された波長λ1,λ2,…,λKの各光の強度を捉えられるものとする。したがって、画像wL0は、画素値wL0(i,j,λk)(但し、i=1,2,…,m、j=1,2,…,n、k=1,2,…,K)からなる画像となる。
 次に、画像計測装置1BによりS.S.=tL0で真珠Pを撮影して、画素値pL0(i,j,λk)(但し、i=1,2,…,m、j=1,2,…,n、k=1,2,…,K)からなる画像pL0を取得する(S1002)。なお、tL0は、真珠Pの撮影時に黒つぶれ部分(露出不足部分)がないような遅いシャッタースピードとする。
 さらに、画像計測装置1Bにより、tL0より速いS.S.=tS1で標準白色板を撮影して、画素値wS1(i,j,λk)(但し、i=1,2,…,m、j=1,2,…,n、k=1,2,…,K)からなる画像wS1を取得し(S1003)、画像計測装置1BによりS.S.=tS1で真珠Pを撮影して、画素値pS1(i,j,λk)(但し、i=1,2,…,m、j=1,2,…,n、k=1,2,…,K)からなる画像pS1を取得する(S1004)。なお、tS1は、S.S.=tL0による真珠Pの撮影時に生じた白とび部分(露出過剰部分)を捉えられるようなシャッタースピードとする。
 なお、本実施形態では、撮影枚数は標準白色板と真珠Pとでそれぞれ2枚とするが、勿論、画像計測装置1の性能に応じて撮影枚数は変更可能である。但し、標準白色板と真珠Pとで撮影枚数は同じとする。また、標準白色板と真珠Pの撮影順序は任意である。
 画像計測装置1Bにより取得された画像wL0、pL0、wS1、pS1は、画像処理装置7Bに送信される。画像処理装置7Bは、画像wL0及び画像pL0から、式rL0(i,j,λk)=pL0(i,j,λk)/wL0(i,j,λk)により、S.S.=tL0のときの分光反射率rL0(i,j,λk)を求める(S1005)。分光反射率rL0(i,j,λk)(但し、i=1,2,…,m、j=1,2,…,n、k=1,2,…,K)からなる画像を、以下、分光反射率画像rL0という。
 また、画像処理装置7Bは、画像wS1及び画像pS1から、式rS1(i,j,λk)=pS1(i,j,λk)/wS1(i,j,λk)により、S.S.=tS1のときの分光反射率rS1(i,j,λk)を求める(S1006)。分光反射率rS1(i,j,λk)(但し、i=1,2,…,m、j=1,2,…,n、k=1,2,…,K)からなる画像を、以下、分光反射率画像rS1という。
 [処理対象領域抽出マスク生成処理]処理対象領域抽出マスク生成処理(S102)では、画像処理装置7Bは、分光反射率画像rL0の各画素(i,j)において全波長λ1,λ2,…,λKでの分光反射率を平均した平均反射率画像を対象に、閾値TH_TGT=0.1として、処理対象領域抽出マスクを生成する。即ち、分光反射率画像rL0の各画素(i,j)について、その平均反射率が0.1より大きければTGT(i,j)=1、0.1より大きくなければTGT(i,j)=0として、処理対象領域抽出マスクTGT(i,j)(但し、i=1,2,…,m、j=1,2,…,n)を生成する。
 [広DR画像生成処理]広DR画像生成処理(S103)では、図17に示すように、画像処理装置7Bは、広DR画像生成を行なった後(S1101)、色彩値変換を行う(S1102)。広DR画像生成では、まず、分光反射率画像rL0、rS1の各々に対して、閾値TH_MIN=0、TH_MAX=1として、有効露光域マスクを生成する。なお、上述したように、tL0を、真珠Pの撮影時に黒つぶれ部分がないようなシャッタースピードとし、tS1は、S.S.=tL0による真珠Pの撮影時に生じた白とび部分をカバーできるようなシャッタースピードとしたので、閾値TH_MIN=0とする(即ち、反射率が低い方は全て有効露光域内とする)。また、閾値TH_MAX=1としたのは、分光反射率画像rL0、rS1における反射率は、真珠Pの反射率を標準白色板の反射率で割ったものであり、1より大きい場合は、標準白色板の反射率を超えており、白とび部分(有効露光域外)であると考えられるからである。
 詳しくは、図18に示すように、分光反射率画像rL0、rS1は、それぞれ、波長λ1,λ2,…,λKの反射率画像からなるので、これら波長毎の反射率画像について、それぞれ、有効露光域マスクを取得し、それらの論理積を取る。有効露光域マスクの取得について、図19を用いて説明すると、ある波長の反射率画像中の各画素(i,j)(但し、i=1,2,…,m、j=1,2,…,n)について、その反射率I(i,j)が有効露光域内にあるか否か、即ち、TH_MIN<I(i,j)<TH_MAXを満たすか否かを判定し(S1202)、満たさなければE(i,j)=0とし(S1203)、満たせばE(i,j)=1とする(S1204)。これにより、その波長での有効露光域マスクが取得される。このような有効露光域マスクの取得を、波長λ1,λ2,…,λKの各々について行い、それら各波長の有効露光域マスクの論理積を取ったものを、その分光反射率画像の有効露光域マスクとする。
 次に、画像処理装置7Bは、分光反射率画像rL0、rS1と、上記のように分光反射率画像rL0、rS1のそれぞれについて生成した有効露光域マスクとを用いて、第1実施形態と同様に、有効露光域内にある画素値であって、かつ、S.S.が長い画像の画素値を優先的に採用する(即ち、本実施形態では、分光反射率画像rL0の画素値を分光反射率画像rS1の画素値よりも優先的に採用する)ことにより、広DR画像を生成する。なお、ある画像の画素値を採用するときには、その画像の撮像時のS.S.で画素値を除算することにより、単位時間当たりの画素値とする。このとき生成された広DR画像は、広DR化された分光反射率画像であるので、以下、広DR分光反射率画像という。この広DR分光反射率画像の各画素値を、rW(i,j,λk)と表記する。但し、i=1,2,…,m、j=1,2,…,n、k=1,2,…,Kである。
 次に、画像処理装置7Bは、色彩値変換(S1102)を行なう。詳しくは、画像処理装置7Bは、まず、色彩値を計算するために仮定した光源の分光分布特性E(λk)と、広DR分光反射率画像とを用いて、仮定した光源で照明したときの真珠Pからの反射スペクトルS(λk)を、式S(λk)=E(λk)*rW(λk)により算出する。なお、この式において、rW(λk)=rW(i,j,λk)であり、各画素(i,j)について、その反射スペクトルS(λk)が得られることとなる。本実施形態では、仮定の光源として、真珠の鑑定を行う際に用いられる北窓光の分光分布特性を模擬した、C光源と呼ばれる色温度6740[K]の光源(JIS Z 8720で制定したものに相当。)を用いる。図20に、C光源の分光分布特性を示す。このようにして得た各画素(i,j)の反射スペクトルS(λk)からなる画像、即ち、画素値S(i,j,λk)(但し、i=1,2,…,m、j=1,2,…,n、k=1,2,…,K)からなる画像を、以下、広DR画像という。
 次に、画像処理装置7Bは、次式[数6]を用いて、広DR画像の各画素(i,j)の反射スペクトルS(λk)を、CIE(国際照明委員会)が勧告するCIE1931表色系の三刺激値(X,Y,Z)に変換する。
Figure JPOXMLDOC01-appb-M000006
 なお、[数6]において、x(λk),y(λk),z(λk)は、図21に示すようなCIE1931等色関数の値であり、予め分かっている。即ち、[数6]により、広DR画像の各画素(i,j)について、その三刺激値(X,Y,Z)が得られる。
 次に、画像処理装置7Bは、広DR画像の各画素(i,j)について、その三刺激値(X,Y,Z)を、次式[数7]により輝度値Y´と色彩値(x,y)とに変換する。後述する光沢の数値化処理においては、輝度値として、[数7]で求めたY´を用いるが、[数6]で求めたYを用いてもよい。
Figure JPOXMLDOC01-appb-M000007
 さらに、画像処理装置7Bは、広DR画像の各画素(i,j)について、CIE1931表色系の三刺激値(X,Y,Z)または色彩値(x,y)から、CIEが勧告するCIE1976表色系の色彩値(u´,v´)を算出する。
Figure JPOXMLDOC01-appb-M000008
 ここで、CIE1976表色系の色彩値を算出するのは、CIE1976表色系は、CIE1931表色系とは異なり、2つの色彩値があったとき、その数値の差分が色空間全体において人が感じる色の差(色差)に対応した均等色空間とも呼ばれる色空間だからである。したがって、後述する色彩の数値化処理においては、CIE1976表色系の色彩値(u´,v´)を用いるが、この点を考慮しなければ、CIE1931表色系の色彩値(x,y)を用いてもよい。
 [光沢の数値化処理]第2実施形態では、上記色彩値変換処理(S1102)で算出したCIE1931表色系の輝度値Y´を用いて、光沢の評価量として、輝度値の歪度を算出する。
 まず、画像処理装置7Bは、処理対象領域抽出マスクを用いて、広DR画像の各画素の輝度値Y´から処理対象領域内の画素の輝度値を抽出する。詳しくは、第1実施形態のステップS702~706と同様に、広DR画像の各画素(i,j)(但し、i=1,2,…,m、j=1,2,…,n)について、その画素に対応する処理対象領域抽出マスクの値TGT(i,j)が1か否かを判定し、1であれば、処理対象輝度値の数h(初期値は0)を1加算して、その画素の輝度値Y´(i,j)を処理対象輝度値P(h)として採用し、1でなければ採用しない。なお、第1実施形態のステップS701で行なった輝度値の計算は、上記ステップS1102で既に行なっているので、ここでは行なわない。
 画像処理装置7Bは、抽出した処理対象輝度値P(h)(但し、h=1,2,…,H)から、光沢の評価量として、上記[数2]により処理対象輝度値の歪度Skを算出する。
 [色彩の数値化処理]第2実施形態では、上記色彩変換処理(S1102)で算出したCIE1976表色系の色彩値(u´,v´)を用いて、色の評価量として、色彩値のばらつき度を算出する。
 まず、画像処理装置7Bは、処理対象領域抽出マスクを用いて、各画素の色彩値から処理対象領域内の画素の色彩値を抽出する。詳しくは、第1実施形態のステップS801~804と同様に、広DR画像の各画素(i,j)(但し、i=1,2,…,m、j=1,2,…,n)について、その画素に対応する処理対象領域抽出マスクの値TGT(i,j)が1か否かを判定し、1であれば、処理対象輝度値の数l(初期値は0)を1加算して、その画素の色彩値(u´,v´)を処理対象色彩値Q(l)として採用し、1でなければ採用しない。
 画像処理装置7Bは、抽出した処理対象色彩値Q(l)(但し、l=1,2,…,L)から、色彩の評価量として、上記[数3]により色彩値のばらつき度Cvを算出する。
 各色彩値Q(l)はu´値及びv´値を有するので、本実施形態の色彩値のばらつき度は、次の(i)~(iii)のように求める。
 (i) 各色彩値Q(l)について、u´値の標準偏差CvA、及び、v´値の標準偏差CvBを求める。
 (ii)CvA、CvBを色平面(2次元平面)内のベクトルとして、次式[数9]でユークリッド距離を計算し、色彩値のばらつき度とする。
Figure JPOXMLDOC01-appb-M000009
 画像処理装置7Bは、以上のように算出した広DR画像の処理対象領域内の輝度値の歪度、及び、色彩値のばらつき度をディスプレイ装置に表示する。
 《試験例2》以下、第2実施形態の評価を行った試験例2について説明する。試験例2では、試験例1と同じく図12に示すように構成された評価装置10Bを用いる。但し、画像計測装置1Bとして分光画像計測装置(ここでは、Cambridge Research & Instrumentation,Inc.社製Nuance VI-3042)を用い、計測対象2として真珠Pを計測する。また、標準白色板の計測を真珠Pと同じ条件下で行ない、色彩値を計算するときには、仮定光源として上記C光源を用いる。
 画像計測装置1の出力値の分解能は12bit(0~4095)であり、即ち、DEV_MIN=0、DEV_MAX=4095である。また、画素数は、横m=456、縦n=344であり、波長420~720nmの範囲を10nm間隔で計測する(即ち、K=31)。また、上述したように、TH_MIN=0、TH_MAX=1、TH_TGT=0.1とした。計測対象2としては、専門家の目視評価により第1実施形態と同様にA~Cの3段階に分類された各ランク2個ずつ計6個の真珠Pを用いた。広DR化のための撮影枚数は、各真珠PでS.S.=tL0、S.S.=tS1の2枚ずつとし、各真珠Pについて分光反射率画像L0、S1を得た。なお、試験例2では、波長毎に表5に示すようにS.S.が異なっている。この波長毎にS.S.を変化させる機能は、波長全域にわたってS/N比を向上させるために、画像計測装置1が有している機能である。試験例2では、tL0は標準白色板が飽和しないように、tS1は真珠Pのハイライト部分が飽和しないように、画像計測装置1が決定している。
 画像処理装置7Bは、画像計測装置1Bから取得した各真珠Pの分光反射率画像L0を用いて、各真珠Pについて、処理対象抽出マスクを生成した。また、各真珠Pについて、それぞれ画像L0、S1に対する有効露光域マスクを生成し、それらの有効露光域マスクを用いて、画像L0、S1から広DR分光反射率画像を生成した。そして、各真珠Pについて、広DR分光反射率画像に対して色彩値変換を行って広DR画像を生成し、処理対象抽出マスクを用いて、処理対象領域内の輝度値の歪度と色彩値のばらつき度とを算出した。なお、輝度値にはCIE1931表色系のYを用い、色彩値にはCIE1976表色系の(u´,v´)を用いた。
 算出された各真珠Pの輝度値の歪度と色彩値のばらつき度とを、表3に示す。表3において、A-1、A-2、…の記号は、各真珠Pに付されたランクとランク内での番号を示す。また、上段の「光沢」は輝度値の歪度であり、下段の「色の多様性」は色彩値のばらつき度である。また、図22は、光沢を横軸、色の多様性を縦軸として、表3に示す各真珠Pの光沢及び色の多様性を図示したものである。表3及び図22から、光沢と色の多様性のいずれについても、Cランク、Bランク、Aランクの順に評価量が高くなっており、専門家による評価に合致していることが分かる。
 試験例2から、第2実施形態においても、第1実施形態と同様に、真珠Pについて正しい評価を行なうことが可能であることが分かる。
 さらに、第2実施形態では、画像計測装置1として分光画像計測装置を用いているので、装置に依存しない色空間での輝度値及び色彩値が取得可能であり、真珠Pについて正しい評価を行なうことが可能である。
 〈第3実施形態〉本発明の第3実施形態を図面に基づいて説明する。以下、第1実施形態の評価装置10の構成要素に対応する第3実施形態の構成要素については、第1実施形態の評価装置10の構成要素の符号にCを付し、適宜その説明を省略する。
 図23(a)に示すように、第3実施形態の評価装置10Cは、撮像部9Cと、撮像部9Cに接続された画像処理装置(画像処理部に相当。)7Cとから構成され、撮像部9Cは、外光遮蔽箱8Cと、画像計測装置(デジタル撮像装置に相当。)1Cと、白色光源3Cと、サンプルホルダ(支持部に相当。)4Cと、狭帯域光源11とから構成されている。白色光源3C及びサンプルホルダ4Cは、外光遮蔽箱8Cの内部に配設されている。白色光源3Cは白色光源3と同じ構成であり、外光遮蔽箱8Cは外光遮蔽箱8と同じ構成である。計測対象2は真珠Pである。画像計測装置1Cは画像処理装置7Cに接続されている。
 画像処理装置7Cは、画像処理装置7と同じく汎用のパーソナルコンピュータであり、画像処理装置7と同じく、画像データ取得手段と、処理対象領域抽出情報生成手段と、広DR画像データ生成手段と、評価値算出手段とを備えているが、評価値算出手段において色彩値のばらつき度は算出しない。また、画像データ取得手段は、各選別光に対する透過画像データも、受信により取得する。さらに、画像処理装置7Cは、各選別光に対する透過画像データの真珠領域の画素値を正規化して、各選別光に対する正規化画像データを生成する正規化画像データ生成手段と、各選別光に対する正規化画像データについて、平均画像データとの差を表す干渉色判定用画像データを生成する干渉色判定用画像生成手段と、各選別光に対する干渉色判定用画像データに基づいて、カラー画像を生成する干渉色可視化手段と、各選別光に対する干渉色判定用画像データにおける中心部と周辺部とのコントラストを表すコントラスト値を算出する干渉色数値化手段とを備えている。
 ここで、透過画像データとは、光を計測対象2の一面側から透過させて、計測対象2の他面側を撮像した画像データをいう。なお、このときの光は、計測対象2を透過することなく直接計測対象2の他面側に漏れることがないようにする。また、正規化画像データとは、透過画像データにおける処理対象領域を正規化した画像データをいう。
 狭帯域光源11は、多波長可変光源(本実施形態では、Nikon社製ELS-VIS)であり、420~720nmの波長域内で10nm間隔で中心波長を変えて、帯域幅約20nmの狭帯域光を発光可能である。なお、後述するように、520nm、580nm、及び、650nmをそれぞれ中心波長とする光を、選別光とする。サンプルホルダ4Cには、上下方向に貫通する円形の孔41が設けられて、真珠Pは孔41の上端縁に支持される。図23(b)は、サンプルホルダ4Cの平面図である。狭帯域光源11からの光は、孔41に導入されて、孔41に支持された真珠Pを下方から照明する。孔41の直径は、真珠Pの直径よりも小径とされるとともに、真珠Pを支持している状態で狭帯域光源11からの光が直接(即ち、真珠Pを透過することなく)サンプルホルダ4Cの上面側に漏れることがないような径とされる。本実施形態では、真珠Pの直径は約7mmであり、孔41の直径は5.5mmとされている。
 画像計測装置1Cは、モノクロカメラ(本実施形態では、浜松ホトニクス社製ORCA-ER-1394)であり、レンズ収納部分が外光遮蔽箱8Cの内部に配置されて、孔41に支持された真珠Pを、略鉛直方向に沿って上方から撮像するように構成されている。即ち、画像計測装置1Cは、狭帯域光源11に対向するように配置され、狭帯域光源11により照明される真珠Pの一面側(本実施形態では下面側)とは反対側の真珠Pの他面側(本実施形態では上面側)を撮像する。なお、白色光源3Cは、真珠Pを斜め上方(望ましくは、真珠Pの真上方向に対して約30~45°傾斜した方向)から照明する。したがって、画像計測装置1Cは、白色光源3Cによって照明された真珠Pを撮像するときは、真珠Pが反射した反射光を捉えるのに対し、狭帯域光源11によって照明された真珠Pを撮像するときは、真珠Pを透過した透過光を捉えることとなる。
 《波長の選択》ここで、選別光の決定(波長の選択)について説明する。真珠における干渉は、真珠層の各層の厚さ及び一様性に依存しており、厚さが一様で(即ち、でこぼこが無く)薄い層が多数形成された真珠は、干渉に強弱が生じ、干渉色が豊富となる。したがって、真珠を透過したときの干渉に強弱が(平均を外れて大きく)生じるような波長を中心波長とする狭帯域光を、真珠のランク毎に決定して、選別光とする。すなわち、真珠のランク毎に干渉の強弱が最も顕著になるような波長を選択して、選別光の中心波長とする。波長の選択は、図24に示すような流れで行う。波長の選択の場合も、真珠の評価の場合と同じく評価装置10Cを用いる。以下、波長の選択で用いる真珠を、真珠サンプルともいう。
 [画像の計測処理]まず、ランクが分かっている真珠サンプルを、上述したようにサンプルホルダ4Cに支持させて狭帯域光源11で下方から照明し、狭帯域光源11から発する光の波長(中心波長)を変えつつ、画像計測装置1Cで撮像する。すなわち、各真珠サンプルにつき、波長λ1,λ2,…,λNの光で撮像し、N枚の画像(透過画像データに相当。)を得る(図24のステップS1301)。これらの画像を、画像処理装置7Cに入力する。真珠サンプルは、直径約7mmで、Aランク、Bランク、Cランクのそれぞれについて10個ずつとした。なお、真珠鑑定士の目視評価により、評価の高い方からAランク、Bランク、Cランクにランク分けした。また、比較のために、直径8mmの模造真珠2個、及び、ジルコニア製の直径6.35mmのボールベアリング4個も同様に計測とした。
 [背景マスクの生成処理]画像処理装置7Cは、真珠領域を抽出するための背景マスクを生成する(図24のS1302)。詳しくは、まず、上記N枚の画像から選択した真珠と背景とが明確に区分される1枚の画像を対象に、または、上記N枚の画像を平均した画像を対象に、真珠領域と背景とを分離するための閾値を選択する。閾値の選択は、大津の閾値選択を用いる。大津の閾値選択は、下記参考文献(1)に記載されており、周知であるので詳説しないが、対象とした画像I(i,j)(但し、iは横方向の変数、jは縦方向の変数であり、i=1,2,…,m、j=1,2,…,n)の各画素が採りうる値0~IMAXに対し、ある閾値ITHを設定し、0≦I(i,j)<ITH、ITH≦I(i,j)≦IMAXの2群に画素値群を分類し、各群内の画素値のばらつきよりも群間の画素値のばらつきが最大となる閾値ITHを求めるものである。本実施形態では、画像計測装置1Cは、W256×H336ピクセル、画像出力は12ビットであるので、m=256、n=336、IMAX=4095であり、ITHは真珠毎に大津の閾値選択により選択した。そして、図25に示すように、対象とした画像I(i,j)の各画素値が、閾値ITHより小さければ画素値を0、小さくなければ画素値を1として、背景マスクM(i,j)を生成する。M(i,j)=1であれば真珠領域、M(i,j)=0であれば背景(真珠領域外)であることを示す。
 [信号の正規化処理]次に、画像処理装置7Cは、上記N枚の画像について、カメラ感度や光源強度等のアーチファクトを軽減するために、信号の正規化を行う(図24のS1303)。図26に基づいて詳述する。波長λkの狭帯域光で撮像したときの画像をI(i,j,k)(但し、kは波長方向の変数であり、k=1,2,…,N)と表記する。なお、波長λkという代わりに、波長kということもある。まず、図26の「ループ1」に示すように、画像I(i,j,k)に基づいて、波長毎の平均画素値P(k)を計算する。詳しくは、波長kを固定しておいて、平均画素値P(k)及び加算回数Cを0とし(S1501)、画像I(i,j,k)について、背景マスクM(i,j)により、真珠領域内の画素値を抽出してP(k)に加算するとともに、加算回数を数える(図26の「ループ2」参照)。そして、真珠領域内の全画素値の合計P(k)が得られたら、そのP(k)を加算回数で除算することにより、波長kについて平均画素値P(k)を生成する(S1504)。これを、全ての波長kについて繰り返し、波長k毎に平均画素値P(k)を得る。次に、図26の「ループ3」に示すように、画像I(i,j,k)の真珠領域内の各画素値を、平均画素値P(k)で除算することにより、正規化画像(正規化画像データに相当。)In(i,j,k)を生成する(S1505、S1506)。なお、正規化画像In(i,j,k)において、真珠領域外の画素値は0とする(S1507)。
 [干渉色による空間的信号変化の抽出処理]画像処理装置7Cは、各正規化画像In(i,j,k)に基づいて、干渉色による空間的信号変化の抽出を行う(図24のS1304)。図27に基づいて詳述する。画像処理装置7Cは、各正規化画像In(i,j,k)の各画素について、その画素値を波長方向に合計し(図27の「ループ2」参照)、加算回数Cでその合計を除算することにより、平均画素値S(i,j)を生成する。これを、全画素(i,j)について繰り返し、平均画像(平均画像データに相当。)S(i,j)を生成する(図27の「ループ1」参照)。そして、正規化画像In(i,j,k)から平均画像S(i,j)を減算することにより、平均的な画像強度変化を除去した画像(干渉色判定用画像データに相当。)Inn(i,j,k)を生成する(図27の「ループ3」参照)。画像Inn(i,j,k)は、平均画像S(i,j)との差、即ち、平均的な強度変化パターンからの外れを反映するものであり、その外れを2次元空間上のパターンとして可視化できるものであるので、空間パターン可視化画像ともいう。
 図28の(a)はAランクの真珠サンプルの背景マスク済みのカメラ画像、(b)は同真珠サンプルの空間パターン可視化画像であり、(c)はBランクの真珠サンプル、(d)はCランクの真珠サンプル、(e)は模造真珠、(f)はボールベアリングの空間パターン可視化画像である。また、それぞれ上から順に、波長520、580、650nmの光を透過させたときの画像である。図28(b)~(d)から、波長520nmのとき、Aランクでは周辺部が暗く中心部が明るくなるが、B、Cランクでは周辺部が明るく中心部が暗くなる等、波長と真珠のランクによってパターンが異なることが分かる。また、模造真珠やボールベアリングでは、本物の真珠のように周辺部と中心部とで明暗が分かれるようなパターンにはならないことが分かる。したがって、ランクによってパターンの差異がよく出るような波長を選択すれば、空間パターン可視化画像によって真珠をランク分けできることが分かる。但し、空間パターン可視化画像のままでは波長の選択が容易でないので、以下のように、空間パターン可視化画像から、真珠の中心部と周辺部とのコントラストを表すコントラスト値(空間コントラスト)を計算することする。
 [空間コントラストの計算処理]画像処理装置7Cは、画像Inn(i,j,k)に基づいてコントラスト値を計算する(図24のS1305)。図29に基づいて詳述する。図29において、C(k)は中心コントラスト変数、S(k)は周辺コントラスト変数、CSC(k)はコントラスト値、CNTはカウンタ、FC(i,j)は真珠領域の中心部が周辺部よりも重くなるように設定された重みづけ数、FS(i,j)は真珠領域の周辺部が中心部よりも重くなるように設定された重みづけ係数である。これらの重みづけ係数の決定方法については後述する。
 画像処理装置7Cは、波長k毎に、画像Inn(i,j,k)について、図29の「ループ1」に示す処理を行う。即ち、最初にC(k)、S(k)、CSC(k)、及び、CNTを0とし(S1701)、画像Inn(i,j,k)の真珠領域の各画素値に対して、重みづけ係数FC(i,j)を乗算してC(k)に加算するとともに、重みづけ係数FS(i,j)を乗算してS(k)に加算し、加算回数をCNTでカウントする(図29の「ループ2」参照)。画像Inn(i,j,k)の真珠領域の全画素値に対してかかる処理を行ったら、C(k)からS(k)を減算したものをCNTで除算することにより、CSC(k)を求める。CSC(k)は、波長kによる空間パターン可視化画像Inn(i,j,k)の真珠領域における中心部と周辺部とのコントラストを表す値となり、CSC(k)が正であれば中心部が周辺部よりも明るく、負であれば周辺部が中心部よりも明るいことを示し、CSC(k)の絶対値が大きいほど中心部と周辺部とのコントラストが強いことを示している。
 ここで、重みづけ係数の決定方法について説明する。まず、画像処理装置7Cは、図30に示すフローチャートにしたがって、真珠領域の位置と大きさとを検出する。図30において、xは画像全体の右端の座標、yは画像全体の下端の座標、x1、y1、x2、y2は、それぞれ真珠領域の左端、上端、右端、下端の座標を求めるための変数であり、xcは真珠領域の左右方向における中心座標、ycは真珠領域の上下方向における中心座標、cは真珠領域の直径である。
 次に、画像処理装置7Cは、図31に示すフローチャートにしたがって、重みづけ係数を計算する。図31において、scは中心部が重み大の場合の重みの総和、ssは周辺部が重み大の場合の重みの総和、fc(i,j)は中心部が重み大の場合の重み係数行列、fs(i,j)は周辺部が重み大の場合の重み係数行列、N([i,j],μ,σ)は、平均ベクトルμをμ=[xc,yc](但し、xc,ycは真珠領域の中心座標)、分散共分散行列Sを次式[数10]で表される行列とした2次元正規分布である。[数10]におけるcは、真珠領域の直径である。
Figure JPOXMLDOC01-appb-M000010
 決定した重みづけ係数の模式図を図32に示す。図32(a)は中心部が重み大の場合、図32(b)は周辺部が重み大の場合を示す。
 [波長の選択処理]上記のようにして計算したコントラスト値に基づいて、選別光の波長を選択する(図24のS1306)。図33は、計算したコントラスト値を、横軸を狭帯域光源11の波長、縦軸をコントラスト値として示したものであり、(a)はAランクの真珠、(b)はBランクの真珠、(c)はCランクの真珠、(d)は模造真珠、(e)はボールベアリングのコントラスト値を示し、(a)~(e)において、細線は個々のサンプルのコントラスト値を示し、エラーバー付きの太線は平均を示す。また、(f)は(a)~(e)における平均を取り出したものである。
 図33から、真珠サンプルのランクによって、コントラスト値の平均が高くなる波長が異なることが分かる。したがって、各ランクについて、コントラスト値の平均が他のランクに比して突出して高く(或いは低く)なるような波長を、選別光の波長とすれば、真珠をランク分けできる。本実施形態では、Aランクについては520nm、Bランクについては580nm、Cランクについては650nmを、他のランクよりもコントラスト値の平均が高くなる波長として選択し、選別光の波長とした。図33(a)~(f)の縦の太線は、これら選択された波長を示す。
 《真珠の評価》評価装置10Cを用いて、真珠Pの光沢及び色を評価する評価方法について説明する。
 評価装置10Cを用いて真珠Pの光沢を評価する場合、第1実施形態と同様にして、白色光源3Cで照明して、露出を変えつつ真珠Pを複数回撮像することにより、露出の異なる複数枚の画像を得る。そして、それらの画像から広DR画像を生成し、広DR画像から真珠領域における輝度の歪度を求めて、歪度が正で大きい程、光沢がよいと評価する。なお、画像計測装置1Cはモノクロカメラであるので、画像計測装置1Cから出力された画素値は、輝度値と線形の関係にあり、そのまま輝度値として使用できる。すなわち、第3実施形態では、第1実施形態のようにRGB値から輝度値を計算する必要はない。
 次に、評価装置10Cを用いて真珠Pの色を評価する場合について、図34に基づいて説明するが、ステップS1801~S1804の処理は、上述した波長の選択におけるステップS1301~S1304の処理と同様であるので、適宜説明を省略する。なお、ステップS1801が透過画像データ取得ステップに、ステップS1802及びS1803が正規化画像データ生成ステップに、ステップS1804が干渉色判定用画像生成ステップに、ステップS1805が干渉色可視化ステップに、ステップS1806及びS1807が干渉色数値化ステップに、それぞれ相当する。
 [画像の計測処理]真珠Pを、上述したようにサンプルホルダ4Cに支持させて、狭帯域光源11から波長(中心波長)520nm、580nm、650nmの各選別光を照射して、画像計測装置1Cで撮像する(図34のステップS1801)。すなわち、真珠Pにつき3枚の画像を得て、画像処理装置7Cに入力する。
 [背景マスクの生成処理]画像処理装置7Cは、真珠領域を抽出するための背景マスクを生成する(図34のS1802)。ここでは、上記3枚の画像を平均した画像を対象に、真珠領域と背景とを分離するための閾値ITHを、大津の閾値選択により選択し、図25に示すようにして背景マスクM(i,j)を生成する。
 [信号の正規化処理]次に、画像処理装置7Cは、上記3枚の画像について、図26に示すようにして信号の正規化を行い、正規化画像In(i,j,k)を生成する(図34のS1803)。なお、k=1,2,3であり、k=1は波長520nm、k=2は波長580nm、k=3は波長650nmを表す。
 [干渉色による空間的信号変化の抽出]画像処理装置7Cは、各正規化画像In(i,j,k)に基づいて、図27に示すようにして干渉色による空間的信号変化の抽出を行い、空間パターン可視化画像Inn(i,j,k)を生成する(図34のS1804)。ここでの平均画像S(i,j)は、3つの正規化画像In(i,j,k)(k=1,2,3)の平均である。生成した空間パターン可視化画像を、真珠サンプルから得られた空間パターン可視化画像(図28(a)~(c)参照)と目視で比較することにより、真珠Pのランクを決定可能であるが、ランク付けを容易にするために、以下に説明するように、空間パターン可視化画像に基づいて、干渉色の可視化あるいは数値化を行う。
 [干渉色の可視化処理]画像処理装置7Cは、各選別光による空間パターン可視化画像を、1枚のカラー画像に置換することにより、干渉色の可視化を行う(図34のS1805)。図35は、波長の選択における各サンプルの各選別光に対するコントラスト値を、プロットしたものであり、(a)は520nmと580nm、(b)は580nmと650nm、(c)は650nmと520nmに対するものである。図中、黒丸はAランクの真珠、黒い四角はBランクの真珠、黒い菱形はCランクの真珠、黒い上向きの三角は模造真珠、黒い下向きの三角はボールベアリングを示し、各図形中の番号はサンプルに付された番号である。図35(c)から、波長520nmと650nmに対するコントラスト値には強い相関性があることが分かる。そこで、これら2つの選別光のうちいずれか一方は削減可能であり、本実施形態では650nmを削減し、520nmと580nmの2波長による空間パターン可視化画像を用いて、次のようにRGB値を決定して可視化を行うこととする。
 画像処理装置7Cは、真珠領域の各画素(i,j)について、画素値Inn(i,j,1)あるいはInn(i,j,2)を、-TH~+TH(TH;正規化後最大値)までの所定範囲に収まるように正規化した値を、灰色(R,G,B)=(0.5,0.5,0.5)に対して加算することにより、RGB値を決定する。図36に基づいて説明すると、画像処理装置7Cは、まず、正規化係数MXを決定する(S1901)。そして、真珠領域にある画素(i,j)について(S1902でYES)、波長580nmの画素値Inn(i,j,2)に正規化係数MXを乗じたものを0.5に加算してR値(RGB(i,j,1))とし、波長520nmの画素値Inn(i,j,1)に正規化係数MXを乗じたものを0.5に加算してG値(RGB(i,j,2))とし、波長580nmの画素値Inn(i,j,2)に正規化係数MXを乗じたものを0.5に加算してB値(RGB(i,j,3))とする(S1903)。即ち、灰色(R,G,B)=(0.5,0.5,0.5)から、Inn(i,j,1)でG値を変化させ、Inn(i,j,2)でR値及びB値を同量変化させることにより、画素(i,j)の色を決定する。
 そして、画像処理装置7Cは、色域判定を行う(S1904)。色域判定では、ステップS1902で算出したR値、G値、B値が、それぞれ0.0以上1.0以下であるか否かを判定し、0.0未満であれば0.0、1.0を超えていれば1.0とする。すなわち、RGB値をそれぞれ0.0~1.0の範囲に収める。正規化後最大値THを0.5より大きくすると、一定以上のコントラスト値を持つ画素は、最大強度値で強調表示されることとなる。また、正規化後最大値THが0.5以下であれば、RGB値は0.0~1.0の範囲を超えないので、色域判定は不要である。なお、本実施形態では、正規化後最大値TH=0.5とし、色域判定は不要とする。
 一方、画像処理装置7Cは、真珠領域にない画素(i,j)については(S1901でNO)、RGB値を全て0.0とする(S1905)。
 ここで、正規化係数MXの決定方法を、図37に基づいて説明する。画像処理装置7Cは、正規化係数MXを固定とするか、計測する真珠P毎に決定するかを、正規化方針フラグの値FLAGにより判断する(S2001)。なお、FLAG=1のとき固定、FLAG=0のとき真珠P毎に決定とする。
 画像処理装置7Cは、FLAG=0のとき、波長520nmと580nmに対する空間パターン可視化画像からの各画素値Inn(i,j,k)から最大画素値を抽出する(図37の「ループ1」参照)。そして、正規化後最大値THをその最大画素値で除算したものを、正規化係数MXとする(S2006)。このように、真珠P毎に正規化係数MXを定めれば、真珠P毎に可視化の画像強度を調整可能である。
 一方、画像処理装置7Cは、FLAG=1のとき、予め設定された正規化係数CMXを正規化係数MXとする(S2007)。正規化係数CMXは、例えば、多数の真珠サンプルについて、上記FLAG=0のときと同様にして正規化係数MXを求めておき、その平均とすることができる。本実施形態では、正規化係数MXは固定とし、MX=1.2879とする。
 図28に示したA~Cランクの真珠、模造真珠及びボールベアリングの空間パターン可視化画像から、図36の可視化処理により生成されたカラー画像を、白黒で図38に示す。図38では、上から順に、Aランクの真珠、Bランクの真珠、Cランクの真珠、模造真珠、ボールベアリングの画像が示され、左から順に、波長520nmの空間パターン可視化画像、波長580の空間パターン可視化画像、及び、それらから生成されたカラー画像を白黒で表した白黒画像が示されている。これらの白黒画像において、色の濃い部分はカラー画像ではマゼンダの濃い部分であり、色の薄い部分はカラー画像では緑色が濃い部分である。図38から、Aランクの真珠のカラー画像では、周辺部に濃いマゼンダが、中央部に濃い緑色が現れ、Bランクの真珠のカラー画像では、周辺部にマゼンダが、中央部に緑色が現れるが、Aランクの場合よりもそれらの色が薄くなるとともに、周辺部のマゼンダの部分がAランクの場合よりも中央部に入り込んでおり、Cランクの真珠のカラー画像では、周辺部に緑色が、中央部にマゼンダが現れていることが分かる。
 図39に、波長の選択で用いた各サンプルについて、上記可視化処理により生成したカラー画像を白黒で示す。但し、図38とは異なり、背景を白にしている。これらの画像からも、Aランクの真珠のカラー画像の多くは、周辺部にマゼンダが中央部に緑色が現れるパターンであり、Cランクの真珠のカラー画像の多くは、周辺部に緑色が中央部にマゼンダが現れるパターンであり、Bランクの真珠のカラー画像では両方のパターンが混在していることが分かる。したがって、波長520nmと580nmの選別光による空間パターン可視化画像から、上述したようにカラー画像を生成すれば、そのカラー画像における色のパターンによって、真珠Pのランクを判別可能であることが分かる。
 [干渉色の数値化処理]画像処理装置7Cは、コントラスト値を計算することにより(S1806)、干渉色を数値化する(S1807)。以下、詳述する。まず、画像処理装置7Cは、波長の選択の場合と同様に、真珠Pの空間パターン可視化画像Inn(i,j,k)に基づいて、図29に示すようにして、コントラスト値を計算する。なお、上述したように、520nmと650nmの選別光によるコントラスト値間には強い相関性があることから、数値化処理においても、650nmの選別光によるコントラスト値は用いず、520nmと580nmの選別光によるコントラスト値を計算する。
 図40は、波長の選択で用いた各サンプルのコントラスト値を、横軸(X軸)を520nmの選別光に対するコントラスト値、縦軸(Y軸)を580nmの選別光に対するコントラスト値としたXY平面に、プロットしたものであり、(a)はAランクの真珠サンプル、(b)はBランクの真珠サンプル、(c)はCランクの真珠サンプル、(d)は模造真珠、(e)はボールベアリング、(f)は全サンプルを示す。なお、図中の図形は、図35と同様に定めたものである。
 図40から、横軸を520nmの選別光に対するコントラスト値、縦軸を580nmの選別光に対するコントラスト値としたときの原点(0,0)に対し、Aランクの真珠サンプルのコントラスト値の多くは、右下方向に存在し、Bランクの真珠サンプルのコントラスト値の多くは、上方向に存在し、Cランクの真珠サンプルのコントラスト値の多くは、左方向に存在することが分かる。すなわち、原点からの方位は、干渉の良さを表している。また、原点からの距離は、干渉の強さを表している。したがって、真珠Pのコントラスト値を、図40に示すようなXY平面にプロットすれば、その原点からの距離と方位とで、真珠Pのランクが判別可能であることが分かる。すなわち、コントラスト値に基づいて、真珠Pのランクを判定することができる。
 第3実施形態によれば、色の評価において、それぞれが、真珠を透過したときの干渉に強弱(コントラスト)が生じるような波長を、中心波長とする狭帯域の複数の選別光を、真珠Pに透過させる。そして、その透過光を捉えた画像における、平均的な強度変化パターンからの外れを表す空間パターン可視化画像に基づいて、色を評価するので、強度変化が大きいか否か、即ち、干渉色が豊富か否かを評価することができて、真珠Pについて正しく色の評価を行える。
 そして、第3実施形態では、ランクが分かっている複数の真珠サンプルについて、それぞれ中心波長が異なる複数の狭帯域光を透過させて、空間パターン可視化画像を生成して、コントラスト値を計算し、各ランクについて、コントラスト値の平均値が他のランクに比して突出して高く或いは低くなる狭帯域光を選択して、その中心波長を選別光の中心波長としている。すなわち、真珠のランク毎に干渉の強弱が最も顕著になるような波長を選択して、選別光の中心波長としており、具体的には、選別光は、ランクによって、空間パターン可視化画像における中心部と周辺部とのコントラストの状態が大きく異なるような波長の光とされている。したがって、各選別光を真珠Pに透過させて空間パターン可視化画像を生成すれば、その干渉の強弱、具体的には、中心部と周辺部とのコントラストの状態により、真珠Pのランクを判別できる。
 また、干渉色判定用画像データに基づいて、干渉色の発現を視覚化したカラー画像を生成するので、視覚的に干渉色の発現状態が分かり易い。
 また、コントラスト値を算出することにより、干渉色の発現状態を数値化できるので、真珠Pの色の評価が容易となる。
 〈変形例〉以下、変形例について説明する。
 (1)画像処理装置7、7B、7Cにおいて、輝度値の歪度、及び、色彩値のばらつき度若しくはコントラスト値に基づいて、所定のルールで計測対象2のグレードを判定し、そのグレードを表示するようにしてもよい。
 (2)画像計測装置1、1B、1Cと画像処理装置7、7B、7Cとを接続しない形態とすることもできる。かかる場合には、画像計測装置1、1B、1Cにおいて画像データを着脱可能な記録媒体に記録し、画像処理装置7、7B、7Cにその記録媒体の読取り装置(画像データ取得手段に相当。)を設けて、その記録媒体から画像処理装置7、7B、7Cが画像データを読み取るように構成すればよい。
 (3)計測対象2の大きさが不変であって処理対象領域の範囲が予め決まっている場合や、計測対象2の一部分を撮像して評価を行なうため画像に背景を含まない場合(即ち、画像全体が処理対象領域内である場合)等には、処理対象領域抽出情報を生成する必要は無く、処理対象領域内の画素値を抽出する処理も不要である。
 (4)画像計測装置1、1B、1Cが、計測対象2に対して、1回の撮影で白とび部分も黒つぶれ部分もない画像を取得可能な性能を有するものであれば、撮影枚数は1枚としてもよい。かかる場合には、有効露光域マスクを生成する必要はなく、広DR画像生成処理も不要である。また、撮影枚数を複数とした場合であっても、画像L0の全画素が有効露光域内にある場合(有効露光域マスクの生成において、全画素がE(i,j)=1となった場合)には、画像L0のみを用いるものとし、画像S1以降は用いなくてよい。すなわち、評価に用いる画像の枚数は、撮影枚数と同じでなくてもよく、先に十分な枚数の撮影を行っておいてから、S.S.の遅い画像から順に有効露光域マスクを生成し、全画素が有効露光域内にある画像が見つかった時点で、それよりもS.S.が早い画像を用いないこととしてもよい。
 (5)サンプルホルダ4、4B、4C、4C´、光吸収板6、6B、及び、外光遮蔽箱8、8B、8Cの内面を、2次反射が略無い灰色としてもよい。即ち、背景色は、ある閾値で計測対象2との分離が可能な程度に出力信号が小さくなるような色であればよい。なお、2次反射は全く無いことが望ましいが、評価装置10、10B、10Cの評価精度に影響を与えない程度の2次反射は許容される。
 (6)画像処理装置7、7B、7Cを、汎用パーソナルコンピュータではなく、専用機器としてもよい。
 (7)S.S.ではなく、絞り(F値)の変更等、他の方法で露出を変更してもよい。
 (8)画素値からCIE1976表色系の(Y,u´,v´)の輝度値Yを算出して用いる等、上記輝度値や色彩値以外の輝度値や色彩値を算出して用いることとしてもよい。
 (9)第3実施形態のように3つのランクに真珠を分ける場合、選別光の中心波長は、510~530nm、570~590nm、640~660nmの範囲からそれぞれ任意に選択できる。これらの範囲であれば、ランクによってコントラスト値に差が出てくるからである(図33参照)。また、選別光の帯域幅は狭帯域光源11の性能に依存するものであり、上記帯域幅に限られないことは勿論である。さらに、ランク分けの数により、選別光の数を増減することも可能である。
 (10)狭帯域光源11は、発光ダイオードやレーザーダイオードであってもよい。
 (11)サンプルホルダ4Cの代わりに、図41に示すようなサンプルホルダ4C´を用いれば、画像計測装置1Cにおいて複数の真珠Pを同時に計測できる。図41(a)は複数の真珠Pを載置した状態のサンプルホルダ4C´の平面図、(b)はその縦断面図である。サンプルホルダ4C´には、孔41と同様の孔41´が複数設けられており、各孔41´にそれぞれ真珠Pを支持させて、各孔41´に狭帯域光源11からの光を下方から導入することにより、複数の真珠Pを同時に計測可能である。
 (12)第3実施形態では、波長の選択の場合には、(I)420~720nmの範囲の10nm間隔の分光画像を正規化して波長方向に平均したもの、真珠Pの色の評価の場合には、(II)選択した3波長の画像を正規化して波長方向に平均したものを、平均画像S(i,j)としたが、いずれの場合にも、広帯域の白色光を透過させた画像に対して信号の正規化を行ったもの(以下、「白色光画像」という。)を、平均画像S(i,j)としてもよい。白色光は全波長の光を含むことから、白色光画像は正規化画像の波長方向の平均に相当するからである。詳しくは、狭帯域光源11を白色光源に置き換えて真珠P(波長の選択の場合は真珠サンプル)を撮像し、白色光画像を得る。そして、白色光画像の真珠領域の全画素値の合計を求めて、白色光画像の真珠領域の画素数でその合計を除算することにより、白色光画像の真珠領域の平均画素値を求める。そして、白色光画像の真珠領域の各画素値を、求めた平均画素値で除算することにより、白色光画像を正規化し、平均画像とする。なお、平均画像における真珠領域以外の画素値は0とする。
 図42の(a)は上記(I)、(b)は上記(II)、(c)は擬似白色光を用いた白色光画像を平均画像とした場合の、各選別光に対するコントラスト値のランク平均である。なお、図中の図形は、図35と同様に定めたものである。この図から、白色光画像を平均画像としてもよいことが分かる。
 白色光画像を平均画像S(i,j)に用いれば、650nmの選別光は、空間パターン可視化画像の生成の際も不要となることから、選別光は520nm及び580nmの2つでよいこととなる。このように、ランクの数と選別光の数とは必ずしも一致しない。
 (13)第3実施形態では、520nmと580nmの2波長を用いて、干渉色の可視化処理を行ったが、520nmと580nmと650nmの3波長を用いて、干渉色の可視化処理を行ってもよい。かかる場合には、例えば、図36のステップS1903において、波長580nmの画素値Inn(i,j,2)に正規化係数MXを乗じたものを0.5に加算してR値とし、波長520nmの画素値Inn(i,j,1)に正規化係数MXを乗じたものを0.5に加算してG値とし、波長650nmの画素値Inn(i,j,2)に正規化係数MXを乗じたものを0.5に加算してB値とする。即ち、灰色(R,G,B)=(0.5,0.5,0.5)から、Inn(i,j,1)でG値を変化させ、Inn(i,j,2)でR値を変化させ、Inn(i,j,3)でB値を変化させることにより、画素(i,j)の色を決定する。
 以下に、本明細書で引用した参考文献(1)を示す。
 参考文献(1)  Otsu,N."A Threshold Selection Method from Gray-level Histograms",IEEE Transaction on System,Man,and Cybernetics,Vol.9,No.1,
1979,pp.62-66
 1、1B、1C 画像計測装置(デジタル撮像装置)
 2 計測対象(対象物)
 3、3B、3C 光沢計測用光源
 4、4B、4C、4C´ サンプルホルダ(支持部)
 7、7B、7C 画像処理装置(画像処理部)
 9、9B、9C 撮像部
 10、10B、10C 評価装置
 11 干渉色計測用光源
Figure JPOXMLDOC01-appb-T000011
Figure JPOXMLDOC01-appb-T000012
Figure JPOXMLDOC01-appb-T000013
Figure JPOXMLDOC01-appb-T000014
Figure JPOXMLDOC01-appb-T000015

Claims (12)

  1.  パール色を有する対象物の評価方法であって、
     白色光源で照明された前記対象物をデジタル撮像装置で露出を変えて複数回撮像することにより、露出が異なる複数の画像データを取得する画像データ取得ステップと、
     前記複数の画像データを合成することにより、前記各画像データよりも輝度範囲が広い広輝度ダイナミックレンジの画像データ(以下、「広DR画像データ」という。)を生成する広DR画像データ生成ステップと、
     前記広DR画像データ内の各画素値に基づいて、前記広DR画像データの処理対象とすべき領域(以下、「処理対象領域」という。)における輝度値の歪度を算出する評価値算出ステップと、
     を有し、前記輝度値の歪度に基づいて前記対象物の光沢を評価することを特徴とする評価方法。
  2.  前記対象物が真珠である請求項1記載の評価方法であって、
     それぞれが、真珠を透過したときの干渉に強弱が生じるような波長を、中心波長とする狭帯域の複数の選別光を、前記真珠の一面側から透過させて、前記真珠の他面側を前記デジタル撮像装置で撮像することにより、前記各選別光に対する透過画像データを取得する透過画像データ取得ステップと、
     前記各選別光に対する前記透過画像データの処理対象領域の画素値を正規化して、前記各選別光に対する正規化画像データを生成する正規化画像データ生成ステップと、
     前記各選別光に対する前記正規化画像データについて、前記真珠の前記正規化画像データの波長方向の平均に相当する平均画像データとの差を表す干渉色判定用画像データを、生成する干渉色判定用画像生成ステップと、
     を有し、前記各選別光に対する前記干渉色判定用画像データに基づいて、前記真珠の色を評価することを特徴とする評価方法。
  3.  前記各選別光に対する前記干渉色判定用画像データに基づいて、前記真珠における干渉色の発現を視覚化したカラー画像を生成する干渉色可視化ステップを有し、
     前記カラー画像に基づいて前記真珠の色を評価することを特徴とする請求項2記載の評価方法。
  4.  前記各選別光に対する前記干渉色判定用画像データにおける中心部と周辺部とのコントラストを表すコントラスト値を算出する干渉色数値化ステップを有し、
     前記コントラスト値に基づいて前記真珠の色を評価することを特徴とする請求項2記載の評価方法。
  5.  複数のランクに分けられる複数の真珠サンプルのそれぞれについて、それぞれ中心波長の異なる複数の狭帯域光を前記真珠サンプルの一面側から透過させて、前記真珠サンプルの他面側を前記デジタル撮像装置で撮像することにより、前記各狭帯域光に対する透過画像データを取得し、
     前記各狭帯域光に対する前記透過画像データの処理対象領域の画素値を正規化して、前記各狭帯域光に対する正規化画像データを生成し、
     前記各狭帯域光に対する前記正規化画像データについて、前記真珠サンプルの前記正規化画像データの波長方向の平均に相当する平均画像データとの差を表す干渉色判定用画像データを、生成し、
     前記各狭帯域光に対する前記干渉色判定用画像データにおける中心部と周辺部とのコントラストを表すコントラスト値を計算し、
     各ランクについて、前記コントラスト値の平均が他のランクに比して突出して高く或いは低くなる狭帯域光の中心波長を、前記選別光の中心波長とすることを特徴とする請求項2記載の評価方法。
  6.  前記評価値算出ステップにおいて、前記広DR画像データ内の各画素値に基づいて、前記広DR画像データの前記処理対象領域における色彩値のばらつきの度合いを示す値(以下、「ばらつき度」という。)を算出し、
     前記色彩値のばらつき度に基づいて前記対象物の色を評価することを特徴とする請求項1記載の評価方法。
  7.  前記広DR画像データ生成ステップにおいて、所定の有効露光範囲にある画素値であって、かつ、露出が大きい画像データの画素値を優先的に用いることにより、前記広DR画像データを生成することを特徴とする請求項1記載の評価方法。
  8.  パール色を有する対象物の評価装置であって、
     撮像部と画像処理部とを備え、
     前記撮像部は、
      前記対象物を支持する支持部と、
      前記対象物を照明する白色光源と、
      前記対象物を撮像するデジタル撮像装置と、
     を備えて、前記支持部に支持されて前記白色光源で照明された前記対象物を、前記デジタル撮像装置で露出を変えて複数回撮像することにより、露出が異なる複数の画像データを出力するように構成され、
     前記画像処理部は、
      前記複数の画像データを取得する画像データ取得手段と、
      前記複数の画像データを合成することにより、前記各画像データよりも輝度範囲が広い広輝度ダイナミックレンジの画像データ(以下、「広DR画像データ」という。)を生成する広DR画像データ生成手段と、
      前記広DR画像データ内の各画素値に基づいて、光沢の評価量として、前記広DR画像データの処理対象とすべき領域(以下、「処理対象領域」という。)における輝度値の歪度を算出する評価値算出手段と、
     を備えることを特徴とする評価装置。
  9.  前記対象物が真珠である請求項8記載の評価装置であって、
     前記撮像部が、それぞれが、真珠を透過したときの干渉に強弱が生じるような波長を、中心波長とする狭帯域の複数の選別光を発する狭帯域光源を備えて、前記狭帯域光源から前記各選別光を前記支持部に支持された前記真珠の一面側から透過させて、前記真珠の他面側を前記デジタル撮像装置で撮像することにより、前記各選別光に対する透過画像データを出力するように構成され、
     前記画像データ取得手段が、前記各選別光に対する透過画像データを取得し、
     前記画像処理部が、
      前記各選別光に対する前記透過画像データの処理対象領域の画素値を正規化して、前記各選別光に対する正規化画像データを生成する正規化画像データ生成手段と、
      前記各選別光に対する前記正規化画像データについて、前記真珠の前記正規化画像データの波長方向の平均に相当する平均画像データとの差を表す干渉色判定用画像データを、生成する干渉色判定用画像生成手段と、
     を備えることを特徴とする評価装置。
  10.  前記画像処理部が、前記各選別光に対する前記干渉色判定用画像データに基づいて、前記真珠における干渉色の発現を視覚化したカラー画像を生成する干渉色可視化手段を備えることを特徴とする請求項9記載の評価装置。
  11.  前記画像処理部が、前記各選別光に対する前記干渉色判定用画像データにおける中心部と周辺部とのコントラストを表すコントラスト値を算出する干渉色数値化手段を備えることを特徴とする請求項9記載の評価装置。
  12.  前記評価値算出手段が、前記広DR画像データ内の各画素値に基づいて、色の評価量として、前記広DR画像データの前記処理対象領域における色彩値のばらつきの度合いを示す値を算出することを特徴とする請求項8記載の評価装置。
PCT/JP2010/066351 2009-11-16 2010-09-22 パール色を有する対象物の評価方法及び評価装置 WO2011058823A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011540443A JP5637399B2 (ja) 2009-11-16 2010-09-22 真珠の評価方法及び評価装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-261147 2009-11-16
JP2009261147 2009-11-16

Publications (1)

Publication Number Publication Date
WO2011058823A1 true WO2011058823A1 (ja) 2011-05-19

Family

ID=43991483

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/066351 WO2011058823A1 (ja) 2009-11-16 2010-09-22 パール色を有する対象物の評価方法及び評価装置

Country Status (2)

Country Link
JP (1) JP5637399B2 (ja)
WO (1) WO2011058823A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102967586A (zh) * 2012-10-24 2013-03-13 浙江工业大学 基于单目多视角机器视觉的珍珠颜色光泽度在线自动分级装置
JP2015049195A (ja) * 2013-09-03 2015-03-16 住友化学株式会社 評価データ作成装置、評価データ作成プログラム、評価データ作成システム及び評価データ作成方法
JP2016070847A (ja) * 2014-09-30 2016-05-09 花王株式会社 化粧料の艶の評価方法及び評価装置
WO2016183921A1 (zh) * 2015-05-21 2016-11-24 浙江科技学院 珍珠分级方法
CN106461565A (zh) * 2014-02-07 2017-02-22 株式会社真珠科学研究所 珍珠评价系统、珍珠评价装置以及珍珠评价方法
CN108257117A (zh) * 2018-01-02 2018-07-06 中兴通讯股份有限公司 图像曝光度的评测方法及装置
JP2019032231A (ja) * 2017-08-08 2019-02-28 国立大学法人秋田大学 琥珀砕片の種別および透明度の推定方法、推定装置、ならびに推定プログラム
CN110057825A (zh) * 2019-04-30 2019-07-26 中国地质大学(武汉) 一种翡翠蛋面透明度效果分级仪器及其分级方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000228747A (ja) * 1998-12-03 2000-08-15 Olympus Optical Co Ltd 画像処理装置
JP2002305683A (ja) * 2001-04-04 2002-10-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
JP2008178638A (ja) * 2007-01-23 2008-08-07 Shinju Kagaku Kenkyusho:Kk 真珠てり検査装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000228747A (ja) * 1998-12-03 2000-08-15 Olympus Optical Co Ltd 画像処理装置
JP2002305683A (ja) * 2001-04-04 2002-10-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
JP2008178638A (ja) * 2007-01-23 2008-08-07 Shinju Kagaku Kenkyusho:Kk 真珠てり検査装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHIN'YA NISHIDA: "Image Information Processing by the Human Visual System", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 62, no. 1, 2008, pages 1 - 6 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102967586A (zh) * 2012-10-24 2013-03-13 浙江工业大学 基于单目多视角机器视觉的珍珠颜色光泽度在线自动分级装置
JP2015049195A (ja) * 2013-09-03 2015-03-16 住友化学株式会社 評価データ作成装置、評価データ作成プログラム、評価データ作成システム及び評価データ作成方法
CN106461565A (zh) * 2014-02-07 2017-02-22 株式会社真珠科学研究所 珍珠评价系统、珍珠评价装置以及珍珠评价方法
JP2016070847A (ja) * 2014-09-30 2016-05-09 花王株式会社 化粧料の艶の評価方法及び評価装置
WO2016183921A1 (zh) * 2015-05-21 2016-11-24 浙江科技学院 珍珠分级方法
US10082491B2 (en) 2015-05-21 2018-09-25 Zhejiang University Of Science And Technology Pearl grading method
JP2019032231A (ja) * 2017-08-08 2019-02-28 国立大学法人秋田大学 琥珀砕片の種別および透明度の推定方法、推定装置、ならびに推定プログラム
CN108257117A (zh) * 2018-01-02 2018-07-06 中兴通讯股份有限公司 图像曝光度的评测方法及装置
CN110057825A (zh) * 2019-04-30 2019-07-26 中国地质大学(武汉) 一种翡翠蛋面透明度效果分级仪器及其分级方法
CN110057825B (zh) * 2019-04-30 2024-02-09 中国地质大学(武汉) 一种翡翠蛋面透明度效果分级仪器及其分级方法

Also Published As

Publication number Publication date
JPWO2011058823A1 (ja) 2013-03-28
JP5637399B2 (ja) 2014-12-10

Similar Documents

Publication Publication Date Title
JP5637399B2 (ja) 真珠の評価方法及び評価装置
JPWO2011058823A6 (ja) 真珠の評価方法及び評価装置
Akkaynak et al. A revised underwater image formation model
US7936377B2 (en) Method and system for optimizing an image for improved analysis of material and illumination image features
JP6039109B2 (ja) 着色検査装置および着色検査方法
CN102973242B (zh) 图像处理设备、图像处理方法、图像处理系统、程序和记录介质
López-Cobá et al. Systematic study of outflows in the Local Universe using CALIFA: I. Sample selection and main properties
CN101207832A (zh) 数码相机色彩还原的检测方法
CN108027328A (zh) 宝石的颜色测量
JP6907766B2 (ja) 計測装置および計測システム
US20110216971A1 (en) Method for reconstructing color images
Arikan et al. Color-managed 3D printing with highly translucent printing materials
CN104980734A (zh) 一种检测图像传感器性能的装置及使用方法
Smagina et al. Multiple light source dataset for colour research
US11060918B2 (en) Evaluator, measurement apparatus, evaluating method, and non-transitory recording medium
Ahn et al. Improving color constancy by saturation weighting
JP2018205037A (ja) 評価装置、評価プログラム及び評価方法
Urban et al. Recovering camera sensitivities using target-based reflectances captured under multiple LED-illuminations
CN106846292B (zh) 一种无效像元在轨检测方法
CN113252585B (zh) 一种基于高光谱图像判断黄金表面覆膜的方法和装置
JP2016194449A (ja) 着色検査装置および着色検査方法
Dehesa‐González et al. Lighting source classification applied in color images to contrast enhancement
JP2009182845A (ja) 画像処理装置および画像処理方法
US20200408684A1 (en) Measurement device, measurement method, and non-transitory storage medium
Xu et al. Testing methods to estimate spectral reflectance using datasets under different illuminants

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10829783

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011540443

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10829783

Country of ref document: EP

Kind code of ref document: A1