WO2005124302A1 - 画像処理プログラム、画像処理装置、及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
WO2005124302A1
WO2005124302A1 PCT/JP2004/014783 JP2004014783W WO2005124302A1 WO 2005124302 A1 WO2005124302 A1 WO 2005124302A1 JP 2004014783 W JP2004014783 W JP 2004014783W WO 2005124302 A1 WO2005124302 A1 WO 2005124302A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
colorimetric
data
image
calculating
Prior art date
Application number
PCT/JP2004/014783
Other languages
English (en)
French (fr)
Inventor
Takao Furukawa
Original Assignee
Digital Fashion Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Fashion Ltd. filed Critical Digital Fashion Ltd.
Priority to JP2006514651A priority Critical patent/JPWO2005124302A1/ja
Publication of WO2005124302A1 publication Critical patent/WO2005124302A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/52Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts
    • G01J3/524Calibration of colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/462Computing operations in or between colour spaces; Colour management systems

Definitions

  • the present invention relates to an image processing technique for measuring a colorimetric object using an image of the colorimetric object.
  • a colorimeter is widely known as a device for measuring the color of an object, and it is possible to measure the color of a customer's face using this colorimeter. Since only a limited area (small area) can be measured, the data obtained by the colorimetric method is used to evaluate the color of places where color variation is large depending on the area (for example, the skin color of a person's face). Insufficient data.
  • a personal computer and a camera device that is installed in a different place from the personal computer and captures the subject's face image.
  • the camera device simultaneously captures the subject's face image and the actual color chart, and the captured image
  • the personal computer receiving this image uses the reference color patch data (reference color data) held by itself and the reference color patch data (photographing color data) included in the received image to transmit the image data of the camera device.
  • reference color patch data reference color data
  • photographing color data photographing color data
  • Japanese Patent Application Laid-Open No. 2002-131131 suggests a process for a still image, and does not disclose a process for a moving image at all.
  • no specific description is given as to how the face image is corrected based on the calculation process of the color characteristics and the calculated color characteristics. It is difficult to calculate colorimetric values in real time using captured moving images.
  • An object of the present invention is to provide an image processing program, an image processing apparatus, and an image processing method capable of calculating a colorimetric value of a colorimetric object in real time from a moving image obtained by photographing the colorimetric object without using a colorimeter. It is to provide an image processing method.
  • An image processing program according to the present invention is an image processing program for measuring the color of a colorimetric object using an image of the colorimetric object, and includes a plurality of color samples.
  • Image acquisition means for acquiring a color moving image in which a color chart and the colorimetric object are photographed at the same time, detecting an area where a color sample is displayed in a frame image constituting the color moving image, and detecting
  • a photographing color data calculating unit that calculates photographing color data for each color sample based on the pixel data of the area; reference color data for each color sample obtained from colorimetric values of each color sample constituting the color chart;
  • Correction data calculating means for calculating correction data using the data, detecting a characteristic point of the colorimetric object with respect to the frame image, and, based on the detected characteristic point, an area in which the colorimetric object is displayed Colorimetric pair in An area setting means for setting an area; calculating color data of the color measurement target area based on the pixel data of the color measurement target area; performing an operation using the correction data on the color data; It is characterized in that the combination function is operated as a colorimetric value calculating means for calculating a color value.
  • an area in which each color sample is displayed is detected from a frame image constituting a color moving image in which a colorimetric object and a color chart are simultaneously captured, and pixel data of the detected area is determined. Then, photographed color data for each color sample is calculated. Then, correction data is calculated using the reference color data calculated based on the colorimetric values for each color sample and the photographed color data.
  • a colorimetry target area is set based on the feature points of the colorimetry target displayed in the frame image, and Is calculated, and the color data is subjected to an operation using the correction data to calculate the colorimetric value of the colorimetric object.
  • the color data is corrected to a value excluding the characteristics of the camera and the lighting used for the photographing. Therefore, a colorimetric value can be obtained in real time from a color moving image in which a colorimetric object is photographed without using a colorimeter. Furthermore, since the colorimetric value is calculated by setting the colorimetric area, the area within the colorimetric object displayed in the frame image can be accurately detected, and the colorimetric value is calculated. It can be calculated with high accuracy and at high speed.
  • the correction data calculating means calculates the correction data using a linear model.
  • the correction data calculating means may calculate the correction data using a quadratic function model.
  • the colorimetric value of the colorimetric object can be calculated with higher accuracy.
  • the color measurement target is a person's face, and the color measurement target area is a face skin area.
  • a color moving image in which a person's face and a color chart are simultaneously photographed is obtained, and a colorimetric region is set in the skin area of the face with respect to the frame image of the color moving image. Since the color values have been calculated, the colorimetric values of the skin of the face can be obtained without using a colorimeter.
  • the area setting means detects a pupil of a frame image as the feature point, detects a position between eyebrows from the detected pupil, and sets the colorimetry target area at the position.
  • the eyebrow when the camera is installed in front of the person, the eyebrow is substantially perpendicular to the optical axis of the camera, and the area between the eyebrows where the reflected light intensity is stable is set as the colorimetric target area. Can be calculated with high accuracy. Also, since the colorimetry area is set in the area between the eyebrows, which is relatively easy to detect because the eyes are present on both sides, it is possible to calculate the skin color of the face with high speed and high accuracy. it can. In particular, it is useful to set the space between the eyebrows as a sample area when calculating colorimetric values in real time.
  • the color chart includes at least a skin color sample. According to this configuration, since a color chart including a flesh color sample is employed, correction data that can calculate the skin colorimetric value with high accuracy is obtained, and the colorimetric value obtained by the colorimeter is obtained. A colorimetric value closer to the value can be calculated.
  • the image processing apparatus further includes a display unit that converts the color moving image into an image using its own characteristic value and displays the color moving image.
  • the reference color data calculation unit calculates an error of the colorimetric value based on the characteristic value.
  • the corrected value is calculated as the reference color data, and the colorimetric value calculation unit calculates the value obtained by performing the inverse correction using the 7 "characteristic value on the color data of the colorimetric target area. Preferably, it is calculated as a value.
  • the color moving image is subjected to key conversion using the key characteristic value of the display device and is displayed on the display device.
  • the reference color data is also key converted with the key characteristic value of the display device. Therefore, it is possible to obtain correction data that can calculate a more accurate colorimetric value. Further, since the colorimetric value calculated using this correction data is subjected to inverse conversion, it is possible to calculate a colorimetric value from which the influence of the a correction has been removed.
  • the color chart includes at least three color samples
  • the photographed color data calculating means includes at least any one of saturation and brightness in a specific range of hues among a plurality of color samples forming the color chart.
  • At least one of the color sample areas is detected, and the other color sample areas are determined in accordance with the pre-stored color sample arrangement pattern based on the positional relationship between the detected areas. It is preferable to detect by interpolation.
  • regions of at least two color samples in which at least one of saturation and lightness is relatively high in a specific range of hues are detected and detected. Based on the positional relationship of each area, the areas of other color samples are detected by interpolation in accordance with the pre-stored color chart array pattern, so that the captured color data for each color sample can be obtained more reliably. Can be.
  • An image processing apparatus uses an image of a colorimetric object, What is claimed is: 1.
  • An image processing apparatus for measuring the color of a colorimetric object comprising: simultaneously photographing a color chart composed of a plurality of color samples and the colorimetric object to obtain the color moving image.
  • correction data calculation means for calculating correction data using reference color data for each color sample obtained based on the colorimetric values of each color sample constituting the color chart and the photographed color data, and Area setting means for detecting a characteristic point of the colorimetric object, and setting a colorimetric area in an area where the colorimetric object is displayed, based on the detected characteristic point; Based on the pixel data of the area, Calculating a Irode Isseki the target area, with respect to the color data, performs arithmetic with using the correction data, characterized in that it comprises a colorimetric value calculating means for calculating a colorimetric value.
  • a colorimetric value can be calculated with high accuracy and in real time from a color image obtained by photographing a colorimetric object without using a colorimeter.
  • An image processing method is an image processing method in which a computer measures the color of the colorimetric object using an image of the colorimetric object, wherein the computer acquires an image.
  • a step of obtaining a color moving image wherein the photographed color data calculating means detects an area in which each color sample is displayed in a frame image constituting the color moving image, and displays a pixel data of the detected area.
  • a colorimetric value can be calculated with high accuracy and in real time from a color image obtained by photographing a colorimetric object without using a colorimeter.
  • FIG. 1 is a block diagram of an image processing apparatus according to the present embodiment.
  • FIG. 2 is a flowchart showing the operation of the image processing apparatus shown in FIG. Figure 3 shows an image taken by the camera.
  • FIG. 4 is a drawing showing a frame image in which feature points have been detected.
  • FIG. 5 is a flowchart showing a subroutine of the flowchart shown in FIG.
  • FIG. 6 is an enlarged view of a region where a color sample is displayed in the frame image shown in FIG.
  • FIG. 7 is a flowchart showing the calculation processing of the reference color data.
  • FIG. 8 is a table showing corrected RGB values calculated by the image processing apparatus. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a block diagram of the image processing apparatus according to the present embodiment.
  • This image processing device includes a camera 1 and a computer 2.
  • Camera 1 is a color camera that captures moving images, and simultaneously captures the face and color chip of a person to be measured at a predetermined frame rate (for example, 30 frames per second) and performs color measurement. Then, an image to be obtained is obtained, an analog digital conversion is performed on the image to be measured, and the image is output to the frame memory 21.
  • a predetermined frame rate for example, 30 frames per second
  • the computer 2 is an ordinary personal computer having an external storage device such as a CPU (central processing unit), a ROM (read only memory), a RAM (random access memory), and a node disk, a display device, an input device, and the like. It consists of evening.
  • the image according to the present invention is stored in the external storage device.
  • the processing program is recorded, and the CPU executes the image processing program to realize the functions shown in each block.
  • the computer 2 includes a frame memory 21, a reference color data storage unit 22, an imaging color data calculation unit 23, a conversion matrix calculation unit 24, a sample area setting unit 25, a correction unit 26, and a colorimetric value calculation unit. 27, a reference color data calculation unit 28, a display control unit 29, and a display unit 30.
  • the frame memory 21 stores image data of a predetermined number of frame images shot by the camera 1.
  • one frame image is a rectangular image in which pixels of a predetermined row X column including a human face image (face image) and a color chart are arranged in a matrix format.
  • One evening consists of R (red), G (green), and B (blue) color components, and each color component is represented by, for example, 256 gradations of 0 to 255.
  • the color chart is a color chart in which a plurality of color samples are arranged in a predetermined pattern on the surface of a base member such as paper or plastic.
  • a color chart in which 20 color samples are arranged in 2 rows and 10 columns is used.
  • each color sample is a rectangular area having the same vertical and horizontal sizes and consisting of one color.
  • This color sample may be realized by attaching a commercially available color sample on the base member, or may be realized by solid printing.
  • the reference color data storage unit 22 allows the reference color data calculation unit 28 to perform a predetermined operation on the colorimetric values obtained by measuring the color of each color sample under predetermined colorimetric conditions.
  • the reference color data calculated in is stored in association with the corresponding color sample.
  • the photographing color data calculation unit 23 reads one frame image from the frame memory 21 in the shooting order, sets a color sample detection area for detecting a color sample, and sets the frame image in the frame image.
  • a color sample detection area for detecting a color sample
  • the frame image in the frame image is detected using the previously stored reference values of saturation, hue, and lightness of the color, and the positions of the two detected areas are detected. From the relationship, an area in which another color sample is displayed is detected in accordance with the arrangement pattern of the color sample stored in advance, and an average value of predetermined pixel data in each detected area is calculated for each color sample. It is calculated as shooting color data.
  • the conversion matrix calculator 24 calculates the photographing calculated by the photographing color data calculator 23.
  • the color data and the reference color data stored in the reference color data storage unit 22 are associated with each other by a linear model or a quadratic function model described later, and the image taken by the camera 1 Calculate the transformation matrix (correction data) to eliminate the characteristics.
  • the sample area setting unit 25 reads out the same frame image as the frame image read out by the photographing color data calculation unit 23 from the frame memory 21, and applies for the read-out frame image by the present applicant.
  • a feature point of a face is detected by using the method described in JP-A-2003-44837, and a sample area (colorimetry target area) is placed at a predetermined position in the face from the detected feature point. Make settings.
  • the correction unit 26 calculates an average value of the pixel data of the sample area, and calculates a corrected RGB value by multiplying the calculated average value by the conversion matrix. As a result, the RGB values of the sample area from which the characteristics of the lighting, the camera, etc. have been excluded can be obtained.
  • the colorimetric value calculation unit 27 calculates the RGB intensity by performing a predetermined operation on the corrected RGB value in consideration of the key characteristic value of the display unit 30 and the residual luminance of the black pixel, and calculates the RGB intensity. By multiplying by a predetermined matrix, the RGB intensity is converted to the CIE (International Commission on Illumination) XYZ color system (hereinafter abbreviated as XYZ color system), and the obtained XYZ values are converted to CIE—L * a * b *.
  • the colorimetric system hereinafter abbreviated as Lab color system
  • LCH color system are sequentially converted to calculate the calorimetric value.
  • Reference color data calculation unit 2 8 obtains colorimetric values by L ab color system for each color sample of the same color chart and color chart photographed by the camera 1, the obtained colorimetric value in the XYZ color system
  • the converted XYZ values are multiplied by a predetermined matrix to calculate the RGB intensity, and the calculated RGB intensity is used to calculate the characteristic of the display unit 30, the RGB value of the reference white, and the black pixel.
  • the reference color data is calculated by performing a predetermined operation in consideration of the residual luminance of the reference color, and stored in the reference color data storage unit 22. Note that the colorimetric values for each color sample may be those actually measured by a user using a colorimeter, or those measured in advance by a third party other than the user using a colorimeter. Is also good.
  • the display control unit 29 sequentially reads one frame image from the frame memory 21, performs key correction based on the key characteristic value of the display unit 30, and displays the image captured by the camera 1 on the display unit 30 in real time. And the calculated colorimetric values calculated for each frame image are displayed on the display unit 30 in real time.
  • the display unit 30 includes a CRT, a plasma display, a liquid crystal display, and the like, and displays various images under the control of the display control unit 29.
  • the camera 1 corresponds to an example of an image acquiring unit
  • the photographed color data calculating unit 23 corresponds to an example of a photographed color data calculating unit
  • the conversion matrix calculating unit 24 corresponds to a correction data calculating unit.
  • the sample area setting section 25 corresponds to an example of an area setting section
  • the correction section 26 and the colorimetric value calculating section 27 correspond to an example of a colorimetric value calculating section.
  • step S1 the camera 1 simultaneously captures the face and color chart of a person.
  • FIG. 3 is a diagram showing an image taken by the camera 1. As shown in Fig. 3, it can be seen that in this image, a color patch C C is photographed around the neck of the face.
  • the size of the color chart CC is preferably such that the entire face fits in one frame image, and specifically, the vertical dimension L1 is larger than the general length of the person's neck. It is preferable that the length is slightly shorter and the lateral dimension L2 is slightly longer than the width of the face of the person.
  • the number of color samples included in the color chart is small, it is not possible to obtain a conversion matrix that can accurately convert an image taken by camera 1 into an image taken under colorimetric conditions. However, it is difficult to obtain highly accurate calculated colorimetric values. For this reason, from the viewpoint of obtaining highly accurate calculated colorimetric values, it is preferable that the number of color samples is large, but this would require a large amount of calculation. Also, when the size of the color chart increases, if the color chart and the face are photographed at the same time, the face cannot fit into one frame image. Therefore, in this image processing apparatus, a color chart in which color samples are arranged in two rows and ten columns is used. In addition, the image processing apparatus measures the color between the eyebrows, that is, the color of the skin. For this reason, in this image processing device, the first line has a slightly different skin color A color chart in which 10 color samples are arranged is used.
  • the b value is (68, 9.1, 25.1), (74.4, 8) under the D65 light source, respectively. 3, 2 3.
  • the values are (93.1, 1.5, 1.0) white, (76.8, 0.4, 2.9) light gray, (54.8, 0.4, 1.8) Gray, (30.2, 0.6,-0.8) dark gray, (52.6, 63.5, 26.1) red, (87.3, 15.6 , 81.5) yellow, (58.1, -54.9, 20.2) green, (46.9, -29.4, -21.7) blue, (43 7, 9.2, — 42.8)
  • the light blue sample and (42.4, 35.9, -28.1) purple sample are arranged.
  • the distance between the lighting and the color chart, and the distance between the lighting and the face are made substantially equidistant, and the distance between the camera 1 and the color chart, and the camera 1 and the distance between the faces are set to be substantially equal, and the reflection intensity between the illumination and the face is made equal.
  • a color patch is placed at the position of the person's neck in front view, and the color is almost flush with the front of the face in side view.
  • the camera 1 is placed in front of the face, and the lighting is placed in front of the face.
  • Two lights are installed to photograph the face so that the distance between the illumination for face irradiation and the space between the eyebrows and the distance between the illumination for color patch irradiation and the distance between the color patches are almost equal. . In this case, it is needless to say that both light sources emit the same amount of light.
  • the photographing color data calculation unit 23 reads one frame image from the frame memory (step S2), and calculates photographing color data from the image of each color sample displayed in the read frame image (step S2). 3) Steps
  • the shooting color data is a set of R, G, and B color components.
  • step S4 the conversion matrix calculation unit 24 calculates a conversion matrix using a linear model or a quadratic function model.
  • the linear model will be described.
  • a photographing color matrix X composed of photographed color data of each color sample and a reference color matrix Y composed of reference color data of each color sample are associated using a transformation matrix A.
  • the reference color matrix Y is a 3 Xn matrix, and each column contains This is a matrix in which the reference color data [R or G i; B are arranged in the order of the color numbers.
  • the shooting color matrix X is a matrix of 4 ⁇ n, where 1 is arranged in each column of the first row, and in each column of the second to fourth rows, the shooting color data for each color sample is represented by [R i ', Gi', Bi '] are matrices arranged in order of color number.
  • the transformation matrix A is a 3 ⁇ 4 matrix composed of a total of 12 elements of a a; ⁇ .
  • n 20
  • i (l, 2,..., 20)
  • the reference color matrix Y becomes a 3 ⁇ 20 matrix
  • the shooting color matrix X becomes a 4 ⁇ 20 matrix.
  • the color numbers are assigned to the colors from the first column to the 10th column of the second row of the color chart in the order of 1 to 10 in order, and the 1st row of the first row. Color numbers from 11 to 20 are sequentially assigned to the colors from the first column to the tenth column.
  • the equation (1) is represented by a matrix R representing the first row of the reference color matrix Y, a matrix G representing the second row, and a matrix B representing the third row.
  • R GB] T the first row of the transformation matrix A is represented by matrix a or the second row is represented by matrix a 2
  • the third row is represented by matrix a 3
  • the transformation matrix A is represented by matrix a 2 a 3 ] T.
  • R T , G T , and B T are expressed by Expression (3).
  • Expression (4) is obtained.
  • the shooting color matrix X is a 4 X n matrix
  • R T , G T , and ⁇ ⁇ are n X 1 matrices, respectively. Therefore, XR T , XG T , XB T will be of 4 X 1 matrix.
  • the photographing color matrix X is a matrix of 4 X n, since the chi tau is a matrix of n X 4, XX T is the matrix of 4 X 4.
  • equation (4) The expressions in the third to third rows are a 2, a 12 , a 13 , and a 14 as variables, respectively, and a 2! , a 22 , a 23 , a 24 as variables and a 3 i , a 32 , a 33 , a 34 as variables. Then, by solving this simultaneous equation, the transformation matrix A can be calculated.
  • the conversion matrix calculation unit 24 sets n to 20 and solves the equation (4) using the obtained photographed color data and the reference color data. Calculate the transformation matrix A.
  • quadratic function model Although the quadratic function model requires more computation than the one-dimensional model, it can calculate more accurate calorimetric values.
  • the quadratic function model is transformed as shown in equation (5). This is a model in which a 3 ⁇ 10 matrix is used as the permutation matrix A, and a 10 ⁇ X n matrix is used as the shooting color matrix X BRG.
  • each column of the first to fourth rows is the same as the shooting BRG color matrix X of the linear model, and each column of the fifth to tenth rows has R i, R i ′, RG , ', R i' B i ', G,' G 'G;' B s ' and BB are arranged in color number B RG.
  • Equation (5) is expressed by Equation (7).
  • Equation (8) becomes can get.
  • the shooting color matrix X is a matrix of 10 X n
  • R T , G T , and ⁇ ⁇ are n X l matrices, respectively. Therefore, XR T , XG T , XB T shown in Expression (8) Are each a matrix of 10 XI.
  • the photographing color matrix X is a matrix of 1 0 X n, since the chi tau is a matrix of n X 1 0, the matrix XX 1 0 X 1 0 shown in equation (8). Therefore, the expressions in the first to third stages of Expression (8) are i to a1, respectively. Is a variable, and a 2 , i to a 2 , 1. Is a variable, and a 3 , i to a 3 , i 0 are variables. Then, by solving this simultaneous equation, the transformation matrix A can be calculated.
  • the sample area setting unit 25 detects the left and right pupils BE as feature points as shown in FIG. 4, and specifies the position between the eyebrows based on the positional relationship between the detected feature points.
  • This sample area R1 is a rectangular area whose vertical dimension is slightly shorter than the distance between the inner corners P1 and the eyebrow P3 and whose horizontal dimension is slightly shorter than the distance between the outer corners P1 and P2.
  • the correction unit 26 calculates an average value of the pixel data of the sample area R1 for each of the R, G, and B color components.
  • step S7 when the linear model is adopted, the correction unit 26 substitutes the average value for, G s ′, and B in equation (1), and sets a linear equation for A in equation (1). Substitute the transformation matrix A calculated in the model and calculate the corrected RGB value. In this case, since the transformation matrix A is a 3 ⁇ 4 matrix and the shooting color matrix X is a 4 ⁇ 1 matrix, the corrected RGB values are 3 XI matrices.
  • the correction unit 26 substitutes the average value for R, G, ', B,' in equation (5). Substitute the transformation matrix A calculated in the quadratic function model into A in (2), and calculate the corrected RGB values.
  • the corrected RGB values are 3 ⁇ I matrices as in the linear model.
  • step S 8 the colorimetric value calculator 2 7 performs the calculation of Expression (9), calculates RGB intensity Y r for the correction RGB value, Y g, a Y b.
  • R, G, B represents a correction RGB value
  • Y Q r, Y. g , Y. b represents a residual luminance Kokushokuga element
  • W r, W g, W b represents the reference white RGB values
  • h r h g, h b represents the range of the difference between the RGB intensity and residual luminance
  • Indicates the key characteristic value of the display section 30.
  • the reference white R GB value, (W r, W g W b) a (2 5 5, 2 5 5 , 2 5 5), RGB values of the residual luminance (Y
  • step S9 the colorimetric value calculation section 27 performs the calculation of the equation (10), and calculates the XYZ value for the RGB intensity calculated in step S8.
  • step S10 the colorimetric value calculation unit 27 performs the calculation of the equation (11), and calculates the Lab value for the XYZ value calculated in step S9.
  • ⁇ ', ⁇ ', ⁇ ' are determined as follows according to the size
  • X ′, Y ′, and ⁇ ′ are calculated by equations (12) to (14), respectively.
  • step S11 the colorimetric value calculation unit 27 converts the Lab value calculated in step S10 into the LCH color system, which is a polar coordinate system, using equation (15). Calculate the L CH value. As a result, a calculated colorimetric value is calculated.
  • step S12 If the processing for the final frame image has not been completed in step S12 (NO in step S12), the photographic color data calculation unit 23 reads the next frame image from the frame memory 21 (step S12). 1 3) Then, the process returns to step S3. In this case, the photographing color data calculation unit 23 may read out frame images every predetermined number of frames, or may read out frame images one by one. On the other hand, if the processing for the last frame image has been completed (YES in step S12), the processing is terminated.
  • step S31 the photographed color data calculation unit 23 sets a color chart detection area for detecting an area in which a color chart is displayed in the frame image.
  • the color chart is photographed so as to be displayed in the area below the lower quarter of the frame image. Therefore, the photographed color data calculation unit 23 sets a rectangular color chart detection area in an area about one-fourth below the frame image.
  • FIG. 6 is an enlarged view of a color patch area in the frame image shown in FIG. As shown in FIG. 6, it can be seen that the color patch detection area R2 including the color patch C C is set for the frame image. In FIG. 6, the image of a person is omitted.
  • the photographed color data calculation unit 23 detects the areas of the red and blue color samples CR and CB in the color chart detection area R2 as shown in FIG. Specifically, the photographing color data calculation unit 23 converts the color chart detection area R 2 from the RGB color system to the HS V color system, and stores H (hue), An area that satisfies the numerical ranges of S (saturation) and V (intensity) is detected from the color chart detection area R2, and areas of the red and blue color samples CR and CB are detected. Note that the photographed color data calculation unit 23 may detect an area of a color sample other than red and blue, or may detect a color sample of two or more colors. However, it is preferable to detect color samples with relatively high saturation, such as red and blue, to increase the detection accuracy.
  • step S33 the photographing color data calculation unit 23 specifies the centroids OR and OB of the detected red and blue color samples CR and CB as reference positions, calculates the distance between the two reference positions, and According to the arrangement pattern of the stored color samples Then, the center of gravity o of the area where each color sample is displayed is specified. Specifically, the center of gravity o
  • the photographing color data calculation unit 23 calculates the vertical size K3 of the color sample by multiplying the line segment K2 by the ratio of the vertical size to the horizontal size of the actual color sample stored in advance and calculates the vertical size K3 of the color sample.
  • 10 Specify the center of gravity of the color sample as 0.
  • step S34 the photographing color data calculation unit 23 sets a rectangular area R3 smaller than the vertical and horizontal sizes K3 and ⁇ 2 of the color sample as the area of each color sample, with each centroid ⁇ as the centroid.
  • the average value of the R, G, and B values of each pixel data in the set area R3 is calculated as photographed color data for each color sample.
  • the process returns to step S4 shown in FIG. Thereby, the colorimetric value of the skin is calculated in real time, such as the power of the moving image of the face.
  • step S101 the reference color data calculation unit 28 obtains the colorimetric value of each color sample of the actual color chart using a colorimeter.
  • the Lab value obtained when the D65 light source is irradiated on each color sample is acquired as a colorimetric value.
  • step S102 the reference color data calculation unit 28 calculates the colorimetric value for each color sample from the Lab color system to the XYZ color system using the equations (16) to (18). Convert to
  • the Y value is calculated using the upper equation of equation (16), and the L value becomes 8.8. If it is less than 56, the Y value is calculated using the equation at the bottom of equation (16).
  • the equation (17) The X value is calculated using the formula shown on the upper right side of.
  • the equation (1 7) The X value is calculated using the formula shown on the right side of the lower row.
  • the reference color data calculator 28 calculates the XYZ values for each color sample calculated in step S 102 by the equation (19) Multiplied by a matrix of X 3, calculates RGB intensity Y r, Y g, a Y b.
  • step S104 the reference color data calculation unit 28 performs an operation of Expression (20) on the RGB intensities for each color sample calculated in step S103, and calculates a reference color including R, G, and B. Data is calculated for each color sample.
  • the calculated reference color data for each color sample is stored in the reference color data storage unit 22 in association with the corresponding color number.
  • the expression in parentheses shown in Expression (20) is raised to the power of one, so that reference color data corrected by the key characteristic value of the display unit 30 can be obtained.
  • FIG. 8 is a table showing corrected RGB values calculated by the image processing apparatus.
  • the i in the table indicates the color number
  • the upper table is a table for color numbers 1 to 10
  • the lower table is a table for color numbers 11 to 20.
  • the calculated colorimetric value when the linear model is used the corrected RGB value when the quadratic function model is used, and the actual measurement value corresponding to each color number are described.
  • the measured value is a value obtained by converting the Lab value obtained by measuring the color of the actual color sample with a colorimeter using a D65 light source into an RGB value.
  • the color chart and the moving image of the person are simultaneously photographed by the camera 1, and the area where each color sample is displayed is detected from the frame image forming the moving image, Shooting color data for each color sample is calculated, and a conversion matrix A is calculated using the calculated shooting color data and reference color data stored in advance. Then, a position between the eyebrows is detected from the frame image, a sample area is set at the detected position, and a calculated colorimetric value is calculated from the set sample area.
  • the present invention may adopt the following modes.
  • the sample area is set between the eyebrows.
  • the sample area may be set in another skin area such as a forehead, and the colorimetric value of the skin may be calculated. Good.
  • feature points such as the outer corner of the eyes, the nose head, and both ends of the lips may be detected, and a sample area may be set from the detected feature points.
  • the color of the skin of the face is measured.
  • the present invention is not limited to this, and the color of hair, lips, etc. may be measured.
  • the color measurement is not limited to a person, and other objects such as fruits, vegetables, and animals may be measured. In this case, it is preferable to use a color chart including a relatively large number of color samples according to the color to be measured.
  • a rectangular sample in which color samples are arranged in two rows and ten columns Although a vote was used, the present invention is not limited to this, and a color chart having a shape other than a rectangle, such as a cross, a stair, or an H, may be used. That is, a color chart having a preferable shape may be used according to the shape of the colorimetric object.
  • the colorimetric values measured in the Lab colorimetric system are acquired and the reference color data is calculated.
  • the reference color data may be calculated by acquiring colorimetric values measured in another color system such as the B color system.
  • the LCH value of the sample area is calculated as the calculated colorimetric value.
  • the present invention is not limited to this.
  • the Lab value, XYZ value, and RGB value are calculated as the calculated colorimetric values. Is also good.
  • the image processing program according to the present invention may be stored in a computer-readable recording medium such as a CD-ROM, and may be marketed. In this case, the user can obtain the image processing device by purchasing the recording medium and installing it on a computer. Alternatively, the image processing program may be stored on a web server on the Internet and downloaded to be installed on the convenience store by downloading.
  • the camera 1 shown in the above embodiment is installed in a remote place, the camera 1 is communicably connected to the computer 2 via a personal computer having a communication function, and a moving image of the face taken by the camera 1 is 2 may receive and calculate the colorimetric values of the skin of the face and the like, and transmit the calculated colorimetric values to the personal computer on the camera 1 side.
  • the number of color samples was set to 20.
  • the present invention is not limited to this. To 19 or 21 or more.
  • the color chart is configured from a color sample consisting of only visible light.
  • a color sample other than visible light such as an infrared marker, may be included.
  • an image processing program capable of calculating a colorimetric value of an object in real time.

Abstract

 顔と色票とを同時に撮影し、測色対象となる動画像を取得するカメラ1と、前記動画像を構成するフレーム画像に表示された各色標本から、各色標本に対する撮影色データを算出する撮影色データ算出部23と、予め記憶されている各色標本に対する基準色データと、撮影色データとを用いて変換行列を算出する変換行列算出部24と、フレーム画像に対して、顔の特徴点を基に、標本領域を設定する標本領域設定部25と、設定された標本領域のRGB値を算出し、算出したRGB値に変換行列を乗じ、補正RGB値を算出する補正部26と、補正RGB値に所定の色変換を施し、計算測色値を算出する測色値算出部27とを備える。

Description

明細書 画像処理プログラム、 画像処理装置、 及び画像処理方法 技術分野
本発明は、 測色対象物が撮影された画像を用いて測色対象物を測色する 画像処理技術に関するものである。 背景技術
近年、 客の顔の動画像を動画カメラで撮影し、 客の顔に仮想的な化粧を 動的に施す化粧シミュレー夕が知られており、 この化粧シミュレー夕を店 頭に設置し、 化粧品の販売促進を図る化粧品販売店が増大しつつある。 こ の場合、 顔の肌の測色値をリアルタイムに算出し、 得られた測色値を参考 にして、 販売員が客に適合する化粧品を選び、 客に提案する販売形態の実 現が望まれている。
ここで、 物体の色を測定する装置として測色計が広く知られており、 こ の測色計を用いて客の顔の色を測色することも可能であるが、 測色計で計 測できるのは限られた一部の領域 (微小領域) であるため、 測色形により 得られたデータは、 領域により色変動が大きい箇所の色 (例えば人物の顔 の肌色) の評価には不十分なデータといえる。
一方、 パソコンと、 パソコンとは異なる場所に設けられ、 被験者の顔画 像を撮影するカメラ装置とを備え、 カメラ装置にて被験者の顔画像と現物 の色票とを同時に撮影し、 撮影した画像をパソコンに送信し、 この画像を 受信したパソコンは、 自己が保有する基準色票データ (基準色データ) と 受信した画像に含まれる基準色票データ (撮影色データ) とにより前記力 メラ装置の色特性 (補正データ) を求め、 この色特性を用いて、 受信した 画像に含まれる顔画像に対し顔色の補正を行なう化粧シミュレーション装 置が知られている (特開 2 0 0 2— 1 3 1 1 3 5号公報) 。 発明の開示
しかしながら、 特開 2 0 0 2— 1 3 1 1 3 5号公報記載の発明は、 静止 画像に対する処理を示唆するものであり、 動画像に対する処理を示唆する 記載が全くなされていない。 また、 色特性の算出過程、 及び算出した色特 性からどのようにして顔画像が補正されているかについての具体的な記載 が全くなされておらず、 かかる記載に基づいて、 測色対象物が撮影された 動画像を用いて測色値をリアルタイムに算出することは困難である。
本発明の目的は、 測色計を用いることなく測色対象物が撮影された動画 像から、 測色対象物の測色値をリアルタイムに算出することができる画像 処理プログラム、 画像処理装置、 及び画像処理方法を提供することである。 本発明にかかる画像処理プログラムは、 測色対象物が撮影された画像を 用いて、 前記測色対象物の色を測色するための画像処理プログラムであつ て、 複数の色標本から構成される色票と前記測色対象物とが同時に撮影さ れたカラー動画像を取得する画像取得手段、 前記カラー動画像を構成する フレーム画像に対して色標本が表示された領域を検出し、 検出した領域の 画素データを基に、 各色標本に対する撮影色データを算出する撮影色デー 夕算出手段、 前記色票を構成する各色標本の測色値から得られる色標本毎 の基準色データと前記撮影色データとを用い、 補正データを算出する補正 データ算出手段、 フレーム画像に対して測色対象物の特徴点を検出し、 検 出した特徴点を基に、 前記測色対象物が表示された領域内に測色対象領域 を設定する領域設定手段、 前記測色対象領域の画素データを基に、 前記測 色対象領域の色データを算出し、 当該色データに対して、 前記補正データ を用いた演算を施し、 測色値を算出する測色値算出手段としてコンビユー 夕を機能させることを特徴とする。
本発明によれば、 測色対象物と色票とが同時に撮影されたカラー動画像 を構成するフレーム画像から、 各色標本が表示された領域が検出され、 検 出された領域の画素データを基に、 色標本毎の撮影色データが算出される。 そして、 各色標本に対する測色値を基に算出された基準色データと、 撮影 色データとを用いて、 補正データが算出される。 一方、 フレーム画像に表 示された測色対象物の特徴点を基に、 測色対象領域が設定され、 当該領域 の色データが算出され、 この色データに対し前記補正データを用いた演算 が施され、 測色対象物の測色値が算出されている。 これにより、 色データ は撮影に使用されたカメラや照明等の特性が排除された値に補正される。 したがって、 測色計を用いなくとも、 測色対象物が撮影されたカラー動画 像から測色値をリアルタイムに得ることができる。 さらに、 測色対象領域 を設定して測色値の算出が行なわれているため、 フレーム画像中に表示さ れた測色対象物内の領域を正確に検出することができ、 測色値を高精度、 かつ、 高速に算出することができる。
また、 前記補正データ算出手段は、 線形モデルを用いて、 前記補正デー 夕を算出することが好ましい。
この構成によれば、 線形モデルを用いて補正デ一夕が算出されているた め、 測色対象物の測色値を高速、 かつ、 高精度に算出することができる。 また、 前記補正データ算出手段は、 二次関数モデルを用いて、 前記補正 データを算出してもよい。
この構成によれば、 二次関数モデルを用いて補正データが算出されてい るため、 測色対象物の測色値をより高精度に算出することができる。 また、 前記測色対象物は人物の顔であり、 前記測色対象領域は、 顔の肌 の領域であることが好ましい。
この構成によれば、 人物の顔と色票とが同時に撮影されたカラー動画像 が取得され、 このカラー動画像のフレーム画像に対し、 顔の肌の領域に測 色対象領域が設定され、 測色値が算出されているため、 測色計を用いるこ となく、 顔の肌の測色値を得ることができる。
また、 前記領域設定手段は、 フレーム画像の瞳を前記特徴点として検出 し、 検出した瞳から眉間の位置を検出し、 当該位置に前記測色対象領域を 設定することが好ましい。
この構成によれば、 人物の前方にカメラを設置した場合、 カメラの光軸 に対してほぼ垂直となり、 反射光強度が安定する眉間が測色対象領域とし て設定されているため、 測色値を高精度に算出することができる。 また、 両側に眼が存在することから比較的検出が容易な眉間の部分に測色対象領 域が設定されているため、 高速かつ高精度に顔の肌の色を算出することが できる。 特に、 リアルタイムで測色値を算出するうえで、 眉間を標本領域 に設定することは有用となる。
また、 前記色票は、 少なくとも肌色の色標本を含むことが好ましい。 この構成によれば、 肌色の色標本を含む色票が採用されているため、 肌 の測色値を高精度に算出することができる補正データが得られ、 測色計に より得られる測色値により近い測色値を算出することができる。
また、 自己のァ特性値を用いて、 前記カラー動画像をァ変換して表示す る表示手段を更に備え、 前記基準色データ算出手段は、 前記測色値に対し て前記ァ特性値によるァ補正を施した値を前記基準色デ一夕として算出し、 前記測色値算出手段は、 前記測色対象領域の色データに対し前記 7"特性値 による逆ァ補正を施した値を測色値として算出することが好ましい。
この構成によれば、 カラー動画像は表示装置のァ特性値を用いてァ変換 が施されて表示装置に表示されているが、 前記基準色データも、 表示装置 のァ特性値によりァ変換されているため、 より正確な測色値を算出しうる 補正データを得ることができる。 さらに、 この補正データを用いて算出さ れた測色値は、 ァ逆変換が施されているため、 ァ補正の影響が除去された 測色値を算出することができる。
また、 前記色票は、 少なくとも 3個の色標本を含み、 前記撮影色データ 算出手段は、 色票を構成する複数の色標本のうち、 特定範囲の色相で、 彩 度及び明度のうち少なくともいずれか一方が相対的に高い少なくとも 2個 の色標本の領域を検出し、 検出した各領域の位置関係を基に、 予め記憶し ている色標本の配列パターンにしたがって、 他の色標本の領域を補間によ り検出することが好ましい。
この構成によれば、 複数の色標本のうち、 特定範囲の色相で、 彩度及び 明度のうち少なくともいずれか一方が相対的に高い少なくとも 2個の色標 本の領域が検出され、 検出された各領域の位置関係を基に、 予め記憶して いる色票の配列パターンにしたがって、 他の色標本の領域が補間により検 出されているため、 各色標本に対する撮影色データをより確実に得ること ができる。
本発明にかかる画像処理装置は、 測色対象物が撮影された画像を用いて、 前記測色対象物の色を測色する画像処理装置であって、 複数の色標本から 構成される色票と前記測色対象物とを同時に撮影し、 前記カラ一動画像を 取得する画像取得手段と、 前記カラー動画像を構成するフレーム画像に対 して色標本が表示された領域を検出し、 検出した領域の画素データを基に、 各色標本に対する撮影色データを算出する撮影色データ算出手段と、 前記 色票を構成する各色標本の測色値を基に得られる色標本毎の基準色データ と前記撮影色データとを用い、 補正データを算出する補正データ算出手段 と、 フレーム画像に対して測色対象物の特徴点を検出し、 検出した特徴点 を基に、 前記測色対象物が表示された領域内に測色対象領域を設定する領 域設定手段と、 前記測色対象領域の画素データを基に、 前記測色対象領域 の色デ一夕を算出し、 当該色データに対して、 前記補正データを用いた演 算を施し、 測色値を算出する測色値算出手段とを備えることを特徴とする。
この構成によれば、 測色計を用いなくとも、 測色対象物が撮影された力 ラー画像から、 測色値を高精度に、 しかもリアルタイムに算出することが できる。
本発明にかかる画像処理方法は、 コンピュータが、 測色対象物が撮影さ れた画像を用いて、 前記測色対象物の色を測色する画像処理方法であって、 前記コンピュータは、 画像取得手段、 撮影色データ算出手段、 補正デ一夕 算出手段、 領域設定手段、 及び測色値算出手段を備え、 前記画像取得手段 が、 前記色票と前記測色対象物とを同時に撮影し、 前記カラー動画像を取 得するステップと、 前記撮影色データ算出手段が、 前記カラー動画像を構 成するフレーム画像に対して各色標本が表示された領域を検出し、 検出し た領域の画素デ一夕を基に、 各色標本に対する撮影色データを算出するス テツプと、 前記補正データ算出手段が、 前記色票を構成する各色標本の測 色値から得られる色標本毎の基準色デ一夕と前記撮影色データとを用い、 補正データを算出するステップと、 前記領域設定手段が、 フレーム画像に 対して測色対象物の特徴点を検出し、 検出した特徴点を基に、 前記測色対 象物が表示された領域内に測色対象領域を設定するステップと、 前記測色 値算出手段が、 前記測色対象領域の画素データを基に、 前記測色対象領域 の色データを算出し、 当該色データに対して、 前記補正デ一夕を用いた演 算を施し、 測色値を算出するステップとを備えることを特徴とする。
この構成によれば、 測色計を用いなくとも、 測色対象物が撮影された力 ラー画像から、 測色値を高精度に、 しかもリアルタイムに算出することが できる。 図面の簡単な説明
図 1は、 本実施形態による画像処理装置のプロック構成図である。
図 2は、 図 1に示す画像処理装置の動作を示すフローチヤ一トである。 図 3は、 カメラにより撮影された画像を示した図面である
図 4は、 特徴点が検出されたフレーム画像を示した図面である。
図 5は、 図 2に示すフローチヤ一トのサブルーチンを示したフローチヤ —卜である。
図 6は、 図 3に示すフレーム画像において、 色標本が表示された領域を 拡大して示した図面である。
図 7は、 基準色データの算出処理を示すフローチャートである。
図 8は、 本画像処理装置により算出された補正 RGB値を示した表であ る。 発明を実施するための最良の形態
以下、 本発明の実施形態について図面を参照しつつ説明する。 図 1は、 本実施形態による画像処理装置のブロック構成図を示している。 本画像処 理装置は、 カメラ 1、 及びコンピュータ 2から構成されている。 カメラ 1 は、 動画像を撮影するカラーカメラであり、 所定のフレームレート (例え ば 1秒あたり 3 0フレーム) で測色対象物である人物の顔及び色票を同時 に撮影して測色対象となる画像を取得し、 この測色対象画像にアナログデ ジタル変換を施し、 フレームメモリ 2 1に出力する。
コンピュータ 2 は、 C P U ( central processing uni t ) 、 R OM (read only memory) 、 RAM (random access memory) 、 ノヽードデイ ス ク等の外部記憶装置、 表示装置、 入力装置等を備える通常のパーソナルコ ンピュー夕から構成されている。 外部記憶装置には、 本発明にかかる画像 処理プログラムが記録されており、 C P Uはこの画像処理プログラムを実 行することにより、 各ブロックに示される機能を実現する。
コンピュータ 2は、 フレームメモリ 2 1、 基準色データ記憶部 2 2、 撮 影色データ算出部 2 3、 変換行列算出部 2 4、 標本領域設定部 2 5、 補正 部 2 6、 測色値算出部 2 7、 基準色データ算出部 2 8、 表示制御部 2 9、 及び表示部 3 0を備えている。 フレームメモリ 2 1は、 カメラ 1によって 撮影された所定枚数のフレーム画像の画像データを記憶する。 ここで、 1 枚のフレーム画像は、 人間の顔の画像 (顔画像) 及び色票を含む所定の行 X列の画素がマトリックス形式で配列された矩形状の画像であり、 各画素 の画素デ一夕は、 R (赤) , G (緑) , B (青) の色成分からなり、 各色 成分は、 例えば 0〜 2 5 5の 2 5 6階調で表される。 色票は、 紙やプラス チック等のベース部材の表面に複数の色標本が所定パターンで配置された ものである。 本実施形態では、 色標本が 2行 1 0列で 2 0個配列された色 票を用いる。 ここで、 各色標本は、 同一の縦及び横サイズを有し、 1色か らなる矩形状の領域である。 この色標本は、 ベース部材上に市販の色標本 を貼り付けることで実現してもよいし、 ベタ印刷することで実現してもよ い。
基準色データ記憶部 2 2は、 各色標本を所定の測色条件下で測色するこ とで得られた測色値に対して、 基準色データ算出部 2 8が所定の演算を施 すことで算出した基準色データを、 対応する色標本と関連付けて記憶して いる。
撮影色デ一夕算出部 2 3は、 フレームメモリ 2 1から 1枚のフレーム画 像を撮影順に読み出し、 フレーム画像に対して、 色標本を検出するための 色標本検出領域を設定し、 設定した色標本領域内において、 所定の 2色の 色標本が表示された領域を、 予め記憶しているその色の彩度、 色相、 明度 の基準値を用いて検出し、 検出した 2つの領域の位置関係から、 予め記憶 している色標本の配列パターンにしたがって、 他の色標本が表示された領 域を検出し、 検出した各領域内の所定の画素デ一夕の平均値を、 各色標本 に対する撮影色データとして算出する。
変換行列算出部 2 4は、 撮影色データ算出部 2 3により算出された撮影 色データと、 基準色データ記憶部 2 2に記憶された基準色データとを、 後 述する線形モデル又は二次関数モデルにより対応づけ、 カメラ 1により撮 影された画像からカメラ 1及び照明等の特性を排除するための変換行列 (補正データ) を算出する。
標本領域設定部 2 5は、 撮影色データ算出部 2 3によって読み出された フレーム画像と同一のフレーム画像をフレームメモリ 2 1から読み出し、 読み出したフレーム画像に対して、 本出願人によって出願された特開 2 0 0 3 - 448 3 7号公報に記載された手法を用いて顔の特徴点を検出し、 検出した特徴点から、 顔内の所定の箇所に標本領域 (測色対象領域) を設 定する。
補正部 2 6は、 前記標本領域の画素データの平均値を算出し、 算出した 平均値に対し、 前記変換行列を乗ずることにより補正 RGB値を算出する。 これにより、 照明、 カメラ等の特性が排除された標本領域の RGB値が得 られる。
測色値算出部 2 7は、 補正 RGB値に対し表示部 3 0のァ特性値、 黒画 素の残留輝度を加味した所定の演算を施し、 RGB強度を算出し、 算出し た RGB強度に所定の行列を乗じ、 R GB強度を C I E (国際照明委員 会) 一 XYZ表色系 (以下、 XYZ表色系と略す) に変換し、 得られた X Y Z値を C I E— L * a * b *表色系 (以下 L a b表色系と略す) 、 L CH 表色系に順次変換して計算測色値を算出する。
基準色データ算出部 28は、 カメラ 1によって撮影される色票と同一の 色票の各色標本に対する L a b表色系による測色値を取得し、 取得した測 色値を XYZ表色系に変換し、 得られた XYZ値に対し、 所定の行列を乗 じて、 RGB強度を算出し、 算出した RGB強度に対して、 表示部 3 0の ァ特性、 基準白色の RGB値、 及び黒画素の残留輝度を加味した所定の演 算を施し、 基準色データを算出し、 基準色データ記憶部 2 2に記憶させる。 なお、 各色標本に対する測色値はユーザが測色計を用いて実際に測定した ものを用いても良いし、 ユーザ以外の第三者によって測色計を用いて予め 測定されたものを用いても良い。 また、 後者の場合、 基準色データを予め 算出しておき、 基準色データ記憶部 2 2に記憶させておくことが好ましレ 。 表示制御部 2 9は、 フレームメモリ 2 1から 1枚のフレーム画像を順次 読み出し、 表示部 3 0のァ特性値によるァ補正を施し、 カメラ 1により撮 影された画像を表示部 3 0にリアルタイムで表示させるとともに、 フレー ム画像毎に算出された計算測色値を表示部 3 0にリアルタイムで表示させ る。 表示部 3 0は、 C R T、 プラズマディスプレイ、 液晶ディスプレイ等 から構成され、 表示制御部 2 9の制御の下、 種々の画像を表示する。
なお、 本実施形態では、 カメラ 1が画像取得手段の一例に相当し、 撮影 色データ算出部 2 3が撮影色データ算出手段の一例に相当し、 変換行列算 出部 2 4が補正データ算出手段の一例に相当し、 標本領域設定部 2 5が、 領域設定手段の一例に相当し、 補正部 2 6及び測色値算出部 2 7が測色値 算出手段の一例に相当する。
次に、 本画像処理装置の動作を図 2に示すフローチヤ一トを用いて説明 する。 このフローチャートでは、 顔の眉間の色を測色する場合を例に挙げ て説明する。 まず、 ステップ S 1において、 カメラ 1は、 人物の顔及び色 票を同時に撮影する。 図 3は、 カメラ 1により撮影された画像を示した図 面である。 図 3に示すように、 この画像には、 顔の首のあたりに色票 C C が撮影されていることが分かる。 なお、 色票 C Cの大きさは、 顔全体が 1 枚のフレーム画像に収まるような形状及びサイズを有するものが好ましく、 具体的には、 縦寸法 L 1が人物の首の一般的な長さより少し短く、 かつ、 横寸法 L 2が人物の顔の幅より少し長い程度が好ましい。
ここで、 色票に含まれる色標本の数が少ない場合、 カメラ 1により撮影 された画像を測色条件下で撮影された画像に精度よく変換させることがで きる変換行列を得ることができず、 高精度な計算測色値を得ることが困難 となる。 そのため、 高精度な計算測色値を得るという観点からは色標本の 数は多い方が好ましいが、 そうすると、 計算量が膨大になってしまう。 ま た、 色票のサイズが大きくなると、 色票と顔とを同時に撮影した場合、 顔 が 1枚のフレーム画像に納まらなくなってしまう。 そこで、 本画像処理装 置では、 色標本が 2行 1 0列で配列された色票を用いている。 また、 本画 像処理装置は、 眉間の色、 すなわち、 肌の色を測定するものである。 その ため、 本画像処理装置では、 1行目に、 それぞれ色が多少相違する肌色の 色標本が 1 0個配列された色票を用いている。
具体的には、 1行目の 1〜 1 0列目には、 それぞれ、 D 6 5光源下で、 b値が (6 8, 9. 1 , 2 5. 1) , ( 74. 4, 8. 3, 2 3.
(8 5. 4. 9, 1 9. 9) , (6 5. 6, 1 3. 4, 1 9. (7 3. 1 1. 6 , 1 8. 4) , (8 2. 9, 9. 1 , 1 6. (9 0. 4. 0, 1 1. 1 ) , (8 2. 1, 1 7. 1 , 2 5. (8 8. 4. 3, 24. 1 ) , (8 5. 3, 1 0. 6, 1 3. 5) の肌色の色標本が配列されている。 また、 2行目の 1〜 1 0列目には、 それぞれ、 D 6 5光源下で、 L a b値が (9 3. 1, 1. 5, 1. 0) の 白、 (7 6. 8, 0. 4, 2. 9) の薄いグレー、 ( 54. 8, 0. 4, 1. 8) のグレー、 (3 0. 2, 0. 6、 — 0. 8) の濃いグレー、 (5 2. 6 , 6 3. 5, 26. 1 ) の赤、 (8 7. 3, 一 5. 6 , 8 1. 5) の黄色、 (5 8. 1 , - 54. 9, 2 0. 2 ) の緑、 (46. 9, - 2 9. 4, - 2 1. 7 ) の青、 (43. 7 , 9. 2, — 42. 8) の水色、 (4 2. 4, 3 5. 9、 - 2 8. 1 ) の紫の色標本が配列されている。
ここで、 高精度の計算測色値を算出するために照明及び色票間の距離と, 照明及び顔面間の距離とをほぼ等距離とし、 かつ、 カメラ 1及び色票間の 距離と、 カメラ 1及び顔面間の距離とをほぼ等距離とし、 照明と顔との反 射強度が等しくされている。 これを実現するために、 例えば、 被写体であ る人物が椅子に腰掛けた際、 正面視において人物の首の位置に色票を配置 させ、 かつ、 側面視において顔の前面とほぼ面一に色票を配置する色票台 を用い、 カメラ 1を顔の正面前方に配置し、 照明を顔の正面前方に配置し て顔を撮影している。 また、 顔面照射用の照明と、 色票照射用の照明とを
2つ設け、 顔面照射用の照明及び眉間間の距離と、 色票照射用の照明及び 色票間の距離とがほぼ等距離となるように、 両照明を配置して顔を撮影し ている。 この場合、 両照明が照射する光量を同一にしていることは言うま でもない。
次に、 撮影色データ算出部 2 3は、 フレームメモリから 1枚のフレーム 画像を読み出し (ステップ S 2) 、 読み出したフレーム画像に表示された 各色標本の画像から撮影色データを算出する (ステップ S 3) 。 ステップ
0 S 3の処理の詳細については後述する。 ここで、 撮影色データは、 R, G, Bの色成分からなるデ一夕である。
ステップ S 4において、 変換行列算出部 24は、 線形モデル又は二次関 数モデルを用いて変換行列を算出する。 まず、 線形モデルについて説明す る。
(線形モデル)
線形モデルは、 式 ( 1 ) に示すように各色標本の撮影色データからなる 撮影色行列 Xと、 各色標本の基準色データからなる基準色行列 Yとが、 変 換行列 Aを用いて対応付けられたモデルである。
ただし、 添え字 i (= 1, 2 , · ··, n) は、 各色標本に対する番号 (色番号) を示し、 基準色行列 Yは、 3 Xnの行列であり、 各列には、 各 色標本の基準色データ [Rい G i ; B が色番号順に配列された行列であ る。 撮影色行列 Xは、 4 X nの行列であり、 1行目の各列には 1が配列さ れ、 2〜4行目の各列には、 各色標本に対する撮影色デ一夕 [R i ' , G i ' , B i ' ]が、 色番号順に配列された行列である。
変換行列 Aは、 a a ;^の計 1 2個の要素からなる 3 X 4の行列で ある。 なお、 本実施形態では、 2 0個の色標本からなる色票を用いている ため、 n = 2 0、 すなわち、 i = ( l , 2 , · · · , 2 0) である。 その ため、 基準色行列 Yは 3 X 2 0の行列となり、 撮影色行列 Xは 4 X 2 0の 行列となる。 また、 色番号は、 色票の 2行目の 1列目から 1 0列目までの 各色に対して、 1〜 1 0番の色番号が順番に付与されているとともに、 1 行目の 1列目から 1 0列目までの色に対して、 1 1〜2 0番の色番号が順 番に付与されている。
次に、 式 (2) において、 式 ( 1 ) を基準色行列 Yの 1行目を行列 R、 2行目を行列 G、 3行目を行列 Bとして表し、 基準色行列 Yを Y= [R G B]Tとおく。 また、 変換行列 Aの 1行目を行列 aい 2行目を行列 a 2、 3行目を行列 a 3として表し、 変換行列 Aを行列 a 2 a 3]Tと おく。
"R" "Ri 2 ·.· Rn "ai" "an i2 i3
Y= G Gi ·.· jn ,A= a2 = & 21 22 & 23 a24
-Bi B2 ··· Bn. a3. .a3i ¾32 & 33 34.
RT= XTai
GT= XTa2 (3)
BT=XTa3
すると、 RT、 GT、 BTは、 式 (3) で表され、 式 ( 3) の 3つの式の それぞれに対し、 撮影色行列 Xを左から乗ずると、 式 (4) が得られる。 ここで、 撮影色行列 Xは 4 X nの行列であり、 RT、 GT、 Βτはそれぞれ, n X 1の行列で.あるため'、 式 (4) に示す XRT、 XGT、 XBTは 4 X 1 の行列となる。 また、 撮影色行列 Xは 4 X nの行列であり、 Χτは n X 4 の行列であるため、 XXTは 4 X 4の行列となる。 したがって、 式 (4) の:!〜 3段目の式は、 それぞれ、 a , a 12, a 13, a 14を変数とし、 a 2! , a 22, a 2 3 , a 24を変数とし、 a 3 i, a 32, a 33, a 34を変数 とする 4元 1次の連立方程式となる。 そして、 この連立方程式を解けば、 変換行列 Aを算出することができる。
ゆえに、 線形モデルを用いた場合、 変換行列算出部 24は、 前記 nを n = 2 0とし、 取得した撮影色データと、 基準色デ一夕とを用いて、 式 (4) の方程式を解き、 変換行列 Aを算出する。
(二次関数モデル)
次に、 二次関数モデルについて説明する。 なお、 二次関数モデルは、 一 次元モデルと比べると計算量は多くなるが、 より高精度な計算測色値を算 出することが可能である。 二次関数モデルは、 式 (5) に示すように、 変 換行列 Aとして 3 X 1 0の行列を用い、 撮影色行列 Xとして 1 0 X nの行 列をB RG用いたモデルである。 撮影色行列 Xは、 1〜 4行目の各列は線形モデ ルの撮影B RG色行列 Xと同一であり、 5〜 1 0行目の各列には、 R i, R i ' , R G , ' , R i ' B i ' , G , ' G ' G; ' B s ' , B B が色 番号順に配列さB RGれている。
Y=AX " 1 1 ·< - 1 一
Ri R2, ·' . Rn
Gi' G2, ·' • Gn'
Bi' B2, ·. . Bn,
ai.i i,2 ·' ai,io
n ,1 ,2 ·' 2,io Ri'Ri' R2R2 .' • Rn Rn
(5) n J a3,ioJ Ri'Gi' R2G2 ·· • i
Ri'Bi' R2 B2' ·· • RnBn
Gi'Bi G2B2 ·· • GnBn
Bi'Bi' B2,B2, ·· • Bn,Bn,- そして、 式 (6) に示すように、 線形モデルと同様にして、 基準色行列 Yの 1〜3行目を行列 R, G, Bで表し、 変換行列 Aの 1〜 3行目をそれ ぞれ行列 1 » 2 3で表す。
"R" "Ri 2 … Rn 一 ai_ ai,i ai,2 · • ai,io"
Y= G = Gi G2 … Gn a2 9>2,1 ¾2,2 ·' • ¾2,10 (6)
Β. .Bi B2 … Bn. a3. β3,1 ¾3,2 ·' • ¾3,10.
RT=XTai
GT= XTa2 (7)
BT= XTa3
XRT = XXTai
XGT = XXTa2 (8)
XBT = XXTa3 すると、 線形モデル同様、 式 ( 5) は式 (7) で表され、 式 (7) の両 辺に対し左から撮影色行列 Xを乗ずることにより式 (8) が得られる。 こ こで、 撮影色行列 Xは 1 0 X nの行列であり、 RT, GT, Βτはそれぞれ n X lの行列であるため、 式 (8) に示す XRT, XGT, XBTはそれぞ れ 1 0 X Iの行列となる。 また、 撮影色行列 Xは 1 0 X nの行列であり、 Χτは n X 1 0の行列であるため、 式 ( 8 ) に示す XX 1 0 X 1 0の 行列となる。 したがって、 式 (8) の 1〜 3段目の式は、 それぞれ、 i〜 a 1。を変数とし, a 2, i〜 a 2, 1。を変数とし、 a 3, i〜a 3, i0を 変数とする 1 0元 1次の連立方程式となる。 そして、 この連立方程式を解 けば、 変換行列 Aを算出することができる。
ゆえに、 二次関数モデルを用いた場合、 変換行列算出部 24は、 前記 n を n= 2 0とし、 取得した撮影色デ一夕と、 基準色デ一夕とを用いて、 式 (8) の方程式を解き、 変換行列 Aを算出する。
図 2に示すステップ S 5において、 標本領域設定部 2 5は、 図 4に示す ように、 左右の瞳 B Eを特徴点として検出し、 検出した特徴点の位置関係 から、 眉間の位置を特定し、 特定した位置に標本領域 R 1を設定する。 こ の標本領域 R 1は縦寸法が目頭 P 1及び眉頭 P 3の間の距離より少し短く、 横寸法が目頭 P 1及び P 2間の距離よりも少し短い矩形状の領域である。 図 2に示すステップ S 6において、 補正部 2 6は、 標本領域 R 1の画素 データの R, G, Bの色成分毎の平均値を算出する。
ステップ S 7において、 補正部 2 6は、 線形モデルが採用されている場 合は、 式 ( 1 ) の , G s ' , B に前記平均値を代入するとともに、 式 ( 1 ) の Aに線形モデルにおいて算出された変換行列 Aを代入し、 補正 RGB値を算出する。 この場合、 変換行列 Aは 3 X 4の行列であり、 撮影 色行列 Xは、 4 X 1の行列であるため、 補正 RGB値は、 3 X Iの行列と なる。
また、 補正部 2 6は、 変換行列 Aが二次関数モデルにより算出されてい る場合は、 式 (5) の R , G , ' , B , ' に前記平均値を代入するとと もに、 式 (2) の Aに二次関数モデルにおいて算出された変換行列 Aを代 入し、 補正 RGB値を算出する。 この場合、 変換行列 Aは 3 X 1 0の行列 であり、 撮影色行列 Xは、 1 0 X 1の行列であるため、 補正 RGB値は、 線形モデル同様、 3 X Iの行列となる。
4 ステップ S 8において、 測色値算出部 2 7は、 式 (9) の演算を行い、 補正 RGB値に対する RGB強度 Yr, Yg, Ybを算出する。
伹し、 R, G, Bは補正 RGB値を示し、 YQ r, Y。g, Y。bは黒色画 素の残留輝度を示し、 Wr, Wg, Wbは基準白色の RGB値を示し、 h r h g, h bは RGB強度と残留輝度との差の値域を示し、 ァは表示部 3 0 のァ特性値を示している。 ここで、 基準白色の R GB値は、 (Wr, Wg Wb) = (2 5 5, 2 5 5, 2 5 5 ) であり、 残留輝度の RGB値は (Y
0 r Y 0 g - Y0 b) = ( ) であり、 (h r, h g, h b) ( 1
5 0 0, 1 5 00, 1 5 0 0 ) である。 また、 式 (9) の括弧内の値はァ 乗されており、 これにより、 表示部 3 0のァ特性値により逆ァ補正がされ た R G B強度を得ることができる。
ステップ S 9において、 測色値算出部 2 7は、 式 ( 1 0) の演算を行い、 ステップ S 8で算出された R GB強度に対する XY Z値を算出する。 ステ ップ S 1 0において、 測色値算出部 2 7は、 式 ( 1 1 ) の演算を行い、 ス テツプ S 9で算出された XYZ値に対する L a b値を算出する。
5 L*-116.0*Y'-16.0
a* = 500.0(X,-Y,) (11)
,b* = 200.0(Y,-Z,)
ただし、 Χ',Υ',Ζ'は大きさにより次のように決定する
Χη> 0.0008856→X'=Xj/3
(12)
Xn≤ 0.0008856→X,= 7.789 + Xn+ 16.0/116.0
Yn> 0.0008856→Y'=Yj/3
(13)
Yn <0.0008856→Υ'= 7.789 + Yn + 16.0/116.0
Zn > 0.0008856→Z' = Zj/3
(14)
Zn≤ 0.0008856→ Z, = 7.789 + Zn + 16.0/116.0
但し、 X' , Y ' , Ζ ' はそれぞれ、 式 ( 1 2 ) 〜式 ( 1 4) によって 算出される。 式 ( 1 2 ) 〜 ( 1 4 ) に示す Χη, Υη, Ζ ηは、 (Χη, Υ η, Ζ η) = (Χ/Χ0, Ύ/Ύ 0, ΖΖΖ。) で与えられる。 ここで、 Χ。, Υ ο, Ζ。は、 基準白色に対する ΧΥ Ζ値を示し、 光源の色温度を 6 5 0 0 K (D 6 5 ) として現物の色票が測色された場合は、 (Χ 0, Υ 0, Ζ 0) = ( 9 5. 0 4 7 0 , 1 0 0. 0, 1 0 8. 8 8 2 7 ) で与えられ、 光源の色温度を 5 0 0 O K (D 5 0 ) として現物の色票が測色された場合 は、 (Χ。, Υ。, Ζ。) = ( 9 6. 4 2 5 0, 1 0 0. 0 , 8 2. 4 6 8 0 ) で与えられる。 式 ( 1 2 ) 〜 ( 1 4) に示すように、 Χη, Υη, Ζ η の値が、 それぞれ 0. 0 0 0 8 8 5 6より大きい場合は、 式 ( 1 2 ) 〜 ( 1 4 ) の上段右側に示す式を用いて X ' , Y ' , Z ' が算出され、 Χη, Υη, Ζ πの値が 0. 0 0 0 8 8 5 6以下の場合は、 式 ( 1 2 ) 〜式 ( 1 3 ) の下段右側に示す式を用いて X' , Y' , Z ' が算出されている。 ステップ S 1 1において、 測色値算出部 2 7は、 式 ( 1 5 ) を用いて、 ステップ S 1 0で算出された L a b値を極座標系である L CH表色系に変 換し、 L CH値を算出する。 これにより計算測色値が算出される。
6 ステップ S 1 2において、 最終のフレーム画像に対する処理が終了して いない場合 (ステップ S 1 2で NO) 、 撮影色データ算出部 2 3は、 フレ ームメモリ 2 1から次のフレーム画像を読み出し (ステップ S 1 3) 、 処 理をステップ S 3に戻す。 この場合、 撮影色データ算出部 2 3は、 所定枚 数おきにフレーム画像を読み出しても良いし、 1枚ずつフレーム画像を読 み出しても良い。 一方、 最終のフレーム画像に対する処理が終了している 場合 (ステップ S 1 2で YE S) 、 処理が終了される。
次に、 ステップ S 3のサブルーチンについて図 5に示すフローチヤ一卜 を用いて説明する。 ステップ S 3 1において、 撮影色データ算出部 2 3は、 フレーム画像に対し、 色票が表示された領域を検出するための色票検出領 域を設定する。 本実施形態では、 色票は、 フレーム画像の下側 4分の 1の 以下の領域に表示されるように撮影されている。 したがって、 撮影色デ一 夕算出部 2 3は、 フレーム画像の下側 4分の 1程度の領域に矩形状の色票 検出領域を設定する。 図 6は、 図 3に示すフレーム画像において、 色票の 領域を拡大して示した図面である。 図 6に示すように、 フレーム画像に対 し色票 C Cを含む色票検出領域 R 2が設定されていることが分かる。 なお、 図 6において、 人物の画像は省略している。
ステップ S 3 2において、 撮影色データ算出部 2 3は、 図 6に示すよう に色票検出領域内 R 2において、 赤, 青の色標本 CR, C Bの領域を検出 する。 具体的には、 撮影色データ算出部 2 3は、 色票検出領域 R 2を RG B表色系から HS V表色系に変換し、 予め記憶している赤及び青に対する H (色相) , S (彩度) , V (強度) の数値範囲を満たす領域を色票検出 領域 R 2から検出し、 赤及び青の色標本 CR, C Bの領域を検出する。 なお、 撮影色デ一夕算出部 2 3は、 赤、 青以外の色標本の領域を検出し てもよく、 また、 2色以上の色標本を検出してもよい。 ただし、 検出精度 高めるためには赤や青等の相対的に彩度の高い色標本を検出することが好 ましい。
ステップ S 3 3において、 撮影色データ算出部 2 3は、 検出した赤, 青 の色標本 C R, C Bの領域の重心 OR, OBを基準位置として特定し、 両 基準位置の距離を算出し、 予め記憶している色標本の配列パターンに従つ て、 各色標本が表示された領域の重心 oを特定する。 具体的には、 重心 o
R , O B間の線分 K 1の距離を算出し、 赤, 青間には、 3個の色標本が存 在しているため、 線分 K 1を 4等分して得られる 3個の内分点を赤, 青間 に存在する 3個の色標本に対する重心〇として特定する。 また、 隣接する 重心 0間の距離を色票の横サイズ K 2として特定し、 重心 O Rを起点とし て、 線分 K 1め左側の延長線上に、 横サイズ K 2ずつ、 4個の点を目盛つ ていくとともに、 重心 O Bを起点として、 線分 K 1の右側の延長線上に横 サイズ K 2離れた 1個の点を目盛り、 目盛った各点を 2行目に配列された 残り 5個の色標本の重心〇として特定する。
さらに、 撮影色データ算出部 2 3は、 予め記憶している現物の色標本の 横サイズに対する縦サイズの比率を線分 K 2に乗じ、 色標本の縦サイズ K 3を算出し、 線分 K 1に対して直交する直線上であって、 2行目に配列さ れた色標本の各重心〇を起点として上側に縦サイズ K 3離れた位置を 1行 目に配列された 1 0個の色標本の重心 0として特定する。
ステップ S 3 4において、 撮影色データ算出部 2 3は、 各重心〇を重心 とし、 かつ、 色標本の縦, 横サイズ K 3, Κ 2よりも小さな矩形状の領域 R 3を各色標本の領域に設定し、 設定した領域 R 3内の各画素データの R, G, B値の平均値を各色標本に対する撮影色データとして算出する。 そし て、 図 2に示すステップ S 4に処理が戻される。 これにより、 顔の動画像 力、らリアルタイムに肌の測色値が算出される。
次に、 基準色データ算出部 2 8による基準色データの算出処理を図 7に 示すフローチヤ一トを用いて説明する。 ステップ S 1 0 1において、 基準 色データ算出部 2 8は、 現物の色票の各色標本の測色計による測色値を取 得する。 ここでは、 D 6 5光源を各色標本に照射したときの L a b値を測 色値として取得している。
ステップ S 1 0 2において、 基準色データ算出部 2 8は、 各色標本に対 する測色値を、 式 ( 1 6 ) 〜 ( 1 8 ) を用いて、 L a b表色系から X Y Z 表色系に変換する。
8
具体的には、 まず、 取得した測色値の L値が 8. 8 5 6以上の場合は、 式 ( 1 6) の上段の式を用いて Y値が算出され、 L値が 8. 8 5 6未満の 場合は、 式 ( 1 6) の下段の式を用いて Y値が算出される。
次いで、 取得した測色値の a値を 50 0で除した値に式 ( 1 6) で算出 された Y' 値を加算した値が、 0. 20 6 9以上の場合、 式 ( 1 7) の上 段右側に示す式を用いて X値が算出される。 一方、 取得した測色値の a値 を 5 0 0で除した値に式 ( 1 6) で算出された Y' 値を加算した値が、 0. 2 0 6 9未満の場合、 式 ( 1 7) の下段右側に示す式を用いて X値が算出 される。
次いで、 式 ( 1 6) で算出された Y' から、 測色値の b値を 2 00で除 した値を差し引いた値が 0. 2 06 9以上の場合、 式 ( 1 8) の上段右側 に示す式を用いて Z値が算出される。 一方、 式 ( 1 6) で算出された Y' から、 測色値の b値を 2 0 0で除した値を差し引いた値が 0. 2 0 6 9未 満の場合、 式 ( 1 8) の下段右側に示す式を用いて Z値が算出される。 ステップ S 1 0 3において、 基準色デ一夕算出部 2 8は、 ステップ S 1 0 2で算出された各色標本に対する XYZ値に対し、 式 ( 1 9) で示す 3 X 3の行列を乗じ、 RGB強度 Yr, Yg, Ybを算出する。
ステップ S 1 04において、 基準色データ算出部 2 8は、 ステップ S 1 0 3で算出された各色標本に対する RGB強度に対し、 式 (20) の演算 を行い、 R, G, Bからなる基準色データを色標本毎に算出する。 算出さ れた色標本毎の基準色データは対応する色番号と関連付けられて基準色デ 一夕記憶部 2 2に記憶される。
(20)
ここで、 式 (2 0) において、 Wr, Wg, Wbは基準白色の R G B値で あり、 (Wr, Wg, Wb) = ( 2 5 5, 2 5 5 , 2 5 5 ) の値をとり、 h r, h 8, h bは RGB強度と残留輝度との差の値域であり、 (h r, h g, h b) = ( 1 5 0 0, 1 5 0 0 , 1 5 0 0 ) の値をとり、 Y。r, Y。g, Y0 bは残留輝度であり、 (Y。r, Y。g, Y。b) = ( 1 , 1 , 1 ) の値を とる。 また、 式 (2 0) に示す括弧内の式は 1 ァ乗されており、 これに より表示部 3 0のァ特性値によりァ補正が施された基準色データを得るこ とができる。
次に、 本画像処理装置によって算出された補正 RGB値を示す。 図 8は、 本画像処理装置により算出された補正 RGB値を示した表である。 表に示 す iは色番号を示し、 上段の表は色番号が 1〜 1 0に対する表であり、 下 段の表は色番号が 1 1〜 2 0に対する表であり、 両表とも、 2〜 4行目の 各列には、 各色番号に対応する、 前記線形モデルを用いた場合の計算測色 値、 前記二次関数モデルを用いた場合の補正 RGB値、 及び実測値が記載 されている。 なお、 実測値は、 D 6 5光源の測色計により現物の色標本を 測色することで得られた L a b値を R G B値に変換することにより得られ た値である。
なお、 1〜 2 0の色番号に対しては、 それぞれ、 前記色標本とほぼ同じ 色が対応付けられている。 この表から分かるように、 線形モデル、 二次関 数モデルとも、 実測値と比較して良好な値が算出されている。
以上説明したように、 本画像処理装置によれば、 カメラ 1により色票と 人物の動画像とが同時に撮影され、 動画像を構成するフレーム画像から、 各色標本が表示された領域が検出され、 各色標本に対する撮影色データが 算出され、 算出された撮影色データと、 予め記憶されている基準色データ とを用いて変換行列 Aが算出される。 そして、 フレーム画像から眉間の位 置が検出され、 検出された位置に標本領域が設定され、 設定された標本領 域から計算測色値が算出されている。
そのため、 人物の顔が撮影された画像から、 肌が表示された領域を正確 に特定することが可能となり肌の色を高精度、 かつ、 リアルタイムに算出 することができる。 また、 各色標本に対する測色計による測色値を予め取 得しておき、 この測色値から算出された基準色デ一夕が用いられているた め、 高価な測色計を用いなくとも、 高精度な肌の測色値を得ることができ る。
なお、 本発明は以下の態様を採用してもよい。
( 1 ) 上記実施形態では、 標本領域を眉間に設定したが、 これに限定さ れず、 頰ゃ額等の他の肌の領域に標本領域を設定し、 肌の測色値を算出し てもよい。 この場合、 眉間同様、 目尻、 鼻頭、 唇の両端等の特徴点を検出 し、 検出した特徴点から標本領域を設定すればよい。
( 2 ) 上記実施形態では、 顔の肌の色を測色するものであつたが、 これ に限定されず、 髪、 唇等を測色してもよい。 また、 人物に限定されず、 果 物、 野菜、 動物等の他の物体を測色してもよい。 この場合、 測色対象とな る色に応じて、 その色の色標本が相対的に多く含まれる色票を用いること が好ましい。
( 3 ) 上記実施形態では、 色標本が 2行 1 0列で配列された矩形状の色 票を用いたが、 これに限定されず、 十字型、 階段型、 H型等の矩形以外の 形状を有する色票を用いてもよい。 すなわち、 測色対象物の形状に応じて、 好ましい形状の色票を用いればよい。
(4) 上記実施形態では、 L a b表色系で測色された測色値を取得して、 基準色デ一夕を算出していたが、 これに限定されず、 XYZ表色系、 RG B表色系等の他の表色系で測色された測色値を取得して、 基準色データを 算出してもよい。
( 5) 上記実施形態では、 標本領域の L CH値を計算測色値として算出 していたが、 これに限定されず、 L a b値、 XYZ値、 RGB値を計算測 色値として算出してもよい。
(6) 上記実施形態では説明しなかったが、 本発明にかかる画像処理プ ログラムを CD— ROM等のコンピュー夕読取り可能な記録媒体に記憶さ せ、 市販してもよい。 この場合、 ユーザは、 この記録媒体を購入し、 コン ピュー夕にィンストールすることにより.、 上記画像処理装置を得ることが できる。 また、 イン夕一ネッ ト上の WE Bサーバに本画像処理プログラム を記憶させ、 ダウンロードすることにより本画像処理プログラムをコンビ ユー夕にインストールさせても良い。
(7) 上記実施形態で示すカメラ 1を遠隔地に設置し、 カメラ 1を通信 機能を備えるパソコンを介してコンピュータ 2と通信可能に接続し、 カメ ラ 1により撮影された顔の動画像をコンピュータ 2が受信して顔の肌等の 測色値を算出し、 算出した測色値をカメラ 1側のパソコンに送信させても よい。
(8) 上記実施形態では、 色標本の数を 2 0個としたがこれに限定され ず、 :!〜 1 9個又は 2 1個以上としてもよい。
(9) 上記実施形態では、 色票は、 可視光のみからなる色標本から構成 されるものとしたが、 例えば、 赤外線マーカー等の可視光以外の色標本を 含ませても良い。 産業上の利用可能性
測色計を用いることなく測色対象物が撮影された動画像から、 測色対象 物の測色値をリアルタイムに算出することができる画像処理プログラム、 画像処理装置、 及び画像処理法を提供する。

Claims

請求の範囲
1 . 測色対象物が撮影された画像を用いて、 前記測色対象物の色を測色 するための画像処理プログラムであって、
複数の色標本から構成される色票と前記測色対象物とが同時に撮影され たカラー動画像を取得する画像取得手段、
前記カラー動画像を構成するフレーム画像に対して色標本が表示された 領域を検出し、 検出した領域の画素データを基に、 各色標本に対する撮影 色データを算出する撮影色データ算出手段、
前記色票を構成する各色標本の測色値から得られる色標本毎の基準色デ 一夕と前記撮影色データとを用い、 補正データを算出する補正データ算出 手段、
フレーム画像に対して測色対象物の特徴点を検出し、 検出した特徴点を 基に、 前記測色対象物が表示された領域内に測色対象領域を設定する領域 設定手段、
前記測色対象領域の画素データを基に、 前記測色対象領域の色データを 算出し、 当該色データに対して、 前記補正データを用いた演算を施し、 測 色値を算出する測色値算出手段としてコンピュータを機能させることを特 徴とする画像処理プログラム。
2 . 前記補正デ一夕算出手段は、 線形モデルを用いて、 前記補正データ を算出することを特徴とする請求項 1記載の画像処理プログラム。
3 . 前記補正データ算出手段は、 二次関数モデルを用いて、 前記補正デ 一夕を算出することを特徴とする請求項 1記載の画像処理プログラム。
4 . 前記測色対象物は人物の顔であり、 前記測色対象領域は、 顔の肌の 領域であることを特徴とする請求項 1〜 3のいずれかに記載の画像処理プ ログラム。
5 . 前記領域設定手段は、 フレーム画像の瞳を前記特徴点として検出し、 検出した瞳から眉間の位置を検出し、 当該位置に前記測色対象領域を設定 することを特徴とする請求項 4記載の画像処理プログラム。
6 . 前記色票は、 少なくとも肌色の色標本を含むことを特徴とする請求 項 4又は 5記載の画像処理プログラム。
7 . 自己のァ特性値を用いて、 前記カラー動画像をァ変換して表示する 表示手段を更に備え、
前記基準色デ一夕算出手段は、 前記測色値に対して前記ァ特性値による ァ補正を施した値を前記基準色データとして算出し、
前記測色値算出手段は、 前記測色対象領域の色データに対し前記 r特性 値による逆ァ補正を施した値を測色値として算出すること特徴とする請求 項 1〜 6のいずれかに記載の画像処理プログラム。
8 . 前記色票は、 少なくとも 3個の色標本を含み、
前記撮影色デ一夕算出手段は、 色票を構成する複数の色標本のうち、 特 定範囲の色相で、 彩度及び明度のうち少なくともいずれか一方が相対的に 高い少なくとも 2個の色標本の領域を検出し、 検出した各領域の位置関係 を基に、 予め記憶している色標本の配列パターンにしたがって、 他の色標 本の領域を補間により検出することを特徴とする請求項 1〜 7のいずれか に記載の画像処理プログラム。
9 . 測色対象物が撮影された画像を用いて、 前記測色対象物の色を測色 する画像処理装置であって、
複数の色標本から構成される色票と前記測色対象物とを同時に撮影し、 前記カラー動画像を取得する画像取得手段と、
前記カラ一動画像を構成するフレーム画像に対して色標本が表示された 領域を検出し、 検出した領域の画素デ一夕を基に、 各色標本に対する撮影 色データを算出する撮影色データ算出手段と、
前記色票を構成する各色標本の測色値を基に得られる色標本毎の基準色 データと前記撮影色データとを用い、 補正データを算出する補正データ算 出手段と、
フレーム画像に対して測色対象物の特徴点を検出し、 検出した特徴点を 基に、 前記測色対象物が表示された領域内に測色対象領域を設定する領域 設定手段と、
前記測色対象領域の画素データを基に、 前記測色対象領域の色データを 算出し、 当該色データに対して、 前記補正データを用いた演算を施し、 測 色値を算出する測色値算出手段とを備えることを特徴とする画像処理装置。
1 0 . コンピュータが、 測色対象物が撮影された画像を用いて、 前記測 色対象物の色を測色する画像処理方法であって、
前記コンピュータは、 画像取得手段、 撮影色データ算出手段、 補正デー 夕算出手段、 領域設定手段、 及び測色値算出手段を備え、
前記画像取得手段が、 前記色票と前記測色対象物とを同時に撮影し、 前 記カラー動画像を取得するステップと、
前記撮影色データ算出手段が、 前記カラー動画像を構成するフレーム画 像に対して各色標本が表示された領域を検出し、 検出した領域の画素デー 夕を基に、 各色標本に対する撮影色データを算出するステップと、
前記補正データ算出手段が、 前記色票を構成する各色標本の測色値から 得られる色標本毎の基準色データと前記撮影色データとを用い、 補正デー 夕を算出するステップと、
前記領域設定手段が、 フレーム画像に対して測色対象物の特徴点を検出 し、 検出した特徴点を基に、 前記測色対象物が表示された領域内に測色対 象領域を設定するステップと、
前記測色値算出手段が、 前記測色対象領域の画素データを基に、 前記測 色対象領域の色データを算出し、 当該色データに対して、 前記補正データ を用いた演算を施し、 測色値を算出するステップとを備えることを特徴と する画像処理方法。
PCT/JP2004/014783 2004-06-17 2004-09-30 画像処理プログラム、画像処理装置、及び画像処理方法 WO2005124302A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006514651A JPWO2005124302A1 (ja) 2004-06-17 2004-09-30 画像処理プログラム、画像処理装置、及び画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-179648 2004-06-17
JP2004179648 2004-06-17

Publications (1)

Publication Number Publication Date
WO2005124302A1 true WO2005124302A1 (ja) 2005-12-29

Family

ID=35509798

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/014783 WO2005124302A1 (ja) 2004-06-17 2004-09-30 画像処理プログラム、画像処理装置、及び画像処理方法

Country Status (2)

Country Link
JP (1) JPWO2005124302A1 (ja)
WO (1) WO2005124302A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211178A (ja) * 2008-02-29 2009-09-17 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2010520551A (ja) * 2007-03-08 2010-06-10 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 画像から推定される皮膚色に基づいて製品を推奨するための方法及びシステム
KR100992525B1 (ko) 2008-06-30 2010-11-05 한국 한의학 연구원 컬러 영상 교정 방법
EP2568267A1 (en) * 2011-09-12 2013-03-13 Ricoh Company, Ltd. Spectral sensor for printed images
WO2013145295A1 (ja) * 2012-03-30 2013-10-03 富士通株式会社 カラーチャート検出装置、カラーチャート検出方法及びカラーチャート検出用コンピュータプログラム
JP2015012422A (ja) * 2013-06-28 2015-01-19 大日本印刷株式会社 画像処理装置、色替え処理方法、コンピュータプログラム
KR20150068423A (ko) * 2012-11-09 2015-06-19 후지필름 가부시키가이샤 카메라 시스템, 이것에 사용되는 색변환 장치 및 방법 그리고 색변환 프로그램
JP2018163204A (ja) * 2017-03-24 2018-10-18 ヤンマー株式会社 色診断用頭部装着型表示装置、及び色診断用表示装置
JP2020129000A (ja) * 2020-05-08 2020-08-27 ヤンマーパワーテクノロジー株式会社 色診断用表示装置
CN111833340A (zh) * 2020-07-21 2020-10-27 北京百度网讯科技有限公司 图像检测方法、装置、电子设备及存储介质
JPWO2021111736A1 (ja) * 2019-12-06 2021-06-10
CN113380176A (zh) * 2021-06-23 2021-09-10 Tcl通讯(宁波)有限公司 移动终端屏幕显示色温自动调节方法、装置、终端及介质
CN114739918A (zh) * 2022-04-13 2022-07-12 云南省农业科学院质量标准与检测技术研究所 植物颜色测定方法、装置、系统及存储介质
WO2024008581A1 (en) * 2022-07-05 2024-01-11 L'oreal Method for determining parameters relative to the coloration of a body zone of an individual

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05223642A (ja) * 1992-02-14 1993-08-31 Pola Chem Ind Inc 測色方法及びその装置
JP2002116749A (ja) * 2000-07-17 2002-04-19 Matsushita Electric Ind Co Ltd 画像信号処理装置、画像表示装置、マルチディスプレイ装置及び当該マルチディスプレイ装置における色度調整方法
JP2002131135A (ja) * 2000-10-20 2002-05-09 Kao Corp 基準色票およびメイクシミュレーション装置
JP2003134526A (ja) * 2001-10-19 2003-05-09 Univ Waseda 色再現装置及び色再現方法
JP2004008632A (ja) * 2002-06-10 2004-01-15 Foundation For Nara Institute Of Science & Technology 顔色計測装置
JP2004118314A (ja) * 2002-09-24 2004-04-15 Advanced Telecommunication Research Institute International 発話者検出システムおよびそれを用いたテレビ会議システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05223642A (ja) * 1992-02-14 1993-08-31 Pola Chem Ind Inc 測色方法及びその装置
JP2002116749A (ja) * 2000-07-17 2002-04-19 Matsushita Electric Ind Co Ltd 画像信号処理装置、画像表示装置、マルチディスプレイ装置及び当該マルチディスプレイ装置における色度調整方法
JP2002131135A (ja) * 2000-10-20 2002-05-09 Kao Corp 基準色票およびメイクシミュレーション装置
JP2003134526A (ja) * 2001-10-19 2003-05-09 Univ Waseda 色再現装置及び色再現方法
JP2004008632A (ja) * 2002-06-10 2004-01-15 Foundation For Nara Institute Of Science & Technology 顔色計測装置
JP2004118314A (ja) * 2002-09-24 2004-04-15 Advanced Telecommunication Research Institute International 発話者検出システムおよびそれを用いたテレビ会議システム

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010520551A (ja) * 2007-03-08 2010-06-10 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 画像から推定される皮膚色に基づいて製品を推奨するための方法及びシステム
JP2009211178A (ja) * 2008-02-29 2009-09-17 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
US8300950B2 (en) 2008-02-29 2012-10-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and storage medium
KR100992525B1 (ko) 2008-06-30 2010-11-05 한국 한의학 연구원 컬러 영상 교정 방법
US8879057B2 (en) 2011-09-12 2014-11-04 Ricoh Company, Ltd. Spectral characteristic acquiring apparatus, spectral characteristic acquiring method and image evaluating apparatus
EP2568267A1 (en) * 2011-09-12 2013-03-13 Ricoh Company, Ltd. Spectral sensor for printed images
WO2013145295A1 (ja) * 2012-03-30 2013-10-03 富士通株式会社 カラーチャート検出装置、カラーチャート検出方法及びカラーチャート検出用コンピュータプログラム
CN104247410A (zh) * 2012-03-30 2014-12-24 富士通株式会社 彩色图表检测装置、彩色图表检测方法以及彩色图表检测用计算机程序
JPWO2013145295A1 (ja) * 2012-03-30 2015-08-03 富士通株式会社 カラーチャート検出装置、カラーチャート検出方法及びカラーチャート検出用コンピュータプログラム
CN104247410B (zh) * 2012-03-30 2016-08-24 富士通株式会社 彩色图表检测装置和彩色图表检测方法
US9721532B2 (en) 2012-03-30 2017-08-01 Fujitsu Limited Color chart detection apparatus, color chart detection method, and color chart detection computer program
KR20150068423A (ko) * 2012-11-09 2015-06-19 후지필름 가부시키가이샤 카메라 시스템, 이것에 사용되는 색변환 장치 및 방법 그리고 색변환 프로그램
KR101660323B1 (ko) 2012-11-09 2016-09-29 후지필름 가부시키가이샤 카메라 시스템, 이것에 사용되는 색변환 장치 및 방법 그리고 색변환 프로그램
JP2015012422A (ja) * 2013-06-28 2015-01-19 大日本印刷株式会社 画像処理装置、色替え処理方法、コンピュータプログラム
JP2018163204A (ja) * 2017-03-24 2018-10-18 ヤンマー株式会社 色診断用頭部装着型表示装置、及び色診断用表示装置
WO2021111736A1 (ja) * 2019-12-06 2021-06-10 パナソニックIpマネジメント株式会社 撮影方法および撮影装置
JP7241293B2 (ja) 2019-12-06 2023-03-17 パナソニックIpマネジメント株式会社 撮影方法および撮影装置
JPWO2021111736A1 (ja) * 2019-12-06 2021-06-10
JP7025476B2 (ja) 2020-05-08 2022-02-24 ヤンマーパワーテクノロジー株式会社 色診断用表示装置
JP2020129000A (ja) * 2020-05-08 2020-08-27 ヤンマーパワーテクノロジー株式会社 色診断用表示装置
JP2021103555A (ja) * 2020-07-21 2021-07-15 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 画像検出方法、装置、電子設備、記憶媒体、及びプログラム
JP7051267B2 (ja) 2020-07-21 2022-04-11 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像検出方法、装置、電子設備、記憶媒体、及びプログラム
CN111833340A (zh) * 2020-07-21 2020-10-27 北京百度网讯科技有限公司 图像检测方法、装置、电子设备及存储介质
US11798193B2 (en) 2020-07-21 2023-10-24 Beijing Baidu Netcom Science And Technology Co., Ltd. Multi-dimensional image detection on at least two acquired images
CN111833340B (zh) * 2020-07-21 2024-03-26 阿波罗智能技术(北京)有限公司 图像检测方法、装置、电子设备及存储介质
CN113380176A (zh) * 2021-06-23 2021-09-10 Tcl通讯(宁波)有限公司 移动终端屏幕显示色温自动调节方法、装置、终端及介质
CN114739918A (zh) * 2022-04-13 2022-07-12 云南省农业科学院质量标准与检测技术研究所 植物颜色测定方法、装置、系统及存储介质
CN114739918B (zh) * 2022-04-13 2022-11-01 云南省农业科学院质量标准与检测技术研究所 植物颜色测定方法、装置、系统及存储介质
WO2024008581A1 (en) * 2022-07-05 2024-01-11 L'oreal Method for determining parameters relative to the coloration of a body zone of an individual
FR3137550A1 (fr) * 2022-07-05 2024-01-12 L'oreal Procédé de détermination de paramètres relatifs à la coloration d’une zone corporelle d’un individu

Also Published As

Publication number Publication date
JPWO2005124302A1 (ja) 2008-04-10

Similar Documents

Publication Publication Date Title
CN101953148B (zh) 彩色图像处理方法、装置及程序
WO2005124302A1 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP5967441B2 (ja) 色処理方法、色処理装置及び色処理システム
JP4288530B2 (ja) 色補正方法および色補正装置
WO2001082154A1 (fr) Appareil pour donner des conseils de maquillage
CN106791759A (zh) 医用显示器色彩均匀性校正方法及校正系统
US9076068B2 (en) Method and apparatus for evaluating color in an image
CN109141640A (zh) 基于机器视觉的色差检测方法、系统、设备及存储介质
JP6257551B2 (ja) 色忠実環境補正装置および色忠実環境補正方法
US20070140553A1 (en) Dental colorimetry apparatus
US20050231740A1 (en) Image input system, conversion matrix calculating method, and computer software product
JP6323097B2 (ja) 色測定装置、色測定システム、色測定方法、および、プログラム
JP3687193B2 (ja) 画像処理装置および画像処理方法
JP2004045189A (ja) 色補正装置及び色補正方法
Singhal et al. Smartphone-based colorimetric detection to measure Blood Glucose Levels
JP5941041B2 (ja) 任意の色の等価明度を示す値および鮮やかさ感を示す値の正規化方法、トーン種別判別方法、マンセル値算出方法、画像形成方法、インターフェース画面表示装置
JP4626776B2 (ja) 色補正方法および色補正装置
JP2014087641A (ja) 肌の状態の評価方法
JP4088016B2 (ja) カラーマネジメントシステム
Beneducci et al. Dental shade matching assisted by computer vision techniques
JP2010246853A (ja) 染毛色のシミュレーション方法
KR101976026B1 (ko) 퍼스널 컬러의 네일 매칭 시스템 및 방법
Munzenmayer et al. A spectral color correction framework for medical applications
JP2001025460A (ja) 肌色情報表示方法
Pointer et al. Food colour appearance judged using images on a computer display

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006514651

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase