WO2007007788A1 - 色補正方法および色補正装置 - Google Patents

色補正方法および色補正装置 Download PDF

Info

Publication number
WO2007007788A1
WO2007007788A1 PCT/JP2006/313863 JP2006313863W WO2007007788A1 WO 2007007788 A1 WO2007007788 A1 WO 2007007788A1 JP 2006313863 W JP2006313863 W JP 2006313863W WO 2007007788 A1 WO2007007788 A1 WO 2007007788A1
Authority
WO
WIPO (PCT)
Prior art keywords
illumination
spectral distribution
input image
image
color information
Prior art date
Application number
PCT/JP2006/313863
Other languages
English (en)
French (fr)
Inventor
Masato Tsukada
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to JP2007524677A priority Critical patent/JP4288530B2/ja
Priority to US11/988,738 priority patent/US8023736B2/en
Priority to EP06768127A priority patent/EP1906674A4/en
Priority to CN2006800337409A priority patent/CN101263721B/zh
Publication of WO2007007788A1 publication Critical patent/WO2007007788A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/462Computing operations in or between colour spaces; Colour management systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/628Memory colours, e.g. skin or sky
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control

Definitions

  • the present invention relates to a method and apparatus for performing color correction on a color image, and in particular, includes performing white balance correction on the color image based on color information that also obtains the region force of an object in the color image.
  • the present invention relates to a color correction method and a color correction apparatus.
  • Patent Document 5 using a histogram of an image, only a gray region in a color image is extracted, or only a skin color region is extracted, or The gray area and skin color area are extracted, the color temperature of the light source is estimated using the color information of the extracted area, and the image signal of the color image is calculated using the following correction formula based on the estimated color temperature. Describes a method of correcting the white balance.
  • R, G, B indicate the RGB values at the pixels of the input image
  • R, G, B indicate the RGB values at the pixels of the output image
  • ⁇ , ⁇ , ⁇ are corrections Is a coefficient used for.
  • Patent Document 6 describes a chromatic region such as a skin color in an image and a region that would have been originally white by image histogram analysis. Therefore, a method for estimating the color temperature of the light source by combining one or more color information of the area and realizing white balance correction is described.
  • Patent Document 7 Japanese Unexamined Patent Application Publication No. 2004-320285
  • AF and AF Auto focus
  • face enhancement processing and skin color processing no specific processing method is disclosed for the essential skin color processing.
  • Patent Document 8 describes a color correction method for making skin color look good in a face area detected based only on color information in a color image.
  • Patent Document 9 Japanese Patent Laid-Open No. 2003-216936
  • a human face part is detected from an input image to obtain arrangement information, a boundary between a person area and other areas is set, and each area is set. It describes a technique for making appropriate white balance and saturation corrections.
  • Japanese Patent Publication No. 2003-189325 Patent Document 10) describes a method for not using color information of a face area for white balance calculation.
  • JP 2005-27277 A determines the location of a human face area in an image, and the skin color obtained from the determined face area substantially matches the known skin color range. Thus, a method is described in which a correction coefficient for changing the skin color obtained from an image is determined, and white balance adjustment of the image is performed using this correction coefficient.
  • Japanese Patent Application Laid-Open No. 2005-27 277 describes that the key correction method uses a method such as the gray world hypothesis or white point estimation. However, according to a specific method, It ’s not explained.
  • Patent Laid-Open No. 2003-317084 describes a method of detecting eyes from an image.
  • Patent Document 1 Japan: JP 2001-148863 A
  • Patent Document 2 Japan: JP-A-11-289548
  • Patent Document 3 Japan: Japanese Patent Laid-Open No. 3-148989
  • Patent Document 4 Japan: JP-A 62-265885
  • Patent Document 5 Japan: Japanese Patent Laid-Open No. 2003-224867
  • Patent Document 6 Japan: Japanese Unexamined Patent Publication No. 2003-333616
  • Patent Document 7 Japan: Japanese Patent Laid-Open No. 2004-320285
  • Patent Document 8 Japan: JP 2004-180114 A
  • Patent Document 9 Japan: Japanese Unexamined Patent Publication No. 2003-216936
  • Patent Document 10 Japan: Japanese Unexamined Patent Publication No. 2003-189325
  • Patent Document 11 Japan: Japanese Patent Laid-Open No. 2005-27727
  • Patent Document 12 Japan: Japanese Unexamined Patent Publication No. 2003-317084
  • Patent Document 13 Japan: Japanese Patent No. 3264273
  • Non-Patent Document 1 Toshinori Hosoi, Tetsuaki Suzuki, Satoshi Sato, “Face Detection by Generalized Learning Vector Quantization”, IEICE, The Institute of Electronics, Information and Communication Engineers, 2003, Vol. 102, No. 651, p p 47- 52
  • Non-Patent Document 2 Joji Tarima, “Image Engineering Series 10 Color Image Replication Theory of Color Management”, Maruzen Co., Ltd., September 30, 1996, pp. 33- 39
  • Non-Patent Document 3 Color Society of Japan, “New Color Science Handbook”, 2nd edition, The University of Tokyo Press, June 10, 1998, pp. 69- 71
  • the conventional technique uses a method of obtaining a chromatic region such as a skin color and a gray or white achromatic region in an image by a histogram analysis.
  • an object of the present invention is to solve the above-mentioned problems at the same time and provide a color correction method for automatically realizing effective color correction for this input image based on one input image. There is to do.
  • Another object of the present invention is to provide a color correction apparatus that automatically realizes effective color correction for an input image based on one input image.
  • the present invention overcomes the above-described problems in the method of acquiring color information of a region of interest in an image by image histogram analysis and correcting the white balance, and improves the accuracy of color correction including white balance correction.
  • a color correction method and a color correction device that act as desired are provided. To do.
  • a first object of the present invention is a color correction method for correcting an input image to generate an output image under an illumination condition different from the illumination condition in the input image. Detecting an object area and extracting color information of the area, using the color information of the extracted area of the specific object and the surface reflectance of the specific object specified in advance, the input image
  • the illumination spectral distribution in the output image is calculated using the step of restoring the spectral distribution of the illumination at, the spectral distribution of the illumination in the restored input image and the spectral distribution of the illumination specified as the target illumination.
  • a second object of the present invention is a color correction apparatus that corrects an input image and generates an output image under an illumination condition different from the illumination condition in the input image.
  • Target area color information extraction means for detecting the area of the object and extracting the color information of the area, and specific information specified in advance with the color information of the area of the specific target object extracted by the target area color information extraction means
  • Spectral distribution restoration means for restoring the illumination distribution in the input image using the surface reflectance of the target object, and the illumination spectral distribution and target illumination in the input image restored by the spectral distribution restoration means
  • Spectral distribution calculation means for calculating the spectral distribution of the illumination in the output image using the spectral distribution of the illumination specified as
  • Output image generation means for calculating color information of each pixel of the output image based on the elementary color information, the illumination spectral distribution in the restored input image, and the calculated illumination spectral distribution in the output image Is achieved by a color correction device comprising:
  • the scope of the present invention includes a program for causing a computer to carry out each image identification method according to the present invention, a program product comprising such a program, a recording medium storing such a program, and the like. Also included is a transmission medium for transmitting various programs.
  • the calculation accuracy of correction parameters required for color correction including white balance correction is improved.
  • the limit of the degree of freedom of color correction that can be achieved only by improving the accuracy of color correction is relaxed, and color correction that works as desired can be realized.
  • FIG. 1 is a flowchart showing a color correction method according to a first embodiment of the present invention.
  • FIG. 2 is a graph showing the spectral characteristics (surface reflectance) of the average Japanese face area.
  • FIG. 3 is a diagram showing an outline of processing for automatically detecting a region of an object and obtaining color information.
  • FIG. 4 is a graph showing the average CIE daylight and the first and second principal component vectors.
  • FIG. 5 is a graph showing examples of basis vectors obtained by collecting surface reflectances of objects and analyzing them by principal component analysis.
  • FIG. 6 is a flowchart showing a color correction method according to the second embodiment of the present invention.
  • FIG. 7 is a block diagram showing a first example of a color correction apparatus according to the present invention.
  • FIG. 8 is a block diagram showing a second example of the color correction apparatus according to the present invention.
  • FIG. 9 is a diagram showing an example of a GUI for setting a value adj displayed by the control unit.
  • FIG. 10 is a diagram showing an example of a GUI for setting the function adjw ( ⁇ ) displayed by the control unit.
  • FIG. 11 is a block diagram showing a third example of the color correction apparatus according to the present invention.
  • FIG. 1 shows a processing procedure of the color correction method according to the first embodiment of the present invention.
  • the color system of the image is the RGB color system. That is, the color of the image is represented by a combination of R (red), G (green), and B (blue), and is represented as color information RGB.
  • the color correction method of the present embodiment automatically extracts a specific area from an input image when an input image is given, and outputs color information of the extracted specific area and a specified target illumination.
  • the input image is corrected based on the brightness, and an output image under an illumination condition different from the illumination condition in the input image is generated and output.
  • step S1 a region of an object whose color can be roughly specified is automatically detected from an arbitrarily given input image.
  • an object whose color can be roughly specified is one that has no or small color variation and has spectral information in the human visible light region (wavelength 400 ⁇ ! To 700 nm).
  • a feature in the shape or pattern that is composed only of colors is simply referred to as the area of the object. May be called a target area.
  • a human face As an object having such characteristics, for example, a human face can be used.
  • Fig. 2 is a graph showing the spectral characteristics (surface reflectance) of the average Japanese face area. As shown in Fig. 2, the spectral characteristics in the human face region have information in the entire visible light region. In addition, the color of the human face area is relatively stable, although there are individual differences.
  • the face region has shape characteristics such as eyes, nose, and mouth.
  • Japanese Patent Laid-Open No. 2003-317084 proposes a method for detecting eyes from an image. If the eye position is detected, it is easy to estimate the face area.
  • face detection methods Toshinori Hosoi, Tetsuaki Suzuki, Satoshi Sato, “Face Detection by Generalized Learning Vector Quantization”, IEICE, The Institute of Electronics, Information and Communication Engineers, 2003, Vol. 102, No. 651, The method described in pp. 47-52 (Non-patent Document 1) that combines the Image-based type using generalized learning vector quantization and the Feature-based type for eye detection can also be used.
  • face detection is performed using monochrome information, and the detection of the face area as a result of the detection is further added to improve the detection accuracy of the face area. It is also possible.
  • a skin color determination method a method using an image histogram described in Japanese Patent No. 3264273 can be used.
  • the face detection method that can be used in the present embodiment is not limited to the above two methods, but may use another method.
  • the object is automatically detected by comparing the visual feature information of the object that has been preliminarily memorized with the visual feature information of the image data.
  • a detection method can be used.
  • step S2 color information of the region of the object automatically detected from the input image is obtained.
  • Figure 3 shows the outline of the process for automatically detecting the area of the object in the input image and obtaining the color information.
  • the face part is extracted from the input image and extracted. It is shown that color information is obtained from the selected region cover.
  • the color information of the area of the object the average color, center color (median), and mode color (mode) of the pixels existing in the area occupied by the object can be used.
  • step S2 color information RGB of the region of the object is acquired, and tristimulus values XYZ in the XYZ color system are obtained based on the acquired RGB.
  • Each pixel of the input image is represented by the RGB value.
  • the chromaticity of each RGB phosphor and the white chromaticity for displaying the input image are specified in advance.
  • the following explanation assumes that the relationship with the light emission output of the display device is linear. In this case, the relationship between the RGB value of the input image and the tristimulus value XYZ is expressed by the following equation (1).
  • RX is a 3 ⁇ 3 transformation matrix.
  • the conversion matrix RX can be calculated uniquely if the chromaticity of each phosphor of RGB and the chromaticity of white are determined.
  • Joji Tarima “Image Engineering Series 10 Color Image Replication Theory of Color Management”, Maruzen Co., Ltd., September 30, 1996, pp. 33—39
  • the method disclosed in Patent Document 2 can be used.
  • This document describes a method for calculating the transformation matrix RX in the relational expression between the RGB of the input image and the tristimulus values XYZ.
  • step S3 from the color information of the target area in the input image, that is, the tristimulus values XYZ calculated in step S2 and the color information that the target area generally has, Restore the spectral characteristics of the illumination.
  • the color information generally included in the target area the surface reflectance that is specified by a specific target is used as will be described later.
  • the illumination in the image scene is illumination (light source) that irradiates an object in the image.
  • the tristimulus value XYZ indicating the color of an object based on the XYZ color system is calculated from the following formula (2) to It is expressed by (4).
  • is the wavelength
  • ⁇ ( ⁇ ) is the spectral distribution of illumination in the input image
  • R () is the surface reflectivity of the object.
  • ⁇ ( ⁇ ), ⁇ ( ⁇ ), and ⁇ ( ⁇ ) are color matching functions and are known functions. Integration is performed over the visible wavelength range.
  • equations (2) to (4) yield unknown characteristics I ( ⁇ ) and R ( ⁇ ) Is the observation equation.
  • the unknown characteristics ⁇ ( ⁇ ) and R () cannot be calculated from Eq. (3).
  • Equations (2) to (4) are observation equations only for I ( ⁇ ).
  • the surface reflectance R ′ ( ⁇ ) of the Japanese face region having the average skin color illustrated in FIG. 2 is expressed by the equations (2) to (4). It can be used as R ().
  • the average or representative surface reflectance of the target should be determined and substituted into R ( ⁇ ) in equations (2) to (4). .
  • CIE Daylight is the CIE (International Commission on Lighting
  • Illumination is a colorimetric light source defined by a relative spectral distribution, and is well known to be well approximated by a linear sum of an average and two principal components.
  • Figure 4 is a graph showing the average CIE daylight and the first and second principal component vectors. From this, the spectral distribution I ( ⁇ ) of illumination can be expressed as follows.
  • ⁇ ( ⁇ ) ⁇ 0 ( ⁇ ) + ⁇ 1 ⁇ 1 ( ⁇ ) + ⁇ 2 ⁇ 2 ( ⁇ )... (5)
  • the spectral distribution of the illumination in the image scene is obtained.
  • the spectral distribution of illumination in the image scene obtained by the above procedure is expressed as I ( ⁇ )
  • step S4 from the spectral distribution I ( ⁇ ) of the target illumination that is preliminarily set as the correction target and the spectral distribution I ( ⁇ ) estimated as the illumination in the image scene.
  • Real target org Real target org
  • Spectral distributions such as D65 and D55, spectral distributions of illumination whose correction results have been improved empirically, and spectrals with an illumination color for the purpose of changing the color of the entire image instead of white balance Distributions can be used, and spectral distributions other than these can also be used.
  • the spectral distribution of the target illumination can be defined as the desired spectral distribution by the user.
  • ad] is the spectral distribution I ( ⁇ ) of the target illumination
  • aa] may be calculated.
  • the amount of mixing can be controlled for each wavelength.
  • step S5 the surface reflectance of the object at each pixel of the input image is obtained.
  • the virtual surface reflectivity R "( ⁇ ) of the object is also represented by an infinite dimensional waveform in the visible light region, as in the case of the spectral distribution of illumination, this can also be expressed analytically using equations (2) to (4). Therefore, the virtual surface reflectivity R ′′ ( ⁇ ) of the object is modeled as follows using a finite-dimensional linear model expressed by a weighted sum of low-dimensional basis vectors.
  • FIG. 5 is a graph showing an example of basis vectors obtained by collecting surface reflectances of objects and analyzing them by principal component analysis.
  • step S6 the corrected color in each pixel of the input image is calculated.
  • step S5 By substituting the spectral distribution I ( ⁇ ) of the illumination used for correction already calculated in step S4 into equations (2) to (4), the corrected tristimulus values X, ⁇ , ⁇ , and adj in step S5
  • Equations (10) to (12) for the virtual surface reflectance R ′′ ( ⁇ ) of the object already calculated are obtained.
  • the color correction method in the second embodiment is a step in which the tristimulus repulsive force performed in steps S5 and S6 of the color correction method in the first embodiment is also corrected to X'Y'Z '(conversion process).
  • a correction result equivalent to the color correction method of the first embodiment is obtained.
  • the processes in steps S1 to S4 are the same as those in the case of the first embodiment, and thus description thereof is omitted, and step S7 is described.
  • step S7 first, a model is generated using a finite-dimensional linear model represented by a weighted sum of low-dimensional basis vectors V for the virtual surface reflectance R "( ⁇ ) of the object. To obtain the above formula (8).
  • Equation (15) can be summarized as the following equation (16).
  • the matrix A is a 3X3 matrix represented by the following equation (17)
  • the matrix B is a 3 X 1 matrix represented by the following equation (18), both of which are constant matrices: Become.
  • A ⁇ ( ⁇ ⁇ ) N (y, r 2 ) N (y, r 3 ) M (y, r,) M (y, r 2 ) M (y, r 3 ) (1 7) N ⁇ z, r x ) N (z, r 2 ) N (z, r 3 ) M (z, r,) M (z, r 2 ) M (z, r 3 )
  • step S7 all pixels in the input image are subjected to the color correction processing according to the equation (16), and further, the device-dependent color conversion is output as an output image.
  • the device-dependent color means a color space that depends on the output destination device.
  • the above is the force device-dependent color described in the case of the device-dependent color image of the input image and output image, even if the device-dependent color is a device-dependent color other than RGB, such as CMY or CMYK.
  • the color correction method of the present invention can be applied to images other than RGB if the correspondence between the device-dependent color and the device-independent color tristimulus value XYZ can be obtained.
  • Color correction device [0079]
  • FIG. 7 shows a first example of a color correction apparatus according to the present invention.
  • the illustrated color correction apparatus 100 is an apparatus that performs color correction on an input image 1 and outputs an output image 2 based on the color correction method of the first embodiment described above. Specifically, the color correction apparatus 100 corrects the input image 1 to generate and output an output image 2 under illumination conditions different from the illumination conditions in the input image 1.
  • the color correction apparatus 100 includes a target region detection unit 3 that detects a specific target region from the input image 1, a target region color information extraction unit 4 that extracts color information of the detected region, and an extraction Using the specified color information and the surface reflectance of a specific object specified in advance, a spectral distribution restoring unit 5 for restoring the spectral distribution of illumination in the input image 1, an object surface reflectance memory 6, Using the color information of each pixel of the input image and the spectral distribution of illumination restored by the spectral distribution restoring unit 5, a surface reflectance restoring unit 7 for restoring the surface reflectance at each pixel, A spectral distribution calculation unit 8 for calculating the spectral distribution of the illumination in the output image 2 using the spectral distribution of the illumination restored by the light distribution restoration unit 5 and the spectral distribution of the illumination designated as the target illumination; Spectral distribution memory 9 in which the spectral distribution of the target illumination is stored in advance, the surface reflectance at each pixel restored by the surface reflectance restoring unit 7, and the
  • the specific object in the input image 1 an object whose color can be limited to some extent, such as a human face, is used.
  • its surface reflectivity is given to the brute force color correction device 100 and the given surface reflectivity is stored in the object surface reflectivity memory 6.
  • the target area detection unit 3 analyzes the input image 1, detects a specific object that is assumed in advance, and determines the area of the target in the image. The information shown is output. As a detection method, the method described above may be used. When the target object is not detected from the input image 1, the color correction apparatus 100 outputs the input image 1 as the output image 2 as it is.
  • the target area color information extraction unit 4 extracts the color information in the target area detected by the target area detection unit 3 according to the method described above.
  • the spectral distribution restoration unit 5 is a typical or representative surface of the target region stored in the target surface reflectance memory 6 and the color information of the target region obtained by the target region color information extraction unit 4. Using the reflectance and the basis vector that models the spectral characteristics of the illumination, the spectral distribution of the illumination in the scene of the input image is restored as the spectral distribution of the illumination in the input image 1.
  • the spectral distribution calculation unit 8 calculates the spectral distribution of the illumination in the output image that is necessary when generating the corrected image.
  • the spectral distribution calculation unit 8 uses the spectral distribution of the illumination of the input image restored by the spectral distribution restoration unit 5 and the spectral distribution of the target illumination stored in advance in the spectral distribution memory 9 as an output image.
  • the spectral distribution of illumination is calculated using Eqs. (6) and (7).
  • the surface reflectance restoring unit 7 restores the surface reflectance of the object at each pixel on the image from the spectral distribution of illumination in the restored input image and the pixel value of the input image data. .
  • the method described in the first embodiment may be used.
  • the image correction unit 10 uses the surface reflectance of the object in each pixel on the image and the spectral distribution of illumination in the output image to obtain tristimulus values XYZ according to equations (10) to (12). Is calculated. Then, the image correction unit 10 converts the output image into a device-dependent color (for example, RGB) and outputs it as an output image 2.
  • a device-dependent color for example, RGB
  • the target region detection unit 3, the target region color information extraction unit 4, the spectral distribution restoration unit 5, the object surface reflectance memory 6, the surface reflectance restoration unit 7, and the spectral distribution calculation unit 8 The spectral distribution memory 9 and the image correction unit 10 may be provided as separate devices, or may be realized by a CPU that operates according to a program. In that case, the program is stored in a storage device connected to the CPU. That is, this color correction apparatus can be configured using a computer provided with a storage device.
  • FIG. 8 shows a second example of the color correction apparatus according to the present invention.
  • a color correction device 101 shown in FIG. 8 is obtained by adding a control unit 11 to the color correction device 100 shown in FIG.
  • the control unit 11 controls the user to specify the value adj or the function adjw () and outputs the adj value or adjw ( ⁇ ) function specified by the user to the spectral distribution calculation unit 8. To do.
  • the value adj or the function adjw ( ⁇ ) controls the amount of mixture of the input image illumination spectral distribution and the desired target illumination spectral distribution when the spectral distribution calculation unit 8 calculates the output spectral illumination distribution.
  • FIG. 9 shows an example of a GUI (Graphical User Interface) displayed by the control unit 10 for the user in order to cause the user to set the value adj.
  • the user can adjust the value of adj by moving the displayed slide bar 20 using a pointing device such as a mouse.
  • FIG. 10 shows an example of a GUI displayed by the control unit 11 for the user in order to cause the user to set the function adjw ().
  • the user can control the displayed control point 2
  • the waveform of adjw ( ⁇ ) passing through the control point 21 can be adjusted by moving 1 up and down using a mouse operation or the like.
  • the function values at wavelengths other than the control point can be easily calculated by using spline interpolation or Lagrangian interpolation.
  • the control point 21 has 5 points. The number of control points is arbitrary. Further, the control point 21 may be added or deleted.
  • adj and adjw ( ⁇ ) can be specified in the range of 0 to 1.0, but the settable range is limited to 0 to 1.0. It is only necessary to be able to specify a real value rather than a thing.
  • the control unit 11 reflects adj or adjw ( ⁇ ) adjusted by the user in the spectral distribution calculation unit 8.
  • control unit 11 has a function that allows the user to specify the color of the user's desired illumination as the target illumination.
  • a correlated color temperature may be used.
  • the spectral distribution can be calculated from the correlated color temperature of CIE daylight. Correlated color temperature force The method of calculating the spectral distribution is described in the Color Society of Japan, “New Color Science Nord Book”, 2nd edition, The University of Tokyo Press, June 10, 1998, pp. 6 9-71 (Non-Patent Document 3).
  • the control unit 11 may give the target illumination color as the chromaticity.
  • the control unit 11 may give the spectral distribution of the target illumination in a file specifying the power at each wavelength.
  • the color correction apparatus shown in FIG. 8 can also be configured by a computer controlled by a program, similarly to the color correction apparatus shown in FIG.
  • FIG. 11 shows a third example of the color correction apparatus according to the present invention.
  • the illustrated color correction device 102 is a device that performs color correction on the input image 1 based on the color correction method of the second embodiment described above, and outputs the output image 2.
  • the color correction device 102 replaces the surface reflectance restoration unit 7 and the image correction unit 10 in the color correction device 100 shown in FIG. 7 with the basis vectors used for modeling the surface reflectance in each pixel, and the restoration.
  • Matrix conversion image correction unit that calculates color information of each pixel of the output image using a constant matrix calculated from the spectral distribution of illumination in the input image 1 and the spectral distribution of illumination in the output image 12 is provided.
  • the color correction apparatus 100 shown in FIG. 7 is used until the spectral distribution of the input image is restored by the spectral distribution restoration unit 5 and the spectral distribution of the illumination image is calculated by the spectral distribution calculation unit 8. This is done in the same way as Next, the matrix conversion image correction unit 12 performs the illumination spectral distribution in the input image restored by the spectral distribution restoration unit 5 and the illumination spectral distribution in the output image calculated by the spectral distribution calculation unit 8. And input image 1 are given, step S5 in FIG. 6 is executed to calculate equation (16). Then, the color correction processing according to the equation (16) is performed on all the pixels of the input image 1 to convert to device-dependent colors, and the output image 2 is output.
  • the matrix conversion image correction unit 12 may be provided as an individual device, or may be realized by a CPU that operates according to a program. Therefore, this color correction apparatus can be configured using a computer.
  • the surface reflectance restoration unit 7 and the image correction unit 10 of the color correction apparatus 101 shown in FIG. A replacement color correction device can be easily realized.
  • This color correction apparatus can also be configured by a computer controlled by a program.
  • the present invention can be applied to an application for executing color correction including white balance in a color image input / output device. Further, the present invention can be used as color correction software or a utility for an arbitrary color image by adopting a program that operates in a computer system.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

 入力画像を補正して入力画像とは異なる照明条件での出力画像を生成する色補正方法は、入力画像から特定の対象物の領域を検出してその領域の色情報を抽出するステップと、抽出された色情報とあらかじめ指定された特定の対象物の表面反射率とを用いて、入力画像での照明の分光分布を復元するステップと、復元された照明の分光分布と指定された目標照明の分光分布とを用いて、出力画像での照明の分光分布を算出するステップと、入力画像の各画素の色情報と、復元された入力画像での照明の分光分布と、算出された出力画像での照明の分光分布とに基づいて、出力画像の各画素の色情報を算出するステップと、を備える。

Description

色補正方法および色補正装置
技術分野
[0001] 本発明は、カラー画像の色補正を行う方法および装置に関し、特に、カラー画像中 の対象物の領域力も得られる色情報に基づいて、そのカラー画像のホワイトバランス 補正を行うことを含む色補正方法および色補正装置に関する。
背景技術
[0002] デジタル画像の画質改善を実現するために、画像の色補正方法が提案されている 。特に、デジタルカラー画像の色補正においては、ホワイトバランスの調整は重要で あり、ホワイトバランスの調整を含む色補正方法として、様々な手法が提案されている 。例えば、特開 2001— 148863号公報 (特許文献 1)には、画像のヒストグラムを利 用してあら力じめ算出したホワイトバランスのパラメータを画像中の肌色領域に適用し 、好ま 、肌色になるかどうかを基準にパラメータを決定する方法が記載されて 、る。 なお、好ましい肌色にならない場合については、未処理すなわち色補正を行わない こととなる。特開平 11— 289548号公報 (特許文献 2)、特開平 3— 148989号公報( 特許文献 3)、特開昭 62— 265885号公報 (特許文献 4)においても、画像のヒストグ ラムを利用してホワイトバランスの補正を実現する方法が記載されて 、る。
[0003] 特開 2003— 224867号公報 (特許文献 5)には、画像のヒストグラムを利用してカラ 一画像中のグレイの領域のみを抽出し、あるいは肌色の領域のみを抽出し、あるい はグレイの領域と肌色の領域を抽出し、抽出された領域の色情報を用いて光源の色 温度を推定し、推定された色温度に基づいて、以下の補正式を用いてカラー画像の 画像信号のホワイトバランスを補正する方法が記載されている。
[0004] R, = a R •••(A1)
G, = j8 G •••(A2)
' = y β 〜(Α3)
[0005] ここで、 R, G, Bは入力画像の画素での RGB値を示し、 R,, G,, B,は出力画像の 画素での RGB値を示し、 α , β , γは補正に用いる係数である。 [0006] 同様に特開 2003— 333616号公報 (特許文献 6)には、画像中の肌色などの有彩 色の領域や、本来白色であったであろう領域を、画像のヒストグラム解析によって求 め、その領域の色情報を 1つあるいは複数組み合わせて光源の色温度を推定し、ホ ワイトバランス補正を実現する方法が記載されて 、る。
[0007] 上記の従来技術では、画像中の肌色などの有彩色の領域と、グレイや白の無彩色 の領域とに着目して、ホワイトバランスを補正する際に使用するパラメータを決定する ために必要となる画像中の注目領域を、画像のヒストグラム解析によって求めている。
[0008] さらに、画像中の注目領域として顔領域を検出することにより画質を補正する手法 が提案されている。例えば、特開 2004— 320285号公報 (特許文献 7)では、デジタ ルスチルカメラの撮影画像の画質を向上させる手法として、画像中の顔領域の大きさ や数に応じて、デジタルカメラのシャッタースピードや AF (Auto focus)の動作を制 御する方法が記載されるとともに、顔領域の輪郭強調処理や肌色処理について触れ られている。しかし、肝心の肌色処理については、具体的な処理方法が開示されて いない。
[0009] 特開 2004— 180114号公報 (特許文献 8)には、カラー画像中の色情報のみをもと に検出した顔領域において、肌色を良く見せるための色補正方法が記載されている 。特開 2003— 216936号公報 (特許文献 9)には、入力画像から人物の顔部品を検 出して配置情報を取得し、人物領域とその他の領域との境界を設定し、それぞれの 領域毎に適したホワイトバランスおよび彩度の補正を施す手法が記載されて 1ヽる。特 開 2003— 189325号公報 (特許文献 10)には、顔領域の色情報をホワイトバランス 演算に使用しな 、と 、う方法が記載されて 、る。
[0010] 特開 2005— 27277号公報 (特許文献 11)には、画像中の人の顔領域の場所を決 定し、決定した顔領域から得られる肌色が、既知の肌色の範囲とほぼ一致するように 、画像から得られた肌色を変更するための補正係数を決定し、この補正係数を用い て画像のホワイトバランス調整を行う方法が記載されている。しかし、特開 2005— 27 277号公報では、肝心の補正方法については、グレイワールド仮説や白色点推定な どの方法を用いるとの記載がされて 、るが、具体的な手法にっ 、ては説明されて ヽ ない。 [0011] なお、特開 2003— 317084号公報 (特許文献 12)には、画像中から目を検出する 方法が記載されている。また、特許 3264273号公報 (特許文献 13)には、ヒストグラ ムを利用して肌色を判定する方法が記載されて 、る。
[0012] 以下、本明細書中に引用した参考文献を列挙する。
特許文献 1 :日本国:特開 2001— 148863号公報
特許文献 2 :日本国:特開平 11— 289548号公報
特許文献 3 :日本国:特開平 3— 148989号公報
特許文献 4:日本国:特開昭 62— 265885号公報
特許文献 5 :日本国:特開 2003— 224867号公報
特許文献 6 :日本国:特開 2003— 333616号公報
特許文献 7 :日本国:特開 2004— 320285号公報
特許文献 8 :日本国:特開 2004— 180114号公報
特許文献 9 :日本国:特開 2003— 216936号公報
特許文献 10 :日本国:特開 2003— 189325号公報
特許文献 11 :日本国:特開 2005— 27277号公報
特許文献 12 :日本国:特開 2003— 317084号公報
特許文献 13 :日本国:特許 3264273号公報
非特許文献 1 :細井利憲、鈴木哲明、佐藤敦, 「一般化学習ベクトル量子化による顔 検出」,信学技法,社団法人電子情報通信学会, 2003年, Vol. 102, No. 651, p p. 47- 52
非特許文献 2 :田島譲二著, 「画像工学シリーズ 10 カラー画像複製論 カラーマネ ジメントの基礎」,丸善株式会社,平成 8年 9月 30日, pp. 33- 39
非特許文献 3 :日本色彩学会編, 「新編 色彩科学ハンドブック」,第 2版,財団法人 東京大学出版会, 1998年 6月 10日, pp. 69- 71
発明の開示
発明が解決しょうとする課題
[0013] 画質向上を目的として画像のホワイトバランスを補正する際、ホワイトバランス補正 のパラメータを決定するために、画像中の注目領域の色情報を把握する必要がある 。これを実現するために、従来技術では、画像中の肌色などの有彩色の領域および グレイや白の無彩色の領域を、ヒストグラム解析によって求める方法を用いて 、る。
[0014] し力しながら、ヒストグラム解析による肌色などの有彩色の領域とグレイや白の無彩 色の領域の特定方法は、その正確性に問題がある。画像中から肌色の領域を検出 する場合、照明色の変動などを考慮し、ある程度広い範囲の肌色領域を許容する必 要がある。そのため、肌色に似た色を有する人物以外の物体が画像中に占める領域 が大きければ、画像中の実際の人物の顔領域における色情報よりも、その物体の領 域から得られる色情報が、人物の肌色として誤検出されてしまい、その結果、所望の 色補正を行うことができなくなる。また、ひどい色かぶりとなっている画像から、本来な らば白色ある 、はグレイであったであろう領域を、画像データのみを手がかりに検出 することは困難である。さら〖こ、画像の撮影時にカメラのダイナミックレンジを超えたこ とによって明るく白飛びした領域が画像に発生することがあるが、このような白飛びが 存在する画像から白色あるいはグレイであったであろう領域を検出するためには、白 飛びした領域を排除するための閾値処理をヒストグラム解析時に導入することになる 。しかしながら、白飛びした領域を排除するための閾値を自動的に設定することは困 難であるため、白飛びが発生している任意の画像に対して自動で良好なホワイトバラ ンス補正を実現することは困難である。
[0015] このように、ヒストグラム解析を用いて画像中の注目領域を特定する場合には、ホヮ イトバランス補正に必要な補正パラメータを算出する際に必要となる画像中の注目領 域の色情報を的確に把握することができないという原因により、ホワイトバランス補正 が所望の通りに作用しな 、と 、う課題がある。
[0016] さらに、従来技術におけるホワイトバランス補正では、画像を RGBの三原色で表現 したときに R成分、 G成分、 B成分のバランスを整えることを目的として、式 (A1)〜(A 3)にしたがって R, G, B独立にそれぞれの比率を補正する処理が用いられている。 しかし、この場合、補正の自由度に限界があるため、満足なホワイトバランスの補正を 実現できな 、と 、う課題がある。
[0017] そこで本発明の目的は、上述した各課題を同時に解決し、 1枚の入力画像に基づ いてこの入力画像に対して自動的に効果的な色補正を実現する色補正方法を提供 することにある。
[0018] 本発明の別の目的は、 1枚の入力画像に基づいてこの入力画像に対して自動的に 効果的な色補正を実現する色補正装置を提供することにある。
[0019] すなわち本発明は、画像のヒストグラム解析によって画像中の注目領域の色情報を 取得しホワイトバランスを補正する方法における上述した課題を克服し、ホワイトバラ ンス補正を含む色補正の精度向上を実現するとともに、従来のホワイトバランス補正 方法における、補正の自由度に限界があるため満足なホワイトバランスの補正を実現 できないという課題を克服し、所望の通り作用する色補正方法および色補正装置を 提供する。
課題を解決するための手段
[0020] 本発明の第 1の目的は、入力画像を補正して入力画像における照明条件とは異な る照明条件での出力画像を生成する色補正方法であって、入力画像から特定の対 象物の領域を検出してその領域の色情報を抽出するステップと、抽出された特定の 対象物の領域の色情報とあらかじめ指定された特定の対象物の表面反射率とを用 いて、入力画像での照明の分光分布を復元するステップと、復元された入力画像で の照明の分光分布と目標照明として指定された照明の分光分布とを用いて、出力画 像での照明の分光分布を算出するステップと、入力画像の各画素の色情報と、復元 された入力画像での照明の分光分布と、算出された出力画像での照明の分光分布 とに基づいて、出力画像の各画素の色情報を算出するステップと、を備える、色補正 方法によって達成される。
[0021] 本発明の第 2の目的は、入力画像を補正して入力画像における照明条件とは異な る照明条件での出力画像を生成する色補正装置であって、入力画像から特定の対 象物の領域を検出してその領域の色情報を抽出する対象領域色情報抽出手段と、 対象領域色情報抽出手段によって抽出された特定の対象物の領域の色情報とあら かじめ指定された特定の対象物の表面反射率とを用いて、入力画像での照明の分 光分布を復元する分光分布復元手段と、分光分布復元手段によって復元された入 力画像での照明の分光分布と目標照明として指定された照明の分光分布とを用いて 、出力画像での照明の分光分布を算出する分光分布計算手段と、入力画像の各画 素の色情報と、復元された入力画像での照明の分光分布と、算出された出力画像で の照明の分光分布とに基づいて、出力画像の各画素の色情報を算出する出力画像 生成手段と、を備える色補正装置によって達成される。
[0022] 本発明の範疇には、前述した本発明による各画像識別方法をコンピュータに実施 させるためのプログラムや、そのようなプログラムからなるプログラムプロダクト、そのよ うなプログラムを格納した記録媒体、そのようなプログラムを伝送する伝送媒体も含ま れる。
[0023] 本発明によれば、ホワイトバランス補正を含む色補正に必要な補正パラメータの算 出精度が向上する。これにより、色補正の精度が向上するだけでなぐ色補正の自由 度の限界が緩和され、所望の通りに作用する色補正が実現できる。
図面の簡単な説明
[0024] [図 1]本発明の第 1の実施形態の色補正方法を示すフローチャートである。
[図 2]平均的な日本人の顔領域の分光特性 (表面反射率)を示すグラフである。
[図 3]対象物の領域を自動検出し、色情報を求める処理の概略を示す図である。
[図 4]CIE昼光の平均および第 1、第 2主成分ベクトルを示すグラフである。
[図 5]物体の表面反射率を集め、それらを主成分分析して得られる基底ベクトルの例 を示すグラフである。
[図 6]本発明の第 2の実施形態の色補正方法を示すフローチャートである。
[図 7]本発明による色補正装置の第 1の例を示すブロック図である。
[図 8]本発明による色補正装置の第 2の例を示すブロック図である。
[図 9]制御部によって表示される、値 adjを設定するための GUIの例を示す図である。
[図 10]制御部によって表示される、関数 adjw( λ )を設定するための GUIの例を示す 図である。
[図 11]本発明による色補正装置の第 3の例を示すブロック図である。
符号の説明
[0025] 1 入力画像
2 出力画像
3 対象領域検出部 4 対象領域色情報抽出部
5 分光分布復元部
6 対象物表面反射率メモリ
7 表面反射率復元部
8 分光分布計算部
9 分光分布メモリ
10 画像補正部
11 制御部
12 行列変換画像補正部
20 スライドバー
21 制御点
100へ -102 色補正装置
発明を実施するための最良の形態
[0026] 図 1は、本発明の第 1の実施形態での色補正方法の処理手順を示している。ここで は、説明の便宜上、画像の表色系は RGB表色系であるものとする。すなわち、画像 の色は、 R (赤)、 G (緑)、 B (青)の組み合わせで表わされるものとし、色情報 RGBと 表記するものとする。
[0027] 本実施形態の色補正方法は、入力画像が与えられたときに、その入力画像から特 定領域を自動的に抽出し、その抽出された特定領域の色情報と指定された目標照 明とに基づいて入力画像を補正して、入力画像における照明条件とは異なる照明条 件での出力画像を生成し、出力するものである。
[0028] 色補正の補正精度を高めるためには、色補正のためのパラメータをより精度よく決 定する必要がある。本実施形態の方法では、まず、ステップ S1において、任意に与 えられた入力画像から、色を大まかに特定できる対象物の領域を自動検出する。ここ で、色を大まかに特定できる対象物としては、色の変動がないかまたは小さいもので あって、人間の可視光領域 (波長 400ηπ!〜 700nm)において分光情報を有するも のであるものが望ましい。さらに、色だけでなぐ形状や模様などに特徴を有するもの が望ましい。以下の説明において、対象物の領域として検出された領域のことを、単 に対象領域と呼ぶことがある。
[0029] このような特徴を有する対象物として、例えば、人間の顔を利用することができる。
図 2は、平均的な日本人の顔領域の分光特性 (表面反射率)を示すグラフである。図 2に示すように、人間の顔領域における分光特性は、可視光領域全般にわたって分 光的に情報を有する。また、人間の顔領域の色に関しては、個人差はあるものの比 較的安定していると言える。
[0030] 当然であるが、顔領域は、目、鼻、口などの形状特徴を有する。入力画像から顔領 域を検出する方法として、特開 2003— 317084号公報に、画像中から目を検出する 方法が提案されている。目の位置が検出されれば、顔領域を推定することは容易で ある。また顔検出方法として、細井利憲、鈴木哲明、佐藤敦, 「一般化学習ベクトル量 子化による顔検出」,信学技法,社団法人電子情報通信学会, 2003年, Vol. 102 , No. 651 , pp. 47— 52 (非特許文献 1)に記載された、一般化学習ベクトル量子化 を用いた Image— based型と目の検出を行う Feature— based型とを組み合わせた 方法なども利用できる。
[0031] 上記 2つの手法において、モノクロ情報を利用して顔検出を行い、さらにその検出 結果である顔領域が肌色であるかの判定を追加することによって、顔領域の検出精 度を向上させることも可能である。肌色の判定方法については、特許 3264273号公 報に記載の画像ヒストグラムを利用した手法を利用することができる。本実施形態で 利用できる顔検出方法は、上記の 2つの手法に限ったものではなぐ別の手法を利 用してちょい。
[0032] 上記の説明では、任意に与えられた入力画像から自動検出する対象物を、顔とし た場合について述べた力 顔以外のものを対象物とすることも可能である。顔以外の 対象物を自動検出するためには、例えば、あら力じめ記憶されている対象物の視覚 的特徴情報と、画像データの視覚的特徴情報とを比較することによって対象物を自 動検出する方法などを利用することができる。
[0033] 次に、ステップ S2において、入力画像から自動検出された対象物の領域の色情報 を求める。図 3は、入力画像中の対象物の領域を自動検出し、色情報を求める処理 の概略を示している。ここでは、入力画像の中から顔の部分を領域を抽出し、抽出さ れた領域カゝら色情報を得ることが示されている。対象物の領域の色情報として、対象 物が占める領域内に存在する画素の平均色、中央色 (メジアン)、最頻色 (モード)な どを利用することができる。
[0034] ステップ S2では、対象物の領域の色情報 RGBを取得し、取得した RGBに基づい て、 XYZ表色系での三刺激値 XYZを求める。入力画像の各画素は RGB値によって 表わされている力 入力画像を表示するための RGB各色の蛍光体の色度および白 色の色度はあら力じめ指定されており、 RGB値データと表示機器の発光出力との関 係が線形であるものとして説明する。この場合、入力画像の RGB値と三刺激値 XYZ との関係は、以下の式(1)で表わされる。
[0035] [数 1]
Figure imgf000011_0001
[0036] ここで、 RXは 3 X 3の変換行列である。変換行列 RXは、 RGBの各色の蛍光体の色 度と白色の色度が決まれば一意に計算できる。変換行列 RXの算出方法として、例え ば、田島譲二著, 「画像工学シリーズ 10 カラー画像複製論 カラーマネジメントの基 礎」,丸善株式会社,平成 8年 9月 30日, pp. 33— 39 (非特許文献 2)に開示された 方法を用いることができる。この文献には、入力画像の RGBと三刺激値 XYZとの関 係式における変換行列 RXの算出方法が記載されている。
[0037] 次に、ステップ S3において、入力画像中の対象領域の色情報、すなわちステップ S 2で算出した三刺激値 XYZと、その対象領域が一般的に有する色情報とから、画像 情景中の照明の分光特性を復元する。対象領域が一般的に有する色情報としては、 後述するように、特定の対象物にっ 、てあら力じめ指定されて 、る表面反射率が用 いられる。また、画像情景中の照明とは、その画像中の物体を照射する照明(光源) である。 XYZ表色系に基づく物体の色を示す三刺激値 XYZは、その物体の表面反 射率、その物体を照射する照明の分光分布および人間視覚の等色関数から、以下 の式(2)〜 (4)で表現される。
[0038] [数 2] X = jl( )R(A)x(A)dA … (2)
Y = jl(A)R(A)y(AdA ■■■ (3)
Figure imgf000012_0001
[0039] ここで、 λは波長、 Ι(λ)は入力画像での照明の分光分布、 R( )は物体の表面反 射率である。 χ(λ), γ(λ), ζ(λ)は等色関数であって、既知の関数である。積分は 可視光の波長領域にわたって行われる。
[0040] ステップ S2において既に算出してある三刺激値 ΧΥΖを式(2)〜(4)の左辺に代入 すると、式(2)〜 (4)は、未知特性 I ( λ )および R ( λ )につ 、ての観測方程式となる。 しかしながら、このままでは、未知特性 Ι(λ)および R( )を式(3)から計算すること はできない。
[0041] ある程度の誤差を含んだ状態であっても、対象物の色を示す表面反射率 R( λ )を あら力じめ限定あるいは決定できるのであれば、 R( )は既知の値となり、式(2)〜( 4)は I ( λ )のみの観測方程式となる。例えば、対象物を日本人の顔とした場合には、 図 2に例示する平均的な肌色を有する日本人の顔領域の表面反射率 R' ( λ )を、式 (2)〜 (4)の R( )として用いることができる。対象物が顔以外の場合であっても、そ の平均的または代表的な表面反射率をあら力じめ求めておき、式(2)〜 (4)の R( λ ) に代入すればよい。
[0042] 本来、照明の分光分布 Ι(λ)は、可視光領域において無限次元の波形で表わされ るため、 I ( λ )を式(2)〜 (4)から解析的に計算することはできな!、。
[0043] ところで、 CIE昼光は、 CIE (国際照明委員会; International Commission on
Illumination)が相対分光分布によって規定した測色用の光源であって、平均と 2 つの主成分との線形和でよく近似されることが知られている。図 4は、 CIE昼光の平 均および第 1、第 2主成分ベクトルを示すグラフである。このことから、照明の分光分 布 I ( λ )を以下のように表わすことができる。
[0044] [数 3]
Ι(Λ) = Ι0(λ) + α1Ι1(λ) + α2Ι2(λ) … (5)
[0045] 式(5)に示す I ( λ ) (i=0〜2)は、図 4に示す照明の平均および基底ベクトルであ る。 ^(ί=1〜2)は、各基底ベクトルの重み係数であって、照明の色を表現する特性 ノ ラメータとなる。
[0046] 式 (5)に示す I ( λ )を式 (2)〜 (4)に代入すると、照明の色を表現する未知の特性 ノ ラメータ aおよび aに関する 2元一次連立方程式となり、容易に a , aを計算するこ
1 2 1 2
とができる。得られた照明の色を表現する特性パラメータ a , aを式(5)に代入するこ
1 2
とによって、画像情景中の照明の分光分布が得られる。以上の手順にて得られた画 像情景中の照明の分光分布を I (λ)
org とする。
[0047] 次に、ステップ S4において、補正の目標としてあら力じめ設定された目標照明の分 光分布 I ( λ )と、画像情景中の照明として推定された分光分布 I ( λ )とから、実 target org
際に画像の色を補正する際に用いる照明の分光分布 I (λ)
adj を算出する。ここで、補 正の目標としてあらかじめ設定する目標照明の分光分布 I (λ)
target として、標準光源
D65や D55などの分光分布や、経験的に補正結果がよくなることがわ力つている照 明の分光分布や、ホワイトバランスではなく画像全体の色変更の効果を目的とした照 明色を有する分光分布などを用いることができ、さらにはこれら以外の分光分布を用 いることもできる。目標照明の分光分布は、利用者によって所望の分光分布として定 められることができるものである
[0048] I (λ)
ad] には、目標照明の分光分布 I (λ)
target をそのまま用いてもよい。さらに、以下 の式 (6)に示すように、画像情景中の照明として推定された分光分布 I ( λ )と、目
org
標照明の分光分布 I ( λ )
target とを混合して、実際に画像の色を補正する際に用いる 照明の分光分布 I (λ)
aa] を算出してもよい。
[0049] [数 4]
W = (1 - x Iorg (A) + adj x /(arg e( (λ) - (6)
[0050] 式 (6)において、 adjは、 I (λ)と I ( λ )の混合量を制御するための実数係数
org target
である。さらに、画像情景中の照明として推定された分光分布 I (λ)
org と、目標照明 の分光分布 I ( λ )との
target 混合量を各波長ごとに制御できるように、
[0051] [数 5] ^) = {F{ )-adjw{X)) Iorg{ )+adjw{ ) ItasM … (フ) [0052] としてもよい。ここで、 F( λ )は可視光領域で 1. 0となる定波形であり、 adjw(l )は、 各波長で I (λ)と I (λ)の混合量を制御するための実数値を有する可視光領 org target
域における関数である。
[0053] 次に、ステップ S5において、入力画像の各画素における物体の表面反射率を求め る。式(1)にしたがって、画像の各画素の RGB値力 三刺激値 XYZを計算し、式(2 )〜 (4)の左辺に代入する。そして、ステップ S3において計算された画像情景中の照 明の分光分布 I ( λ )を式 (2)〜 (4)の右辺に代入すると、式 (2)〜 (4)は表面反射 org
率 R ( λ )に関する観測方程式となる。
[0054] 物体の仮想表面反射率 R" ( λ )も、照明の分光分布と同様に可視光領域において 無限次元の波形で表わされるため、これを式 (2)〜 (4)力も解析的に計算することは できない。そこで、物体の仮想表面反射率 R" ( λ )について、低次元の基底ベクトル の加重和で表わす有限次元線形モデルを用いて以下のようにモデル化する。
[0055] [数 6]
R" ( ) = r0 (ス) + b,rx (λ) + b2r2 (λ) + b (λ) (8)
[0056] 図 5は、物体の表面反射率を集め、それらを主成分分析して得られる基底ベクトル の例を示すグラフである。式 (8)に示す r ( λ ) (i=0〜3)は、多くの物体の表面反射 率を集め、それを主成分分析して得られる基底ベクトルであり、それぞれ平均、第 1 〜第 3主成分ベクトルを表わしており、すべて既知である。 b (i=0〜3)は、各基底べ タトルの重み係数であり、物体の色を表現する未知の特性パラメータとなる。
[0057] 式 (8)に示す R"( )を、表面反射率 R( )に関する観測方程式に代入すると、物 体の色を表現する未知の特性パラメータ b〜bに関する以下の 3元一次連立方程式
1 3
(9)を得ることができ、 b〜bを求めることができる。
1 3
[0058] [数 7]
'M{x,rx) M(x,r2)
b2 - -- M{y x) M(y,r2) … (9)
、 、 (ζ, ) M{z,r2)
Figure imgf000014_0001
[0059] :で、 M(x, r) (i=0〜3)は、 il ( )r (λ)Χ(λΜえの積分項を表わす。 y, zについても同様である。画像中の全ての画素に対し、以上の処理を施すことによつ て、画像情景中全ての物体の表面反射率が求められる。
[0060] 次に、ステップ S6において、入力画像の各画素における補正後の色を算出する。
式(2)〜(4)に、ステップ S4において既に算出した補正時に用いる照明の分光分布 I ( λ )を代入することにより、補正後の三刺激値 X, Υ,Ζ,およびステップ S5におい adj
て既に算出した物体の仮想表面反射率 R" ( λ )についての式(10)〜(12)を得る。
[0061] [数 8]
X'= jlaci.(A)R"(A)x(A dA … (1 0)
Figure imgf000015_0001
[0062] 式(1)における変換行列 RXの逆行列を RX_1とすると、補正後の三刺激値 X' Y' Z ,は、以下のようにカラー画像の色情報 R' G' B'に変換することができる。
[0063] [数 9]
Figure imgf000015_0002
[0064] 入力画像中の全画素に対して上記の処理を行うことによって、所望の色に補正され た出力画像を得ることができる。
[0065] 第 2の実施形態:
次に、図 6を用いて、本発明の第 2の実施形態の色補正方法を説明する。第 2の実 施形態における色補正方法は、第 1の実施形態の色補正方法のステップ S5, S6で 行われる三刺激値 ΧΥΖ力も X' Y' Z'への補正処理 (変換処理)をステップ S7に示す 行列変換に置き換えることによって、第 1の実施形態の色補正方法と同等の補正結 果をもたらす方法である。図 6において、ステップ S1〜S4の処理は、第 1の実施形態 の場合と同様の処理であるので説明を省略し、ステップ S7について説明する。
[0066] ステップ S4の終了後、ステップ S7では、まず、物体の仮想表面反射率 R" ( λ )につ V、て、低次元の基底ベクトルの加重和で表わす有限次元線形モデルを用いてモデ ル化し、上述の式(8)を得る。
[0067] 式 (8)に示す R" ( λ )を、表面反射率 R ( λ )に関する観測方程式に代入すると、物 体の色を表現する未知の特性パラメータ b〜bに関する 3元一次連立方程式 (上述
1 3
の式(9))を得ることができ、 b〜bを求めることができる。
1 3
[0068] 次に、式(2)〜(4)に、ステップ S4において既に算出してある補正時に用いる照明 の分光分布 I ( λ )を代入することにより、補正後の三刺激値 X' Υ'Ζ'および物体の ad]
仮想表面反射率 R" ( λ )につ 、ての式( 10)〜( 12)を得る。そして、式( 10)〜( 12) に、式 (8)に示す R"( )を代入して、式(14)を得る。
[0069] [数 10]
,、 (N(x,r) N(x,r2) N(x,r,)
7* NO^) N , r2) N(y,r3) (14) ノ Ν(Ζ,Γ,) N(z,r2) N(z,r3)
Figure imgf000016_0002
[0070] ここで、 Ν(χ, r) (i=0〜3)は、 il ( )r (λ)Χ(λΜえの積分項を表わす。 y, z l ad] l
についても同様である。さらに、式(14)に式(9)を代入すると、式(15)を得る。
[0071] [数 11]
Γ
Ζ'
Figure imgf000016_0001
… (15)
[0072] 式(15)は、次の式(16)のようにまとめることができる。
[0073] [数 12]
+ B (16)
Figure imgf000016_0003
[0074] ここで、行列 Aは、以下の式(17)で表わされる 3X3行列であり、行列 Bは、以下の 式(18)で表わされる 3 X 1行列であって、いずれも定数行列となる。
[0075] [数 13] (N(x,ri ) N(x,r2) N(x,r3) V M{x,rx ) M(x,r2) (x,r3)
A = Ν(γ^ ) N(y,r2 ) N(y,r3) M{y,r, ) M(y,r2) M(y, r3 ) ( 1 7) N{z,rx ) N(z,r2) N(z, r3) M(z, r, ) M(z,r2) M(z, r3)
[0076] [数 14]
( 1 8)
Figure imgf000017_0001
[0077] ステップ S7では、入力画像中の全画素に対して式(16)による色補正処理を施し、 さら〖こ、デバイス依存カラ 変換したものを出力画像として出力する。なお、デバイ ス依存カラーとは、出力先のデバイスに依存する色空間を意味する。
[0078] 以上は、入力画像および出力画像のデバイス依存カラーカ¾^ である場合にっ ヽ て説明した力 デバイス依存カラーが CMYや CMYKなどの RGB以外のデバイス依 存カラーであったとしても、そのデバイス依存カラーとデバイス非依存カラーの三刺 激値 XYZとの対応関係が得られれば、 RGB以外の画像にっ ヽても本発明の色補正 方法を適用できる。
[0079] 色補正装置:
次に、本発明に基づく色補正装置について説明する。図 7は、本発明による色補正 装置の第 1の例を示している。図示される色補正装置 100は、上述の第 1の実施形 態の色補正方法に基づ!/、て入力画像 1に対して色補正を実施し、出力画像 2を出力 する装置である。具体的には、色補正装置 100は、入力画像 1を補正して、入力画 像 1における照明条件とは異なる照明条件での出力画像 2を生成し、出力するもので ある。
[0080] 色補正装置 100は、入力画像 1から特定の対象物の領域を検出する対象領域検 出部 3と、検出された領域の色情報を抽出する対象領域色情報抽出部 4と、抽出され た色情報とあらかじめ指定された特定の対象物の表面反射率とを用いて、入力画像 1での照明の分光分布を復元する分光分布復元部 5と、対象物表面反射率メモリ 6と 、入力画像の各画素の色情報と分光分布復元部 5によって復元された照明の分光 分布とを用いて、各画素における表面反射率を復元する表面反射率復元部 7と、分 光分布復元部 5によって復元された照明の分光分布と目標照明として指定された照 明の分光分布とを用いて、出力画像 2での照明の分光分布を算出する分光分布計 算部 8と、目標照明の分光分布があらかじめ格納される分光分布メモリ 9と、表面反射 率復元部 7によって復元された各画素における表面反射率と、分光分布計算部 8に よって算出された出力画像 2での照明の分光分布とを用いて、出力画像 2の各画素 の色情報を算出する画像補正部 10と、を備えている。ここで、入力画像 1中の特定の 対象物としては、上記のように、人の顔など、その対象の色がある程度限定できるも のが用いられる。この特定の対象物に関しては、その表面反射率があら力じめ色補 正装置 100に与えられており、与えられた表面反射率は、対象物表面反射率メモリ 6 内に格納されている。
[0081] 次に、この色補正装置 100の動作を説明する。
[0082] 対象領域検出部 3は、入力画像 1が与えられると、その入力画像 1を解析し、あらか じめ想定された特定の対象物を検出し、画像中におけるその対象物の領域を示す情 報を出力する。検出方法については、既に述べた手法を用いればよい。なお、入力 画像 1から目的とする対象物が検出されない場合には、この色補正装置 100は、入 力画像 1を出力画像 2としてそのまま出力する。
[0083] 次に、対象領域色情報抽出部 4は、対象領域検出部 3によって検出された対象領 域における色情報を、上述した方法にしたがって抽出する。
[0084] 分光分布復元部 5は、対象領域色情報抽出部 4によって得られた対象領域の色情 報と、対象物表面反射率メモリ 6に記憶されている対象領域の典型的あるいは代表 的な表面反射率と、照明の分光特性をモデルィ匕する基底ベクトルとを用いて、入力 画像の情景中の照明の分光分布を入力画像 1での照明の分光分布として復元する
[0085] 次に、分光分布計算部 8は、補正画像を生成する際に必要となる出力画像での照 明の分光分布を計算する。分光分布計算部 8は、分光分布復元部 5によって復元さ れた入力画像の照明の分光分布と、分光分布メモリ 9にあらかじめ記憶されている目 標照明の分光分布とを用いて、出力画像での照明の分光分布を式 (6) , (7)によつ て計算する。 [0086] 一方、表面反射率復元部 7は、復元された入力画像での照明の分光分布と、入力 画像データの画素値とから、画像上の各画素における物体の表面反射率を復元す る。分光分布復元部 5および表面反射率復元部 7における、それぞれの分光特性の 復元方法としては、上述の第 1の実施形態において説明した手法を用いればよい。
[0087] そして、画像補正部 10は、画像上の各画素における物体の表面反射率と出力画 像での照明の分光分布とを用いて、式(10)〜(12)によって三刺激値 XYZを計算す る。そして、画像補正部 10は、出力画像をデバイス依存カラー(例えば RGBなど)に 変換し、出力画像 2として出力する。
[0088] この色補正装置において、対象領域検出部 3、対象領域色情報抽出部 4、分光分 布復元部 5、対象物表面反射率メモリ 6、表面反射率復元部 7、分光分布計算部 8、 分光分布メモリ 9および画像補正部 10は、それぞれ個別の装置として設けてもよいし 、あるいは、プログラムにしたがって動作する CPUによって実現されるようにしてもよ い。その場合、プログラムは、 CPUに接続する記憶装置内に格納される。すなわち、 記憶装置を備えたコンピュータを用いて、この色補正装置を構成することができる。
[0089] 図 8は、本発明に基づく色補正装置の第 2の例を示している。
[0090] 図 8に示される色補正装置 101は、図 7に示した色補正装置 100に対して、制御部 11を付加したものである。制御部 11は、値 adjまたは関数 adjw ( )を利用者に指定 させるための制御を行うとともに、利用者によって指定された adjの値または adjw ( λ ) の関数を、分光分布計算部 8に出力する。値 adjまたは関数 adjw ( λ )は、分光分布 計算部 8が出力画像の照明の分光分布を計算する際に、入力画像の照明の分光分 布と所望の目標照明の分光分布の混合量をコントロールするために使用される値ま たは関数である。
[0091] 図 9は、利用者に対して値 adjの設定を行わせるために、制御部 10が利用者に対し て表示する GUI (Graphical User Interface)の例を示している。利用者は、表示 されたスライドバー 20をマウスなどのポインティングデバイスを用いて動かすことによ つて、 adjの値を調整することができる。
[0092] 同様に図 10は、利用者に対して関数 adjw ( )の設定を行わせるために、制御部 1 1が利用者に対して表示する GUIの例を示している。利用者は、表示された制御点 2 1をマウス操作などを用いて上下に動かすことによって、その制御点 21を通る adjw ( λ )の波形を調整することができる。制御点 21を通る adjw ( λ )に関して、制御点以 外の波長における関数値は、スプライン補間やラグランジェ補間を用いることにより容 易に計算できる。なお、図 10に示した例においては、制御点 21は 5点である力 この 制御点の数は任意である。また、制御点 21の追加や削除ができるようにしてあっても よい。
[0093] 図 9および図 10の例において、 adjおよび adjw ( λ )は、 0〜1. 0の範囲で指定でき るようになっているが、設定できる範囲は 0〜1. 0に限定されるものではなぐ実数値 で指定できるようになっていればよい。制御部 11は、利用者によって調整された adj または adjw ( λ )を、分光分布計算部 8に反映させる。
[0094] さらに、制御部 11は、目標照明として利用者の所望の照明の色を、その利用者が 指定できる機能を有する。目標照明の色を指定する場合、例えば、相関色温度が用 いられるようにしてもよい。 CIE昼光の相関色温度から、その分光分布を計算すること ができる。相関色温度力 分光分布を計算する方法は、日本色彩学会編, 「新編 色 彩科学ノヽンドブック」,第 2版,財団法人東京大学出版会, 1998年 6月 10日, pp. 6 9 - 71 (非特許文献 3)に記載されている。なお、 CIE昼光の分光分布の計算途中に おいて、相関色温度から、色度が一旦計算されるので、制御部 11では、目標照明の 色を色度で与えるようにしてもよい。さらに、制御部 11は、目標照明の分光分布を各 波長におけるパワーを指定したファイルで与えるようにしてもよ 、。
[0095] 図 8に示した色補正装置も、図 7に示した色補正装置と同様に、プログラムによって 制御されるコンピュータによって構成することができる。
[0096] 図 11は、本発明に基づく色補正装置の第 3の例を示している。図示される色補正 装置 102は、上述の第 2の実施形態の色補正方法に基づいて入力画像 1に対して 色補正を実施し、出力画像 2を出力する装置である。色補正装置 102は、図 7に示し た色補正装置 100における表面反射率復元部 7および画像補正部 10の代わりに、 各画素における表面反射率をモデル化する際に使用する基底ベクトルと、復元され た入力画像 1での照明の分光分布と、出力画像での照明の分光分布とから計算され る定数行列を用いて、出力画像の各画素の色情報を算出する行列変換画像補正部 12を設けたものである。
[0097] 次に、この色補正装置 102の動作を説明する。
[0098] 分光分布復元部 5による入力画像での照明の分光分布の復元、および分光分布 計算部 8による出力画像での照明の分光分布の計算までは、図 7に示した色補正装 置 100の場合と同様に行なわれる。次に、行列変換画像補正部 12は、分光分布復 元部 5によって復元された入力画像での照明の分光分布と分光分布計算部 8によつ て計算された出力画像での照明の分光分布と入力画像 1とが与えられると、図 6のス テツプ S5を実行して、式(16)を計算する。そして、入力画像 1の全画素に対して、式 (16)による色補正処理を施し、デバイス依存カラーに変換して出力画像 2を出力す る。
[0099] この色補正装置 102についても、対象領域検出部 3、対象領域色情報抽出部 4、 分光分布復元部 5、対象物表面反射率メモリ 6、分光分布計算部 8、分光分布メモリ 9 および行列変換画像補正部 12は、それぞれ個別の装置として設けてもよいし、ある いは、プログラムにしたがって動作する CPUによって実現されるようにしてもよい。し たがって、コンピュータを用いて、この色補正装置を構成することができる。
[0100] さらに、本発明に基づく色補正装置の第 4の例として、図 8に示した色補正装置 10 1の表面反射率復元部 7および画像補正部 10を、行列変換画像補正部 12に置き換 えた色補正装置も容易に実現可能である。この色補正装置もプログラムによって制 御されるコンピュータによって構成することができる。
産業上の利用可能性
[0101] 本発明は、カラー画像の入出力装置においてホワイトバランスを含む色補正を実行 する用途に適用できる。また、本発明は、コンピュータシステムで動作するプログラム の形態とすることで、任意のカラー画像に対する色補正ソフトウェアあるいはユーティ リティとしても利用可能である。

Claims

請求の範囲
[1] 入力画像を補正して前記入力画像における照明条件とは異なる照明条件での出 力画像を生成する色補正方法であって、
前記入力画像から特定の対象物の領域を検出して該領域の色情報を抽出するス テツプと、
抽出された前記特定の対象物の領域の色情報とあらかじめ指定された前記特定の 対象物の表面反射率とを用いて、前記入力画像での照明の分光分布を復元するス テツプと、
復元された前記入力画像での照明の分光分布と目標照明として指定された照明の 分光分布とを用いて、前記出力画像での照明の分光分布を算出するステップと、 前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布と、算出された前記出力画像での照明の分光分布とに基づいて、前記出力画像 の各画素の色情報を算出するステップと、
を備える、色補正方法。
[2] 前記色情報を算出するステップは、
前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布とを用いて、各画素における表面反射率を復元するステップと、
復元された各画素における表面反射率と算出された前記出力画像での照明の分 光分布とを用いて、前記出力画像の各画素の色情報を算出するステップと、 を備える、請求項 1に記載の方法。
[3] 前記色情報を算出するステップは、各画素における表面反射率をモデルィ匕する際 に使用する基底ベクトルと、復元された前記入力画像での照明の分光分布と、前記 出力画像での照明の分光分布とから計算される定数行列を用いて、前記出力画像 の各画素の色情報を算出するステップとを備える、請求項 1に記載の方法。
[4] 前記分光分布を算出するステップにおいて、復元された前記入力画像での照明の 分光分布および前記目標照明の分光分布を、可視光領域にわたって波長によらず 一定の割合で混合することによって、前記出力画像での照明の分光分布が算出され る、請求項 1乃至 3のいずれか 1項に記載の方法。
[5] 前記分光分布を算出するステップにおいて、復元された前記入力画像での照明の 分光分布および前記目標照明の分光分布を、可視光領域にわたって波長に依存す る関数に基づいて混合することによって、前記出力画像での照明の分光分布が算出 される、請求項 1乃至 3のいずれ力 1項に記載の方法。
[6] 前記一定の割合は、利用者によって設定される、請求項 4に記載の方法。
[7] 前記波長に依存する関数は、利用者によって設定される、請求項 5に記載の方法。
[8] 入力画像を補正して前記入力画像における照明条件とは異なる照明条件での出 力画像を生成する色補正装置であって、
前記入力画像から特定の対象物の領域を検出して該領域の色情報を抽出する対 象領域色情報抽出手段と、
前記対象領域色情報抽出手段によって抽出された前記特定の対象物の領域の色 情報とあらかじめ指定された前記特定の対象物の表面反射率とを用いて、前記入力 画像での照明の分光分布を復元する分光分布復元手段と、
前記分光分布復元手段によって復元された前記入力画像での照明の分光分布と 目標照明として指定された照明の分光分布とを用いて、前記出力画像での照明の分 光分布を算出する分光分布計算手段と、
前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布と、算出された前記出力画像での照明の分光分布とに基づいて、前記出力画像 の各画素の色情報を算出する出力画像生成手段と、
を備える色補正装置。
[9] 前記出力画像生成手段は、
前記入力画像の各画素の色情報と、前記分光分布復元手段によって復元された 前記入力画像の照明での分光分布とを用いて、各画素における表面反射率を復元 する表面反射率復元手段と、
前記表面反射率復元手段によって復元された各画素における表面反射率と、前記 分光分布計算手段によって算出された前記出力画像での照明の分光分布とを用い て、前記出力画像の各画素の色情報を算出する画像補正手段と、
を備える、請求項 8に記載の色補正装置。
[10] 前記出力画像生成手段は、各画素における表面反射率をモデルィ匕する際に使用 する基底ベクトルと、復元された前記入力画像での照明の分光分布と、前記出力画 像での照明の分光分布とから計算される定数行列を用いて、前記出力画像の各画 素の色情報を算出する行列変換画像補正手段を備える、請求項 8に記載の装置。
[11] 前記分光分布計算手段は、前記分光分布復元手段によって復元された前記入力 画像での照明の分光分布および前記目標照明の分光分布を、可視光領域にわたつ て波長によらず一定の割合で混合して、前記出力画像での照明の分光分布を算出 する、請求項 8乃至 10のいずれか 1項に記載の装置。
[12] 前記分光分布計算手段は、前記分光分布復元手段によって復元された前記入力 画像での照明の分光分布および前記目標照明の分光分布を、可視光領域にわたつ て波長に依存する関数に基づいて混合して、前記出力画像での照明の分光分布を 算出する、請求項 8乃至 10のいずれか 1項に記載の装置。
[13] 前記一定の割合を利用者に設定させ、前記分光分布計算手段に出力する制御部 をさらに備える、請求項 11に記載の装置。
[14] 前記波長に依存する関数を利用者に設定させ、前記分光分布計算手段に出力す る制御部をさらに備える、請求項 12に記載の装置。
[15] 入力画像を補正して前記入力画像における照明条件とは異なる照明条件での出 力画像を生成する処理をコンピュータに実行させる色補正プログラムであって、 前記コンピュータに、
前記入力画像から特定の対象物の領域を検出して該領域の色情報を抽出する処 理と、
抽出された前記特定の対象物の領域の色情報とあらかじめ指定された前記特定の 対象物の表面反射率とを用いて、前記入力画像での照明の分光分布を復元する処 理と、
復元された前記入力画像の照明での分光分布と目標照明として指定された照明の 分光分布とを用いて、前記出力画像での照明の分光分布を算出する処理と、 前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布と、算出された前記出力画像での照明の分光分布とに基づいて、前記出力画像 の各画素の色情報を算出する処理と、
を実行させるための色補正プログラム。
[16] 前記色情報を算出する処理は、
前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布とを用いて、各画素における表面反射率を復元する処理と、
復元された各画素における表面反射率と算出された前記出力画像での照明の分 光分布とを用いて、出力画像の各画素の色情報を算出する処理と、
を含む、請求項 15に記載のプログラム。
[17] 前記色情報を算出する処理は、各画素における表面反射率をモデル化する際に 使用する基底ベクトルと、復元された前記入力画像での照明の分光分布と、前記出 力画像での照明の分光分布とから計算される定数行列を用いて、前記出力画像の 各画素の色情報を算出する処理を含む、請求項 15に記載のプログラム。
[18] 前記分光分布を算出する処理において、復元された前記入力画像での照明の分 光分布および前記目標照明の分光分布を、可視光領域にわたって波長によらず一 定の割合で混合することによって、前記出力画像での照明の分光分布が算出される
、請求項 15乃至 17のいずれ力 1項に記載のプログラム。
[19] 前記分光分布を算出する処理において、復元された前記入力画像での照明の分 光分布および前記目標照明の分光分布を、可視光領域にわたって波長に依存する 関数に基づいて混合することによって、前記出力画像での照明の分光分布が算出さ れる、請求項 15乃至 17のいずれ力 1項に記載のプログラム。
[20] 入力画像を補正して前記入力画像における照明条件とは異なる照明条件での出 力画像を生成する処理を実行可能なコンピュータが読み取り可能な記録媒体であつ て、
前記コンピュータに、
前記入力画像から特定の対象物の領域を検出して該領域の色情報を抽出する処 理と、
抽出された前記特定の対象物の領域の色情報とあらかじめ指定された前記特定の 対象物の表面反射率とを用いて、前記入力画像での照明の分光分布を復元する処 理と、
復元された前記入力画像の照明での分光分布と目標照明として指定された照明の 分光分布とを用いて、前記出力画像での照明の分光分布を算出する処理と、 前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布と、算出された前記出力画像での照明の分光分布とに基づいて、前記出力画像 の各画素の色情報を算出する処理と、
を実行させる色補正プログラムを格納した記録媒体。
PCT/JP2006/313863 2005-07-13 2006-07-12 色補正方法および色補正装置 WO2007007788A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007524677A JP4288530B2 (ja) 2005-07-13 2006-07-12 色補正方法および色補正装置
US11/988,738 US8023736B2 (en) 2005-07-13 2006-07-12 Color correction method and color correction apparatus
EP06768127A EP1906674A4 (en) 2005-07-13 2006-07-12 METHOD AND DEVICE FOR COLOR CORRECTION
CN2006800337409A CN101263721B (zh) 2005-07-13 2006-07-12 颜色修正方法和颜色修正设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005204311 2005-07-13
JP2005-204311 2005-07-13

Publications (1)

Publication Number Publication Date
WO2007007788A1 true WO2007007788A1 (ja) 2007-01-18

Family

ID=37637178

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/313863 WO2007007788A1 (ja) 2005-07-13 2006-07-12 色補正方法および色補正装置

Country Status (5)

Country Link
US (1) US8023736B2 (ja)
EP (1) EP1906674A4 (ja)
JP (1) JP4288530B2 (ja)
CN (1) CN101263721B (ja)
WO (1) WO2007007788A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100328740A1 (en) * 2008-02-22 2010-12-30 Nec Corporation Method, apparatus and program for color image processing
WO2012001948A1 (ja) * 2010-06-30 2012-01-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
WO2013099644A1 (ja) * 2011-12-28 2013-07-04 日本電気株式会社 分光画像処理方法、分光画像処理装置およびプログラム
CN101420528B (zh) * 2007-10-23 2015-06-03 三星电子株式会社 能够显示色彩分布图表的数字图像处理设备及其操作方法
JP2016144042A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN106791433A (zh) * 2017-01-18 2017-05-31 维沃移动通信有限公司 一种图像处理方法及电子设备

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4076248B2 (ja) * 1997-09-09 2008-04-16 オリンパス株式会社 色再現装置
US8345252B2 (en) * 2005-04-25 2013-01-01 X-Rite, Inc. Method and system for enhanced formulation and visualization rendering
JP5111295B2 (ja) * 2007-09-12 2013-01-09 キヤノン株式会社 色処理装置およびその方法
WO2010087162A1 (ja) * 2009-01-27 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体
JP5533670B2 (ja) * 2009-01-29 2014-06-25 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5045731B2 (ja) * 2009-11-04 2012-10-10 カシオ計算機株式会社 撮像装置、ホワイトバランス設定方法、及び、プログラム
WO2012001949A1 (ja) * 2010-06-30 2012-01-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
US8503771B2 (en) * 2010-12-20 2013-08-06 Samsung Techwin Co., Ltd. Method and apparatus for estimating light source
JP5423702B2 (ja) 2011-02-15 2014-02-19 株式会社デンソー 画像処理装置及びその調整方法
JP5526170B2 (ja) * 2012-02-29 2014-06-18 京セラドキュメントソリューションズ株式会社 配色変更画像形成装置および配色復元画像形成装置
RU2015106702A (ru) 2012-07-27 2016-09-20 Конинклейке Филипс Н.В. Цветовое выделение и сохранение объектов с использованием спектров отражения
EP3039864B1 (en) 2013-08-26 2018-09-19 Intel Corporation Automatic white balancing with skin tone correction for image processing
JP5971216B2 (ja) * 2013-09-20 2016-08-17 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6423625B2 (ja) * 2014-06-18 2018-11-14 キヤノン株式会社 画像処理装置および画像処理方法
CN105704368B (zh) * 2015-12-23 2018-07-10 电子科技大学中山学院 一种人脸图像采集的自适应控制方法
CN107818549A (zh) * 2017-10-27 2018-03-20 上海京颐科技股份有限公司 图像处理方法、装置、设备以及计算机可读介质
KR102094780B1 (ko) * 2019-11-22 2020-03-30 주식회사 핏펫 색공간 변환을 이용한 생화학 정보 측정 방법 및 시스템
CN114049290A (zh) * 2021-11-10 2022-02-15 北京百度网讯科技有限公司 图像处理方法、装置、设备及存储介质
CN115035286A (zh) * 2022-06-17 2022-09-09 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、终端及可读存储介质

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62265885A (ja) 1986-05-13 1987-11-18 Sharp Corp オ−トホワイトバランス調整回路
JPH03148989A (ja) 1989-11-02 1991-06-25 Minolta Camera Co Ltd ホワイトバランス調整装置
JPH09172649A (ja) * 1995-12-19 1997-06-30 Olympus Optical Co Ltd カラー画像記録再生システム
JPH11283025A (ja) * 1998-03-31 1999-10-15 Nec Corp 光源判定方法、肌色補正方法、カラー画像補正方法、光源判定装置、肌色補正装置、カラー画像補正装置及びコンピュータ読み取り可能な記録媒体
JPH11289548A (ja) 1998-02-09 1999-10-19 Ricoh Co Ltd ホワイトバランス制御方法及び装置
JP2001008220A (ja) * 1999-06-18 2001-01-12 Olympus Optical Co Ltd 色再現システム
JP2001078202A (ja) * 1999-09-01 2001-03-23 Minolta Co Ltd デジタル撮影装置、画像データ処理装置、デジタル撮影方法および記録媒体
JP2001148863A (ja) 1999-11-19 2001-05-29 Victor Co Of Japan Ltd ホワイトバランス調整方法及び調整装置
JP3264273B2 (ja) 1999-09-22 2002-03-11 日本電気株式会社 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体
JP2002238056A (ja) * 2001-02-08 2002-08-23 Minolta Co Ltd デジタル撮像装置、プログラムおよび記録媒体
JP2003046795A (ja) * 2001-08-01 2003-02-14 Minolta Co Ltd プログラム、記録媒体、画像処理装置及び色補正方法
JP2003189325A (ja) 2001-12-19 2003-07-04 Ricoh Co Ltd 画像処理装置及びカラー画像撮像装置
JP2003216936A (ja) 2002-01-28 2003-07-31 Canon Inc 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2003224867A (ja) 2002-01-31 2003-08-08 Fuji Photo Film Co Ltd ホワイトバランス補正方法
JP2003317084A (ja) 2002-04-19 2003-11-07 Nec Corp 顔画像からの目検出システム、目検出方法および目検出用プログラム
JP2003333616A (ja) 2002-03-06 2003-11-21 Canon Inc ホワイトバランス調整方法及び撮像装置及びプログラム及び記憶媒体
JP2004180114A (ja) 2002-11-28 2004-06-24 Sony Corp 顔色補正方法及び顔色補正装置及び撮像機器
JP2004320275A (ja) 2003-04-15 2004-11-11 Casio Comput Co Ltd 無線通信システムおよびプログラム
JP2004320285A (ja) 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP2005027277A (ja) 2003-04-21 2005-01-27 Hewlett-Packard Development Co Lp 画像のホワイトバランス調整方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1009582B (zh) * 1987-10-20 1990-09-12 四川大学 颜色可调图象假彩色化的光学方法
JPH0795424A (ja) 1993-09-27 1995-04-07 Toyo Ink Mfg Co Ltd 異光源下での色合わせ装置
JP3478429B2 (ja) 1995-01-25 2003-12-15 日本電信電話株式会社 照明光変換装置
JPH08221591A (ja) 1995-02-09 1996-08-30 Nippon Telegr & Teleph Corp <Ntt> モンタージュ写真合成装置
JPH1196333A (ja) * 1997-09-16 1999-04-09 Olympus Optical Co Ltd カラー画像処理装置
JP3148989B2 (ja) 1998-06-30 2001-03-26 株式会社ソフト九九コーポレーション 逆止弁
JP3072729B2 (ja) * 1998-10-09 2000-08-07 日本電気株式会社 カラーマッチング方法、カラーマッチング装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2001311666A (ja) 2000-04-28 2001-11-09 Toppan Printing Co Ltd 測色変換係数算出方法と測色画像変換方法、及び、測色変換係数算出装置と測色画像変換装置、並びに、測色変換係数算出プログラム又は測色的撮像プログラムを記録したコンピュータ読み取り可能な情報記録媒体
US6888963B2 (en) * 2000-07-18 2005-05-03 Matsushita Electric Industrial Co., Ltd. Image processing apparatus and image processing method
JP2003152227A (ja) * 2001-11-14 2003-05-23 Citizen Electronics Co Ltd Ledの色補正手段および色補正方法

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62265885A (ja) 1986-05-13 1987-11-18 Sharp Corp オ−トホワイトバランス調整回路
JPH03148989A (ja) 1989-11-02 1991-06-25 Minolta Camera Co Ltd ホワイトバランス調整装置
JPH09172649A (ja) * 1995-12-19 1997-06-30 Olympus Optical Co Ltd カラー画像記録再生システム
JPH11289548A (ja) 1998-02-09 1999-10-19 Ricoh Co Ltd ホワイトバランス制御方法及び装置
JPH11283025A (ja) * 1998-03-31 1999-10-15 Nec Corp 光源判定方法、肌色補正方法、カラー画像補正方法、光源判定装置、肌色補正装置、カラー画像補正装置及びコンピュータ読み取り可能な記録媒体
JP2001008220A (ja) * 1999-06-18 2001-01-12 Olympus Optical Co Ltd 色再現システム
JP2001078202A (ja) * 1999-09-01 2001-03-23 Minolta Co Ltd デジタル撮影装置、画像データ処理装置、デジタル撮影方法および記録媒体
JP3264273B2 (ja) 1999-09-22 2002-03-11 日本電気株式会社 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体
JP2001148863A (ja) 1999-11-19 2001-05-29 Victor Co Of Japan Ltd ホワイトバランス調整方法及び調整装置
JP2002238056A (ja) * 2001-02-08 2002-08-23 Minolta Co Ltd デジタル撮像装置、プログラムおよび記録媒体
JP2003046795A (ja) * 2001-08-01 2003-02-14 Minolta Co Ltd プログラム、記録媒体、画像処理装置及び色補正方法
JP2003189325A (ja) 2001-12-19 2003-07-04 Ricoh Co Ltd 画像処理装置及びカラー画像撮像装置
JP2003216936A (ja) 2002-01-28 2003-07-31 Canon Inc 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP2003224867A (ja) 2002-01-31 2003-08-08 Fuji Photo Film Co Ltd ホワイトバランス補正方法
JP2003333616A (ja) 2002-03-06 2003-11-21 Canon Inc ホワイトバランス調整方法及び撮像装置及びプログラム及び記憶媒体
JP2003317084A (ja) 2002-04-19 2003-11-07 Nec Corp 顔画像からの目検出システム、目検出方法および目検出用プログラム
JP2004180114A (ja) 2002-11-28 2004-06-24 Sony Corp 顔色補正方法及び顔色補正装置及び撮像機器
JP2004320275A (ja) 2003-04-15 2004-11-11 Casio Comput Co Ltd 無線通信システムおよびプログラム
JP2004320285A (ja) 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP2005027277A (ja) 2003-04-21 2005-01-27 Hewlett-Packard Development Co Lp 画像のホワイトバランス調整方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Color science handbook, new edition", 10 June 1998, UNIVERSITY OF TOKYO PRESS, pages: 69 - 71
JOHJI TAJIMA: "Image engineering series 10: Color image replication theory, fundamentals of color management", MARUZEN CO., 30 September 1996 (1996-09-30), pages 33 - 39
See also references of EP1906674A4
TOSHINORI HOSOI; TETSUAKI SUZUKI; ATSUSHI SATO: "Face detection based on Generalized Learning Vector Quantization", TECHNICAL REPORT OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. 102, no. 651, 2003, pages 47 - 52

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101420528B (zh) * 2007-10-23 2015-06-03 三星电子株式会社 能够显示色彩分布图表的数字图像处理设备及其操作方法
US20100328740A1 (en) * 2008-02-22 2010-12-30 Nec Corporation Method, apparatus and program for color image processing
US9485391B2 (en) * 2008-02-22 2016-11-01 Nec Corporation Method, apparatus and program for restoring and correcting surface reflectance with color image processing
WO2012001948A1 (ja) * 2010-06-30 2012-01-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
US8923575B2 (en) 2010-06-30 2014-12-30 Nec Corporation Color image processing method, color image processing device, and color image processing program
JP6004481B2 (ja) * 2010-06-30 2016-10-12 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
WO2013099644A1 (ja) * 2011-12-28 2013-07-04 日本電気株式会社 分光画像処理方法、分光画像処理装置およびプログラム
JPWO2013099644A1 (ja) * 2011-12-28 2015-05-07 日本電気株式会社 分光画像処理方法、分光画像処理装置およびプログラム
US9491331B2 (en) 2011-12-28 2016-11-08 Nec Corporation Image processing method, image processing device, and program for restoring spectral characteristics of an object and an illumination, respectively
JP2016144042A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN106791433A (zh) * 2017-01-18 2017-05-31 维沃移动通信有限公司 一种图像处理方法及电子设备

Also Published As

Publication number Publication date
US8023736B2 (en) 2011-09-20
US20090141976A1 (en) 2009-06-04
JP4288530B2 (ja) 2009-07-01
CN101263721A (zh) 2008-09-10
JPWO2007007788A1 (ja) 2009-01-29
EP1906674A4 (en) 2011-06-22
CN101263721B (zh) 2010-07-14
EP1906674A1 (en) 2008-04-02

Similar Documents

Publication Publication Date Title
JP4288530B2 (ja) 色補正方法および色補正装置
JP5158100B2 (ja) カラー画像処理方法、装置およびプログラム
JP5867390B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP6004481B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5648483B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
US9342872B2 (en) Color correction parameter computation method, color correction parameter computation device, and image output system
WO2010087164A1 (ja) カラー画像処理方法、カラー画像処理装置および記録媒体
JP4687673B2 (ja) カラー画像のモノトーン化処理
US9398282B2 (en) Image processing apparatus, control method, and computer-readable medium
JP2009033361A (ja) 色調整装置、画像形成装置およびプログラム
Kim et al. Detection and correction of purple fringing using color desaturation in the xy chromaticity diagram and the gradient information
JP4001079B2 (ja) カラー画像のモノトーン化処理
JP5824423B2 (ja) 照明光色推定装置、照明光色推定方法及び照明光色推定プログラム
JP4626776B2 (ja) 色補正方法および色補正装置
JP2004045189A (ja) 色補正装置及び色補正方法
JP2012028973A (ja) 照明光推定装置、照明光推定方法および照明光推定プログラム
JP2008294969A (ja) 映像変換装置、映像変換方法、映像変換プログラム
JP2008227959A (ja) 画像処理装置、画像処理方法および画像処理システム
JP2016218663A (ja) 照明光色推定装置、照明光色推定方法及び照明光色推定プログラム
JP4838224B2 (ja) 諧調変換装置および方法、プログラム
JP2009049445A (ja) 色補正方法、色補正装置および色補正プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680033740.9

Country of ref document: CN

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007524677

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11988738

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006768127

Country of ref document: EP