WO2007007786A1 - 色補正方法および色補正装置 - Google Patents

色補正方法および色補正装置 Download PDF

Info

Publication number
WO2007007786A1
WO2007007786A1 PCT/JP2006/313861 JP2006313861W WO2007007786A1 WO 2007007786 A1 WO2007007786 A1 WO 2007007786A1 JP 2006313861 W JP2006313861 W JP 2006313861W WO 2007007786 A1 WO2007007786 A1 WO 2007007786A1
Authority
WO
WIPO (PCT)
Prior art keywords
illumination
spectral distribution
input image
output image
image
Prior art date
Application number
PCT/JP2006/313861
Other languages
English (en)
French (fr)
Inventor
Masato Tsukada
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to JP2007524675A priority Critical patent/JP4626776B2/ja
Publication of WO2007007786A1 publication Critical patent/WO2007007786A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6088Colour correction or control controlled by factors external to the apparatus by viewing conditions, i.e. conditions at picture output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control

Definitions

  • the present invention relates to a method and apparatus for performing color correction on a color image, and more particularly to a color correction method and color correction apparatus including white balance correction.
  • Patent Document 5 using a histogram of an image, only a gray region in a color image is extracted, or only a skin color region is extracted, or The gray area and skin color area are extracted, the color temperature of the light source is estimated using the color information of the extracted area, and the image signal of the color image is calculated using the following correction formula based on the estimated color temperature. Describes a method of correcting the white balance.
  • R, G, B indicate the RGB values at the pixels of the input image
  • R, G, B indicate the RGB values at the pixels of the output image
  • ⁇ , ⁇ , ⁇ are corrections Is a coefficient used for.
  • Patent Document 6 describes chromaticity such as skin color in an image.
  • the white balance correction is realized by determining the color area or the area that would have been white by image histogram analysis and estimating the color temperature of the light source by combining one or more color information of that area. How to do is described.
  • Patent Document 7 Japanese Unexamined Patent Application Publication No. 2004-320285
  • AF and AF Auto focus
  • face enhancement processing and skin color processing no specific processing method is disclosed for the essential skin color processing.
  • Patent Document 8 describes a color correction method for making skin color look good in a face area detected based only on color information in a color image.
  • Patent Document 9 Japanese Patent Laid-Open No. 2003-216936
  • a human face part is detected from an input image to obtain arrangement information, a boundary between a person area and other areas is set, and each area is set. It describes a technique for making appropriate white balance and saturation corrections.
  • Japanese Patent Publication No. 2003-189325 Patent Document 10) describes a method for not using color information of a face area for white balance calculation.
  • JP 2005-27277 A determines the location of a human face area in an image, and the skin color obtained from the determined face area substantially matches the known skin color range. Thus, a method is described in which a correction coefficient for changing the skin color obtained from an image is determined, and white balance adjustment of the image is performed using this correction coefficient.
  • Japanese Patent Application Laid-Open No. 2005-27 277 describes that the key correction method uses a method such as the gray world hypothesis or white point estimation. However, according to a specific method, It ’s not explained.
  • Patent Document 12 Japanese Patent Laying-Open No. 2003-317084 detects an eye from an image. A method is described.
  • Japanese Patent No. 3264273 Patent Document 13 describes a method for determining skin color using a histogram.
  • Patent Document 1 Japan: JP 2001-148863 A
  • Patent Document 2 Japan: JP-A-11-289548
  • Patent Document 3 Japan: Japanese Patent Laid-Open No. 3-148989
  • Patent Document 4 Japan: JP-A 62-265885
  • Patent Document 5 Japan: Japanese Patent Laid-Open No. 2003-224867
  • Patent Document 6 Japan: Japanese Unexamined Patent Publication No. 2003-333616
  • Patent Document 7 Japan: Japanese Patent Laid-Open No. 2004-320285
  • Patent Document 8 Japan: JP 2004-180114 A
  • Patent Document 9 Japan: Japanese Unexamined Patent Publication No. 2003-216936
  • Patent Document 10 Japan: Japanese Unexamined Patent Publication No. 2003-189325
  • Patent Document 11 Japan: Japanese Patent Laid-Open No. 2005-27727
  • Patent Document 12 Japan: Japanese Unexamined Patent Publication No. 2003-317084
  • Patent Document 13 Japan: Japanese Patent No. 3264273
  • Non-Patent Document 1 Toshinori Hosoi, Tetsuaki Suzuki, Satoshi Sato, “Face Detection by Generalized Learning Vector Quantization”, IEICE, The Institute of Electronics, Information and Communication Engineers, 2003, Vol. 102, No. 651, p p 47- 52
  • Non-Patent Document 2 Joji Tarima, “Image Engineering Series 10 Color Image Replication Theory of Color Management”, Maruzen Co., Ltd., September 30, 1996, pp. 33- 39
  • Non-Patent Document 3 Color Society of Japan, “New Color Science Handbook”, 2nd edition, The University of Tokyo Press, June 10, 1998, pp. 69- 71
  • An object of the present invention is to overcome the above-described problem and to achieve the desired effect because the conventional white balance correction method cannot achieve satisfactory white balance correction because the degree of freedom in correction is limited S. It is to provide a color correction method.
  • Another object of the present invention is to provide a color correction method that operates as desired.
  • a first object of the present invention is a color correction method for correcting an input image to generate an output image under an illumination condition different from the illumination condition in the input image.
  • a step of restoring the spectral distribution of illumination in the input image using the color information of the region of the specific object in the image and the surface reflectance of the specific object specified in advance, and the restored input image Calculating the spectral distribution of the illumination in the output image using the spectral distribution of the illumination and the spectral distribution of the illumination designated as the target illumination, the color information of each pixel of the input image, and the restored input image
  • a second object of the present invention is a color correction apparatus that corrects an input image to generate an output image under an illumination condition different from the illumination condition in the input image.
  • Spectral distribution restoration means to restore the spectral distribution of the illumination in the input image using color information of the area of the specific target object and the surface reflectance of the specific target specified in advance
  • spectral distribution restoration Spectral distribution calculation means for calculating the spectral distribution of the illumination in the output image using the spectral distribution of the illumination in the input image restored by the means and the spectral distribution of the illumination designated as the target illumination, and each of the input images
  • Output image generation that calculates color information for each pixel of the output image based on pixel color information, the illumination spectral distribution in the restored input image, and the illumination spectral distribution in the calculated output image
  • a color correction apparatus comprising: It is achieved me.
  • the scope of the present invention includes a program for causing a computer to execute each of the image identification methods according to the present invention described above, a program product comprising such a program, A recording medium storing such a program and a transmission medium for transmitting such a program are also included.
  • the calculation accuracy of correction parameters necessary for color correction including white balance correction is improved.
  • the limit of the degree of freedom of color correction that can be achieved only by improving the accuracy of color correction is relaxed, and color correction that works as desired can be realized.
  • FIG. 1 is a flowchart showing a color correction method according to a first embodiment of the present invention.
  • FIG. 2 is a diagram showing an outline of processing for automatically detecting a region of an object and obtaining color information.
  • FIG. 3 is a graph showing spectral characteristics (surface reflectance) of an average Japanese face region.
  • FIG. 4 is a graph showing the average CIE daylight and the first and second principal component vectors.
  • FIG. 5 is a graph showing examples of basis vectors obtained by collecting surface reflectances of objects and analyzing them by principal component analysis.
  • FIG. 6 is a flowchart showing a color correction method according to the second embodiment of the present invention.
  • FIG. 7 is a block diagram showing a first example of a color correction apparatus according to the present invention.
  • FIG. 8 is a block diagram showing a second example of the color correction apparatus according to the present invention.
  • FIG. 9 is a diagram showing an example of a GUI for setting a value adj displayed by the control unit.
  • FIG. 10 is a diagram showing an example of a GUI for setting the function adjw ( ⁇ ) displayed by the control unit.
  • FIG. 11 is a block diagram showing a third example of the color correction apparatus according to the present invention.
  • FIG. 1 shows a processing procedure of a color correction method according to the first embodiment of the present invention.
  • the color system of the image is the RGB color system. That is, the color of the image is represented by a combination of R (red), G (green), and B (blue), and is represented as color information RGB.
  • an area of an object whose color can be roughly specified is detected in some way from an arbitrarily given input image, and color information is extracted.
  • Figure 2 outlines the process of detecting the area of the object and obtaining color information.
  • an area of a face portion in the input image is detected and color information is obtained from the extracted area cover.
  • an object whose color can be specified roughly is one that has no or small color variation and has spectral information in the human visible light region (wavelength 400 nm to 700 nm). desirable.
  • spectral information in the human visible light region wavelength 400 nm to 700 nm.
  • a human face As an object having such characteristics, for example, a human face can be used.
  • Fig. 3 is a graph showing the spectral characteristics (surface reflectance) of the average Japanese face area. As shown in Fig. 3, the spectral characteristics in the human face region have information in the entire visible light region. In addition, the color of the human face area is relatively stable, although there are individual differences.
  • the face region has shape features such as eyes, nose, and mouth.
  • Japanese Unexamined Patent Application Publication No. 2003-317084 detects eyes from an image. A method has been proposed. If the eye position is detected, it is easy to estimate the face area.
  • face detection methods Toshinori Hosoi, Tetsuaki Suzuki, Satoshi Sato, “Face Detection by Generalized Learning Vector Quantization”, IEICE, The Institute of Electronics, Information and Communication Engineers, 2003, Vol. 102, No. 651, The method described in pp. 47-52 (Non-patent Document 1) that combines the Image-based type using generalized learning vector quantization and the Feature-based type for eye detection can also be used.
  • face detection is performed using monochrome information, and the detection of the face area as a result of the detection is further added to improve the detection accuracy of the face area. It is also possible.
  • a skin color determination method a method using an image histogram described in Japanese Patent No. 3264273 can be used.
  • the face detection method that can be used in the present embodiment is not limited to the above two methods, but may use another method.
  • the object is automatically detected by comparing the visual feature information of the object that has been preliminarily memorized with the visual feature information of the image data.
  • a detection method can be used.
  • the method of specifying the area of the object whose color can be specified roughly is specified by interactive processing using GUI (Graphical User Interface), which is not necessarily automatic. May be.
  • GUI Graphic User Interface
  • the color correction method corrects an input image to generate and output an output image under an illumination condition different from the illumination condition in the input image.
  • the color correction method of the first embodiment first, from the given input image, the color information obtained from the target area in the input image, and the color information generally possessed by the target area, FIG.
  • step S1 the spectral characteristics of the illumination in the image scene are restored.
  • the target area the area of a specific target object in the input image detected as described above is used.
  • the surface reflectance that is specified in advance for a specific object is used as will be described later.
  • the color information obtained from the target region in the input image is represented by tristimulus values XYZ in the XYZ color system.
  • Each pixel in the input image is represented by an RGB value.
  • the chromaticity and white chromaticity of the RGB phosphors used to display the input image are specified in advance.
  • the following explanation assumes that the relationship with the light output is linear. In this case, the relationship between the RGB value of the input image and the tristimulus values XYZ is expressed by the following equation (1).
  • RX is a 3 ⁇ 3 transformation matrix.
  • the conversion matrix RX can be calculated uniquely if the chromaticity of each phosphor of RGB and the chromaticity of white are determined.
  • Joji Tarima “Image Engineering Series 10 Color Image Replication Theory of Color Management”, Maruzen Co., Ltd., September 30, 1996, pp. 33—39
  • the method disclosed in Patent Document 2 can be used.
  • This document describes a method for calculating the transformation matrix RX in the relational expression between the RGB of the input image and the tristimulus values XYZ.
  • illumination in an image scene is illumination (light source) that illuminates an object in the image.
  • the tristimulus values XYZ corresponding to the RGB values of the image are expressed by the following equations (2) to (4) from the surface reflectance of the object, the spectral distribution of the illumination that illuminates the object, and the color matching function of human vision. Is done.
  • is the wavelength
  • ⁇ ( ⁇ ) is the spectral distribution of illumination in the input image
  • R (X) is the surface reflectivity of the object.
  • ⁇ ( ⁇ ), ⁇ ( ⁇ ), and ⁇ ( ⁇ ) are color matching functions and are known functions. Integration is performed over the visible wavelength range.
  • Equations (2) to (4) give the observation equations for unknown properties ⁇ ( ⁇ ) and R (): Become. However, in this situation, the unknown characteristics I ( ⁇ ) and R ( ⁇ ) cannot be calculated using Equation (3)!
  • Equations (2) to (4) are observation equations only for I ( ⁇ ).
  • the surface reflectance R ′ ( ⁇ ) of the Japanese face region having the average skin color illustrated in FIG. 3 is expressed by the equations (2) to (4). It can be used as R ().
  • the average or representative surface reflectance of the target should be determined and substituted into R ( ⁇ ) in equations (2) to (4). .
  • CIE Daylight is the CIE (International Commission on Lighting
  • Illumination is a colorimetric light source defined by a relative spectral distribution, and is well known to be well approximated by a linear sum of an average and two principal components.
  • Figure 4 is a graph showing the average CIE daylight and the first and second principal component vectors. From this, the spectral distribution I ( ⁇ ) of illumination can be expressed as follows.
  • ⁇ ( ⁇ ) ⁇ 0 ( ⁇ ) + ⁇ 1 ⁇ 1 ( ⁇ + ⁇ 2 ⁇ )... (5)
  • step S2 from the distribution of light I ( ⁇ ) of the target illumination preliminarily set as the correction target and the spectral distribution I ( ⁇ ) estimated as the illumination in the image scene.
  • Real target org Real target org
  • Spectral distributions such as D65 and D55, spectral distributions of illumination whose correction results have been improved empirically, and spectrals with an illumination color for the purpose of changing the color of the entire image instead of white balance Distributions can be used, and spectral distributions other than these can also be used.
  • the spectral distribution of the target illumination can be determined as a desired spectral distribution by the user.
  • ad] is the spectral distribution I ( ⁇ ) of the target illumination
  • aa] may be calculated.
  • Equation (6) adj is a real coefficient for controlling the mixing amount of I ( ⁇ ) and I ( ⁇ ).
  • target A function in the visible light region with a real value for controlling the amount of mixing.
  • step S3 the surface reflectance of the object at each pixel of the input image is obtained.
  • equation (1) calculate the RGB power tristimulus value XYZ of each pixel of the image, Assign to the left side of) to (4).
  • spectral distribution I ( ⁇ ) of the illumination in the image scene calculated in step S1 into the right side of Equations (2) to (4), Equations (2) to (4)
  • the virtual surface reflectivity R "( ⁇ ) of the object is also represented by an infinite dimensional waveform in the visible light region, similar to the spectral distribution of illumination, this can also be expressed analytically using equations (2) to (4) Therefore, the virtual surface reflectivity R ′′ ( ⁇ ) of the object is modeled as follows using a finite-dimensional linear model expressed by a weighted sum of low-dimensional basis vectors.
  • FIG. 5 is a graph showing an example of basis vectors obtained by collecting surface reflectances of objects and analyzing them by principal component analysis.
  • step S4 the corrected color in each pixel of the input image is calculated.
  • Equations (2) to (4) the spectral distribution I ( ⁇ ) of the illumination used for correction calculated in Step S2 is substituted.
  • the color correction method in the second embodiment is a correction process (conversion process) to the tristimulus values X′ ⁇ ′ ⁇ , performed in steps S3 and S4 of the color correction method in the first embodiment.
  • This is a method of providing a correction result equivalent to the color correction method of the first embodiment by replacing the above with the matrix conversion shown in step S5.
  • the processing in steps SI and S2 is the same as that in the first embodiment, so that the description thereof will be omitted and step S5 will be described.
  • step S5 After the completion of step S2, in step S5, first, a model is generated using a finite-dimensional linear model that represents the virtual surface reflectance R "( ⁇ ) of the object V and a weighted sum of low-dimensional basis vectors. To obtain the above formula (8).
  • Equation (15) can be summarized as the following equation (16).
  • the matrix ⁇ is a 3X3 matrix expressed by the following equation (17)
  • the matrix B is a 3 X 1 matrix expressed by the following equation (18), both of which are constant matrices: Become.
  • A y, r t ) N (y, r 2 ) N (y, r 3 ) M (y, r,) M (y, r 2 ) M (y, r 3 ) (17) N ⁇ z, r x ) N (z, r 2 ) N (z, r 3 ) M (z, r,) M (z, r 2 ) M (z, r 3 )
  • step S5 color correction processing according to the equation (16) is performed on all the pixels in the input image, and the image converted into device-dependent color is output as an output image.
  • the device-dependent color means a color space that depends on the output destination device.
  • the device-dependent color power of the input image and the output image is 3 ⁇ 4 GB.
  • the device-dependent color is a device-dependent color other than RGB, such as CMY or CMYK
  • the device-dependent color The color correction method of the present invention can be applied to images other than RGB as long as the correspondence between color and device-independent color three-stimulus value XYZ can be obtained.
  • FIG. 7 shows a first example of a color correction apparatus according to the present invention.
  • the illustrated color correction apparatus 100 is an apparatus that performs color correction on an input image 1 and outputs an output image 2 based on the color correction method of the first embodiment described above. Specifically, the color correction apparatus 100 corrects the input image 1 to generate and output an output image 2 under illumination conditions different from the illumination conditions in the input image 1.
  • the color correction apparatus 100 is given in advance the input image 1 and the color information 3 of the target area in which a rough color in the input image 1 can be specified.
  • the target area for example, a specific target area in the input image 1 is used, and the surface reflectance of the specific target object is given to the intensified color correction apparatus 100.
  • the specific object such as a human face, can limit the color of the object to some extent.
  • the color correction apparatus 100 uses the color information 3 of the area of the specific object in the input image 1 and the surface reflectance of the specific object specified in advance.
  • Spectral distribution restoration unit 4 that restores the spectral distribution of illumination
  • object surface reflectance memory 5 in which the surface reflectance of the object is stored in advance
  • color information and spectral distribution restoration unit 4 for each pixel of the input image
  • the surface reflectance recovery unit 6 that restores the surface reflectance at each pixel using the spectral distribution of the illumination restored by, and the spectral distribution of the illumination restored by the spectral distribution restoration unit 4 and the target illumination.
  • the spectral distribution calculation unit 7 that calculates the spectral distribution of the illumination in the output image 2 using the spectral distribution of the illuminated illumination, the spectral distribution memory 8 that stores the spectral distribution of the target illumination in advance, and the surface reflectance recovery unit Surface reflectance at each pixel restored by 6
  • an image correction unit 9 that calculates color information of each pixel of the output image 2 using the spectral distribution of illumination in the output image 2 calculated by the spectral distribution calculation unit 7.
  • the spectral distribution restoration unit 4 receives the color information of the given target area and the target area stored in the target surface reflectance memory 5.
  • the spectral distribution of illumination in the input image 1 is obtained by using the typical or representative surface reflectivity and equation (5) that models the spectral characteristics of the illumination. Restore as.
  • the spectral distribution calculation unit 7 calculates the spectral distribution of the illumination in the output image that is necessary when generating the corrected image.
  • the spectral distribution calculation unit 7 uses the spectral distribution of the illumination in the input image restored by the spectral distribution restoration unit 4 and the spectral distribution of the target illumination stored in advance in the spectral distribution memory 8 as an output image.
  • the spectral distribution of illumination is calculated using Eqs. (6) and (7).
  • the surface reflectance restoring unit 6 restores the surface reflectance of the object at each pixel on the image from the spectral distribution of illumination in the restored input image and the pixel value of the input image data.
  • the method described in the first embodiment may be used.
  • the image correction unit 9 uses the surface reflectance of the object in each pixel on the image and the spectral distribution of illumination in the output image to calculate the tristimulus values XYZ according to equations (10) to (12). calculate . Then, the image correction unit 9 converts the output image into a device-dependent color (for example, RGB) and outputs it as an output image 2.
  • a device-dependent color for example, RGB
  • the spectral distribution restoring unit 4 the object surface reflectance memory 5, the surface reflectance restoring unit 6, the spectral distribution calculating unit 7, the spectral distribution memory 8, and the image correcting unit 9 are respectively provided. It may be provided as an individual device, or may be realized by a CPU that operates according to a program. In that case, the program is stored in a storage device connected to the CPU. In other words, this color correction apparatus can be configured using a computer equipped with a storage device.
  • FIG. 8 shows a second example of the color correction apparatus according to the present invention.
  • a color correction apparatus 101 shown in FIG. 8 is obtained by adding a control unit 10 to the color correction apparatus 100 shown in FIG.
  • the control unit 10 controls the user to specify the value adj or the function adjw (), and outputs the adj value or adjw ( ⁇ ) function specified by the user to the spectral distribution calculation unit 7. To do.
  • the value adj or the function adjw ( ⁇ ) is used to control the amount of mixture of the input image illumination spectral distribution and the desired target illumination spectral distribution when the spectral distribution calculation unit 7 calculates the illumination spectral distribution of the output image.
  • FIG. 9 shows an example of a GUI (Graphical User Interface) that the control unit 10 displays for the user in order to cause the user to set the value adj.
  • GUI Graphic User Interface
  • the user can adjust the value of adj by moving the displayed slide bar 20 using a pointing device such as a mouse.
  • FIG. 10 shows an example of a GUI displayed by the control unit 10 to the user in order to cause the user to set the function adjw ().
  • the user can adjust the waveform of adjw ( ⁇ ) passing through the control point 21 by moving the displayed control point 21 up and down using a mouse operation or the like.
  • adjw ( ⁇ ) passing through the control point 21 the function values at wavelengths other than the control point can be easily calculated by using spline interpolation or Lagrangian interpolation.
  • the control point 21 has 5 points. The number of control points is arbitrary. Further, the control point 21 may be added or deleted.
  • adj and adjw ( ⁇ ) can be specified in the range of 0 to 1.0, but the settable range is limited to 0 to 1.0. It is only necessary to be able to specify a real value rather than a thing.
  • the control unit 10 reflects adj or adjw ( ⁇ ) adjusted by the user in the spectral distribution calculation unit 7.
  • the control unit 10 has a function that allows the user to specify the color of the user's desired illumination as the target illumination.
  • a correlated color temperature may be used.
  • the spectral distribution can be calculated from the correlated color temperature of CIE daylight.
  • Correlated color temperature force Spectral distribution is calculated by the Japan Society of Color Science, “New Color Science Nord Book”, 2nd edition, The University of Tokyo Press, June 10, 1998, pp. 6 9-71 (Non-Patent Document 3).
  • the control unit 10 may give the target illumination color in chromaticity.
  • the control unit 10 may give the spectral distribution of the target illumination in a file specifying the power at each wavelength.
  • the color correction apparatus shown in FIG. 8 can also be configured by a computer controlled by a program, similarly to the color correction apparatus shown in FIG.
  • FIG. 11 shows a third example of the color correction apparatus according to the present invention.
  • the illustrated color correction device 102 is a device that performs color correction on the input image 1 based on the color correction method of the second embodiment described above, and outputs the output image 2.
  • the color correction device 102 replaces the surface reflectance recovery unit 6 and the image correction unit 9 in the color correction device 100 shown in FIG. 7 with the basis vectors used when modeling the surface reflectance of each pixel, and the restoration.
  • Matrix conversion image correction unit that calculates color information of each pixel of the output image using a constant matrix calculated from the spectral distribution of illumination in the input image 1 and the spectral distribution of illumination in the output image 1 1 Is provided.
  • the color correction apparatus 100 shown in FIG. This is done in the same way as Next, the matrix conversion image correction unit 11 performs the illumination spectral distribution in the input image restored by the spectral distribution restoration unit 4 and the illumination spectral distribution in the output image calculated by the spectral distribution calculation unit 7. And input image 1 are given, step S5 in FIG. 6 is executed to calculate equation (16). Then, the color correction processing according to the equation (16) is performed on all the pixels of the input image 1 to convert to device-dependent colors, and the output image 2 is output.
  • the spectral distribution restoration unit 4 the object surface reflectance memory 5, the spectral distribution calculation unit 7, the spectral distribution memory 8, and the matrix conversion image correction unit 11 are respectively separate devices. It may be provided, or may be realized by a CPU that operates according to a program. Therefore, this color correction apparatus can be configured using a computer. Furthermore, as a fourth example of the color correction device according to the present invention, the surface reflectance restoration unit 6 and the image correction unit 9 of the color correction device 101 shown in FIG. A replacement color correction device can be easily realized. This color correction apparatus can also be configured by a computer controlled by a program.
  • the present invention can be applied to an application for executing color correction including white balance in a color image input / output device. Further, the present invention can be used as color correction software or a utility for an arbitrary color image by adopting a program that operates in a computer system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

 入力画像を補正して入力画像とは異なる照明条件での出力画像を生成する色補正方法は、入力画像中の特定の対象物の領域の色情報とあらかじめ指定された特定の対象物の表面反射率とを用いて、入力画像での照明の分光分布を復元するステップと、復元された照明の分光分布と指定された目標照明の分光分布とを用いて、出力画像での照明の分光分布を算出するステップと、入力画像の各画素の色情報と、復元された入力画像での照明の分光分布と、算出された出力画像での照明の分光分布とに基づいて、出力画像の各画素の色情報を算出するステップと、を備える。

Description

色補正方法および色補正装置
技術分野
[0001] 本発明は、カラー画像の色補正を行う方法および装置に関し、特に、ホワイトバラン ス補正を含んだ色補正方法および色補正装置に関する。
背景技術
[0002] デジタル画像の画質改善を実現するために、画像の色補正方法が提案されている 。特に、デジタルカラー画像の色補正においては、ホワイトバランスの調整は重要で あり、ホワイトバランスの調整を含む色補正方法として、様々な手法が提案されている 。例えば、特開 2001— 148863号公報 (特許文献 1)には、画像のヒストグラムを利 用してあら力じめ算出したホワイトバランスのパラメータを画像中の肌色領域に適用し 、好ま 、肌色になるかどうかを基準にパラメータを決定する方法が記載されて 、る。 なお、好ましい肌色にならない場合については、未処理すなわち色補正を行わない こととなる。特開平 11— 289548号公報 (特許文献 2)、特開平 3— 148989号公報( 特許文献 3)、特開昭 62— 265885号公報 (特許文献 4)においても、画像のヒストグ ラムを利用してホワイトバランスの補正を実現する方法が記載されて 、る。
[0003] 特開 2003— 224867号公報 (特許文献 5)には、画像のヒストグラムを利用してカラ 一画像中のグレイの領域のみを抽出し、あるいは肌色の領域のみを抽出し、あるい はグレイの領域と肌色の領域を抽出し、抽出された領域の色情報を用いて光源の色 温度を推定し、推定された色温度に基づいて、以下の補正式を用いてカラー画像の 画像信号のホワイトバランスを補正する方法が記載されている。
[0004] R, = a R •••(A1)
G, = j8 G •••(A2)
' = y β 〜(Α3)
[0005] ここで、 R, G, Bは入力画像の画素での RGB値を示し、 R,, G,, B,は出力画像の 画素での RGB値を示し、 α , β , γは補正に用いる係数である。
[0006] 同様に特開 2003— 333616号公報 (特許文献 6)には、画像中の肌色などの有彩 色の領域や、本来白色であったであろう領域を、画像のヒストグラム解析によって求 め、その領域の色情報を 1つあるいは複数組み合わせて光源の色温度を推定し、ホ ワイトバランス補正を実現する方法が記載されて 、る。
[0007] 上記の従来技術では、画像中の肌色などの有彩色の領域と、グレイや白の無彩色 の領域とに着目して、ホワイトバランスを補正する際に使用するパラメータを決定する ために必要となる画像中の注目領域を、画像のヒストグラム解析によって求めている。
[0008] さらに、画像中の注目領域として顔領域を検出することにより画質を補正する手法 が提案されている。例えば、特開 2004— 320285号公報 (特許文献 7)では、デジタ ルスチルカメラの撮影画像の画質を向上させる手法として、画像中の顔領域の大きさ や数に応じて、デジタルカメラのシャッタースピードや AF (Auto focus)の動作を制 御する方法が記載されるとともに、顔領域の輪郭強調処理や肌色処理について触れ られている。しかし、肝心の肌色処理については、具体的な処理方法が開示されて いない。
[0009] 特開 2004— 180114号公報 (特許文献 8)には、カラー画像中の色情報のみをもと に検出した顔領域において、肌色を良く見せるための色補正方法が記載されている 。特開 2003— 216936号公報 (特許文献 9)には、入力画像から人物の顔部品を検 出して配置情報を取得し、人物領域とその他の領域との境界を設定し、それぞれの 領域毎に適したホワイトバランスおよび彩度の補正を施す手法が記載されて 1ヽる。特 開 2003— 189325号公報 (特許文献 10)には、顔領域の色情報をホワイトバランス 演算に使用しな 、と 、う方法が記載されて 、る。
[0010] 特開 2005— 27277号公報 (特許文献 11)には、画像中の人の顔領域の場所を決 定し、決定した顔領域から得られる肌色が、既知の肌色の範囲とほぼ一致するように 、画像から得られた肌色を変更するための補正係数を決定し、この補正係数を用い て画像のホワイトバランス調整を行う方法が記載されている。しかし、特開 2005— 27 277号公報では、肝心の補正方法については、グレイワールド仮説や白色点推定な どの方法を用いるとの記載がされて 、るが、具体的な手法にっ 、ては説明されて ヽ ない。
[0011] なお、特開 2003— 317084号公報 (特許文献 12)には、画像中から目を検出する 方法が記載されている。また、特許 3264273号公報 (特許文献 13)には、ヒストグラ ムを利用して肌色を判定する方法が記載されて 、る。
[0012] 以下、本明細書中に引用した参考文献を列挙する。
特許文献 1 :日本国:特開 2001— 148863号公報
特許文献 2 :日本国:特開平 11— 289548号公報
特許文献 3 :日本国:特開平 3— 148989号公報
特許文献 4:日本国:特開昭 62— 265885号公報
特許文献 5 :日本国:特開 2003— 224867号公報
特許文献 6 :日本国:特開 2003— 333616号公報
特許文献 7 :日本国:特開 2004— 320285号公報
特許文献 8 :日本国:特開 2004— 180114号公報
特許文献 9 :日本国:特開 2003— 216936号公報
特許文献 10 :日本国:特開 2003— 189325号公報
特許文献 11 :日本国:特開 2005— 27277号公報
特許文献 12 :日本国:特開 2003— 317084号公報
特許文献 13 :日本国:特許 3264273号公報
非特許文献 1 :細井利憲、鈴木哲明、佐藤敦, 「一般化学習ベクトル量子化による顔 検出」,信学技法,社団法人電子情報通信学会, 2003年, Vol. 102, No. 651, p p. 47- 52
非特許文献 2 :田島譲二著, 「画像工学シリーズ 10 カラー画像複製論 カラーマネ ジメントの基礎」,丸善株式会社,平成 8年 9月 30日, pp. 33- 39
非特許文献 3 :日本色彩学会編, 「新編 色彩科学ハンドブック」,第 2版,財団法人 東京大学出版会, 1998年 6月 10日, pp. 69- 71
発明の開示
発明が解決しょうとする課題
[0013] 従来技術におけるホワイトバランス補正では、画像を RGBの三原色で表現したとき に R成分、 G成分、 B成分のバランスを整えることを目的として、式 (A1)〜 (A3)にし たがって R, G, B独立にそれぞれの比率を補正する処理が用いられている。しかし、 この場合、補正の自由度に限界があるため、満足なホワイトバランスの補正を実現で きないという課題がある。
[0014] 本発明の目的は、従来のホワイトバランス補正方法における、補正の自由度に限界 力 Sあるため満足なホワイトバランスの補正を実現できな 、と 、う課題を克服し、所望の 通り作用する色補正方法を提供することにある。
[0015] 本発明の別の目的は、所望の通り作用する色補正方法を提供することにある。
課題を解決するための手段
[0016] 本発明の第 1の目的は、入力画像を補正して入力画像における照明条件とは異な る照明条件での出力画像を生成する色補正方法であって、あらかじめ与えられた入 力画像中の特定の対象物の領域の色情報とあらかじめ指定されたその特定の対象 物の表面反射率とを用いて、入力画像での照明の分光分布を復元するステップと、 復元された入力画像での照明の分光分布と目標照明として指定された照明の分光 分布とを用いて、出力画像での照明の分光分布を算出するステップと、入力画像の 各画素の色情報と、復元された入力画像での照明の分光分布と、算出された出力画 像での照明の分光分布とに基づいて、出力画像の各画素の色情報を算出するステ ップと、を備える、色補正方法によって達成される。
[0017] 本発明の第 2の目的は、入力画像を補正して入力画像における照明条件とは異な る照明条件での出力画像を生成する色補正装置であって、あらかじめ与えられた入 力画像中の特定の対象物の領域の色情報とあらかじめ指定された特定の対象物の 表面反射率とを用いて、入力画像での照明の分光分布を復元する分光分布復元手 段と、分光分布復元手段によって復元された入力画像での照明の分光分布と目標 照明として指定された照明の分光分布とを用いて、出力画像での照明の分光分布を 算出する分光分布計算手段と、入力画像の各画素の色情報と、復元された入力画 像での照明の分光分布と、算出された出力画像での照明の分光分布とに基づいて、 出力画像の各画素の色情報を算出する出力画像生成手段と、を備える色補正装置 によって達成される。
[0018] 本発明の範疇には、前述した本発明による各画像識別方法をコンピュータに実施 させるためのプログラムや、そのようなプログラムからなるプログラムプロダクト、そのよ うなプログラムを格納した記録媒体、そのようなプログラムを伝送する伝送媒体も含ま れる。
[0019] 本発明によれば、ホワイトバランス補正を含む色補正に必要な補正パラメータの算 出精度が向上する。これにより、色補正の精度が向上するだけでなぐ色補正の自由 度の限界が緩和され、所望の通りに作用する色補正が実現できる。
図面の簡単な説明
[0020] [図 1]本発明の第 1の実施形態の色補正方法を示すフローチャートである。
[図 2]対象物の領域を自動検出し、色情報を求める処理の概略を示す図である。
[図 3]平均的な日本人の顔領域の分光特性 (表面反射率)を示すグラフである。
[図 4]CIE昼光の平均および第 1、第 2主成分ベクトルを示すグラフである。
[図 5]物体の表面反射率を集め、それらを主成分分析して得られる基底ベクトルの例 を示すグラフである。
[図 6]本発明の第 2の実施形態の色補正方法を示すフローチャートである。
[図 7]本発明による色補正装置の第 1の例を示すブロック図である。
[図 8]本発明による色補正装置の第 2の例を示すブロック図である。
[図 9]制御部によって表示される、値 adjを設定するための GUIの例を示す図である。
[図 10]制御部によって表示される、関数 adjw( λ )を設定するための GUIの例を示す 図である。
[図 11]本発明による色補正装置の第 3の例を示すブロック図である。
符号の説明
1 入力画像
2 出力画像
3 対象領域の色情報
4 分光分布復元部
5 対象物表面反射率メモリ
6 表面反射率復元部
7 分光分布計算部
8 分光分布メモリ 9 画像補正部
10 制御部
11 行列変換画像補正部
20 スライドバー
21 制御点
100〜102 色補正装置
発明を実施するための最良の形態
[0022] 第 1の実施形態:
図 1は、本発明の第 1の実施形態での色補正方法の処理手順を示している。ここで は、説明の便宜上、画像の表色系は RGB表色系であるものとする。すなわち、画像 の色は、 R (赤)、 G (緑)、 B (青)の組み合わせで表わされるものとし、色情報 RGBと 表記するものとする。
[0023] 色補正を実施するためには、色補正のためのパラメータをより精度よく決定する必 要がある。まず、任意に与えられた入力画像から、色を大まかに特定できる対象物の 領域をあらかじめなんらかの方法で検出し、色情報を抽出しておく。図 2は、対象物 の領域を検出し、色情報を求める処理の概略を示している。ここでは、入力画像の中 カゝら顔の部分を領域を検出し、抽出された領域カゝら色情報を得ることが示されている 。ここで、色を大まかに特定できる対象物としては、色の変動がないかまたは小さいも のであって、人間の可視光領域(波長 400nm〜700nm)において分光情報を有す るものであるものが望ましい。さらに、色だけでなぐ形状や模様などに特徴を有する ものであれば、その領域の特定が容易になる。
[0024] このような特徴を有する対象物として、例えば、人間の顔を利用することができる。
図 3は、平均的な日本人の顔領域の分光特性 (表面反射率)を示すグラフである。図 3に示すように、人間の顔領域における分光特性は、可視光領域全般にわたって分 光的に情報を有する。また、人間の顔領域の色に関しては、個人差はあるものの比 較的安定していると言える。
[0025] 当然であるが、顔領域は、目、鼻、口などの形状特徴を有する。入力画像から顔領 域を検出する方法として、特開 2003— 317084号公報に、画像中から目を検出する 方法が提案されている。目の位置が検出されれば、顔領域を推定することは容易で ある。また顔検出方法として、細井利憲、鈴木哲明、佐藤敦, 「一般化学習ベクトル量 子化による顔検出」,信学技法,社団法人電子情報通信学会, 2003年, Vol. 102 , No. 651 , pp. 47— 52 (非特許文献 1)に記載された、一般化学習ベクトル量子化 を用いた Image— based型と目の検出を行う Feature— based型とを組み合わせた 方法なども利用できる。
[0026] 上記 2つの手法において、モノクロ情報を利用して顔検出を行い、さらにその検出 結果である顔領域が肌色であるかの判定を追加することによって、顔領域の検出精 度を向上させることも可能である。肌色の判定方法については、特許 3264273号公 報に記載の画像ヒストグラムを利用した手法を利用することができる。本実施形態で 利用できる顔検出方法は、上記の 2つの手法に限ったものではなぐ別の手法を利 用してちょい。
[0027] 上記の説明では、任意に与えられた入力画像中の、色を大まかに特定できる対象 物を、顔とした場合について述べた力 顔以外のものを対象物とすることも可能であ る。顔以外の対象物を自動検出するためには、例えば、あら力じめ記憶されている対 象物の視覚的特徴情報と、画像データの視覚的特徴情報とを比較することによって 対象物を自動検出する方法などを利用することができる。任意に与えられた入力画 像中の、色を大まかに特定できる対象物の領域の指定方法は、必ずしも自動的でな くてもよぐ GUI (Graphical User Interface)を用いた対話処理で指定してもよい 。そして、入力画像中の上記対象物の領域における色情報として、対象物が占める 領域内に存在する画素の平均色、中央色 (メジアン)、最頻色 (モード)などを利用す ればよい。
[0028] 本発明に基づく色補正方法は、入力画像を補正して、入力画像における照明条件 とは異なる照明条件での出力画像を生成し、出力するものである。第 1の実施形態の 色補正方法では、まず、与えられた入力画像とその入力画像中の対象領域から得ら れた色情報と、その対象領域が一般的に有する色情報とから、図 1のステップ S1に おいて、画像情景中の照明の分光特性を復元する。対象領域としては、上述のよう にして検出された、入力画像中の特定の対象物の領域が用いられる。そして、対象 領域が一般的に有する色情報としては、後述するように、特定の対象物についてあら 力じめ指定されて 、る表面反射率が用いられる。
[0029] 入力画像中の対象領域から得られる色情報は、 XYZ表色系の三刺激値 XYZで表 わされているとする。入力画像の各画素は RGB値によって表わされている力 入力 画像を表示するための RGB各色の蛍光体の色度および白色の色度はあらかじめ指 定されており、 RGB値データと表示機器の発光出力との関係が線形であるものとして 説明する。この場合、入力画像の RGB値と三刺激値 XYZとの関係は、以下の式(1) で表わされる。
[0030] [数 1]
Figure imgf000010_0003
[0031] ここで、 RXは 3 X 3の変換行列である。変換行列 RXは、 RGBの各色の蛍光体の色 度と白色の色度が決まれば一意に計算できる。変換行列 RXの算出方法として、例え ば、田島譲二著, 「画像工学シリーズ 10 カラー画像複製論 カラーマネジメントの基 礎」,丸善株式会社,平成 8年 9月 30日, pp. 33— 39 (非特許文献 2)に開示された 方法を用いることができる。この文献には、入力画像の RGBと三刺激値 XYZとの関 係式における変換行列 RXの算出方法が記載されている。
[0032] 次に、 XYZ表色系に基づく物体の色を示す三刺激値 XYZから、入力画像の情景 中の照明の分光特性を復元する。なお、画像情景中の照明とは、その画像中の物体 を照射する照明(光源)のことである。画像の RGB値に対応する三刺激値 XYZは、 その物体の表面反射率、その物体を照射する照明の分光分布および人間視覚の等 色関数から、以下の式 (2)〜 (4)で表現される。
[0033] [数 2]
Figure imgf000010_0001
Y = jl(A)R(A)y(A dA ■■■ (3)
Z = ■■■ (4)
Figure imgf000010_0002
[0034] ここで、 λは波長、 Ι(λ)は入力画像での照明の分光分布、 R(X)は物体の表面反 射率である。 χ(λ), γ(λ), ζ(λ)は等色関数であって、既知の関数である。積分は 可視光の波長領域にわたって行われる。
[0035] 既に算出した三刺激値 ΧΥΖを式(2)〜 (4)の左辺に代入すると、式(2)〜 (4)は、 未知特性 Ι(λ)および R( )についての観測方程式となる。し力しながら、このままで は、未知特性 I ( λ )および R ( λ )を式 (3)力も計算することはできな!、。
[0036] ある程度の誤差を含んだ状態であっても、対象物の色を示す表面反射率 R( λ )を あら力じめ限定あるいは決定できるのであれば、 R( )は既知の値となり、式(2)〜( 4)は I ( λ )のみの観測方程式となる。例えば、対象物を日本人の顔とした場合には、 図 3に例示する平均的な肌色を有する日本人の顔領域の表面反射率 R' ( λ )を、式 (2)〜 (4)の R( )として用いることができる。対象物が顔以外の場合であっても、そ の平均的または代表的な表面反射率をあら力じめ求めておき、式(2)〜 (4)の R( λ ) に代入すればよい。
[0037] 本来、照明の分光分布 Ι(λ)は、可視光領域において無限次元の波形で表わされ るため、 I ( λ )を式(2)〜 (4)から解析的に計算することはできな!、。
[0038] ところで、 CIE昼光は、 CIE (国際照明委員会; International Commission on
Illumination)が相対分光分布によって規定した測色用の光源であって、平均と 2 つの主成分との線形和でよく近似されることが知られている。図 4は、 CIE昼光の平 均および第 1、第 2主成分ベクトルを示すグラフである。このことから、照明の分光分 布 I ( λ )を以下のように表わすことができる。
[0039] [数 3]
Ι(Λ) = Ι0(λ) + α1Ι1(λ + ^2^) … (5)
[0040] 式(5)に示す I ( λ ) (i=0〜2)は、図 4に示す照明の平均および基底ベクトルであ る。 a (i=l〜2)は、各基底ベクトルの重み係数であって、照明の色を表現する特性 ノ ラメータとなる。
[0041] 式 (5)に示す I ( λ )を式 (2)〜 (4)に代入すると、照明の色を表現する未知の特性 ノラメータ aおよび aに関する 2元一次連立方程式となり、容易に a , aを計算するこ とができる。得られた照明の色を表現する特性パラメータ a , aを式(5)に代入するこ とによって、画像情景中の照明の分光分布が得られる。以上の手順にて得られた画 像情景中の照明の分光分布を I (λ)
org とする。
[0042] 次に、ステップ S2において、補正の目標としてあら力じめ設定された目標照明の分 光分布 I ( λ )と、画像情景中の照明として推定された分光分布 I ( λ )とから、実 target org
際に画像の色を補正する際に用いる照明の分光分布 I (λ)
adj を算出する。ここで、補 正の目標としてあらかじめ設定する目標照明の分光分布 I (λ)
target として、標準光源
D65や D55などの分光分布や、経験的に補正結果がよくなることがわ力つている照 明の分光分布や、ホワイトバランスではなく画像全体の色変更の効果を目的とした照 明色を有する分光分布などを用いることができ、さらにはこれら以外の分光分布を用 いることもできる。目標照明の分光分布は、利用者によって所望の分光分布として定 められることができるちのである。
[0043] I (λ)
ad] には、目標照明の分光分布 I (λ)
target をそのまま用いてもよい。さらに、以下 の式 (6)に示すように、画像情景中の照明として推定された分光分布 I ( λ )と、目
org
標照明の分光分布 I ( λ )
target とを混合して、実際に画像の色を補正する際に用いる 照明の分光分布 I (λ)
aa] を算出してもよい。
[0044] [数 4]
(^) = 0 Iorg (Λ) + adj xltareet (λ) … (6)
[0045] 式 (6)において、 adjは、 I ( λ )と I ( λ )の混合量を制御するための実数係数
org target
である。さらに、画像情景中の照明として推定された分光分布 I (λ)
org と、目標照明 の分光分布 I ( λ )との混合量を各波長ごとに制御できるように、
target
[0046] [数 5] ( ) = ( )-" )X。 +a W (ス) … (7)
[0047] としてもよい。ここで、 F( λ )は可視光領域で 1.0となる定波形であり、 adjw(l )は、 各波長で I (λ)
org と I (λ)の
target 混合量を制御するための実数値を有する可視光領 域における関数である。
[0048] 次に、ステップ S3において、入力画像の各画素における物体の表面反射率を求め る。式(1)にしたがって、画像の各画素の RGB値力 三刺激値 XYZを計算し、式(2 )〜 (4)の左辺に代入する。そして、ステップ S1において計算された画像情景中の照 明の分光分布 I ( λ )を式 (2)〜 (4)の右辺に代入すると、式 (2)〜 (4)は表面反射
org
率 R ( λ )に関する観測方程式となる。
[0049] 物体の仮想表面反射率 R" ( λ )も、照明の分光分布と同様に可視光領域において 無限次元の波形で表わされるため、これを式 (2)〜 (4)力も解析的に計算することは できない。そこで、物体の仮想表面反射率 R" ( λ )について、低次元の基底ベクトル の加重和で表わす有限次元線形モデルを用いて以下のようにモデル化する。
[0050] [数 6]
R" ( ) = r0 ( ) + b,rx ( ) + b2r2 (λ) + b,r, {λ) (8)
[0051] 図 5は、物体の表面反射率を集め、それらを主成分分析して得られる基底ベクトル の例を示すグラフである。式 (8)に示す r ( λ ) (i=0〜3)は、多くの物体の表面反射 率を集め、それを主成分分析して得られる基底ベクトルであり、それぞれ平均、第 1 〜第 3主成分ベクトルを表わしており、すべて既知である。 b (i=0〜3)は、各基底べ タトルの重み係数であり、物体の色を表現する未知の特性パラメータとなる。
[0052] 式 (8)に示す R"( )を、表面反射率 R( )に関する観測方程式に代入すると、物 体の色を表現する未知の特性パラメータ b〜bに関する以下の 3元一次連立方程式
1 3
(9)を得ることができ、 b〜bを求めることができる。
1 3
[0053] [数 7]
Figure imgf000013_0001
[0054] ここで、 M(x, r) (i=0〜3)は、 J I ( )r (λ)Χ(λΜえの積分項を表わす。 y, i org l
Zについても同様である。画像中の全ての画素に対し、以上の処理を施すことによつ て、画像情景中全ての物体の表面反射率が求められる。
[0055] 次に、ステップ S4において、入力画像の各画素における補正後の色を算出する。
式 (2)〜 (4)に、ステップ S2で算出した補正時に用いる照明の分光分布 I ( λ )を代
adj 入することにより、補正後の三刺激値 X'Y'Z,およびステップ S3で算出した物体の 仮想表面反射率 R" ( λ )についての式(10)〜(12)を得る。
[0056] [数 8]
Figure imgf000014_0001
r= ladJ ( )R"(A)y(A)d … (1 1 )
Figure imgf000014_0002
[0057] 式(1)における変換行列 RXの逆行列を RX_1とすると、補正後の三刺激値 X' Y' Z
,は、以下のようにカラー画像の色情報 R' G' B'に変換することができる。
[0058] [数 9]
Figure imgf000014_0003
[0059] 入力画像中の全画素に対して上記の処理を行うことによって、所望の色に補正され た出力画像を得ることができる。
[0060] 第 2の実施形態:
次に、図 6を用いて、本発明の第 2の実施形態の色補正方法を説明する。第 2の実 施形態における色補正方法は、第 1の実施形態の色補正方法のステップ S3, S4で 行われる三刺激値 ΧΥΖカゝら X' Υ' Ζ,への補正処理 (変換処理)をステップ S5に示す 行列変換に置き換えることによって、第 1の実施形態の色補正方法と同等の補正結 果をもたらす方法である。図 6において、ステップ SI, S2の処理は、第 1の実施形態 の場合と同様の処理であるので説明を省略し、ステップ S5について説明する。
[0061] ステップ S2の終了後、ステップ S5では、まず、物体の仮想表面反射率 R" ( λ )につ V、て、低次元の基底ベクトルの加重和で表わす有限次元線形モデルを用いてモデ ル化し、上述の式(8)を得る。
[0062] 式 (8)に示す R" ( λ )を、表面反射率 R ( λ )に関する観測方程式に代入すると、物 体の色を表現する未知の特性パラメータ b〜bに関する 3元一次連立方程式 (上述
1 3
の式(9) )を得ることができ、 b〜bを求めることができる。
1 3
[0063] 次に、式(2)〜(4)に、ステップ S2において既に算出してある補正時に用いる照明 の分光分布 I ( λ )を代入することにより、補正後の三刺激値 X' Υ'Ζ'および物体の 仮想表面反射率 R"( )についての式(10)〜(12)を得る。そして、式(10)' (12) に、式 (8)に示す R"( )を代入して、式(14)を得る。
[0064] [数 10] N(x,r2) N(x,r3)
N(y,r2) N(y,r3) (14)
Figure imgf000015_0001
N(z,r2) N(z,r3)
Figure imgf000015_0002
[0065] ここで、 Ν(χ, r) (i=0〜3)は、 il ( )r (λ)Χ(λΜえの積分項を表わす。 y, ζ
l ad] l
についても同様である。さらに、式(14)に式(9)を代入すると、式(15)を得る。
[0066] [数 11]
N(x,rx) N(x,r2) N(x,r}) M(x, rx ) M(x, r2 ) M ( ,r3) l(X-M(x,r0) -] N(x,ro N(y,r,) N(y,r2) N{y,r,) M{y,r) M(y,r2) M{y, ) Y-M(y,r0) N(y,r0) N{2,rx) N(z,r2) N(z,r,)
Figure imgf000015_0003
, M{z,r2) M(z,r,) Z-M(z,r0) N ,r … (15)
[0067] 式(15)は、次の式(16)のようにまとめることができる。
[0068] [数 12]
Figure imgf000015_0004
[0069] ここで、行列 Αは、以下の式(17)で表わされる 3X3行列であり、行列 Bは、以下の 式(18)で表わされる 3 X 1行列であって、いずれも定数行列となる。
[0070] [数 13]
N c^) N(x,r2) N(x,r3) M(x,rx) M(x,r2) M(x,r,))
A = y,rt) N(y,r2) N(y,r3) M(y,r,) M(y,r2) M(y,r3) (17) N{z,rx) N(z,r2) N(z,r3) M(z,r,) M(z,r2) M(z,r3)
[0071] [数 14]
B = N(y,r0) -A M{y,r0) (18)
M r0) [0072] ステップ S5では、入力画像中の全画素に対して式(16)による色補正処理を施し、 さら〖こ、デバイス依存カラーへ変換したものを出力画像として出力する。なお、デバイ ス依存カラーとは、出力先のデバイスに依存する色空間を意味する。
[0073] 以上は、入力画像および出力画像のデバイス依存カラー力 ¾GBである場合につい て説明した力 デバイス依存カラーが CMYや CMYKなどの RGB以外のデバイス依 存カラーであったとしても、そのデバイス依存カラーとデバイス非依存カラーの三刺 激値 XYZとの対応関係が得られれば、 RGB以外の画像にっ ヽても本発明の色補正 方法を適用できる。
[0074] 色補正装置:
次に、本発明に基づく色補正装置について説明する。図 7は、本発明による色補正 装置の第 1の例を示している。図示される色補正装置 100は、上述の第 1の実施形 態の色補正方法に基づ!/、て入力画像 1に対して色補正を実施し、出力画像 2を出力 する装置である。具体的には、色補正装置 100は、入力画像 1を補正して、入力画 像 1における照明条件とは異なる照明条件での出力画像 2を生成し、出力するもので ある。色補正装置 100には、入力画像 1と、入力画像 1中の大まかな色が特定できる 対象領域の色情報 3があらかじめ与えられる。対象領域としては、例えば、入力画像 1中の特定の対象物の領域が用いられており、この特定の対象物に関しては、その 表面反射率があら力じめ色補正装置 100に与えられている。特定の対象物は、上記 のように、人の顔など、その対象の色がある程度限定できるものである。
[0075] 色補正装置 100は、入力画像 1中の特定の対象物の領域の色情報 3とあら力じめ 指定された特定の対象物の表面反射率とを用いて、入力画像 1での照明の分光分 布を復元する分光分布復元部 4と、対象物の表面反射率があらかじめ格納される対 象物表面反射率メモリ 5と、入力画像の各画素の色情報と分光分布復元部 4によって 復元された照明の分光分布とを用いて、各画素における表面反射率を復元する表 面反射率復元部 6と、分光分布復元部 4によって復元された照明の分光分布と目標 照明として指定された照明の分光分布とを用いて、出力画像 2での照明の分光分布 を算出する分光分布計算部 7と、目標照明の分光分布があらかじめ格納される分光 分布メモリ 8と、表面反射率復元部 6によって復元された各画素における表面反射率 と、分光分布計算部 7によって算出された出力画像 2での照明の分光分布とを用い て、出力画像 2の各画素の色情報を算出する画像補正部 9と、を備えている。
[0076] 次に、この色補正装置 100の動作を説明する。
[0077] 分光分布復元部 4は、入力画像 1と対象領域の色情報 3とが与えられると、与えられ た対象領域の色情報と、対象物表面反射率メモリ 5に記憶されている対象領域の典 型的あるいは代表的な表面反射率と、照明の分光特性をモデルィ匕した式 (5)とを用 いて、入力画像の情景中の照明の分光分布を入力画像 1での照明の分光分布とし て復元する。
[0078] 次に、分光分布計算部 7は、補正画像を生成する際に必要となる出力画像での照 明の分光分布を計算する。分光分布計算部 7は、分光分布復元部 4によって復元さ れた入力画像での照明の分光分布と、分光分布メモリ 8にあらかじめ記憶されている 目標照明の分光分布とを用いて、出力画像での照明の分光分布を式 (6) , (7)によ つて計算する。
[0079] 一方、表面反射率復元部 6は、復元された入力画像での照明の分光分布と、入力 画像データの画素値とから、画像上の各画素における物体の表面反射率を復元す る。分光分布復元部 4および表面反射率復元部 6における、それぞれの分光特性の 復元方法としては、上述の第 1の実施形態において説明した手法を用いればよい。
[0080] そして、画像補正部 9は、画像上の各画素における物体の表面反射率と出力画像 での照明の分光分布とを用いて、式(10)〜(12)によって三刺激値 XYZを計算する 。そして、画像補正部 9は、出力画像をデバイス依存カラー(例えば RGBなど)に変 換し、出力画像 2として出力する。
[0081] この色補正装置において、分光分布復元部 4、対象物表面反射率メモリ 5、表面反 射率復元部 6、分光分布計算部 7、分光分布メモリ 8および画像補正部 9は、それぞ れ個別の装置として設けてもよいし、あるいは、プログラムにしたがって動作する CP Uによって実現されるようにしてもよい。その場合、プログラムは、 CPUに接続する記 憶装置内に格納される。すなわち、記憶装置を備えたコンピュータを用いて、この色 補正装置を構成することができる。
[0082] 図 8は、本発明に基づく色補正装置の第 2の例を示している。 [0083] 図 8に示される色補正装置 101は、図 7に示した色補正装置 100に対して、制御部 10を付加したものである。制御部 10は、値 adjまたは関数 adjw ( )を利用者に指定 させるための制御を行うとともに、利用者によって指定された adjの値または adjw ( λ ) の関数を、分光分布計算部 7に出力する。値 adjまたは関数 adjw ( λ )は、分光分布 計算部 7が出力画像の照明の分光分布を計算する際に、入力画像の照明の分光分 布と所望の目標照明の分光分布の混合量をコントロールするために使用される値ま たは関数である。
[0084] 図 9は、利用者に対して値 adjの設定を行わせるために、制御部 10が利用者に対し て表示する GUI (Graphical User Interface)の例を示している。利用者は、表示 されたスライドバー 20をマウスなどのポインティングデバイスを用いて動かすことによ つて、 adjの値を調整することができる。
[0085] 同様に図 10は、利用者に対して関数 adjw ( )の設定を行わせるために、制御部 1 0が利用者に対して表示する GUIの例を示している。利用者は、表示された制御点 2 1をマウス操作などを用いて上下に動かすことによって、その制御点 21を通る adjw ( λ )の波形を調整することができる。制御点 21を通る adjw ( λ )に関して、制御点以 外の波長における関数値は、スプライン補間やラグランジェ補間を用いることにより容 易に計算できる。なお、図 10に示した例においては、制御点 21は 5点である力 この 制御点の数は任意である。また、制御点 21の追加や削除ができるようにしてあっても よい。
[0086] 図 9および図 10の例において、 adjおよび adjw ( λ )は、 0〜1. 0の範囲で指定でき るようになっているが、設定できる範囲は 0〜1. 0に限定されるものではなぐ実数値 で指定できるようになっていればよい。制御部 10は、利用者によって調整された adj または adjw ( λ )を、分光分布計算部 7に反映させる。
[0087] さらに、制御部 10は、目標照明として利用者の所望の照明の色を、その利用者が 指定できる機能を有する。目標照明の色を指定する場合、例えば、相関色温度が用 いられるようにしてもよい。 CIE昼光の相関色温度から、その分光分布を計算すること ができる。相関色温度力 分光分布を計算する方法は、日本色彩学会編, 「新編 色 彩科学ノヽンドブック」,第 2版,財団法人東京大学出版会, 1998年 6月 10日, pp. 6 9- 71 (非特許文献 3)に記載されている。なお、 CIE昼光の分光分布の計算途中に おいて、相関色温度から、色度が一旦計算されるので、制御部 10では、目標照明の 色を色度で与えるようにしてもよい。さらに、制御部 10は、目標照明の分光分布を各 波長におけるパワーを指定したファイルで与えるようにしてもよ 、。
[0088] 図 8に示した色補正装置も、図 7に示した色補正装置と同様に、プログラムによって 制御されるコンピュータによって構成することができる。
[0089] 図 11は、本発明に基づく色補正装置の第 3の例を示している。図示される色補正 装置 102は、上述の第 2の実施形態の色補正方法に基づいて入力画像 1に対して 色補正を実施し、出力画像 2を出力する装置である。色補正装置 102は、図 7に示し た色補正装置 100における表面反射率復元部 6および画像補正部 9の代わりに、各 画素における表面反射率をモデル化する際に使用する基底ベクトルと、復元された 入力画像 1での照明の分光分布と、出力画像での照明の分光分布とから計算される 定数行列を用いて、出力画像の各画素の色情報を算出する行列変換画像補正部 1 1を設けたものである。
[0090] 次に、この色補正装置 102の動作を説明する。
[0091] 分光分布復元部 4による入力画像での照明の分光分布の復元、および分光分布 計算部 7による出力画像での照明の分光分布の計算までは、図 7に示した色補正装 置 100の場合と同様に行なわれる。次に、行列変換画像補正部 11は、分光分布復 元部 4によって復元された入力画像での照明の分光分布と分光分布計算部 7によつ て計算された出力画像での照明の分光分布と入力画像 1とが与えられると、図 6のス テツプ S5を実行して、式(16)を計算する。そして、入力画像 1の全画素に対して、式 (16)による色補正処理を施し、デバイス依存カラーに変換して出力画像 2を出力す る。
[0092] この色補正装置 102についても、分光分布復元部 4、対象物表面反射率メモリ 5、 分光分布計算部 7、分光分布メモリ 8および行列変換画像補正部 11は、それぞれ個 別の装置として設けてもよいし、あるいは、プログラムにしたがって動作する CPUによ つて実現されるようにしてもよい。したがって、コンピュータを用いて、この色補正装置 を構成することができる。 [0093] さらに、本発明に基づく色補正装置の第 4の例として、図 8に示した色補正装置 10 1の表面反射率復元部 6および画像補正部 9を、行列変換画像補正部 11に置き換 えた色補正装置も容易に実現可能である。この色補正装置もプログラムによって制 御されるコンピュータによって構成することができる。
産業上の利用可能性
[0094] 本発明は、カラー画像の入出力装置においてホワイトバランスを含む色補正を実行 する用途に適用できる。また、本発明は、コンピュータシステムで動作するプログラム の形態とすることで、任意のカラー画像に対する色補正ソフトウェアあるいはユーティ リティとしても利用可能である。

Claims

請求の範囲
[1] 入力画像を補正して前記入力画像における照明条件とは異なる照明条件での出 力画像を生成する色補正方法であって、
あら力じめ与えられた入力画像中の特定の対象物の領域の色情報とあら力じめ指 定された前記特定の対象物の表面反射率とを用いて、前記入力画像での照明の分 光分布を復元するステップと、
復元された前記入力画像での照明の分光分布と目標照明として指定された照明の 分光分布とを用いて、前記出力画像での照明の分光分布を算出するステップと、 前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布と、算出された前記出力画像での照明の分光分布とに基づいて、前記出力画像 の各画素の色情報を算出するステップと、
を備える、色補正方法。
[2] 前記色情報を算出するステップは、
前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布とを用いて、各画素における表面反射率を復元するステップと、
復元された各画素における表面反射率と算出された前記出力画像での照明の分 光分布とを用いて、前記出力画像の各画素の色情報を算出するステップと、 を備える、請求項 1に記載の方法。
[3] 前記色情報を算出するステップは、各画素における表面反射率をモデルィ匕する際 に使用する基底ベクトルと、復元された前記入力画像での照明の分光分布と、前記 出力画像での照明の分光分布とから計算される定数行列を用いて、前記出力画像 の各画素の色情報を算出するステップを備える、請求項 1に記載の方法。
[4] 前記分光分布を算出するステップにおいて、復元された前記入力画像での照明の 分光分布および前記目標照明の分光分布を、可視光領域にわたって波長によらず 一定の割合で混合することによって、前記出力画像での照明の分光分布が算出され る、請求項 1乃至 3のいずれか 1項に記載の方法。
[5] 前記分光分布を算出するステップにおいて、復元された前記入力画像での照明の 分光分布および前記目標照明の分光分布を、可視光領域にわたって波長に依存す る関数に基づいて混合することによって、前記出力画像での照明の分光分布が算出 される、請求項 1乃至 3のいずれ力 1項に記載の方法。
[6] 前記一定の割合は、利用者によって設定される、請求項 4に記載の方法。
[7] 前記波長に依存する関数は、利用者によって設定される、請求項 5に記載の方法。
[8] 入力画像を補正して前記入力画像における照明条件とは異なる照明条件での出 力画像を生成する色補正装置であって、
あら力じめ与えられた入力画像中の特定の対象物の領域の色情報とあら力じめ指 定された前記特定の対象物の表面反射率とを用いて、前記入力画像での照明の分 光分布を復元する分光分布復元手段と、
前記分光分布復元手段によって復元された前記入力画像での照明の分光分布と 目標照明として指定された照明の分光分布とを用いて、前記出力画像での照明の分 光分布を算出する分光分布計算手段と、
前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布と、算出された前記出力画像での照明の分光分布とに基づいて、前記出力画像 の各画素の色情報を算出する出力画像生成手段と、
を備える色補正装置。
[9] 前記出力画像生成手段は、
前記入力画像の各画素の色情報と、前記分光分布復元手段によって復元された 前記入力画像での照明の分光分布とを用いて、各画素における表面反射率を復元 する表面反射率復元手段と、
前記表面反射率復元手段によって復元された各画素における表面反射率と、前記 分光分布計算手段によって算出された前記出力画像での照明の分光分布とを用い て、前記出力画像の各画素の色情報を算出する画像補正手段と、
を備える、請求項 8に記載の装置。
[10] 前記出力画像生成手段は、各画素における表面反射率をモデルィ匕する際に使用 する基底ベクトルと、復元された前記入力画像での照明の分光分布と、前記出力画 像での照明の分光分布とから計算される定数行列を用いて、前記出力画像の各画 素の色情報を算出する行列変換画像補正手段を備える、請求項 8に記載の装置。
[11] 前記分光分布計算手段は、前記分光分布復元手段によって復元された前記入力 画像での照明の分光分布および前記目標照明の分光分布を、可視光領域にわたつ て波長によらず一定の割合で混合して、前記出力画像での照明の分光分布を算出 する、請求項 8乃至 10のいずれか 1項に記載の装置。
[12] 前記分光分布計算手段は、前記分光分布復元手段によって復元された前記入力 画像での照明の分光分布および前記目標照明の分光分布を、可視光領域にわたつ て波長に依存する関数に基づいて混合して、前記出力画像での照明の分光分布を 算出する、請求項 8乃至 10のいずれか 1項に記載の装置。
[13] 前記一定の割合を利用者に設定させ、前記分光分布計算手段に出力する制御部 をさらに備える、請求項 11に記載の装置。
[14] 前記波長に依存する関数を利用者に設定させ、前記分光分布計算手段に出力す る制御部をさらに備える、請求項 12に記載の装置。
[15] 入力画像を補正して前記入力画像における照明条件とは異なる照明条件での出 力画像を生成する処理をコンピュータに実行させる色補正プログラムであって、 前記コンピュータに、
あら力じめ与えられた入力画像中の特定の対象物の領域の色情報とあら力じめ指 定された前記特定の対象物の表面反射率とを用いて、前記入力画像での照明の分 光分布を復元する処理と、
復元された前記入力画像での照明の分光分布と目標照明として指定された照明の 分光分布とを用いて、前記出力画像での照明の分光分布を算出する処理と、 前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布と、算出された前記出力画像での照明の分光分布とに基づいて、前記出力画像 の各画素の色情報を算出する処理と、
を実行させる色補正プログラム。
[16] 前記色情報を算出する処理は、
前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布とを用いて、各画素における表面反射率を復元する処理と、
復元された各画素における表面反射率と算出された前記出力画像での照明の分 光分布とを用いて、前記出力画像の各画素の色情報を算出する処理と、 を含む、請求項 15に記載のプログラム。
[17] 前記色情報を算出する処理は、各画素における表面反射率をモデル化する際に 使用する基底ベクトルと、復元された前記入力画像での照明の分光分布と、前記出 力画像での照明の分光分布とから計算される定数行列を用いて、前記出力画像の 各画素の色情報を算出する処理を含む、請求項 15に記載のプログラム。
[18] 前記分光分布を算出する処理において、復元された前記入力画像での照明の分 光分布および前記目標照明の分光分布を、可視光領域にわたって波長によらず一 定の割合で混合することによって、前記出力画像での照明の分光分布が算出される 、請求項 15乃至 17のいずれ力 1項に記載のプログラム。
[19] 前記分光分布を算出する処理において、復元された前記入力画像での照明の分 光分布および前記目標照明の分光分布を、可視光領域にわたって波長に依存する 関数に基づいて混合することによって、前記出力画像での照明の分光分布が算出さ れる、請求項 15乃至 17のいずれ力 1項に記載のプログラム。
[20] 入力画像を補正して前記入力画像における照明条件とは異なる照明条件での出 力画像を生成する処理を実行可能なコンピュータが読み取り可能な記録媒体であつ て、
前記コンピュータに、
あら力じめ与えられた入力画像中の特定の対象物の領域の色情報とあら力じめ指 定された前記特定の対象物の表面反射率とを用いて、前記入力画像での照明の分 光分布を復元する処理と、
復元された前記入力画像での照明の分光分布と目標照明として指定された照明の 分光分布とを用いて、前記出力画像での照明の分光分布を算出する処理と、 前記入力画像の各画素の色情報と、復元された前記入力画像での照明の分光分 布と、算出された前記出力画像での照明の分光分布とに基づいて、前記出力画像 の各画素の色情報を算出する処理と、
を実行させる色補正プログラムを格納した記録媒体。
PCT/JP2006/313861 2005-07-13 2006-07-12 色補正方法および色補正装置 WO2007007786A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007524675A JP4626776B2 (ja) 2005-07-13 2006-07-12 色補正方法および色補正装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005204312 2005-07-13
JP2005-204312 2005-07-13

Publications (1)

Publication Number Publication Date
WO2007007786A1 true WO2007007786A1 (ja) 2007-01-18

Family

ID=37637176

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/313861 WO2007007786A1 (ja) 2005-07-13 2006-07-12 色補正方法および色補正装置

Country Status (2)

Country Link
JP (1) JP4626776B2 (ja)
WO (1) WO2007007786A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300253A (ja) * 2006-04-03 2007-11-15 Sony Corp 撮像装置およびその光源推定装置
WO2009104787A1 (ja) * 2008-02-22 2009-08-27 日本電気株式会社 カラー画像処理方法、装置およびプログラム
WO2013099644A1 (ja) * 2011-12-28 2013-07-04 日本電気株式会社 分光画像処理方法、分光画像処理装置およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10229499A (ja) * 1997-02-14 1998-08-25 Nec Corp 色変換方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2000113174A (ja) * 1998-10-09 2000-04-21 Nec Corp カラーマッチング方法、カラーマッチング装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2001258047A (ja) * 2000-03-10 2001-09-21 Toppan Printing Co Ltd 測色画像変換方法及び測色画像変換装置並びに測色画像変換プログラムを記録したコンピュータ読み取り可能な情報記録媒体
JP2004165932A (ja) * 2002-11-12 2004-06-10 Sony Corp 光源推定装置、光源推定方法、撮像装置および画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10229499A (ja) * 1997-02-14 1998-08-25 Nec Corp 色変換方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2000113174A (ja) * 1998-10-09 2000-04-21 Nec Corp カラーマッチング方法、カラーマッチング装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2001258047A (ja) * 2000-03-10 2001-09-21 Toppan Printing Co Ltd 測色画像変換方法及び測色画像変換装置並びに測色画像変換プログラムを記録したコンピュータ読み取り可能な情報記録媒体
JP2004165932A (ja) * 2002-11-12 2004-06-10 Sony Corp 光源推定装置、光源推定方法、撮像装置および画像処理方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300253A (ja) * 2006-04-03 2007-11-15 Sony Corp 撮像装置およびその光源推定装置
WO2009104787A1 (ja) * 2008-02-22 2009-08-27 日本電気株式会社 カラー画像処理方法、装置およびプログラム
US20100328740A1 (en) * 2008-02-22 2010-12-30 Nec Corporation Method, apparatus and program for color image processing
JP5158100B2 (ja) * 2008-02-22 2013-03-06 日本電気株式会社 カラー画像処理方法、装置およびプログラム
US9485391B2 (en) 2008-02-22 2016-11-01 Nec Corporation Method, apparatus and program for restoring and correcting surface reflectance with color image processing
WO2013099644A1 (ja) * 2011-12-28 2013-07-04 日本電気株式会社 分光画像処理方法、分光画像処理装置およびプログラム
JPWO2013099644A1 (ja) * 2011-12-28 2015-05-07 日本電気株式会社 分光画像処理方法、分光画像処理装置およびプログラム
US9491331B2 (en) 2011-12-28 2016-11-08 Nec Corporation Image processing method, image processing device, and program for restoring spectral characteristics of an object and an illumination, respectively

Also Published As

Publication number Publication date
JP4626776B2 (ja) 2011-02-09
JPWO2007007786A1 (ja) 2009-01-29

Similar Documents

Publication Publication Date Title
WO2007007788A1 (ja) 色補正方法および色補正装置
JP5158100B2 (ja) カラー画像処理方法、装置およびプログラム
JP5867390B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP6004481B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5648483B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
US7454056B2 (en) Color correction device, color correction method, and color correction program
JP5533670B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
US9342872B2 (en) Color correction parameter computation method, color correction parameter computation device, and image output system
WO2010053029A1 (ja) 画像入力装置
JP2010273144A (ja) 画像処理装置及びその制御方法とプログラム
US9398282B2 (en) Image processing apparatus, control method, and computer-readable medium
JP2008519490A (ja) デジタル画像装置用のガンマ曲線を最適化する装置、システム及び方法
JP2009033361A (ja) 色調整装置、画像形成装置およびプログラム
US20050068587A1 (en) Monotone conversion process for color images
JP5824423B2 (ja) 照明光色推定装置、照明光色推定方法及び照明光色推定プログラム
WO2007007786A1 (ja) 色補正方法および色補正装置
JP5743456B2 (ja) 画像処理装置、画像処理方法及び撮像装置
JP2008294969A (ja) 映像変換装置、映像変換方法、映像変換プログラム
JP2008227959A (ja) 画像処理装置、画像処理方法および画像処理システム
JP5826237B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2008227955A (ja) 画像処理装置、画像処理方法および画像処理システム
JPH08139951A (ja) 色変換方法
JP2012043360A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007524675

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06768125

Country of ref document: EP

Kind code of ref document: A1