WO2012001949A1 - カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム - Google Patents

カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム Download PDF

Info

Publication number
WO2012001949A1
WO2012001949A1 PCT/JP2011/003681 JP2011003681W WO2012001949A1 WO 2012001949 A1 WO2012001949 A1 WO 2012001949A1 JP 2011003681 W JP2011003681 W JP 2011003681W WO 2012001949 A1 WO2012001949 A1 WO 2012001949A1
Authority
WO
WIPO (PCT)
Prior art keywords
surface reflection
reflection component
color
component
image processing
Prior art date
Application number
PCT/JP2011/003681
Other languages
English (en)
French (fr)
Inventor
塚田 正人
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP11800419.1A priority Critical patent/EP2590136A1/en
Priority to US13/702,637 priority patent/US8855371B2/en
Priority to CN201180031007.4A priority patent/CN102985941B/zh
Priority to JP2012522462A priority patent/JP5867390B2/ja
Publication of WO2012001949A1 publication Critical patent/WO2012001949A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • G06T5/77
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/628Memory colours, e.g. skin or sky
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to image processing for color images, and in particular, a color image processing method, color image processing apparatus, and color image processing for performing image processing for improving the texture of an object in a color image actually captured using a photographing device. Regarding the program.
  • the color of a specific object for example, skin color, green of a plant, blue sky, etc.
  • the color of a specific object for example, skin color, green of a plant, blue sky, etc.
  • Various approaches have been proposed. By using such a method, it becomes possible to reproduce a preferable color.
  • Patent Document 1 discloses a technique related to color correction of a color image.
  • a representative color is extracted from an area to be corrected in an image, and the representative color is compared with a preset correction center color to determine an RGB correction parameter.
  • Each pixel is corrected by controlling the application intensity of the correction parameter according to the distance between the pixel in the image and the center color.
  • the hue, saturation, and brightness of each pixel are calculated from the RGB values that are the color information of each pixel. Then, the distance between the color of each pixel in the color space and the correction center color is calculated, and the correction intensity is adjusted according to the distance. In this way, the color of the object is intensively corrected.
  • color correction based on addition / subtraction of correction parameters is performed in the RGB color space.
  • the RGB correction amount is calculated for each pixel according to the distance from the correction center color.
  • a correction parameter corresponding to the distance from the correction center color is added to or subtracted from the RGB value of each pixel in almost the entire face area.
  • Patent Document 2 discloses a technique for detecting a face area in an input image.
  • the eye detection method described in Patent Document 2 is a pair-of-eye evaluation value based on the features formed by both eyes even when the eyes are evaluated alone, even if the eyes cannot be distinguished from other parts due to insufficient features. By distinguishing between eyes and other parts.
  • Patent Documents 3 to 5 describe techniques related to color image correction processing.
  • the spectral color is converted to a lower-dimensional color space than the original dimension, color correction is performed in the lower-dimensional color space, and then the lower-dimensional color data is corrected.
  • a color correction apparatus and method for generating spectral light of an appropriate dimension from spectral colors are disclosed.
  • Patent Document 4 discloses a color conversion method for converting an original color space to a color of a target color space while matching the appearance of colors between color systems having different reference whites. Specifically, in the color conversion method described in Patent Document 4, the spectral distribution characteristics of the original reference white are restored from the color temperature of the original reference white, which is the reference white of the original color space. Further, the spectral distribution characteristic of the target reference white is restored from the color temperature of the target reference white which is the reference white of the target color space. Then, the surface reflectance of the arbitrary color in the original color space is restored using the tristimulus values in the arbitrary color, the light distribution characteristic of the original reference white, and the human color matching function. Further, tristimulus values that are colors in the target color space are obtained based on the restored surface reflectance, the restored spectral distribution characteristics of the target reference white, and the human color matching function.
  • Patent Document 5 discloses a technique for automatically performing good color correction on important subjects in natural images taken under various lighting environments. Specifically, in the color correction method described in Patent Document 5, the body surface color of the specific object is extracted, and the color correction parameter optimum for the extracted representative color is set. Using this parameter, color correction conversion that only affects a specific hue is performed. By performing such conversion, it is possible to automatically perform color correction on an important subject in a natural image taken under various lighting environments.
  • Patent Document 6 describes a technique of generating a facial skin reflection model and applying the model to rendering of a facial image.
  • a three-dimensional shape obtained by scanning a face with a 3D scanner is acquired.
  • a plurality of face images illuminated from different viewpoints with different illumination directions are acquired.
  • the total reflectance and the normal map are estimated.
  • the total reflectance is separated into two components, ie, subsurface scattering and (specular) surface reflectance, and the diffuse reflectance is estimated based on these two components.
  • the subsurface reflectance is scanned using an optical fiber spectrometer to obtain a translucency map.
  • Patent Document 7 pixel values of pixels constituting an image are separated into a surface reflected light component due to surface reflection and a diffuse reflected light component due to diffuse reflection in a three-dimensional object, and the surface reflected light component and diffuse reflected light are separated.
  • An image processing method for changing at least one of the components is described.
  • a reflection model hereinafter referred to as a clinker separation method
  • Klinker et al. Is used to separate a reflection model into a surface reflection light component and a diffuse reflection light component.
  • each separated reflection component is changed using a Phong illumination model, a Lambertian Reflection model, or the like.
  • Non-Patent Document 1 describes a face detection method using generalized learning vector quantization.
  • Non-Patent Document 2 describes a face detection method that combines an image-based type and a feature-based type that detects eyes using generalized learning vector quantization.
  • the face information of the three-dimensional shape (three-dimensional information) is restored from the two-dimensional face image.
  • the method of doing is also known (for example, nonpatent literature 3).
  • Patent Documents 1 and 2 The matters described in Patent Documents 1 and 2 and the matters described in Non-Patent Documents 1 and 2 are appropriately cited in the embodiment of the present invention.
  • Patent Document 1 achieves higher image quality by making the color of the object in the color image more desirable, but the texture is reduced. There was a problem that.
  • Patent Document 6 it is proposed to apply a human skin reflex model to rendering of a face image.
  • the method described in Patent Document 6 requires an optical fiber spectrometer that is a special measuring device in order to obtain three-dimensional information of a face image. For this reason, it is difficult to apply this method to color correction performed by a general color image processing apparatus.
  • Non-Patent Document 3 it is also possible to use a restoration technique from a two-dimensional face image to a three-dimensional face image as a method for obtaining three-dimensional information of a face image.
  • a restoration technique from a two-dimensional face image to a three-dimensional face image as a method for obtaining three-dimensional information of a face image.
  • the calculation cost can be reduced more than the restoration technique described in Non-Patent Document 3. That is, it is desirable that color image processing can be performed without using the special measuring apparatus described above or a technique that requires high calculation costs.
  • the image processing method described in Patent Document 7 does not restore the three-dimensional information of the object in the image, and applies a model related to illumination and reflection such as a clinker separation method, a phonillumination model, and a Lambertian reflection model. By doing so, the color is changed.
  • the image processing method described in Patent Document 7 is an effective method when the assumed reflection models such as plastic, paint, paper, and ceramics are in good agreement.
  • an image processing method described in Patent Document 7 is used to change an object having complicated reflection characteristics such as human skin, there is a problem that an artifact is generated. Therefore, in the image processing method described in Patent Document 7, it is difficult to say that the object can be reproduced in a desired color and the texture can be improved.
  • Patent Document 7 does not disclose a method for correcting an object in an input image to a desired image quality.
  • the present invention provides a color image processing method, a color image processing apparatus, and a color image processing program capable of improving the texture of an object in a color image photographed by a color image device at a low calculation cost. With the goal.
  • the color image processing method detects an object area, which is an area targeted for image processing, from an input image, and calculates color information in the object area and a complete diffusion component that is a low-frequency component in the object area. Then, the surface reflection component is restored based on the color information and the low frequency component, and the restored surface reflection component is corrected according to the reference surface reflection component which is a surface reflection component preset according to the object region. A reproduction color that is a color obtained by correcting each pixel in the input image is calculated using the complete diffusion component and the corrected surface reflection component, and an output image is generated based on the reproduction color.
  • the color image processing apparatus includes a target area detection unit that detects a target area that is a target area for image processing from an input image, color information in the target area, and low-frequency components in the target area.
  • Reflection component restoration means that calculates a complete diffusion component and restores the surface reflection component based on the color information and the low frequency component, and a reference surface reflection component that is a surface reflection component preset according to the object region Accordingly, a reproduction color that is a color obtained by correcting each pixel in the input image is calculated using a surface reflection component correction unit that corrects the restored surface reflection component, a complete diffusion component, and a corrected surface reflection component.
  • reproduction color calculation means for generating an output image based on the reproduction color.
  • the color image processing program allows a computer to detect an object area, which is an area to be subjected to image processing, from an input image, color information in the object area, and low frequency in the object area.
  • a reflection component restoration process that calculates a perfect diffusion component that is a component and restores a surface reflection component based on the color information and low frequency component, and a reference surface reflection component that is a surface reflection component that is preset according to the object area
  • a reproduction color that is a color obtained by correcting each pixel in the input image by using a surface reflection component correction process for correcting the restored surface reflection component and a completely diffused component and a corrected surface reflection component.
  • a reproduction color calculation process for generating an output image based on the reproduction color is executed.
  • FIG. 1 is a block diagram showing an embodiment of a color image processing apparatus according to the present invention. It is a flowchart which shows the example of the color image processing method in the 1st Embodiment of this invention. It is explanatory drawing which shows the example of the process which detects the target object area
  • the color image processing apparatus when improving the texture of the specific object in the input image, the color image processing apparatus first calculates the low-frequency component of the specific object in the input image. Next, the color image processing apparatus uses the calculated low-frequency component as a complete diffusion component including shadow information on the specific object. Then, the color image processing device calculates a surface reflection component (highlight) on the specific object by subtracting a complete diffusion component (including shadow information) from the input image.
  • the color image processing apparatus corrects the calculated amount of the surface reflection component of the specific object to a desired amount. Then, the color image processing apparatus calculates the reproduction color of the specific object using the corrected surface reflection component and the complete diffusion including the shadow information.
  • the reproduction color is a color obtained by correcting each pixel in the input image, and is calculated from the corrected surface reflection component and complete diffusion component. In this way, the apparent texture after the correction of the specific object can be expressed with a more natural and more desirable texture.
  • FIG. 1 is an explanatory diagram showing an example of color image processing in the present invention. The outline of the color image processing method performed by the color image processing apparatus according to the present invention will be further described below with reference to FIG.
  • the color image processing apparatus acquires information about an input image to be input (hereinafter referred to as image information acquisition processing). Specifically, when an input image is input, the color image processing apparatus specifies a specific object from the input image. The specific object is an area specified as an object to be corrected. The color image processing apparatus detects a region for correcting the surface reflection component (hereinafter also referred to as a target region) by specifying a specific target. In addition, the color image processing apparatus acquires color information of the specific object (that is, the color of the object area).
  • image information acquisition processing Specifically, when an input image is input, the color image processing apparatus specifies a specific object from the input image. The specific object is an area specified as an object to be corrected. The color image processing apparatus detects a region for correcting the surface reflection component (hereinafter also referred to as a target region) by specifying a specific target. In addition, the color image processing apparatus acquires color information of the specific object (that is, the color of the object area).
  • the color image processing apparatus restores the reflection information of the specific object (hereinafter referred to as reflection information restoration process).
  • the reflection information is information regarding reflected light reflected on the specific object.
  • the reflection information of the specific object is generally restored based on the illumination geometric condition based on the three-dimensional shape of the specific object.
  • the low-frequency component of the specific object is used instead of the three-dimensional shape.
  • the color image processing apparatus sets a low-frequency component of a specific object as a complete diffusion component including shadow information.
  • the color image processing apparatus restores the surface reflection component by removing the low frequency component from the color information of the specific object.
  • the color image processing device calculates the surface reflection component by subtracting the low frequency component from the color information for the pixel value of each pixel of the input image.
  • the color information of the specific object is separated into the surface reflection component and the complete diffusion component (that is, the complete diffusion component including the shadow information). That is, the surface reflection component is restored.
  • the surface reflection component is a component of reflected light reflected on the surface of the object, and is information indicating so-called “shine”.
  • the complete diffusion component is a low-frequency component of the specific object, and the shadow information is information indicating the luminance of the complete diffusion component.
  • the color image processing apparatus corrects the surface reflection component (hereinafter referred to as surface reflection component correction processing). Specifically, the color image processing apparatus corrects the surface reflection component using the average value of the surface reflection component and the reference surface reflection component.
  • the reference surface reflection component is a surface reflection component set in advance according to a specific object (object area), which is determined to be a preferable texture by a user or the like.
  • the color image processing apparatus calculates a reproduction color of a specific object using a complete diffusion component including shadow information and a corrected surface reflection component (hereinafter, sometimes referred to as a corrected surface reflection component) (hereinafter, referred to as a corrected surface reflection component). This is referred to as a reproduction color calculation process).
  • a corrected surface reflection component hereinafter, sometimes referred to as a corrected surface reflection component
  • the object area detected from the specific object is composed of a plurality of pixels.
  • Each pixel has color information.
  • the color information may be referred to as a pixel value.
  • the color information includes at least a surface reflection component and a complete diffusion component (including shadow information).
  • the color information may include information regarding colors other than those described above.
  • it demonstrates without distinguishing a specific target object and a target object area
  • FIG. 2 is a block diagram showing an embodiment of a color image processing apparatus according to the present invention.
  • the color image processing apparatus 100 illustrated in FIG. 2 includes an image information acquisition unit 110, a reflection information restoration unit 120, a surface reflection component correction unit 130, and a reproduction color calculation unit 140.
  • the image information acquisition unit 110 specifies a specific object based on an input image input from the outside, and detects an object area of the specific object. Further, the image information acquisition unit 110 acquires color information of the object area.
  • the reflection information restoration unit 120 calculates a low frequency component of the object area.
  • the calculated low frequency component is a complete diffusion component including shadow information in the object region.
  • the reflection information restoring unit 120 restores the surface reflection component in the object area by removing the complete diffusion component from the color information of the object area. That is, the color information in the object region is separated into a surface reflection component (shine) and a complete diffusion component, and is restored as each component.
  • the surface reflection component correction unit 130 corrects the surface reflection component restored by the reflection information restoration unit 120.
  • correcting the surface reflection component means changing the area of the pixel having the surface reflection component or changing the intensity of the surface reflection component.
  • the surface reflection component correction unit 130 may correct the surface reflection component by changing the shape of the surface reflection component.
  • the surface reflection component correction unit 130 may correct the expression reflection component by increasing or decreasing the intensity of the surface reflection component.
  • the surface reflection component correction unit 130 calculates the average value of the surface reflection components of the object region, and corrects the surface reflection component using the calculated average value.
  • the surface reflection component correction unit 130 may correct the surface reflection component by comparing an arbitrary value set in advance with an average value of the surface reflection components of the object region.
  • the surface reflection component correction unit 130 may use, for example, a reference surface reflection component as an arbitrary value.
  • the reference surface reflection component is stored in advance, for example, in a memory (hereinafter referred to as a reference surface reflection component storage memory) provided in the color image processing apparatus 100.
  • the surface reflection component correction unit 130 may receive a correction value from the user and correct the surface reflection component using the received correction value.
  • the correction value is a generic name of information used when the surface reflection component correction unit 130 corrects the surface reflection component.
  • correcting the amount of the surface reflection component means correcting the area of the pixel of the surface reflection component or correcting the pixel value indicating the intensity of the surface reflection component.
  • the reproduction color calculation unit 140 calculates a reproduction color using the complete diffusion component including the shadow information and the corrected surface reflection component. Then, the reproduction color calculation unit 140 generates an output image using the calculated reproduction color.
  • the image information acquisition unit 110 acquires a low-frequency component in the object region.
  • the reflection information restoration unit 120 restores the surface reflection component and the complete diffusion component in the region using the acquired low frequency component in the object region.
  • the surface reflection component correction unit 130 corrects the restored surface reflection component.
  • the color image processing apparatus 100 can correct the surface reflection component restored by using the low frequency component in the object region.
  • the reflection information restoration unit 120 restores the surface reflection component of the object region and the complete diffusion component including the shadow information from the color information obtained from the image, and the surface reflection component correction unit 130 performs only the surface reflection component. Make corrections. By performing these processes, the occurrence of unnatural artifacts is suppressed. Furthermore, the processing cost can be kept low by not restoring the three-dimensional information.
  • FIG. 3 is a flowchart showing an example of a color image processing method according to the first embodiment of the present invention.
  • the color image processing method in the present embodiment is realized using the color image processing apparatus 100 illustrated in FIG.
  • the color system of the image is the RGB color system. That is, the color of the image is represented by a combination of R (red), G (green), and B (blue).
  • the color information of the input image is expressed as color information RGB.
  • the color system of the image is not limited to the RGB color system.
  • the color system of the image may be a color system other than RGB.
  • the color image processing apparatus 100 illustrated in FIG. 2 recalculates the reproduction color at each pixel of the object region in the color image in order to improve the texture of the specific object in the given color image. The operation of performing will be described.
  • the image information acquisition unit 110 automatically detects a specific object from the input image (step S1). At this time, the image information acquisition unit 110 also acquires the color information of the object area in the detected specific object.
  • a specific object from an input image means that a predetermined object (for example, a human face) is detected from the input image as a specific object, or is specified individually by a user or the like. This means that the object is detected as a specific object.
  • the individual as the specific object may be different. That is, even if there are individual differences, rough color information and texture are universal, so if the target object can be identified from the characteristics obtained from the color image, It is not limited to individuals.
  • FIG. 4 is an explanatory diagram showing an example of processing for detecting an object region in an input image.
  • a human face is used as the object area.
  • the image information acquisition unit 110 detects the specific object from the color image illustrated in FIG. 4 using color information, texture, and the like.
  • the specific object is a human face will be described.
  • the image information acquisition unit 110 detects a face area using shape features such as eyes, nose, and mouth.
  • the image information acquisition unit 110 may use, for example, the face detection method described in Non-Patent Document 2 as a method for detecting the face area.
  • the face detection method described in Non-Patent Document 2 is a method using generalized learning vector quantization that combines an image-based type and a feature-based type for eye detection.
  • the image information acquisition unit 110 may use, for example, a method for detecting eyes from an image described in Patent Document 2 as a method for detecting a face region from an input image. If the eye position can be detected from the input image, it is easy to estimate the face area.
  • the face detection method described in Non-Patent Document 2 and the eye detection method described in Patent Document 2 usually perform face detection using monochrome information.
  • the image information acquisition unit 110 may further determine whether or not the face area that is the detection result is a skin color. By adding such a determination process, the detection accuracy of the face region can be improved.
  • an image histogram described in Patent Document 1 may be used as a method for determining whether or not the designated region is flesh-colored.
  • the method by which the image information acquisition unit 110 detects the face area from the input image is not limited to the above method.
  • an object to be automatically detected from an arbitrarily given input image is a human face.
  • the object to be automatically detected is not limited to a human face.
  • the image information acquisition unit 110 compares, for example, visual feature information of a target area registered in advance with visual feature information of image data. The object may be automatically detected.
  • the reflection information restoration unit 120 calculates a surface reflection component and a complete diffusion component.
  • the surface reflection component (shine) of the specific object in the image has a high frequency component.
  • the reflection information restoration unit 120 uses the apparent color information of the specific object without using the three-dimensional shape of the specific object, and the surface reflection component (shine) and the complete diffusion component (including shadow information). Is calculated. Therefore, the surface reflection component can be calculated at a low calculation cost.
  • these processes performed by the reflection information restoration unit 120 will be described in detail in steps S2 to S3.
  • the reflection information restoration unit 120 calculates the low frequency component of the region indicated by the specific object in the image (step S2). For example, the reflection information restoration unit 120 may calculate a low frequency component by calculating an average value of surrounding pixels for each pixel in a region indicated by a specific object in the image. Further, the reflection information restoration unit 120 may calculate the low frequency component by using a smoothing filter that replaces each pixel with a value such as Gaussian.
  • the method for calculating the low frequency component is not limited to the above method.
  • the reflection information restoration unit 120 sets the low frequency component calculated in step S2 as a complete diffusion component in the specific object in the input image. Then, the reflection information restoration unit 120 calculates a surface reflection component by subtracting the complete diffusion component from the color information of the specific object in the input image (step S3).
  • the reflectance of the object region depends on the geometric conditions of incident light and radiated light, and this reflection characteristic is expressed as a bidirectional reflectance distribution function BRDF (Bidirectional Reflection Distribution Function).
  • the BRDF is often composed of two components, a surface reflection component (Sectional component) and a complete diffusion component (Body reflection component).
  • the surface reflection component is a component of light reflected on the surface of the skin.
  • the completely diffusing component is a component of light once incident on the inside of the skin and light diffused in the inside once again diverges through the skin.
  • the fully diffusing component has a low frequency characteristic. Therefore, the low frequency component in the region indicated by the specific object can be regarded as a complete diffusion component DR (Diffuse Reflection) of the specific object.
  • the perfect diffusion component DR is calculated for each color channel (for example, R, G, B, etc.), and the perfect diffusion component of each color channel is expressed as DRi. Note that i represents each color channel.
  • the perfect diffusion component is calculated assuming that the specific object is a Lambertian.
  • the complete diffuse component includes not only the diffuse reflection component but also the surface reflection component. That is, it can be said that the pixel value of each color channel of the input image represents the apparent pixel value (luminance, brightness) in the color channel including the diffuse reflection component and the surface reflection component. Therefore, the reflection information restoration unit 120 calculates the surface reflection component SPi of each color channel of the pixel included in the region indicated by the specific object using the following Expression 1.
  • Ii represents a pixel value of a pixel included in a region indicated by the specific object of the input image
  • i represents a color channel (for example, R, G, B, etc.).
  • the surface reflection component correction unit 130 corrects the surface reflection component of the specific object (step S4). Specifically, when the surface reflection component in the specific object region in the color image is obtained, the surface reflection component correction unit 130 controls the amount (area or intensity) of the surface reflection component to thereby specify the specific object. Improve the texture.
  • controlling the “area” means increasing or decreasing the number (region) of pixels including the surface reflection component.
  • controlling “intensity” means increasing or decreasing the value of each pixel of the surface reflection component. That is, the surface reflection component correction unit 130 controls or adjusts the amount of the surface reflection component such as the area of the surface reflection component or the intensity of the specific object in the input color image, thereby adjusting the desired surface reflection component. Is generated.
  • the surface reflection component correction unit 130 corrects the intensity of the surface reflection component as the amount of the surface reflection component.
  • the amount of the desired surface reflection component that is, the reference surface reflection component
  • the average amount of the surface reflection component is expressed as follows.
  • This average can be calculated as follows. First, an image (hereinafter referred to as a reference image) in which the texture of the specific object is good by a user or the like is prepared in advance. Then, the surface reflection component of the specific object is calculated by performing the processing shown in steps S1 to S3 described above on the reference image. In addition, it can be said that this reference image is an image in which a surface reflection component that is determined to have a good texture by a user or the like is set in advance according to the object region.
  • the surface reflection component in each pixel calculated from the reference image is denoted as SPRi. Since this SPRi indicates a pixel value in each pixel, the surface reflection component correction unit 130 can calculate the average of the amount of the surface reflection component by calculating the average of this SPRi.
  • the surface reflection component correction unit 130 calculates the average value of the surface reflection components in the object region in the input image.
  • the average value of the surface reflection components in the object area in the input image is expressed as follows.
  • the surface reflection component correction unit 130 calculates a correction coefficient ⁇ i according to the following equation 2 based on each average value.
  • the surface reflection component correction unit 130 After calculating the correction coefficient, the surface reflection component correction unit 130 multiplies ⁇ i calculated by Equation 2 by the surface reflection component SPi in the object region in the input image, thereby obtaining a desired amount (intensity) of the surface reflection component. To correct.
  • the surface reflection component correction unit 130 may correct the amount of the surface reflection component using, for example, the following Expression 3.
  • the surface reflection component correction unit 130 includes the average value of the surface reflection components in the object region of the input image and the surface reflection component (that is, the reference surface reflection component) set in advance according to the object region.
  • the pixel value of the surface reflection component is corrected according to the ratio with the average value.
  • the texture can be improved by correcting the intensity of the surface reflection component of the object region.
  • the surface reflection component correction unit 130 corrects the area of the surface reflection component as the amount of the surface reflection component. Even when the area of the surface reflection component is corrected, the surface reflection component of the object region in the preset reference image is used as in the case of correcting the intensity. However, when correcting the area, the amount (area) of the surface reflection component in the specific object of the input image is adjusted using the desired amount (area) of the surface reflection component.
  • the area may be expressed as a ratio of the number of pixels of the surface reflection component to the number of pixels of the object region.
  • the surface reflection component correction unit 130 causes the number of pixels (that is, the area) of the surface reflection component in the area of the specific object in the input image to approach the amount (area) of the desired surface reflection component in the object area. Correct the surface reflection component. Specifically, the surface reflection component correction unit 130 uses a coefficient ⁇ i ( ⁇ i ⁇ i) that decreases the amount (intensity) of the surface reflection component in Equation 3 instead of ⁇ i described above, and uses the coefficient ⁇ i ( ⁇ i ⁇ i) in Equation 3. Correction is performed to reduce the amount (intensity).
  • the surface reflection component correction unit 130 sets the pixel value SPi ′ of the pixel whose corrected pixel value SPi ′ is below a predetermined threshold to 0 (zero). Thus, by setting the surface reflection component to 0, the amount (area) of the surface reflection component is reduced.
  • the surface reflection component correction unit 130 determines the area of the surface reflection component in the object region of the input image as the area of the surface reflection component (that is, the reference surface reflection component) set in advance according to the object region. Make corrections to decrease. At this time, the surface reflection component correction unit 130 reduces the pixel value of the surface reflection component in the object region based on a predetermined rule, such as multiplying the pixel value by a coefficient that decreases the pixel value of the surface reflection component. And the surface reflection component correction
  • Equation 1 a pixel that was not originally a surface reflection component does not become a surface reflection component as it is. Therefore, in order to increase the area of the surface reflection component, it is necessary to perform a separate process.
  • the surface reflection component correction unit 130 is, for example, a pixel that was not originally a surface reflection component (that is, a pixel that the reflection information restoration unit 120 did not restore as a surface reflection component) and originally a surface reflection component.
  • a pixel adjacent to the selected pixel that is, a pixel restored by the reflection information restoration unit 120 as a surface reflection component
  • the front reflection component correction unit 130 calculates the corrected pixel value SPi ′ by substituting the pixel value of the selected pixel into SPi in Expression 3, for example.
  • the surface reflection component correction unit 130 adds a positive real number to the pixel value (that is, the surface reflection component) SPi of the selected pixel.
  • the surface reflection component correction unit 130 may calculate the corrected pixel value SPi ′ using a coefficient that increases the pixel value so that the area increases, instead of the coefficient ⁇ i. Thereafter, the surface reflection component correction unit 130 randomly selects a pixel adjacent to the pixel that was originally the surface reflection component until a desired area is reached, and repeats the operation of correcting the pixel value of the pixel. Thus, by increasing the pixels of the surface reflection component, the amount (area) of the surface reflection component is increased.
  • the surface reflection component correction unit 130 determines the area of the surface reflection component in the object region of the input image as the area of the surface reflection component (that is, the reference surface reflection component) set in advance according to the object region. The correction to increase is performed. In that case, the surface reflection component correction
  • the reproduction color calculation unit 140 uses the corrected surface reflection component and the complete diffusion component (including shadow information) to calculate the corrected color of each pixel in the target object in the input image (step). S5). Note that this corrected color can be referred to as a reproduced color.
  • the reproduction color calculation unit 140 adds the surface reflection component Spi ′ corrected in step S4 to the complete diffusion component DRi including the shadow information, as illustrated in Equation 4 below, so that the pixel value after color correction Ii ′ is calculated.
  • the reproduction color calculation unit 140 outputs an image obtained by correcting the color of the object area in the input image according to the above method as an output image.
  • the device-dependent color of the input image and the output image is RGB.
  • the device-dependent color means a color space that depends on the output destination device.
  • this device-dependent color is not limited to RGB. If the correspondence between the device-dependent color and the tristimulus values XYZ of the device-independent color is obtained, the device-dependent color may be CMY or CMYK other than RGB. In this case, the color correction method of the present invention can be applied to images other than RGB.
  • the image information acquisition unit 110 detects the object region from the input image.
  • the reflection information restoration unit 120 calculates the color information and the complete diffusion component in the object region, and restores the surface reflection component based on the color information and the low frequency component.
  • the reproduction color calculation unit 140 uses the complete diffusion component and the corrected surface reflection component to reproduce the color. And an output image is generated based on the reproduced color. Therefore, the texture of the object in the color image can be improved at a low calculation cost.
  • FIG. 5 is a block diagram illustrating an example of a color image processing apparatus applied to the color image processing method according to the first embodiment.
  • the color image processing apparatus 101 illustrated in FIG. 5 is an apparatus that outputs the output image 2 by correcting the surface reflection component of the object region in the input image 1.
  • the color image processing apparatus 101 includes an object area detection unit 3, an object area low frequency component calculation unit 4 (hereinafter, low frequency component calculation unit 4), an object area surface reflection component, and a complete diffusion component calculation unit. 5 (hereinafter referred to as a reflection information restoration unit 5), a surface reflection component correction unit 6, a reference surface reflection component storage memory 7, and a reproduction color calculation unit 8 for an object region (hereinafter referred to as a reproduction color calculation unit 8). ing.
  • the object area detection unit 3 analyzes the input image 1 and detects a specific object assumed in advance. Then, the object area detection unit 3 outputs information indicating the object area in the detected specific object.
  • the information indicating the object area includes color information of the object area.
  • the target area detection unit 3 obtains the color information of the target area using the method performed by the image information acquisition unit 110 described in step S1 of FIG.
  • the specific object detected from the input image 1 can limit the color and shape characteristics of the object area to some extent, such as a human face. Note that the method for detecting the specific object is as described in the description of the image information acquisition unit 110. If the target object cannot be detected from the input image 1, the reproduction color calculation unit 12 described later outputs the input image 1 as the output image 2.
  • the low frequency component calculation unit 4 calculates the low frequency component of the object area detected by the object area detection unit 3. Specifically, the low frequency component calculation unit 6 calculates the low frequency component of the object region based on the process performed by the reflection information restoration unit 120 described in step S2.
  • the reflection information restoration unit 5 obtains a surface reflection component and a complete diffusion component in the object region using the low frequency component of the object region. Specifically, the reflection information restoration unit 5 obtains a surface reflection component and a complete diffusion component in the object region according to the process performed by the reflection information restoration unit 120 described in step S3.
  • the reference surface reflection component storage memory 7 stores the reference surface reflection component of the object area.
  • the reference surface reflection component is a surface reflection component that provides a preferable image quality of the object region, and is set in the reference surface reflection component storage memory 7 in advance according to the object region.
  • the surface reflection component correction unit 6 corrects the amount of the surface reflection component to a desired amount using the reference surface reflection component for the calculated surface reflection component in the object region. Specifically, the surface reflection component correction unit 6 corrects the surface reflection component in the object region according to the process performed by the surface reflection component correction unit 130 described in step S4 of FIG.
  • the surface reflection component correction unit 6 performs the above correction, the color of an object having complicated reflection characteristics, such as human skin, can be accurately reproduced. Further, by performing the above correction, it is possible to avoid the occurrence of artifacts.
  • the reproduction color calculation unit 8 calculates the reproduction color of the object area. Specifically, the reproduction color calculation unit 8 uses the corrected surface reflection component and the complete diffusion component including the shadow information to calculate the corrected color (that is, the reproduction color) of each pixel in the object region. calculate. Then, the reproduction color calculation unit 12 outputs the calculated corrected image as an output image.
  • the corrected surface reflection component is a component corrected by the surface reflection component correction unit 6 and indicates a preferable surface reflection component of each pixel in the object region.
  • the complete diffusion component is a component calculated by the reflection information restoration unit 5.
  • the reproduction color calculation unit 12 outputs the corrected image according to the processing procedure performed by the reproduction color calculation unit 150 described in step S5.
  • the color image processing apparatus 101 provides a method of improving the image quality by adjusting the surface reflection component, that is, the shine, as a method of realizing a desirable image quality of the human face.
  • Such shine is also an unpleasant specular component.
  • Patent Document 7 described above describes, as a related technique, a method for changing the color of an artificial object such as a plastic having a dichroic reflection model from red to blue.
  • the method described in Patent Document 7 is intended to change the color of an artifact to another color (change the color), and does not improve the image quality and correct it to a desired image quality.
  • the surface reflection component correction unit 6 corrects the surface reflection component
  • the reproduction color calculation unit 8 generates an output image using the corrected surface reflection component. That is, since the color image processing apparatus 101 includes the surface reflection component correction unit 6 and the reproduction color calculation unit 8, the object can be corrected to a desired image quality.
  • the image information acquisition unit 110 corresponds to the object area detection unit 3.
  • the reflection information restoration unit 120 is realized by the low frequency component calculation unit 4 and the reflection information restoration unit 5.
  • the surface reflection component correction unit 130 is realized by the surface reflection component correction unit 6 and the reference surface reflection component storage memory 7.
  • the reproduction color calculation unit 140 corresponds to the reproduction color calculation unit 8.
  • the configuration of the color image processing apparatus shown in FIG. 2 or FIG. 5 is an example, and other configurations may be used as long as the apparatus can realize the same function.
  • the color image processing apparatus 101 can be realized by a computer. Specifically, each component constituting the color image processing apparatus, that is, the object region detection unit 3, the low frequency component calculation unit 4, the reflection information restoration unit 5, the surface reflection component correction unit 6, and the reproduction
  • the color calculation unit 8 is realized by a central processing unit (CPU) of a computer that operates according to a program (color image processing program).
  • the representative surface reflection component storage memory 7 is realized by a memory device included in the color image processing apparatus 101, for example.
  • the program is stored in a storage unit (not shown) of the color image processing apparatus 101, and the CPU reads the program, and in accordance with the program, the object region detection unit 3, the low frequency component calculation unit 4, the reflection information restoration The unit 5, the surface reflection component correction unit 6, and the reproduction color calculation unit 8 may be operated. Further, the object area detection unit 3, the low frequency component calculation unit 4, the reflection information restoration unit 5, the surface reflection component correction unit 6, and the reproduction color calculation unit 8 are each realized by dedicated hardware. It may be.
  • each component constituting the color image processing apparatus can be realized by a CPU and a memory, and can be operated according to a program, not only in the first embodiment but also in a second embodiment described later. is there.
  • Embodiment 2 a color image processing method according to the second embodiment of the present invention will be described.
  • the color image processing method in the second embodiment is different from the color image processing method in the first embodiment in that the surface reflection component is changed in accordance with a user instruction.
  • FIG. 6 is a block diagram illustrating an example of a color image processing apparatus applied to the color image processing method according to the second embodiment.
  • a color image processing apparatus 102 illustrated in FIG. 6 is an apparatus that outputs the output image 2 by correcting the surface reflection component of the object region in the input image 1.
  • the color image processing apparatus 102 includes an object region detection unit 3, a low frequency component calculation unit 4, a reflection information restoration unit 5, a surface reflection component correction unit 6, a user interaction unit 9, and a reproduction color calculation unit 8. It has.
  • the color image processing apparatus 102 is obtained by replacing the reference surface reflection component storage memory 7 of the color image processing apparatus 101 illustrated in FIG. Therefore, only the user interaction unit 9 will be described below.
  • the user interaction unit 9 provides an interaction means for the user to adjust the amount of the surface reflection component in the region of the specific object in the input image.
  • the user interaction unit 9 is an input unit that inputs the amount of the surface reflection component in the region of the specific object in the input image.
  • the user interaction unit 9 is realized by, for example, a touch panel, a display device such as a display, and a pointing device such as a mouse.
  • FIG. 7 is an explanatory diagram showing an example of a graphical user interface (GUI) displayed by the user interaction unit 9.
  • GUI graphical user interface
  • the GUI illustrated in FIG. 7 interactively adjusts the amount of the surface reflection component in the specific object region in the calculated input image.
  • the slider bar 10 illustrated in FIG. 7 has a function of adjusting the value of ⁇ i in the above formula (3), for example.
  • the user interaction unit 9 may adjust the value of ⁇ i to be small (see FIG. 7A).
  • the user interaction unit 9 may adjust the value of ⁇ i so as to increase (see FIG. 7B).
  • the user interaction unit 9 displays a correction image that reflects the adjustment result of the surface reflection component in the input image in real time.
  • the user interaction unit 9 receives the amount (correction value) of the surface reflection component input from the user, and notifies the surface reflection component correction unit 6 of it.
  • the correction value may be a value that specifies the total amount of the surface reflection component, or may be a value that indicates the amount to be changed from the current surface reflection component.
  • the surface reflection component correction unit 6 corrects the surface reflection component of each pixel using the notified amount of the surface reflection component. In this way, an output image desired by the user can be generated.
  • the surface reflection component correction unit 6 corrects the surface reflection component using the method of reducing the area of the surface reflection component or the method of reducing the area of the surface reflection component described in the first embodiment. That's fine.
  • the surface reflection component correction unit 6 corrects the intensity of the surface reflection component described in the first embodiment.
  • the surface reflection component may be corrected using
  • the color image processing apparatus 102 is not limited to the case where it includes any one component of the reference surface reflection component storage memory 7 and the user interaction unit 9.
  • the color image processing apparatus 102 may include components of both the reference surface reflection component storage memory 7 and the user interaction unit 9.
  • the surface reflection component correction unit 6 corrects the surface reflection component using the reference surface reflection component stored in the reference surface reflection component storage memory 7. Then, the user interaction unit 9 displays an image including the corrected surface reflection component to the user. The user can input a correction value via the user interaction unit 9 when the user desires to change the surface reflection component of the corrected image. Thereby, the surface reflection component correction
  • the color image processing method and apparatus according to the present invention can be realized using a computer.
  • Each process performed by the color image processing method and the color image processing apparatus according to the present invention can also be realized by a combination of two or more of software, hardware, and firmware.
  • the program causes the computer to execute at least the following procedure.
  • the program is loaded into the memory of the computer, and the following instructions (a) to (d) are executed under the control of the CPU.
  • (C) A surface reflection component correction procedure for correcting the restored surface reflection component according to a reference surface reflection component which is a surface reflection component set in advance according to the object region. This procedure corresponds to the processing performed by the surface reflection component correction unit 130 in FIG.
  • the command executed by the program may include a user interaction procedure in which a correction value, which is information used when correcting the surface reflection component, is input from the user.
  • a correction value which is information used when correcting the surface reflection component
  • the program can be provided by being recorded on a recording medium, or can be provided by being transmitted through the Internet or other communication media.
  • the storage medium includes, for example, a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, a battery-backed RAM memory cartridge, a flash memory cartridge, and a nonvolatile RAM cartridge.
  • the communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the like.
  • the texture can be improved by controlling the amount of the surface reflection component in the specific object in the color image taken by the color image device.
  • the present invention solves the problem of deterioration of the texture of an object that occurs when a general color correction method is used.
  • the object region can be changed to have a desired texture by controlling the surface reflection component of the specific object in the color image taken by the color image device.
  • FIG. 8 is a block diagram showing an example of the minimum configuration of the color image processing apparatus according to the present invention.
  • the color image processing apparatus according to the present invention includes a target area detection unit 81 (for example, an image information acquisition unit 110) that detects a target area that is a target area for image processing from an input image, and color information in the target area. And a reflection component restoration that calculates a perfect diffusion component that is a low frequency component in the object region and restores a surface reflection component based on the color information and the low frequency component (for example, by removing the low frequency component from the color information).
  • a target area detection unit 81 for example, an image information acquisition unit 110
  • a reflection component restoration that calculates a perfect diffusion component that is a low frequency component in the object region and restores a surface reflection component based on the color information and the low frequency component (for example, by removing the low frequency component from the color information).
  • Means 82 for example, reflection information restoration unit 120
  • surface reflection component correction means for correcting the restored surface reflection component according to the reference surface reflection component which is a surface reflection component preset according to the object region 83 (for example, the surface reflection component correction unit 130), the complete diffusion component, and the corrected surface reflection component are used to calculate a reproduction color that is a color obtained by correcting each pixel in the input image.
  • a reproduced color calculation means 84 for generating an output image based on the reproduced color (e.g., reproduced color calculation unit 140).
  • the color image processing apparatus has a correction value input unit (for example, a user interaction unit 9) that inputs a correction value (for example, the amount of the surface reflection component) that is information used when correcting the surface reflection component. May be provided.
  • the surface reflection component correction unit 83 may correct the surface reflection component using the input correction value.
  • the surface reflection component correction unit 83 determines whether the average value of the surface reflection component in the object region of the input image and the average value of the reference surface reflection component (for example, a coefficient calculated by Equation 2) The pixel value of the surface reflection component may be corrected (for example, corrected using Equation 3).
  • the surface reflection component correcting unit 83 corrects the area of the surface reflection component so as to approach the area of the reference surface reflection component in the object region or the ratio of the area of the reference surface reflection component in the object region. Good.
  • the surface reflection component correcting unit 83 multiplies the pixel value by a predetermined rule (for example, a coefficient ⁇ i that decreases the amount (intensity) of the surface reflection component) of the pixel value of the surface reflection component in the object region. And reducing the area of the surface reflection component by excluding from the surface reflection component pixels whose pixel values are less than a predetermined threshold among the pixel values.
  • a predetermined rule for example, a coefficient ⁇ i that decreases the amount (intensity) of the surface reflection component
  • the surface reflection component correcting unit 83 selects a pixel adjacent to the surface reflection component among the pixels that are not the surface reflection component based on a predetermined rule (for example, a rule for selecting at random), and selects the selected pixel. Correction for increasing the area of the surface reflection component may be performed by adding the surface reflection component.
  • the present invention can be suitably applied to a function for improving the image quality of an image input to a color image input / output device.
  • the present invention can be applied as image correction software or utility for an arbitrary color image by adopting a program that operates in a computer system.

Abstract

 対象物領域検出手段は、画像処理の対象とする領域である対象物領域を入力画像から検出する。反射成分復元手段は、対象物領域における色情報及びその対象物領域における低周波成分である完全拡散成分を算出し、その色情報及び低周波成分に基づいて表面反射成分を復元する。表面反射成分補正手段は、対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正する。再現色算出手段は、完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、その再現色に基づいて出力画像を生成する。

Description

カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
 本発明は、カラー画像に対する画像処理に関し、特に、撮影機器を用いて実際に撮影されたカラー画像中の物体の質感を向上させる画像処理を行うカラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラムに関する。
 カラー画像撮影装置によって撮影されたカラー画像を高画質化する手法として、カラー画像中の特定対象物(例えば、肌の色、草木の緑、青空など)の色を、その対象物の記憶色に近づける手法が各種提案されている。このような手法を用いることで好ましい色を再現することが可能になる。
 例えば、特許文献1には、カラー画像の色補正に関する技術が開示されている。特許文献1に記載された自動色補正方法では、画像中の補正対象とする領域から代表色を抽出し、その代表色をあらかじめ設定された補正の中心色と比較してRGB補正パラメータを決定する。そして、画像中の画素と中心色との距離に応じて補正パラメータの適用強度をコントロールすることで、各画素を補正する。
 具体的には、特許文献1に記載された方法では、各画素の色情報であるRGB値から各画素の色相、彩度、明度を計算する。そして、色空間における各画素の色と補正の中心色との距離を計算し、その距離に応じて補正強度を調整する。このようにして、対象物の色を重点的に補正する。
 なお、この手法では、RGB色空間で補正パラメータの加減算に基づく色補正が行われる。例えば、顔の肌色の場合、RGBの補正量は、画素毎に補正の中心色との距離に応じて計算される。顔領域を全体的に明るくする場合には、顔領域のほぼ全領域の各画素のRGB値に対して、補正の中心色との上記距離に応じた補正パラメータが加減算される。
 特許文献2には、入力画像中の顔領域を検出する技術が開示されている。特許文献2に記載された目検出方法は、目を単独で評価した場合には特徴不足のために他の部分と判別できなかった場合にも、両目のなす特徴を基にした両目ペア評価値を用いることによって目と他の部分とを判別する。
 他にも、カラー画像の補正処理に関連する技術が、特許文献3~5に記載されている。特許文献3には、分光色の画像データを色補正する際、分光色を元の次元よりも低次元の色空間に変換し、低次元色空間内で色補正を行ったあと、低次元の分光色から適切な次元の分光色を生成する色補正装置および方法が開示されている。
 特許文献4には、基準白色が異なる表色系間で、色の見え方を一致させながら元色空間を目的色空間の色へ変換させる色変換方法が開示されている。具体的には、特許文献4に記載された色変換方法では、元色空間の基準白色である元基準白色の色温度から元基準白色の分光分布特性を復元する。また、目的色空間の基準白色である目的基準白色の色温度から目的基準白色の分光分布特性を復元する。そして、任意の色における三刺激値と、元基準白色の光分布特性と、人間の等色関数とを利用して、元色空間における任意の色の表面反射率を復元する。さらに、復元された表面反射率と、復元された目的基準白色の分光分布特性と、人間の等色関数とに基づいて、目的色空間における色である三刺激値を求める。
 特許文献5には、さまざまな照明環境下で撮影された自然画像における重要被写体に対し、自動的に良好な色補正を行う技術が開示されている。具体的には、特許文献5に記載された色補正方法では、特定対象物の体表色を抽出し、抽出された代表色に最適な色補正パラメータを設定する。このパラメータを用いて特定色相にのみ作用する色補正変換を行う。このような変換を行うことで、様々な照明環境下で撮影された自然画像における重要被写体に対して自動的に色補正を施すことが可能になる。
 また、特許文献6には、顔の皮膚反射モデルを生成して、そのモデルを顔画像のレンダリングに適用する技術が記載されている。特許文献6に記載された方法では、まず、顔を3Dスキャナでスキャンした3次元形状を取得する。この際、異なる視点から異なる照明方向で照らした複数の顔画像を取得する。そして、これらの表面スキャンデータと画像データとを用いて、全反射率と法線マップを推定する。また、全反射率は、表面下散乱と(鏡面)表面反射率の2つの成分に分離され、これらをもとに拡散反射率を推定する。さらに、光ファイバスペクトロメータを用いて表面下反射率をスキャンし、透光性マップを求める。
 また、特許文献7には、画像を構成する画素の画素値を、3次元物体における表面反射による表面反射光成分と、拡散反射による拡散反射光成分に分離し、表面反射光成分と拡散反射光成分のうちの少なくとも一方を変更する画像処理方法が記載されている。特許文献7に記載された画像処理方法では、Klinkerらによる反射モデル(以下、クリンカの分離法と記す。)を用いて、反射モデルを表面反射光成分と拡散反射光成分に分離する。そして、分離した各反射成分を、Phong illuminationモデルやLambertian Reflectionモデルなどを利用して変更する。
 さらに、非特許文献1には、一般化学習ベクトル量子化を用いた顔検出手法が記載されている。また、非特許文献2には、一般化学習ベクトル量子化を用いた、Image-based型と目の検出を行うFeature-based型とを組み合わせた顔検出方法が記載されている。
 また、顔の三次元形状を得るための方法として、特許文献6に記載されている3Dスキャナを使用する方法の他、2次元の顔画像から3次元形状(3次元情報)の顔情報に復元する方法も知られている(例えば、非特許文献3)。
 なお、特許文献1~2に記載された事項および非特許文献1~2に記載された事項については、本発明の実施形態中で適宜引用する。
特許第3264273号公報 特開2003-317084号公報 特開2004-45189号公報 特開平10-229499号公報 特開2001-92956号公報 特開2006-277748号公報 特開2001-52144号公報
細井 利憲,鈴木 哲明,佐藤 敦著、「一般化学習ベクトル量子化による顔検出」、FIT2002、I-30、2002年9月 田島譲二著、「画像工学シリーズ10 カラー画像複製論 カラーマネジメントの基礎」、丸善株式会社、平成8年9月30日、p.33-39 石山 塁著、「一般3D顔モデルを用いた姿勢変換による非正面顔画像の照合」、電子情報通信学会、2007年総合大会、D-12-085、2007年、p.201
 特許文献1に記載された色補正方法のように、カラー画像中における補正対象の領域に対して、RGBや、色相、彩度、明度といった色の3属性を用いて補正を行う方法では、物体の本来の質感が低下してしまう場合がある。その理由は、特許文献1に記載された色補正方法では、画像中のある対象物が示す領域の補正を行う際、その対象物全体に対して、明るくする、彩度を高める、色相を変化させるなどの色補正が行われる。画像中のある対象物の色を明るく補正する際、通常もともと高い画素値を持っている色成分(例えば赤)については飽和する現象が起こり、それ以外の色成分(緑、青)については補正パラメータが加減算される現象が起こる。対象物の領域全体にこの処理が行われると、対象物の領域における色情報又は画素値の分散が小さくなり、対象物の領域における見かけの質感が低下してしまう。
 すなわち、特許文献1に記載されるような一般的な補正方法では、カラー画像中の対象物の色を、より所望の色にすることで高画質化を実現している半面、質感が低下してしまうという問題があった。
 また、特許文献6では、顔画像のレンダリングに人間の皮膚反射モデルを適用することが提案されている。しかし、特許文献6に記載された方法では、顔画像の3次元情報を得るために、特別な測定装置である光ファイバスペクトロメータを必要とする。そのため、一般的なカラー画像処理装置で行う色補正にこの方法を適用することは困難である。
 上記問題を解決するため、非特許文献3に記載されているように、顔画像の3次元情報を得る方法として、2次元顔画像から3次元顔画像への復元技術を用いることも可能である。しかし、一般的なカラー画像処理で色補正を行う場合、非特許文献3に記載された復元技術よりも、より計算コストを抑えられることが好ましい。すなわち、上述した特殊な測定装置や、高い計算コストが要求されるような手法を用いずにカラー画像処理を行えることが望ましい。
 また、特許文献7に記載された画像処理方法では、画像中における物体の3次元情報の復元を行わず、クリンカの分離法や、Phong illuminationモデル、Lambertian Reflectionモデルといった、照明や反射に関するモデルを応用することで、色を変更させている。特許文献7に記載された画像処理方法は、プラスティック、塗料、紙、焼き物など、想定する反射モデルがよく一致する場合には効果的な手法である。しかし、特許文献7に記載された画像処理方法を用いて、人間の肌などの複雑な反射特性を有する物体を変更しようとすると、アーティファクトが出てしまうなどの問題がある。そのため、特許文献7に記載された画像処理方法では、対象物を所望の色に再現し、質感を向上させることができるとは言い難い。なお、特許文献7には、入力画像中の対象物を望ましい画質に補正するための方法は示されていない。
 そこで、本発明は、カラー画像機器で撮影されたカラー画像中の対象物について、低い計算コストで質感を向上させることができるカラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラムを提供することを目的とする。
 本発明によるカラー画像処理方法は、画像処理の対象とする領域である対象物領域を入力画像から検出し、対象物領域における色情報及びその対象物領域における低周波成分である完全拡散成分を算出し、色情報及び低周波成分に基づいて表面反射成分を復元し、対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正し、完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、再現色に基づいて出力画像を生成することを特徴とする。
 本発明によるカラー画像処理装置は、画像処理の対象とする領域である対象物領域を入力画像から検出する対象物領域検出手段と、対象物領域における色情報及びその対象物領域における低周波成分である完全拡散成分を算出し、その色情報及び低周波成分に基づいて表面反射成分を復元する反射成分復元手段と、対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正する表面反射成分補正手段と、完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、その再現色に基づいて出力画像を生成する再現色算出手段とを備えたことを特徴とする。
 本発明によるカラー画像処理プログラムは、コンピュータに、画像処理の対象とする領域である対象物領域を入力画像から検出する対象物領域検出処理、対象物領域における色情報及びその対象物領域における低周波成分である完全拡散成分を算出し、その色情報及び低周波成分に基づいて表面反射成分を復元する反射成分復元処理、対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正する表面反射成分補正処理、および、完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、その再現色に基づいて出力画像を生成する再現色算出処理を実行させることを特徴とする。
 本発明によれば、カラー画像機器で撮影されたカラー画像中の対象物について、低い計算コストで質感を向上させることができる。
本発明におけるカラー画像処理の一例を示す説明図である。 本発明によるカラー画像処理装置の一実施形態を示すブロック図である。 本発明の第1の実施形態におけるカラー画像処理方法の例を示すフローチャートである。 入力画像中の対象物領域を検出する処理の例を示す説明図である。 第1の実施形態におけるカラー画像処理方法に適用されるカラー画像処理装置の例を示すブロック図である。 第1の実施形態におけるカラー画像処理方法に適用されるカラー画像処理装置の例を示すブロック図である。 ユーザ対話部9が表示するGUIの一例を示す説明図である。 本発明によるカラー画像処理装置の最小構成例を示すブロック図である。
 以下、本発明の実施形態を、図面を参照しながら説明する。なお、説明の明確化のため、以下の説明で用いる図面には、適宜、模式的に表現した図が用いられるものとする。また、各図面において同一の構成または同一の機能を有する構成要素およびその構成要素に相当する部分には同一の符号を付し、一度説明した構成または機能については、後の記載においてその説明を省略する。
 まず初めに、本発明によるカラー画像処理装置が行うカラー画像処理方法の一態様について、その概要を説明する。本発明によるカラー画像処理方法では、入力画像中の特定対象物の質感を向上させる際、まず、カラー画像処理装置は、入力画像中の特定対象物の低周波成分を算出する。次に、カラー画像処理装置は、算出した低周波成分を、特定対象物における陰影情報を含んだ完全拡散成分として用いる。そして、カラー画像処理装置は、入力画像から完全拡散成分(陰影情報を含む)を減算することで、その特定対象物上における表面反射成分(ハイライト)を算出する。
 次に、カラー画像処理装置は、算出された特定対象物の表面反射成分の量を所望の量に補正する。そして、カラー画像処理装置は、補正された表面反射成分と、陰影情報を含んだ完全拡散分とを用いて、特定対象物の再現色を算出する。ここで、再現色とは、入力画像における各画素を補正した色であり、補正された表面反射成分と完全拡散成分とから算出される。このようにすることで、特定対象物の補正後の見かけの質感を、より自然に近く、かつ、より好ましい質感で表現することが出来る。
 なお、上述する処理概要に記載された単語の意味については後述する。
 図1は、本発明におけるカラー画像処理の一例を示す説明図である。以下、本発明におけるカラー画像処理装置が行うカラー画像処理方法の概要について、図1を用いてさらに説明する。
 I.まず、カラー画像処理装置は、入力される入力画像に関する情報を取得する(以下、画像情報取得処理と記す。)。具体的には、カラー画像処理装置は、入力画像が入力されると、その入力画像から特定対象物を特定する。特定対象物とは、補正する対象として特定される領域のことである。カラー画像処理装置は、特定対象物を特定することにより、表面反射成分を補正する領域(以下、対象物領域と記すこともある。)を検出する。また、併せて、カラー画像処理装置は、特定対象物の色情報(すなわち、対象物領域の色)を取得する。
 II.次に、カラー画像処理装置は、特定対象物の反射情報を復元する(以下、反射情報復元処理と記す。)。ここで、反射情報とは、特定対象物上で反射する反射光に関する情報である。特定対象物の反射情報は、一般的に、特定対象物の3次元形状に基づいて、照明の幾何条件をもとに復元される。一方、本発明におけるカラー画像処理方法では、3次元形状の代わりに特定対象物の低周波成分を利用する。
 カラー画像処理装置は、まず、特定対象物の低周波成分を、陰影情報を含む完全拡散成分とする。そして、カラー画像処理装置は、特定対象物の色情報から低周波成分を取り除くことで、表面反射成分を復元する。このとき、カラー画像処理装置は、入力画像の各画素の画素値について、色情報から低周波成分を減算することにより、表面反射成分を算出する。以上により、特定対象物の色情報が、表面反射成分と完全拡散成分(すなわち、陰影情報を含む完全拡散成分)に分離される。すなわち、表面反射成分が復元される。
 ここで、表面反射成分とは、物体の表面上で反射する反射光の成分であり、いわゆる「テカリ」を示す情報である。また、完全拡散成分とは、特定対象物の低周波成分であり、陰影情報とは、その完全拡散成分の輝度を示す情報である。
 III.カラー画像処理装置は、表面反射成分を補正する(以下、表面反射成分補正処理と記す。)。具体的には、カラー画像処理装置は、表面反射成分の平均値、参照表面反射成分を用いて、表面反射成分を補正する。ここで、参照表面反射成分とは、ユーザ等により好ましい質感であると判断される、特定対象物(対象物領域)に応じて予め設定された表面反射成分である。
 IV.カラー画像処理装置は、陰影情報を含む完全拡散成分と、補正した表面反射成分(以下、補正表面反射成分と記すこともある。)とを用いて、特定対象物の再現色を算出する(以下、再現色算出処理と記す)。
 なお、以下の説明では、特定対象物から検出した対象物領域が複数の画素から構成されていることを前提とする。また、各画素は色情報を有するものとする。なお、色情報のことを、画素値と記すこともある。色情報には、少なくとも、表面反射成分、完全拡散成分(陰影情報を含む)が含まれることを前提とする。なお、色情報には、上述以外の色に関する情報を含んでいてもよい。また、以降の説明では、特定対象物と対象物領域とを区別せずに説明する。なお、上述した各処理を行うカラー画像処理装置の構成については、後述する。
 次に、本発明によるカラー画像処理装置の構成について説明する。図2は、本発明によるカラー画像処理装置の一実施形態を示すブロック図である。図2に例示するカラー画像処理装置100は、画像情報取得部110と、反射情報復元部120と、表面反射成分補正部130と、再現色算出部140とを備えている。
 画像情報取得部110は、外部から入力される入力画像に基づいて、特定対象物を特定し、特定対象物の対象物領域を検出する。また、画像情報取得部110は、対象物領域の色情報を取得する。
 反射情報復元部120は、対象物領域の低周波成分を算出する。この算出された低周波成分が対象物領域における陰影情報を含んだ完全拡散成分である。そして、反射情報復元部120は、対象物領域の色情報から完全拡散成分を除去することで、対象物領域における表面反射成分を復元する。すなわち、対象物領域における色情報は、表面反射成分(テカリ)と完全拡散成分に分離され、それぞれの成分として復元される。
 表面反射成分補正部130は、反射情報復元部120が復元した表面反射成分を補正する。ここで、表面反射成分を補正するとは、表面反射成分を有する画素の面積を変更することや、表面反射成分の強度を変更することを意味する。表面反射成分補正部130は、例えば、表面反射成分の形状を変更することにより、表面反射成分を補正してもよい。また、表面反射成分補正部130は、表面反射成分の強度を増減させることで、表現反射成分を補正してもよい。
 なお、補正の際、表面反射成分補正部130は、対象物領域の表面反射成分の平均値を算出し、算出した平均値を用いて表面反射成分を補正する。表面反射成分補正部130は、例えば、予め設定した任意の値と対象物領域の表面反射成分の平均値とを比較することによって表面反射成分を補正してもよい。表面反射成分補正部130は、任意の値として、例えば、参照表面反射成分を用いてもよい。参照表面反射成分は、例えば、カラー画像処理装置100が備えるメモリ(以下、参照表面反射成分保存メモリと記す。)に予め記憶される。さらに、表面反射成分補正部130は、ユーザから補正値を受け付け、受け付けた補正値を用いて表面反射成分を補正してもよい。ここで、補正値とは、表面反射成分補正部130が表面反射成分の補正を行う際に用いられる情報の総称である。
 また、以下の説明では、表面反射成分を有する画素の面積のこと、および、表面反射成分の強度のことを総称して、表面反射成分の量と記す。そのため、表面反射成分の量を補正するとは、表面反射成分の画素の面積を補正すること、または、表面反射成分の強度を示す画素値を補正することを表す。
 再現色算出部140は、陰影情報を含む完全拡散成分と、補正された表面反射成分とを用いて、再現色を算出する。そして、再現色算出部140は、算出した再現色を用いて出力画像を生成する。
 上述した内容をまとめると、まず、画像情報取得部110が、対象物領域における低周波成分を取得する。次に、反射情報復元部120が、取得された対象物領域における低周波成分を用いて、その領域における表面反射成分と完全拡散成分とを復元する。そして、表面反射成分補正部130が、復元した表面反射成分を補正する。上記処理を行うことにより、カラー画像処理装置100は、対象物領域における低周波成分を利用して復元した表面反射成分を補正することが出来る。
 また、反射情報復元部120が、画像から得られる色情報から対象物領域の表面反射成分と陰影情報を含んだ完全拡散成分とを復元し、表面反射成分補正部130が、その表面反射成分のみに補正を施す。これらの処理を行うことにより、不自然なアーティファクトの発生を抑制している。さらに、3次元情報を復元しないことで、処理コストを低く抑えることができる。
 以下、本発明におけるカラー画像処理装置の動作について、各実施形態に則して説明する。
実施形態1.
 まず、本発明の第1の実施形態におけるカラー画像処理方法を、図面を用いて処理の流れを説明する。図3は、本発明の第1の実施形態におけるカラー画像処理方法の例を示すフローチャートである。なお、以下の説明では、本実施形態におけるカラー画像処理方法を、図2に例示するカラー画像処理装置100を用いて実現するものとする。また、以下の説明では、画像の表色系がRGB表色系であるものとする。すなわち、画像の色が、R(赤)、G(緑)およびB(青)の組み合わせで表されるものとする。以下、入力画像の色情報のことを、色情報RGBと表記するものとする。ただし、画像の表色系は、RGB表色系に限定されない。画像の表色系は、RGB以外の他の表色系であってもよい。
 以下、図2に例示するカラー画像処理装置100が、任意に与えられたカラー画像中の特定対象物の質感を向上させるために、カラー画像中の対象物領域の各画素における再現色の再計算を行う動作を説明する。
 まず、画像情報取得部110は、入力画像中から特定対象物を自動で検出する(ステップS1)。このとき、画像情報取得部110は、検出した特定対象物における対象物領域の色情報を併せて取得する。ここで、入力画像中から特定対象物を自動で検出するとは、入力画像から予め定められた対象(例えば、人間の顔)を特定対象物として検出することや、ユーザ等により個別に指定された対象を特定対象物として検出することを意味する。
 ここで、特定対象物とする個体は、それぞれ異なっていてもよい。すなわち、個体差があったとしても、大まかな色情報やテクスチャが普遍であることから、カラー画像から得られる特徴から想定する対象物であると特定できるのであれば、特定対象物は、特定の個体に限定されるものではない。
 図4は、入力画像中の対象物領域を検出する処理の例を示す説明図である。図4に示す例では、人間の顔を対象物領域としていることを示す。画像情報取得部110は、例えば、図4に例示するカラー画像中から、色情報やテクスチャなどを用いて特定対象物を検出する。以下、特定対象物が、人間の顔である場合について説明する。
 特定対象物を人間の顔とした場合、画像情報取得部110は、目、鼻、口などの形状特徴を利用して顔領域を検出する。画像情報取得部110は、顔領域を検出する方法として、例えば、非特許文献2に記載された顔検出方法を用いてもよい。上述の通り、非特許文献2に記載された顔検出方法は、Image-based型と目の検出を行うFeature-based型とを組み合わせる一般化学習ベクトル量子化を用いた方法である。
 他にも、画像情報取得部110は、入力画像から顔領域を検出する方法として、例えば、特許文献2に記載された、画像中から目を検出する方法を用いてもよい。入力画像中から目の位置を検出できれば、顔領域を推定することは容易である。
 なお、非特許文献2に記載された顔検出方法と、特許文献2に記載された目の検出方法は、通常、モノクロ情報を利用して顔検出を行う。画像情報取得部110は、さらに、その検出結果である顔領域が肌色であるか否かについて判定してもよい。このような判定処理を追加することにより、顔領域の検出精度を向上させることができる。なお、指定の領域が肌色か否かを判定する方法として、例えば、特許文献1に記載された画像ヒストグラムを利用してもよい。
 なお、画像情報取得部110が入力画像から顔領域を検出する方法は、上記方法に限定されない。また、上記説明では、任意に与えられた入力画像から自動検出する対象物が人間の顔である場合について説明した。ただし、自動検出する対象物は人間の顔に限られない。人間の顔以外の対象物を自動検出する場合、画像情報取得部110は、例えば、予め登録されている対象物領域の視覚的特徴情報と、画像データの視覚的特徴情報とを比較することによって対象物を自動検出してもよい。
 次に、反射情報復元部120は、表面反射成分と完全拡散成分とを算出する。本発明では、画像中の特定対象物の表面反射成分(テカリ)は、高い周波数成分を有する特徴があることに着目する。具体的には、反射情報復元部120が、特定対象物の三次元形状を用いずに、特定対象物の見かけの色情報から、表面反射成分(テカリ)と完全拡散成分(陰影情報を含む)を算出する。そのため、表面反射成分を低計算コストで算出することができる。以下、反射情報復元部120が行うこれらの処理について、ステップS2~S3で詳述する。
 まず、反射情報復元部120は、画像中の特定対象物が示す領域の低周波成分を算出する(ステップS2)。反射情報復元部120は、例えば、画像中の特定対象物が示す領域における各画素について、その周辺画素の平均値を算出することで低周波成分を算出してもよい。また、反射情報復元部120は、各画素をガウシアンなどの値に置き換える平滑化フィルタを使用することで、低周波成分を算出してもよい。ただし、低周波成分を算出する方法は、上記方法に限定されない。
 次に、反射情報復元部120は、ステップS2で算出された低周波成分を入力画像中の特定対象物における完全拡散成分とする。そして、反射情報復元部120は、入力画像中の特定対象物の色情報から完全拡散成分を減算して、表面反射成分を計算する(ステップS3)。
 一般に、対象物領域の反射率は、入射光と放射光の幾何条件に依存し、この反射特性は、双方向反射率分布関数BRDF(Bidirectional Reflectance Distribution Function)として表現される。BRDFでは、表面反射成分(Secular component)と完全拡散成分(Body reflection component)の2つの成分から構成される場合が多い。例えば、特定対象物が人などの生物の場合、表面反射成分は、皮膚の表面で反射する光の成分である。また、この場合、完全拡散成分は、一旦皮膚内部に入射し、その内部で拡散された光が再度皮膚を通じて発散する光の成分である。
 完全拡散成分は、低周波の特性を有している。そのため、特定対象物が示す領域の低周波成分を特定対象物の完全拡散成分DR(Diffuse Reflection)とみなすことができる。なお、ここでは、完全拡散成分DRは、カラーチャネル(たとえば、R、G、Bなど)ごとに算出されているものとし、各カラーチャネルの完全拡散成分をDRiと表現する。なお、iは各カラーチャネルを表す。
 いま、特定対象物がランバーシャンであると仮定して完全拡散成分が計算されている。しかし、実際には、完全拡散成分は、拡散反射成分のみではなく表面反射成分を含んでいる。つまり、入力画像の各カラーチャネルの画素値は、拡散反射成分と表面反射成分とを含んだ、そのカラーチャネルにおける見かけの画素値(輝度、明るさ)を表していると言える。したがって、反射情報復元部120は、特定対象物が示す領域中に含まれる画素の各カラーチャネルの表面反射成分SPiを、以下の式1で計算する。
 Ii-DRi>0のとき SPi=Ii-DRi 
        上記以外 SPi=0       (式1)
 ここで、Iiは、入力画像の特定対象物が示す領域中に含まれる画素の画素値を表しており、iは、カラーチャネル(たとえば、R、G、Bなど)を表している。
 次に、表面反射成分補正部130は、特定対象物の表面反射成分を補正する(ステップS4)。具体的には、カラー画像中の特定対象物領域における表面反射成分が得られると、表面反射成分補正部130は、この表面反射成分の量(面積や強度)をコントロールすることで、特定対象物の質感を向上させる。ここで、「面積」をコントロールするとは、表面反射成分を含む画素の個数(領域)を増減させることを意味する。また、「強度」をコントロールするとは、表面反射成分の各画素の値を増減させることを意味する。すなわち、表面反射成分補正部130は、入力カラー画像中の特定対象物における表面反射成分の面積や強度の大小など、表面反射成分の量を制御したり調整したりすることで所望の表面反射成分を生成する。
 まず、表面反射成分補正部130が、表面反射成分の量として、表面反射成分の強度を補正する方法を説明する。以下の説明では、対象物領域について所望の表面反射成分(すなわち、参照表面反射成分)の量が、カラー画像処理装置100のメモリ(図示せず)に予め記憶されているとする。この表面反射成分の量の平均を、以下のように表わす。
Figure JPOXMLDOC01-appb-M000001
 この平均は、以下のように算出できる。まず、ユーザ等により特定対象物の質感がよいとされる画像(以下、参照画像と記す。)を予め用意する。そして、上述したステップS1~S3に示す処理を参照画像に対して行うことで、特定対象物の表面反射成分を算出する。なお、この参照画像は、ユーザ等により質感がよいと判断される表面反射成分が対象物領域に応じて予め設定されている画像であるということができる。ここで、参照画像から算出した各画素における表面反射成分をSPRiと記す。このSPRiは、各画素における画素値を示すため、表面反射成分補正部130は、このSPRiの平均を求めることで、表面反射成分の量の平均を算出できる。
 次に、表面反射成分補正部130は、入力画像中の対象物領域における表面反射成分の平均値を算出する。入力画像中の対象物領域における表面反射成分の平均値を、以下のように表わす。
Figure JPOXMLDOC01-appb-M000002
 そして、表面反射成分補正部130は、それぞれの平均値を基に補正係数αiを、以下の式2により算出する。
Figure JPOXMLDOC01-appb-M000003
 補正係数の算出後、表面反射成分補正部130は、式2により算出されたαiを入力画像中の対象物領域における表面反射成分SPiに乗算することで、所望の表面反射成分の量(強度)に補正する。表面反射成分補正部130は、例えば、以下の式3を用いて、表面反射成分の量を補正してもよい。
 SPi’=αi×SPi  (式3)
 以上のように、表面反射成分補正部130は、入力画像の対象物領域における表面反射成分の平均値と、対象物領域に応じて予め設定された表面反射成分(すなわち、参照表面反射成分)の平均値との比率に応じて、表面反射成分の画素値を補正する。このように、対象物領域の表面反射成分の強度を補正することで、質感を向上させることができる。
 次に、表面反射成分補正部130が、表面反射成分の量として、表面反射成分の面積を補正する方法を説明する。表面反射成分の面積を補正する場合も、強度を補正する場合と同様、予め設定された参照画像における対象物領域の表面反射成分を用いる。ただし、面積を補正する場合には、表面反射成分の所望の量(面積)を用いて、入力画像の特定対象物における表面反射成分の量(面積)を調整する。なお、面積は、対象物領域の画素数に対する表面反射成分の画素数の割合で表わされていてもよい。
 まず、表面反射成分の面積を減少させて表面反射成分を補正する方法を説明する。この場合、表面反射成分補正部130は、入力画像の特定対象物の領域における表面反射成分の画素数(すなわち面積)が、対象物領域の所望の表面反射成分の量(面積)に近づくように表面反射成分を補正する。具体的には、表面反射成分補正部130は、上述するαiの代わりに、表面反射成分の量(強度)を減少させるような係数βi(βi<αi)を式3に用いて、表面反射成分の量(強度)を減少させる補正を行う。そして、表面反射成分補正部130は、補正した画素値SPi’が予め定めた閾値を下回る画素の画素値SPi’を0(ゼロ)にする。このように表面反射成分を0にすることで、表面反射成分の量(面積)を減少させる。
 以上のように、表面反射成分補正部130は、入力画像の対象物領域における表面反射成分の面積を、対象物領域に応じて予め設定された表面反射成分(すなわち、参照表面反射成分)の面積に減少させる補正を行う。その際、表面反射成分補正部130は、表面反射成分の画素値を減少させる係数を画素値に乗じるなど、対象物領域における表面反射成分の画素値を所定の規則に基づいて減少させる。そして、表面反射成分補正部130は、その画素値のうち、予め定められた閾値を下回る画素値の画素を表面反射成分から除外する。このように、対象物領域の表面反射成分の面積を減少させる補正を行うことで、質感を向上させることができる。
 次に、表面反射成分の面積を増加させて表面反射成分を補正する方法を説明する。この場合、式1に示すように、もともと表面反射成分でなかった画素は、そのままでは、表面反射成分になることはない。そのため、表面反射成分の面積を増加させるには、別途処理を行う必要がある。
 この場合、表面反射成分補正部130は、例えば、もともと表面反射成分でなかった画素(すなわち、反射情報復元部120が表面反射成分として復元しなかった画素)で、かつ、もともと表面反射成分であった画素(すなわち、反射情報復元部120が表面反射成分として復元した画素)に隣接する画素をランダムに選択する。そして、表面反射成分補正部130は、選択した画素の画素値を、例えば、式3のSPiに代入して、補正後の画素値SPi’を算出する。なお、選択した画素値が0(ゼロ)の場合、表面反射成分補正部130は、選択した画素の画素値(すなわち、表面反射成分)SPiに、正の実数を加算する。なお、表面反射成分補正部130は、式3を用いる場合、係数αiではなく、面積が増えるように画素値が増えるような係数を用いて補正後の画素値SPi’を算出してもよい。以降、表面反射成分補正部130は、もともと表面反射成分であった画素に隣接する画素を所望の面積になるまでランダムに選択し、その画素の画素値を補正する作業を繰り返す。このように表面反射成分の画素を増加させることで、表面反射成分の量(面積)を増加させる。
 以上のように、表面反射成分補正部130は、入力画像の対象物領域における表面反射成分の面積を、対象物領域に応じて予め設定された表面反射成分(すなわち、参照表面反射成分)の面積に増加させる補正を行う。その際、表面反射成分補正部130は、表面反射成分でない画素のうち、表面反射成分に隣接する画素を、例えば、ランダムなど、所定の規則に基づいて選択する。そして、表面反射成分補正部130は、選択した画素を表面反射成分に追加する。このように、対象物領域の表面反射成分の面積を増加させる補正を行うことで、質感を向上させることができる。
 次に、再現色算出部140は、補正後の表面反射成分と、完全拡散成分(陰影情報含む)とを用いて、入力画像中の対象物における各画素の補正後の色を算出する(ステップS5)。なお、この補正後の色を、再現色と言うことができる。
 再現色算出部140は、以下の式4に例示するように、陰影情報を含む完全拡散成分DRiに、ステップS4において補正された表面反射成分Spi’を加算することで、色補正後の画素値Ii’を計算する。
 Ii’=DRi+Spi’  (式4)
 そして、再現色算出部140は、入力画像中の対象物領域の色を上記方法に従って補正した画像を出力画像として出力する。
 上記説明では、入力画像および出力画像のデバイス依存カラーがRGBである場合について説明した。なお、デバイス依存カラーとは、出力先のデバイスに依存する色空間を意味する。ただし、このデバイス依存カラーは、RGBに限定されない。デバイス依存カラーとデバイス非依存カラーの三刺激値XYZとの対応関係が得られれば、デバイス依存カラーは、RGB以外のCMYやCMYKなどであってもよい。この場合、RGB以外の画像についても本発明の色補正方法を適用することが可能である。
 以上のように、本実施形態によれば、画像情報取得部110が、対象物領域を入力画像から検出する。次に、反射情報復元部120は、対象物領域における色情報と完全拡散成分を算出し、その色情報及び低周波成分に基づいて表面反射成分を復元する。そして、表面反射成分補正部130が、参照表面反射成分に応じて復元された表面反射成分を補正すると、再現色算出部140が、完全拡散成分と補正された表面反射成分とを用いて再現色を算出し、その再現色に基づいて出力画像を生成する。そのため、カラー画像中の対象物について、低い計算コストで質感を向上させることができる。
 次に、カラー画像処理装置(色補正装置と言うこともある。)の変形例について説明する。図5は、第1の実施形態におけるカラー画像処理方法に適用されるカラー画像処理装置の例を示すブロック図である。
 図5に例示するカラー画像処理装置101は、入力画像1における対象物領域の表面反射成分を補正して出力画像2を出力する装置である。カラー画像処理装置101は、対象物領域検出部3と、対象物領域の低周波成分計算部4(以下、低周波成分計算部4)と、対象物領域の表面反射成分と完全拡散成分計算部5(以下、反射情報復元部5)と、表面反射成分補正部6と、参照表面反射成分保存メモリ7と、対象物領域の再現色算出部8(以下、再現色算出部8)とを備えている。
 対象物領域検出部3は、入力画像1が与えられると、入力画像1を解析し、予め想定された特定対象物を検出する。そして、対象物領域検出部3は、検出した特定対象物における対象物領域を示す情報を出力する。ここで、対象物領域を示す情報には、対象物領域の色情報も含まれる。具体的には、対象物領域検出部3は、図3のステップS1で説明した画像情報取得部110が行う方法を用いて、対象物領域の色情報を求める。
 また、既に説明したように、入力画像1から検出する特定対象物は、人の顔などのように、対象物領域の色と形状特徴がある程度限定できるものである。なお、特定対象物の検出方法は、画像情報取得部110の説明で記載したとおりである。なお、入力画像1から目的とする対象物が検出できない場合、後述する再現色算出部12が、入力画像1を出力画像2として出力する。
 低周波成分計算部4は、対象物領域検出部3が検出した対象物領域の低周波成分を計算する。具体的には、低周波成分計算部6は、ステップS2に記載された反射情報復元部120が行う処理に基づいて、対象物領域の低周波成分を計算する。
 反射情報復元部5は、対象物領域の低周波成分を利用して、対象物領域における表面反射成分と完全拡散成分とを求める。具体的には、反射情報復元部5は、ステップS3に記載された反射情報復元部120が行う処理にしたがって、対象物領域における表面反射成分と完全拡散成分とを求める。
 参照表面反射成分保存メモリ7は、対象物領域の参照表面反射成分を記憶する。なお、上述の通り、参照表面反射成分は、対象物領域の好ましい画質をもたらす表面反射成分であり、対象物領域に応じて、予め参照表面反射成分保存メモリ7に設定される。
 表面反射成分補正部6は、算出された対象物領域における表面反射成分を、参照表面反射成分を用いて、表面反射成分の量を所望の量に補正する。具体的には、表面反射成分補正部6は、図3のステップS4に記載された表面反射成分補正部130が行う処理に従って、対象物領域における表面反射成分を補正する。表面反射成分補正部6が上記補正を行うことで、例えば人間の肌など、複雑な反射特性を有する物体の色を精度よく再現することができる。また、上記補正を行うことで、アーティファクトが出ることを回避することができる。
 再現色算出部8は、対象物領域の再現色を算出する。具体的には、再現色算出部8は、補正された表面反射成分と、陰影情報を含む完全拡散成分とを用いて、対象物領域における各画素の補正後の色(すなわち、再現色)を算出する。そして、再現色算出部12は、算出した補正後の画像を出力画像として出力する。なお、補正された表面反射成分は、表面反射成分補正部6が補正した成分であり、対象物領域における各画素の好ましい表面反射成分を示す。また、完全拡散成分は、反射情報復元部5が算出した成分である。再現色算出部12は、ステップS5に記載された再現色算出部150が行う処理手順に従って、補正後の画像を出力する。
 このように、カラー画像処理装置101は、人間の顔の望ましい画質を実現する方法として、表面反射成分、すなわちテカリを調整し、画質を改善するという方法を提供する。なお、このようなテカリは、不快な正反射成分と言うこともできる。なお、例えば、上述する特許文献7には、関連する技術として、2色性反射モデルを有するプラスティックなどの人工物の色を、赤から青に変更する方法が記載されている。しかし、特許文献7に記載された方法は、人工物の色を別の色に変更すること(色変更すること)を目的としており、画質を改善して望ましい画質に補正するものではない。一方、本発明では、表面反射成分補正部6が、表面反射成分の補正を行い、再現色算出部8が、補正された表面反射成分を用いて出力画像を生成する。すなわち、カラー画像処理装置101は、表面反射成分補正部6と再現色算出部8とを備えているため、対象物を望ましい画質に補正することができる。
 以上のことから、図5に例示するカラー画像処理装置101と、図2に例示するカラー画像処理装置100とは、以下の対応関係を有する。画像情報取得部110は、対象物領域検出部3に対応する。反射情報復元部120は、低周波成分計算部4と、反射情報復元部5とによって実現される。表面反射成分補正部130は、表面反射成分補正部6と、参照表面反射成分保存メモリ7によって実現される。再現色算出部140は、再現色算出部8に対応する。なお、図2または図5に示したカラー画像処理装置の構成は一例であり、同様の機能を実現する装置であれば、その他の構成であってもよい。
 さらに、カラー画像処理装置101は、コンピュータで実現可能である。具体的には、カラー画像処理装置を構成する各構成要素、すなわち、対象物領域検出部3と、低周波成分計算部4と、反射情報復元部5と、表面反射成分補正部6と、再現色算出部8とは、プログラム(カラー画像処理プログラム)に従って動作するコンピュータの中央処理装置(CPU)によって実現される。また、代表表面反射成分保存メモリ7は、例えば、カラー画像処理装置101が備えるメモリ装置によって実現される。
 例えば、プログラムは、カラー画像処理装置101の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、対象物領域検出部3、低周波成分計算部4、反射情報復元部5、表面反射成分補正部6、及び、再現色算出部8として動作してもよい。また、対象物領域検出部3と、低周波成分計算部4と、反射情報復元部5と、表面反射成分補正部6と、再現色算出部8とは、それぞれが専用のハードウェアで実現されていてもよい。
 なお、カラー画像処理装置を構成する各構成要素がCPU及びメモリで実現可能であること、およびプログラムに従って動作可能であることは、実施形態1に限らず、後述する第2の実施形態でも同様である。
実施形態2.
 次に、本発明の第2の実施形態におけるカラー画像処理方法について説明する。第2の実施形態におけるカラー画像処理方法は、ユーザの指示に応じて表面反射成分を変更する点において、第1の実施形態におけるカラー画像処理方法と異なる。
 図6は、第2の実施形態におけるカラー画像処理方法に適用されるカラー画像処理装置の例を示すブロック図である。図6に例示するカラー画像処理装置102は、入力画像1における対象物領域の表面反射成分を補正して出力画像2を出力する装置である。カラー画像処理装置102は、対象物領域検出部3と、低周波成分計算部4と、反射情報復元部5と、表面反射成分補正部6と、ユーザ対話部9と、再現色算出部8とを備えている。
 図6に例示するように、カラー画像処理装置102は、図5に例示するカラー画像処理装置101の参照表面反射成分保存メモリ7を、ユーザ対話部9に置き換えたものである。したがって、以下、ユーザ対話部9についてのみ説明する。
 ユーザ対話部9は、入力画像中の特定対象物の領域における表面反射成分の量を、ユーザが調整するための対話手段を提供する。具体的には、ユーザ対話部9は、入力画像中の特定対象物の領域における表面反射成分の量を入力する入力手段である。ユーザ対話部9は、例えば、タッチパネルや、ディスプレイなどの表示装置及びマウスなどのポインティングデバイスにより実現される。
 図7は、ユーザ対話部9が表示するグラフィカルユーザーインターフェース(GUI)の一例を示す説明図である。図7に例示するGUIは、算出された入力画像中の特定対象物領域における表面反射成分の量を対話的に調整するものである。図7に例示するスライダーバー10は、例えば、上述した式(3)におけるαiの値を調節する機能を有する。例えば、表面反射成分を弱くするようにスライダーバー10を調節した場合に、ユーザ対話部9は、αiの値を小さくするように調整してもよい(図7(a)参照)。逆に、表面反射成分を強調するようにスライダーバー10を調節した場合に、ユーザ対話部9は、αiの値を大きくするように調整してもよい(図7(b)参照)。また、ユーザ対話部9は、表面反射成分の量を調整したときに、入力画像中の表面反射成分の調整結果をリアルタイムに反映した補正画像を表示する。
 ユーザ対話部9は、ユーザから入力される表面反射成分の量(補正値)を受け付け、表面反射成分補正部6へ通知する。補正値は、表面反射成分の総量を指定する値であってもよく、現在の表面反射成分から変化させる量を示す値であってもよい。このとき、表面反射成分補正部6は、通知された表面反射成分の量を用いて、各画素の表面反射成分を補正する。このようにすることで、ユーザの希望する出力画像を生成することができる。
 例えば、ユーザ対話部9が表面反射成分の面積を増減させる指示を補正値として受け取ったとする。この場合、表面反射成分補正部6は、第1の実施形態で説明した、表面反射成分の面積を減少させる方法、または、表面反射成分の面積を減少させる方法を用いて表面反射成分を補正すればよい。また、ユーザ対話部9が表面反射成分の強度を増減させる指示を補正値として受け取った場合、表面反射成分補正部6は、第1の実施形態で説明した、表面反射成分の強度を補正する方法を用いて表面反射成分を補正すればよい。
 なお、上記説明では、図5に例示するカラー画像処理装置101の参照表面反射成分保存メモリ7を、ユーザ対話部9に置き換えた構成例を説明した。ただし、カラー画像処理装置102は、参照表面反射成分保存メモリ7とユーザ対話部9のいずれか一方の構成要素を含む場合に限定されない。カラー画像処理装置102は、参照表面反射成分保存メモリ7とユーザ対話部9の両方の構成要素を備えていてもよい。
 例えば、この場合、まず、表面反射成分補正部6は、参照表面反射成分保存メモリ7に記憶された参照表面反射成分を用いて表面反射成分を補正する。そして、ユーザ対話部9は、補正された表面反射成分を含む画像をユーザへ表示する。ユーザは、補正された画像について、さらに表面反射成分の変更を希望する場合、ユーザ対話部9を介して補正値を入力することが可能になる。これにより、表面反射成分補正部6及び再現色算出部8は、ユーザの希望する出力画像を生成することができる。また、ユーザ側でも、利用する用途に応じて表面反射成分を変更することが可能になる。
 次に、本発明を実現する様々な実施形態について説明する。本発明によるカラー画像処理方法及び装置は、コンピュータを用いて実現することができる。また、本発明によるカラー画像処理方法及びカラー画像処理装置が行う各処理は、ソフトウェア、ハードウェア、ファームフェアのいずれか二つ以上の組み合わせで実現することもできる。
 例えば、図2に例示するカラー画像処理装置100を、プログラムを用いてコンピュータで実現する場合、プログラム(プログラムの命令群)は、少なくとも次の手順をコンピュータに実行させる。具体的には、プログラムが、コンピュータのメモリにロードされ、CPUの制御のもとで、以下の命令(a)~(d)が実行される。
(a)画像処理の対象とする領域である対象物領域を入力画像から検出する対象物領域検出手順。この手順は、図2における画像情報取得部110が行う処理に対応する。
(b)対象物領域における色情報及びその対象物領域における低周波成分である完全拡散成分を算出し、その色情報及び低周波成分に基づいて表面反射成分を復元する反射成分復元手順。この手順は、図2における反射情報復元部120が行う処理に対応する。
(c)対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正する表面反射成分補正手順。この手順は、図2における表面反射成分補正部130が行う処理に対応する。
(d)完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、その再現色に基づいて出力画像を生成する再現色算出手順。この手順は、図2における再現色算出部140が行う処理に対応する。
 さらに、プログラムにより実行される命令には、表面反射成分の補正を行う際に用いる情報である補正値をユーザから入力されるユーザ対話手順を含んでいてもよい。このとき、表面反射成分補正手順において、入力された補正値を用いて表面反射成分を補正してもよい。
 また、プログラム(カラー画像処理プログラム)は、記録媒体に記録して提供することも可能であり、また、インターネットその他の通信媒体を介して伝送することにより提供することも可能である。また、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD-ROM、DVD、ROMカートリッジ、バッテリバックアップ付きRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等が含まれる。また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等が含まれる。
 以上説明したように、本発明によれば、カラー画像機器で撮影されたカラー画像中の特定対象物における表面反射成分の量をコントロールすることにより質感を向上させることができる。
 また、本発明では、一般的な色補正方法を用いた場合に発生する物体の質感低下という課題を解決している。具体的には、カラー画像機器で撮影されたカラー画像中の特定対象物の表面反射成分をコントロールすることで、対象物領域が所望の質感になるように変更することができる。また、本発明によれば、光ファイバスペクトロメータなどの測定装置を必要とせず、入力画像のみを利用した、より容易な方法で画像の質感を向上させることができる。
 次に、本発明によるカラー画像処理装置の最小構成の例を説明する。図8は、本発明によるカラー画像処理装置の最小構成の例を示すブロック図である。本発明によるカラー画像処理装置は、画像処理の対象とする領域である対象物領域を入力画像から検出する対象物領域検出手段81(例えば、画像情報取得部110)と、対象物領域における色情報及びその対象物領域における低周波成分である完全拡散成分を算出し、その色情報及び低周波成分に基づいて(例えば、色情報から低周波成分を除いて)表面反射成分を復元する反射成分復元手段82(例えば、反射情報復元部120)と、対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正する表面反射成分補正手段83(例えば、表面反射成分補正部130)と、完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、その再現色に基づいて出力画像を生成する再現色算出手段84(例えば、再現色算出部140)とを備えている。
 そのような構成により、カラー画像機器で撮影されたカラー画像中の対象物について、低い計算コストで質感を向上させることができる。
 また、カラー画像処理装置は、表面反射成分の補正を行う際に用いる情報である補正値(例えば、表面反射成分の量)をユーザから入力される補正値入力手段(例えば、ユーザ対話部9)を備えていてもよい。その際、表面反射成分補正手段83は、入力された補正値を用いて表面反射成分を補正してもよい。
 また、表面反射成分補正手段83が、入力画像の対象物領域における表面反射成分の平均値と、参照表面反射成分の平均値との比率(例えば、式2により算出される係数)に応じて、表面反射成分の画素値を補正(例えば、式3を用いて補正)してもよい。
 また、表面反射成分補正手段83が、対象物領域における参照表面反射成分の面積、または、対象物領域における参照表面反射成分の面積の割合に近づけるように、表面反射成分の面積を補正してもよい。
 具体的には、表面反射成分補正手段83は、対象物領域における表面反射成分の画素値を所定の規則(例えば、表面反射成分の量(強度)を減少させるような係数βiを画素値に乗じる規則)に基づいて減少させ、その画素値のうち、予め定められた閾値を下回る画素値の画素を表面反射成分から除外することにより、表面反射成分の面積を減少させる補正を行ってもよい。
 他にも、表面反射成分補正手段83は、表面反射成分でない画素のうち、表面反射成分に隣接する画素を所定の規則(例えば、ランダムに選択する規則)に基づいて選択し、選択した画素を表面反射成分として追加することにより、表面反射成分の面積を増加させる補正を行ってもよい。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2010年6月30日に出願された日本特許出願2010-149234を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、カラー画像入出力装置に入力される画像を高画質化する機能に好適に適用できる。また、本発明は、コンピュータシステムで動作するプログラムの形態とすることで、任意のカラー画像に対する画像補正ソフトウェアあるいはユーティリティとしても適用
 1 入力画像
 2 出力画像
 3 対象物領域検出部
 4 対象物領域の低周波成分計算部
 5 対象物領域の表面反射成分と完全拡散成分計算部
 6 表面反射成分補正部
 7 参照表面反射成分保存メモリ
 8 対象物領域の再現色算出部
 9 ユーザ対話部
 10 スライダーバー
 100,101,102 カラー画像処理装置
 110 画像情報取得部
 120 反射情報復元部
 130 表面反射成分補正部
 140 再現色算出部

Claims (10)

  1.  画像処理の対象とする領域である対象物領域を入力画像から検出し、
     前記対象物領域における色情報及び当該対象物領域における低周波成分である完全拡散成分を算出し、
     前記色情報及び低周波成分に基づいて表面反射成分を復元し、
     対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正し、
     前記完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、
     前記再現色に基づいて出力画像を生成する
     ことを特徴とするカラー画像処理方法。
  2.  表面反射成分の補正を行う際に用いる情報である補正値をユーザから入力され、
     復元された表面反射成分を補正する際、入力された補正値を用いて表面反射成分を補正する
     請求項1記載のカラー画像処理方法。
  3.  復元された表面反射成分を補正する際、入力画像の対象物領域における表面反射成分の平均値と、参照表面反射成分の平均値との比率に応じて、表面反射成分の画素値を補正する
     請求項1または請求項2に記載のカラー画像処理方法。
  4.  復元された表面反射成分を補正する際、対象物領域における参照表面反射成分の面積、または、対象物領域における参照表面反射成分の面積の割合に近づけるように、表面反射成分の面積を補正する
     請求項1または請求項2に記載のカラー画像処理方法。
  5.  復元された表面反射成分を補正する際、対象物領域における表面反射成分の画素値を所定の規則に基づいて減少させ、当該画素値のうち、予め定められた閾値を下回る画素値の画素を表面反射成分から除外することにより、表面反射成分の面積を減少させる補正を行う
     請求項4記載のカラー画像処理方法。
  6.  復元された表面反射成分を補正する際、表面反射成分でない画素のうち、表面反射成分に隣接する画素を所定の規則に基づいて選択し、選択した画素を表面反射成分として追加することにより、表面反射成分の面積を増加させる補正を行う
     請求項4記載のカラー画像処理方法。
  7.  画像処理の対象とする領域である対象物領域を入力画像から検出する対象物領域検出手段と、
     前記対象物領域における色情報及び当該対象物領域における低周波成分である完全拡散成分を算出し、当該色情報及び低周波成分に基づいて表面反射成分を復元する反射成分復元手段と、
     対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正する表面反射成分補正手段と、
     前記完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、当該再現色に基づいて出力画像を生成する再現色算出手段とを備えた
     ことを特徴とするカラー画像処理装置。
  8.  表面反射成分の補正を行う際に用いる情報である補正値をユーザから入力される補正値入力手段を備え、
     表面反射成分補正手段は、入力された補正値を用いて表面反射成分を補正する
     請求項7記載のカラー画像処理装置。
  9.  コンピュータに、
     画像処理の対象とする領域である対象物領域を入力画像から検出する対象物領域検出処理、
     前記対象物領域における色情報及び当該対象物領域における低周波成分である完全拡散成分を算出し、当該色情報及び低周波成分に基づいて表面反射成分を復元する反射成分復元処理、
     対象物領域に応じて予め設定された表面反射成分である参照表面反射成分に応じて、復元された表面反射成分を補正する表面反射成分補正処理、および、
     前記完全拡散成分と、補正された表面反射成分とを用いて、入力画像における各画素を補正した色である再現色を算出し、当該再現色に基づいて出力画像を生成する再現色算出処理
     を実行させるためのカラー画像処理プログラム。
  10.  コンピュータに、
     表面反射成分の補正を行う際に用いる情報である補正値をユーザから入力された場合に、当該補正値を用いて表面反射成分を補正させる
     請求項9記載のカラー画像処理プログラム。
PCT/JP2011/003681 2010-06-30 2011-06-28 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム WO2012001949A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP11800419.1A EP2590136A1 (en) 2010-06-30 2011-06-28 Color image processing method, color image processing device, and color image processing program
US13/702,637 US8855371B2 (en) 2010-06-30 2011-06-28 Color image processing method, color image processing device, and color image processing program
CN201180031007.4A CN102985941B (zh) 2010-06-30 2011-06-28 彩色图像处理方法和彩色图像处理设备
JP2012522462A JP5867390B2 (ja) 2010-06-30 2011-06-28 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-149234 2010-06-30
JP2010149234 2010-06-30

Publications (1)

Publication Number Publication Date
WO2012001949A1 true WO2012001949A1 (ja) 2012-01-05

Family

ID=45401691

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/003681 WO2012001949A1 (ja) 2010-06-30 2011-06-28 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム

Country Status (5)

Country Link
US (1) US8855371B2 (ja)
EP (1) EP2590136A1 (ja)
JP (1) JP5867390B2 (ja)
CN (1) CN102985941B (ja)
WO (1) WO2012001949A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140093158A1 (en) * 2012-10-02 2014-04-03 Kabushiki Kaisha Toshiba Apparatus and method for generating a multi-viewpoint image
JP2014142836A (ja) * 2013-01-24 2014-08-07 Ricoh Co Ltd 処理装置、処理システム、処理方法及びプログラム
JP2014211914A (ja) * 2014-08-06 2014-11-13 Eizo株式会社 階調補正装置またはその方法
WO2015163169A1 (ja) * 2014-04-23 2015-10-29 ソニー株式会社 画像処理装置および方法
WO2016151850A1 (ja) * 2015-03-26 2016-09-29 日立マクセル株式会社 撮像装置、信号処理装置、および肌診断システム
WO2016158274A1 (ja) * 2015-03-30 2016-10-06 シャープ株式会社 画像処理装置
JPWO2016190062A1 (ja) * 2015-05-22 2018-03-08 ソニー株式会社 画像処理装置および方法
JP2019024256A (ja) * 2018-10-19 2019-02-14 キヤノン株式会社 画像処理装置および画像処理方法
CN110880166A (zh) * 2019-11-20 2020-03-13 天津津航计算技术研究所 多目标光纤光谱减天光处理方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9485391B2 (en) * 2008-02-22 2016-11-01 Nec Corporation Method, apparatus and program for restoring and correcting surface reflectance with color image processing
CN102985943A (zh) * 2010-06-30 2013-03-20 日本电气株式会社 彩色图像处理方法、彩色图像处理装置以及彩色图像处理程序
CN103679649B (zh) * 2013-11-18 2016-10-05 联想(北京)有限公司 一种信息处理方法和电子设备
US9251567B1 (en) 2014-03-13 2016-02-02 Google Inc. Providing color corrections to photos
JP6423625B2 (ja) * 2014-06-18 2018-11-14 キヤノン株式会社 画像処理装置および画像処理方法
JP6393153B2 (ja) * 2014-10-31 2018-09-19 株式会社スクウェア・エニックス プログラム、記録媒体、輝度演算装置及び輝度演算方法
US10242287B2 (en) * 2015-06-11 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
KR101772626B1 (ko) 2016-02-03 2017-08-29 서강대학교산학협력단 단일 영상으로부터 반사성분을 분리하는 방법 및 그 방법에 따른 영상처리 장치
CN106097240B (zh) * 2016-06-13 2019-05-17 天津大学 一种彩色图像自适应隐写方法
JP6833415B2 (ja) 2016-09-09 2021-02-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6827782B2 (ja) * 2016-11-30 2021-02-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および記録媒体
US10839560B1 (en) * 2019-02-26 2020-11-17 Facebook Technologies, Llc Mirror reconstruction
CN114022395B (zh) * 2022-01-06 2022-04-12 广州卓腾科技有限公司 一种证件照头发颜色矫正方法、装置及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10229499A (ja) 1997-02-14 1998-08-25 Nec Corp 色変換方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2001052144A (ja) 1999-08-10 2001-02-23 Sony Corp 画像処理装置および画像処理方法、並びに媒体
JP2001092956A (ja) 1999-09-22 2001-04-06 Nec Corp 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体
JP2003317084A (ja) 2002-04-19 2003-11-07 Nec Corp 顔画像からの目検出システム、目検出方法および目検出用プログラム
JP2004045189A (ja) 2002-07-11 2004-02-12 Matsushita Electric Ind Co Ltd 色補正装置及び色補正方法
JP2005222405A (ja) * 2004-02-06 2005-08-18 Kao Corp ファンデーションの推奨方法
JP2006004432A (ja) * 2004-06-18 2006-01-05 Mitsubishi Electric Research Laboratories Inc シーンの反射率関数を推定する方法
JP2006023921A (ja) * 2004-07-07 2006-01-26 Kao Corp 化粧シミュレーション装置および方法
JP2006277748A (ja) 2005-03-29 2006-10-12 Mitsubishi Electric Research Laboratories Inc コンピュータにより実施される、顔の皮膚反射モデルを生成する方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03264273A (ja) 1990-03-13 1991-11-25 Nissan Kohki Co Ltd 吸排気バルブコッター組付装置
EP1610544A1 (en) * 2004-06-25 2005-12-28 STMicroelectronics Limited Readout Circuit for image sensor array
WO2007007788A1 (ja) * 2005-07-13 2007-01-18 Nec Corporation 色補正方法および色補正装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10229499A (ja) 1997-02-14 1998-08-25 Nec Corp 色変換方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
JP2001052144A (ja) 1999-08-10 2001-02-23 Sony Corp 画像処理装置および画像処理方法、並びに媒体
JP2001092956A (ja) 1999-09-22 2001-04-06 Nec Corp 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体
JP3264273B2 (ja) 1999-09-22 2002-03-11 日本電気株式会社 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体
JP2003317084A (ja) 2002-04-19 2003-11-07 Nec Corp 顔画像からの目検出システム、目検出方法および目検出用プログラム
JP2004045189A (ja) 2002-07-11 2004-02-12 Matsushita Electric Ind Co Ltd 色補正装置及び色補正方法
JP2005222405A (ja) * 2004-02-06 2005-08-18 Kao Corp ファンデーションの推奨方法
JP2006004432A (ja) * 2004-06-18 2006-01-05 Mitsubishi Electric Research Laboratories Inc シーンの反射率関数を推定する方法
JP2006023921A (ja) * 2004-07-07 2006-01-26 Kao Corp 化粧シミュレーション装置および方法
JP2006277748A (ja) 2005-03-29 2006-10-12 Mitsubishi Electric Research Laboratories Inc コンピュータにより実施される、顔の皮膚反射モデルを生成する方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
HOSOI TOSHINORI; SUZUKI TETSUAKI; SATO ATSUSHI: "Face Detection based on Generalized Learning Vector Quantization", FIT2002, September 2002 (2002-09-01), pages 1 - 30
ISHIYAMA RUI: "Recognition of Non-Frontal Facial Images by Pose Conversion using General 3D Face Model", PROCEEDINGS OF THE IEICE, 2007, pages 201
MASATO TSUKADA ET AL.: "Face Image Enhancement Based on 3D and Spectral Information", FIT2009 DAI 8 KAI FORUM ON INFORMATION TECHNOLOGY KOEN RONBUNSHU, vol. 3, 20 August 2009 (2009-08-20), pages 273 - 274, XP008161875 *
RUI ISHIYAMA ET AL.: "Specularity Removal for Enhancing Face Recognition under Variable Pose and Illumination", FIT2009 DAI 8 KAI FORUM ON INFORMATION TECHNOLOGY KOEN RONBUNSHU, vol. 3, 20 August 2009 (2009-08-20), pages 111 - 112, XP008161876 *
TAJ IMA JOHJI: "Image Engineering Series 10, Color Image Duplication Theory, Basics of Color Management", 30 September 1996, MARUZEN CORPORATION, pages: 33 - 39
TAKAHIRO OKABE ET AL.: "Separation of Reflection Components Based on Frequency Characteristics of Bidirectional Reflectance Distribution Functions", IPSJ SIG NOTES, vol. 2002, no. 84, 12 September 2002 (2002-09-12), pages 1 - 8, XP008161874 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014074969A (ja) * 2012-10-02 2014-04-24 Toshiba Corp 画像処理装置及びその方法
US9111377B2 (en) 2012-10-02 2015-08-18 Kabushiki Kaisha Toshiba Apparatus and method for generating a multi-viewpoint image
US20140093158A1 (en) * 2012-10-02 2014-04-03 Kabushiki Kaisha Toshiba Apparatus and method for generating a multi-viewpoint image
JP2014142836A (ja) * 2013-01-24 2014-08-07 Ricoh Co Ltd 処理装置、処理システム、処理方法及びプログラム
JPWO2015163169A1 (ja) * 2014-04-23 2017-04-13 ソニー株式会社 画像処理装置および方法
WO2015163169A1 (ja) * 2014-04-23 2015-10-29 ソニー株式会社 画像処理装置および方法
US10373344B2 (en) 2014-04-23 2019-08-06 Sony Corporation Image processing apparatus and method for adjusting intensity of a reflective property of an object in a displayed image
JP2014211914A (ja) * 2014-08-06 2014-11-13 Eizo株式会社 階調補正装置またはその方法
WO2016151850A1 (ja) * 2015-03-26 2016-09-29 日立マクセル株式会社 撮像装置、信号処理装置、および肌診断システム
JPWO2016151850A1 (ja) * 2015-03-26 2018-01-18 マクセルホールディングス株式会社 撮像装置、信号処理装置、および肌診断システム
JPWO2016158274A1 (ja) * 2015-03-30 2017-12-28 シャープ株式会社 画像処理装置
WO2016158274A1 (ja) * 2015-03-30 2016-10-06 シャープ株式会社 画像処理装置
JPWO2016190062A1 (ja) * 2015-05-22 2018-03-08 ソニー株式会社 画像処理装置および方法
JP2019024256A (ja) * 2018-10-19 2019-02-14 キヤノン株式会社 画像処理装置および画像処理方法
CN110880166A (zh) * 2019-11-20 2020-03-13 天津津航计算技术研究所 多目标光纤光谱减天光处理方法

Also Published As

Publication number Publication date
CN102985941A (zh) 2013-03-20
JPWO2012001949A1 (ja) 2013-08-22
EP2590136A1 (en) 2013-05-08
JP5867390B2 (ja) 2016-02-24
CN102985941B (zh) 2015-08-19
US8855371B2 (en) 2014-10-07
US20130083969A1 (en) 2013-04-04

Similar Documents

Publication Publication Date Title
JP5867390B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5533670B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP6004481B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5648483B2 (ja) カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP5158100B2 (ja) カラー画像処理方法、装置およびプログラム
WO2007007788A1 (ja) 色補正方法および色補正装置
US9398282B2 (en) Image processing apparatus, control method, and computer-readable medium
JP2009159580A (ja) 画質評価装置及びその方法
CN110782400B (zh) 一种自适应的光照均匀实现方法和装置
JP7114335B2 (ja) 画像処理装置、画像処理装置の制御方法、及び、プログラム
JP6382052B2 (ja) 画像処理装置、画像処理システム、画像処理方法、プログラム及び記憶媒体
JP7199849B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4626776B2 (ja) 色補正方法および色補正装置
KR100892078B1 (ko) 영상 밝기 조절 장치 및 그 방법
JP2007166626A (ja) 入力色の複製に結びついた知覚ノイズを低減する方法、入力色の複製に結びついた知覚ノイズを低減するシステムおよび1つ以上の命令シーケンスを搭載するコンピュータ読み取り可能な媒体
JP2016218663A (ja) 照明光色推定装置、照明光色推定方法及び照明光色推定プログラム
JP2012043360A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180031007.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11800419

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012522462

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2011800419

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011800419

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13702637

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE