WO2015118788A1 - 画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体 - Google Patents

画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体 Download PDF

Info

Publication number
WO2015118788A1
WO2015118788A1 PCT/JP2014/084072 JP2014084072W WO2015118788A1 WO 2015118788 A1 WO2015118788 A1 WO 2015118788A1 JP 2014084072 W JP2014084072 W JP 2014084072W WO 2015118788 A1 WO2015118788 A1 WO 2015118788A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
bracket
white balance
gain
unit
Prior art date
Application number
PCT/JP2014/084072
Other languages
English (en)
French (fr)
Inventor
慎也 藤原
上田 徹
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201480074484.2A priority Critical patent/CN105940673B/zh
Priority to JP2015561184A priority patent/JP6195633B2/ja
Publication of WO2015118788A1 publication Critical patent/WO2015118788A1/ja
Priority to US15/185,368 priority patent/US10070112B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control

Definitions

  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, a program, and a recording medium, and more particularly to a white balance bracketing technique.
  • white balance bracketing which is a kind of auto bracket function
  • the white balance bracketing is a function for acquiring a plurality of images having different white balances by one shooting by applying different white balance gains to the processing target image. For example, a total of three images, “base image”, “first bracket image having a hue closer to blue than the base image”, and “second bracket image having a hue closer to amber than the base image”, are used for white balance. It can be obtained by the bracketing function. The user can more reliably obtain an image subjected to appropriate white balance processing from the base image and the bracket image.
  • color correction such as overcorrection or uncorrected color may occur.
  • white balance bracketing a plurality of images having different white balances are acquired even if shooting is performed in an environment where a color failure may occur. By selecting a desired image from a plurality of images having different white balances, the user can obtain an image in which color feria has been eliminated or reduced.
  • Patent Document 1 discloses an electronic camera capable of bracket shooting based on two shooting conditions.
  • bracket shooting is performed while changing each of the first shooting condition (exposure) and the second shooting condition (color balance).
  • first shooting condition Exposure
  • second shooting condition color balance
  • On the display screen of the bracketed image “a plurality of images having the same first image capturing condition but different second image capturing conditions” are arranged in the vertical direction, and “the second image capturing condition is different but the second image capturing condition is different.
  • a plurality of images having the same shooting conditions are arranged in the horizontal direction.
  • Patent Document 2 discloses an imaging device for intuitively understanding how much correction is performed in which direction.
  • the coordinate axes of the blue direction and the amber direction are displayed in the horizontal direction
  • the coordinate axes of the green direction and the magenta direction are displayed in the vertical direction
  • the coordinate origin of these two axes is set as the correction value 0.
  • the correction amount is expressed.
  • Patent Document 3 discloses a camera that can perform continuous shooting by changing the white balance control gain to various colors. In this camera, white balance processing is performed based on an arbitrary number of colors set by the photographer.
  • the hue of the image tends to shift depending on the correction direction by the white balance processing.
  • AB mode Auto White Balance mode
  • the hue of the image tends to shift in the amber / blue direction.
  • white balance processing is performed in an auto white balance mode on an image taken under a white fluorescent lamp or an image mainly composed of green trees, the hue of the image tends to shift in the green / magenta direction.
  • the “correction direction of hue by white balance processing” is set in the amber / blue direction in advance, for example, white balance processing of images taken under a white fluorescent lamp or images mainly of green trees is appropriate. In some cases, an image having a different hue cannot be obtained.
  • white balance bracketing the difference in white balance (bracket amount) between a base image and a bracket image is generally constant regardless of the shooting scene. For example, when white balance processing is performed in which a processing target image configured by RGB pixel values is shifted in the amber direction by one step, the R gain is 1.2 times the R gain of the base image regardless of the shooting scene. In addition, a white balance gain that makes the B gain 0.8 times the B gain of the base image is applied to the processing target image.
  • the visual impression of an image fluctuates depending on the saturation of the image, in particular the image saturation of the “subject that is originally white” (McAdam's law). Therefore, the white balance gain that is changed at the same ratio of 1.2 times the R gain and 0.8 times the B gain is applied to the multiple processing target images with different shooting scenes. Even so, the visual impression of the image after the white balance processing varies depending on the shooting scene. For example, even if it is a base image created from a processing target image acquired under tungsten light, for example, “white balance processing is performed so that a subject image whose original saturation is gray (achromatic color) is completely gray.
  • a base image having a high chroma with a warm balance obtained by subjecting a subject image whose original saturation is gray (achromatic color) to amber, so that the subject image is amber may exist.
  • a bracket image having the same bracket direction and the same bracket amount is created for each of these base images having different saturations.
  • the bracket image of “the base image that has been subjected to white balance processing so that the subject image with the original saturation being gray is completely gray” is more “the subject image with the original saturation being gray.
  • the difference in white balance with respect to the base image appears to be relatively larger as a visual impression than the bracket image of the “warm and high-saturated base image that has been white-balanced so as to make it appear amber”.
  • the present invention has been made in view of the above-described circumstances, and an object thereof is to provide a method of creating a white balance bracket image according to image characteristics.
  • One aspect of the present invention is an image processing apparatus that acquires a white balance gain applied to original image data to obtain a base image and a bracket image, and a color distribution acquisition unit that acquires color distribution information of input image data
  • the present invention relates to an image processing apparatus including a second gain acquisition unit that acquires a white balance gain.
  • bracket image white balance gain corresponding to the color distribution information of the input image data is acquired, a bracket image based on the “white balance processing characteristics corresponding to the color distribution information of the input image data” is obtained. It is possible.
  • the “color distribution information” here is not particularly limited as long as it is information representing the color distribution of the input image data.
  • the “color distribution information” is determined based on the RGB (red green blue) distribution ratio of the input image data. May be.
  • the “original image data” to which the white balance gain is applied and the above-mentioned “input image data” may be the same data or different data.
  • the white balance gain is not stored in advance, and the “white balance gain acquisition process” and the “base image and bracket image acquisition process” are performed simultaneously as a series of processes.
  • the “original image data” and the “input image data” can be the same data.
  • the white balance gain is stored in advance and the “white balance gain acquisition process” and the “base image and bracket image acquisition process” are performed separately as in the custom white balance mode described later.
  • the “original image data” and the “input image data” can be different data.
  • a 2nd gain acquisition part determines the bracket direction on color space based on color distribution information, and acquires the white balance gain for bracket images based on the bracket direction on the basis of the white balance gain for base images.
  • the bracket direction is determined based on the color distribution information of the input image data, it is possible to obtain a more appropriate bracket image with respect to the bracket direction. Further, in the present embodiment, the bracket direction is limited based on the color distribution information of the input image data, so that it is possible to prevent a bracket image from being created with an inappropriate bracket direction.
  • the bracket direction on the color space is a direction from the position of the base image to the position of the bracket image on the color space.
  • the positions of the base image and the bracket image in the color space are represented based on arbitrary data representing the color distribution of the base image and the bracket image.
  • the positions of the base image and the bracket image on the color space are represented by representative colors derived from the color distribution of the base image and the bracket image. May be determined.
  • the “color space” here is not particularly limited, and for example, RGB color space, xyY color space, XYZ color space, L * u * v * color space, L * It may be a * b * color system color space, YCrCb color space, or the like.
  • the second gain acquisition unit may determine the bracket direction by determining the ratio between the colors of the bracket image white balance gain.
  • the second gain acquisition unit determines an absolute value of the bracket amount based on the color distribution information, and acquires the bracket image white balance gain based on the absolute value of the bracket amount based on the base image white balance gain. To do.
  • bracket amount since the absolute value of the bracket amount is determined based on the color distribution information of the input image data, it is possible to obtain a more appropriate bracket image with respect to the bracket amount.
  • the “bracket amount” corresponds to the distance from the position of the base image to the position of the bracket image on the color space, and represents the amount of change in the white balance of the bracket image with respect to the base image.
  • the second gain acquisition unit determines the absolute value of the bracket amount for each color based on the color distribution information, and determines the bracket image white based on the absolute value of the bracket amount for each color based on the base image white balance gain.
  • a balance gain may be calculated.
  • the second gain acquisition unit estimates a light source color from the color distribution information, and acquires a bracket image white balance gain according to the light source color estimated from the color distribution information.
  • bracket image white balance gain is acquired according to the light source color estimated from the color distribution information of the input image data, it is possible to obtain a bracket image according to the characteristics of the light source color. is there.
  • the “light source color” is determined based on the color characteristics of light that illuminates the subject or light emitted from the subject itself when the input image data is captured.
  • the second gain acquisition unit acquires the white balance gain for the bracket image according to the correlated color temperature of the light source color estimated from the color distribution information.
  • bracket image white balance gain is acquired according to the estimated correlated color temperature of the light source color, it is possible to create a bracket image that reflects the white balance characteristics based on the correlated color temperature. is there.
  • the “correlated color temperature” is represented by the color (temperature) of the black body radiation characteristic (black body radiation locus) that appears closest to the light source color, and can be used as a scale representing the light color.
  • the second gain acquisition unit determines an absolute value of the bracket amount according to the correlated color temperature of the light source color estimated from the color distribution information, and calculates a bracket image white balance gain based on the absolute value of the bracket amount. get.
  • bracket amount is determined according to the estimated correlated color temperature of the light source color, it is possible to create a bracket image that reflects the white balance variation characteristic based on the correlated color temperature. Is possible.
  • the second gain acquisition unit acquires the white balance gain for the bracket image according to the distance between the black body radiation characteristic in the color space and the light source color estimated from the color distribution information.
  • the “distance between the black body radiation characteristic and the light source color estimated from the color distribution information” is “the estimated light source among the normals of the black body radiation locus representing the black body radiation characteristic in the color space”. This means the distance between the light source color and the black body radiation locus on the normal passing through the color.
  • the light source colors on the same normal line of the black body radiation locus have the same correlated color temperature.
  • the second gain acquisition unit brings the bracket direction on the color space closer to the amber / blue direction as the distance between the black body radiation characteristic and the light source color estimated from the color distribution information decreases, and the color increases as the distance increases.
  • a bracket image white balance gain is obtained by bringing the bracket direction in space closer to the green / magenta direction.
  • bracket direction is determined according to the distance between the black body radiation characteristic (black body radiation locus) and the light source color, a bracket image in an appropriate bracket direction can be obtained.
  • the black body radiation characteristic (black body radiation locus) extends in the amber / blue direction in the color space. Therefore, the closer the light source color is to black body radiation characteristics, the more easily the base image after white balance processing shifts in the amber / blue direction, and as the light source color becomes farther from the black body radiation characteristics, the base image after white balance processing Easy to shift in the magenta direction. Therefore, according to this aspect, the bracket direction is determined according to the color shift characteristic based on the light source color of the base image.
  • the second gain acquisition unit acquires the saturation information of the base image based on the light source color estimated from the color distribution information and the base image white balance gain, and the bracket image white based on the saturation information. Get balance gain.
  • bracket image white balance gain is acquired based on the saturation information of the base image, it is possible to obtain a bracket image reflecting the white balance characteristics based on the saturation.
  • the second gain acquisition unit acquires the saturation information based on the relative saturation of the base image with respect to the achromatic color, determines the absolute value of the bracket amount based on the saturation information, and determines the base image white
  • a bracket image white balance gain is acquired based on the absolute value of the bracket amount with reference to the balance gain.
  • the image processing apparatus further includes a display characteristic acquisition unit that acquires display characteristic information of a display unit that displays at least one of the base image and the bracket image
  • the second gain acquisition unit includes: Acquire display achromatic information based on the acquired display characteristic information, acquire saturation information based on the relative saturation of the base image with respect to the display achromatic color obtained from the display achromatic information, and based on the saturation information
  • the absolute value of the bracket amount is determined, and the bracket image white balance gain is acquired based on the absolute value of the bracket amount with reference to the base image white balance gain.
  • the second gain acquisition unit acquires the bracket image white balance gain by increasing the absolute value of the bracket amount as the difference in saturation between the achromatic color and the base image increases, based on the saturation information.
  • bracket amount characteristic of the white balance based on the saturation is reflected. It is possible to obtain a bracket image.
  • the “display characteristic information” referred to here is information relating to display characteristics (for example, color display reproducibility) of the display unit.
  • the “display achromatic color information” is color information in consideration of display characteristics (for example, color temperature) of the display unit, and is information regarding a color for displaying and reproducing an achromatic color on the display unit.
  • Another aspect of the present invention is an image processing apparatus for acquiring a white balance gain applied to original image data in order to obtain a base image and a bracket image, wherein the white balance gain for the base image for obtaining the base image is obtained.
  • the first gain acquisition unit acquires the base image white balance gain based on the flash influence degree, and the second gain acquisition unit is different from the flash influence degree used to acquire the base image white balance gain.
  • White balance gay for bracket image based on flash impact An image processing apparatus for obtaining.
  • the base image white balance gain and the bracket image white balance gain are acquired based on the influence levels of different flashes, it is possible to create a bracket image that compensates for variations in the flash effects in the images. Is possible.
  • the input image data is captured and acquired by emitting a flash
  • the flash specifying unit calculates a flash influence degree from the input image data and reference image data acquired and acquired without emitting the flash.
  • the flash emission image input image data
  • the reference image data is data acquired and acquired immediately before or after the acquisition of the input image data.
  • the reference image data may be acquired based on a live view image or the like.
  • the white balance setting mode is the auto white balance mode
  • the processing of “obtaining the white balance gain for the base image and the white balance gain for the bracket image based on the flash influence degree” described above may be performed.
  • the second gain acquisition unit refers to bracketing necessity data that defines the relationship between the color distribution information and the necessity of creating the bracket image, and creates the bracket image based on the color distribution information of the input image data. If it is determined that it is necessary to create a bracket image, the white balance gain for the bracket image is obtained. If it is determined that the bracket image is not necessary, the white balance gain for the bracket image is obtained. Don't get.
  • bracket image white balance gain is acquired only when the bracket image needs to be created and the bracket image is created. Is possible.
  • White balance bracketing can be efficiently performed by appropriately determining the color distribution information and the necessity of creating the bracket image by the bracketing necessity data.
  • bracketing necessity data defines that it is necessary to create a bracket image for color distribution information where the white balance gain for the base image is likely to be inappropriate.
  • the bracket image white balance gain is acquired and the bracket image can be created.
  • the white balance gain for the base image is likely to be inappropriate is not particularly limited, and the bracketing necessity data is, for example, for color distribution information that can be realized by a plurality of types of light source colors. May be defined as “the white balance gain for the base image is likely to be inappropriate”.
  • the bracketing necessity data may determine that it is necessary to create a bracket image for at least the green and red color distribution information.
  • image data that contains a lot of data such as green of trees photographed under sunlight and image data photographed under an artificial light source that emits light with a high proportion of the green component are both the proportion of the green component Becomes higher.
  • both the image data of the sunset photographed under sunlight and the image data photographed under an artificial light source that emits light with a high proportion of the red component both have a high proportion of the red component. Therefore, when the color distribution information of the input image data indicates these green and red, it is difficult to limit the light source color to one. Therefore, the bracketing necessity data is “base image” for these color distribution information. The white balance gain for use is likely to be inappropriate ”.
  • the white balance setting mode is the auto white balance mode
  • the above-described “acquisition of bracket image white balance gain based on bracketing necessity data” may be performed.
  • the image processing apparatus obtains a base image by applying the white balance gain for base image to the original image data, and obtains a bracket image by applying the white balance gain for bracket image to the original image data. Is further provided.
  • the base image and the bracket image are acquired.
  • the input image data and the original image data may be the same data or different data.
  • the white balance processing unit may add classification information indicating the main image to the base image and add classification information indicating the sub image to the bracket image.
  • the white balance processing unit may add classification information indicating that it is a sub image to the base image, and may add classification information indicating that it is a main image to one of the bracket images.
  • the base image and the bracket image can be classified into a main image and a sub image.
  • the image processing apparatus further includes a display unit and a display control unit that controls the display unit and causes the display unit to display at least one of the base image and the bracket image.
  • At least one of the obtained base image and bracket image is displayed on the display unit, and the user can check the image displayed on the display unit.
  • the display control unit causes the display unit to display an image to which at least main image classification information is added from the base image and the bracket image.
  • the user can check the image to which the high-priority main image classification information is added via the display unit.
  • the image processing apparatus is configured to input an instruction receiving unit in which an instruction to determine classification information added to the base image and the bracket image is input by the user, and based on the determination instruction input to the instruction receiving unit.
  • a classification information rewriting unit capable of rewriting the classification information added to the bracket image;
  • the classification information added to the base image and the bracket image can be rewritten in accordance with the user's determination instruction, and the image to which the main image classification information is added can be switched.
  • the instruction receiving unit receives a determination instruction for designating an image as a main image from the base image and the bracket image, and the classification information rewriting unit is input to the instruction receiving unit from the base image and the bracket image.
  • the classification information of the image specified by the determination instruction may be used as the main image, and the classification information of other images may be used as the sub image.
  • the user can select one image as an interest image from one or a plurality of images displayed on the display unit, and a determination instruction indicating that the user has selected the interest image is an instruction receiving unit.
  • the classification information rewriting unit may input the classification information of the image of interest specified by the determination instruction input to the instruction receiving unit as the main image.
  • the display control unit may select one or more of the base image and the bracket image according to the rewritten classification information. An image may be displayed on the display unit.
  • the image processing apparatus further includes an image storage unit that stores the base image and the bracket image in association with each other.
  • the base image and the bracket image can be stored in the image storage unit while maintaining the relevance.
  • the image processing apparatus further includes a group information adding unit that adds group information data indicating association with other images to each of the base image and the bracket image, and each of the base image and the bracket image is stored in the image storage unit. At the same time, the added group information data may be stored. In this case, the relationship between the base image and the bracket image is maintained based on the group information data.
  • the image processing apparatus includes an image storage unit that stores the base image and the bracket image in association with each other, and the base image and the bracket image when the time from the creation of the base image is longer than the first time.
  • a storage control unit that deletes the image to which the sub-image classification information is added from the image storage unit.
  • the image processing apparatus includes an image storage unit that stores the base image and the bracket image in association with each other, and a classification information rewriting unit that rewrites at least one of the base image and the bracket image.
  • a storage control unit that deletes, from the image storage unit, an image to which the sub-image classification information is added from the base image and the bracket image when the time from rewriting the classification information is longer than the second time; Is further provided.
  • the image with the sub-image classification information added to the base image and the bracket image is deleted from the image storage unit as time elapses. Reduction of the number of scenes can be suppressed.
  • the number of scenes that can be taken corresponds to the number of types of original image data that is the basis for creating the base image and the bracket image.
  • the image processing apparatus further includes a clock device that provides date and time information, and a date and time information adding unit that adds editing date and time information to the base image and the bracket image, and the storage control unit includes date and time information obtained from the clock device; From the image storage unit according to the editing date / time information (image creation date / time information and / or classification information renewal date / time information) of the image to which the classification information of the main image and / or sub-image is added among the base image and the bracket image The image to which the sub image classification information is added may be deleted.
  • the display control unit displays the color space coordinates on the display unit, and the color space coordinates displayed on the display unit for color distribution information of at least one of the base image and the bracket image displayed on the display unit. Shown above.
  • the user can easily confirm the position on the color space coordinates of the base image and / or the bracket image displayed on the display unit.
  • the display control unit represents the color distribution information of the image to which the classification information of the main image is added among the base image and the bracket image on the color space coordinates displayed on the display unit.
  • the user can easily confirm the position on the color space coordinate of the image to which the classification information of the main image with high priority is added.
  • the display control unit may display the color distribution information of the base image on the origin of the color space coordinates.
  • the display control unit sequentially displays each of the base image and the bracket image over time in the same area of the display unit.
  • the user can easily confirm the difference between the base image and the bracket image.
  • the image processing apparatus further includes an image switching accepting unit to which an instruction to switch an image to be displayed on the display unit is input from the user, and the display control unit responds to the instruction to switch the image input to the image switching accepting unit. Then, the image to be displayed in the same area of the display unit may be switched among the base image and the bracket image.
  • the first gain acquisition unit acquires the white balance gain for base image according to the setting mode.
  • the setting mode is a preset white balance mode in which a base image white balance gain is predetermined, and a base image white balance gain to be applied to input image data is determined based on color distribution information of the input image data.
  • Auto white balance mode, and custom white balance mode in which the white balance gain for the base image applied to the original image data different from the input image data is determined based on the color distribution information of the input image data. is there.
  • the first gain acquisition unit includes the input image
  • the base image white balance gain is acquired based on the color distribution information of the data
  • the second gain acquisition unit is based on the color distribution information used by the first gain acquisition unit as a basis for acquiring the base image white balance gain.
  • the white balance gain for the bracket image is acquired.
  • the white balance gain for the base image and the white balance gain for the bracket image can be accurately acquired based on the same color distribution information.
  • the first gain calculation unit may calculate the base image white balance gain based on image data different from the input image data.
  • Another aspect of the present invention relates to an imaging apparatus including an imaging element that receives a subject image and generates image data, and the above-described image processing apparatus that uses image data generated by the imaging element as input image data.
  • the imaging apparatus further includes a shooting instruction unit that receives a shooting instruction from the user, and the first gain calculation unit calculates a white balance gain for base image by one shooting instruction received by the shooting instruction unit, and the second gain.
  • the calculation unit may calculate a white balance gain for bracket image.
  • Another aspect of the present invention is an image processing method for obtaining a white balance gain applied to original image data in order to obtain a base image and a bracket image, obtaining color distribution information of input image data, and obtaining a base image
  • the present invention relates to an image processing method for obtaining a white balance gain for a base image for obtaining a bracket image and obtaining a white balance gain for a bracket image for obtaining a bracket image on the basis of the white balance gain for the base image based on color distribution information .
  • Another aspect of the present invention is a program for obtaining a white balance gain applied to original image data to obtain a base image and a bracket image, a procedure for obtaining color distribution information of input image data, and a base image Obtaining a base image white balance gain for obtaining a bracket image based on the color distribution information and obtaining a bracket image white balance gain for obtaining a bracket image based on the color distribution information; and
  • the present invention relates to a program for causing a computer to execute.
  • Another aspect of the present invention is a program for obtaining a white balance gain applied to original image data to obtain a base image and a bracket image, a procedure for obtaining color distribution information of input image data, and a base image Obtaining a base image white balance gain for obtaining a bracket image based on the color distribution information and obtaining a bracket image white balance gain for obtaining a bracket image based on the color distribution information; and
  • the present invention relates to a non-transitory computer-readable recording medium on which a program for causing a computer to execute is recorded.
  • the bracket image white balance gain is acquired based on the color distribution information of the input image data or the flash influence degree.
  • An appropriate bracket image can be created by applying the bracket image white balance gain to the original image data that is the processing target image and performing white balance processing.
  • 2 shows a two-dimensional color space coordinate system of an RGB color system in which a black body radiation locus is represented, and shows a relationship between a light source color and a black body radiation locus.
  • 2 shows a two-dimensional color space coordinate system of an RGB color system in which a black body radiation locus is represented, and shows a relationship between the black body radiation locus and a correlated color temperature.
  • 2 shows a two-dimensional color space coordinate system of the RGB color system in which a black body radiation locus is represented, and shows the relationship between the black body radiation locus and the directions of blue, magenta, amber and green.
  • It is a block diagram which shows the function structural example of the white balance image processing part which concerns on 3rd Embodiment.
  • FIG. 3 It is a block diagram which shows the function structural example of the WB process part which concerns on 10th Embodiment. It is a figure which shows the example of a data structure regarding each of a base image and a bracket image. An example of the data structure in the case where each of the base image and bracket image created for one input image data is used as separate file data is shown. An example of a data structure when a base image and a bracket image created for one input image data are used as one file is shown. It is a flowchart regarding the white balance process in 10th Embodiment. Of the functional blocks of the digital camera shown in FIG. 3, processing units mainly related to image display processing are shown. It is a figure which shows an example of the image reproduction display in a display part.
  • the other example of a display of a display part is shown.
  • the other example of a display of a display part is shown.
  • the other example of a display of a display part is shown.
  • the other example of a display of a display part is shown.
  • 10 is a flowchart illustrating an example of processing for deleting an image based on “time from creation of base image and bracket image” and “time from rewrite of classification information”.
  • It is a flowchart which shows the acquisition example of the white balance gain for base images and the white balance gain for bracket images in custom white balance mode.
  • It is a figure which shows the external appearance of a smart phone.
  • FIG. 1 is a front perspective view of the digital camera 2
  • FIG. 2 is a rear perspective view of the digital camera 2.
  • the digital camera 2 includes a camera body 3 and a lens barrel 4 attached to the front surface of the camera body 3.
  • the lens barrel 4 and the camera body 3 may be provided integrally, or may be provided detachably as a lens interchangeable camera.
  • a flash light emitting unit 5 is provided on the front surface of the camera body 3, and a shutter button 6 and a power switch 7 are provided on the upper surface of the camera body 3.
  • the shutter button 6 is a shooting instruction unit that receives a shooting instruction from a user
  • the power switch 7 is a power supply switching unit that receives a power ON / OFF switching instruction of the digital camera 2 from the user.
  • a display unit 8 and an operation unit 9 are provided on the back of the camera body 3.
  • the display unit 8 functions as an electronic viewfinder by displaying a live view image (through image) in a shooting standby state, and functions as a playback image display unit when playing back a captured image or a memory recorded image.
  • the operation unit 9 includes an arbitrary operation device such as a mode change switch, a cross key, and an execution key.
  • the mode switch is operated by the user when the operation mode of the digital camera 2 is switched.
  • an operation mode of the digital camera 2 there are a shooting mode for picking up an image of a subject and obtaining a shot image, a playback mode for playing back and displaying an image, and the like.
  • an AF (Auto Focus) mode for performing auto focus
  • MF Manual Focus
  • the cross key and the execution key display a menu screen or a setting screen on the display unit 8, move a cursor displayed in the menu screen or the setting screen, and confirm various settings of the digital camera 2. In some cases, it is operated by the user.
  • the user can also switch the white balance bracketing mode described later and the normal white balance mode by operating the operation unit 9.
  • the bottom (not shown) of the camera body 3 is provided with a memory slot in which the main memory 10 is loaded and a loading lid that opens and closes the opening of the memory slot.
  • the main memory 10 is detachably provided in the camera body 3 and is electrically connected to a storage control unit 33 provided in the camera body 3 when attached to the camera body 3.
  • the main memory 10 can be generally constituted by a semiconductor memory such as a card-type flash memory, but is not particularly limited, and a recording medium of an arbitrary recording method such as a magnetic medium can be used as the main memory 10. is there.
  • FIG. 3 is a block diagram showing a control processing system of the digital camera 2.
  • the subject light passes through the lens unit 12 provided in the lens barrel 4 and the mechanical shutter 20 provided in the camera body 3 and is received by the image sensor 21.
  • the image sensor 21 is an element that receives a subject image and generates image data.
  • the image sensor 21 is a color filter such as RGB (Red Green Blue), a CCD (Charge Coupled Device) or a CMOS (Complementary Metal) that converts an optical image into an electrical signal. And an image sensor such as an Oxide Semiconductor).
  • the image data output from the imaging device 21 is processed by an AGC (Automatic Gain Control) circuit or the like in the process processing unit 22, and then the analog image data is converted into digital image data by the AD conversion unit 23. Is done.
  • the digitized image data is stored in the buffer memory 24.
  • the buffer memory 24 is an area for temporarily storing image data, and is configured by a DRAM (Dynamic Random Access Memory) or the like.
  • Image data sent from the AD conversion unit 23 and stored in the buffer memory 24 is read out by an image processing unit (image processing apparatus) 31 controlled by the system control unit 25.
  • the image processing unit 31 uses the image data generated by the image sensor 21 as input image data, performs various image processing such as white balance processing, gamma correction processing, and demosaic processing, and buffers the image data after the image processing again. Save in the memory 24.
  • Image data that has been subjected to image processing in the image processing unit 31 and saved in the buffer memory 24 is read by the display control unit 35 and the compression / decompression unit 32.
  • the display control unit 35 controls the display unit 8 to display the image data read from the buffer memory 24 on the display unit 8. In this way, the image data output from the image sensor 21 and subjected to image processing in the image processing unit 31 is displayed as a postview image on the display unit 8 as a shooting confirmation image.
  • the compression / decompression unit 32 compresses the image data read from the buffer memory 24 to create image data in an arbitrary compression format such as JPEG (Joint Photographic Experts Group) or TIFF (Tagged Image File Format).
  • the compressed image data is recorded in the main memory 10 by the storage control unit 33 that controls data recording processing to the main memory 10 and data reading processing from the main memory 10.
  • the storage control unit 33 adds editing date / time information (update date / time information) and the like to the data based on date / time information acquired from a clock device 34 described later. Shooting information and other related information. This shooting information is added to the image data in an arbitrary format, and for example, an Exif (Exchangeable image file format) format can be adopted.
  • the image data stored in the main memory 10 is read by the storage control unit 33 controlled by the system control unit 25, and the compression / decompression unit 32. After being subjected to the decompression process, the data is stored in the buffer memory 24. Then, the image data is read from the buffer memory 24 by the display control unit 35 in the same procedure as the confirmation display of the photographed image, and the image data is reproduced and displayed on the display unit 8.
  • the system control unit 25 controls the buffer memory 24, the image processing unit 31, and the storage control unit 33 as described above, but also controls other units in the digital camera 2.
  • the system control unit 25 controls the lens driving unit 27 to control the driving of the lens unit 12, and controls the shutter driving unit 26 to control the driving of the mechanical shutter 20.
  • the system control unit 25 controls the flash light emitting unit 5 to control flash emission and non-light emission, and controls the power supply control unit 28 to detect whether or not the battery is installed in the power source 29, the type of battery, and the remaining battery level. Etc. Further, the system control unit 25 acquires date and time information counted by the clock device 34 and uses it for various processes.
  • the system control unit 25 controls various processing units that constitute the image processing unit 31.
  • the system control unit 25 acquires an operation signal from the user interface 36 including the shutter button 6, the power switch 7, and the operation unit 9, and performs various processes and device control according to the operation signal. For example, the system control unit 25 controls the shutter driving unit 26 according to the release signal received from the shutter button 6 to control the opening / closing of the mechanical shutter 20. Further, the system control unit 25 controls the power control unit 28 in accordance with the power on / off signal received from the power switch 7, and controls on / off of the power source 29.
  • Programs and data necessary for various processes performed by the system control unit 25 and device control are stored in the control memory 30.
  • the system control unit 25 can read out programs and data stored in the control memory 30 as necessary, and can store new programs and data in the control memory 30.
  • the system control unit 25 can write condition data such as the type of white balance mode and white balance gain that have been set in the control memory 30.
  • the system control unit 25 can control the display control unit 35 to display various information acquired from each unit on the display unit 8.
  • the system control unit 25 can change various information displayed on the display unit 8 in accordance with an operation signal input by the user via the user interface 36.
  • FIG. 4 is a chromaticity diagram of the L * a * b * color system.
  • the amber / blue direction is represented by an arrow “AB” in FIG. 4
  • the green / magenta direction is represented by an arrow “GM” in FIG. Therefore, the representative color of the image whose hue is biased in the amber / blue direction is plotted at a position shifted from the origin of the coordinates in FIG. 4 with respect to the arrow “AB” direction.
  • the representative colors of an image whose hue is biased in the green / magenta direction are plotted at positions shifted from the center of the coordinates in FIG. 4 with respect to the arrow “GM” direction.
  • the representative color of the image is determined by an arbitrary method.
  • the representative color may be determined based on the statistic of the chromaticity distribution of the image, or the color space linear division that determines the representative color by dividing only the area where the image color is distributed in the color space into line segments.
  • the representative color may be determined using a method or the like.
  • the “color distribution information” and “light source color” of the image data may be determined based on the “representative color of the image”.
  • the normal white balance process is a process for eliminating the hue deviation of the image and returning the representative color of the image to the origin of the chromaticity diagram of FIG.
  • the white balance processing is performed in the image processing unit 31 (see FIG. 3), but the image processing unit 31 also performs image processing other than the white balance processing (for example, gamma correction processing and demosaic processing). Therefore, other image processing may be performed before and / or after the white balance processing of each embodiment.
  • the number of bracket images created by white balance bracketing may be one or more. In the following embodiments, an example of white balance bracketing that creates two bracket images in addition to one base image will be described.
  • FIG. 5 is a block diagram illustrating a functional configuration example of the white balance image processing unit 40 (image processing apparatus) according to the first embodiment.
  • the white balance image processing unit 40 in the image processing unit 31 includes an image data acquisition unit 44, a color distribution acquisition unit 46, a first gain acquisition unit 41, a second gain acquisition unit 42, and a white balance processing unit (hereinafter “ 54) (referred to as “WB processing unit”).
  • the white balance image processing unit 40 acquires a white balance gain applied to the original image data (processing target image data) in order to obtain the base image and the bracket image, and the white balance is applied to the original image data (processing target image data).
  • An image processing apparatus that applies gain.
  • the image data acquisition unit 44 receives the input image data sent to the white balance image processing unit 40 and transmits the received input image data to the color distribution acquisition unit 46 and the WB processing unit 54.
  • the color distribution acquisition unit 46 analyzes the input image data sent from the image data acquisition unit 44 and acquires the color distribution information of the input image data.
  • the color distribution information is determined by an arbitrary method as long as it is based on the input image data.
  • the representative color of the input image data may be used as the color distribution information, and the data based on the integrated value of the pixel values constituting the image data sent from the image sensor 21 by the release operation via the shutter button 6 is the color distribution information. It is good.
  • the first gain acquisition unit 41 includes a white balance setting determination unit (hereinafter referred to as “WB setting determination unit”) 48 and a base white balance gain setting unit (hereinafter referred to as “base WB gain setting unit”) 50.
  • WB setting determination unit a white balance setting determination unit
  • base WB gain setting unit a base white balance gain setting unit
  • the WB setting discriminating unit 48 receives information data regarding the white balance setting mode from the system control unit 25 and recognizes the white balance setting mode. Information data regarding the white balance setting mode is stored in the control memory 30 and can be read and rewritten by the system control unit 25.
  • the white balance setting mode may be determined in advance, or the user may be able to set the white balance setting mode to an arbitrary mode via the user interface 36 (see FIG. 3).
  • the user may arbitrarily select any one of the preset white balance mode, the auto white balance mode, and the custom white balance mode as the white balance setting mode.
  • a base image white balance gain is determined in advance, and the base image white balance gain is stored in the control memory 30.
  • the base image white balance gain applied to the input image data is determined based on the color distribution information of the input image data.
  • a base image white balance gain to be applied to processing target image data different from the input image data is determined based on the color distribution information of the input image data.
  • the custom white balance mode image data output from the image sensor 21 by the user shooting an achromatic (white or gray) subject is acquired as input image data. Then, a white balance gain required for the subject to display an appropriate achromatic color is calculated and set as the base image white balance gain. Therefore, in the custom white balance mode, the base image white balance gain determined based on the color distribution information of the input image data is stored in the control memory 30. Then, the white balance gain for base image read from the control memory 30 in the white balance process for creating the base image is applied to the processing target image data.
  • the base image white balance gain stored in the control memory 30 is transmitted to the WB setting determination unit 48 by the system control unit 25 together with information data regarding the white balance setting mode.
  • the white balance image processing unit 40 is provided with the WB setting determination unit 48.
  • the WB setting determination unit 48 may be provided as a part of the system control unit 25, or WB.
  • the processing of the setting determination unit 48 may be performed by the system control unit 25, and the WB setting determination unit 48 may be omitted.
  • the base WB gain setting unit 50 acquires information data related to the white balance setting mode certified by the WB setting determination unit 48, and acquires the white balance gain for the base image according to the white balance setting mode.
  • the base image white balance gain stored in the control memory 30 is used as the system.
  • the signal is supplied to the base WB gain setting unit 50 via the control unit 25 and the WB setting determination unit 48.
  • the base WB gain setting unit 50 receives the input sent from the color distribution acquisition unit 46.
  • a white balance gain for the base image is acquired based on the color distribution information of the image data.
  • a specific method for calculating the white balance gain for the base image is not particularly limited.
  • a white balance gain for base image is set as a white balance gain for making the representative color of the input image data an achromatic color indicated by the coordinate origin of the chromaticity diagram of the L * a * b * color system shown in FIG. May be adopted.
  • the base WB gain setting unit 50 transmits the acquired base image white balance gain to the system control unit 25, the WB processing unit 54, and the second gain acquisition unit 42 (bracket WB gain setting unit 52).
  • the second gain acquisition unit 42 includes a bracket white balance gain setting unit (hereinafter referred to as a “bracket WB gain setting unit”) 52, and acquires a white balance gain for bracket image.
  • the bracket image white balance gain is transmitted from the bracket WB gain setting unit 52 to the WB processing unit 54 and also transmitted from the bracket WB gain setting unit 52 to the system control unit 25.
  • the white balance gain for the bracket image specifies the direction in the color space of the bracket image with respect to the base image (correction direction: bracket direction) and the absolute distance in the color space of the bracket image with respect to the base image (correction amount: bracket amount). To do.
  • the bracket WB gain setting unit 52 determines the bracket direction on the color space based on the color distribution information of the input image data sent from the color distribution acquisition unit 46, and for the base image. Based on the white balance gain, the bracket image white balance gain is acquired based on the bracket direction. Since the bracket direction is determined by the ratio between the colors of the bracket image white balance gain, the bracket WB gain setting unit 52 determines the ratio between the colors of the bracket image white balance gain based on the color distribution information of the input image data. Thus, the bracket direction can be determined.
  • the bracket WB gain setting unit 52 (second gain acquisition unit 42) determines the absolute value of the bracket amount based on the color distribution information of the input image data, and the absolute value of the bracket amount based on the white balance gain for base image.
  • the bracket image white balance gain is acquired based on the value. Therefore, the bracket WB gain setting unit 52 determines the absolute value of the bracket amount for each color based on the color distribution information, and uses the bracket image based on the absolute value of the bracket amount for each color based on the white balance gain for the base image.
  • White balance gain can be calculated.
  • the determination of the bracket direction and the bracket amount in the bracket WB gain setting unit 52 may be performed separately or simultaneously. For example, when the bracket amount for each color is determined in advance according to the color distribution information of the input image data, the bracket WB gain setting unit 52 determines a predetermined “corresponding to the color distribution information from the color distribution acquisition unit 46. By acquiring “the bracket amount for each color”, the bracket direction and the bracket amount can be substantially determined simultaneously.
  • the bracket WB gain setting unit 52 obtains a bracket image white balance gain for obtaining a bracket image based on the color distribution information of the input image data with reference to the base image white balance gain. Therefore, in the auto white balance mode, the second gain acquisition unit 42 (bracket WB gain setting unit 52) is the first gain acquisition unit 41 (WB setting determination unit 48 and base WB gain setting unit 50). A bracket image white balance gain is acquired based on the same information as the color distribution information used for gain acquisition.
  • the WB processing unit 54 applies a base image white balance gain to the input image data (original image data) sent from the image data acquisition unit 44 to obtain a base image.
  • the WB processing unit 54 applies a bracket image white balance gain to the input image data (original image data) sent from the image data acquisition unit 44 to obtain a bracket image.
  • the image data of the base image and the bracket image created by the WB processing unit 54 is transmitted to the subsequent processing unit.
  • the base image white balance gain and the bracket image white balance gain sent to the system control unit 25 are stored in the control memory 30 by the system control unit 25.
  • the first gain acquisition unit 41 WB setting determination unit 48 and base WB gain setting unit 50
  • the second gain acquisition unit 42 Bracket WB.
  • Each unit image data acquisition unit 44, color distribution acquisition unit 46, WB processing unit 54, etc. is also controlled by the system control unit 25.
  • FIG. 6 is a flowchart of white balance processing according to the first embodiment.
  • the color distribution information of the input image data is acquired, the white balance gain for the base image is acquired according to the setting mode, and the bracket is based on the color distribution information based on the white balance gain for the base image.
  • An image white balance gain is acquired.
  • input image data is acquired by the image data acquisition unit 44 (S10 in FIG. 6), and color distribution information of the input image data is acquired by the color distribution acquisition unit 46 (S11).
  • the WB setting determination unit 48 determines the white balance setting mode from the “information data regarding the white balance setting mode” sent via the control memory 30 and the system control unit 25.
  • the white balance setting mode is selected from three types of modes: a custom white balance mode, an auto white balance mode, and a preset white balance mode.
  • the WB setting determination unit 48 determines that the setting mode is the custom white balance mode (Yes in S12), the custom white balance sent via the control memory 30, the system control unit 25, and the WB setting determination unit 48
  • the base image white balance gain for the mode is acquired by the base WB gain setting unit 50 (S13).
  • the base WB gain setting unit 50 sends it from the color distribution acquisition unit 46.
  • a white balance gain for the auto white balance mode is calculated based on the color distribution information (S17). Then, the white balance gain for the auto white balance mode is set as the white balance gain for the base image (S18).
  • the base WB gain setting unit 50 acquires the base image white balance gain for the preset white balance mode transmitted via the control memory 30, the system control unit 25, and the WB setting determination unit 48 (S19). .
  • bracket WB gain setting unit 52 performs bracket image white balance gain according to the base image white balance gain sent from the base WB gain setting unit 50 and the color distribution information sent from the color distribution acquisition unit 46. Is acquired (S14).
  • the WB processing unit 54 acquires a base image based on the white balance gain for base image and the input image data, and acquires a bracket image based on the white balance gain for bracket image and the input image data (S15).
  • the base image data and bracket image data output from the WB processing unit 54 are subjected to other image processing (gamma correction processing, demosaic processing, etc.) as necessary, and then passed through the buffer memory 24 and the compression / decompression unit 32.
  • the data is transmitted to the storage controller 33 and stored in the main memory 10. Specific examples of the method for storing the base image and the bracket image in the main memory 10 will be described in the tenth and eleventh embodiments described later.
  • the first gain acquisition unit 41 acquires the white balance gain for the base image and the second gain acquisition unit 42 receives the bracket image by one shooting instruction received by the shutter button 6.
  • the white balance gain is acquired, and the WB processing unit 54 creates a base image and a bracket image.
  • the bracket image white balance gain is set based on the color distribution information of the input image data, the direction and amount of deviation in the color space in which the white balance of the base image is likely to deviate. It is possible to create a bracket image that takes into account. Therefore, in the white balance image processing unit 40 of the present embodiment, the direction in the color space where the white balance of the base image is likely to shift is determined based on the color distribution information of the input image data, and the white balance gain for the bracket image and the bracket image are determined. Is acquired.
  • bracket direction and bracket according to the shooting scene A quantity of bracket image can be obtained.
  • an appropriate bracket direction and an appropriate bracket amount are automatically determined based on the color distribution information of the input image data, and the bracket image white balance gain is acquired. Therefore, the user does not need to perform an operation such as designation of the bracket direction, and can easily create the base image and the bracket image without wondering about the setting of the bracket direction and the bracket amount.
  • the bracket direction is appropriately determined, the number of recorded images is reduced and memory capacity is not wasted compared to the case of creating a bracket image with multiple bracket directions regardless of the color distribution information of the input image data. be able to.
  • the user can easily select an image on which an appropriate white balance process has been performed from among a small number of images (base image and bracket image).
  • the color distribution information of the image data used for the acquisition of the “white balance gain for the base image” and the image data used for the acquisition of the “white balance gain for the bracket image” may be different. That is, in the auto white balance mode, the base WB gain setting unit 50 may calculate the base image white balance gain based on image data different from the input image data. For example, the base WB gain setting unit 50 acquires the white balance gain for the base image based on the color distribution information of the image data for live view acquired before (just before) acquisition of the captured image (input image data). May be.
  • the bracket WB gain setting unit 52 may acquire the bracket image white balance gain based on the color distribution information of the captured image (input image data). In this case, the process for acquiring the white balance gain for the base image is speeded up, and the processing time of the entire white balance bracketing process can be shortened.
  • the processing configuration of the above-described first embodiment is embodied, and the light source color of the input image data is estimated from the color distribution information of the input image data, and the bracket image white according to the estimated light source color. Balance gain is acquired.
  • the “light source color” here is a color ratio (color balance) when the image sensor receives (photosensitive) the light source that illuminates the subject and / or the light emitted from the subject when acquiring the input image data. is there.
  • the color ratio can be represented by, for example, an RGB ratio or a CrCb ratio (color difference ratio).
  • FIG. 7 is a block diagram illustrating a functional configuration example of the white balance image processing unit 40 according to the second embodiment.
  • the white balance image processing unit 40 of the present embodiment further includes a light source color estimation unit 56.
  • the light source color estimation unit 56 estimates the light source color of the input image data based on the color distribution information sent from the color distribution acquisition unit 46.
  • the light source color estimation method is not particularly limited, and for example, the light source color may be estimated based on the average of the color distribution of the input image data.
  • the light source color data indicating the estimated light source color is transmitted from the light source color estimation unit 56 to the base WB gain setting unit 50 and the bracket WB gain setting unit 52.
  • the base WB gain setting unit 50 acquires the white balance gain for the base image based on the light source color data sent from the light source color estimation unit 56.
  • the “method for obtaining the white balance gain based on the light source color estimated from the color distribution information” is not particularly limited, and the white balance gain for reducing the influence of the estimated light source color is determined based on a known method. It can be a white balance gain for the base image.
  • the second gain acquisition unit 42 estimates the light source color from the color distribution information of the input image data, and brackets according to the light source color estimated from the color distribution information. Get the white balance gain for the image. That is, the bracket WB gain setting unit 52 uses the base image white balance gain sent from the base WB gain setting unit 50 as a reference, and uses the bracket image white based on the light source color data sent from the light source color estimation unit 56. Get balance gain.
  • this “method for acquiring the white balance gain for bracket image based on the light source color estimated from the color distribution information” will be described in detail in third to seventh embodiments to be described later.
  • the light source color estimation unit 56 not only functions as a part of the first gain acquisition unit 41 that acquires the white balance gain for the base image, but also the second gain acquisition unit 42 that acquires the white balance gain for the bracket image. It also functions as a part of
  • FIG. 8 is a flowchart of white balance processing according to the second embodiment.
  • input image data is acquired (S20 in FIG. 8) in the same procedure as in the first embodiment (see S10 and S11 in FIG. 6), and color distribution information of the input image data is acquired (see FIG. 8). S21).
  • the light source color estimation unit 56 estimates the light source color of the input image data from the color distribution information of the input image data (S22).
  • the white balance setting mode is the custom white balance mode (Yes in S23) and the preset white balance mode (No in S27), the same as in the first embodiment (see S12 to S13 and S19 in FIG. 6).
  • the base image white balance gain for the custom white balance mode is acquired (S24)
  • the base image white balance gain for the preset white balance mode is acquired (S30).
  • the base WB gain setting unit 50 uses the auto white balance mode for the auto white balance mode based on the light source color data sent from the light source color estimation unit 56. A white balance gain is calculated (S28). Then, the white balance gain for the auto white balance mode is set as the base image white balance gain (S29).
  • the bracket WB gain setting unit 52 determines the base image white balance gain sent from the base WB gain setting unit 50 and The bracket image white balance gain is acquired based on the light source color data sent from the light source color estimation unit 56 (S25).
  • a base image is acquired based on the white balance gain for base image and the input image data
  • a bracket image is acquired based on the white balance gain for bracket image and the input image data (S26).
  • the bracket image white balance gain is acquired based on the light source color estimated from the color distribution information of the input image data. Therefore, the white balance gain for the base image and the white balance gain for the bracket image can be acquired easily and with high accuracy, and the base image and the bracket image with reduced influence of the light source color can be obtained.
  • the light source color data in the auto white balance mode is information used in the calculation processing of the white balance gain for the base image and the white balance gain for the bracket image, and is an element that determines the bracket direction and the bracket amount. Therefore, the bracket WB gain setting unit 52 determines the “direction in the color space where white correction processing is likely to cause overcorrection or undercorrection due to the light source color” in the base image of the auto white balance mode. Or a direction in the color space where correction is likely to occur is reflected.
  • the processing configuration of the second embodiment described above is embodied, and the distance between the light source color (light source color characteristic) and the black body radiation locus (black body radiation characteristic) is calculated, and according to this distance The bracket image white balance gain is calculated.
  • FIGS. 9A to 9C show a two-dimensional color space coordinate system of the RGB color system in which a black body radiation locus (black body radiation curve) is represented, where the origin is “0” and the vertical axis is “B / G ( Blue / green) ”and the horizontal axis represents“ R / G (red / green) ”.
  • 9A shows the relationship between the light source color and the black body radiation locus
  • FIG. 9B shows the relationship between the black body radiation locus and the correlated color temperature
  • FIG. 9C shows the black body radiation locus and the blue, magenta, amber and green directions. Shows the relationship. 9A to 9C, the black body radiation locus is represented by the symbol “B”, the light source color is represented by the symbol “I”, and the distance between the black body radiation locus B and the light source color I is represented by the symbol “L”. Has been.
  • a black body radiation locus B indicates a radiation locus of a black body (complete radiation body), and a distance L between the black body radiation locus B and the light source color I in the color space is the black body radiation locus B passing through the light source color I. This corresponds to the “length (distance) between the light source color I and the black body radiation locus B” on the normal line.
  • the color temperature indicated by the position on the black body radiation locus closest to the light source color is called the correlated color temperature of the light source color. Since the correlated color temperature represents the color (temperature) of black body radiation that appears closest to the light source color, it is a light source color that does not exist on the black body radiation locus and is located on the same normal line of the black body radiation locus. Have the same correlated color temperature.
  • the light source color on the normal line of 10000K (Kelvin) shown in FIG. 9B has the same correlated color temperature.
  • the light source color on the normal line of 5000K and the light source color on the normal line of 2500K have the same correlated color temperature.
  • the “amber blue direction” and “green magenta direction” shown in the chromaticity diagram of the L * a * b * color system in FIG. 4 are colors represented by “B / G” and “R / G”.
  • the direction is as shown in FIG. 9C.
  • the black body radiation locus B is a curve along the amber / blue direction
  • the green / magenta direction orthogonal to the amber / blue direction coincides with the normal direction of the black body radiation locus B. .
  • the color space for expressing the distance between the black body radiation locus and the light source color is not particularly limited.
  • black body radiation based on xyY color space, XYZ color space, L * u * v * color space, L * a * b * color space, or YCrCb color space The distance between the locus and the light source color may be represented.
  • FIG. 10 is a block diagram illustrating a functional configuration example of the white balance image processing unit 40 according to the third embodiment.
  • the white balance image processing unit 40 of this embodiment further includes a light source color characteristic acquisition unit 58 and a black body characteristic storage unit 60 in addition to the light source color estimation unit 56.
  • the black body characteristic storage unit 60 stores black body radiation characteristics related to the color temperature, specifically stores the black body radiation locus shown in FIGS. 9A to 9C, and the black body radiation characteristic (black body radiation locus) is
  • the light source color characteristic acquisition unit 58 reads the information as appropriate.
  • the light source color characteristic acquisition unit 58 is based on the light source color data sent from the light source color estimation unit 56 and the black body radiation characteristic data read from the black body characteristic storage unit 60, and the black body radiation locus B and the light source color I. And a distance L (see FIG. 9A).
  • the second gain acquisition unit 42 of the present embodiment is configured such that the distance L between the “black body radiation characteristic (black body radiation locus) B” and the “light source color I estimated from the color distribution information of the input image data” in the color space.
  • the white balance gain for bracket image is acquired according to the above.
  • the bracket WB gain setting unit 52 “base image white balance gain” sent from the base WB gain setting unit 50 and “black body radiation locus B and light source color” sent from the light source color characteristic acquisition unit 58.
  • the bracket image white balance gain is acquired based on “distance L with I”. A specific example of the method for acquiring the bracket image white balance gain will be described in a fourth embodiment to be described later.
  • FIG. 11 is a flowchart of white balance processing according to the third embodiment.
  • input image data is acquired (S40 in FIG. 11) in the same procedure as in the second embodiment (see S20 to S24 and S27 to S30 in FIG. 8), and the color distribution information of this input image data is Obtained (S41), the light source color is obtained from this color distribution information (S42), and the base image white balance gain is obtained according to the setting mode (S43 to S44 and S48 to S51).
  • the light source color characteristic acquisition unit 58 calculates “black body radiation locus B and light source color I from the light source color data sent from the light source color estimation unit 56 and the black body radiation characteristic data read from the black body characteristic storage unit 60. Is obtained (S45).
  • the bracket WB gain setting unit 52 acquires the bracket image white balance gain according to the “base image white balance gain” and the “distance L between the black body radiation locus B and the light source color I” (S46).
  • the WB processing unit 54 acquires a base image based on the white balance gain for base image and the input image data, and acquires a bracket image based on the white balance gain for bracket image and the input image data (S47).
  • the bracket image white balance gain is determined according to the distance between the light source color estimated from the color distribution information of the input image data and the black body radiation locus.
  • the bracket WB gain setting unit 52 preferably sets the correction direction (bracket direction) by the bracket image white balance gain to the “amber / blue direction”.
  • the bracket WB gain setting unit 52 preferably sets the correction direction (bracket direction) by the bracket image white balance gain to the “green / magenta direction”. Details regarding the setting of the correction direction (bracket direction) by the white balance gain for bracket image will be described in a fourth embodiment to be described later.
  • bracket direction by determining the bracket direction relative to the base image according to the “distance between the light source color and the black body radiation locus” and acquiring the white balance gain for the bracket image, “the white balance process is overcorrected or undercorrected. It is possible to create a bracket image in which the “direction in a color space that is likely to occur” is the bracket direction.
  • bracket image with the bracket direction as “the direction in the color space where overcorrection or undercorrection is likely to occur during white balance processing” is performed regardless of the white balance setting mode.
  • the preset white balance gain of the light bulb color is generally often set to about 2800K to 3400K on the black body radiation locus.
  • the light source color of “LED (Light Emitting Diode)” or “fluorescent lamp” that is actually used as the light source of the light bulb color is slightly away from the black body radiation locus.
  • the bracket direction is determined according to the “distance between the light source color and the black body radiation locus”, and “the white balance processing causes overcorrection or undercorrection. It is possible to create a base image in which the “direction in easy color space” is the bracket direction.
  • the functional configuration of the white balance image processing unit 40 of the present embodiment is the same as that of the above-described third embodiment (see FIG. 10).
  • the bracket WB gain setting unit 52 (second gain acquisition unit 42) has a small distance between the “black body radiation locus (black body radiation characteristic)” and the “light source color estimated from the color distribution information of the input image data”.
  • the bracket image white balance gain is acquired by bringing the bracket direction on the color space closer to the amber / blue direction.
  • the bracket direction in the color space becomes the green / magenta direction. Get close and get white balance gain for bracket image.
  • FIG. 12 is a diagram showing an example of the relationship between the “distance L between the light source color and the black body radiation locus” and the “bracket direction” in the fourth embodiment.
  • the bracket WB gain setting unit 52 calculates a white balance gain for bracket image in which the bracket direction is the amber / blue direction (see reference numeral “A” in FIG. 12).
  • the bracket WB gain setting unit 52 determines that the bracket direction is The white balance gain for the bracket image in the green / magenta direction is calculated (see reference numeral “C” in FIG. 12).
  • the bracket WB gain setting unit 52 determines that the bracket direction is the amber / blue direction.
  • the white balance gain for the bracket image which is an intermediate direction between the green and magenta directions is calculated (see reference numeral “B” in FIG. 12).
  • the bracket direction when the distance L between the light source color and the black body radiation locus is not less than the first threshold (th1) and not more than the second threshold (th2), the bracket direction is the amber / blue direction and green. Although it can be changed continuously (proportional) according to the distance L with respect to the magenta direction, it is not limited to this.
  • the bracket direction may be determined from “the distance L between the light source color and the black body radiation locus” based on an arbitrary membership function.
  • the bracket direction is based on the membership function, it is desirable that the membership function to be used is determined according to the correlated color temperature of the light source color estimated by the light source color estimation unit 56.
  • the “first threshold value (th1)” and “second threshold value (th2)” that define the bracket direction can be determined according to the correlated color temperature of the light source color estimated by the light source color estimation unit 56. desirable.
  • the bracket WB gain setting unit 52 replaces the above-described method based on the “first threshold (th1)” and the “second threshold (th2)” with the distance L between the light source color and the black body radiation locus being the first.
  • the threshold value is 3 or less
  • the bracket direction may be the amber / blue direction
  • the bracket direction may be the green / magenta direction.
  • the hue of the created bracket image is not always appropriate due to shot hunting or the like. From the viewpoint of obtaining a bracket image having a more appropriate hue, a method that can adopt the “intermediate direction between the amber / blue direction and the green / magenta direction” as the bracket direction using a membership function or the like is preferable.
  • FIG. 13 is a flowchart of white balance processing according to the fourth embodiment.
  • the “base image white balance gain” and the “distance L between the black body radiation locus B and the light source color I” are performed in the same procedure as in the third embodiment (S40 to S45 and S48 to S51 in FIG. 11). Is acquired (S40 to S45 and S48 to S51 in FIG. 13).
  • the bracket image white balance gain in the bracket direction (see FIG. 12) corresponding to the “distance L between the black body radiation locus B and the light source color I” becomes the base image white balance gain. It is calculated
  • the WB processing unit 54 acquires a base image based on the white balance gain for base image and the input image data, and acquires a bracket image based on the white balance gain for bracket image and the input image data (S47).
  • a bracket image in an appropriate bracket direction can be obtained according to the “distance L between the black body radiation locus B and the light source color I”.
  • the second gain acquisition unit 42 acquires the white balance gain for the bracket image according to the “correlated color temperature based on the black body radiation characteristic” of the light source color estimated from the color distribution information of the input image data. .
  • the functional configuration of the white balance image processing unit 40 of the present embodiment is the same as that of the above-described third embodiment (see FIG. 10).
  • the bracket WB gain setting unit 52 (second gain acquisition unit 42) determines the absolute value of the bracket amount according to the correlated color temperature of the light source color estimated from the color distribution information of the input image data, and the bracket amount A bracket image white balance gain is acquired based on the absolute value.
  • the bracket amount (absolute value) is preferably changed according to the correlated color temperature of the light source color of the input image data.
  • the bracket WB gain setting unit 52 determines the absolute value of the bracket amount according to the correlated color temperature of the light source color estimated from the color distribution information, and changes the bracket image white balance gain according to the correlated color temperature. For example, in the case of white balance processing in which the white balance gain is applied only to the R pixel value and the B pixel value in the image data composed of RGB pixel values, the bracket WB gain setting unit 52 sets the R pixel value and the B pixel value. The bracket image white balance gain to be applied is adjusted according to the correlated color temperature of the light source color.
  • bracket WB gain setting unit 52 determines the white balance gain for the bracket image so that the absolute value of the bracket amount gradually increases as the correlated color temperature of the light source color estimated from the color distribution information increases.
  • FIG. 14 is a flowchart of white balance processing according to the fifth embodiment.
  • the base image white balance gain is acquired (S60 to S64 and S68 to S71 in FIG. 14) in the same procedure as in the third embodiment (S40 to S44 and S48 to S51 in FIG. 11).
  • the light source color characteristic acquisition unit 58 then correlates the light source color based on the light source color data of the light source color estimated by the light source color estimation unit 56 and the black body radiation characteristic data read from the black body characteristic storage unit 60.
  • the temperature is acquired (S65).
  • the bracket WB gain setting unit 52 Based on the “white balance gain for base image” acquired by the base WB gain setting unit 50 and the “correlated color temperature of light source color” acquired by the light source color characteristic acquisition unit 58, the bracket WB gain setting unit 52 performs bracketing. An image white balance gain is acquired (S66).
  • the WB processing unit 54 acquires a base image based on the white balance gain for base image and the input image data, and acquires a bracket image based on the white balance gain for bracket image and the input image data (S67).
  • bracket image white balance gain is acquired according to the correlated color temperature of the light source color of the input image data, an appropriate bracket image can be created with high accuracy.
  • FIG. 15 is a flowchart illustrating an example of processing in which the white balance processing of the fourth embodiment and the white balance processing of the fifth embodiment are combined.
  • the white balance gain for the base image is obtained in the same procedure as in the fourth embodiment (S40 to S44 and S48 to S51 in FIG. 13) and the fifth embodiment (S60 to S64 and S68 to S71 in FIG. 14). (S40 to S44 and S48 to S51 in FIG. 15).
  • the light source color characteristic acquisition unit 58 acquires “distance L between the black body radiation locus and the light source color” and “correlated color temperature of the light source color” (S45 and S65 in FIG. 15).
  • the bracket WB gain setting unit 52 sets the white balance gain for the bracket image based on “the bracket direction according to the distance L between the black body radiation locus and the light source color” and “the bracket amount according to the correlated color temperature of the light source color”.
  • the base image white balance gain is acquired as a reference (S46b in FIG. 15).
  • the WB processing unit 54 acquires a base image based on the white balance gain for base image and the input image data, and acquires a bracket image based on the white balance gain for bracket image and the input image data (FIG. 15). S47).
  • the saturation information of the base image is calculated by applying the white balance gain for the base image to the light source color, and the white balance gain for the bracket image is calculated according to the saturation information of the base image.
  • FIG. 16 is a block diagram illustrating a functional configuration example of the white balance image processing unit 40 according to the sixth embodiment.
  • the second gain acquisition unit 42 of the white balance image processing unit 40 of the present embodiment further includes a saturation specifying unit 62 that acquires the saturation information of the base image.
  • the saturation specifying unit 62 (second gain acquisition unit 42) is sent from the “light source color data of the light source color estimated from the color distribution information” sent from the light source color estimation unit 56 and the base WB gain setting unit 50. Based on the “base image white balance gain” that comes, the saturation information of the base image is acquired.
  • the bracket WB gain setting unit 52 acquires the white balance gain for bracket image based on the “saturation information of the base image” sent from the saturation specifying unit 62.
  • the saturation specifying unit 62 acquires the saturation information based on the “relative saturation of the base image” with respect to the achromatic color.
  • the bracket WB gain setting unit 52 determines the absolute value of the bracket amount based on the saturation information, and sets the bracket image white balance gain based on the absolute value of the bracket amount based on the base image white balance gain. get.
  • the light source color of the input image data is represented by (R L / G L , B L / G L ) by RGB values (R L , G L , B L ), and the R pixel value, G pixel value, and B pixel value
  • the white balance gain applied to each of these is represented by BaseWB R , BaseWB G , and BaseWB B.
  • the base image of the color ratios (color balance: Color Balance) the RGB values (R B, G B, B) by (R B / G B, B B / G B) expressed and, in the base image color ratio (R B / G B, B B / G B) is represented by the following formula.
  • Color ratio (R B / G B, B B / G B) of the base image a case that it is (1, 1), RGB values of the base image becomes saturation achromatic equal base image to each other, the base The image is subjected to appropriate white balance processing. That is, the base image obtained by the white balance processing by the white balance gain for the appropriate base image color ratio (R B / G B, B B / G B) is (1,1), and becomes an achromatic color. As for the base image obtained by the auto white balance mode color ratio (R B / G B, B B / G B) is usually (1,1), and becomes an achromatic color.
  • the saturation information indicating “relative saturation of the base image” with respect to the achromatic color is specified by the saturation specifying unit 62 and transmitted to the bracket WB gain setting unit 52, and the bracket WB gain setting unit 52 Based on the saturation information, the absolute value of the bracket amount is determined.
  • a specific example of the method for determining the absolute value of the bracket amount will be described in a seventh embodiment described later.
  • FIG. 17 is a flowchart of white balance processing according to the sixth embodiment.
  • the base image white balance gain is acquired (S80 to S84 and S88 to S91 in FIG. 17) in the same procedure as in the second embodiment (S20 to S24 and S27 to S30 in FIG. 8).
  • the saturation information of the base image is acquired by the saturation specifying unit 62 (S85), and the white balance gain for the bracket image is acquired from the saturation information of the base image and the white balance gain for the base image by the bracket WB gain setting unit 52. (S86).
  • the WB processing unit 54 acquires a base image based on the white balance gain for base image and the input image data, and acquires a bracket image based on the white balance gain for bracket image and the input image data (S87).
  • the bracket image white balance gain is adjusted based on the “base image saturation information”. As a result, it is possible to obtain bracket images having a substantially equal bracket amount “visually” regardless of the white balance setting mode and the light source color of the input image data.
  • the processing configuration of the above-described sixth embodiment is embodied, and a white balance gain for a bracket image reflecting human visual characteristics is acquired.
  • this visual characteristic is taken into consideration, and as the base image has a higher saturation and moves away from perfect gray, a bracket image in which the white balance is largely shifted from the base image is created. More specifically, the bracket WB gain setting unit 52 (second gain acquisition unit 42) determines the absolute amount of the bracket amount as the difference in saturation between the achromatic color and the base image increases based on the saturation information of the base image. Increase the value to obtain the white balance gain for the bracket image. By adjusting the white balance gain for the bracket image according to the saturation of the base image, the “visual” difference in white balance between the base image and the bracket image is made uniform regardless of the saturation of the base image. Is possible.
  • the “achromatic color” here may be an absolute achromatic color, or a color for reproducing the achromatic color on the display unit 8 in consideration of the display characteristics of the display unit 8 (hereinafter, “ It may also be referred to as “display achromatic color”. That is, the color that the user visually feels achromatic differs depending on the display characteristics of the device that displays the image. For example, a liquid crystal display (LCD: Liquid Crystal Display) having a color temperature of 6500K is more than a liquid crystal display having a color temperature of 5000K. Also looks blue overall.
  • LCD Liquid Crystal Display
  • the bracket WB gain setting unit 52 acquires display characteristic information indicating the display characteristics of the display unit 8 from the display characteristic acquisition unit, and acquires display achromatic information based on the display characteristic information. May be.
  • the bracket WB gain setting unit 52 may estimate the display achromatic color from the display achromatic color information, and acquire the saturation information based on the relative saturation of the base image with respect to the display achromatic color.
  • the bracket WB gain setting unit 52 determines the absolute value of the bracket amount based on the saturation information, and sets the bracket image white balance gain based on the absolute value of the bracket amount based on the base image white balance gain. You may get it.
  • the functional configuration of the white balance image processing unit 40 of the present embodiment is basically the same as that of the above-described sixth embodiment (see FIG. 16).
  • the “display characteristic acquisition unit” that acquires the display characteristic information of the display unit and supplies the display characteristic information to the bracket WB gain setting unit 52 is not particularly limited.
  • It may function as a display characteristic acquisition unit, or an independent display characteristic acquisition unit (not shown) may be provided.
  • FIG. 18 is a flowchart of white balance processing according to the seventh embodiment.
  • the “white balance gain for base image” and “saturation information of the base image” are acquired in the same procedure as in the sixth embodiment (S80 to S85 and S88 to S91 in FIG. 17) (FIG. 18). S80 to S85 and S88 to S91).
  • the bracket WB gain setting unit 52 is for the base image in which the bracket amount (absolute value) is adjusted according to the saturation of the base image indicated by the “saturation information of the base image” sent from the saturation specifying unit 62.
  • a white balance gain is acquired (S86a). Specifically, the base image white balance gain is acquired by decreasing the bracket amount when the base image has low saturation and increasing the bracket amount when the base image has high saturation.
  • the bracket WB gain setting unit 52 can acquire the bracket image white balance gain based on the “saturation of the base image” by an arbitrary method, and may use a membership function or a reference table, for example.
  • the WB processing unit 54 acquires a base image based on the white balance gain for base image and the input image data, and acquires a bracket image based on the white balance gain for bracket image and the input image data (S87).
  • the “bracket amount” is adjusted according to the “saturation of the base image” in consideration of the visual characteristics.
  • the “visual” difference in white balance between the bracket images can be made uniform.
  • the white balance gain for the base image and the white balance gain for the bracket image have different flash influence levels in the white balance processing of the input image data captured and acquired by flash emission in the auto white balance mode. Get based on.
  • the flash emission is not always performed stably, and the flash emission amount (flash arrival amount) may vary from one shooting to the next. Further, the influence of the flash on the photographed image varies depending on the optical characteristics of the subject. For this reason, the “estimated flash influence degree” and the “actual flash influence degree in the input image data” do not match, and appropriate white balance processing may not be performed.
  • the white balance gain for the base image and the white balance gain for the bracket image are acquired based on the different flash influence levels in the white balance bracketing. .
  • FIG. 19 is a block diagram illustrating a functional configuration example of the white balance image processing unit 40 according to the eighth embodiment.
  • the white balance image processing unit 40 (image processing apparatus) of the present embodiment includes an image data acquisition unit 44, a base WB gain setting unit 50 (first gain acquisition unit 41), and a bracket WB gain setting unit 52 (second gain acquisition unit). 42) is further included.
  • the flash identification unit 64 receives the input image data from the image data acquisition unit 44, and acquires the flash influence level indicating the flash influence level in the input image data. The acquired flash influence degree is transmitted from the flash specifying unit 64 to the base WB gain setting unit 50 and the bracket WB gain setting unit 52.
  • the method for acquiring the flash impact level in the flash specifying unit 64 is not particularly limited, and the flash impact level can be acquired by an arbitrary method.
  • the flash specifying unit 64 and the reference image data (flash non-flash) captured and acquired without emitting the flash.
  • the flash influence degree can be calculated from the (emission image).
  • the flash identification unit 64 calculates difference data between input image data (flash emission image) and reference image data (flash non-emission image). This difference data becomes “image data affected only by the flash” from which the influence of ambient light has been removed. Therefore, the flash specifying unit 64 can acquire the flash influence level based on the “image data affected only by the flash”.
  • the base WB gain setting unit 50 (first gain acquisition unit 41) acquires a base image white balance gain based on the flash influence degree. Then, the bracket WB gain setting unit 52 (second gain acquisition unit 42) acquires the bracket image white balance gain based on the flash influence level different from the flash influence level used for acquiring the base image white balance gain.
  • the setting mode is the auto white balance mode
  • the base image white balance gain and the bracket image white balance gain are calculated based on different flash influence degrees.
  • “Acquiring the white balance gain for the base image and the white balance gain for the bracket image based on the flash influence degree” in the base WB gain setting unit 50 and the bracket WB gain setting unit 52 can be performed by an arbitrary method.
  • the ratio of the influence of flash and ambient light in the input image data may be calculated based on the degree of influence of the flash.
  • "white balance gain according to ambient light color temperature (white balance gain that cancels the effect of ambient light)” and “white balance gain according to flash color temperature (white that cancels the effect of flash) "Acquisition of white balance gain for base image and white balance gain for bracket image based on flash influence degree” is possible by performing a weighted average of "balance gain)".
  • the bracket WB gain setting unit 52, the WB processing unit 54, and the flash specifying unit 64 receive information data regarding the white balance setting mode from the WB setting determination unit 48, and determine the white balance setting mode based on the information data. Process.
  • the flash light emission and non-light emission at the time of shooting can be switched by the system control unit 25 controlling the flash light emission unit 5.
  • the system control unit 25 may switch between flash emission and non-emission according to a user instruction via the user interface 36, or the flash emission and non-emission according to the brightness of the subject measured by a photometric sensor (not shown). Non-light emission may be automatically switched.
  • FIG. 20 is a flowchart of white balance processing according to the eighth embodiment.
  • input image data is acquired (S100 in FIG. 20) and color distribution information of the input image data is acquired in the same procedure as in the first embodiment (S10 and S11 in FIG. 6) ( S101).
  • the system control unit 25 and the WB setting determination unit 48 determine the white balance setting mode and the presence or absence of flash emission.
  • the flash specifying unit 64 is controlled by the system control unit 25 to acquire the flash influence degree of the input image data. (S104).
  • the base WB gain setting unit 50 acquires a white balance gain for base image based on the color distribution information and the flash influence degree (S105).
  • the bracket WB gain setting unit 52 obtains a bracket image white balance gain having a flash influence level different from the base image white balance gain (S106).
  • the base WB gain setting unit 50 is based on the color distribution information of the input image data.
  • the base image white balance gain is acquired (S108).
  • the bracket WB gain setting unit 52 acquires a white balance gain for bracket image based on the color distribution information of the input image data (S109).
  • the base WB gain setting unit 50 uses the system image control unit 25 and the WB setting determination unit 48 as the base image white balance gain stored in advance in the control memory 30. To get through. Further, the bracket WB gain setting unit 52 acquires a white balance gain for bracket image based on the color distribution information of the input image data (S109).
  • the base WB gain setting unit 50 and the bracket WB gain setting unit 52 are based on the color distribution information of the input image data based on the color distribution information of the input image data in the same manner as the white balance image processing unit 40 of each embodiment described above.
  • the white balance gain for the bracket image can be acquired.
  • the WB processing unit 54 acquires a base image based on the white balance gain for base image and the input image data, and acquires a bracket image based on the white balance gain for bracket image and the input image data (S107).
  • the base image and the bracket image are created based on the white balance gains having different flash influence levels. .
  • the bracket image white balance gain may be based on an appropriate flash influence degree. Therefore, the user can more reliably obtain an image that has been subjected to the white balance processing based on an appropriate flash influence level.
  • the white balance gain for the base image and the white balance gain for the bracket image are acquired based on the color distribution information of the input image data
  • the present invention is not limited to this.
  • the base image white balance gain and the bracket image white balance gain can be acquired by an arbitrary method.
  • the white balance gain for the base image and the white balance gain for the bracket image may be based on different flash influence degrees, and may not necessarily be based on the color distribution information of the input image data.
  • whether or not a bracket image needs to be created is automatically determined, not based on settings by the user. That is, based on the color distribution information of the input image data, it is determined whether or not the white balance processing in the auto white balance mode is likely to be inappropriate. In white balance processing of input image data that is likely to be inappropriate for white balance processing, a bracket image is automatically created.
  • FIG. 21 is a block diagram illustrating a functional configuration example of the white balance image processing unit 40 according to the ninth embodiment.
  • the second gain acquisition unit 42 of the present embodiment further includes a bracket determination unit 66 and a bracket data storage unit 68.
  • the bracket data storage unit 68 stores bracketing necessity data that defines the relationship between the color distribution information and the necessity of bracket image creation.
  • FIG. 22 is a diagram showing an example of the relationship between the color distribution information and the necessity of bracket image creation.
  • the origin is “0”
  • the vertical axis represents “B / G (blue / green)”
  • the horizontal axis represents “R / G (red / green)”.
  • the bracketing necessity data is defined as “It is necessary to create a bracket image” for input image data having color distribution information that is likely to cause an inappropriate white balance gain for the base image.
  • image data including a lot of data such as green of trees and image data taken under an artificial light source (such as a fluorescent lamp) that emits light with a high proportion of the green component both have a proportion of the green component. Therefore, they are often arranged at the same or close positions in the color space (see reference numeral “A1” in FIG. 22).
  • the ratio of the red component in both the image data that captures the sunset scene and the image data that is captured under an artificial light source (such as a light bulb and LED) that emits light with a high proportion of the red component is high. For this reason, they are often arranged at the same or close positions on the color space (see reference numeral “A2” in FIG. 22).
  • the bracketing necessity data defines that “the creation of a bracket image is required” for image data (color distribution information) existing in the white balance error area (A1, A2).
  • the bracketing necessity data defines that “the creation of a bracket image is not required” for image data (color distribution information) existing outside the white balance error area (A1, A2).
  • the bracketing necessity data determines that it is necessary to create a bracket image for input image data having at least green and red color distribution information.
  • the bracket determination unit 66 (second gain acquisition unit 42) refers to the bracketing necessity data read from the bracket data storage unit 68 based on the color distribution information of the input image data acquired by the color distribution acquisition unit 46, and Decide whether to create a bracket image.
  • the necessity information of the bracket image creation determined by the bracket determination unit 66 is transmitted to the bracket WB gain setting unit 52 and the WB processing unit 54.
  • the bracket WB gain setting unit 52 acquires the bracket image white balance gain based on the color distribution information and the base image white balance gain. To do. Then, the WB processing unit 54 creates a bracket image based on the bracket image white balance gain.
  • the bracket determination unit 66 determines that the bracket image needs to be created
  • the bracket image white balance gain is acquired.
  • a bracket image is created.
  • the bracket determination unit 66 determines that it is necessary to create a bracket image, it is preferable that the white balance gain for bracket image and the bracket image are created according to the light source color assumed to be possible. .
  • the bracket WB gain setting unit 52 uses the first bracket when it is assumed that the light source color is natural light (sunlight). It is desirable to obtain the image white balance gain and the second bracket image white balance gain when the light source color is assumed to be an artificial light source (fluorescent lamp or the like).
  • the WB processing unit 54 preferably creates a first bracket image based on the first bracket image white balance gain and a second bracket image based on the second bracket image white balance gain. As a result, the user can more reliably obtain an image subjected to appropriate white balance processing from the base image and the bracket image.
  • bracket determination unit 66 determines that the creation of the bracket image is unnecessary, the bracket WB gain setting unit 52 does not acquire the white balance gain for the bracket image, and the WB processing unit 54 does not create the bracket image. Only the base image is created.
  • the white balance setting mode sent from the WB setting discrimination unit 48 is the auto white balance mode, and the bracket image creation sent from the bracket judgment unit 66 is made. Only when the necessity information indicates that it is necessary to create a bracket image, the bracket image white balance gain and the bracket image are acquired. On the other hand, if the white balance setting mode sent from the WB setting discriminating unit 48 is not the auto white balance mode, the bracket image creation necessity information sent from the bracket judging unit 66 does not require the creation of a bracket image. In the case of indicating that the bracket WB gain setting unit 52 and the WB processing unit 54 do not acquire the bracket image white balance gain and the bracket image.
  • FIG. 23 is a flowchart of white balance processing according to the ninth embodiment.
  • input image data is acquired (S120 in FIG. 23) and color distribution information of the input image data is acquired in the same procedure as in the first embodiment (S10 and S11 in FIG. 6) ( S121).
  • the white balance setting mode is determined by the WB setting determination unit 48.
  • the base WB gain setting unit 50 acquires the base image white balance gain based on the color distribution information from the color distribution acquisition unit 46 (S123). Then, the bracket determination unit 66 determines whether the color distribution information of the input image data exists within the white balance error region (see A1 and A2 in FIG. 22) (S124). When the color distribution information of the input image data exists in the white balance error region (Yes in S124), the bracket WB gain setting unit 52 acquires the white balance gain for bracket image based on the color distribution information (S125). The WB processing unit 54 creates a base image and a bracket image (S126).
  • the base WB gain setting unit 50 determines the base image white balance gain stored in the control memory 30 as the system control unit 25 and the WB. Obtained via the setting determination unit 48 (S127). Then, the white balance gain for bracket image and the bracket image are not acquired, and only the base image is created in the WB processing unit 54 (S128).
  • the bracket image is automatically added to the base image in addition to the base image for input image data having color distribution information that is likely to be inappropriate in white balance processing in the auto white balance mode. To be created. Therefore, even if the color distribution information of the input image data is likely to cause a light source color determination error and a color failure may occur due to white balance processing, the user does not re-photograph and does not re-photograph the appropriate white from the bracket image. An image subjected to the balance process can be acquired.
  • the present embodiment relates to a recording method and a display method for a base image and a bracket image created for one input image data by white balance bracketing.
  • the recording method and display method described below can be applied not only to the base image and bracket image created in the above-described embodiment, but also to the base image and bracket image created based on other white balance bracketing methods. It is.
  • classification information indicating that the image is a main image or a sub image is added to each of the base image and the bracket image, and the classification information can be rewritten according to a user instruction.
  • the display unit 8 displays a color space, the corresponding positions of the base image and the bracket image are displayed on the color space display, and the user can easily grasp the relationship between the base image and the bracket image on the color space. can do.
  • FIG. 24 is a block diagram illustrating a functional configuration example of the WB processing unit 54 according to the tenth embodiment.
  • the WB processing unit 54 of this embodiment includes a white balance calculation processing unit (hereinafter referred to as “WB calculation processing unit”) 55 and an information addition unit 57.
  • WB calculation processing unit a white balance calculation processing unit
  • information addition unit 57 an information addition unit
  • the WB calculation processing unit 55 calculates the base image data by applying the white balance gain for base image to the input image data, and calculates the bracket image data by applying the white balance gain for bracket image to the input image data.
  • the information adding unit 57 adds the classification information to the base image and the bracket image created by the WB calculation processing unit 55.
  • FIG. 25 is a diagram illustrating a data structure example regarding each of the base image and the bracket image.
  • the image information data 83 relating to each of the base image and the bracket image includes an image data portion 84 relating to the image after white balance processing created by the WB calculation processing portion 55 and a classification information portion relating to the classification information added by the information addition portion 57. 85.
  • the classification information added by the information adding unit 57 is information on the main image and the sub image.
  • the main image classification information is assigned to one of the base image and the bracket image created for one input image data, and the sub-image classification information is assigned to the other.
  • the information adding unit 57 (WB processing unit 54) of this example adds classification information indicating a main image to the base image, and adds classification information indicating a sub image to the bracket image.
  • the information adding unit 57 may add classification information indicating that it is a main image to any one bracket image, and may add classification information indicating that it is a sub image to the base image and other bracket images. .
  • the file format of the base image and bracket image created for one input image data includes a method in which each of the base image and the bracket image is a separate file, and a method in which the base image and the bracket image are a single file.
  • FIG. 26 shows an example of the data structure when each of the base image and bracket image created for one input image data is set as separate file data.
  • each file data 87 includes a group information section 86 in addition to the image data section 84 and the classification information section 85.
  • the group information portion 86 is a portion representing group information data indicating which input image data is related.
  • group information data a base image and a bracket image created based on the same input image data are associated with each other and grouped. Therefore, a group composed of the base image and the bracket image is formed for each input image data, and the base image and the bracket image created from the same input image data constitute the same group.
  • the addition of the group information unit 86 to the image data unit 84 and the classification information unit 85 is performed by the information addition unit 57, but may be performed by another processing unit, for example, by the storage control unit 33. May be.
  • FIG. 27 shows an example of the data structure when a base image and a bracket image created for one input image data are used as one file.
  • one file data 87 including these images (image data portion 84) and classification information (classification information portion 85) is created. Accordingly, the image information data 83 related to the base image and the image information data 83 related to the bracket image exist in one file data 87. In this case, the group information unit 86 (see FIG. 26) may not be added.
  • the creation of the file data 87 described above may be performed by the information adding unit 57 shown in FIG. 24 or may be performed by the storage control unit 33 shown in FIG.
  • the file data 87 is created by the information adding unit 57
  • the created file data 87 is compressed in the compression / decompression unit 32 and stored in the main memory 10 under the control of the storage control unit 33.
  • the storage control unit 33 creates the file data 87
  • the data constituting the classification information unit 85 and the group information unit 86 is transmitted from the system control unit 25 to the storage control unit 33 and subjected to compression processing.
  • Image data base image and bracket image
  • the storage control unit 33 creates file data 87 based on the data sent from the system control unit 25 and the image data sent from the compression / decompression unit 32 and stores the file data 87 in the main memory 10.
  • the storage control unit 33 adds metadata such as shooting date / time information and editing date / time information to the base image and bracket image data (file data 87), and then associates the base image and the bracket image with each other. Save in the main memory 10.
  • the metadata addition processing in the storage control unit 33 can be performed in accordance with, for example, the Exif format.
  • the main memory 10 stores image information data 83 including an image data unit 84 and a classification information unit 85 (and a group information unit 86) by the storage control unit 33, and stores the base image and the bracket image in association with each other. Is done.
  • FIG. 28 is a flowchart regarding white balance processing in the tenth embodiment.
  • a base image and a bracket image are created by the WB computation processing unit 55 (S130 in FIG. 28), and classified into each of the base image and the bracket image created by the WB computation processing unit 55 by the information addition unit 57.
  • Information is added (S131).
  • FIG. 29 shows a processing unit mainly related to the image display process among the functional blocks of the digital camera 2.
  • the display control unit 35 controls the display unit 8 to display at least one image of the base image and the bracket image on the display unit 8.
  • the display control unit 35 of the present embodiment causes the display unit 8 to display an image to which at least classification information of the main image is added among the base image and the bracket image.
  • the image processing unit 31 of the present embodiment has a classification information rewriting unit 72.
  • the classification information rewriting unit 72 is controlled by the system control unit 25, acquires image data stored in the buffer memory 24, and rewrites the classification information.
  • an instruction to determine classification information added to the base image and the bracket image is input by the user to the user interface 36 (operation unit 9: instruction reception unit).
  • the classification information rewriting unit 72 rewrites the classification information added to the base image and the bracket image based on the classification information determination instruction input to the user interface 36. Specifically, when an instruction to determine classification information is input via the user interface 36, the system control unit 25 controls the classification information rewriting unit 72, and the classification information rewriting unit 72 converts the classification information of the base image and the bracket image. Let them be rewritten.
  • the classification information rewriting unit 72 selects a new one of the base image and bracket image created from one input image data.
  • the classification information added to the image selected and determined as the main image is changed from the sub image to the main image, and the classification information of the image to which the classification information of the main image is added until the determination instruction is input is displayed in the main image. Change from to sub-screen.
  • the image data output from the image sensor 21 and processed by the process processing unit 22, AD conversion unit 23, and image processing unit 31 is stored in the buffer memory 24. Temporarily stored.
  • the display control unit 35 reads the image data stored in the buffer memory 24 and causes the display unit 8 to display the image data.
  • the image data read from the main memory 10 by the storage control unit 33 and subjected to the decompression process by the compression / decompression unit 32 is temporarily stored in the buffer memory 24. .
  • the display control unit 35 reads the image data stored in the buffer memory 24 and causes the display unit 8 to display the image data.
  • FIG. 30 is a diagram illustrating an example of image reproduction display on the display unit 8. Note that only an example is shown in FIG. 30, and the size and arrangement of each part displayed on the display unit 8 are not particularly limited.
  • the “image reproduction” may be reproduction of a captured image for confirming a photographed image immediately after photographing, or may be reproduction of a recorded image for confirmation of an image recorded in the main memory 10.
  • the selected image display unit 74, the selection cursor 75, the reduced image 76, the classification display unit 77, and the color space display unit 78 are displayed on the display unit 8 at the time of image reproduction in this example.
  • the selection cursor 75 is a display for selecting one of the base image and the reduced image 76 of the bracket image, and is selected by the selection cursor 75 when the user operates the user interface 36 (operation unit 9).
  • the reduced image 76 can be switched.
  • the reduced image 76 is an image obtained by reducing the base image and the bracket image.
  • classification information main image or sub-image
  • 30 displays “M” for the reduced image 76 of the main image (base image), and “S1” or “S2” for the reduced image 76 of the sub-image (bracket image). "Is displayed.
  • any display of the classification display unit 77 may be selected by the selection cursor 75, and the selected image may be displayed on the selection image display unit 74.
  • the selected image display unit 74 only one image selected by the selection cursor 75 from the base image and the bracket image is displayed, and an image showing the user's interest is displayed.
  • the image that is first displayed on the selected image display unit 74 is an image to which the classification information of the main image is attached among the base image and the bracket image.
  • the display control unit 35 displays the color space coordinates (L * a * b * chromaticity diagram of the color system in the example shown in FIG. 30) on the color space display unit 78 of the display unit 8 so that the base image and the bracket image are displayed. Among them, the color distribution information of at least one of the images displayed on the display unit 8 is represented on the color space coordinates displayed on the display unit 8. In this example, the display control unit 35 determines the position of both the color distribution information of the image to which the classification information of the main image is added and the color distribution information of the image to which the classification information of the sub image is added. These are represented on the color space coordinates displayed on the display unit 8. In the example shown in FIG.
  • the color distribution information (representative color) of the image to which the classification information of the main image is added is indicated by “M”, and the classification information of the sub image is added.
  • the color distribution information (representative color) of the image is indicated by the display of “S1” and “S2”.
  • the color distribution information of the base image (main image) is represented on the origin of the color space coordinates, but the base image ( Color distribution information of the main image) may be represented.
  • the user operates the user interface 36 (operation unit 9) to move the selection cursor 75, and the reduced image 76 by the selection cursor 75 is displayed.
  • the selection object can be changed.
  • the display control unit 35 controls the display unit 8 to cause the selected image display unit 74 to display an image newly selected by the selection cursor 75.
  • the user interface 36 (operation unit 9) also functions as an image switching reception unit in which an instruction to switch an image to be displayed on the display unit 8 is input by the user.
  • the display control unit 35 switches an image to be displayed on the selected image display unit 74, which is the same area of the display unit 8, out of the base image and the bracket image.
  • FIG. 31 is a diagram illustrating a display example of the display unit 8 when the bracket image is selected and determined as the main image.
  • the user operates the user interface 36 (operation unit 9) to move the selection cursor 75, and operates the user interface 36 to operate the bracket.
  • the display unit 8 displays, for example, as shown in FIG. In FIG. 31, when a bracket image is selected as a main image by the user using the selection cursor 75, “M” indicating the main image is displayed on the classification display portion 77 for the selected reduced image 76, and other reduced images are displayed.
  • “S1” or “S2” indicating a sub-image is displayed.
  • the color space display unit 78 the color distribution information of the base image and the bracket image is displayed on the color space coordinates in accordance with the classification of the main image and the sub image after the selection decision by the user.
  • the user can select one image as an image of interest from the plurality of images (base image and bracket image) displayed on the display unit 8 via the user interface 36 (operation unit 9).
  • a determination instruction indicating that the user has selected an image of interest is input to the user interface 36 (operation unit 9).
  • the system control unit 25 controls the classification information rewriting unit 72 to set the classification information of the image of interest as the main image.
  • the classification information rewriting unit 72 classifies the classification information of the image of interest specified by the determination instruction input to the user interface 36 (the operation unit 9) out of the base image and the bracket image created based on one input image data. Is the main image, and the classification information of other images is the sub image.
  • the display control unit 35 controls the display unit 8 to display one or more images among the base image and the bracket image on the display unit 8 according to the rewritten classification information. Display.
  • FIG. 32 is a flowchart regarding image switching in the display unit 8 (selected image display unit 74).
  • the system controller 25 determines whether or not the playback mode is set (S140 in FIG. 32), and this determination is continued until the playback mode is set (No in S140).
  • the “determination of whether or not the playback mode is in” can be performed by any method. For example, the system control unit 25 determines whether or not the user has selected a playback mode via the user interface 36 (operation unit 9), or whether or not the mode is set to a mode for performing playback for checking a captured image. It is possible to perform “determination as to whether or not the playback mode is selected”.
  • the display control unit 35 controls the display unit 8 under the control of the system control unit 25, and the selected image display unit 74 of the display unit 8 has a main image classification. An image to which information is added is displayed (S141; see FIG. 30).
  • the system determines whether or not there is an instruction to display the image with the sub image classification information added by the user after displaying the image with the main image classification information added to the base image and the bracket image on the selected image display unit 74. This determination is continued by the control unit 25 until the display instruction is received from the user (No in S142).
  • the display control unit 35 controls the display unit 8 under the control of the system control unit 25 to display the image. An image newly selected by the selection cursor 75 is displayed on the selected image display unit 74 of the unit 8 (S143).
  • FIG. 33 is a flowchart of the classification information rewriting process.
  • the system control unit 25 determines whether or not there is a main image switching instruction (S150 in FIG. 33), and this determination is continued until there is a main image switching instruction (No in S150).
  • the user moves the selection cursor 75 via the user interface 36 (operation unit 9), and an instruction to determine the reduced image 76 with the sub-image classification information added as a new main image is given by the user interface 36.
  • the case where it is input to the (operation unit 9) is a case where there is a “main image switching instruction”.
  • the rewriting of the classification information of the base image and the bracket image of the group that is the target of the switching instruction is performed under the control of the system control unit 25. This is performed by the rewriting unit 72 (S151).
  • the classification information added to the image determined by the user as the main image is “main image”
  • the classification information added to the other images is “sub-image”.
  • the rewriting process of the classification information is performed.
  • the classification information rewriting unit 72 When the classification information rewriting unit 72 rewrites the classification information, the base image and the bracket image are sent to the storage control unit 33 via the compression / decompression unit 32, and the storage control unit 33 stores the main information together with the rewritten classification information. It is stored in the memory 10 (S152).
  • the present embodiment only one image of the base image and the bracket image is displayed on the selected image display unit 74 of the display unit 8, and a user display instruction is given via the user interface 36. Accordingly, the image displayed on the selected image display unit 74 can be switched. Therefore, even if the number of base images and bracket images created based on the same input image data increases, the user can confirm these base images and brackets by switching the images displayed on the selected image display unit 74. An image can be easily grasped, and a user's trouble of image management can be reduced.
  • the base image and the bracket image are displayed on the display unit 8 (selected image display unit 74) at the same time and each image is displayed at a different location on the display unit 8, the display images 8
  • the comparison is difficult, and it is difficult for the user to recognize the difference in white balance between displayed images.
  • the base image and the bracket image are displayed on the selected image display unit 74 that is the same area of the display unit 8 by the user's selection via the selection cursor 75. Since the display of the base image and the bracket image is switched at the same position, it is easy to compare the images, and the user can easily recognize the difference in white balance between the images.
  • the user can intuitively confirm the bracket direction and the bracket amount at a glance.
  • the image displayed on the selected image display unit 74 is switched according to a user operation via the user interface 36, but the present invention is not limited to this.
  • the display control unit 35 may automatically and sequentially display each of the base image and the bracket image on the selection image display unit 74 that is the same area of the display unit 8 over time. That is, the image displayed on the selected image display unit 74 is switched by the display control unit 35, and the image displayed on the selected image display unit 74 is automatically switched over time without user operation.
  • the switching timing of the image displayed on the selected image display unit 74 is preferably a timing at which the user can recognize the difference in white balance between the base image and the bracket image.
  • the display of the display unit 8 is not limited to the example shown in FIGS. 30 and 31, and for example, the reduced image 76 and the classification display unit 77 may not be displayed on the display unit 8.
  • 34A to 34D show other display examples of the display unit 8.
  • FIG. As shown in FIGS. 34A to 34D, the selected image display unit 74 and the color space display unit 78 are displayed on the display unit 8, but the reduced image 76 and the classification display unit 77 (see FIGS. 30 and 31) are displayed. It does not have to be.
  • a color space display unit 78 may be provided in a part of the selected image display unit 74.
  • a plurality of selected image display units 74 are provided in the display unit 8, and a plurality of images (all images) of the base image and the bracket image are displayed on each of the plurality of selected image display units 74. May be.
  • the image of the selected image display unit 74 corresponding to the image selected by the selection cursor 75 may be highlighted by the highlight cursor 79 or the like.
  • the display contents on the display unit 8 are appropriately switched by the display control unit 35 controlled by the system control unit 25 controlling the display unit 8. Therefore, the system control unit 25 may control the display control unit 35 in accordance with a preset mode and appropriately switch the display content of the display unit 8. Further, the system control unit 25 can control the display control unit 35 in accordance with an operation signal input by the user via the user interface 36, and can move or switch the display on the display unit 8 (such as the selection cursor 75). .
  • This embodiment relates to a data storage method and a data deletion method for base images and bracket images.
  • the base image and the bracket image are associated with each other by adding the classification information of the main image or the sub image to the base image and the bracket image.
  • Image storage unit This is applied when stored in 10.
  • the following data storage method and data deletion method are used not only when the classification information of the main image and the sub image is assigned to the base image and the bracket image according to the above-described embodiment, but also based on other white balance bracketing methods.
  • the present invention can be applied to the case where the sub-image classification information is assigned to the base image and the bracket image.
  • the image data to which the sub-image classification information is added among the base image and the bracket image is recorded on the recording medium after a certain time (for example, one week) has elapsed since the photographing or the classification information is changed. It is automatically erased from the main memory 10).
  • the system configuration of this embodiment is almost the same as that of the above-described tenth embodiment (see FIG. 29).
  • the storage control unit 33 of the present embodiment adds the sub-image classification information of the base image and the bracket image when the time from the creation of the base image and / or the bracket image is longer than the first time.
  • the deleted image is deleted from the main memory (image storage unit) 10.
  • the storage control unit 33 sets the time from the rewriting of the classification information to the second time. If the image is too long, the image to which the sub-image classification information is added is deleted from the main memory 10 from the base image and the bracket image.
  • the storage control unit 33 of the present embodiment edits the date and time information obtained from the clock device 34 and the editing date and time information of the image to which the main image classification information is added among the base image and the bracket image stored in the main memory 10 ( The image with the sub-image classification information added is deleted from the main memory 10 based on the update date / time information.
  • the date and time information obtained from the clock device 34 and the editing date and time information of the image with the main image classification information added among the base image and the bracket image stored in the main memory 10 are acquired by the system control unit 25.
  • the editing date and time information here indicates the creation date and time of the base image and the bracket image when the classification information is not rewritten, and the latest rewriting date and time of the classification information when the classification information is rewritten. Show.
  • the “date and time information related to the creation of the base image and the bracket image” and the “date and time information related to the rewriting of the classification information” may be stored as separate data, or both date and time information may be simply referred to as “update date and time information”. It may be stored as a single data.
  • the above-mentioned “first time” and “second time” are arbitrary times, and the first time and the second time may be the same or different.
  • the system control unit 25 and the storage control unit 33 according to the present embodiment perform the above-described series of processes related to image deletion when the user operates the power switch 7 to turn on the power.
  • FIG. 35 is a flowchart showing an example of processing for deleting an image based on the time from the creation of the base image and the bracket image.
  • the system control unit 25 determines whether the power is turned on via the power switch 7 (user interface 36) (S160 in FIG. 35).
  • the determination is made by the system control unit 25 via the control unit 33 (S161). This determination is performed by an arbitrary method. For example, the storage control unit 33 reads only the metadata of the image data stored in the main memory 10, and the system control unit 25 stores the sub image classification information in the main memory 10. It may be determined whether the added image data is stored.
  • the system control unit 25 creates the image data having the sub-image classification information. Date / time information regarding the current date / time is acquired from the clock device 34 (S163).
  • the system control unit 25 determines whether or not the current date / time has passed a first time or more from the creation date / time of the image data to which the sub-image classification information is added (S164). When it is determined that the current date / time has passed the first time or more from the creation date / time (Yes in S164), the storage control unit 33 adds the classification information of the sub-image under the control of the system control unit 25.
  • the deleted image data is deleted from the main memory 10 (S165).
  • the image with the sub-image classification information added is not stored in the main memory 10 (No in S161), and the current date and time is first from the creation date and time of the image data. If the time has not elapsed (No in S164), the deletion process of the image stored in the main memory 10 is not performed.
  • FIG. 36 is a flowchart showing an example of processing for deleting an image based on the time from the rewriting of the classification information.
  • the power on / off is determined (S170 in FIG. 36) in the same procedure as the example shown in FIG. 35 (S160 and S161 in FIG. 35), and the sub image classification information is stored in the main memory 10. It is determined whether or not an image to which is added is stored (S171).
  • the system control unit 25 When it is determined that the power is on (Yes in S170) and the image with the sub-image classification information added is stored in the main memory 10 (Yes in S171), the system control unit 25 causes the sub-image to be stored.
  • the date and time information related to the latest rewrite date and time of the classification information of the image data having the classification information is acquired via the storage control unit 33 (S172), and the date and time information related to the current date and time is acquired from the clock device 34 (S173).
  • the system control unit 25 determines whether or not the current date and time has passed a second time or more from “the latest date and time of rewriting the classification information of the image data having the classification information of the sub-image” (S174).
  • the storage control unit 33 adds the sub-image classification information under the control of the system control unit 25.
  • the processed image data is deleted from the main memory 10 (S175).
  • the image with the sub-image classification information added is not stored in the main memory 10 (No in S171), and the current date / time is second from the latest image data rewrite date / time. If the above time has not elapsed (No in S174), the image deletion process stored in the main memory 10 is not performed.
  • FIG. 37 is a flowchart showing an example of processing for deleting an image based on “time from creation of base image and bracket image” and “time from rewrite of classification information”.
  • the system control unit 25 displays the sub-image. Whether or not the classification information has been rewritten is determined through the storage control unit 33 (S182).
  • processing is performed in the same procedure as in the example shown in FIG. 36 (S172 to S175 in FIG. 36). That is, the latest date / time of rewriting of classification information is acquired (S183), the current date / time is acquired (S184), and it is determined that the current date / time has passed a second time or more from the latest date / time of rewriting (Yes in S185).
  • the storage control unit 33 deletes the image data to which the classification information of the sub-image is added under the control of the system control unit 25 (S186).
  • the processing is performed in the same procedure as in the example shown in FIG. 35 (S162 to S165 in FIG. 35). That is, date / time information related to the creation date / time of the image data to which the sub-image classification information is added is acquired (S187), the current date / time is acquired (S188), and the current date / time has passed a first time or more from the creation date / time. If it is determined that the sub image is classified (Yes in S189), the storage control unit 33 deletes the image data to which the sub image classification information is added under the control of the system control unit 25 (S186).
  • the current date and time is first from the creation date and time of the image data. If the time has not passed (No in S189) and if the current date and time has not passed more than the second time from the latest rewrite date and time of the image data (No in S185), the image stored in the main memory 10 is stored. Deletion processing is not performed.
  • waste of the storage capacity of the main memory 10 can be effectively prevented.
  • the image data with the sub-image classification information added is transferred from the main memory 10. Deleted. That is, a base image and a bracket image created based on one input image data other than one image to which the main image classification information is assigned are deleted as time passes. As a result, waste of the storage capacity of the main memory 10 can be prevented, and a larger number of photographic scene images can be stored in the main memory 10.
  • ⁇ Custom white balance mode For example, in the above-described embodiment, only the base image white balance gain is acquired in advance and stored in the control memory 30 in the custom white balance mode. However, the bracket image white balance gain is also acquired in advance and stored in the control memory. 30 may be stored.
  • FIG. 38 is a flowchart showing an example of acquiring the white balance gain for the base image and the white balance gain for the bracket image in the custom white balance mode.
  • the white balance image processing unit When the custom white balance mode is set as the white balance setting mode, the white balance image processing unit performs pre-processing for obtaining the white balance gain for the base image and the white balance gain for the bracket image prior to capturing the desired image. 40 (see FIG. 5).
  • the image data output from the image pickup device 21 by the user shooting an achromatic (white or gray) subject is acquired as input image data by the image data acquisition unit 44 (S190 in FIG. 38).
  • the color distribution information of the input image data is acquired by the color distribution acquisition unit 46 (S191), and the base image white balance gain is acquired by the base WB gain setting unit 50 based on the color distribution information (S192).
  • the bracket image white balance gain is acquired by the bracket WB gain setting unit 52 based on the base image white balance gain and the color distribution information (S193).
  • the acquired white balance gain for base image and white balance gain for bracket image are sent from each of the base WB gain setting unit 50 and the bracket WB gain setting unit 52 to the system control unit 25, and the system control unit 25 controls the control memory 30. (S194).
  • the acquisition of “the bracket image white balance gain by the bracket WB gain setting unit 52” in this example can be executed in the same procedure as the bracket WB gain setting unit 52 in each of the above-described embodiments.
  • the base image white balance gain and the bracket image white balance gain stored in advance in the control memory 30 may be acquired based on the “flash influence degree”.
  • FIG. 39 is a block diagram of a functional configuration example of the digital camera 2 that outputs RAW format image data.
  • input image data (RAW data) output from the image sensor 21 and passed through the process processing unit 22 and the AD conversion unit 23 is subjected to white balance image processing by the image processing unit 31.
  • the white balance gain is acquired in the unit 40.
  • the acquired white balance gain is not applied to the input image data (RAW data) but is added to the input image data.
  • the base WB gain setting unit 50 and the bracket WB gain setting unit 52 perform the same processing as in the above embodiments, and based on the color distribution information of the input image data and / or the flash influence degree of the input image data.
  • An image white balance gain and a bracket image white balance gain are acquired.
  • the WB processing unit 54 does not perform white balance processing that applies the white balance gain to the input image data, and uses the acquired “white balance gain for base image and white balance gain for bracket image” as “input image data (RAW data)”. ”To create RAW file data 80.
  • the RAW file data 80 includes a RAW image part 81 relating to input image data (RAW data), and a WB gain information part 82 relating to a base image white balance gain and a bracket image white balance gain.
  • the RAW file data 80 output from the image processing unit 31 is stored in the buffer memory 24, and the RAW file data 80 stored in the buffer memory 24 is compressed by the compression / decompression unit 32, and the storage control unit 33 performs main processing. Stored in the memory 10.
  • the RAW file data 80 is created by the WB processing unit 54, but the RAW file data 80 may be created by another processing unit, for example, by the storage control unit 33 controlled by the system control unit 25. RAW file data 80 may be created.
  • the RAW image data constituting the RAW image unit 81 is transmitted from the compression / decompression unit 32 to the storage control unit 33.
  • the base image white balance gain and the bracket image white balance gain constituting the WB gain information unit 82 are stored in the control memory 30 and transmitted from the system control unit 25 to the storage control unit 33.
  • FIG. 40 is a block diagram showing the server 90 and the computer 94 connected to the digital camera 2.
  • the digital camera 2 may be connectable to the server 90 via the digital camera connection unit 89 and the server connection unit 91, or may be connectable to the computer 94 via the digital camera connection unit 89 and the computer connection unit 95. May be.
  • These connection modes are not particularly limited, and may be wired connection or wireless connection.
  • the system control unit 25 reads the above-described RAW file data 80 stored in the main memory 10 via the storage control unit 33 and outputs it from the digital camera connection unit 89.
  • the RAW file data 80 output from the digital camera connection unit 89 is received by the server 90 via the server connection unit 91 and sent to the server control system 92 or received by the computer 94 via the computer connection unit 95.
  • the server control system 92 and the computer control system 96 apply the base image white balance gain and the bracket image white balance gain indicated by the WB gain information portion 82 included in the RAW file data 80 to the image data indicated by the RAW image portion 81.
  • each functional configuration described above can be realized by arbitrary hardware, software, or a combination of both.
  • a program that causes a computer to execute an image processing method (image processing procedure) in each of the devices and processing units (such as the white balance image processing unit 40) described above, and a computer-readable recording medium (non-temporary recording) that records the program The present invention can also be applied to a medium) or a computer in which the program can be installed.
  • the aspect to which the present invention can be applied is not limited to a digital camera and a computer (server).
  • the cameras whose main function is imaging functions other than imaging (call function)
  • the present invention can be applied to mobile devices having a communication function and other computer functions.
  • Other modes to which the present invention can be applied include, for example, a mobile phone having a camera function, a smartphone, a PDA (Personal Digital Assistants), and a portable game machine.
  • a smartphone to which the present invention can be applied will be described.
  • FIG. 41 is a diagram illustrating an appearance of the smartphone 101.
  • a smartphone 101 illustrated in FIG. 41 includes a flat housing 102, and a display input in which a display panel 121 as a display unit and an operation panel 122 as an input unit are integrated on one surface of the housing 102.
  • the unit 120 is provided.
  • the housing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141.
  • the configuration of the housing 102 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent may be employed, or a configuration having a folding structure and a slide mechanism may be employed.
  • FIG. 42 is a block diagram showing a configuration of the smartphone 101 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, and an external input / output unit. 160, a GPS (Global Positioning System) receiving unit 170, a motion sensor unit 180, a power supply unit 190, and a main control unit 100.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 110 performs wireless communication with a base station apparatus accommodated in the mobile communication network in accordance with an instruction from the main control unit 100. Using such wireless communication, transmission / reception of various file data such as audio data and image data, e-mail data, and reception of Web data, streaming data, and the like are performed.
  • the display input unit 120 displays images (still images and moving images), character information, and the like visually under the control of the main control unit 100, visually transmits information to the user, and detects user operations on the displayed information.
  • This is a so-called touch panel, and includes a display panel 121 and an operation panel 122.
  • the display panel 121 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 122 is a device that is placed so that an image displayed on the display surface of the display panel 121 is visible and detects coordinates operated by a user's finger or stylus. When the device is operated with a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 100. Next, the main control unit 100 detects an operation position (coordinates) on the display panel 121 based on the received detection signal.
  • the display panel 121 and the operation panel 122 of the smartphone 101 exemplified as an embodiment of the imaging apparatus of the present invention integrally constitute the display input unit 120.
  • the arrangement 122 covers the display panel 121 completely.
  • the operation panel 122 may also have a function of detecting a user operation for an area outside the display panel 121.
  • the operation panel 122 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 121 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 121. May be included).
  • the operation panel 122 may include two sensitive regions of the outer edge portion and the other inner portion. Furthermore, the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like. Furthermore, examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 130 includes a speaker 131 and a microphone 132, converts user's voice input through the microphone 132 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100.
  • the audio data received by the external input / output unit 160 is decoded and output from the speaker 131.
  • the speaker 131 can be mounted on the same surface as the surface on which the display input unit 120 is provided, and the microphone 132 can be mounted on the side surface of the housing 102.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 101 and is turned on when pressed with a finger or the like, and turned off when the finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 150 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of a communication partner, transmitted and received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 150 includes an internal storage unit 151 with a built-in smartphone and an external storage unit 152 having a removable external memory slot.
  • each of the internal storage unit 151 and the external storage unit 152 constituting the storage unit 150 includes a flash memory type, a hard disk type, a multimedia card micro type, a multimedia card micro type, This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 160 serves as an interface with all external devices connected to the smartphone 101, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, the Internet, wireless LAN, Bluetooth (Bluetooth (registered trademark)), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark), ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • a wired / wireless headset As an external device connected to the smartphone 101, for example, a wired / wireless headset, wired / wireless external charger, wired / wireless data port, memory card (Memory card) or SIM (Subscriber) connected via a card socket, for example.
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly yes / no
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 101 or may transmit data inside the smartphone 101 to the external device. .
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 100, executes positioning calculation processing based on the received plurality of GPS signals, and calculates the latitude and longitude of the smartphone 101. , Detect the position consisting of altitude. If the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 or the external input / output unit 160 (for example, a wireless LAN), the GPS receiving unit 170 can also detect the position using the position information.
  • the motion sensor unit 180 includes, for example, a triaxial acceleration sensor and detects the physical movement of the smartphone 101 in accordance with an instruction from the main control unit 100. By detecting the physical movement of the smartphone 101, the moving direction and acceleration of the smartphone 101 are detected. The detection result is output to the main control unit 100.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 101 in accordance with an instruction from the main control unit 100.
  • the main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 101 in an integrated manner.
  • the main control unit 100 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 100 operating according to the application software stored in the storage unit 150.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 160 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 100 also has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 120.
  • the main control unit 100 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 and the operation panel 122.
  • the main control unit 100 By executing the display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 121.
  • the main control unit 100 detects a user operation through the operation unit 140, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 122. Or a display image scroll request through a scroll bar.
  • the main control unit 100 causes the operation position with respect to the operation panel 122 to overlap with the display panel 121 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 121.
  • a touch panel control function for controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 100 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one position from a plurality of positions by drawing a trajectory with a finger or the like, or specifying a plurality of positions simultaneously. means.
  • the camera unit 141 is a digital camera that performs electronic photography using an imaging device such as a CMOS.
  • the camera unit 141 converts image data obtained by imaging into compressed image data such as JPEG under the control of the main control unit 100, records the compressed image data in the storage unit 150, the external input / output unit 160, the wireless communication unit, and the like. 110 can be output.
  • the camera unit 141 is mounted on the same surface as the display input unit 120, but the mounting position of the camera unit 141 is not limited to this, and is mounted on the back surface of the display input unit 120.
  • a plurality of camera units 141 may be mounted. When a plurality of camera units 141 are installed, the camera unit 141 used for shooting may be switched to perform shooting alone, or a plurality of camera units 141 may be used for shooting simultaneously. Also good.
  • the camera unit 141 can be used for various functions of the smartphone 101.
  • an image acquired by the camera unit 141 can be displayed on the display panel 121, or the image of the camera unit 141 can be used as one of operation inputs of the operation panel 122.
  • the GPS receiving unit 170 detects the position
  • the position can also be detected with reference to an image from the camera unit 141.
  • the optical axis direction of the camera unit 141 of the smartphone 101 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 141 can also be used in the application software.
  • the position information acquired by the GPS receiver 170 on the image data of the still image or the moving image the voice information acquired by the microphone 132 (the voice text may be converted by the main control unit or the like to become text information), Posture information and the like acquired by the motion sensor unit 180 may be added and recorded in the storage unit 150 and output through the external input / output unit 160 or the wireless communication unit 110.
  • the above-described image processing unit 31 (white balance image processing unit 40; see FIG. 3) can be realized by the main control unit 100, for example.
  • first gain acquisition unit 42 ... second gain acquisition unit 44 ... image data acquisition unit 46 ... color distribution acquisition unit 48 ... WB setting determination unit 50 Base WB gain setting unit 52 ; Bracket WB gain setting unit 54 ... WB processing unit 55 ... WB calculation processing unit 56 ... Light source color estimation unit 57 ... Information addition unit 58 ... Light source color characteristic acquisition unit 60 ... Black body characteristic storage unit, 62 ... saturation specifying unit, 64 ... flash specifying unit, 66 ... bracket determination unit, 68 ... bracket data storage unit, 72 ... classification information rewriting unit, 74 ... selected image display unit, 75 ... selection cursor 76 ... Reduced image, 77 ... Classification display section, 78 ... Color space display section, 79 ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Studio Devices (AREA)

Abstract

 画像特性に応じたホワイトバランスブラケッティングを行う画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体を提供する。画像処理部31は、ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得する。この画像処理部31は、色分布取得部46、第1ゲイン取得部41及び第2ゲイン取得部42を含む。色分布取得部46は、入力画像データの色分布情報を取得する。第1ゲイン取得部41は、ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する。第2ゲイン取得部42は、色分布情報に基づいて、ベース画像用ホワイトバランスゲインを基準に、ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する。

Description

画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体
 本発明は画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体に係り、特にホワイトバランスブラケティング技術に関する。
 デジタルカメラ等の撮像装置において、オートブラケット機能の一種であるホワイトバランスブラケティングが知られている。ホワイトバランスブラケティングは、異なるホワイトバランスゲインを処理対象画像に適用することで、一度の撮影でホワイトバランスの異なる複数の画像を取得する機能である。例えば「ベース画像」、「ベース画像よりもブルー寄りの色相を持つ第1のブラケット画像」及び「ベース画像よりもアンバー寄りの色相を持つ第2のブラケット画像」の計3つの画像を、ホワイトバランスブラケティング機能によって取得することが可能である。ユーザは、適切なホワイトバランス処理が施された画像を、より確実に、ベース画像及びブラケット画像の中から得ることができる。
 通常のホワイトバランス処理では、撮影条件や被写体特性によっては、過補正や補正残りなどのカラーフェリア(Color Failure)を生じることがある。しかしながらホワイトバランスブラケティングによれば、カラーフェリアが生じうる環境下で撮影が行われても、ホワイトバランスの異なる複数の画像が取得される。ユーザは、ホワイトバランスの異なる複数の画像の中から所望の画像を選択することで、カラーフェリアが解消された又は低減された画像を得られる。
 ホワイトバランスブラケティングに関し、特許文献1は、2つの撮影条件に基づくブラケット撮影が可能な電子カメラを開示する。この電子カメラでは、第1の撮影条件(露光)及び第2の撮影条件(色バランス)のそれぞれを変えながらブラケット撮影が行われる。ブラケット撮影画像の表示画面には、「第1の撮影条件が同じであるが第2の撮影条件が異なる複数の画像」が縦方向に並べられ、「第1の撮影条件が異なるが第2の撮影条件が同じである複数の画像」が横方向に並べられる。
 特許文献2は、どの方向にどの程度の補正を行っているかを直感的に分かり易くするための撮像装置を開示する。この撮像装置では、背面表示部において、横方向にブルー方向とアンバー方向の座標軸が表示され、縦方向にグリーン方向とマゼンタ方向の座標軸が表示され、これらの2軸の座標原点を補正値0として補正量が表される。
 特許文献3は、ホワイトバランス制御ゲインを様々な色に変化させて連続撮影を行うことができるカメラを開示する。このカメラでは、撮影者が設定した任意数の色に基づいてホワイトバランス処理が行われる。
特開2002-51250号公報 特開2006-20194号公報 特開2002-305750号公報
 <補正方向が一定であることに起因する課題>
 例えば特許文献1に開示の電子カメラでは、予め定められた条件下で露光及び色バランスが変更されながら撮影が行われ、画像データが撮影取得された環境(撮影シーン)とは無関係にブラケット撮影による画像が作成される。そのため撮影シーンによっては、ブラケット撮影によって作成された画像の中に「撮影シーンに応じた適切なホワイトバランス処理が施された画像」が存在しない場合もある。
 特にオートホワイトバランスモード(AWBモード:Auto White Balanceモード)では、ホワイトバランス処理による補正方向に依存して画像の色相がシフトする傾向がある。例えば日陰やタングステン光下で撮影された画像をオートホワイトバランスモードでホワイトバランス処理を行う場合、画像の色相はアンバー・ブルー方向にシフトする傾向がある。一方、白色蛍光灯下で撮影された画像や木々の緑を主とする画像をオートホワイトバランスモードでホワイトバランス処理を行う場合、画像の色相はグリーン・マゼンタ方向にシフトする傾向がある。
 したがって「ホワイトバランス処理による色相の補正方向」が予めアンバー・ブルー方向に定められていると、例えば白色蛍光灯下で撮影された画像や木々の緑を主とする画像のホワイトバランス処理では、適切な色相を有する画像を得られない場合がある。
 このようにホワイトバランスの補正方向が予め固定されている場合、適切な色相を有する画像(ベース画像及びブラケット画像)を必ずしも得られない。
 <ユーザが処理パラメータを決めることに起因する課題>
 特許文献2の撮像装置では、ユーザが多方向入力スティックやサブ電子ダイアルを操作することで、ホワイトバランスの補正及びホワイトバランスブラケットが設定される。また特許文献3のカメラでは、ユーザがブラケットの種類の選択後に撮影時の所望色を選択することで、ホワイトバランスの単色ブラケット又は複色ブラケットが行われる。
 このようにユーザがホワイトバランスの処理パラメータを選定することが求められる場合、その選定作業がユーザの手間及び負担になるだけではなく、ユーザは処理パラメータの厳密な選定の判断に迷う場合がある。特にホワイトバランスの原理を適切に理解していないユーザにとっては、ホワイトバランスの処理パラメータの選定を適切に行うことが難しい。
 <ホワイトバランスブラケティングが複数方向に行われることに起因する課題>
 特許文献1の電子カメラでは、露出と色バランスを変えたブラケット撮影により9枚の画像を取得し、取得した9枚の画像を並べて同時に画面に表示する。したがってこの電子カメラでは、1度の撮影によって同一シーンに関する9枚の画像が撮影取得されてメモリに記憶されるため、ホワイトバランスブラケティングを行わない通常撮影時に比べて撮影可能シーン数が9分の1(1/9)に減少する。
 同様に、ベース画像に加えて、例えばアンバー方向、ブルー方向、グリーン方向、マゼンタ方向及びアンバー・ブルー方向とグリーン・マゼンタ方向との間の2方向に関するブラケット画像を作成する場合にも、同一シーンに関して合計で9つの画像が作成される。一方、ユーザが適切だと感じる画像は基本的にはそれらの9つの画像のうちの1つ画像であるため、残りの8つの画像は本来的には不要な画像となり無駄になる。
 このようにホワイトバランスブラケティングによって作成されるブラケット画像の枚数が増えるほど、画像記録メモリの記憶容量が浪費されて撮影可能シーン数が減少し、またユーザにとっては選択肢が増えるため所望画像の選択の手間が増大する。
 <ホワイトバランスブラケティングの補正量に関する課題>
 ホワイトバランスブラケティングにおいて、ベース画像とブラケット画像との間におけるホワイトバランスの差(ブラケット量)は、撮影シーンに依存せずに一定であることが一般的である。例えば、RGB画素値によって構成される処理対象画像を1ステップ分だけアンバー方向にシフトさせるホワイトバランス処理を行う場合、撮影シーンによらず、Rゲインをベース画像のRゲインに対して1.2倍にすると共に、Bゲインをベース画像のBゲインに対して0.8倍にするホワイトバランスゲインが処理対象画像に適用される。
 一方、画像の視覚的印象は、画像の彩度、特に「本来は白色である被写体」の画像彩度に依存して変動する(マクアダムの法則)。したがって撮影シーンが異なる複数の処理対象画像に、ベース画像のホワイトバランスゲインに対してRゲインを1.2倍及びBゲインを0.8倍にする同一の比率で変動させたホワイトバランスゲインを適用しても、ホワイトバランス処理後の画像の視覚的印象は撮影シーンに応じて異なる。例えばタングステン光下で取得された処理対象画像から作成されたベース画像であったとしても、例えば「本来的な彩度がグレー(無彩色)である被写体像を完全グレーになるようにホワイトバランス処理したベース画像」及び「本来的な彩度がグレー(無彩色)である被写体像をアンバー気味になるようにホワイトバランス処理したウォーム(Warm)で彩度が高いベース画像」が存在しうる。彩度の異なるこれらのベース画像の各々に関して同一のブラケット方向及び同一のブラケット量を持つブラケット画像を作成する場合を想定する。この場合、「本来的な彩度がグレーである被写体像を完全グレーになるようにホワイトバランス処理を行ったベース画像」のブラケット画像の方が「本来的な彩度がグレーである被写体像をアンバー気味になるようホワイトバランス処理したウォーム(Warm)で彩度が高いベース画像」のブラケット画像よりも、視覚的印象として、ベース画像に対するホワイトバランスの相違が相対的に大きく見える。
 このように従来のホワイトバランスブラケティングでは、ブラケット方向及び/又はブラケット量に対して画像特性が十分に反映されていないため、色かぶり等の不具合を解消した画像(ベース画像及びブラケット画像)をユーザに提供できない場合があった。
 本発明は上述の事情に鑑みてなされたものであり、画像特性に応じたホワイトバランスブラケット画像を作成する手法を提供することを目的とする。
 本発明の一態様は、ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得する画像処理装置であって、入力画像データの色分布情報を取得する色分布取得部と、ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する第1ゲイン取得部と、色分布情報に基づいて、ベース画像用ホワイトバランスゲインを基準に、ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する第2ゲイン取得部とを備える画像処理装置に関する。
 本態様によれば、入力画像データの色分布情報に応じたブラケット画像用ホワイトバランスゲインが取得されるため、「入力画像データの色分布情報に応じたホワイトバランス処理特性」に基づくブラケット画像を得ることが可能である。
 ここでいう「色分布情報」は、入力画像データの色分布を表す情報であれば特に限定されず、例えば入力画像データのRGB(赤緑青)の分布比率に基づいて「色分布情報」が定められてもよい。
 なお、ホワイトバランスゲインが適用される「原画像データ」と上述の「入力画像データ」とは、同じデータであってもよいし、異なるデータであってもよい。例えば後述のオートホワイトバランスモードのように、ホワイトバランスゲインが予め記憶されず、「ホワイトバランスゲインの取得処理」と「ベース画像及びブラケット画像の取得処理」とが一連の処理として同時的に行われる場合には、「原画像データ」と「入力画像データ」とが同じデータとなりうる。一方、後述のカスタムホワイトバランスモードのように、ホワイトバランスゲインが予め記憶され、「ホワイトバランスゲインの取得処理」と「ベース画像及びブラケット画像の取得処理」とが別個の処理として行われる場合には、「原画像データ」と「入力画像データ」とが異なるデータとなりうる。
 望ましくは、第2ゲイン取得部は、色分布情報に基づいて色空間上でのブラケット方向を決定し、ベース画像用ホワイトバランスゲインを基準にブラケット方向に基づいてブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、入力画像データの色分布情報に基づいてブラケット方向が決定されるため、ブラケット方向に関してより適切なブラケット画像を得ることが可能である。また本実施形態では入力画像データの色分布情報に基づいてブラケット方向が限定されるため、ブラケット方向が不適切な状態でブラケット画像が作成されることを防ぐことができる。
 ここでいう「色空間上でのブラケット方向」とは、色空間上におけるベース画像の位置からブラケット画像の位置に向かう方向である。ベース画像及びブラケット画像の色空間上における位置は、ベース画像及びブラケット画像の色分布を表す任意のデータに基づいて表され、例えばベース画像及びブラケット画像の色分布から導き出される代表色によって色空間上の位置が決められてもよい。
 またここでいう「色空間」は特に限定されず、例えばRGB表色系色空間、xyY表色系色空間、XYZ表色系色空間、L***表色系色空間、L***表色系色空間、或いはYCrCb色空間、等であってもよい。
 なお、第2ゲイン取得部は、ブラケット画像用ホワイトバランスゲインの色間の比率を定めることによって、ブラケット方向を決定してもよい。
 望ましくは、第2ゲイン取得部は、色分布情報に基づいてブラケット量の絶対値を決定し、ベース画像用ホワイトバランスゲインを基準にブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、入力画像データの色分布情報に基づいてブラケット量の絶対値が決定されるため、ブラケット量に関してより適切なブラケット画像を得ることが可能である。
 ここでいう「ブラケット量」は、色空間上におけるベース画像の位置からブラケット画像の位置までの距離に対応しており、ベース画像に対するブラケット画像のホワイトバランスの変化量を表す。
 なお第2ゲイン取得部は、色分布情報に基づいて色毎にブラケット量の絶対値を決定し、ベース画像用ホワイトバランスゲインを基準に色毎のブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを算出してもよい。
 望ましくは、第2ゲイン取得部は、色分布情報から光源色を推定し、色分布情報から推定される光源色に応じて、ブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、ブラケット画像用ホワイトバランスゲインは、入力画像データの色分布情報から推定される光源色に応じて取得されるため、光源色の特性に応じたブラケット画像を得ることが可能である。
 なお「光源色」は、入力画像データの撮影取得時において被写体を照らす光や被写体自身から発せられる光の色特性に基づいて定められる。
 望ましくは、第2ゲイン取得部は、色分布情報から推定される光源色の相関色温度に応じて、ブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、推定される光源色の相関色温度に応じてブラケット画像用ホワイトバランスゲインが取得されるため、相関色温度に基づくホワイトバランス特性を反映したブラケット画像を作成することが可能である。
 ここでいう「相関色温度」は、光源色と最も近い色に見える黒体放射特性(黒体放射軌跡)の色(温度)で表されており、光色を表す尺度として使用可能である。
 望ましくは、第2ゲイン取得部は、色分布情報から推定される光源色の相関色温度に応じてブラケット量の絶対値を決定し、ブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、推定される光源色の相関色温度に応じてブラケット量の絶対値が決定されるため、相関色温度に基づくホワイトバランスの変化量特性を反映したブラケット画像を作成することが可能である。
 望ましくは、第2ゲイン取得部は、色空間上における黒体放射特性と色分布情報から推定される光源色との距離に応じてブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、黒体放射特性(黒体放射軌跡)と光源色との距離に基づくホワイトバランス特性を反映したブラケット画像を作成することが可能である。
 ここでいう「黒体放射特性と色分布情報から推定される光源色との距離」は、「色空間上において、黒体放射特性を表す黒体放射軌跡の法線のうち、推定される光源色を通過する法線上の、光源色と黒体放射軌跡との距離」を意味する。なお、黒体放射軌跡の同一法線上の光源色は、同一の相関色温度となる。
 望ましくは、第2ゲイン取得部は、黒体放射特性と色分布情報から推定される光源色との距離が小さいほど色空間上でのブラケット方向をアンバー・ブルー方向に近づけ、距離が大きいほど色空間上でのブラケット方向をグリーン・マゼンタ方向に近づけてブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、黒体放射特性(黒体放射軌跡)と光源色との距離に応じてブラケット方向が定められるため、適切なブラケット方向のブラケット画像を得ることが可能である。
 黒体放射特性(黒体放射軌跡)は、色空間上ではアンバー・ブルー方向に延在する。したがって、光源色が黒体放射特性に近いほどホワイトバランス処理後のベース画像はアンバー・ブルー方向にずれやすく、また光源色が黒体放射特性から遠くなるに従ってホワイトバランス処理後のベース画像はグリーン・マゼンタ方向にずれやすい。したがって本態様によれば、ベース画像の光源色に基づく色ずれ特性に応じてブラケット方向が決定される。
 望ましくは、第2ゲイン取得部は、色分布情報から推定される光源色とベース画像用ホワイトバランスゲインとに基づいてベース画像の彩度情報を取得し、彩度情報に基づいてブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、ベース画像の彩度情報に基づいてブラケット画像用ホワイトバランスゲインが取得されるため、彩度に基づくホワイトバランス特性を反映したブラケット画像を得ることが可能である。
 望ましくは、第2ゲイン取得部は、無彩色に対するベース画像の相対的な彩度に基づいて彩度情報を取得し、彩度情報に基づいてブラケット量の絶対値を決定し、ベース画像用ホワイトバランスゲインを基準にブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを取得する。
 望ましくは、画像処理装置は、ベース画像及びブラケット画像のうち少なくとも1つを表示する表示部の表示特性情報を取得する表示特性取得部を更に備え、第2ゲイン取得部は、表示特性取得部から取得した表示特性情報に基づいて表示無彩色情報を取得し、表示無彩色情報から得られる表示無彩色に対するベース画像の相対的な彩度に基づいて彩度情報を取得し、彩度情報に基づいてブラケット量の絶対値を決定し、ベース画像用ホワイトバランスゲインを基準にブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを取得する。
 望ましくは、第2ゲイン取得部は、彩度情報に基づいて、無彩色とベース画像との彩度の差が大きいほどブラケット量の絶対値を大きくしてブラケット画像用ホワイトバランスゲインを取得する。
 これらの態様によれば、ベース画像の無彩色(表示無彩色)に対する相対的な彩度に基づいてブラケット量の絶対値が決定されるため、彩度に基づくホワイトバランスのブラケット量特性を反映したブラケット画像を得ることが可能である。
 一般に人間は視覚特性上、無彩色に近い色の変化には敏感であるが、高彩度の色の変化には鈍感である(マクアダムの法則)。したがって、ベース画像の彩度が低く無彩色(表示無彩色)に近い場合にはブラケット量の絶対値を小さく設定し、ベース画像の彩度が高く無彩色(表示無彩色)から遠い場合にはブラケット量の絶対値を大きく設定することで、ベース画像とブラケット画像との間における彩度の視覚上の相違を均一化することが可能である。
 なおここでいう「表示特性情報」は、表示部の表示特性(例えば色の表示再現性)に関する情報である。また「表示無彩色情報」は、表示部の表示特性(例えば色温度)が考慮された色情報であって、表示部で無彩色を表示再現するための色に関する情報である。
 本発明の他の態様は、ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得する画像処理装置であって、ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する第1ゲイン取得部と、ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する第2ゲイン取得部と、入力画像データにおけるフラッシュの影響度を示すフラッシュ影響度を取得するフラッシュ特定部とを備え、第1ゲイン取得部は、フラッシュ影響度に基づいてベース画像用ホワイトバランスゲインを取得し、第2ゲイン取得部は、ベース画像用ホワイトバランスゲインの取得に用いるフラッシュ影響度とは異なるフラッシュの影響度に基づいてブラケット画像用ホワイトバランスゲインを取得する画像処理装置に関する。
 本態様によれば、異なるフラッシュの影響度に基づいてベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインが取得されるため、画像におけるフラッシュの影響のばらつきを補償するブラケット画像を作成することが可能である。
 なお、入力画像データはフラッシュを発光して撮影取得され、フラッシュ特定部は、入力画像データと、フラッシュを発光せずに撮影取得された参照画像データとからフラッシュ影響度を算出することが好ましい。フラッシュ発光画像(入力画像データ)とフラッシュ非発光画像(参照画像データ)とを用いることで、フラッシュ影響度を簡単に求めることができる。入力画像データと参照画像データとは撮影される被写体像が同じ又は可能な限り近いことが好ましい。したがって参照画像データは、入力画像データの撮影取得の直前又は直後に撮影取得されたデータであることが好ましく、例えばライブビュー用画像等に基づいて参照画像データを取得してもよい。
 なお、ホワイトバランスの設定モードがオートホワイトバランスモードである場合に、上述の「フラッシュ影響度に基づくベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインの取得」の処理を行ってもよい。
 望ましくは、第2ゲイン取得部は、色分布情報とブラケット画像の作成の要否との関係を定めるブラケティング要否データを参照して、入力画像データの色分布情報に基づきブラケット画像の作成の要否を決定し、ブラケット画像の作成が必要であると決定された場合はブラケット画像用ホワイトバランスゲインを取得し、ブラケット画像の作成が不要であると決定された場合はブラケット画像用ホワイトバランスゲインを取得しない。
 本態様によれば、ブラケティング要否データによってブラケット画像の作成の要否が定められ、ブラケット画像の作成が必要である場合にのみブラケット画像用ホワイトバランスゲインが取得され、ブラケット画像を作成することが可能である。
 ブラケティング要否データによって色分布情報とブラケット画像の作成の要否とを適切に定めることによって、ホワイトバランスブラケティングを効率良く行うことができる。
 ブラケティング要否データは、ベース画像用ホワイトバランスゲインが不適切になる可能性が高い色分布情報に対してブラケット画像の作成が必要であると定めることが好ましい。
 本態様によれば、作成されるベース画像のホワイトバランスが適切でない可能性が高い場合にのみ、ブラケット画像用ホワイトバランスゲインが取得され、ブラケット画像を作成することが可能である。ここでいう「ベース画像用ホワイトバランスゲインが不適切になる可能性が高い」場合は特に限定されず、ブラケティング要否データは、例えば複数種類の光源色によって実現されうる色分布情報に対しては「ベース画像用ホワイトバランスゲインが不適切になる可能性が高い」と定めてもよい。
 したがってブラケティング要否データは、少なくとも緑及び赤の色分布情報に対してブラケット画像の作成が必要であると定めてもよい。一般に、太陽光下で撮影された木々の緑等のデータを多く含む画像データと緑成分の占める割合が高い光を発する人工光源下で撮影された画像データとは、両者共に緑成分の占める割合が高くなる。また太陽光下で撮影された夕焼けの画像データと赤成分の占める割合が高い光を発する人工光源下で撮影された画像データとは、両者共に赤成分の占める割合が高くなる。したがって、入力画像データの色分布情報がこれらの緑や赤を示す場合には光源色を1つに限定することが難しいため、ブラケティング要否データはこれらの色分布情報に対して「ベース画像用ホワイトバランスゲインが不適切になる可能性が高い」と定めてもよい。
 なお、ホワイトバランスの設定モードがオートホワイトバランスモードである場合に、上述の「ブラケティング要否データに基づくブラケット画像用ホワイトバランスゲインの取得」の処理を行ってもよい。
 望ましくは、画像処理装置は、原画像データにベース画像用ホワイトバランスゲインを適用してベース画像を得て、原画像データにブラケット画像用ホワイトバランスゲインを適用してブラケット画像を得るホワイトバランス処理部を更に備える。
 本態様によれば、ベース画像及びブラケット画像が取得される。
 なお、入力画像データと原画像データとは、同じデータであってもよいし、異なるデータであってもよい。
 ホワイトバランス処理部は、ベース画像に対してメイン画であることを示す分類情報を付加し、ブラケット画像に対してサブ画であることを示す分類情報を付加してもよい。またホワイトバランス処理部は、ベース画像に対してサブ画であることを示す分類情報を付加し、ブラケット画像の1つに対してメイン画であることを示す分類情報を付加してもよい。
 これらの態様によれば、ベース画像及びブラケット画像をメイン画及びサブ画に分類することができる。
 望ましくは、画像処理装置は、表示部と、表示部を制御し、ベース画像及びブラケット画像のうち少なくとも1つの画像を表示部に表示させる表示制御部とを更に備える。
 本態様によれば、得られたベース画像及びブラケット画像のうち少なくとも1つの画像が表示部に表示され、ユーザは表示部に表示される画像を確認することができる。
 望ましくは、表示制御部は、ベース画像及びブラケット画像のうち少なくともメイン画の分類情報が付加されている画像を表示部に表示させる。
 本態様によれば、ユーザは、優先度が高いメイン画の分類情報が付加されている画像を、表示部を介して確認することができる。
 望ましくは、画像処理装置は、ベース画像及びブラケット画像に付加されている分類情報の決定指示がユーザによって入力される指示受付部と、指示受付部に入力された決定指示に基づいて、ベース画像及びブラケット画像に付加されている分類情報を書き換え可能な分類情報書換部とを更に備える。
 本態様によれば、ユーザの決定指示に応じて、ベース画像及びブラケット画像に付加されている分類情報を書き換えることができ、メイン画の分類情報が付加される画像を切り換えることができる。
 なお指示受付部には、ベース画像及びブラケット画像のうちメイン画とする画像を指定する決定指示がユーザによって入力され、分類情報書換部は、ベース画像及びブラケット画像のうち、指示受付部に入力された決定指示によって指定される画像の分類情報をメイン画とし、他の画像の分類情報をサブ画としてもよい。
 またベース画像及びブラケット画像のうち、表示部に表示される1又は複数の画像から1つの画像を関心画像としてユーザが選択可能とし、ユーザが関心画像を選択したことを示す決定指示が指示受付部に入力され、分類情報書換部が、指示受付部に入力されたこの決定指示が指定する関心画像の分類情報をメイン画としてもよい。
 また表示制御部は、ベース画像及びブラケット画像のうち少なくともいずれか1つの分類情報が分類情報書換部によって書き換えられた場合には、書き換え後の分類情報に従ってベース画像及びブラケット画像のうち1又は複数の画像を表示部に表示させてもよい。
 望ましくは、画像処理装置は、ベース画像とブラケット画像とを相互に関連付けて記憶する画像記憶部を更に備える。
 本態様によれば、ベース画像及びブラケット画像を、関連性を維持した状態で画像記憶部に保存することができる。
 なお画像処理装置は、ベース画像及びブラケット画像の各々に、他の画像との関連付けを示すグループ情報データを付加するグループ情報付加部を更に備え、画像記憶部には、ベース画像及びブラケット画像の各々と共に、付加されたグループ情報データが記憶されてもよい。この場合、グループ情報データに基づいてベース画像及びブラケット画像の関連性が維持される。
 望ましくは、画像処理装置は、ベース画像とブラケット画像とを相互に関連付けて記憶する画像記憶部と、ベース画像の作成時からの時間が第1の時間よりも長い場合に、ベース画像及びブラケット画像のうちサブ画の分類情報が付加された画像を画像記憶部から削除する記憶制御部とを更に備える。
 望ましくは、画像処理装置は、ベース画像とブラケット画像とを相互に関連付けて記憶する画像記憶部と、分類情報書換部によってベース画像及びブラケット画像のうち少なくともいずれか1つの分類情報が書き換えられた場合には、分類情報の書き換え時からの時間が第2の時間よりも長い場合に、ベース画像及びブラケット画像のうちサブ画の分類情報が付加された画像を画像記憶部から削除する記憶制御部とを更に備える。
 これらの態様によれば、時間の経過に伴って、ベース画像及びブラケット画像のうちサブ画の分類情報が付加された画像が画像記憶部から削除されるため、画像記憶部に保存可能な撮影可能シーン数の減少を抑えることができる。撮影可能シーン数とは、ベース画像及びブラケット画像の作成の基礎になっている原画像データの種類数に対応する。
 なお画像処理装置は、日時情報を提供するクロックデバイスと、ベース画像及びブラケット画像に編集日時情報を付加する日時情報付加部とを更に備え、記憶制御部は、クロックデバイスから得られる日時情報と、ベース画像及びブラケット画像のうちメイン画及び/又はサブ画の分類情報が付加された画像の編集日時情報(画像作成日時情報及び/又は分類情報書き換え最新日時情報)とに応じて、画像記憶部からサブ画の分類情報が付加された画像を削除してもよい。
 望ましくは、表示制御部は、色空間座標を表示部に表示させて、ベース画像及びブラケット画像のうち表示部に表示させる画像の少なくともいずれかの色分布情報を表示部に表示される色空間座標上に表す。
 本態様によれば、ユーザは、表示部に表示されるベース画像及び/又はブラケット画像の色空間座標上の位置を容易に確認することができる。
 望ましくは、表示制御部は、ベース画像及びブラケット画像のうちメイン画の分類情報が付加された画像の色分布情報を表示部に表示される色空間座標上に表す。
 本態様によれば、ユーザは、優先度の高いメイン画の分類情報が付加された画像の色空間座標上の位置を容易に確認することができる。
 なお表示制御部は、ベース画像の色分布情報を色空間座標の原点上に表してもよい。
 望ましくは、表示制御部は、ベース画像及びブラケット画像の各々を経時的に順次、表示部の同じ領域に表示させる。
 本態様によれば、ベース画像及びブラケット画像が表示部の同じ領域に表示されるため、ユーザはベース画像とブラケット画像との相違を容易に確認することができる。
 なお画像処理装置は、ユーザから表示部に表示させる画像の切り換えの指示が入力される画像切換受付部を更に備え、表示制御部は、画像切換受付部に入力される画像の切り換えの指示に応じて、ベース画像及びブラケット画像のうち表示部の同じ領域に表示させる画像を切り換えてもよい。
 望ましくは、第1ゲイン取得部は、設定モードに応じて、ベース画像用ホワイトバランスゲインを取得する。
 望ましくは、設定モードは、ベース画像用ホワイトバランスゲインが予め定められているプリセットホワイトバランスモード、入力画像データの色分布情報に基づいて入力画像データに適用されるベース画像用ホワイトバランスゲインが決定されるオートホワイトバランスモード、及び入力画像データの色分布情報に基づいて入力画像データとは異なる原画像データに適用されるベース画像用ホワイトバランスゲインが決定されるカスタムホワイトバランスモードのうちのいずれかである。
 望ましくは、設定モードが、入力画像データの色分布情報に基づいて入力画像データに適用されるベース画像用ホワイトバランスゲインが決定されるオートホワイトバランスモードの場合、第1ゲイン取得部は、入力画像データの色分布情報に基づいてベース画像用ホワイトバランスゲインを取得し、第2ゲイン取得部は、第1ゲイン取得部がベース画像用ホワイトバランスゲインの取得の基礎に用いた色分布情報に基づいて、ブラケット画像用ホワイトバランスゲインを取得する。
 本態様によれば、オートホワイトバランスモードでは同じ色分布情報に基づいて、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインを精度良く取得することができる。
 なお第1ゲイン算出部は、入力画像データとは異なる画像データに基づいてベース画像用ホワイトバランスゲインを算出してもよい。
 本発明の他の態様は、被写体像を受光して画像データを生成する撮像素子と、撮像素子が生成する画像データを入力画像データとして用いる上記の画像処理装置とを備える撮像装置に関する。
 なお撮像装置は、ユーザからの撮影指示を受け付ける撮影指示部を更に備え、撮影指示部が受け付ける1回の撮影指示によって、第1ゲイン算出部はベース画像用ホワイトバランスゲインを算出し、第2ゲイン算出部はブラケット画像用ホワイトバランスゲインを算出してもよい。
 本発明の他の態様は、ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得する画像処理方法であって、入力画像データの色分布情報を取得し、ベース画像を得るためのベース画像用ホワイトバランスゲインを取得し、色分布情報に基づいて、ベース画像用ホワイトバランスゲインを基準に、ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する画像処理方法に関する。
 本発明の他の態様は、ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得するプログラムであって、入力画像データの色分布情報を取得する手順と、ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する手順と、色分布情報に基づいて、ベース画像用ホワイトバランスゲインを基準に、ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する手順と、をコンピュータに実行させるためのプログラムに関する。
 本発明の他の態様は、ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得するプログラムであって、入力画像データの色分布情報を取得する手順と、ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する手順と、色分布情報に基づいて、ベース画像用ホワイトバランスゲインを基準に、ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する手順と、をコンピュータに実行させるためのプログラムを記録した非一時的なコンピュータ読み取り可能な記録媒体に関する。
 本発明によれば、入力画像データの色分布情報又はフラッシュ影響度に基づいてブラケット画像用ホワイトバランスゲインが取得される。このブラケット画像用ホワイトバランスゲインを処理対象画像である原画像データに適用してホワイトバランス処理を行うことで、適切なブラケット画像を作成することできる。
デジタルカメラの正面斜視図である。 デジタルカメラの背面斜視図である。 デジタルカメラの制御処理系を示すブロック図である。 ***表色系の色度図である。 第1実施形態に係るホワイトバランス画像処理部(画像処理装置)の機能構成例を示すブロック図である。 第1実施形態に係るホワイトバランス処理のフローチャートである。 第2実施形態に係るホワイトバランス画像処理部の機能構成例を示すブロック図である。 第2実施形態に係るホワイトバランス処理のフローチャートである。 黒体放射軌跡が表されたRGB表色系の2次元色空間座標系を示し、光源色と黒体放射軌跡との関係を示す。 黒体放射軌跡が表されたRGB表色系の2次元色空間座標系を示し、黒体放射軌跡と相関色温度との関係を示す。 黒体放射軌跡が表されたRGB表色系の2次元色空間座標系を示し、黒体放射軌跡とブルー、マゼンタ、アンバー及びグリーンの方向との関係を示す 第3実施形態に係るホワイトバランス画像処理部の機能構成例を示すブロック図である。 第3実施形態に係るホワイトバランス処理のフローチャートである。 第4実施形態における「光源色と黒体放射軌跡との距離L」と「ブラケット方向」との関係例を示す図である。 第4実施形態に係るホワイトバランス処理のフローチャートである。 第5実施形態に係るホワイトバランス処理のフローチャートである。 第4実施形態のホワイトバランス処理と第5実施形態のホワイトバランス処理とを組み合わせた処理の一例を示すフローチャートである。 第6実施形態に係るホワイトバランス画像処理部の機能構成例を示すブロック図である。 第6実施形態に係るホワイトバランス処理のフローチャートである。 第7実施形態に係るホワイトバランス処理のフローチャートである。 第8実施形態に係るホワイトバランス画像処理部の機能構成例を示すブロック図である。 第8実施形態に係るホワイトバランス処理のフローチャートである。 第9実施形態に係るホワイトバランス画像処理部の機能構成例を示すブロック図である。 色分布情報とブラケット画像作成の要否との関係例を示す図である。 第9実施形態に係るホワイトバランス処理のフローチャートである。 第10実施形態に係るWB処理部の機能構成例を示すブロック図である。 ベース画像及びブラケット画像の各々に関するデータ構造例を示す図である。 1つの入力画像データに関して作成されたベース画像及びブラケット画像の各々を別ファイルデータとする場合のデータ構造例を示す。 1つの入力画像データに関して作成されたベース画像及びブラケット画像を1つのファイルとする場合のデータ構造例を示す。 第10実施形態におけるホワイトバランス処理に関するフローチャートである。 図3に示すデジタルカメラの機能ブロックのうち、主として画像表示処理に関連する処理部を示す。 表示部における画像再生表示の一例を示す図である。 ブラケット画像がメイン画として選択及び決定された場合の表示部の表示例を示す図である。 表示部(選択画像表示部)における画像の切り換えに関するフローチャートである。 分類情報の書き換え処理のフローチャートである。 表示部の他の表示例を示す。 表示部の他の表示例を示す。 表示部の他の表示例を示す。 表示部の他の表示例を示す。 ベース画像及びブラケット画像の作成時からの時間に基づいて画像を削除する処理の一例を示すフローチャートである。 分類情報の書き換え時からの時間に基づいて画像を削除する処理の一例を示すフローチャートである。 「ベース画像及びブラケット画像の作成時からの時間」及び「分類情報の書き換え時からの時間」に基づいて画像を削除する処理の一例を示すフローチャートである。 カスタムホワイトバランスモードにおけるベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインの取得例を示すフローチャートである。 RAW形式の画像データを出力するデジタルカメラの機能構成例を示すブロック図である。 デジタルカメラに接続されるサーバ及びコンピュータを示すブロック図である。 スマートフォンの外観を示す図である。 図41に示すスマートフォンの構成を示すブロック図である。
 図面を参照して本発明の実施形態について説明する。以下の実施形態では、デジタルカメラ(撮像装置)に本発明を適用した例について説明する。ただし、デジタルカメラ以外の画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体にも本発明を適用することが可能である。
 以下の説明及び図面において、「WB」の表記は「ホワイトバランス(White Balance)」を意味する。
 図1はデジタルカメラ2の正面斜視図であり、図2はデジタルカメラ2の背面斜視図である。
 デジタルカメラ2は、カメラ本体3と、カメラ本体3の前面に取り付けられるレンズ鏡筒4とを備える。レンズ鏡筒4及びカメラ本体3は、一体的に設けられてもよいし、レンズ交換式カメラとして着脱自在に設けられてもよい。
 カメラ本体3の前面には、レンズ鏡筒4に加えてフラッシュ発光部5が設けられ、カメラ本体3の上面にはシャッタボタン6及び電源スイッチ7が設けられている。シャッタボタン6は、ユーザからの撮影指示を受け付ける撮影指示部であり、電源スイッチ7は、デジタルカメラ2の電源のオン及びオフの切り換え指示をユーザから受け付ける電源切換部である。
 カメラ本体3の背面には表示部8及び操作部9が設けられている。表示部8は、撮影待機状態ではライブビュー画像(スルー画)を表示して電子ビューファインダとして機能し、撮影画像やメモリ記録画像の再生時には再生画像表示部として機能する。
 操作部9は、モード切換スイッチ、十字キー及び実行キーなどの任意の操作デバイスによって構成される。例えばモード切換スイッチは、デジタルカメラ2の動作モードを切り換える際にユーザによって操作される。デジタルカメラ2の動作モードとして、被写体を撮像して撮影画像を得るための撮影モード及び画像を再生表示する再生モード等がある。また他の撮影モードとして、オートフォーカスを行うAF(Auto Focus)モード及びマニュアルフォーカス操作を行うMF(Manual Focus)モードがある。一方、十字キー及び実行キーは、表示部8にメニュー画面や設定画面を表示したり、メニュー画面や設定画面内に表示されるカーソルを移動したり、デジタルカメラ2の各種設定を確定したりする場合に、ユーザによって操作される。またユーザは操作部9を操作して、後述のホワイトバランスブラケッティングモードと、通常のホワイトバランスモードとを切り換えることもできる。
 カメラ本体3の底部(図示省略)には、メインメモリ10が装填されるメモリスロットと、このメモリスロットの開口を開閉する装填蓋とが設けられている。メインメモリ10は、カメラ本体3に着脱自在に設けられており、カメラ本体3に装着されると、カメラ本体3に設けられる記憶制御部33と電気的に接続される。メインメモリ10は、一般にカード型フラッシュメモリ等の半導体メモリにより構成可能であるが、特に限定されるものではなく、磁気媒体等の任意の記録方式の記録媒体をメインメモリ10として用いることが可能である。
 図3は、デジタルカメラ2の制御処理系を示すブロック図である。
 被写体光は、レンズ鏡筒4に設けられるレンズ部12とカメラ本体3に設けられるメカニカルシャッタ20とを通過し、撮像素子21によって受光される。撮像素子21は、被写体像を受光して画像データを生成する素子であり、RGB(赤緑青)等のカラーフィルタと、光学像を電気信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサとを有する。撮像素子21から出力される画像データは、プロセス処理部22でAGC(Automatic Gain Control)回路等によってプロセス処理が施され、その後AD変換部23によってアナログ形式の画像データがデジタル形式の画像データに変換される。デジタル化された画像データはバッファメモリ24に保存される。
 バッファメモリ24は、画像データを一時的に記憶する領域であり、DRAM(Dynamic Random Access Memory)等によって構成される。AD変換部23から送られてきてバッファメモリ24に蓄えられた画像データは、システム制御部25により制御される画像処理部(画像処理装置)31によって読み出される。画像処理部31は、撮像素子21が生成する画像データを入力画像データとして使用し、ホワイトバランス処理、ガンマ補正処理及びデモザイク処理等の各種の画像処理を行い、画像処理後の画像データを再びバッファメモリ24に保存する。
 画像処理部31において画像処理が施されてバッファメモリ24に保存された画像データは、表示制御部35及び圧縮伸張部32によって読み出される。表示制御部35は表示部8を制御し、バッファメモリ24から読み出した画像データを表示部8に表示させる。このように、撮像素子21から出力され画像処理部31において画像処理を受けた画像データは、撮影確認画像として表示部8にポストビュー画像として表示される。
 一方、圧縮伸張部32は、バッファメモリ24から読み出した画像データの圧縮処理を行って、JPEG(Joint Photographic Experts Group)やTIFF(Tagged Image File Format)等の任意の圧縮形式の画像データを作成する。圧縮処理後の画像データは、メインメモリ10へのデータ記録処理及びメインメモリ10からのデータ読み出し処理をコントロールする記憶制御部33によって、メインメモリ10に記録される。なおメインメモリ10に画像データ等のデータ類を記録する場合、記憶制御部33は、後述のクロックデバイス34から取得される日時情報に基づいて、そのデータ類に編集日時情報(更新日時情報)等の撮影情報やその他の関連情報を付加する。この撮影情報は任意のフォーマットで画像データに付加され、例えばExif(Exchangeable image file format)形式を採用可能である。
 メインメモリ10に保存されている画像データを再生する再生モードにおいて、メインメモリ10に保存されている画像データは、システム制御部25により制御される記憶制御部33によって読み出され、圧縮伸張部32によって伸張処理が施された後にバッファメモリ24に保存される。そして撮影画像の確認表示と同様の手順で、表示制御部35によってバッファメモリ24から画像データが読み出され、表示部8において画像データが再生表示される。
 システム制御部25は、上述のようにバッファメモリ24、画像処理部31及び記憶制御部33をコントロールするが、デジタルカメラ2における他の各部もコントロールする。例えば、システム制御部25は、レンズ駆動部27を制御してレンズ部12の駆動をコントロールし、シャッタ駆動部26を制御してメカニカルシャッタ20の駆動をコントロールする。またシステム制御部25は、フラッシュ発光部5を制御してフラッシュの発光及び非発光をコントロールし、電源制御部28を制御して電源29における電池装着の有無、電池の種類及び電池残量の検出等を行う。またシステム制御部25は、クロックデバイス34においてカウントされる日時情報を取得して各種の処理に利用する。またシステム制御部25は、画像処理部31を構成する各種の処理部を制御する。
 さらにシステム制御部25は、シャッタボタン6、電源スイッチ7及び操作部9を含むユーザインタフェース36からの操作信号を取得し、操作信号に応じた各種の処理及びデバイス制御を行う。例えば、システム制御部25は、シャッタボタン6から受信したレリーズ信号に応じてシャッタ駆動部26を制御し、メカニカルシャッタ20の開閉をコントロールする。またシステム制御部25は、電源スイッチ7から受信した電源オンオフ信号に応じて電源制御部28を制御し、電源29のオン及びオフをコントロールする。
 システム制御部25で行われる各種の処理及びデバイス制御に必要なプログラムやデータ類は、制御メモリ30に記憶されている。システム制御部25は、必要に応じて、制御メモリ30に記憶されているプログラムやデータ類を読み出すことができ、また新たなプログラムやデータ類を制御メモリ30に保存することができる。例えば設定されたホワイトバランスモードの種類やホワイトバランスゲイン等の条件データを、システム制御部25は制御メモリ30に書き込むことができる。またシステム制御部25は、表示制御部35を制御して、各部から取得した各種情報を表示部8に表示させることができる。なおシステム制御部25は、ユーザがユーザインタフェース36を介して入力する操作信号に応じて、表示部8に表示させる各種情報を変更することができる。
 次に、画像処理部31におけるホワイトバランス処理について説明する。
 図4は、L***表色系の色度図である。
 L***表色系において、アンバー・ブルー方向は図4の矢印「A-B」で表され、グリーン・マゼンタ方向は図4の矢印「G-M」で表される。したがって色相がアンバー・ブルー方向に偏った画像の代表色は、図4の座標の原点から矢印「A-B」方向に関してずれた位置にプロットされる。一方、色相がグリーン・マゼンタ方向に偏った画像の代表色は、図4の座標の中心から矢印「G-M」方向に関してずれた位置にプロットされる。
 「画像の代表色」は任意の手法で定められる。例えば画像の色度分布の統計量に基づいて代表色を決定してもよく、色空間において画像の色が分布している領域だけを線分に分割して代表色を決定する色空間線形分割法等を用いて代表色を決定してもよい。なお画像データの「色分布情報」及び「光源色」は、この「画像の代表色」に基づいて定められてもよい。
 通常のホワイトバランス処理は、画像の色相の偏りを解消し、画像の代表色を図4の色度図の原点に戻すための処理となる。
 以下、ホワイトバランス処理の具体的な実施形態について説明する。
 以下の各実施形態のホワイトバランス処理は画像処理部31(図3参照)において行われるが、画像処理部31ではホワイトバランス処理以外の画像処理(例えばガンマ補正処理及びデモザイク処理等)も行われる。したがって各実施形態のホワイトバランス処理の前及び/又は後において、他の画像処理が行われてもよい。またホワイトバランスブラケティングによって作成されるブラケット画像の数は、1以上であればよい。以下の各実施形態では、1つのベース画像に加えて2つのブラケット画像を作成するホワイトバランスブラケティングの例について説明する。
 <第1実施形態>
 本実施形態では、シャッタボタン6を介した1度のレリーズ操作によって、ホワイトバランスが異なる複数の画像(ベース画像及びブラケット画像)を取得するホワイトバランスブラケティングにおいて、入力画像データの色分布に応じてブラケット画像用ホワイトバランスゲインが自動的に算出される。
 図5は、第1実施形態に係るホワイトバランス画像処理部40(画像処理装置)の機能構成例を示すブロック図である。
 画像処理部31におけるホワイトバランス画像処理部40は、画像データ取得部44と、色分布取得部46と、第1ゲイン取得部41と、第2ゲイン取得部42と、ホワイトバランス処理部(以下「WB処理部」と称する)54とを有する。このホワイトバランス画像処理部40は、ベース画像及びブラケット画像を得るために原画像データ(処理対象画像データ)に適用されるホワイトバランスゲインを取得し、原画像データ(処理対象画像データ)にホワイトバランスゲインを適用する画像処理装置である。
 画像データ取得部44は、ホワイトバランス画像処理部40に送られてくる入力画像データを受信し、受信した入力画像データを色分布取得部46及びWB処理部54に送信する。
 色分布取得部46は、画像データ取得部44から送られてくる入力画像データを解析し、入力画像データの色分布情報を取得する。この色分布情報は、入力画像データに基づくものであれば任意の手法で定められる。例えば、入力画像データの代表色を色分布情報としてもよく、シャッタボタン6を介したレリーズ操作によって撮像素子21から送られてくる画像データを構成する画素値の積算値に基づくデータを色分布情報としてもよい。
 第1ゲイン取得部41は、ホワイトバランス設定判別部(以下「WB設定判別部」と称する)48及びベースホワイトバランスゲイン設定部(以下「ベースWBゲイン設定部」と称する)50を有し、ベース画像を得るためのベース画像用ホワイトバランスゲインをホワイトバランスの設定モードに応じて取得する。
 WB設定判別部48は、ホワイトバランスの設定モードに関する情報データがシステム制御部25によって入力され、ホワイトバランスの設定モードを認定する。このホワイトバランスの設定モードに関する情報データは、制御メモリ30に記憶されており、システム制御部25によって読み出し及び書き換え可能となっている。ホワイトバランスの設定モードは予め定められていてもよいし、ユーザインタフェース36(図3参照)を介してユーザがホワイトバランスの設定モードを任意のモードに設定可能であってもよい。
 例えばプリセットホワイトバランスモード、オートホワイトバランスモード及びカスタムホワイトバランスモードのうちのいずれかを、ホワイトバランスの設定モードとしてユーザが任意に選択可能であってもよい。プリセットホワイトバランスモードでは、ベース画像用ホワイトバランスゲインが予め定められており、このベース画像用ホワイトバランスゲインは制御メモリ30に記憶されている。オートホワイトバランスモードでは、入力画像データの色分布情報に基づいて、この入力画像データに適用されるベース画像用ホワイトバランスゲインが決定される。カスタムホワイトバランスモードでは、入力画像データの色分布情報に基づいて、この入力画像データとは異なる処理対象画像データに適用されるベース画像用ホワイトバランスゲインが決定される。
 すなわちカスタムホワイトバランスモードでは、ユーザが無彩色(白又はグレー)の被写体を撮影して撮像素子21から出力される画像データが、入力画像データとして取得される。そして、この被写体が適切な無彩色を示すために必要とされるホワイトバランスゲインが算出されてベース画像用ホワイトバランスゲインに設定される。そのためカスタムホワイトバランスモードでは、入力画像データの色分布情報に基づいて決定されたベース画像用ホワイトバランスゲインが制御メモリ30に記憶される。そして、ベース画像を作成するホワイトバランス処理において制御メモリ30から読み出されたベース画像用ホワイトバランスゲインが処理対象画像データに適用される。したがってカスタムホワイトバランスモードでは、「ベース画像用ホワイトバランスゲインを決定するために使用される入力画像データ」と「ベース画像を得るためにベース画像用ホワイトバランスゲインが適用される処理対象画像データ」とは異なるデータとなる。なおオートホワイトバランスモードでは、「ベース画像用ホワイトバランスゲインを決定するために使用される入力画像データ」と、「ベース画像を得るためにベース画像用ホワイトバランスゲインが適用される処理対象画像データ」とを、同じデータとすることができる。
 プリセットホワイトバランスモード及びカスタムホワイトバランスモードでは、制御メモリ30に記憶されているベース画像用ホワイトバランスゲインが、ホワイトバランスの設定モードに関する情報データと共に、システム制御部25によってWB設定判別部48に送信される。
 なお図5には、ホワイトバランス画像処理部40にWB設定判別部48が設けられる例が示されているが、WB設定判別部48をシステム制御部25の一部として設けてもよいし、WB設定判別部48の処理をシステム制御部25が行ってWB設定判別部48が省略されてもよい。
 ベースWBゲイン設定部50は、WB設定判別部48によって認定されたホワイトバランスの設定モードに関する情報データを取得し、ホワイトバランスの設定モードに応じてベース画像用ホワイトバランスゲインを取得する。
 プリセットホワイトバランスモードやカスタムホワイトバランスモードのように予めベース画像用ホワイトバランスゲインが定められているモードを設定モードとする場合には、制御メモリ30に記憶されているベース画像用ホワイトバランスゲインがシステム制御部25及びWB設定判別部48を介してベースWBゲイン設定部50に供給される。
 一方、オートホワイトバランスモードのようにベース画像用ホワイトバランスゲインが予め定められていないモードを設定モードとする場合には、ベースWBゲイン設定部50は、色分布取得部46から送られてくる入力画像データの色分布情報に基づいてベース画像用ホワイトバランスゲインを取得する。ベース画像用ホワイトバランスゲインの具体的な算出手法は特に限定されない。例えば、入力画像データの代表色を、図4に示すL***表色系の色度図の座標原点によって示される無彩色とするためのホワイトバランスゲインを、ベース画像用ホワイトバランスゲインとして採用してもよい。
 そしてベースWBゲイン設定部50は、取得したベース画像用ホワイトバランスゲインを、システム制御部25、WB処理部54及び第2ゲイン取得部42(ブラケットWBゲイン設定部52)に送信する。
 一方、第2ゲイン取得部42は、ブラケットホワイトバランスゲイン設定部(以下「ブラケットWBゲイン設定部」と称する)52を有し、ブラケット画像用ホワイトバランスゲインを取得する。ブラケット画像用ホワイトバランスゲインはブラケットWBゲイン設定部52からWB処理部54に送信されると共に、ブラケットWBゲイン設定部52からシステム制御部25に送信される。
 ブラケット画像用ホワイトバランスゲインは、ベース画像に対するブラケット画像の色空間上の方向(補正方向:ブラケット方向)と、ベース画像に対するブラケット画像の色空間上における絶対距離(補正量:ブラケット量)とを規定する。
 ブラケットWBゲイン設定部52(第2ゲイン取得部42)は、色分布取得部46から送られてくる入力画像データの色分布情報に基づいて色空間上でのブラケット方向を決定し、ベース画像用ホワイトバランスゲインを基準にそのブラケット方向に基づいてブラケット画像用ホワイトバランスゲインを取得する。ブラケット方向は、ブラケット画像用ホワイトバランスゲインの色間の比率によって定まるため、ブラケットWBゲイン設定部52は、入力画像データの色分布情報に基づいてブラケット画像用ホワイトバランスゲインの色間の比率を定めることによって、ブラケット方向を決定することができる。
 またブラケットWBゲイン設定部52(第2ゲイン取得部42)は、入力画像データの色分布情報に基づいてブラケット量の絶対値を決定し、ベース画像用ホワイトバランスゲインを基準にそのブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを取得する。したがってブラケットWBゲイン設定部52は、色分布情報に基づいて色毎にブラケット量の絶対値を決定し、ベース画像用ホワイトバランスゲインを基準にその色毎のブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを算出することができる。
 ブラケットWBゲイン設定部52におけるブラケット方向及びブラケット量の決定は別個に行われてもよいし、同時的に行われてもよい。例えば入力画像データの色分布情報に応じて色毎のブラケット量が予め定められている場合、ブラケットWBゲイン設定部52は、色分布取得部46からの色分布情報に対応する予め定められた「色毎のブラケット量」を取得することで、実質的にブラケット方向及びブラケット量を同時的に決定することができる。
 上述のようにブラケットWBゲイン設定部52は、入力画像データの色分布情報に基づいて、ベース画像用ホワイトバランスゲインを基準に、ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する。したがってオートホワイトバランスモードの場合、第2ゲイン取得部42(ブラケットWBゲイン設定部52)は、第1ゲイン取得部41(WB設定判別部48及びベースWBゲイン設定部50)がベース画像用ホワイトバランスゲインの取得の基礎に用いた色分布情報と同じ情報に基づいて、ブラケット画像用ホワイトバランスゲインを取得する。
 なお、ブラケット画像用ホワイトバランスゲインの取得手法の具体例については、後述の他の実施形態において詳述する。
 WB処理部54は、画像データ取得部44から送られてくる入力画像データ(原画像データ)にベース画像用ホワイトバランスゲインを適用して、ベース画像を得る。またWB処理部54は、画像データ取得部44から送られてくる入力画像データ(原画像データ)にブラケット画像用ホワイトバランスゲインを適用して、ブラケット画像を得る。WB処理部54で作成されたベース画像及びブラケット画像の画像データは、後段の処理部に送信される。
 なおシステム制御部25に送られたベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインは、システム制御部25によって制御メモリ30に保存される。
 図5において図示が省略されているが、ホワイトバランス画像処理部40のうち、第1ゲイン取得部41(WB設定判別部48及びベースWBゲイン設定部50)及び第2ゲイン取得部42(ブラケットWBゲイン設定部52)以外の各部(画像データ取得部44、色分布取得部46、WB処理部54等)もシステム制御部25によって制御される。
 図6は、第1実施形態に係るホワイトバランス処理のフローチャートである。
 本例の画像処理方法では、入力画像データの色分布情報が取得され、設定モードに応じてベース画像用ホワイトバランスゲインが取得され、ベース画像用ホワイトバランスゲインを基準に色分布情報に基づいてブラケット画像用ホワイトバランスゲインが取得される。
 すなわち、まず画像データ取得部44によって入力画像データが取得され(図6のS10)、その入力画像データの色分布情報が色分布取得部46によって取得される(S11)。
 そしてWB設定判別部48によって、制御メモリ30及びシステム制御部25を介して送られてくる「ホワイトバランスの設定モードに関する情報データ」から、ホワイトバランスの設定モードが判別される。図6に示す例では、カスタムホワイトバランスモード、オートホワイトバランスモード及びプリセットホワイトバランスモードの3種類のモードの中からホワイトバランスの設定モードが選ばれる。
 WB設定判別部48によって設定モードがカスタムホワイトバランスモードであると判別される場合(S12のYes)、制御メモリ30、システム制御部25及びWB設定判別部48を介して送られてくるカスタムホワイトバランスモード用のベース画像用ホワイトバランスゲインがベースWBゲイン設定部50によって取得される(S13)。
 一方、設定モードがカスタムホワイトバランスモードではなくオートホワイトバランスモードであると判別される場合(S12のNo、S16のYes)、ベースWBゲイン設定部50では、色分布取得部46から送られてくる色分布情報に基づいてオートホワイトバランスモード用のホワイトバランスゲインが算出される(S17)。そして、そのオートホワイトバランスモード用のホワイトバランスゲインがベース画像用ホワイトバランスゲインとされる(S18)。
 設定モードがカスタムホワイトバランスモードでもオートホワイトバランスモードでもないと判別される場合(S16のNo)、ホワイトバランスの設定モードはプリセットホワイトバランスモードであると推定される。この場合、制御メモリ30、システム制御部25及びWB設定判別部48を介して送られてくるプリセットホワイトバランスモード用のベース画像用ホワイトバランスゲインがベースWBゲイン設定部50によって取得される(S19)。
 その後、ブラケットWBゲイン設定部52によって、ベースWBゲイン設定部50から送られてくるベース画像用ホワイトバランスゲインと色分布取得部46から送られてくる色分布情報に応じてブラケット画像用ホワイトバランスゲインが取得される(S14)。
 そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(S15)。
 WB処理部54から出力されるベース画像データ及びブラケット画像データは、必要に応じて他の画像処理(ガンマ補正処理及びデモザイク処理等)を受けた後に、バッファメモリ24及び圧縮伸張部32を介して記憶制御部33に送信され、メインメモリ10に保存される。メインメモリ10におけるベース画像及びブラケット画像の保存手法の具体例は、後述の第10実施形態及び第11実施形態において説明する。
 上述のように本例のデジタルカメラ2では、シャッタボタン6が受け付ける1回の撮影指示によって、第1ゲイン取得部41はベース画像用ホワイトバランスゲインを取得し、第2ゲイン取得部42はブラケット画像用ホワイトバランスゲインを取得し、WB処理部54はベース画像及びブラケット画像を作成する。
 以上説明したように本実施形態によれば、入力画像データの色分布情報に基づいてブラケット画像用ホワイトバランスゲインが設定されるため、ベース画像のホワイトバランスがずれやすい色空間上の方向及びずれ量を加味したブラケット画像を作成することができる。したがって本実施形態のホワイトバランス画像処理部40では、入力画像データの色分布情報に基づいて、ベース画像のホワイトバランスがずれやすい色空間上の方向が判別され、ブラケット画像用ホワイトバランスゲイン及びブラケット画像が取得される。したがって例えば「アンバー・ブルー方向にホワイトバランスがずれやすい撮影シーン」や「グリーン・マゼンタ方向にホワイトバランスがずれやすい撮影シーン」の画像データであっても、撮影シーンに応じた適切なブラケット方向及びブラケット量のブラケット画像を得ることができる。
 また本実施形態では、入力画像データの色分布情報に基づいて自動的に、適切なブラケット方向及び適切なブラケット量が定められてブラケット画像用ホワイトバランスゲインが取得される。したがってユーザはブラケット方向の指定などの操作を行う必要がなくなり、ブラケット方向やブラケット量の設定に迷うことなく、簡便にベース画像及びブラケット画像を作成することができる。また、ブラケット方向が適切に定められるため、入力画像データの色分布情報とは無関係にブラケット方向を多方向としてブラケット画像を作成する場合に比べ、画像記録枚数を低減してメモリ容量の浪費を防ぐことができる。またユーザは、少ない画像(ベース画像及びブラケット画像)の中から適切なホワイトバランス処理が施された画像を簡便に選択することできる。
 またオートホワイトバランスモードでは、「ベース画像用ホワイトバランスゲイン」及び「ブラケット画像用ホワイトバランスゲイン」が、同じ入力画像データの色分布情報に基づいて取得される。この場合、入力画像データの撮影取得タイミングの相違に起因する画角ハンチング(画角の不安定化)の影響が排除され、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインを精度良く求めることができる。
 なおオートホワイトバランスモードであっても、「ベース画像用ホワイトバランスゲイン」の取得の基礎に用いられる画像データの色分布情報と、「ブラケット画像用ホワイトバランスゲイン」の取得の基礎に用いられる画像データの色分布情報とは異なっていてもよい。すなわちオートホワイトバランスモードにおいて、ベースWBゲイン設定部50は、入力画像データとは異なる画像データに基づいてベース画像用ホワイトバランスゲインを算出してもよい。例えば、ベースWBゲイン設定部50は、撮影画像(入力画像データ)の取得前(取得直前)に取得されたライブビュー用の画像データの色分布情報に基づいてベース画像用ホワイトバランスゲインを取得してもよい。一方、ブラケットWBゲイン設定部52は撮影画像(入力画像データ)の色分布情報に基づいてブラケット画像用ホワイトバランスゲインを取得してもよい。この場合、ベース画像用ホワイトバランスゲインの取得処理が迅速化され、ホワイトバランスブラケティング処理全体の処理時間を短縮化できる。
 <第2実施形態>
 本実施形態において、上述の実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では上述の第1実施形態の処理構成が具体化されており、入力画像データの色分布情報から入力画像データの光源色が推定され、推定された光源色に応じてブラケット画像用ホワイトバランスゲインが取得される。ここでいう「光源色」は入力画像データを取得する際に被写体を照らす光源及び/又は被写体から発せられる光を、撮像素子が受光(感光)した時の色比(カラーバランス:Color Balance)である。色比は例えばRGB比やCrCb比(色差比)などで表すことができる。
 図7は、第2実施形態に係るホワイトバランス画像処理部40の機能構成例を示すブロック図である。
 本実施形態のホワイトバランス画像処理部40は光源色推定部56を更に有する。光源色推定部56は、色分布取得部46から送られてくる色分布情報に基づいて入力画像データの光源色を推定する。光源色の推定手法は特に限定されず、例えば入力画像データの色分布の平均に基づいて光源色が推定されてもよい。推定された光源色を示す光源色データは、光源色推定部56からベースWBゲイン設定部50及びブラケットWBゲイン設定部52に送信される。
 ベースWBゲイン設定部50は、ホワイトバランスの設定モードがオートホワイトバランスモードの場合、光源色推定部56から送られてくる光源色データに基づいてベース画像用ホワイトバランスゲインを取得する。「色分布情報から推定される光源色に基づいてホワイトバランスゲインを取得する手法」は特に限定されず、公知の手法に基づいて、推定される光源色の影響を低減するためのホワイトバランスゲインをベース画像用ホワイトバランスゲインとしうる。
 第2ゲイン取得部42(光源色推定部56及びブラケットWBゲイン設定部52)は、入力画像データの色分布情報から光源色を推定し、その色分布情報から推定される光源色に応じてブラケット画像用ホワイトバランスゲインを取得する。すなわちブラケットWBゲイン設定部52は、ベースWBゲイン設定部50から送られてくるベース画像用ホワイトバランスゲインを基準に、光源色推定部56から送られてくる光源色データに基づいてブラケット画像用ホワイトバランスゲインを取得する。この「色分布情報から推定される光源色に基づいてブラケット画像用ホワイトバランスゲインを取得する手法」の具体例については、後述の第3実施形態~第7実施形態において詳述する。
 このように光源色推定部56は、ベース画像用ホワイトバランスゲインを取得する第1ゲイン取得部41の一部として機能するだけではなく、ブラケット画像用ホワイトバランスゲインを取得する第2ゲイン取得部42の一部としても機能する。
 図7に示すホワイトバランス画像処理部40の他の機能構成は、上述の第1実施形態と同様である。
 図8は、第2実施形態に係るホワイトバランス処理のフローチャートである。
 本実施形態では、第1実施形態(図6のS10及びS11参照)と同様の手順で、入力画像データが取得され(図8のS20)、この入力画像データの色分布情報が取得される(S21)。ただし本実施形態では、光源色推定部56によって、入力画像データの色分布情報から入力画像データの光源色が推定される(S22)。
 そしてホワイトバランスの設定モードがカスタムホワイトバランスモードの場合(S23のYes)及びプリセットホワイトバランスモードの場合(S27のNo)には、第1実施形態(図6のS12~S13及びS19参照)と同様の手順で、カスタムホワイトバランスモード用のベース画像用ホワイトバランスゲインが取得され(S24)、プリセットホワイトバランスモード用のベース画像用ホワイトバランスゲインが取得される(S30)。
 一方、ホワイトバランスの設定モードがオートホワイトバランスモードの場合(S27のYes)、ベースWBゲイン設定部50では、光源色推定部56から送られてくる光源色データに基づいてオートホワイトバランスモード用のホワイトバランスゲインが算出される(S28)。そして、そのオートホワイトバランスモード用のホワイトバランスゲインがベース画像用ホワイトバランスゲインとされる(S29)。
 上述の各ステップ(S24、S29及びS30)でベース画像用ホワイトバランスゲインが取得されると、ブラケットWBゲイン設定部52では、ベースWBゲイン設定部50から送られてくるベース画像用ホワイトバランスゲインと、光源色推定部56から送られてくる光源色データとに基づいて、ブラケット画像用ホワイトバランスゲインが取得される(S25)。
 そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(S26)。
 以上説明したように本実施形態によれば、入力画像データの色分布情報から推定される光源色に基づいてブラケット画像用ホワイトバランスゲインが取得される。したがって、簡便且つ高精度にベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインを取得することができ、光源色による影響を低減したベース画像及びブラケット画像を得ることが可能である。
 特にオートホワイトバランスモードにおける光源色データは、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインの算出処理においても使用される情報であり、ブラケット方向及びブラケット量を決める要素である。そのためブラケットWBゲイン設定部52は、オートホワイトバランスモードのベース画像において「光源色に起因してホワイトバランス処理で過補正や補正不足が生じ易い色空間上における方向」を判別し、その「過補正や補正不足が生じ易い色空間上における方向」が反映されたブラケット画像を作成することができる。
 <第3実施形態>
 本実施形態において、上述の実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では、上述の第2実施形態の処理構成が具体化されており、光源色(光源色特性)と黒体放射軌跡(黒体放射特性)との距離が算出され、この距離に応じてブラケット画像用ホワイトバランスゲインが算出される。
 図9A~図9Cは、黒体放射軌跡(黒体放射曲線)が表されたRGB表色系の2次元色空間座標系を示し、原点を「0」として、縦軸は「B/G(青/緑)」を表し、横軸は「R/G(赤/緑)」を表す。図9Aは光源色と黒体放射軌跡との関係を示し、図9Bは黒体放射軌跡と相関色温度との関係を示し、図9Cは黒体放射軌跡とブルー、マゼンタ、アンバー及びグリーンの方向との関係を示す。図9A~図9Cにおいて、黒体放射軌跡が符号「B」で表され、光源色が符号「I」で表され、黒体放射軌跡Bと光源色Iとの距離が符号「L」で表されている。
 黒体放射軌跡Bは黒体(完全放射体)の放射軌跡を示し、色空間上における黒体放射軌跡Bと光源色Iとの距離Lは、光源色Iを通過する黒体放射軌跡Bの法線上での「光源色Iと黒体放射軌跡Bとの間の長さ(距離)」に相当する。
 光源色と最も近い黒体放射軌跡上の位置(図9Aの符号「C」参照)の示す色温度が、その光源色の相関色温度と呼ばれる。相関色温度は光源色と最も近い色に見える黒体放射の色(温度)を表すため、黒体放射軌跡上に存在しない光源色であって黒体放射軌跡の同一法線上に位置する光源色は、同一の相関色温度を持つ。例えば図9Bに示す10000K(ケルビン)の法線上の光源色、5000Kの法線上の光源色及び2500Kの法線上の光源色の各々は同一の相関色温度を持つ。
 図4のL***表色系の色度図に示した「アンバー・ブルー方向」及び「グリーン・マゼンタ方向」は、「B/G」及び「R/G」で表される色空間座標系では図9Cに示す方向となる。図9Cからも明らかなように、黒体放射軌跡Bはアンバー・ブルー方向に沿った曲線となり、アンバー・ブルー方向と直交するグリーン・マゼンタ方向は、黒体放射軌跡Bの法線方向と一致する。
 なお黒体放射軌跡と光源色との距離を表すための色空間は、特に限定されない。例えばxyY表色系空間、XYZ表色系色空間、L***表色系色空間、L***表色系色空間、或いはYCrCb色空間などに基づいて、黒体放射軌跡と光源色との距離が表されてもよい。
 図10は、第3実施形態に係るホワイトバランス画像処理部40の機能構成例を示すブロック図である。
 本実施形態のホワイトバランス画像処理部40は、光源色推定部56に加え、光源色特性取得部58及び黒体特性記憶部60を更に有する。黒体特性記憶部60は、色温度に関する黒体放射特性を記憶し、具体的には図9A~図9Cに示す黒体放射軌跡を記憶し、この黒体放射特性(黒体放射軌跡)は光源色特性取得部58によって適宜読み出される。光源色特性取得部58は、光源色推定部56から送られてくる光源色データと黒体特性記憶部60から読み出した黒体放射特性データとに基づいて、黒体放射軌跡Bと光源色Iとの距離L(図9A参照)を取得する。
 本実施形態の第2ゲイン取得部42は、色空間上における「黒体放射特性(黒体放射軌跡)B」と「入力画像データの色分布情報から推定される光源色I」との距離Lに応じてブラケット画像用ホワイトバランスゲインを取得する。すなわちブラケットWBゲイン設定部52は、ベースWBゲイン設定部50から送られてくる「ベース画像用ホワイトバランスゲイン」と光源色特性取得部58にから送られてくる「黒体放射軌跡Bと光源色Iとの距離L」とに基づいて、ブラケット画像用ホワイトバランスゲインを取得する。ブラケット画像用ホワイトバランスゲインの取得手法の具体例については、後述の第4実施形態において説明する。
 図10に示すホワイトバランス画像処理部40の他の機能構成は、上述の第2実施形態と同様である。
 上述のように、ブラケット画像用ホワイトバランスゲインの取得の基礎となる「黒体放射軌跡Bと光源色Iとの距離L」を色分布情報及び光源色から取得する光源色特性取得部58及び黒体特性記憶部60は、第2ゲイン取得部42の一部として機能する。
 図11は、第3実施形態に係るホワイトバランス処理のフローチャートである。
 本実施形態では、第2実施形態(図8のS20~S24及びS27~S30参照)と同様の手順で、入力画像データが取得され(図11のS40)、この入力画像データの色分布情報が取得され(S41)、この色分布情報から光源色が取得され(S42)、設定モードに応じてベース画像用ホワイトバランスゲインが取得される(S43~S44及びS48~S51)。
 そして光源色特性取得部58によって、光源色推定部56から送られてくる光源色データと黒体特性記憶部60から読み出した黒体放射特性データとから「黒体放射軌跡Bと光源色Iとの距離L」が取得される(S45)。ブラケットWBゲイン設定部52では、「ベース画像用ホワイトバランスゲイン」と「黒体放射軌跡Bと光源色Iとの距離L」とに応じてブラケット画像用ホワイトバランスゲインが取得される(S46)。
 そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(S47)。
 以上説明したように本実施形態では、入力画像データの色分布情報から推定される光源色と黒体放射軌跡との距離に応じてブラケット画像用ホワイトバランスゲインが定められる。
 黒体放射軌跡はアンバー・ブルー方向に延在する曲線である(図9C参照)ため、例えば光源色が黒体放射軌跡上に存在して光源色と黒体放射軌跡との距離が0の場合、ブラケットWBゲイン設定部52は、ブラケット画像用ホワイトバランスゲインによる補正方向(ブラケット方向)を「アンバー・ブルー方向」に設定することが好ましい。一方、光源色と黒体放射軌跡との距離が大きい場合、ブラケットWBゲイン設定部52は、ブラケット画像用ホワイトバランスゲインによる補正方向(ブラケット方向)を「グリーン・マゼンタ方向」に設定することが好ましい。ブラケット画像用ホワイトバランスゲインによる補正方向(ブラケット方向)の設定に関する詳細は、後述の第4実施形態において説明する。
 このようにベース画像に対するブラケット方向を「光源色と黒体放射軌跡との距離」に応じて決定してブラケット画像用ホワイトバランスゲインを取得することにより、「ホワイトバランス処理で過補正や補正不足が生じ易い色空間上における方向」をブラケット方向とするブラケット画像を作成することができる。
 なお「ホワイトバランス処理で過補正や補正不足が生じ易い色空間上における方向」をブラケット方向とするブラケット画像の作成は、ホワイトバランスの設定モードによらずに行われる。例えば電球色のプリセットホワイトバランスゲインは、一般に、黒体放射軌跡上において2800K~3400K程度に設定されることが多い。ところが電球色の光源として実際に使用される「LED(Light Emitting Diode)」や「蛍光灯」の光源色は、黒体放射軌跡からやや離れた位置にある。黒体放射軌跡から離れた位置の光源色下で撮影された画像データのホワイトバランスブラケティングにおいて、ブラケット方向をアンバー・ブルー方向としても、ベース画像及びブラケット画像の中に適切なホワイトバランス処理が施された画像が存在しない場合が多い。しかしながら本実施形態によれば、プリセットホワイトバランスモードであっても、ブラケット方向が「光源色と黒体放射軌跡との距離」に応じて定められ、「ホワイトバランス処理で過補正や補正不足が生じ易い色空間上における方向」をブラケット方向とするベース画像を作成することができる。
 <第4実施形態>
 本実施形態において、上述の実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では、上述の第3実施形態の処理構成が具体化されている。
 本実施形態のホワイトバランス画像処理部40の機能構成は、上述の第3実施形態(図10参照)と同じである。ただしブラケットWBゲイン設定部52(第2ゲイン取得部42)は、「黒体放射軌跡(黒体放射特性)」と「入力画像データの色分布情報から推定される光源色」との距離が小さいほど、色空間上でのブラケット方向をアンバー・ブルー方向に近づけてブラケット画像用ホワイトバランスゲインを取得する。一方、「黒体放射軌跡(黒体放射特性)」と「入力画像データの色分布情報から推定される光源色」との距離が大きいほど、色空間上でのブラケット方向をグリーン・マゼンタ方向に近づけてブラケット画像用ホワイトバランスゲインを取得する。
 図12は、第4実施形態における「光源色と黒体放射軌跡との距離L」と「ブラケット方向」との関係例を示す図である。図12の横軸は「光源色と黒体放射軌跡との距離L」を表し、この横軸の原点は「距離L=0」を表す。図12の縦軸は「ブラケット方向」を表し、縦軸の原点は「ブラケット方向=アンバー・ブルー方向」を表し、原点から離れるに従ってブラケット方向がグリーン・マゼンタ方向に近づくことを表す。
 図12に示す例において、入力画像データの色分布情報から推定される光源色と黒体放射軌跡との距離Lが第1の閾値(図12の符号「th1」参照)と比べて小さい場合、ブラケットWBゲイン設定部52は、ブラケット方向がアンバー・ブルー方向となるブラケット画像用ホワイトバランスゲインを算出する(図12の符号「A」参照)。また光源色と黒体放射軌跡との距離Lが第1の閾値(th1)よりも大きい第2の閾値(図12のth2)と比べて大きい場合、ブラケットWBゲイン設定部52は、ブラケット方向がグリーン・マゼンタ方向となるブラケット画像用ホワイトバランスゲインを算出する(図12の符号「C」参照)。そして光源色と黒体放射軌跡との距離Lが第1の閾値(th1)以上であって第2の閾値(th2)以下の場合、ブラケットWBゲイン設定部52は、ブラケット方向がアンバー・ブルー方向とグリーン・マゼンタ方向との中間方向となるブラケット画像用ホワイトバランスゲインを算出する(図12の符号「B」参照)。
 図12に示す例では、光源色と黒体放射軌跡との距離Lが第1の閾値(th1)以上であって第2の閾値(th2)以下の場合、ブラケット方向はアンバー・ブルー方向とグリーン・マゼンタ方向との間で距離Lに応じて連続的(比例的)に変えられるが、これに限定されない。例えば任意のメンバシップ関数に基づいて「光源色と黒体放射軌跡との距離L」からブラケット方向が定められてもよい。ブラケット方向がメンバシップ関数に基づく場合、光源色推定部56により推定される光源色の相関色温度に応じて、使用されるメンバシップ関数が決められることが望ましい。またブラケット方向を定める上記の「第1の閾値(th1)」及び「第2の閾値(th2)」は、光源色推定部56により推定される光源色の相関色温度に応じて決められることが望ましい。
 なおブラケットWBゲイン設定部52は、「第1の閾値(th1)」及び「第2の閾値(th2)」に基づく上述の手法に代えて、光源色と黒体放射軌跡との距離Lが第3の閾値以下の場合にはブラケット方向をアンバー・ブルー方向とし、第3の閾値よりも大きい場合にはブラケット方向をグリーン・マゼンタ方向としてもよい。ただしこの場合、ショットハンチング等のために、作成されるブラケット画像の色相が必ずしも適切にはならない。より適切な色相のブラケット画像を得る観点からは、メンバシップ関数等を用いて「アンバー・ブルー方向とグリーン・マゼンタ方向との中間方向」をブラケット方向として採用しうる手法の方が好ましい。
 図13は、第4実施形態に係るホワイトバランス処理のフローチャートである。
 本実施形態では、第3実施形態(図11のS40~S45及びS48~S51)と同様の手順で「ベース画像用ホワイトバランスゲイン」及び「黒体放射軌跡Bと光源色Iとの距離L」が取得される(図13のS40~S45及びS48~S51)。
 そしてブラケットWBゲイン設定部52では、「黒体放射軌跡Bと光源色Iとの距離L」に応じたブラケット方向(図12参照)のブラケット画像用ホワイトバランスゲインが、ベース画像用ホワイトバランスゲインを基準に求められる(S46a)。
 そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(S47)。
 以上説明したように本実施形態によれば、「黒体放射軌跡Bと光源色Iとの距離L」に応じて、適切なブラケット方向のブラケット画像を得られる。
 <第5実施形態>
 本実施形態において、上述の実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では、第2ゲイン取得部42が、入力画像データの色分布情報から推定される光源色の「黒体放射特性に基づく相関色温度」に応じてブラケット画像用ホワイトバランスゲインを取得する。
 本実施形態のホワイトバランス画像処理部40の機能構成は、上述の第3実施形態(図10参照)と同じである。ただしブラケットWBゲイン設定部52(第2ゲイン取得部42)は、入力画像データの色分布情報から推定される光源色の相関色温度に応じてブラケット量の絶対値を決定し、このブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを取得する。
 図9Cに示すように、同じアンバー・ブルー方向(又はグリーン・マゼンタ方向)であっても、光源色の色温度によって、アンバー・ブルー方向(又はグリーン・マゼンタ方向)の示す色空間上での具体的な方向が異なる。したがって、入力画像データの光源色の相関色温度に応じて、ブラケット量(絶対値)が変えられることが好ましい。
 例えば、光源色の相関色温度が10000Kのシーンと2500Kのシーンとでは、ブラケット方向が同じアンバー・ブルー方向であっても、色空間上での具体的な方向は異なり、「R/G」及び「B/G」の変化率も変わる。したがってブラケットWBゲイン設定部52は、色分布情報から推定される光源色の相関色温度に応じてブラケット量の絶対値を決定し、相関色温度に応じてブラケット画像用ホワイトバランスゲインを変える。例えば、RGB画素値によって構成される画像データのうちR画素値及びB画素値にのみホワイトバランスゲインを適用するホワイトバランス処理の場合、ブラケットWBゲイン設定部52は、R画素値やB画素値に適用するブラケット画像用ホワイトバランスゲインを、光源色の相関色温度に応じて調整する。
 ブラケットWBゲイン設定部52は、色分布情報から推定される光源色の相関色温度が高くなるに従って、徐々にブラケット量の絶対値が大きくなるようにブラケット画像用ホワイトバランスゲインを定めることが好ましい。
 図14は、第5実施形態に係るホワイトバランス処理のフローチャートである。
 本実施形態では、第3実施形態(図11のS40~S44及びS48~S51)と同様の手順でベース画像用ホワイトバランスゲインが取得される(図14のS60~S64及びS68~S71)。
 そして光源色特性取得部58は、光源色推定部56によって推定された光源色の光源色データと黒体特性記憶部60から読み出した黒体放射特性データとに基づいて、この光源色の相関色温度を取得する(S65)。
 そしてベースWBゲイン設定部50が取得した「ベース画像用ホワイトバランスゲイン」と、光源色特性取得部58が取得した「光源色の相関色温度」とに基づいて、ブラケットWBゲイン設定部52によりブラケット画像用ホワイトバランスゲインが取得される(S66)。
 そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(S67)。
 以上説明したように本実施形態によれば、入力画像データの光源色の相関色温度に応じてブラケット画像用ホワイトバランスゲインが取得されるため、精度良く適切なブラケット画像を作成することができる。
 なお本実施形態は、上述の第3実施形態又は第4実施形態と組み合わされてもよい。図15は、第4実施形態のホワイトバランス処理と第5実施形態のホワイトバランス処理とを組み合わせた処理の一例を示すフローチャートである。
 本例では、第4実施形態(図13のS40~S44及びS48~S51)及び第5実施形態(図14のS60~S64及びS68~S71)と同様の手順でベース画像用ホワイトバランスゲインが取得される(図15のS40~S44及びS48~S51)。そして光源色特性取得部58によって、「黒体放射軌跡と光源色との距離L」及び「光源色の相関色温度」が取得される(図15のS45及びS65)。そしてブラケットWBゲイン設定部52によって、「黒体放射軌跡と光源色との距離Lに応じたブラケット方向」及び「光源色の相関色温度に応じたブラケット量」に基づくブラケット画像用ホワイトバランスゲインが、ベース画像用ホワイトバランスゲインを基準に取得される(図15のS46b)。そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(図15のS47)。
 このように第3実施形態及び第4実施形態の各々のホワイトバランス処理と第5実施形態のホワイトバランス処理とを組み合わせることによって、適切なブラケット方向及びブラケット量のブラケット画像を作成することができる。
 <第6実施形態>
 本実施形態において、上述の第2実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では、光源色にベース画像用ホワイトバランスゲインを適用することでベース画像の彩度情報が算出され、このベース画像の彩度情報に応じてブラケット画像用ホワイトバランスゲインが算出される。
 図16は、第6実施形態に係るホワイトバランス画像処理部40の機能構成例を示すブロック図である。
 本実施形態のホワイトバランス画像処理部40の第2ゲイン取得部42は、ベース画像の彩度情報を取得する彩度特定部62を更に有する。
 彩度特定部62(第2ゲイン取得部42)は、光源色推定部56から送られてくる「色分布情報から推定される光源色の光源色データ」とベースWBゲイン設定部50から送られてくる「ベース画像用ホワイトバランスゲイン」とに基づいて、ベース画像の彩度情報を取得する。ブラケットWBゲイン設定部52は、彩度特定部62から送られてくる「ベース画像の彩度情報」に基づいて、ブラケット画像用ホワイトバランスゲインを取得する。
 より具体的には、彩度特定部62は、無彩色に対する「ベース画像の相対的な彩度」に基づいて彩度情報を取得する。ブラケットWBゲイン設定部52は、この彩度情報に基づいてブラケット量の絶対値を決定し、ベース画像用ホワイトバランスゲインを基準に、このブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを取得する。
 例えば、入力画像データの光源色をRGB値(R,G,B)によって(R/G,B/G)により表し、またR画素値、G画素値及びB画素値のそれぞれに適用されるホワイトバランスゲインをBaseWB、BaseWB、BaseWBによって表す。この場合、ベース画像の色比(カラーバランス:Color Balance)をRGB値(R,G,B)によって(R/G,B/G)と表すと、このベース画像の色比(R/G,B/G)は下記式によって表される。
Figure JPOXMLDOC01-appb-M000001
 このベース画像の色比(R/G,B/G)が(1,1)となる場合、ベース画像のRGB値は相互に等しくベース画像の彩度は無彩色になり、ベース画像には適切なホワイトバランス処理が施されている。すなわち、適切なベース画像用ホワイトバランスゲインによるホワイトバランス処理によって得られるベース画像の色比(R/G,B/G)は(1,1)となり、無彩色となる。そのためオートホワイトバランスモードによって得られるベース画像の色比(R/G,B/G)は通常(1,1)となり、無彩色となる。
 しかしながら、プリセットホワイトバランスモードやカスタムホワイトバランスモードにおいて予め記憶されているベース画像用ホワイトバランスゲインが適切に設定されていない場合、ベース画像の色比(R/G,B/G)は(1,1)にはならない。したがって、上記式に基づいて求められるベース画像の色比(R/G,B/G)と(1,1)との距離は、無彩色に対する相対的な彩度を表す。
 本実施形態では、無彩色に対する「ベース画像の相対的な彩度」を表す彩度情報が彩度特定部62により特定されてブラケットWBゲイン設定部52に送信され、ブラケットWBゲイン設定部52がその彩度情報に基づいてブラケット量の絶対値を決定する。なおこのブラケット量の絶対値の決定手法の具体例については、後述の第7実施形態において説明する。
 図17は、第6実施形態に係るホワイトバランス処理のフローチャートである。
 本実施形態では、第2実施形態(図8のS20~S24及びS27~S30)と同様の手順でベース画像用ホワイトバランスゲインが取得される(図17のS80~S84及びS88~S91)。
 そして彩度特定部62によってベース画像の彩度情報が取得され(S85)、ブラケットWBゲイン設定部52によって、ベース画像の彩度情報及びベース画像用ホワイトバランスゲインからブラケット画像用ホワイトバランスゲインが取得される(S86)。
 そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(S87)。
 以上説明したように本実施形態によれば、「ベース画像の彩度情報」に基づいてブラケット画像用ホワイトバランスゲインが調整される。これにより、ホワイトバランスの設定モードにかかわらず、また入力画像データの光源色にかかわらず、「視覚的に」ほぼ均等なブラケット量のブラケット画像を得ることが可能である。
 <第7実施形態>
 本実施形態において、上述の第6実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では上述の第6実施形態の処理構成が具体化されており、人間の視覚特性が反映されたブラケット画像用ホワイトバランスゲインが取得される。
 人間の視覚的印象は、画像の彩度、特に白い物の彩度に依存して変動する。またマクアダムの法則によれば、人間は視覚的に、画像の彩度が完全グレー(無彩色)に近い場合には彩度(ホワイトバランス)の違いに敏感になるが、画像の彩度が完全グレーから遠ざかると彩度(ホワイトバランス)の違いに鈍感になる。
 したがってベース画像の彩度が低く、彩度の変化が視覚的に敏感に感じられる場合には、ブラケット量を相対的に小さく設定し、またベース画像の彩度が高く、彩度の変化が視覚的に鈍感に感じられる場合には、ブラケット量を相対的に大きく設定することが好ましい。
 本実施形態ではこの視覚特性が考慮されており、ベース画像の彩度が高く完全グレーから離れるほど、ベース画像に対してホワイトバランスを大きくずらしたブラケット画像が作成される。より具体的には、ブラケットWBゲイン設定部52(第2ゲイン取得部42)は、ベース画像の彩度情報に基づいて、無彩色とベース画像との彩度の差が大きいほどブラケット量の絶対値を大きくしてブラケット画像用ホワイトバランスゲインを取得する。ベース画像の彩度に応じてブラケット画像用ホワイトバランスゲインを調整することで、ベース画像の彩度によらず、ベース画像とブラケット画像との間のホワイトバランスの「視覚上」の相違を均一にすることが可能である。
 なお、ここでいう「無彩色」は、絶対的な無彩色であってもよいし、表示部8の表示特性を考慮して表示部8上で無彩色を再現するための色(以下、「表示無彩色」とも称する)であってもよい。すなわち、画像を表示するデバイスの表示特性によってユーザが視覚的に無彩色に感じる色は異なり、例えば6500Kの色温度を有する液晶ディスプレイ(LCD:Liquid Crystal Display)は5000Kの色温度を有する液晶ディスプレイよりも全体的に表示が青く見える。
 したがってブラケットWBゲイン設定部52(第2ゲイン取得部42)は、表示部8の表示特性を示す表示特性情報を表示特性取得部から取得し、その表示特性情報に基づいて表示無彩色情報を取得してもよい。この場合、ブラケットWBゲイン設定部52は、表示無彩色情報から表示無彩色を推定し、その表示無彩色に対するベース画像の相対的な彩度に基づいて彩度情報を取得してもよい。そしてブラケットWBゲイン設定部52は、この彩度情報に基づいてブラケット量の絶対値を決定し、ベース画像用ホワイトバランスゲインを基準にこのブラケット量の絶対値に基づいてブラケット画像用ホワイトバランスゲインを取得してもよい。
 本実施形態のホワイトバランス画像処理部40の機能構成は、上述の第6実施形態(図16参照)と基本的に同じである。
 なお表示部の表示特性情報を取得してブラケットWBゲイン設定部52にその表示特性情報を供給する「表示特性取得部」は特に限定されず、例えば図16に示す例では彩度特定部62が表示特性取得部として機能してもよいし、独立した表示特性取得部(図示省略)が設けられてもよい。
 図18は、第7実施形態に係るホワイトバランス処理のフローチャートである。
 本実施形態では、第6実施形態(図17のS80~S85及びS88~S91)と同様の手順で「ベース画像用ホワイトバランスゲイン」及び「ベース画像の彩度情報」が取得される(図18のS80~S85及びS88~S91)。
 そしてブラケットWBゲイン設定部52は、彩度特定部62から送られてくる「ベース画像の彩度情報」が示すベース画像の彩度に応じてブラケット量(絶対値)が調整されたベース画像用ホワイトバランスゲインを取得する(S86a)。具体的には、ベース画像の彩度が低い場合にはブラケット量を小さくし、ベース画像の彩度が高い場合にはブラケット量が大きくしたベース画像用ホワイトバランスゲインが取得される。なおブラケットWBゲイン設定部52は、任意の手法で「ベース画像の彩度」に基づいてブラケット画像用ホワイトバランスゲインを取得することができ、例えばメンバシップ関数や参照テーブルを利用してもよい。
 そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(S87)。
 以上説明したように本実施形態によれば、視覚特性が考慮されて「ベース画像の彩度」に応じて「ブラケット量」が調整されるため、ベース画像の彩度によらず、ベース画像とブラケット画像との間のホワイトバランスの「視覚上」の相違を、均一にすることが可能である。
 <第8実施形態>
 本実施形態において、上述の第1実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では、オートホワイトバランスモードにおいてフラッシュが発光されて撮影取得された入力画像データのホワイトバランス処理において、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインが、相互に異なるフラッシュ影響度に基づいて取得される。
 フラッシュが発光されて撮影が行われる場合、被写体は環境光に加えてフラッシュの影響を受けるため、フラッシュの影響を考慮したホワイトバランス処理が行われることが好ましい。ただしフラッシュの発光は必ずしも安定的には行われず、撮影毎にフラッシュ発光量(フラッシュ到達量)がばらつくことがある。また被写体の光学特性に応じて、撮影画像におけるフラッシュの影響度は異なる。そのため「推定したフラッシュ影響度」と「入力画像データにおける実際のフラッシュ影響度」とが一致せず、適切なホワイトバランス処理を行うことができない場合がある。
 本実施形態では、撮影画像のフラッシュ影響度のばらつきを補償するため、ホワイトバランスブラケティングにおいて相互に異なるフラッシュの影響度に基づき、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインが取得される。
 図19は、第8実施形態に係るホワイトバランス画像処理部40の機能構成例を示すブロック図である。
 本実施形態のホワイトバランス画像処理部40(画像処理装置)は、画像データ取得部44、ベースWBゲイン設定部50(第1ゲイン取得部41)及びブラケットWBゲイン設定部52(第2ゲイン取得部42)に接続されるフラッシュ特定部64を更に有する。フラッシュ特定部64は、画像データ取得部44から入力画像データを受信し、その入力画像データにおけるフラッシュの影響度を示すフラッシュ影響度を取得する。取得されたフラッシュ影響度は、フラッシュ特定部64からベースWBゲイン設定部50及びブラケットWBゲイン設定部52に送信される。
 フラッシュ特定部64におけるフラッシュ影響度の取得手法は特に限定されず、任意の手法によってフラッシュ影響度を取得可能である。例えば、フラッシュを発光して入力画像データが撮影取得される場合、フラッシュ特定部64は、その入力画像データ(フラッシュ発光画像)と、フラッシュを発光せずに撮影取得された参照画像データ(フラッシュ非発光画像)とからフラッシュ影響度を算出することができる。フラッシュ特定部64は、入力画像データ(フラッシュ発光画像)と参照画像データ(フラッシュ非発光画像)との差分データを算出する。この差分データは、環境光の影響が取り除かれた「フラッシュのみの影響を受けた画像データ」となる。したがってフラッシュ特定部64は、この「フラッシュのみの影響を受けた画像データ」に基づいてフラッシュ影響度を取得することができる。
 ベースWBゲイン設定部50(第1ゲイン取得部41)は、フラッシュ影響度に基づいてベース画像用ホワイトバランスゲインを取得する。そしてブラケットWBゲイン設定部52(第2ゲイン取得部42)は、ベース画像用ホワイトバランスゲインの取得に用いるフラッシュ影響度とは異なるフラッシュの影響度に基づいてブラケット画像用ホワイトバランスゲインを取得する。特に本実施形態では、設定モードがオートホワイトバランスモードの場合に、異なるフラッシュ影響度に基づいてベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインが算出される。
 ベースWBゲイン設定部50及びブラケットWBゲイン設定部52における「フラッシュ影響度に基づくベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインの取得」は任意の手法で行うことができる。例えば、入力画像データにおけるフラッシュと環境光との影響の比率がフラッシュ影響度に基づいて算出されてもよい。その比率に応じて「環境光の色温度に応じたホワイトバランスゲイン(環境光の影響をキャンセルするホワイトバランスゲイン)」と「フラッシュの色温度に応じたホワイトバランスゲイン(フラッシュの影響をキャンセルするホワイトバランスゲイン)」とを加重平均することで、「フラッシュ影響度に基づくベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインの取得」が可能である。
 なおブラケットWBゲイン設定部52、WB処理部54及びフラッシュ特定部64は、WB設定判別部48からホワイトバランスの設定モードに関する情報データが送られ、この情報データに基づいてホワイトバランスの設定モードを判定して処理を行う。
 撮影時のフラッシュの発光及び非発光は、システム制御部25がフラッシュ発光部5を制御することで切り換え自在となっている。システム制御部25は、ユーザインタフェース36を介したユーザの指示に応じてフラッシュの発光及び非発光を切り換えてもよいし、図示しない測光センサによって測定された被写体の明るさに応じてフラッシュの発光及び非発光を自動的に切り換えてもよい。
 図20は、第8実施形態に係るホワイトバランス処理のフローチャートである。
 本実施形態では、上述の第1実施形態(図6のS10及びS11)と同様の手順で、入力画像データが取得され(図20のS100)、入力画像データの色分布情報が取得される(S101)。
 そしてシステム制御部25及びWB設定判別部48によって、ホワイトバランスの設定モード及びフラッシュ発光の有無が判定される。オートホワイトバランスモードであって(S102のYes)、フラッシュの発光有りと判定される場合(S103のYes)、フラッシュ特定部64はシステム制御部25により制御されて入力画像データのフラッシュ影響度を取得する(S104)。そしてベースWBゲイン設定部50では、色分布情報及びフラッシュ影響度に基づいてベース画像用ホワイトバランスゲインが取得される(S105)。またブラケットWBゲイン設定部52では、ベース画像用ホワイトバランスゲインとはフラッシュの影響度が異なるブラケット画像用ホワイトバランスゲインが取得される(S106)。
 一方、オートホワイトバランスモードであって(S102のYes)、フラッシュが非発光であると判定される場合(S103のNo)、ベースWBゲイン設定部50は、入力画像データの色分布情報に基づいてベース画像用ホワイトバランスゲインを取得する(S108)。またブラケットWBゲイン設定部52は、入力画像データの色分布情報に基づいてブラケット画像用ホワイトバランスゲインを取得する(S109)。
 一方、オートホワイトバランスモードではない場合(S102のNo)、ベースWBゲイン設定部50は、制御メモリ30に予め保存されているベース画像用ホワイトバランスゲインを、システム制御部25及びWB設定判別部48を介して取得する。またブラケットWBゲイン設定部52は、入力画像データの色分布情報に基づいてブラケット画像用ホワイトバランスゲインを取得する(S109)。
 なおベースWBゲイン設定部50及びブラケットWBゲイン設定部52は、上述の各実施形態のホワイトバランス画像処理部40と同様の手法で、入力画像データの色分布情報に基づいてベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインを取得することができる。
 そしてWB処理部54では、ベース画像用ホワイトバランスゲイン及び入力画像データに基づいてベース画像が取得され、またブラケット画像用ホワイトバランスゲイン及び入力画像データに基づいてブラケット画像が取得される(S107)。
 以上説明したように本実施形態によれば、オートホワイトバランスモードにおいてフラッシュ発光状態で入力画像データが撮影された場合、フラッシュ影響度の異なるホワイトバランスゲインに基づいてベース画像及びブラケット画像が作成される。そのためベース画像用ホワイトバランスゲインの取得時に考慮したフラッシュ影響度が適切でなかったとしても、ブラケット画像用ホワイトバランスゲインが適切なフラッシュ影響度に基づいている可能性がある。したがってユーザは、より確実に、適切なフラッシュ影響度に基づくホワイトバランス処理が施された画像を得ることができる。
 なお上述の説明では、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインが入力画像データの色分布情報に基づいて取得される例が示されているが、これに限定されない。すなわち、任意の手法でベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインを取得可能である。ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインは、異なるフラッシュ影響度に基づけばよく、必ずしも入力画像データの色分布情報に基づかなくてもよい。
 <第9実施形態>
 本実施形態において、上述の第1実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では、ブラケット画像の作成の要否が、ユーザによる設定に基づくのではなく、自動的に決定される。すなわち入力画像データの色分布情報に基づいて、オートホワイトバランスモードでのホワイトバランス処理が不適切になる可能性が高いか否かが判別される。ホワイトバランス処理が不適切になる可能性が高い入力画像データのホワイトバランス処理では、ブラケット画像が自動的に作成される。
 図21は、第9実施形態に係るホワイトバランス画像処理部40の機能構成例を示すブロック図である。
 本実施形態の第2ゲイン取得部42は、ブラケット判定部66及びブラケットデータ記憶部68を更に有する。ブラケットデータ記憶部68は、色分布情報とブラケット画像作成の要否との関係を定めるブラケティング要否データを記憶する。
 図22は、色分布情報とブラケット画像作成の要否との関係例を示す図である。図22において、原点を「0」として、縦軸は「B/G(青/緑)」を表し、横軸は「R/G(赤/緑)」を表す。
 ブラケティング要否データは、ベース画像用ホワイトバランスゲインが不適切になる可能性が高い色分布情報を持つ入力画像データに対して「ブラケット画像の作成が必要である」と定める。
 一般に、木々の緑等のデータを多く含む画像データと、緑成分の占める割合が高い光を発する人工光源(蛍光灯等)下で撮影された画像データとは、両者共に緑成分の占める割合が高くなるため、色空間上では同一又は近接した位置に配置されることが多い(図22の符号「A1」参照)。同様に、夕焼けを撮影シーンとする画像データと赤成分の占める割合が高い光を発する人工光源(電球及びLED等)下で撮影された画像データとは、両者共に赤成分の占める割合が高くなるため、色空間上では同一又は近接した位置に配置されることが多い(図22の符号「A2」参照)。このように、撮影シーンの異なる画像データが同一又は近接した位置に配置される傾向が高い色空間上の領域(以下「ホワイトバランスエラー領域」とも称する;図22の「A1」及び「A2」参照)に位置する画像データは、ホワイトバランス処理が不適切になる可能性が高い。
 したがってブラケティング要否データは、ホワイトバランスエラー領域(A1、A2)内に存在する画像データ(色分布情報)に対しては「ブラケット画像の作成が必要とされる」ことを定める。またブラケティング要否データは、ホワイトバランスエラー領域(A1、A2)外に存在する画像データ(色分布情報)に対しては「ブラケット画像の作成が不要とされる」ことを定める。特にブラケティング要否データは、少なくとも緑及び赤の色分布情報を持つ入力画像データに対してブラケット画像の作成が必要であると定めることが好ましい。
 ブラケット判定部66(第2ゲイン取得部42)は、色分布取得部46が取得する入力画像データの色分布情報に基づき、ブラケットデータ記憶部68から読み出したブラケティング要否データを参照して、ブラケット画像の作成の要否を決定する。ブラケット判定部66によって決定されるブラケット画像作成の要否情報は、ブラケットWBゲイン設定部52及びWB処理部54に送信される。
 ブラケット画像の作成が必要であると決定された場合、ブラケットWBゲイン設定部52(第2ゲイン取得部42)は色分布情報及びベース画像用ホワイトバランスゲインに基づいてブラケット画像用ホワイトバランスゲインを取得する。そしてWB処理部54は、このブラケット画像用ホワイトバランスゲインに基づいてブラケット画像を作成する。
 特に本実施形態では、ホワイトバランスの設定モードがオートホワイトバランスモードであって、ブラケット判定部66によってブラケット画像の作成が必要であると決定された場合に、ブラケット画像用ホワイトバランスゲインが取得されてブラケット画像が作成される。
 ブラケット判定部66によってブラケット画像の作成が必要であると決定された場合は、可能性があると想定される光源色に応じて、ブラケット画像用ホワイトバランスゲイン及びブラケット画像が作成されることが好ましい。例えば入力画像データの色分布情報が緑に偏っている場合(図22のA1参照)、ブラケットWBゲイン設定部52は、光源色が自然光(太陽光)であると仮定した場合の第1のブラケット画像用ホワイトバランスゲインと、光源色が人工光源(蛍光灯等)であると仮定した場合の第2のブラケット画像用ホワイトバランスゲインとを取得することが望ましい。またWB処理部54は、第1のブラケット画像用ホワイトバランスゲインに基づく第1のブラケット画像と、第2のブラケット画像用ホワイトバランスゲインに基づく第2のブラケット画像とを作成することが好ましい。これによりユーザは、より確実に、適切なホワイトバランス処理が施された画像をベース画像及びブラケット画像の中から得ることができる。
 一方、ブラケット判定部66においてブラケット画像の作成が不要であると決定された場合、ブラケットWBゲイン設定部52はブラケット画像用ホワイトバランスゲインを取得せず、WB処理部54はブラケット画像を作成せずにベース画像のみを作成する。
 ブラケットWBゲイン設定部52及びWB処理部54は、WB設定判別部48から送られてくるホワイトバランスの設定モードがオートホワイトバランスモードであり、且つブラケット判定部66から送られてくるブラケット画像作成の要否情報がブラケット画像の作成が必要であることを示す場合にのみ、ブラケット画像用ホワイトバランスゲイン及びブラケット画像を取得する。一方、WB設定判別部48から送られてくるホワイトバランスの設定モードがオートホワイトバランスモードではない場合、又はブラケット判定部66から送られてくるブラケット画像作成の要否情報がブラケット画像の作成が不要であることを示す場合には、ブラケットWBゲイン設定部52及びWB処理部54はブラケット画像用ホワイトバランスゲイン及びブラケット画像を取得しない。
 他の構成は、第1実施形態のホワイトバランス画像処理部40(図5参照)と同一である。
 図23は、第9実施形態に係るホワイトバランス処理のフローチャートである。
 本実施形態では、上述の第1実施形態(図6のS10及びS11)と同様の手順で、入力画像データが取得され(図23のS120)、入力画像データの色分布情報が取得される(S121)。
 そして、WB設定判別部48によってホワイトバランスの設定モードが判定される。
 オートホワイトバランスモードの場合(S122のYes)、ベースWBゲイン設定部50は、色分布取得部46からの色分布情報に基づいてベース画像用ホワイトバランスゲインを取得する(S123)。そしてブラケット判定部66によって、入力画像データの色分布情報がホワイトバランスエラー領域内(図22のA1及びA2参照)に存在するか否かが判定される(S124)。入力画像データの色分布情報がホワイトバランスエラー領域内に存在する場合(S124のYes)、ブラケットWBゲイン設定部52は色分布情報に基づいてブラケット画像用ホワイトバランスゲインを取得する(S125)。そしてWB処理部54によって、ベース画像及びブラケット画像が作成される(S126)。一方、入力画像データの色分布情報がホワイトバランスエラー領域内に存在しない場合(S124のNo)、ブラケット画像用ホワイトバランスゲイン及びブラケット画像は取得されず、WB処理部54ではベース画像のみが作成される(S128)。
 なおホワイトバランスの設定モードがオートホワイトバランスモードではない場合(S122のNo)、ベースWBゲイン設定部50は、制御メモリ30に記憶されているベース画像用ホワイトバランスゲインを、システム制御部25及びWB設定判別部48を介して取得する(S127)。そして、ブラケット画像用ホワイトバランスゲイン及びブラケット画像は取得されず、WB処理部54ではベース画像のみが作成される(S128)。
 以上説明したように本実施形態によれば、オートホワイトバランスモードにおいてホワイトバランス処理が不適切になる可能性が高い色分布情報を持つ入力画像データに関しては、ベース画像に加えてブラケット画像が自動的に作成される。したがって、入力画像データの色分布情報が光源色の判定ミスを起こしやすく、ホワイトバランス処理によってカラーフェリアが発生しうる場合であっても、ユーザは再撮影をすることなく、ブラケット画像から適切なホワイトバランス処理が施された画像を取得しうる。
 <第10実施形態>
 本実施形態において、上述の実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、ホワイトバランスブラケティングにより1つの入力画像データに関して作成されたベース画像及びブラケット画像の記録手法及び表示手法に関する。以下に説明する記録手法及び表示手法は、上述の実施形態で作成されるベース画像及びブラケット画像だけではなく、他のホワイトバランスブラケティング手法に基づいて作成されるベース画像及びブラケット画像にも適用可能である。
 本実施形態では、ベース画像及びブラケット画像の各々にメイン画又はサブ画であることを示す分類情報が付加され、その分類情報はユーザの指示に応じて書き換え可能となっている。また本実施形態では表示部8に色空間表示がなされ、ベース画像及びブラケット画像の対応位置がその色空間表示上に表示され、ユーザはベース画像及びブラケット画像の色空間上における関係を容易に把握することができる。
 図24は、第10実施形態に係るWB処理部54の機能構成例を示すブロック図である。本実施形態のWB処理部54は、ホワイトバランス演算処理部(以下「WB演算処理部」と称する)55及び情報付加部57を有する。
 WB演算処理部55は、ベース画像用ホワイトバランスゲインを入力画像データに適用してベース画像データを算出し、またブラケット画像用ホワイトバランスゲインを入力画像データに適用してブラケット画像データを算出する。情報付加部57は、このWB演算処理部55で作成されたベース画像及びブラケット画像に分類情報を付加する。
 図25は、ベース画像及びブラケット画像の各々に関するデータ構造例を示す図である。
 ベース画像及びブラケット画像の各々に関する画像情報データ83は、WB演算処理部55で作成されるホワイトバランス処理後の画像に関する画像データ部84と、情報付加部57で付加される分類情報に関する分類情報部85とを含む。
 情報付加部57で付加される分類情報は、メイン画及びサブ画に関する情報である。1つの入力画像データに関して作成されたベース画像及びブラケット画像のうちの1つにメイン画の分類情報が割り当てられ、他に対してはサブ画の分類情報が割り当てられる。本例の情報付加部57(WB処理部54)は、ベース画像にメイン画であることを示す分類情報を付加し、ブラケット画像にサブ画であることを示す分類情報を付加する。なお情報付加部57は、いずれか1つのブラケット画像にメイン画であることを示す分類情報を付加し、ベース画像及び他のブラケット画像にサブ画であることを示す分類情報を付加してもよい。
 1つの入力画像データに関して作成されたベース画像及びブラケット画像のファイル形態として、ベース画像及びブラケット画像の各々を別ファイルとする方式と、ベース画像及びブラケット画像を1つのファイルとする方式とがある。
 図26は、1つの入力画像データに関して作成されたベース画像及びブラケット画像の各々を別ファイルデータとする場合のデータ構造例を示す。ベース画像及びブラケット画像の各々を別々のファイルデータ87とする場合、各ファイルデータ87は、画像データ部84及び分類情報部85に加えてグループ情報部86を含む。
 グループ情報部86は、いずれの入力画像データに関するものであるかを示すグループ情報データを表す部分である。グループ情報データは、同一の入力画像データに基づいて作成されたベース画像及びブラケット画像同士を関連付けてグループ化する。したがってベース画像及びブラケット画像によって構成されるグループが入力画像データ毎に形成され、同じ入力画像データから作られたベース画像及びブラケット画像は同一グループを構成する。本例では、画像データ部84及び分類情報部85に対するグループ情報部86の付加が、情報付加部57で行われるが、他の処理部で行われてもよく、例えば記憶制御部33において行われてもよい。
 図27は、1つの入力画像データに関して作成されたベース画像及びブラケット画像を1つのファイルとする場合のデータ構造例を示す。ベース画像及びブラケット画像を1つのファイルとする場合、これらの画像(画像データ部84)及び分類情報(分類情報部85)を含む1つのファイルデータ87が作成される。したがって1つのファイルデータ87内に、ベース画像に関する画像情報データ83と、ブラケット画像に関する画像情報データ83とが存在する。この場合、グループ情報部86(図26参照)は付加されなくてもよい。
 上述のファイルデータ87の作成は、図24に示す情報付加部57において行われてもよいし、図3に示す記憶制御部33において行われてもよい。情報付加部57でファイルデータ87の作成を行う場合、作成されたファイルデータ87は圧縮伸張部32において圧縮処理が施されて、記憶制御部33のコントロール下でメインメモリ10に保存される。一方、記憶制御部33でファイルデータ87の作成を行う場合、分類情報部85及びグループ情報部86を構成するデータ類がシステム制御部25から記憶制御部33に送信され、また圧縮処理を受けた画像データ(ベース画像及びブラケット画像)が圧縮伸張部32から記憶制御部33に送信される。記憶制御部33は、システム制御部25から送られてくるデータ類及び圧縮伸張部32から送られてくる画像データに基づいて、ファイルデータ87を作成してメインメモリ10に保存する。
 なお記憶制御部33は、ベース画像及びブラケット画像のデータ(ファイルデータ87)に、更に撮影日時情報や編集日時情報等のメタデータを付加し、その後、ベース画像とブラケット画像とを相互に関連付けてメインメモリ10に保存する。記憶制御部33におけるメタデータの付加処理は、例えばExif形式に則って行われうる。
 メインメモリ10には、画像データ部84及び分類情報部85(及びグループ情報部86)を含む画像情報データ83が記憶制御部33によって保存され、ベース画像とブラケット画像とが相互に関連付けられて記憶される。
 図28は、第10実施形態におけるホワイトバランス処理に関するフローチャートである。本実施形態では、WB演算処理部55によってベース画像及びブラケット画像が作成され(図28のS130)、情報付加部57によって、WB演算処理部55により作成されたベース画像及びブラケット画像の各々に分類情報が付加される(S131)。
 次に、分類情報の書き換えについて説明する。
 図29は、デジタルカメラ2の機能ブロックのうち、主として画像表示処理に関連する処理部を示す。
 表示制御部35は、表示部8を制御し、ベース画像及びブラケット画像のうち少なくとも1つの画像を表示部8に表示させる。特に本実施形態の表示制御部35は、ベース画像及びブラケット画像のうち少なくともメイン画の分類情報が付加されている画像を表示部8に表示させる。
 また、本実施形態の画像処理部31は分類情報書換部72を有する。分類情報書換部72は、システム制御部25に制御され、バッファメモリ24に保存されている画像データを取得して分類情報を書き換える。
 すなわちユーザインタフェース36(操作部9:指示受付部)には、ユーザによって、ベース画像及びブラケット画像に付加されている分類情報の決定指示が入力される。分類情報書換部72は、このユーザインタフェース36に入力された分類情報の決定指示に基づいて、ベース画像及びブラケット画像に付加されている分類情報を書き換える。具体的には、ユーザインタフェース36を介して分類情報の決定指示が入力されると、システム制御部25は分類情報書換部72を制御し、ベース画像及びブラケット画像の分類情報を分類情報書換部72に書き換えさせる。
 なお本実施形態において、1つの入力画像データから作成されるベース画像及びブラケット画像において、メイン画の分類情報が付加される画像は1つである。したがって「メイン画の画像を変更する」という決定指示がユーザによってユーザインタフェース36に入力されると、分類情報書換部72は、1つの入力画像データから作成されるベース画像及びブラケット画像のうち、新たにメイン画として選択及び決定された画像に付加されている分類情報をサブ画からメイン画に変更すると共に、決定指示の入力までメイン画の分類情報が付加されていた画像の分類情報をメイン画からサブ画に変更する。
 次に、画像表示例について説明する。
 撮影直後に撮影画像の確認のための画像再生を行う場合、撮像素子21から出力されてプロセス処理部22、AD変換部23及び画像処理部31で処理を受けた画像データは、バッファメモリ24に一時的に記憶される。表示制御部35は、バッファメモリ24に記憶されたその画像データを読み出して、表示部8に表示させる。一方、記録画像の再生を行う場合、記憶制御部33によってメインメモリ10から画像データが読み出されて圧縮伸張部32で伸張処理を受けた画像データは、バッファメモリ24に一時的に記憶される。表示制御部35は、バッファメモリ24に記憶されたその画像データを読み出して、表示部8に表示させる。
 図30は、表示部8における画像再生表示の一例を示す図である。なお図30には一例が示されているに過ぎず、表示部8に表示される各部の大きさや配置は特に限定されない。また「画像再生」とは、撮影直後に撮影画像を確認するための撮影画像再生であってもよいし、メインメモリ10に記録された画像の確認のための記録画像再生であってもよい。
 本例の画像再生時の表示部8には、選択画像表示部74、選択カーソル75、縮小画像76、分類表示部77及び色空間表示部78が表示される。選択カーソル75は、ベース画像及びブラケット画像の縮小画像76のうちのいずれかを選択するための表示であり、ユーザがユーザインタフェース36(操作部9)を操作することで、選択カーソル75によって選択される縮小画像76を切り換えることができる。
 縮小画像76は、ベース画像及びブラケット画像を縮小した画像である。分類表示部77には、各縮小画像76の分類情報(メイン画又はサブ画)が示される。図30に示す分類表示部77は、メイン画(ベース画像)の縮小画像76に対して「M」を表示し、サブ画(ブラケット画像)の縮小画像76に対しては「S1」又は「S2」の表示をする。
 なお縮小画像76及び分類表示部77のうちいずれか一方の表示は省略されてもよい。縮小画像76が省略される場合、選択カーソル75によって分類表示部77のいずれかの表示が選択され、選択された画像が選択画像表示部74に表示されてもよい。
 選択画像表示部74には、ベース画像及びブラケット画像のうち選択カーソル75によって選択されている1つの画像のみが表示され、ユーザが関心を示す画像が表示される。特に再生モードに切り換わった後、選択画像表示部74に最初に表示される画像は、ベース画像及びブラケット画像のうちメイン画の分類情報が付された画像である。
 表示制御部35は、色空間座標(図30に示す例ではL***表色系の色度図)を表示部8の色空間表示部78に表示させて、ベース画像及びブラケット画像のうち表示部8に表示させる画像の少なくともいずれかの色分布情報を、表示部8に表示される色空間座標上に表す。本例の表示制御部35は、ベース画像及びブラケット画像のうちメイン画の分類情報が付加された画像の色分布情報及びサブ画の分類情報が付加された画像の色分布情報の両方の位置を、表示部8に表示される色空間座標上に表す。図30に示す例では、色空間表示部78において、メイン画の分類情報が付加される画像の色分布情報(代表色)が「M」の表示によって示され、サブ画の分類情報が付加される画像の色分布情報(代表色)が「S1」及び「S2」の表示によって示される。
 図30に示す例ではベース画像(メイン画)の色分布情報が色空間座標の原点上に表されているが、ベース画像の色分布情報に従って色空間座標の原点以外の位置に、ベース画像(メイン画)の色分布情報が表されてもよい。
 ベース画像にメイン画の分類情報が付加されている状態(図30参照)から、ユーザがユーザインタフェース36(操作部9)を操作して選択カーソル75を移動させ、選択カーソル75による縮小画像76の選択対象を変えることができる。この場合、表示制御部35は表示部8を制御して、選択カーソル75によって新たに選択された画像を選択画像表示部74に表示させる。このようにユーザインタフェース36(操作部9)は、表示部8に表示させる画像の切り換え指示がユーザによって入力される画像切換受付部としても機能する。表示制御部35は、ユーザインタフェース36に入力される画像の切り換え指示に応じて、ベース画像及びブラケット画像のうち、表示部8の同じ領域である選択画像表示部74に表示させる画像を切り換える。
 図31は、ブラケット画像がメイン画として選択及び決定された場合の表示部8の表示例を示す図である。
 ベース画像にメイン画の分類情報が付加されている状態(図30参照)から、ユーザがユーザインタフェース36(操作部9)を操作して選択カーソル75を移動させ、ユーザインタフェース36を操作してブラケット画像をメイン画として選択及び決定すると、表示部8は例えば図31に示す表示となる。図31において、選択カーソル75を使ってユーザによりブラケット画像がメイン画として選択されると、選択された縮小画像76に対する分類表示部77にはメイン画を示す「M」が表示され、他の縮小画像76に対する分類表示部77にはサブ画を示す「S1」又は「S2」が表示される。そして色空間表示部78では、ユーザによる選択決定後のメイン画及びサブ画の分類に従って、ベース画像及びブラケット画像の色分布情報が色空間座標上に表示される。
 このようにユーザは、ユーザインタフェース36(操作部9)を介し、表示部8に表示される複数の画像(ベース画像及びブラケット画像)の中から1つの画像を関心画像として選択することができる。この場合、ユーザが関心画像を選択したことを示す決定指示がユーザインタフェース36(操作部9)に入力される。関心画像の選択に関する決定指示がユーザインタフェース36に入力されると、システム制御部25は分類情報書換部72を制御してその関心画像の分類情報をメイン画とする。すなわち分類情報書換部72は、1つの入力画像データに基づいて作成されたベース画像及びブラケット画像のうち、ユーザインタフェース36(操作部9)に入力された決定指示によって指定される関心画像の分類情報をメイン画とし、他の画像の分類情報をサブ画とする。
 分類情報書換部72によって分類情報が書き換えられた場合、表示制御部35は表示部8を制御して、書き換え後の分類情報に従ってベース画像及びブラケット画像のうち1又は複数の画像を表示部8に表示させる。
 図32は、表示部8(選択画像表示部74)における画像の切り換えに関するフローチャートである。
 まずシステム制御部25によって、再生モードか否かが判定され(図32のS140)、再生モードになるまでこの判定が続行される(S140のNo)。「再生モードか否かの判定」は任意の手法で行うことができる。例えば、システム制御部25は、ユーザインタフェース36(操作部9)を介してユーザが再生モードを選択したか否かを判定したり、撮影画像の確認用の再生を行うモードに設定されているか否かを判定したりすることで「再生モードか否かの判定」を行うことができる。
 再生モードであると判定される場合(S140のYes)、システム制御部25の制御下で表示制御部35が表示部8をコントロールし、表示部8の選択画像表示部74にはメイン画の分類情報が付加された画像が表示される(S141;図30参照)。
 ベース画像及びブラケット画像のうちメイン画の分類情報が付加された画像を選択画像表示部74に表示した後、ユーザによってサブ画の分類情報が付加された画像の表示指示があるか否かがシステム制御部25によって判定され、ユーザからその表示指示があるまでこの判定が続行される(S142のNo)。本例では、ユーザがユーザインタフェース36を介して選択カーソル75をメイン画の画像から移動させた場合に「サブ画の分類情報が付加された画像の表示指示がある」と判定される。「サブ画の分類情報が付加された画像の表示指示がある」と判定される場合(S142のYes)、システム制御部25の制御下で表示制御部35が表示部8をコントロールして、表示部8の選択画像表示部74には選択カーソル75によって新たに選択された画像が表示される(S143)。
 図33は、分類情報の書き換え処理のフローチャートである。
 まずシステム制御部25によって、メイン画の切り換え指示があるか否かが判定され(図33のS150)、メイン画の切り換え指示があるまでこの判定が続行される(S150のNo)。本例では、ユーザがユーザインタフェース36(操作部9)を介して選択カーソル75を移動させて、サブ画の分類情報が付加された縮小画像76を新たなメイン画として決定する指示がユーザインタフェース36(操作部9)に入力された場合が「メイン画の切り換え指示がある」場合となる。
 メイン画の切り換え指示があると判定された場合(S150のYes)、切り換え指示の対象となっているグループのベース画像及びブラケット画像の分類情報の書き換えが、システム制御部25の制御下で分類情報書換部72によって行われる(S151)。これによりベース画像及びブラケット画像のうち、ユーザがメイン画として決定した画像に付加される分類情報が「メイン画」となるように、また他の画像に付加される分類情報が「サブ画」となるように、分類情報(図25の「分類情報部85」参照)の書き換え処理が行われる。
 分類情報書換部72によって分類情報の書き換えが行われた場合、ベース画像及びブラケット画像は、圧縮伸張部32を介して記憶制御部33に送られ、記憶制御部33によって書き換え後の分類情報と共にメインメモリ10に保存される(S152)。
 以上説明したように本実施形態によれば、表示部8の選択画像表示部74にはベース画像及びブラケット画像のうちの1つの画像のみが表示され、ユーザインタフェース36を介したユーザの表示指示に応じて選択画像表示部74に表示する画像を切り換えることができる。したがって、同じ入力画像データに基づいて作成されるベース画像及びブラケット画像の数が増えても、ユーザは選択画像表示部74に表示される画像を切り換えながら確認することで、これらのベース画像及びブラケット画像を簡便に把握することができ、ユーザの画像管理の手間を軽減することができる。
 ベース画像及びブラケット画像が同時に表示部8(選択画像表示部74)に表示され、各画像が表示部8の異なる場所に表示される場合、表示部8の色むら等の影響で表示画像同士の比較が難しく、表示画像間のホワイトバランスの相違をユーザが認識し難い場合がある。しかしながら本実施形態では、選択カーソル75を介したユーザの選択によって、ベース画像及びブラケット画像は表示部8の同じ領域である選択画像表示部74に表示される。ベース画像及びブラケット画像の表示は同一位置で切り換わるため、画像同士の比較が容易になり、画像間のホワイトバランスの相違をユーザは認識し易くなる。
 また表示部8の色空間表示部78において、色空間座標上におけるベース画像及びブラケット画像の対応位置が示されるので、ユーザは、ブラケット方向及びブラケット量を一目で直感的に確認することができる。
 なお上述の実施形態では、ユーザインタフェース36を介したユーザの操作に応じて選択画像表示部74に表示される画像が切り換えられるが、これに限定されない。例えば表示制御部35は、ベース画像及びブラケット画像の各々を自動的に且つ経時的に、表示部8の同じ領域である選択画像表示部74に順次表示させてもよい。すなわち選択画像表示部74に表示される画像の切り換えが表示制御部35によって行われ、ユーザ操作によらずに、時間経過と共に自動的に選択画像表示部74に表示される画像が切り換えられる。選択画像表示部74に表示される画像の切り換えタイミングは、ユーザがベース画像及びブラケット画像のホワイトバランスの相違を認識することが可能なタイミングであることが好ましい。
 また表示部8の表示は図30及び図31に示す例に限定されず、例えば縮小画像76及び分類表示部77が表示部8に表示されなくてもよい。図34A~図34Dは、表示部8の他の表示例を示す。図34A~図34Dに示すように、表示部8に選択画像表示部74及び色空間表示部78は表示されるが、縮小画像76及び分類表示部77(図30及び図31参照)は表示されなくてもよい。また図34A~図34Cに示すように、選択画像表示部74の一部に色空間表示部78が設けられてもよい。また図34A~図34Cに示すように、色空間表示部78に表示される選択カーソル75によって対応位置が選択された画像(ベース画像又はブラケット画像)のみが選択画像表示部74に表示されてもよい。また図34A~図34Bに示すようにメイン画又はサブ画の分類情報が付されたベース画像及びブラケット画像のすべての色分布情報が色空間表示部78に表示されてもよいし、図34Cに示すようにベース画像及びブラケット画像のうち選択画像表示部74に表示されている画像の色分布情報のみが色空間表示部78に表示されてもよい。また図34Dに示すように、表示部8に複数の選択画像表示部74を設けて、ベース画像及びブラケット画像のうち複数の画像(すべての画像)が複数の選択画像表示部74の各々に表示されてもよい。この場合、選択カーソル75によって選択された画像(図34Dの「M」参照)に対応する選択画像表示部74の画像が、強調カーソル79等によって強調表示されてもよい。
 上述の表示部8における表示内容は、システム制御部25によって制御される表示制御部35が表示部8をコントロールすることで適宜切り換えられる。したがってシステム制御部25は、予め設定されたモードに応じて表示制御部35を制御し、表示部8の表示内容を適宜切り換えてもよい。またシステム制御部25は、ユーザによってユーザインタフェース36を介して入力される操作信号に応じて表示制御部35を制御し、表示部8上の表示(選択カーソル75等)を移動させたり切り換えたりできる。
 <第11実施形態>
 本実施形態において、上述の実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、ベース画像及びブラケット画像のデータ保存手法及びデータ削除手法に関する。以下に説明する本実施形態のデータ保存手法及びデータ削除手法は、ベース画像及びブラケット画像にメイン画又はサブ画の分類情報を付加することによってベース画像とブラケット画像とが相互に関連付けられてメインメモリ(画像記憶部)10に記憶される場合に適用される。以下のデータ保存手法及びデータ削除手法は、上述の実施形態によってメイン画及びサブ画の分類情報がベース画像及びブラケット画像に割り当てられる場合だけではなく、他のホワイトバランスブラケティング手法に基づいてメイン画及びサブ画の分類情報がベース画像及びブラケット画像に割り当てられる場合にも適用可能である。
 本実施形態では、ベース画像及びブラケット画像のうちサブ画の分類情報が付加された画像データが、撮影時から或いは分類情報の変更時から、ある時間(例えば1週間)以上経過した後に記録媒体(メインメモリ10)から自動的に消去される。
 本実施形態のシステム構成は、上述の第10実施形態(図29参照)とほぼ同じである。ただし本実施形態の記憶制御部33は、ベース画像及び/又はブラケット画像の作成時からの時間が第1の時間よりも長い場合に、ベース画像及びブラケット画像のうちサブ画の分類情報が付加された画像をメインメモリ(画像記憶部)10から削除する。また記憶制御部33は、分類情報書換部72によってベース画像及びブラケット画像のうち少なくともいずれか1つの分類情報が書き換えられた場合には、その分類情報の書き換え時からの時間が第2の時間よりも長い場合に、ベース画像及びブラケット画像のうちサブ画の分類情報が付加された画像をメインメモリ10から削除する。
 本実施形態の記憶制御部33は、クロックデバイス34から得られる日時情報と、メインメモリ10に記憶されているベース画像及びブラケット画像のうちメイン画の分類情報が付加された画像の編集日時情報(更新日時情報)とに基づいて、サブ画の分類情報が付加された画像をメインメモリ10から削除する。クロックデバイス34から得られる日時情報と、メインメモリ10に記憶されているベース画像及びブラケット画像のうちメイン画の分類情報が付加された画像の編集日時情報とは、システム制御部25によって取得される。ここでいう編集日時情報は、分類情報の書き換えが行われていない場合にはベース画像及びブラケット画像の作成日時を示し、分類情報の書き換えが行われた場合には分類情報の最新の書き換え日時を示す。
 なお「ベース画像及びブラケット画像の作成時に関する日時情報」と「分類情報の書き換え時に関する日時情報」とは、別々のデータとして保存されてもよいし、両日時情報が「更新日時情報」という単一のデータとして保存されてもよい。また上述の「第1の時間」及び「第2の時間」は任意の時間であり、第1の時間及び第2の時間は同じであってもよいし、異なっていてもよい。
 本実施形態のシステム制御部25及び記憶制御部33は、ユーザが電源スイッチ7を操作して電源がオンにされた場合に、上述の画像削除に関する一連の処理を行う。
 図35は、ベース画像及びブラケット画像の作成時からの時間に基づいて画像を削除する処理の一例を示すフローチャートである。
 本例では、まず電源スイッチ7(ユーザインタフェース36)を介して電源オンにされたか否かが、システム制御部25によって判定される(図35のS160)。
 電源がオンである場合(S160のYes)、サブ画の分類情報が付加された画像データ(画像情報データ83;図25~図27参照)がメインメモリ10に保存されているか否かが、記憶制御部33を介してシステム制御部25により判定される(S161)。この判定は任意の手法で行われ、例えば記憶制御部33は、メインメモリ10に記憶されている画像データのメタデータのみを読み出して、システム制御部25はメインメモリ10にサブ画の分類情報が付加された画像データが保存されているか否かを判定してもよい。
 サブ画の分類情報が付加された画像データがメインメモリ10に保存されていると判定される場合(S161のYes)、システム制御部25によって、そのサブ画の分類情報を持つ画像データの作成日時に関する日時情報が記憶制御部33を介して取得され(S162)、またクロックデバイス34から現在日時に関する日時情報が取得される(S163)。
 そして、現在日時が、そのサブ画の分類情報が付加された画像データの作成日時から第1の時間以上経過しているか否かが、システム制御部25によって判定される(S164)。現在日時がその作成日時より第1の時間以上経過していると判定される場合(S164のYes)、記憶制御部33はシステム制御部25の制御下で、そのサブ画の分類情報が付加された画像データをメインメモリ10から削除する(S165)。
 なお電源がオフの場合(S160のNo)、サブ画の分類情報が付加された画像がメインメモリ10に保存されていない場合(S161のNo)及び現在日時が画像データの作成日時より第1の時間以上経過していない場合(S164のNo)は、メインメモリ10に記憶されている画像の削除処理は行われない。
 図36は、分類情報の書き換え時からの時間に基づいて画像を削除する処理の一例を示すフローチャートである。
 図36に示す例では、図35に示す例(図35のS160及びS161)と同様の手順で、電源のオン及びオフが判定され(図36のS170)、メインメモリ10にサブ画の分類情報が付加された画像が保存されているか否かが判定される(S171)。
 電源がオンであり(S170のYes)、サブ画の分類情報が付加された画像がメインメモリ10に保存されていると判定される場合(S171のYes)、システム制御部25によって、そのサブ画の分類情報を持つ画像データの分類情報の書き換え最新日時に関する日時情報が記憶制御部33を介して取得され(S172)、またクロックデバイス34から現在日時に関する日時情報が取得される(S173)。
 そして、現在日時が「そのサブ画の分類情報を持つ画像データの分類情報の書き換え最新日時」より第2の時間以上経過しているか否かが、システム制御部25によって判定される(S174)。現在日時がその書き換え最新日時より第2の時間以上経過していると判定される場合(S174のYes)、記憶制御部33はシステム制御部25の制御下で、そのサブ画の分類情報が付加された画像データをメインメモリ10から削除する(S175)。
 なお電源がオフの場合(S170のNo)、サブ画の分類情報が付加された画像がメインメモリ10に保存されていない場合(S171のNo)及び現在日時が画像データの書き換え最新日時より第2の時間以上経過していない場合(S174のNo)は、メインメモリ10に記憶されている画像の削除処理は行われない。
 図37は、「ベース画像及びブラケット画像の作成時からの時間」及び「分類情報の書き換え時からの時間」に基づいて画像を削除する処理の一例を示すフローチャートである。
 本例では、図35及び図36に示す例と同様に、電源のオン及びオフが判定され(図37のS180)、メインメモリ10にサブ画の分類情報が付加された画像が保存されているか否かが判定される(S181)。
 電源がオンであり(S180のYes)、メインメモリ10にサブ画の分類情報が付加された画像が保存されていると判定される場合(S181のYes)、システム制御部25は、そのサブ画の分類情報の書き換えがあったか否かを、記憶制御部33を介して判定する(S182)。
 サブ画の分類情報の書き換えがあったと判定される場合(S182のYes)、図36に示す例(図36のS172~S175)と同様の手順で処理が行われる。すなわち、分類情報の書き換え最新日時が取得され(S183)、現在日時が取得され(S184)、現在日時がその書き換え最新日時より第2の時間以上経過していると判定される場合(S185のYes)、記憶制御部33はシステム制御部25の制御下で、そのサブ画の分類情報が付加された画像データを削除する(S186)。
 一方、サブ画の分類情報の書き換えがなかったと判定される場合も(S182のNo)、図35に示す例(図35のS162~S165)と同様の手順で処理が行われる。すなわち、そのサブ画の分類情報が付加された画像データの作成日時に関する日時情報が取得され(S187)、現在日時が取得され(S188)、現在日時がその作成日時より第1の時間以上経過していると判定される場合(S189のYes)、記憶制御部33はシステム制御部25の制御下で、そのサブ画の分類情報が付加された画像データを削除する(S186)。
 なお電源がオフの場合(S180のNo)、サブ画の分類情報が付加された画像がメインメモリ10に保存されていない場合(S181のNo)、現在日時が画像データの作成日時より第1の時間以上経過していない場合(S189のNo)及び現在日時が画像データの書き換え最新日時より第2の時間以上経過していない場合(S185のNo)は、メインメモリ10に記憶されている画像の削除処理は行われない。
 以上説明したように本実施形態によれば、メインメモリ10の記憶容量の浪費を効果的に防ぐことができる。
 例えば上述の各実施形態で作成された「同一の入力画像データから作成される複数の画像(ベース画像及びブラケット画像)」のすべてをメインメモリ10に記録すると、撮影シーン毎の記録枚数及び記録データ量が増え、記録媒体の記憶可能容量が浪費される。
 しかしながら本実施形態によれば、画像作成日時又は分類情報の書き換え日時から時間(第1の時間又は第2の時間)が経過すると、サブ画の分類情報が付加された画像データがメインメモリ10から削除される。すなわち、1つの入力画像データに基づいて作成されたベース画像及びブラケット画像のうちメイン画の分類情報が割り当てられた1つの画像以外は、時間経過に伴って削除される。これによりメインメモリ10の記憶容量の浪費が防がれ、より多くの撮影シーンの画像をメインメモリ10に保存することが可能になる。
 <他の変形例>
 なお上述の実施形態及び変形例のうち任意の形態同士が組み合わされてもよい。また上述の実施形態は例示に過ぎず、他の構成に対しても本発明を適用することが可能である。
 <カスタムホワイトバランスモード>
 例えば上述の実施形態では、カスタムホワイトバランスモードにおいて、ベース画像用ホワイトバランスゲインのみが事前に取得されて制御メモリ30に記憶されているが、ブラケット画像用ホワイトバランスゲインも事前に取得されて制御メモリ30に記憶されていてもよい。
 図38は、カスタムホワイトバランスモードにおけるベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインの取得例を示すフローチャートである。
 ホワイトバランスの設定モードとしてカスタムホワイトバランスモードが設定された場合、所望画像の撮影に先立って、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインを取得するための前処理がホワイトバランス画像処理部40(図5参照)において行われてもよい。
 この前処理では、ユーザが無彩色(白又はグレー)の被写体を撮影して撮像素子21から出力される画像データが、画像データ取得部44によって入力画像データとして取得される(図38のS190)。この入力画像データの色分布情報が色分布取得部46によって取得され(S191)、この色分布情報に基づいてベース画像用ホワイトバランスゲインがベースWBゲイン設定部50によって取得される(S192)。そして、ベース画像用ホワイトバランスゲイン及び色分布情報に基づいてブラケット画像用ホワイトバランスゲインがブラケットWBゲイン設定部52によって取得される(S193)。取得されたベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインは、ベースWBゲイン設定部50及びブラケットWBゲイン設定部52の各々からシステム制御部25に送られ、システム制御部25によって制御メモリ30に記憶される(S194)。
 なお、本例における「ブラケットWBゲイン設定部52によるブラケット画像用ホワイトバランスゲイン」の取得は、上述の各実施形態におけるブラケットWBゲイン設定部52と同様の手順で実行しうる。また上述の第8実施形態と同様に、「フラッシュ影響度」に基づいて、制御メモリ30に予め保存しておくベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインが取得されてもよい。
 <サーバ又はコンピュータにおけるホワイトバランス処理>
 上述の実施形態ではデジタルカメラ2においてホワイトバランス処理が行われる例について説明したが、サーバやコンピュータにおいて上述の各実施形態と同様の処理が行われてもよい。
 図39は、RAW形式の画像データを出力するデジタルカメラ2の機能構成例のブロック図である。例えば図3に示すシステム構成を有するデジタルカメラ2において、撮像素子21から出力されてプロセス処理部22及びAD変換部23を経た入力画像データ(RAWデータ)は、画像処理部31のホワイトバランス画像処理部40においてホワイトバランスゲインが取得される。ただし本例では、この取得されたホワイトバランスゲインは、入力画像データ(RAWデータ)に適用されず、入力画像データに付加される。
 すなわちベースWBゲイン設定部50及びブラケットWBゲイン設定部52は、上述の各実施形態と同様の処理を行い、入力画像データの色分布情報及び/又は入力画像データのフラッシュ影響度に基づいて、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインを取得する。ただしWB処理部54は、ホワイトバランスゲインを入力画像データに適用するホワイトバランス処理は行わず、取得した「ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲイン」を「入力画像データ(RAWデータ)」に付加してRAWファイルデータ80を作成する。このRAWファイルデータ80は、入力画像データ(RAWデータ)に関するRAW画像部81と、ベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインに関するWBゲイン情報部82とを含む。
 画像処理部31から出力されるRAWファイルデータ80はバッファメモリ24に保存され、バッファメモリ24に保存されたRAWファイルデータ80は圧縮伸張部32によって圧縮処理が行われて、記憶制御部33によってメインメモリ10に記憶される。
 なお上述の例ではWB処理部54によってRAWファイルデータ80が作成されるが、他の処理部においてRAWファイルデータ80が作成されてもよく、例えばシステム制御部25によって制御される記憶制御部33によってRAWファイルデータ80が作成されてもよい。この場合、RAW画像部81を構成するRAW画像データは圧縮伸張部32から記憶制御部33に送信される。またWBゲイン情報部82を構成するベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインは、制御メモリ30に記憶されており、システム制御部25から記憶制御部33に送信される。
 図40は、デジタルカメラ2に接続されるサーバ90及びコンピュータ94を示すブロック図である。デジタルカメラ2は、デジタルカメラ接続部89及びサーバ接続部91を介してサーバ90に接続可能であってもよいし、デジタルカメラ接続部89及びコンピュータ接続部95を介してコンピュータ94に接続可能であってもよい。これらの接続態様は特に限定されず、有線接続であってもよいし、無線接続であってもよい。
 システム制御部25は、メインメモリ10に記憶されている上述のRAWファイルデータ80を、記憶制御部33を介して読み出して、デジタルカメラ接続部89から出力する。デジタルカメラ接続部89から出力されたRAWファイルデータ80は、サーバ接続部91を介してサーバ90によって受信されてサーバコントロールシステム92に送られ、或いはコンピュータ接続部95を介してコンピュータ94によって受信されてコンピュータコントロールシステム96に送られる。サーバコントロールシステム92及びコンピュータコントロールシステム96は、RAWファイルデータ80に含まれるWBゲイン情報部82が示すベース画像用ホワイトバランスゲイン及びブラケット画像用ホワイトバランスゲインをRAW画像部81が示す画像データに適用することで、ベース画像及びブラケット画像を取得することが可能である。
 なお上述の各機能構成は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって実現可能である。例えば、上述の各装置及び処理部(ホワイトバランス画像処理部40等)における画像処理方法(画像処理手順)をコンピュータに実行させるプログラム、そのプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのプログラムをインストール可能なコンピュータに対しても本発明を適用することができる。
 また、本発明を適用可能な態様はデジタルカメラ及びコンピュータ(サーバ)には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
 <スマートフォンの構成>
 図41は、スマートフォン101の外観を示す図である。図41に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となった表示入力部120を備える。また、係る筐体102は、スピーカ131と、マイクロホン132、操作部140と、カメラ部141とを備える。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成が採用されてもよいし、折り畳み構造やスライド機構を有する構成が採用されてもよい。
 図42は、図41に示すスマートフォン101の構成を示すブロック図である。図42に示すように、スマートフォンの主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部100の指示に従って、移動通信網に収容された基地局装置に対し無線通信を行うものである。係る無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部120は、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル121と、操作パネル122とを備える。
 表示パネル121は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル122は、表示パネル121の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 図41に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成しているが、操作パネル122が表示パネル121を完全に覆うような配置となっている。係る配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部130は、スピーカ131やマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力し、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力するものである。また、図41に示すように、例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図41に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152により構成される。なお、記憶部150を構成するそれぞれの内部記憶部151と外部記憶部152は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン101に連結されるすべての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth(登録商標))、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン101に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA及び有/無線接続されるイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達することや、スマートフォン101の内部のデータが外部機器に伝送されるようにしてもよい。
 GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度、高度からなる位置を検出する。GPS受信部170は、無線通信部110や外部入出力部160(例えば、無線LAN)から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。係る検出結果は、主制御部100に出力されるものである。
 電源部190は、主制御部100の指示に従って、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御するものである。また、主制御部100は、無線通信部110を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部160を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部120に表示する機能のことをいう。
 さらに、主制御部100は、表示パネル121に対する表示制御と、操作部140、操作パネル122を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示し、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 さらに、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)か、それ以外の表示パネル121に重ならない外縁部分(非表示領域)かを判定し、操作パネル122の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、CMOSなどの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEGなどの圧縮した画像データに変換し、記憶部150に記録し、外部入出力部160や無線通信部110を通じて出力することができる。図41に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120の背面に搭載されてもよいし、或いは、複数のカメラ部141が搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り換えて単独にて撮影してもよいし、或いは、複数のカメラ部141を同時に使用して撮影してもよい。
 また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、表示パネル121にカメラ部141で取得した画像を表示することや、操作パネル122の操作入力の1つとして、カメラ部141の画像を利用することができる。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像を参照して位置を検出することもできる。さらには、カメラ部141からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部170により取得した位置情報、マイクロホン132により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部180により取得した姿勢情報等などを付加して記憶部150に記録し、外部入出力部160や無線通信部110を通じて出力することもできる。
 上述の画像処理部31(ホワイトバランス画像処理部40;図3参照)は、例えば主制御部100によって実現可能である。
 2…デジタルカメラ、3…カメラ本体、4…レンズ鏡筒、5…フラッシュ発光部、6…シャッタボタン、7…電源スイッチ、8…表示部、9…操作部、10…メインメモリ、12…レンズ部、20…メカニカルシャッタ、21…撮像素子、22…プロセス処理部、23…AD変換部、24…バッファメモリ、25…システム制御部、26…シャッタ駆動部、27…レンズ駆動部、28…電源制御部、29…電源、30…制御メモリ、31…画像処理部、32…圧縮伸張部、33…記憶制御部、34…クロックデバイス、35…表示制御部、36…ユーザインタフェース、40…ホワイトバランス画像処理部、41…第1ゲイン取得部、42…第2ゲイン取得部、44…画像データ取得部、46…色分布取得部、48…WB設定判別部、50…ベースWBゲイン設定部、52…ブラケットWBゲイン設定部、54…WB処理部、55…WB演算処理部、56…光源色推定部、57…情報付加部、58…光源色特性取得部、60…黒体特性記憶部、62…彩度特定部、64…フラッシュ特定部、66…ブラケット判定部、68…ブラケットデータ記憶部、72…分類情報書換部、74…選択画像表示部、75…選択カーソル、76…縮小画像、77…分類表示部、78…色空間表示部、79…強調カーソル、80…RAWファイルデータ、81…RAW画像部、82…WBゲイン情報部、83…画像情報データ、84…画像データ部、85…分類情報部、86…グループ情報部、87…ファイルデータ、89…デジタルカメラ接続部、90…サーバ、91…サーバ接続部、92…サーバコントロールシステム、94…コンピュータ、95…コンピュータ接続部、96…コンピュータコントロールシステム、100…主制御部、101…スマートフォン、102…筐体、110…無線通信部、120…表示入力部、121…表示パネル、122…操作パネル、130…通話部、131…スピーカ、132…マイクロホン、140…操作部、141…カメラ部、150…記憶部、151…内部記憶部、152…外部記憶部、160…外部入出力部、170…GPS受信部、180…モーションセンサ部、190…電源部

Claims (32)

  1.  ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得する画像処理装置であって、
     入力画像データの色分布情報を取得する色分布取得部と、
     前記ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する第1ゲイン取得部と、
     前記色分布情報に基づいて、前記ベース画像用ホワイトバランスゲインを基準に、前記ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する第2ゲイン取得部とを備える画像処理装置。
  2.  前記第2ゲイン取得部は、前記色分布情報に基づいて色空間上でのブラケット方向を決定し、前記ベース画像用ホワイトバランスゲインを基準に当該ブラケット方向に基づいて前記ブラケット画像用ホワイトバランスゲインを取得する請求項1に記載の画像処理装置。
  3.  前記第2ゲイン取得部は、前記色分布情報に基づいてブラケット量の絶対値を決定し、前記ベース画像用ホワイトバランスゲインを基準に当該ブラケット量の絶対値に基づいて前記ブラケット画像用ホワイトバランスゲインを取得する請求項1又は2に記載の画像処理装置。
  4.  前記第2ゲイン取得部は、前記色分布情報から光源色を推定し、当該色分布情報から推定される光源色に応じて、前記ブラケット画像用ホワイトバランスゲインを取得する請求項1~3のいずれか一項に記載の画像処理装置。
  5.  前記第2ゲイン取得部は、前記色分布情報から推定される前記光源色の相関色温度に応じて、前記ブラケット画像用ホワイトバランスゲインを取得する請求項4に記載の画像処理装置。
  6.  前記第2ゲイン取得部は、前記色分布情報から推定される前記光源色の相関色温度に応じてブラケット量の絶対値を決定し、当該ブラケット量の絶対値に基づいて前記ブラケット画像用ホワイトバランスゲインを取得する請求項5に記載の画像処理装置。
  7.  前記第2ゲイン取得部は、色空間上における黒体放射特性と前記色分布情報から推定される前記光源色との距離に応じて前記ブラケット画像用ホワイトバランスゲインを取得する請求項5又は6に記載の画像処理装置。
  8.  前記第2ゲイン取得部は、前記黒体放射特性と前記色分布情報から推定される前記光源色との前記距離が小さいほど色空間上でのブラケット方向をアンバー・ブルー方向に近づけ、前記距離が大きいほど色空間上での前記ブラケット方向をグリーン・マゼンタ方向に近づけて前記ブラケット画像用ホワイトバランスゲインを取得する請求項7に記載の画像処理装置。
  9.  前記第2ゲイン取得部は、前記色分布情報から推定される前記光源色と前記ベース画像用ホワイトバランスゲインとに基づいて前記ベース画像の彩度情報を取得し、当該彩度情報に基づいて前記ブラケット画像用ホワイトバランスゲインを取得する請求項4に記載の画像処理装置。
  10.  前記第2ゲイン取得部は、無彩色に対する前記ベース画像の相対的な彩度に基づいて前記彩度情報を取得し、当該彩度情報に基づいてブラケット量の絶対値を決定し、前記ベース画像用ホワイトバランスゲインを基準に当該ブラケット量の絶対値に基づいて前記ブラケット画像用ホワイトバランスゲインを取得する請求項9に記載の画像処理装置。
  11.  前記ベース画像及び前記ブラケット画像のうち少なくとも1つを表示する表示部の表示特性情報を取得する表示特性取得部を更に備え、
     前記第2ゲイン取得部は、
     前記表示特性取得部から取得した前記表示特性情報に基づいて表示無彩色情報を取得し、
     前記表示無彩色情報から得られる表示無彩色に対する前記ベース画像の相対的な彩度に基づいて前記彩度情報を取得し、
     当該彩度情報に基づいてブラケット量の絶対値を決定し、前記ベース画像用ホワイトバランスゲインを基準に当該ブラケット量の絶対値に基づいて前記ブラケット画像用ホワイトバランスゲインを取得する請求項9に記載の画像処理装置。
  12.  前記第2ゲイン取得部は、前記彩度情報に基づいて、無彩色と前記ベース画像との彩度の差が大きいほど前記ブラケット量の絶対値を大きくして前記ブラケット画像用ホワイトバランスゲインを取得する請求項10又は11に記載の画像処理装置。
  13.  ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得する画像処理装置であって、
     前記ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する第1ゲイン取得部と、
     前記ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する第2ゲイン取得部と、
     入力画像データにおけるフラッシュの影響度を示すフラッシュ影響度を取得するフラッシュ特定部とを備え、
     前記第1ゲイン取得部は、前記フラッシュ影響度に基づいて前記ベース画像用ホワイトバランスゲインを取得し、
     前記第2ゲイン取得部は、前記ベース画像用ホワイトバランスゲインの取得に用いる前記フラッシュ影響度とは異なるフラッシュの影響度に基づいて前記ブラケット画像用ホワイトバランスゲインを取得する画像処理装置。
  14.  前記第2ゲイン取得部は、色分布情報と前記ブラケット画像の作成の要否との関係を定めるブラケティング要否データを参照して、前記入力画像データの色分布情報に基づき前記ブラケット画像の作成の要否を決定し、前記ブラケット画像の作成が必要であると決定された場合は前記ブラケット画像用ホワイトバランスゲインを取得し、前記ブラケット画像の作成が不要であると決定された場合は前記ブラケット画像用ホワイトバランスゲインを取得しない請求項1~13のいずれか一項に記載の画像処理装置。
  15.  前記原画像データに前記ベース画像用ホワイトバランスゲインを適用して前記ベース画像を得て、前記原画像データに前記ブラケット画像用ホワイトバランスゲインを適用して前記ブラケット画像を得るホワイトバランス処理部を更に備える請求項1~14のいずれか一項に記載の画像処理装置。
  16.  前記ホワイトバランス処理部は、前記ベース画像に対してメイン画であることを示す分類情報を付加し、前記ブラケット画像に対してサブ画であることを示す分類情報を付加する請求項15に記載の画像処理装置。
  17.  表示部と、
     前記表示部を制御し、前記ベース画像及び前記ブラケット画像のうち少なくとも1つの画像を前記表示部に表示させる表示制御部とを更に備える請求項16に記載の画像処理装置。
  18.  前記表示制御部は、前記ベース画像及び前記ブラケット画像のうち少なくとも前記メイン画の分類情報が付加されている画像を前記表示部に表示させる請求項17に記載の画像処理装置。
  19.  前記ベース画像及び前記ブラケット画像に付加されている分類情報の決定指示がユーザによって入力される指示受付部と、
     前記指示受付部に入力された前記決定指示に基づいて、前記ベース画像及び前記ブラケット画像に付加されている分類情報を書き換え可能な分類情報書換部とを更に備える請求項16~18のいずれか一項に記載の画像処理装置。
  20.  前記ベース画像と前記ブラケット画像とを相互に関連付けて記憶する画像記憶部を更に備える請求項15~19のいずれか一項に記載の画像処理装置。
  21.  前記ベース画像と前記ブラケット画像とを相互に関連付けて記憶する画像記憶部と、
     前記ベース画像の作成時からの時間が第1の時間よりも長い場合に、前記ベース画像及び前記ブラケット画像のうち前記サブ画の分類情報が付加された画像を前記画像記憶部から削除する記憶制御部と、を更に備える請求項16~19のいずれか一項に記載の画像処理装置。
  22.  前記ベース画像と前記ブラケット画像とを相互に関連付けて記憶する画像記憶部と、
     前記分類情報書換部によって前記ベース画像及び前記ブラケット画像のうち少なくともいずれか一つの分類情報が書き換えられた場合には、当該分類情報の書き換え時からの時間が第2の時間よりも長い場合に、前記ベース画像及び前記ブラケット画像のうち前記サブ画の分類情報が付加された画像を前記画像記憶部から削除する記憶制御部と、を更に備える請求項19に記載の画像処理装置。
  23.  前記表示制御部は、色空間座標を前記表示部に表示させて、前記ベース画像及び前記ブラケット画像のうち前記表示部に表示させる画像の少なくともいずれかの色分布情報を前記表示部に表示される前記色空間座標上に表す請求項17又は18に記載の画像処理装置。
  24.  前記表示制御部は、前記ベース画像及び前記ブラケット画像のうちメイン画の分類情報が付加された画像の色分布情報を前記表示部に表示される前記色空間座標上に表す請求項23に記載の画像処理装置。
  25.  前記表示制御部は、前記ベース画像及び前記ブラケット画像の各々を経時的に順次、前記表示部の同じ領域に表示させる請求項17又は18に記載の画像処理装置。
  26.  前記第1ゲイン取得部は、設定モードに応じて、前記ベース画像用ホワイトバランスゲインを取得する請求項1~25のいずれか一項に記載の画像処理装置。
  27.  前記設定モードは、前記ベース画像用ホワイトバランスゲインが予め定められているプリセットホワイトバランスモード、前記入力画像データの色分布情報に基づいて当該入力画像データに適用される前記ベース画像用ホワイトバランスゲインが決定されるオートホワイトバランスモード、及び前記入力画像データの色分布情報に基づいて当該入力画像データとは異なる原画像データに適用される前記ベース画像用ホワイトバランスゲインが決定されるカスタムホワイトバランスモードのうちのいずれかである請求項26に記載の画像処理装置。
  28.  前記設定モードが、前記入力画像データの色分布情報に基づいて当該入力画像データに適用される前記ベース画像用ホワイトバランスゲインが決定されるオートホワイトバランスモードの場合、
     前記第1ゲイン取得部は、前記入力画像データの前記色分布情報に基づいて前記ベース画像用ホワイトバランスゲインを取得し、
     前記第2ゲイン取得部は、前記第1ゲイン取得部が前記ベース画像用ホワイトバランスゲインの取得の基礎に用いた前記色分布情報に基づいて、前記ブラケット画像用ホワイトバランスゲインを取得する請求項26又は27に記載の画像処理装置。
  29.  被写体像を受光して画像データを生成する撮像素子と、
     前記撮像素子が生成する画像データを入力画像データとして用いる請求項1~28のいずれか一項に記載の画像処理装置とを備える撮像装置。
  30.  ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得する画像処理方法であって、
     入力画像データの色分布情報を取得し、
     前記ベース画像を得るためのベース画像用ホワイトバランスゲインを取得し、
     前記色分布情報に基づいて、前記ベース画像用ホワイトバランスゲインを基準に、前記ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する画像処理方法。
  31.  ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得するプログラムであって、
     入力画像データの色分布情報を取得する手順と、
     前記ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する手順と、
     前記色分布情報に基づいて、前記ベース画像用ホワイトバランスゲインを基準に、前記ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する手順と、をコンピュータに実行させるためのプログラム。
  32.  ベース画像及びブラケット画像を得るために原画像データに適用されるホワイトバランスゲインを取得するプログラムであって、
     入力画像データの色分布情報を取得する手順と、
     前記ベース画像を得るためのベース画像用ホワイトバランスゲインを取得する手順と、
     前記色分布情報に基づいて、前記ベース画像用ホワイトバランスゲインを基準に、前記ブラケット画像を得るためのブラケット画像用ホワイトバランスゲインを取得する手順と、をコンピュータに実行させるためのプログラムを記録した非一時的なコンピュータ読み取り可能な記録媒体。
PCT/JP2014/084072 2014-02-07 2014-12-24 画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体 WO2015118788A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201480074484.2A CN105940673B (zh) 2014-02-07 2014-12-24 图像处理装置及图像处理方法
JP2015561184A JP6195633B2 (ja) 2014-02-07 2014-12-24 画像処理装置及び画像処理方法
US15/185,368 US10070112B2 (en) 2014-02-07 2016-06-17 Image processing device, imaging device, image processing method, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-022615 2014-02-07
JP2014022615 2014-02-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/185,368 Continuation US10070112B2 (en) 2014-02-07 2016-06-17 Image processing device, imaging device, image processing method, program, and recording medium

Publications (1)

Publication Number Publication Date
WO2015118788A1 true WO2015118788A1 (ja) 2015-08-13

Family

ID=53777604

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/084072 WO2015118788A1 (ja) 2014-02-07 2014-12-24 画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体

Country Status (4)

Country Link
US (1) US10070112B2 (ja)
JP (1) JP6195633B2 (ja)
CN (1) CN105940673B (ja)
WO (1) WO2015118788A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6063093B2 (ja) * 2014-03-31 2017-01-18 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6778602B2 (ja) 2016-12-14 2020-11-04 三星電子株式会社Samsung Electronics Co.,Ltd. 撮像装置、画像データ生成方法および画像データ生成プログラム
CN106488140B (zh) * 2016-12-30 2019-06-07 维沃移动通信有限公司 一种相机拍摄参数的设置方法及移动终端
CN107370910B (zh) * 2017-08-04 2019-09-24 西安邮电大学 基于最优曝光的最小包围曝光集合获取方法
CN111567038B (zh) * 2017-12-05 2022-04-08 株式会社尼康 摄像装置、电子设备以及记录介质
CN110121064B (zh) * 2019-05-15 2021-07-30 深圳市道通智能航空技术股份有限公司 一种图像色彩调节方法、装置及无人机
CN111918004B (zh) * 2020-09-16 2023-07-04 Oppo广东移动通信有限公司 图像传感器、终端、数据处理方法、装置及存储介质
TWI763074B (zh) * 2020-10-12 2022-05-01 宏碁股份有限公司 動態調整顯示螢幕色彩的方法
CN114845094B (zh) * 2022-07-06 2022-09-30 深圳思谋信息科技有限公司 色彩校正方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333432A (ja) * 2000-03-15 2001-11-30 Asahi Optical Co Ltd 電子スチルカメラ
JP2002152772A (ja) * 2000-08-28 2002-05-24 Fuji Photo Film Co Ltd ホワイトバランス補正装置及びホワイトバランス補正方法と濃度補正方法並びにこれらの方法を実行するためのプログラムを記録した記録媒体
JP2006020194A (ja) * 2004-07-05 2006-01-19 Canon Inc 撮像装置
JP2009213150A (ja) * 2007-01-15 2009-09-17 Panasonic Corp 撮像装置
JP2010187113A (ja) * 2009-02-10 2010-08-26 Nikon Corp 撮像装置およびホワイトバランスブラケティング撮影プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010030694A1 (en) * 2000-03-15 2001-10-18 Asahi Kogaku Kogyo Kabushiki Kaisha Digital still camera performing white balance adjustment
JP4499258B2 (ja) * 2000-08-04 2010-07-07 オリンパス株式会社 電子カメラ
JP4940506B2 (ja) 2001-04-06 2012-05-30 ソニー株式会社 カメラの連続撮影方法及びカメラ
GB2379296B (en) * 2001-09-01 2005-05-25 Ibm A data storage system having a unified container layer for an active data store
US20040085459A1 (en) * 2002-02-12 2004-05-06 Nikon Corporation Image processing device, image processing program, and image processing method
US7679684B2 (en) * 2004-02-10 2010-03-16 Panasonic Corporation White balance adjusting device and video display device
JP4471373B2 (ja) * 2004-12-27 2010-06-02 キヤノン株式会社 撮像装置及びその制御方法
JP4475118B2 (ja) * 2004-12-28 2010-06-09 カシオ計算機株式会社 カメラ装置、ホワイトバランスブラケティング撮影方法
US8964054B2 (en) * 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
JP5305937B2 (ja) * 2009-01-16 2013-10-02 キヤノン株式会社 画像処理装置及び画像処理方法及びプログラム
US20110187891A1 (en) * 2010-02-04 2011-08-04 Buyue Zhang Methods and Systems for Automatic White Balance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333432A (ja) * 2000-03-15 2001-11-30 Asahi Optical Co Ltd 電子スチルカメラ
JP2002152772A (ja) * 2000-08-28 2002-05-24 Fuji Photo Film Co Ltd ホワイトバランス補正装置及びホワイトバランス補正方法と濃度補正方法並びにこれらの方法を実行するためのプログラムを記録した記録媒体
JP2006020194A (ja) * 2004-07-05 2006-01-19 Canon Inc 撮像装置
JP2009213150A (ja) * 2007-01-15 2009-09-17 Panasonic Corp 撮像装置
JP2010187113A (ja) * 2009-02-10 2010-08-26 Nikon Corp 撮像装置およびホワイトバランスブラケティング撮影プログラム

Also Published As

Publication number Publication date
CN105940673B (zh) 2017-11-24
CN105940673A (zh) 2016-09-14
US20160295189A1 (en) 2016-10-06
US10070112B2 (en) 2018-09-04
JPWO2015118788A1 (ja) 2017-03-23
JP6195633B2 (ja) 2017-09-13

Similar Documents

Publication Publication Date Title
JP6195633B2 (ja) 画像処理装置及び画像処理方法
JP6302554B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6063093B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US10021361B2 (en) Image processing device, imaging device, image processing method, and program
US10200663B2 (en) Image processing device, imaging device, image processing method, and program
JP6272486B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US9122098B2 (en) Image display device, photography device, image display system and method that adjusts display backlight luminance based on image tag information
JP6921972B2 (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法、およびプログラム
JP6911135B2 (ja) 撮像装置、撮像方法、およびプログラム
JP2016144006A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム及び記録媒体
JP7191980B2 (ja) 撮像装置、撮像方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14881711

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015561184

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14881711

Country of ref document: EP

Kind code of ref document: A1