WO2015151748A1 - 画像処理装置、撮像装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及びプログラム Download PDF

Info

Publication number
WO2015151748A1
WO2015151748A1 PCT/JP2015/057276 JP2015057276W WO2015151748A1 WO 2015151748 A1 WO2015151748 A1 WO 2015151748A1 JP 2015057276 W JP2015057276 W JP 2015057276W WO 2015151748 A1 WO2015151748 A1 WO 2015151748A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
white balance
light source
unit
gain
Prior art date
Application number
PCT/JP2015/057276
Other languages
English (en)
French (fr)
Inventor
慎也 藤原
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201580017415.2A priority Critical patent/CN106134189B/zh
Priority to JP2016511497A priority patent/JP6063093B2/ja
Publication of WO2015151748A1 publication Critical patent/WO2015151748A1/ja
Priority to US15/276,251 priority patent/US10298899B2/en
Priority to US16/374,839 priority patent/US20190230329A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Definitions

  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program, and more particularly to a multi-area white balance processing technique.
  • Multi-area white balance processing applies a different white balance gain (hereinafter referred to as “WB gain”) for each pixel or area constituting one image.
  • WB processing white balance processing
  • the hue (color balance) of each pixel (each area) can be adjusted even if the subject is irradiated with light from a plurality of light sources at different ratios for each pixel (each area). It can be corrected appropriately.
  • the person when shooting a night scene of a person with a flash, the person is imaged under the influence of flash light (for example, light that contains a lot of blue wavelengths), but the background (night scene) in the captured image is affected by the flash light.
  • the image is taken under the influence of other environmental light such as a sodium lamp (light containing a lot of red wavelengths).
  • WB processing in order to improve the hue (color balance) of the person image by WB processing, it is required to apply a WB gain that cancels the influence of the flash light to the person image, while the background hue (color balance) is changed.
  • it is required to apply a WB gain that cancels the influence of other ambient light to the background image. Therefore, when a common WB gain is applied to all the pixels constituting the image, it is difficult to achieve both a human hue (color balance) and a background hue (color balance).
  • the WB gain applied to the person portion included in one image and the WB gain applied to the background portion can be changed. Therefore, for example, by optimizing the WB gain to be applied for each pixel according to the amount of flash light reached, it is possible to achieve both the hue of the person (color balance) and the hue of the background (color balance).
  • Patent Document 1 discloses a white balance control device capable of suppressing variations in white balance control values calculated using color information obtained from a subject area.
  • This white balance control device detects a subject area from an image, divides the image into a plurality of areas, calculates color information representing a representative color of the area and determines a weight for each of the areas overlapping with the subject area. To do. Then, the white balance control device integrates each of the color information by applying the weight determined for the region overlapping with the subject region, and from the integration result of the color information and the predetermined target color information, A white balance control value is calculated such that the representative color becomes the target color.
  • Patent Document 2 discloses an imaging apparatus that can acquire an image adjusted to a color temperature desired by a user.
  • the WB gain for the background light is calculated based on the preliminary image captured with no flash emission, and the luminance of the main image captured with the flash emission is compared with the preliminary image immediately after capturing the preliminary image.
  • the WB gain for the subject light is calculated based on the image data of the region in the main image where the luminance difference exceeds the threshold value.
  • a plurality of WB gains having different values are calculated on the basis of the WB gain for the background light, the WB gain for the subject light, and the predetermined WB gain for the flash light, and the plurality of WB gains are calculated.
  • a plurality of bracket images having different color temperatures are generated.
  • WB gain may be stored along with image data to enable image white balance adjustment after image data is stored.
  • the imaging apparatus described in Patent Document 3 stores RAW image data of a main image together with supplementary information necessary for development processing in a storage medium, and performs auto white balance adjustment at the time of development processing of the RAW image data. Making it possible.
  • the user may desire to “correct only the person part in a slightly red direction”. In this case, if the white balance of the entire screen is shifted, not only the person portion but also the hue (color balance) of the background portion other than the person changes, so that the user's request cannot be satisfied.
  • the present invention has been made in view of the above circumstances, and provides a technique that enables white balance adjustment with a high degree of freedom even when multi-area WB processing is performed afterwards. With the goal.
  • One aspect of the present invention includes a light source type determination unit that determines the number and type of light sources of original image data, a gain acquisition unit that acquires a reference white balance gain determined for each type of light source of original image data, and an original image
  • a mixture ratio acquisition unit that acquires an influence rate for each type of light source for each pixel of data and acquires a mixture ratio of a reference white balance gain based on the influence rate; and a reference white balance gain and a mixture ratio as original image data
  • the present invention relates to an image processing apparatus comprising: a recording unit that associates and stores in a storage medium.
  • the reference white balance gain and the mixture ratio are stored in association with the original image data. Therefore, even when the original image data stored in the storage medium is read and the multi-area WB process is performed afterwards, the reference white balance gain and the mixing ratio are read out from the storage medium and used for appropriate multi-processing. Area WB processing can be performed. In addition, since the reference white balance gain and the mixing ratio can be adjusted when performing multi-area WB processing after the fact, it is possible to adjust the white balance with a high degree of freedom.
  • the light source type determination unit determines the light source of the original image data as flash light and environmental light
  • the gain acquisition unit determines a reference white balance gain for flash light determined when the flash light is used as the light source type, and the environment.
  • a reference white balance gain for ambient light determined when light is used as a light source type
  • the mixing ratio acquisition unit acquires the influence rate of each of flash light and ambient light for each pixel of the original image data, Based on the influence rate, the mixing ratio of the reference white balance gain for flash light and the reference white balance gain for ambient light is acquired, and the recording unit includes the reference white balance gain for flash light, the reference white balance gain for environmental light,
  • the mixing ratio is stored in the storage medium in association with the original image data.
  • multi-area WB processing can be appropriately performed afterwards with respect to original image data captured and acquired by emitting flash light, and white balance adjustment with a high degree of freedom can be performed. is there.
  • the image processing apparatus further includes a flash image acquisition unit that acquires flash emission image data captured by emitting a flash and flash non-emission image data captured without emitting the flash, and acquires a mixing ratio.
  • a flash light emission image data and a flash non-light emission image data to obtain an influence rate of each of flash light and ambient light, and based on the influence rate, a reference white balance gain for flash light and a reference white balance gain for environmental light Get the mixing ratio.
  • the multi-area WB process considering the influence rate of the flash light and the environmental light can be performed after the fact.
  • the mixture ratio acquisition unit acquires a first luminance value for each pixel of the flash non-emission image data, acquires a second luminance value for each pixel of the flash emission image data, An influence rate of each of the flash light and the environmental light is acquired based on the second luminance value, and a mixing ratio of the flash light reference white balance gain and the environmental light reference white balance gain is acquired based on the influence rate.
  • the flash light reference white balance gain and the ambient light reference white balance are based on the luminance values (first luminance value and second luminance value) of the flash emission image data and the flash non-emission image data.
  • the gain mixing ratio can be obtained with high accuracy.
  • the original image data is flash emission image data.
  • multi-area WB processing of flash emission image data can be performed afterwards.
  • the image processing apparatus further includes a light source type data acquisition unit that acquires first image data indicating the influence of the first light source type and acquires second image data indicating the influence of the second light source type.
  • the gain acquisition unit includes a reference white balance gain determined for the first light source type when the light source type of the original image data determined by the light source type determination unit includes the first light source type and the second light source type.
  • a reference white balance gain determined for the second light source type, and the mixture ratio acquisition unit determines the influence rate of the first light source type and the second light source type from the first image data and the second image data.
  • White balance gain, the second reference white balance gain and the mixing ratio is determined in light source type in the storage medium in association with the original image data.
  • the light source type determination unit determines the number and type of light sources of the original image data regardless of the white balance setting mode when the original image data is acquired, and the gain acquisition unit is determined for each type of light source.
  • the reference white balance gain is acquired, and the mixing ratio acquisition unit acquires the influence rate for each type of light source for each pixel of the original image data, acquires the mixing ratio of the reference white balance gain based on the influence rate, and records it.
  • the unit stores the reference white balance gain and the mixture ratio in the storage medium in association with the original image data.
  • the reference white balance gain and the mixture ratio are stored in the storage medium in association with the original image data. Therefore, the user can perform multi-area WB processing on the original image data afterwards regardless of the white balance setting mode when the original image data is acquired.
  • the image processing apparatus further includes a setting mode determination unit that determines a white balance setting mode when the original image data is acquired, and the white balance setting mode determined by the setting mode determination unit is the color of the original image data.
  • the light source type determination unit determines the number and type of light sources of the original image data, and the gain acquisition unit
  • the reference white balance gain determined for each light source type is acquired, and the mixture ratio acquisition unit acquires the influence rate for each light source type for each pixel of the original image data, and the reference white balance gain based on the influence rate
  • the recording unit records the reference white balance gain and the mixing ratio on the storage medium in association with the original image data.
  • the multi-area WB processing of the original image data can be performed afterwards only when the white balance setting mode when the original image data is acquired is the auto white balance mode.
  • the “auto white balance mode” here is a mode in which the white balance gain is determined by analyzing the original image data, and the method for determining the white balance gain is not particularly limited.
  • Another aspect of the present invention stores original image data, a reference white balance gain determined for each type of light source of the original image data, and a mixture ratio of reference white balance gains determined for each pixel of the original image data.
  • the present invention relates to an image processing apparatus comprising: a processing data acquisition unit that acquires from a medium; and a gain calculation unit that calculates an applied white balance gain from a reference white balance gain according to a mixing ratio for each pixel of original image data.
  • the applied white balance gain applied to the original image data can be accurately obtained, and the multi-area WB process can be performed on the original image data afterwards.
  • the reference white balance gain acquired by the processing data acquisition unit includes the flash light reference white balance gain determined when the flash light is used as the light source type and the environmental light determined when the ambient light is used as the light source type.
  • the mixing ratio acquired by the processing data acquisition unit is a mixing ratio of the flash light reference white balance gain and the ambient light reference white balance gain determined for each pixel of the original image data.
  • the gain calculating unit calculates an applied white balance gain according to the mixing ratio from the flash light reference white balance gain and the ambient light reference white balance gain for each pixel of the original image data.
  • the image processing apparatus includes a setting mode acquisition unit that acquires information on a white balance setting mode when the original image data is acquired, a processing mode acquisition unit that acquires information on the white balance processing mode of the original image data, And the gain calculation unit determines whether the white balance processing mode is the same as the white balance setting mode based on the white balance setting mode information and the white balance processing mode information.
  • the applied white balance gain is calculated based on the acquired reference white balance gain, and if it is determined that the white balance processing mode is different from the white balance setting mode, the reference white balance gain determined based on the white balance processing mode Get the standard white rose Calculating the applied white balance gain based on Sugein.
  • the “white balance processing mode” is determined by an arbitrary method, and the user may determine the white balance processing mode, or the image processing apparatus may determine the white balance processing mode based on various conditions.
  • the image processing apparatus acquires a light source type specifying unit that receives a light source type specified by a user, and a specified gain acquisition that acquires a reference white balance gain determined by the light source type specified by the user received by the light source type specifying unit.
  • a gain calculating unit that replaces at least part of the reference white balance gain determined for each light source type of the original image data with the reference white balance gain acquired by the designated gain acquisition unit, The applied white balance gain is calculated according to the ratio.
  • the image processing apparatus further includes a white balance processing unit that applies the applied white balance gain to the original image data to acquire white balance adjusted image data.
  • the image processing apparatus further includes a display control unit and a display unit controlled by the display control unit, and the display control unit displays an image based on the white balance adjustment image data on the display unit.
  • the user can easily check the image based on the white balance adjustment image data via the display unit.
  • the display control unit is connected to an operation unit operated by a user, causes the display unit to display a light source display indicating the type of light source of the original image data, and when there are a plurality of light source types of the original image data.
  • a plurality of light source displays provided for each type of light source are displayed on the display unit and a plurality of light source displays are displayed on the display unit, any one of the plurality of light source displays is selected according to a user operation via the operation unit.
  • a part or all of the image displayed on the display unit is highlighted according to the influence rate of the light source corresponding to the light source display specified via the operation unit.
  • the user can easily confirm the magnitude of the influence rate of the desired light source by highlighting the image displayed on the display unit.
  • the display control unit has an influence rate of the light source corresponding to the light source display designated by the user via the operation unit among the pixels of the image, and an influence rate of another type of light source among the light sources of the original image data. Higher pixels are highlighted on the display unit.
  • the user can easily confirm an image portion in which the influence rate of the desired light source is larger than the influence rates of the other light sources by highlighting the image displayed on the display unit.
  • a display control part highlights on a display part the pixel whose influence rate of the light source corresponding to the light source display designated via the operation part by the user is higher than a 1st rate among the pixels of an image. .
  • the user can easily confirm an image portion having a large influence rate of the desired light source by highlighting the image displayed on the display unit.
  • the “first rate” here is not particularly limited, and may be a predetermined value such as “50%”, but may be adaptively determined according to the number and type of light sources of the original image data. Good.
  • the image processing apparatus further includes a white balance adjustment unit that adjusts the white balance of the image
  • the display control unit is connected to an operation unit operated by the user, and displays a light source that indicates the type of light source of the original image data Is displayed on the display unit, and when there are multiple types of light sources in the original image data, multiple light source displays provided for each type of light source are displayed on the display unit, and multiple light source displays are displayed on the display unit
  • a change display that accepts a change in white balance based on the light source corresponding to the light source display specified through the operation unit when any of a plurality of light source displays is specified in response to a user operation through the operation unit Is displayed on the display unit, and the change of the white balance in the image is accepted via the change display according to the user's operation via the operation unit.
  • the white balance change is accepted by the display control unit, the white balance of the image is adjusted to reflect the change in the image, and the display control unit displays the image whose white balance has been adjusted by the white balance adjustment unit on the display
  • the user can easily confirm the image after the white balance change adjustment relating to the light source specified by the user via the light source display displayed on the display unit via the display unit.
  • the image processing apparatus further includes a white balance adjustment unit that adjusts the white balance of the image
  • the display control unit is connected to an operation unit operated by the user, and displays a light source that indicates the type of light source of the original image data Is displayed on the display unit, and when there are multiple types of light sources in the original image data, multiple light source displays provided for each type of light source are displayed on the display unit, and multiple light source displays are displayed on the display unit
  • a change is received that accepts a change in the influence rate in the image of the light source corresponding to the light source display designated via the operation unit.
  • the display is displayed on the display unit, and the change amount of the influence rate in the image is received via the change display according to the user's operation via the operation unit, and the white balance adjustment unit
  • the display control unit reflects the amount of change in the influence rate received by the display control unit via the change display, and the display control unit displays the image whose white balance has been adjusted by the white balance adjustment unit. To display.
  • the user can easily confirm the image after the white balance change adjustment relating to the light source specified by the user via the display unit.
  • the white balance setting mode is a preset white balance mode in which a white balance gain is determined in advance, and an auto white balance in which a white balance gain to be applied to original image data is determined based on color distribution information of the original image data.
  • the original image data is RAW image data.
  • white balance adjusted image data can be obtained, for example, when developing original image data (RAW image data).
  • the original image data is uncompressed image data.
  • the original image data is lossless compressed image data.
  • the original image data is lossy compressed image data.
  • Another aspect of the present invention relates to an imaging device that includes an imaging device and the above-described image processing device, and in which original image data is acquired by the imaging device.
  • Another aspect of the present invention determines the number and type of light sources in the original image data, acquires a reference white balance gain determined for each type of light source in the original image data,
  • the present invention relates to an image processing method that acquires an influence rate for each type, acquires a mixture ratio of a reference white balance gain based on the influence ratio, and stores the reference white balance gain and the mixture ratio in association with original image data in a storage medium.
  • Another aspect of the present invention stores original image data, a reference white balance gain determined for each type of light source of the original image data, and a mixture ratio of reference white balance gains determined for each pixel of the original image data.
  • the present invention relates to an image processing method for obtaining an applied white balance gain according to a mixing ratio from a reference white balance gain for each pixel of original image data obtained from a medium.
  • Another aspect of the present invention includes a procedure for determining the number and type of light sources of original image data, a procedure for obtaining a reference white balance gain determined for each type of light source of original image data, and a pixel for each pixel of the original image data.
  • an influence rate for each type of light source is acquired, a procedure for acquiring a mixture ratio of the reference white balance gain based on the influence rate, and the reference white balance gain and the mixture ratio are stored in the storage medium in association with the original image data.
  • Another aspect of the present invention stores original image data, a reference white balance gain determined for each type of light source of the original image data, and a mixture ratio of reference white balance gains determined for each pixel of the original image data.
  • the present invention relates to a program for causing a computer to execute a procedure for obtaining from a medium and a procedure for calculating an applied white balance gain from a reference white balance gain according to a mixing ratio for each pixel of original image data.
  • the multi-area WB processing of the original image data can be performed afterwards with high accuracy.
  • the reference white balance gain and the mixing ratio can be adjusted when performing multi-area WB processing after the fact, it is possible to adjust the white balance with a high degree of freedom.
  • FIG. 1 is a front perspective view of the digital camera 2.
  • FIG. 2 is a rear perspective view of the digital camera 2.
  • the digital camera 2 includes a camera body 3 and a lens barrel 4 attached to the front surface of the camera body 3.
  • the lens barrel 4 and the camera body 3 may be provided integrally, or may be provided detachably as a lens interchangeable camera.
  • a flash light emitting unit 5 is provided on the front surface of the camera body 3, and a shutter button 6 and a power switch 7 are provided on the upper surface of the camera body 3.
  • the shutter button 6 is a shooting instruction unit that receives a shooting instruction from a user
  • the power switch 7 is a power supply switching unit that receives a power ON / OFF switching instruction of the digital camera 2 from the user.
  • a display unit 8 constituted by a liquid crystal panel and an operation unit 9 directly operated by a user are provided.
  • the display unit 8 displays a live view image (through image) in a shooting standby state and functions as an electronic viewfinder, and functions as a playback image display unit during playback of a captured image or a memory storage image.
  • the operation unit 9 includes an arbitrary operation device such as a mode change switch, a cross key, and an execution key.
  • the mode switch is operated by the user when the operation mode of the digital camera 2 is switched.
  • an operation mode of the digital camera 2 there are a shooting mode for capturing an image of a subject to obtain a captured image, a playback mode for reproducing and displaying an image, and the like.
  • an AF (Auto Focus) mode for performing auto focus
  • MF Manual Focus
  • the cross key and the execution key display a menu screen or a setting screen on the display unit 8, move a cursor displayed in the menu screen or the setting screen, and confirm various settings of the digital camera 2. In some cases, it is operated by the user.
  • the bottom (not shown) of the camera body 3 is provided with a memory slot in which the main memory 10 is loaded and a loading lid that opens and closes the opening of the memory slot.
  • the main memory 10 is detachably provided in the camera body 3 and is electrically connected to a storage control unit 33 provided in the camera body 3 when attached to the camera body 3.
  • the main memory 10 can generally be constituted by a semiconductor memory such as a card-type flash memory, but is not particularly limited, and a storage medium of any storage system such as a magnetic medium can be used as the main memory 10. is there.
  • FIG. 3 is a block diagram showing a control processing system of the digital camera 2.
  • the subject light passes through the lens unit 12 provided in the lens barrel 4 and the mechanical shutter 20 provided in the camera body 3 and is received by the image sensor 21.
  • the image sensor 21 is an element that receives a subject image and generates image data.
  • the image sensor 21 is a color filter such as RGB (Red Green Blue), a CCD (Charge Coupled Device) or a CMOS (Complementary Metal) that converts an optical image into an electrical signal. And an image sensor such as an Oxide Semiconductor).
  • the image data output from the imaging device 21 is processed by an AGC (Automatic Gain Control) circuit or the like in the process processing unit 22, and then the analog image data is converted into digital image data by the AD conversion unit 23. Is done.
  • the digitized image data is stored in the buffer memory 24.
  • the buffer memory 24 is an area for temporarily storing image data, and is configured by a DRAM (Dynamic Random Access Memory) or the like. Image data sent from the AD conversion unit 23 and stored in the buffer memory 24 is read out by the data processing unit 31 controlled by the system control unit 25.
  • the data processing unit 31 uses the image data generated by the image sensor 21 as input image data, performs various image processing such as gamma correction processing and demosaicing processing, and stores the image data after the image processing in the buffer memory 24 again. To do.
  • Image data subjected to image processing in the data processing unit 31 and stored in the buffer memory 24 is read by the display control unit 35 and the compression / decompression unit 32.
  • the display control unit 35 controls the display unit 8 to display the image data read from the buffer memory 24 on the display unit 8.
  • the image data output from the image sensor 21 and subjected to image processing in the data processing unit 31 is displayed (postview) on the display unit 8 as a shooting confirmation image.
  • the compression / decompression unit 32 compresses the image data read from the buffer memory 24 to create image data in an arbitrary compression format such as JPEG (Joint Photographic Experts Group) or TIFF (Tagged Image File Format).
  • the compressed image data is stored in the main memory 10 by a storage control unit 33 that controls data storage processing to the main memory (storage medium) 10 and data reading processing from the main memory 10.
  • the storage control unit 33 adds editing date / time information (update date / time information) and the like to the data based on date / time information acquired from a clock device 34 described later.
  • Shooting information and other related information is added to the image data in an arbitrary format, and for example, an Exif (Exchangeable image file format) format can be adopted.
  • the image data stored in the main memory 10 is read by the storage control unit 33 controlled by the system control unit 25, and the compression / decompression unit 32. After being subjected to the decompression process, the data is stored in the buffer memory 24. Then, the image data is read from the buffer memory 24 by the display control unit 35 in the same procedure as the confirmation display of the photographed image, and the image data is reproduced and displayed on the display unit 8.
  • the system control unit 25 controls the buffer memory 24, the data processing unit 31, and the storage control unit 33 as described above, but also controls other units in the digital camera 2.
  • the system control unit 25 controls the lens driving unit 27 to control the driving of the lens unit 12, controls the shutter driving unit 26 to control the driving of the mechanical shutter 20, and controls the image sensor 21 to control the image. Control the output of data.
  • the system control unit 25 controls the flash light emitting unit 5 to control flash emission and non-light emission, and controls the power supply control unit 28 to detect whether or not the battery is installed in the power source 29, the type of battery, and the remaining battery level. Etc. Further, the system control unit 25 acquires date and time information counted by the clock device 34 and uses it for various processes.
  • the system control unit 25 controls various processing units that constitute the data processing unit 31.
  • the system control unit 25 acquires an operation signal from the user interface 36 including the shutter button 6, the power switch 7, and the operation unit 9, and performs various processes and device control according to the operation signal. For example, the system control unit 25 controls the shutter driving unit 26 according to the release signal received from the shutter button 6 to control the opening / closing of the mechanical shutter 20. Further, the system control unit 25 controls the power control unit 28 in accordance with the power on / off signal received from the power switch 7, and controls on / off of the power source 29.
  • Programs and data necessary for various processes performed by the system control unit 25 and device control are stored in the control memory 30.
  • the system control unit 25 can read out programs and data stored in the control memory 30 as necessary, and can store new programs and data in the control memory 30.
  • the system control unit 25 can write in the control memory 30 condition data such as the type of white balance mode (hereinafter referred to as “WB mode”) and white balance gain.
  • WB mode type of white balance mode
  • the system control unit 25 can control the display control unit 35 to display various information acquired from each unit on the display unit 8.
  • the system control unit 25 can change various information displayed on the display unit 8 in accordance with an operation signal input by the user via the user interface 36.
  • “RAW image data” output from the image sensor 21 and passed through the process processing unit 22 (process processing) and the AD conversion unit 23 (AD conversion processing) is transferred to the data processing unit via the buffer memory 24.
  • An example of input to the image 31 and used as original image data will be described. Therefore, the demosaic process in the data processing unit 31 is skipped for the following original image data (RAW image data).
  • the original image data is not limited to “RAW image data”, and similar image processing can be performed on image data having any other format such as JPEG format or TIFF format.
  • the digital camera When the RAW image data is stored in the storage medium, the digital camera also stores information (such as shooting conditions and model information) necessary for developing the RAW image data in the storage medium.
  • the storage method of “RAW image data” and “information data necessary for development” is not particularly limited, but information data and other information necessary for development are added to “RAW image data” as tag information (metadata). You may save the data of the state to the storage medium.
  • data obtained by adding tag information (metadata) to RAW image data is referred to as “RAW data”.
  • the compression format of the original image data stored in the main memory 10 is not particularly limited, and the original image data may be uncompressed image data, reversible compressed image data, or irreversible compression. It may be image data.
  • the development process may be performed before the WB process (see “white balance processing unit (WB processing unit) 64” described later), or the development process may be performed after the WB process. Processing may be performed. If the original image data is compressed image data (reversible compressed image data or irreversible compressed image data), the decompression process may be performed before the WB process (see “WB processing unit 64” described later). preferable.
  • WB processing unit 64 white balance processing unit
  • a plurality of WB gains are mixed at different mixing ratios for each pixel, so that a WB gain (applied white balance) suitable for each pixel is obtained.
  • applying WB gain is related to a processing configuration for realizing multi-area WB processing.
  • Reference WB gain) and“ mixing ratio for each pixel ”are stored in the main memory (storage medium) 10.
  • FIG. 4 is a block diagram illustrating a functional configuration example of the image processing unit 38 according to the first embodiment.
  • the image processing unit 38 of the present embodiment includes a data processing unit 31 and a storage control unit 33, and the data processing unit 31 includes a light source type determination unit 40, a gain acquisition unit 42, and a mixture ratio acquisition unit 44.
  • the light source type determination unit 40 determines the number and type of light sources in the original image data.
  • the method for determining the number and type of light sources of the original image data is not particularly limited. For example, when flash light and ambient light are assumed as the light source type, the light source type determination unit 40 acquires information on the presence or absence of flash emission from the system control unit 25 that controls the flash light emission unit 5, thereby The number and type of light sources may be determined.
  • the presence / absence of flash emission is determined by user settings via the user interface 36, or is determined by the system control unit 25 in accordance with the detection result of a photometric sensor (not shown) that detects the brightness of the shooting scene. In any case, however, the system control unit 25 has information on the presence or absence of flash emission.
  • the light source type determination unit 40 acquires the number of light sources of the original image data by acquiring information on the presence or absence of flash emission that is grasped by the system control unit 25. And the type may be determined.
  • the gain acquisition unit 42 acquires a reference WB gain determined for each type of light source of the original image data.
  • the WB gain related to the flash light can be determined in advance and stored in a memory such as the control memory 30, so that the gain acquisition unit 42 obtains a predetermined WB gain for flash light from the memory. It may be acquired as a reference WB gain.
  • the gain acquisition unit 42 analyzes the original image data to acquire color distribution information and luminance distribution information, and from the color distribution information and luminance distribution information, WB suitable for environmental light is obtained. The gain may be estimated and the WB gain may be acquired as the reference WB gain.
  • the mixture ratio acquisition unit 44 acquires the influence rate for each type of light source for each pixel of the original image data, and acquires the mixture ratio of the reference WB gain based on the influence rate.
  • the “influence rate” here is obtained by an arbitrary method.
  • the “influence rate” can be obtained by analyzing the original image data.
  • an influence rate is acquired based on a “brightness value” obtained by analyzing image data, and a mixture ratio of the reference WB gain is acquired based on the influence rate.
  • the storage control unit 33 functions as a recording unit that stores the reference WB gain and the mixing ratio in the main memory (storage medium) 10 in association with the original image data.
  • the original image data is output from the mixture ratio acquisition unit 44 (data processing unit 31), sent to the storage control unit 33 via the buffer memory 24 and the compression / decompression unit 32 (see FIG. 3), and then sent to the main memory 10. Saved.
  • the compression / decompression unit 32 performs compression processing according to the compression format. In the case of data, the compression processing in the compression / decompression unit 32 is skipped.
  • FIG. 5 is a flowchart showing an image processing flow according to the first embodiment.
  • image data acquired in a state where the subject is irradiated with flash light and ambient light is used as original image data.
  • the light source type determination unit 40 determines the number and type of light sources in the original image data (S11 in FIG. 5), and in this example, the flash light and the ambient light are determined as two types of light sources.
  • the gain acquisition unit 42 determines that the ambient light is the light source type, “WB gain WB1 suitable for environmental light (hereinafter referred to as“ ambient light reference WB gain WB1 ”)” and flash light as the light source type. “WB gain WB2 suitable for flash light” (hereinafter referred to as “flash light reference WB gain WB2”) is acquired (S12).
  • the influence ratio of each of the flash light and the environmental light is acquired for each pixel of the original image data by the mixing ratio acquisition unit 44, and based on the influence ratio, the flash light reference WB gain and the environmental light reference WB gain are obtained.
  • the ratio “Ratio_ij (where“ i ”represents the X-axis value when the pixel position is represented by the X-axis value and the Y-axis value, and“ j ”represents the Y-axis value)” is acquired (S13). ).
  • the storage control unit 33 stores the ambient light reference WB gain WB1, the flash light reference WB gain WB2, and the mixing ratio Ratio_ij in the main memory 10 in association with the original image data (S14).
  • the “reference WB gain for each light source type” and the “mixing ratio”, which are the basis for calculating the WB gain used in the multi-area WB process, are stored in association with the original image data. Is done. Thereby, since the WB gain suitable for each pixel can be easily obtained using the stored “reference WB gain for each light source type” and “mixing ratio”, the original image can be obtained according to the user's request. It is possible to perform multi-area WB processing on data afterwards.
  • the RAW image data as original image data in the main memory 10 together with the “reference WB gain for each light source type” and the “mixing ratio”, when the user performs the development processing of the RAW image data, Whether or not to execute the multi-area WB process can be determined.
  • This embodiment relates to a specific aspect of the first embodiment, and shows a case where flash emission image data obtained by photographing a flash emission scene is used as original image data.
  • FIG. 6 is a block diagram illustrating a functional configuration example of the image processing unit 38 according to the second embodiment.
  • the data processing unit 31 (image processing unit 38) of the present embodiment further includes a flash image acquisition unit 46 in addition to the light source type determination unit 40, the gain acquisition unit 42, and the mixture ratio acquisition unit 44.
  • the flash image acquisition unit 46 acquires flash emission image data obtained by shooting with flash emission, and flash non-emission image data obtained by shooting the same subject as the flash emission image data without flash emission. To do. That is, in this embodiment, when the user presses the shutter button 6 (see FIGS. 1 and 2) to acquire flash emission image data, the system control unit 25 controls the imaging device 21 and the like while controlling the emission of the flash emission unit 5. The flash non-flash shooting and flash flash shooting are automatically and continuously performed.
  • the flash image acquisition unit 46 acquires flash emission image data and flash non-emission image data obtained by these photographing operations.
  • the original image data to be processed stored in the main memory 10 is flash emission image data, but flash non-emission image data may also be stored in the main memory 10 together with the flash emission image data.
  • the flash emission image data and the flash non-emission image data are sent from the flash image acquisition unit 46 to the mixture ratio acquisition unit 44, and the flash non-emission image data is also sent to the gain acquisition unit 42.
  • the gain acquisition unit 42 analyzes the flash non-emission image data to obtain the reference for ambient light. Get WB gain. Specifically, the gain acquisition unit 42 may calculate a WB gain for auto white balance mode (hereinafter referred to as “AWB gain”), and set the AWB gain as the ambient light reference WB gain. The AWB gain can be calculated based on any method.
  • the gain acquisition unit 42 analyzes the flash non-emission image data, obtains the color distribution information from the RGB pixel values, and sets the gain that makes the average value an achromatic color as an AWB gain (ambient light reference WB gain). May be.
  • the gain acquisition unit 42 may obtain luminance distribution information from the luminance value of the flash non-emission image data, and determine an AWB gain (ambient light reference WB gain) based on the luminance distribution information. Further, a WB gain determined for each of a plurality of ambient light types is stored in advance in a memory such as the control memory 30, and the gain acquisition unit 42 determines the type of the ambient light by analyzing the flash non-emission image data. The WB gain related to the determined type of ambient light may be acquired from the memory and set as the ambient light reference WB gain.
  • AWB gain ambient light reference WB gain
  • the reference WB gain for flash light is obtained in advance based on the characteristics of the flash light and stored in a memory such as the control memory 30 and is read and acquired from the memory by the gain acquisition unit 42.
  • the mixing ratio acquisition unit 44 acquires the influence rate of each of the flash light and the ambient light from the flash emission image data and the flash non-emission image data acquired by the flash image acquisition unit 46, and based on this influence rate, the flash light The mixing ratio between the reference white balance gain for ambient light and the reference white balance gain for ambient light is acquired.
  • the mixture ratio acquisition unit 44 of the present example acquires a luminance value for each pixel of the flash non-emission image data (hereinafter referred to as “first luminance value”), and for each pixel of the flash emission image data.
  • Luminance values hereinafter referred to as “second luminance values” are acquired, and the influence rates of the flash light and the ambient light are acquired based on the first luminance value and the second luminance value.
  • the method for acquiring the first luminance value and the second luminance value is not particularly limited.
  • the R pixel value in each of the flash emission image data and the flash non-emission image data is “R_ij (where“ i ”represents the X axis value when the pixel position is expressed by the X axis value and the Y axis value, and“ j ” Represents the Y-axis value)
  • the G pixel value is represented by “G_ij (where“ i ”represents the X-axis value when the pixel position is represented by the X-axis value and the Y-axis value
  • “ j ” Represents the Y-axis value
  • Y1_ij R_ij ⁇ 0.299 + G_ij ⁇ 0.587 + B_ij ⁇ 0.114
  • Formula 2 Y2_ij R_ij ⁇ 0.299 + G_ij ⁇ 0.587 + B_ij ⁇ 0.114
  • the mixing ratio acquisition unit 44 can acquire the flash influence rate “Flash_ij” and the mixing ratio “Ratio_ij” using the first luminance value Y1_ij and the second luminance value Y2_ij according to the following Expression 3.
  • the ambient light reference WB gain, the flash light reference WB gain, and the mixture ratio acquired in this way are associated with the original image data (flash emission image data) by the storage control unit 33 as in the first embodiment. And stored in the main memory 10.
  • the mixing ratio Ratio_ij may be equivalent to the flash influence rate Flash_ij as in this example (see Equation 3 above), but may be a ratio different from the flash influence rate Flash_ij, and the flash influence rate Flash_ij is reflected. Any value may be used.
  • FIG. 7 is a flowchart showing an image processing flow according to the second embodiment.
  • the light source type determination unit 40 determines the light source of the original image data as two types of light sources (flash light and ambient light) (S21 in FIG. 7), and the flash image acquisition unit 46 determines the flash emission image data and the flash non-flash. Luminous image data is acquired (S22).
  • the gain acquisition unit 42 acquires the ambient light reference WB gain WB1 from the flash non-emission image data (S23), and acquires the flash light reference WB gain WB2 from the memory (S24).
  • the mixing ratio acquisition unit 44 acquires the luminance value (first luminance value) Y1_ij for each pixel of the flash non-emission image data (S25), and the luminance value (second luminance) for each pixel of the flash emission image data. Value) Y2_ij is acquired (S26). Then, the influence ratio Flash_ij of the flash is acquired for each pixel of the original image data (flash emission image data) from the first luminance value Y1_ij and the second luminance value Y2_ij by the mixing ratio acquisition unit 44, and this flash influence ratio Based on the above, the mixing ratio Ratio_ij is set (S27).
  • the storage control unit 33 stores the ambient light reference WB gain WB1, the flash light reference WB gain WB2, and the mixing ratio Ratio_ij in the main memory 10 in association with the original image data (flash emission image data) (S28). ).
  • the “ambient light reference WB gain”, which is the basis for calculating the WB gain determined for each pixel of the original image data (flash emission image data) acquired by flash photography, “Flash light reference WB gain” and “mixing ratio” are stored in association with the original image data. Therefore, when the white balance of the image is adjusted afterwards, the stored “reference WB gain for ambient light”, “reference WB gain for flash light”, and “mixing ratio” are used to obtain “flash light”.
  • the white balance can be adjusted separately for the “image portion in which the influence of the light is dominant” and the “image portion in which the influence of the ambient light is dominant”.
  • the flash light reference WB gain WB2 suitable for the flash light may be shifted slightly in the red direction.
  • the hue (color balance) is shifted in the red direction only by a pixel having a high ratio of the flash light reference WB gain WB2, and the ratio of the flash light reference WB gain WB2 is low and the ratio of the environmental light reference WB gain WB1 is high.
  • the hue (color balance) of the pixel is not easily affected.
  • the hue of the image portion of the person having a high ratio of the flash light reference WB gain WB2 is corrected in the red direction, while the hue of the background image portion having the high ratio of the ambient light reference WB gain WB1 is substantially maintained.
  • the white balance adjustment satisfying the user's request can be performed.
  • each of the flash light and the ambient light is handled as the first light source type and the second light source type in the original image data.
  • the light source type and the second light source type are not particularly limited.
  • the light source type data acquisition unit (see FIG. 6) acquires the first image data indicating the influence of the first light source type, and the influence of the second light source type.
  • the second image data indicating may be acquired. That is, when the type of the light source of the original image data determined by the light source type determination unit includes the first light source type and the second light source type, the gain acquisition unit 42 determines the first light source type.
  • a reference white balance gain suitable for the light source type and a reference white balance gain suitable for the second light source type determined for the second light source type may be acquired.
  • the mixture ratio acquisition unit 44 acquires the influence rate of the first light source type and the second light source type in the original image data from the first image data and the second image data, and based on the influence rate The mixing ratio between the reference white balance gain defined for the first light source type and the reference white balance gain defined for the second light source type is acquired.
  • the storage control unit 33 may store the reference white balance gain determined for the first light source type, the reference white balance gain determined for the second light source type, and the mixing ratio in the storage medium in association with the original image data. it can.
  • the white balance setting mode (hereinafter referred to as “WB setting mode”) at the time of acquiring the original image data is the AWB mode
  • the reference WB gain and the mixture ratio in the first embodiment described above are set.
  • An acquisition process and a storage process are performed.
  • the WB setting mode includes preset white balance mode (hereinafter referred to as “preset WB mode”), custom white balance mode (hereinafter referred to as “custom WB mode”), and manual white balance mode (hereinafter referred to as “manual WB mode”).
  • preset WB mode preset white balance mode
  • custom WB mode custom white balance mode
  • manual WB mode hereinafter referred to as “manual WB mode”.
  • the reference WB gain and mixing ratio acquisition processing and storage processing in the first embodiment described above are not performed.
  • the WB setting mode that can be selected when acquiring the original image data is not particularly limited, and only one predetermined WB mode may be selected as the WB setting mode, or various types of WB modes may be selected. A mode according to the user's designation or a mode according to the shooting conditions may be selected as the WB setting mode.
  • the original image based on the preset WB mode in which the white balance gain is determined in advance according to the light source type assumed beforehand (sunny (sunlight), fluorescent lamp, light bulb, etc.), and color distribution information of the original image data AWB mode in which a white balance gain to be applied to data is determined, and a custom WB mode in which a white balance gain to be applied to original image data is determined based on color distribution information of reference image data different from the original image data Any one of them may be selectable as the WB setting mode. Further, the manual WB mode in which the user manually determines the WB gain individually may be selected as the WB setting mode.
  • FIG. 8 is a block diagram illustrating a functional configuration example of the image processing unit 38 according to the third embodiment.
  • the data processing unit 31 (image processing unit 38) of the present embodiment further includes a setting mode determination unit 48 in addition to the light source type determination unit 40, the gain acquisition unit 42, and the mixture ratio acquisition unit 44.
  • the setting mode determination unit 48 determines the WB setting mode when the original image data is acquired.
  • the determination method of this WB setting mode is not particularly limited.
  • the setting mode determination unit 48 may acquire information on the WB setting mode from the system control unit 25.
  • the setting mode determination unit 48 and the system control unit 25 are illustrated as separate bodies. However, the system control unit 25 may serve as the setting mode determination unit 48, and the system control unit 25 Can also be included in the image processing unit 38.
  • the setting mode determination unit 48, the light source type determination unit 40, the gain acquisition unit 42, and the mixture ratio acquisition unit 44 included in the data processing unit 31 are controlled by the system control unit 25, and the execution and non-execution of processing in each unit is performed by the system control unit. 25 can be determined.
  • the same processing as in the first embodiment is performed in the image processing unit 38 only when the WB setting mode determined by the setting mode determination unit 48 is the AWB mode.
  • the light source type determination unit 40 determines the number and type of light sources in the original image data, and the gain acquisition unit 42 acquires a reference white balance gain determined for each type of light source.
  • the mixture ratio acquisition unit 44 acquires the influence rate for each type of light source for each pixel of the original image data, and acquires the mixture ratio of the reference white balance gain based on this influence rate.
  • the storage control unit 33 stores the reference white balance gain and the mixture ratio in the main memory 10 in association with the original image data.
  • FIG. 9 is a flowchart showing an image processing flow according to the third embodiment.
  • an example in which flash emission image data using flash light and ambient light as light source types is used as original image data is also shown.
  • the setting mode determination unit 48 determines the WB setting mode when the original image data is acquired (S31 in FIG. 9), and the system control unit 25 determines whether or not the WB setting mode is the AWB mode (S32). .
  • the light source type determination unit 40 determines the number and type (for example, flash light and environmental light) of the light source of the original image data (S33). .
  • the gain acquisition unit 42 acquires reference white balance gains (ambient light reference WB gain and flash light reference WB gain) determined for each type of light source (S34).
  • the mixture ratio acquisition unit 44 acquires an influence rate for each type of light source for each pixel of the original image data, and based on this influence rate, a reference white balance gain (a reference WB gain for ambient light and a reference WB for flash light). The gain ratio is acquired (S35).
  • the storage control unit 33 stores the reference white balance gain (the ambient light reference WB gain and the flash light reference WB gain) and the mixing ratio in the main memory 10 in association with the original image data (S36).
  • the reference white balance gain and the mixing ratio are stored in the main memory 10 for the original image data acquired in the AWB mode.
  • the user can adjust the white balance of the image afterwards with a high degree of freedom.
  • the processing from the photographing of the original image data to the storage in the main memory 10 is performed. Speeded up.
  • the same processing as that of the first embodiment or the second embodiment is performed only when the WB setting mode is the AWB mode. However, in this embodiment, the WB setting mode for acquiring original image data is used. Regardless, the same processing as in the first embodiment or the second embodiment is performed.
  • multi-area WB processing To execute multi-area WB processing, special processing and information are necessary as described above.
  • special processing for such multi-area WB processing or information acquisition is performed. can do.
  • special processing for multi-area WB processing that must be performed at the time of shooting is performed. Is not performed, and information necessary to be acquired at the time of shooting is not acquired, so it is difficult to realize multi-area WB processing.
  • the flash non-flash image data and flash non-flash image are also acquired. It is necessary to acquire the flash influence rate for each pixel from the difference between the pixel value and the data, and to acquire the mixing ratio of the ambient light reference WB gain and the flash light reference WB gain for each pixel according to the flash influence rate. It is said. However, even if these processes are executed in the development stage of the RAW image data (original image data), only the flash emission image data is stored as the RAW image data, and the flash non-flash necessary for the multi-area WB process is stored. Since there is no light emission image data, the “WB gain suitable for each pixel” for performing the multi-area WB process cannot be acquired.
  • the reference white balance gain and the mixture ratio are stored in the main memory 10 as in the first embodiment or the second embodiment described above.
  • WB adjusted image data white balance adjusted image data
  • the image processing unit 38 in the present embodiment is basically the same as the above-described first embodiment (see FIG. 4) and second embodiment (see FIG. 6). That is, regardless of the WB setting mode at the time of acquiring the original image data, the light source type determination unit 40 determines the number and type of the light sources of the original image data, and the gain acquisition unit 42 is a standard determined for each type of light source.
  • the white balance gain is acquired, and the mixture ratio acquisition unit 44 acquires the influence rate for each type of light source for each pixel of the original image data, acquires the mixture ratio of the reference white balance gain based on the influence rate, and stores it.
  • the control unit 33 stores the reference white balance gain and the mixture ratio in the main memory 10 in association with the original image data.
  • FIG. 10 is a flowchart showing an image processing flow according to the fourth embodiment.
  • the above-described processing steps S31 to S32 (see FIG. 9) relating to the determination of the WB setting mode are omitted, and the above-described processing steps S33 to S36 are performed.
  • the light source type determination unit 40 determines the number and type of light sources (for example, flash light and ambient light) of the original image data (S33).
  • the gain acquisition unit 42 acquires a reference white balance gain (for example, an ambient light reference WB gain and a flash light reference WB gain) determined for each type of light source (S34).
  • the mixture ratio acquisition unit 44 acquires the influence rate for each type of light source for each pixel of the original image data, and based on this influence rate, a reference white balance gain (for example, the ambient light reference WB gain and the flash light reference) A mixing ratio of (WB gain) is acquired (S35). Then, the storage controller 33 associates the reference white balance gain (for example, the ambient light reference WB gain and the flash light reference WB gain) and the mixing ratio with the original image data and stores them in the main memory 10 (S36).
  • a reference white balance gain for example, the ambient light reference WB gain and the flash light reference WB gain
  • calculation for multi-area WB processing is always performed regardless of the WB setting mode when the original image data is acquired, and the reference white balance gain and the mixing ratio are the original image.
  • the data is stored in the main memory 10 in association with the data. Therefore, the user can determine whether to turn on / off the multi-area WB process for the original image data, regardless of the WB setting mode when the original image data is acquired.
  • the reference WB gain and the mixing ratio are read from the main memory 10, and multi-area WB processing is performed on the original image data to obtain WB adjusted image data.
  • the reference WB gain and the mixing ratio are read from the main memory 10, and multi-area WB processing is performed on the original image data to obtain WB adjusted image data.
  • the data processing unit 31 of the present embodiment acquires the reference WB gain and the mixing ratio stored in association with the original image data from the main memory 10 and performs WB processing of the original image data. Accordingly, in the main memory 10 used in the present embodiment, the reference WB gain and the mixture ratio are stored in association with the original image data, for example, as in the original image data in the first to fourth embodiments described above. ing.
  • the data processing unit 31 (see FIG. 12) described below according to this embodiment includes the “light source type determination unit 40, gain acquisition unit 42, and mixture ratio acquisition unit” described in the first to third embodiments. 44 ”may be provided integrally with the data processing unit 31 (see FIGS. 4, 6, and 8) or may be provided separately. Therefore, for example, when the data processing unit 31 shown in FIGS. 4, 6, and 8 is provided in the digital camera 2, the data processing unit 31 according to the present embodiment shown in FIG. 12 is similarly provided in the digital camera 2.
  • the computer 91 or the server 92 connected to the digital camera 2 via a wired or wireless network 94 may be provided.
  • FIG. 12 is a block diagram illustrating a functional configuration example of the data processing unit 31 (image processing unit 38) according to the fifth embodiment.
  • the data processing unit 31 of this embodiment includes a processing data acquisition unit 60, a gain calculation unit 62, and a WB processing unit 64.
  • the processing data acquisition unit 60 sends the original image data, the reference WB gain determined for each type of light source of the original image data, and the mixture ratio of the reference WB gain determined for each pixel of the original image data from the main memory 10. get.
  • the processing data acquisition unit 60 can acquire the reference WB gain and the mixing ratio from the acquired tag information of the original image data.
  • the gain calculation unit 62 calculates an applied WB gain from the reference WB gain according to the mixing ratio for each pixel of the original image data.
  • the WB processing unit 64 applies the applied WB gain to the original image data and acquires the WB adjusted image data.
  • the pixel value of the original image data is represented by “V_ij (where“ i ”represents the X-axis value when the pixel position is represented by the X-axis value and the Y-axis value, and“ j ”represents the Y-axis value)”.
  • the reference WB gain acquired by the processing data acquisition unit 60 is the flash light reference WB gain that is determined when the flash light is used as the light source type, and the ambient light that is determined when the ambient light is used as the light source type. A case including the reference WB gain will be described.
  • the mixing ratio acquired by the processing data acquisition unit 60 is a mixing ratio between the flash light reference WB gain and the ambient light reference WB gain determined for each pixel of the original image data.
  • the gain calculation unit 62 calculates an applied white balance gain for each pixel of the original image data from the flash light reference WB gain and the ambient light reference WB gain according to the mixing ratio.
  • the data processing unit 31 when the original image data is RAW image data, when the user performs the development processing of the RAW image data, the user can select the “reference WB gain (for ambient light) stored in the main memory 10. Multi-area WB processing can be performed together using “reference WB gain and flash light reference WB gain)” and “mixing ratio”.
  • FIG. 13 is a flowchart showing an image processing flow according to the fifth embodiment.
  • the original image data, the ambient light reference WB gain WB1, the flash light reference WB gain WB2, and the mixture ratio Ratio_ij are acquired from the main memory 10 by the processing data acquisition unit 60 (S41 in FIG. 13).
  • the gain calculation unit 62 acquires the applied WB gain WB_ij from the ambient light reference WB gain WB1, the flash light reference WB gain WB2, and the mixing ratio Ratio_ij for each pixel of the original image data (S42).
  • the WB processing unit 64 applies the applied WB gain WB_ij to the original image data, and obtains WB adjusted image data (S43).
  • multi-area WB processing of original image data can be performed appropriately.
  • a reference WB gain (a reference WB gain for environmental light and a reference WB gain for flash light) used for multi-area WB processing is prepared for each light source type, the user can individually influence the influence of a part of the light source type. It is also possible to perform a modified WB process. For example, when the user wants to “correct only the image portion (such as a human image) on which the flash is applied in a slightly red direction”, the WB processing unit 64 sets the reference WB gain for flash light used in the WB processing in a slightly red direction. You just have to make it.
  • the hue (color balance) can be shifted in the red direction only in an image portion such as a human image having a high ratio of the flash light reference WB gain in the WB adjustment image data, and the ratio of the flash light reference WB gain is The influence on the background image portion having a low ratio of the ambient light reference WB gain is small.
  • the degree of freedom regarding white balance adjustment is high, and it is possible to easily obtain WB adjusted image data that satisfies the user's request.
  • FIG. 14 is a block diagram illustrating a functional configuration example of the data processing unit 31 (image processing unit 38) according to the sixth embodiment.
  • the data processing unit 31 of this embodiment further includes a setting mode acquisition unit 66 and a processing mode acquisition unit 68 in addition to the processing data acquisition unit 60, the gain calculation unit 62, and the WB processing unit 64.
  • the setting mode acquisition unit 66 acquires information on the WB setting mode when the original image data is acquired.
  • the acquisition method of the WB setting mode information is not particularly limited.
  • the setting mode acquisition unit 66 acquires the original acquired by the processing data acquisition unit 60.
  • the WB setting mode information may be read out and acquired from the tag information of the image data.
  • the processing mode acquisition unit 68 acquires information on the white balance processing mode (hereinafter referred to as “WB processing mode”) of the original image data.
  • WB processing mode in this example is the WB mode desired by the user, and the user inputs the WB mode desired as the actual WB processing of the original image data to the processing mode input unit 70 as the “WB processing mode”.
  • the specific form of the processing mode input unit 70 is not particularly limited.
  • the processing mode input unit 70 is operated by the “operation unit 9 (see FIG. 2)”. Can be configured.
  • the processing mode input unit 70 is mounted on the computer 91, the server 92, or the portable terminal 96, the processing mode input unit is operated by an arbitrary operation unit such as a keyboard, mouse, or touch panel mounted or connected to the devices. 70 can be configured.
  • the “information on the WB processing mode of the original image data” acquired by the processing mode acquisition unit 68 is sent to the gain calculation unit 62. Further, the “calculation mode information WB setting mode information” acquired by the setting mode acquisition unit 66 is sent to the gain calculation unit 62.
  • the gain calculation unit 62 moves the processing data acquisition unit 60 from the main memory 10.
  • the applied WB gain is calculated based on the reference WB gain acquired through the network.
  • the gain calculation unit 62 acquires a reference WB gain determined based on the WB processing mode, and applies an applied WB gain based on the reference WB gain. Is calculated.
  • the gain calculation unit 62 acquires the WB gain determined for the preset WB mode and uses the preset WB mode. Based on the reference WB gain, new reference WB gains (for example, the ambient light reference WB gain WB1 and the flash light reference WB gain WB2) are set.
  • the acquisition method of the reference WB gain determined based on the WB processing mode is not limited, and “the reference WB gain determined based on the WB processing mode” is stored in the main memory 10 as tag information of the original image data.
  • the gain calculation unit 62 may read the stored information and acquire “a reference WB gain determined based on the WB processing mode”.
  • the processing mode input unit 70 selects the target WB gain from the WB setting mode out of the reference WB gain (for example, the ambient light reference WB gain WB1 and the flash light reference WB gain WB2) and the WB gain after the specific change. May be input by the user.
  • the reference WB gain for example, the ambient light reference WB gain WB1 and the flash light reference WB gain WB2
  • the processing mode acquisition unit 68 acquires the information of the “reference WB gain to change the WB gain from the WB setting mode” and the “specific WB gain after change” input to the processing mode input unit 70 by the user. Then, it may be transmitted to the gain calculation unit 62.
  • the gain calculation unit 62 changes the “reference WB gain for which the WB gain is to be changed from the WB setting mode” input by the user to “specifically changed WB gain”, and the changed reference WB gain, the mixture ratio,
  • the applied WB gain is acquired based on the above.
  • FIG. 15 is a flowchart showing an image processing flow according to the sixth embodiment.
  • the ambient light reference WB gain WB1 and the flash light reference WB gain WB2 are stored in the main memory 10 as reference WB gains will be described.
  • the processing data acquisition unit 60 acquires the original image data, the ambient light reference WB gain WB1, the flash light reference WB gain WB2, and the mixing ratio Ratio_ij from the main memory 10 (S51 in FIG. 15).
  • the setting mode acquisition unit 66 acquires the information of the WB setting mode when the original image data is acquired, and the processing mode acquisition unit 68 receives the information of the WB processing mode input to the processing mode input unit 70 by the user. To be acquired. Then, the gain calculation unit 62 determines whether or not the WB setting mode and the WB processing mode are the same (S52).
  • the reference WB gain acquired from the main memory 10 via the processing data acquisition unit 60 (the ambient light reference WB gain WB1 and the flash light reference WB gain).
  • the applied WB gain WB_ij for each pixel of the original image data is acquired by the gain calculation unit 62 from (WB2) and the mixing ratio Ratio_ij (S53).
  • the gain calculating unit 62 acquires the reference WB gain corresponding to the WB processing mode, and the acquired reference WB gain is used for the WB processing.
  • New reference WB gains to be used (environment light reference WB gain WB1 and flash light reference WB gain WB2) are set (S55).
  • the gain calculation unit 62 acquires the applied WB gain WB_ij determined for each pixel of the original image data from the newly set reference WB gain and mixing ratio Ratio_ij (S53).
  • the WB processing unit 64 applies the applied WB gain WB_ij to the original image data, and obtains WB adjusted image data (S54).
  • This embodiment relates to an example in which a part or all of the reference WB gain can be replaced with a WB gain corresponding to a light source type designated by the user to perform WB processing of original image data.
  • FIG. 16 is a block diagram illustrating a functional configuration example of the data processing unit 31 (image processing unit 38) according to the seventh embodiment.
  • the data processing unit 31 of this embodiment includes a processing data acquisition unit 60, a gain calculation unit 62, a WB processing unit 64, a setting mode acquisition unit 66, and a processing mode acquisition unit 68, as well as a light source type specification unit 72 and a specified gain acquisition unit. 74 is further included.
  • the light source type designation unit 72 receives information on the light source type designated by the user via the light source type input unit 76.
  • the specific form of the light source type input unit 76 is not particularly limited.
  • the processing mode input unit 70 when the light source type input unit 76 is mounted on the digital camera 2, for example, the “operation unit 9 (FIG. 2).
  • the light source type input unit 76 can be configured by “see”. Further, when the light source type input unit 76 is mounted on the computer 91, the server 92, or the portable terminal 96, the light source type input unit is operated by an arbitrary operation unit such as a keyboard, mouse, or touch panel mounted or connected to the devices. 76 can be configured.
  • the designated gain acquisition unit 74 acquires a reference WB gain that is determined with respect to the “light source type specified by the user” that is input to the light source type input unit 76 and received by the light source type specification unit 72.
  • the gain calculation unit 62 replaces at least a part of the reference WB gain determined for each light source type of the original image data with the reference WB gain acquired by the designated gain acquisition unit 74, and applies the applied WB gain according to the mixing ratio. Is calculated.
  • the user replaces part or all of the reference WB gain (for example, the ambient light reference WB gain WB1 and the flash light reference WB gain WB2) with the reference WB gain determined for other light sources, WB processing can be performed.
  • the reference WB gain for example, the ambient light reference WB gain WB1 and the flash light reference WB gain WB2
  • the processing mode input unit 70 and the light source type input unit 76 may be provided integrally, and the processing mode acquisition unit 68 and the light source type designation unit 72 may be provided integrally.
  • the gain calculation unit 62 sets the WB setting mode and WB. It may be determined that the processing mode is different.
  • FIG. 17 is a flowchart showing an image processing flow according to the seventh embodiment.
  • the reference WB gain of the original image data is the ambient light reference WB gain WB1 and the flash light reference WB gain WB2 will be described as an example.
  • the processing data acquisition unit 60 acquires the original image data, the ambient light reference WB gain WB1, the flash light reference WB gain WB2, and the mixing ratio Ratio_ij from the main memory 10 (S61 in FIG. 17).
  • the setting mode acquisition unit 66 acquires the information of the WB setting mode when the original image data is acquired, and the processing mode acquisition unit 68 acquires the information of the WB processing mode input by the user, and the gain calculation unit. 62 determines whether the WB setting mode and the WB processing mode are the same (S62).
  • the reference WB gain (the ambient light reference WB gain WB1 and the flash light reference WB gain) acquired from the main memory 10 via the processing data acquisition unit 60.
  • An applied WB gain WB_ij determined for each pixel of the original image data is acquired by the gain calculation unit 62 from (WB2) and the mixing ratio Ratio_ij (S63).
  • the user inputs information on the light source type for determining the newly set reference WB gains WB1 and WB2 to the light source type input unit 76.
  • the light source type data input to the light source type input unit 76 is acquired by the light source type specifying unit 72, and new reference WB gains WB1 and WB2 determined according to the input light source type are acquired by the specified gain acquisition unit 74. (S65).
  • the applied WB gain WB_ij determined for each pixel of the original image data is acquired by the gain calculation unit 62 (S63).
  • the WB processing unit 64 applies the applied WB gain WB_ij to the original image data, and acquires WB adjusted image data (S64).
  • the example in which the user changes the light source type of the reference WB gain after determining whether the WB processing mode is different from the WB setting mode has been described.
  • the WB processing mode is different from the WB setting mode.
  • the user may be able to change the light source type of the reference WB gain as necessary.
  • the processing mode input unit 70 and the processing mode acquisition unit 68 are unnecessary.
  • This embodiment relates to a display mode of adjusted image data on the display unit 8 and white balance adjustment.
  • a display mode of adjusted image data on the display unit 8 and white balance adjustment.
  • FIG. 18 is a block diagram illustrating a functional configuration example of the image processing unit 38 according to the eighth embodiment.
  • the image processing unit 38 further includes a display control unit 35 and a display unit 8 controlled by the display control unit 35 in addition to the data processing unit 31.
  • the display control unit 35 is connected to the operation unit 9 via the system control unit 25 (see FIG. 2), and causes the display unit 8 to display an image based on the WB adjustment image data.
  • FIG. 19 is a diagram illustrating an image display example on the display unit 8.
  • the display control unit 35 controls the display unit 8 to display an image based on the adjusted image data on the image display unit 80 of the display unit 8.
  • the display control unit 35 displays a light source display 82 indicating the type of light source of the original image data on the display unit 8, and when there are a plurality of types of light sources of the original image data, a plurality of light source displays provided for each type of light source. 82 is displayed on the display unit 8. Therefore, for example, when environmental light and flash light are assumed as the light source of the original image data, the light source display 82a related to the environmental light (“WB1 setting” in the example shown in FIG. 19) and the light source display 82b related to the flash light (see FIG. 19). In the example shown, “WB2 setting”) is displayed on the display unit 8.
  • adjusted image data is generated using flash emission image data as original image data, and an image based on the adjusted image data is composed of a person image and a background including a building. Therefore, in the image based on the adjusted image data, the human image portion is greatly affected by the flash light, and the background portion is greatly influenced by the ambient light.
  • the user designates one of the light sources of the original image data, and an image portion (pixel) having a large influence of the designated light source is highlighted on the image display unit 80.
  • FIG. 20 is a diagram illustrating a display example of the display unit 8 in a mode in which the user designates highlighting.
  • FIG. 21 is a diagram illustrating an image display example on the display unit 8 when the user designates highlighting.
  • the display control unit 35 can specify any one of the plurality of light source displays 82 according to the user's operation via the operation unit 9. And, the display control unit 35 selects an image displayed on the image display unit 80 of the display unit 8 according to the influence rate of the light source corresponding to the light source display 82 specified by the highlight display specifying unit 84 via the operation unit 9. A part or all of the highlight display area 86 is used. Since the influence rate of the light source can be determined based on the mixing ratio, the display control unit 35 displays the image on the image display unit 80 based on the mixing ratio acquired from the main memory 10 via the processing data acquisition unit 60. The influence rate of the light source is acquired for each pixel of the image to be processed.
  • the display control unit 35 selects the light source display 82 designated by the highlighting designation unit 84 via the operation unit 9 among the pixels of the image based on the adjusted image data displayed on the image display unit 80. Pixels having an influence rate of the light source corresponding to that of the light source of the original image data higher than that of other types of light sources may be highlighted as the highlight display unit 86 in the image display unit 80 of the display unit 8. .
  • the light source type of the original image data is ambient light (corresponding to “light source display 82a” in FIG. 21) and flash light (corresponding to “light source display 82b”)
  • the user operates the operation unit 9 to perform FIG.
  • the light source display 82b related to the flash light is designated by the highlighting designation unit 84 as shown in FIG. 21, the pixels of the person image portion having the influence rate of the flash light higher than the influence rate of the ambient light as shown in FIG. In the highlight display section 86.
  • the determination criterion of the highlighting unit 86 is not particularly limited, and the display control unit 35 depends on the absolute value of the influence rate of the light source designated by the user instead of comparing the influence rate between the light sources of the original image data.
  • the target pixel of the highlight display unit 86 may be determined. That is, the display control unit 35 has an influence rate of the light source corresponding to the light source display 82 specified by the user via the operation unit 9 among the images based on the adjustment image data displayed on the image display unit 80 as the first rate. Higher pixels may be highlighted on the display unit 8.
  • the “first rate” here can be set to an arbitrary value, and can be set to a ratio such as 50%, for example.
  • the highlighting method of the highlighting unit 86 is not particularly limited, and the highlighting of the highlighting unit 86 may be performed by surrounding an area constituted by pixels to be highlighted with a thick frame, for example.
  • an image portion (pixel) having a high influence rate of a specific light source is displayed on the image display unit 80 as the highlight display unit 86 in accordance with the designation of the light source display 82 by the user. . Therefore, the user can easily confirm a portion of the image displayed on the image display unit 80 that is greatly influenced by the specific light source type.
  • FIG. 22 is a block diagram illustrating a functional configuration example of the image processing unit 38 according to the ninth embodiment.
  • the image processing unit 38 of the present embodiment includes a white balance adjustment unit (hereinafter referred to as a “WB adjustment unit”) 90 that adjusts the white balance of an image.
  • WB adjustment unit a white balance adjustment unit
  • the display control unit 35 is connected to the operation unit 9 operated by the user via the system control unit 25 (see FIG. 3). As shown in FIG. 19, the display control unit 35 displays an image based on the adjusted image data on the image display unit 80 of the display unit 8, and a light source display 82 indicating the type of light source of the original image data on the display unit 8. When there are a plurality of types of light sources in the original image data, a plurality of light source displays 82 provided for each type of light source are displayed on the display unit 8.
  • the display control unit 35 selects any one of the plurality of light source displays 82 as an emphasis display designating unit 84 (See FIG. 20).
  • the display control unit 35 causes the display unit 8 to display a change display 88 as shown in FIG.
  • the change display 88 receives a change in white balance based on the light source corresponding to the light source display 82 designated by the highlighting designation unit 84 via the operation unit 9.
  • the display control unit 35 receives a change in white balance in the image through the change display 88 in accordance with a user operation through the operation unit 9.
  • the user replaces the light source (flash light) corresponding to the light source display 82 b displaying “WB2 setting” with another light source (“clear”) displayed on the change display 88.
  • “Shade”, “fluorescent lamp”, “bulb”, etc.” can be designated via the operation unit 9.
  • the WB adjustment unit 90 changes and adjusts the white balance of the image based on the adjustment image data displayed on the image display unit 80, and a new light source designated by the user Image data reflecting the change to (hereinafter referred to as “changed image data”) is generated.
  • the display control unit 35 causes the image display unit 80 of the display unit 8 to display an image based on the changed image data whose white balance is changed and adjusted by the WB adjustment unit 90.
  • the influence rate of the light source specified by the user may be changed instead of changing the light source. That is, when a plurality of light source displays 82 are displayed on the display unit 8, the display control unit 35 operates when any one of the plurality of light source displays 82 is designated according to a user operation via the operation unit 9.
  • a change display 88 that accepts a change in the influence rate in the image of the light source corresponding to the light source display 82 specified via the unit 9 may be displayed on the display unit.
  • the display control unit 35 may accept the change amount of the “influence rate of the light source corresponding to the specified light source display 82” in the image via the change display in accordance with the user operation through the operation unit 9. Good. In the example shown in FIG.
  • the display control unit 35 displays, for example, “0%” to “100%” instead of the display of “clear”, “shade”, “fluorescent lamp”, “bulb”, etc. in the change display 88.
  • the ratio of the range may be displayed on the display unit 8 in any manner. In this case, the user can select any of the ratios displayed on the change display 88 via the operation unit 9, and the ratio selected by the user is “amount of change in the influence rate of the light source corresponding to the designated light source display 82. It is good also as.
  • the WB adjustment unit 90 (see FIG. 22) adjusts the white balance of the image based on the adjusted image data, and reflects the change amount of the influence rate received by the display control unit 35 via the light source display 82 in the image.
  • changed image data is generated.
  • the display control unit 35 causes the image display unit 80 of the display unit 8 to display an image based on the changed image data whose white balance has been changed and adjusted by the WB adjustment unit 90.
  • the user can change the white balance of an image in units of light sources.
  • the pixels having a large influence rate of the light source designated as the change target are highlighted on the display unit 8 (image display unit 80), the user can easily determine which part of the image the hue (color balance) is to be changed. Can be determined.
  • Arbitrary forms may be combined among the above-described embodiments and modifications.
  • the above-described embodiments are merely examples, and the present invention may be applied to other configurations.
  • Each functional configuration described above can be realized by arbitrary hardware, software, or a combination of both.
  • a program for causing a computer to execute an image processing method (image processing procedure) in each of the above-described apparatuses and processing units (data processing unit 31 and the like) a computer-readable storage medium (non-transitory storage medium) storing the program
  • the present invention can be applied to a computer that can install the program.
  • the aspect to which the present invention can be applied is not limited to a digital camera and a computer (server).
  • the cameras whose main function is imaging functions other than imaging (call function)
  • the present invention can also be applied to mobile devices having a communication function or other computer functions.
  • Other modes to which the present invention can be applied include, for example, mobile phones and smartphones having a camera function, PDA (Personal Digital Assistants), and portable game machines.
  • PDA Personal Digital Assistants
  • portable game machines Portable game machines.
  • FIG. 24 is a diagram illustrating an appearance of the smartphone 101.
  • a smartphone 101 illustrated in FIG. 24 includes a flat housing 102, and a display input in which a display panel 121 as a display unit and an operation panel 122 as an input unit are integrated on one surface of the housing 102.
  • the unit 120 is provided.
  • the housing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141.
  • the configuration of the housing 102 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent may be employed, or a configuration having a folding structure and a slide mechanism may be employed.
  • FIG. 25 is a block diagram showing a configuration of the smartphone 101 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, and an external input / output unit. 160, a GPS (Global Positioning System) receiving unit 170, a motion sensor unit 180, a power supply unit 190, and a main control unit 100.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 110 performs wireless communication with a base station apparatus accommodated in the mobile communication network in accordance with an instruction from the main control unit 100. Using such wireless communication, transmission / reception of various file data such as audio data and image data, e-mail data, and reception of Web data, streaming data, and the like are performed.
  • the display input unit 120 displays images (still images and moving images), character information, and the like visually under the control of the main control unit 100, visually transmits information to the user, and detects user operations on the displayed information.
  • This is a so-called touch panel, and includes a display panel 121 and an operation panel 122.
  • the display panel 121 uses an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescence Display) as a display device.
  • the operation panel 122 is a device that is placed so that an image displayed on the display surface of the display panel 121 is visible and detects coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 100.
  • the main control unit 100 detects an operation position (coordinates) on the display panel 121 based on the received detection signal.
  • the display panel 121 and the operation panel 122 of the smartphone 101 exemplified as an embodiment of the imaging apparatus of the present invention integrally constitute the display input unit 120.
  • the arrangement 122 covers the display panel 121 completely.
  • the operation panel 122 may also have a function of detecting a user operation for an area outside the display panel 121.
  • the operation panel 122 includes a detection area (hereinafter referred to as “display area”) for the overlapping portion overlapping the display panel 121 and a detection area (hereinafter referred to as “display area”) for the other outer edge portion that does not overlap the display panel 121. (Referred to as “non-display area”).
  • the operation panel 122 may include two sensitive regions of the outer edge portion and the other inner portion. Furthermore, the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like. Furthermore, examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 130 includes a speaker 131 and a microphone 132, converts user's voice input through the microphone 132 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100.
  • the audio data received by the external input / output unit 160 is decoded and output from the speaker 131.
  • the speaker 131 can be mounted on the same surface as the surface on which the display input unit 120 is provided, and the microphone 132 can be mounted on the side surface of the housing 102.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 101 and is turned on when pressed with a finger or the like, and turned off when the finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 150 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of a communication partner, transmitted and received e-mail data, Web data downloaded by Web browsing, and The downloaded content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 150 includes an internal storage unit 151 with a built-in smartphone and an external storage unit 152 having a removable external memory slot.
  • each of the internal storage unit 151 and the external storage unit 152 constituting the storage unit 150 includes a flash memory type, a hard disk type, a multimedia card micro type, a multimedia card micro type, This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), or a ROM (Read Only Memory).
  • a card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 160 serves as an interface with all external devices connected to the smartphone 101, and communicates with other external devices such as a universal serial bus (USB) and IEEE (The Institute of the IEEE 1394 defined by Electrical and Electronics Engineers, Inc.) or network (for example, Internet, wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Infrared communication), RFID (Radio Frequency Infrared communication). : IrDA) (registered trademark), UWB (Ultra) Wideband) (registered trademark), and ZigBee (ZigBee) (registered trademark) is used to directly or indirectly connected with, etc.).
  • USB universal serial bus
  • IEEE The Institute of the IEEE 1394 defined by Electrical and Electronics Engineers, Inc.
  • network for example, Internet, wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Infrared communication), RFID (Radio Frequency Infrared communication).
  • IrDA registered trademark
  • a wired / wireless headset As an external device connected to the smartphone 101, for example, a wired / wireless headset, wired / wireless external charger, wired / wireless data port, memory card (Memory card) or SIM (Subscriber) connected via a card socket, for example.
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly yes / no
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 101 or may transmit data inside the smartphone 101 to the external device. .
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 100, executes positioning calculation processing based on the received plurality of GPS signals, and calculates the latitude and longitude of the smartphone 101. , Detect the position consisting of altitude. If the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 or the external input / output unit 160 (for example, a wireless LAN), the GPS receiving unit 170 can also detect the position using the position information.
  • the motion sensor unit 180 includes, for example, a triaxial acceleration sensor and detects the physical movement of the smartphone 101 in accordance with an instruction from the main control unit 100. By detecting the physical movement of the smartphone 101, the moving direction and acceleration of the smartphone 101 are detected. The detection result is output to the main control unit 100.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 101 in accordance with an instruction from the main control unit 100.
  • the main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 101 in an integrated manner.
  • the main control unit 100 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 100 operating according to the application software stored in the storage unit 150.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 160 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 100 also has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 120.
  • the main control unit 100 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 and the operation panel 122.
  • the main control unit 100 By executing the display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 121.
  • the main control unit 100 detects a user operation through the operation unit 140, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 122. Or a display image scroll request through a scroll bar.
  • the main control unit 100 causes the operation position with respect to the operation panel 122 to overlap with the display panel 121 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 121.
  • a touch panel control function for controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 100 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one position from a plurality of positions by drawing a trajectory with a finger or the like, or specifying a plurality of positions simultaneously. means.
  • the camera unit 141 is a digital camera that performs electronic photography using an imaging device such as a CMOS.
  • the camera unit 141 converts image data obtained by imaging into compressed image data such as JPEG under the control of the main control unit 100, stores the compressed image data in the storage unit 150, the external input / output unit 160, the wireless communication unit, and the like. 110 can be output.
  • the camera unit 141 is mounted on the same surface as the display input unit 120, but the mounting position of the camera unit 141 is not limited to this, and is mounted on the back surface of the display input unit 120.
  • a plurality of camera units 141 may be mounted. When a plurality of camera units 141 are installed, the camera unit 141 used for shooting may be switched to perform shooting alone, or a plurality of camera units 141 may be used for shooting simultaneously. Also good.
  • the camera unit 141 can be used for various functions of the smartphone 101.
  • an image acquired by the camera unit 141 can be displayed on the display panel 121, or the image of the camera unit 141 can be used as one of operation inputs of the operation panel 122.
  • the GPS receiving unit 170 detects the position
  • the position can also be detected with reference to an image from the camera unit 141.
  • the optical axis direction of the camera unit 141 of the smartphone 101 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 141 can also be used in the application software.
  • the position information acquired by the GPS receiver 170 on the image data of the still image or the moving image the voice information acquired by the microphone 132 (the voice text may be converted by the main control unit or the like to become text information), Posture information and the like acquired by the motion sensor unit 180 may be added and stored in the storage unit 150 and output through the external input / output unit 160 or the wireless communication unit 110.
  • the above-described image processing unit 38 (see FIGS. 4, 6, 8, 12, 14, 16, 18 and 22) can be realized by the main control unit 100, for example.
  • Gain acquisition unit 44 ... Mixing ratio acquisition unit, 46 ... Flash image acquisition unit, 48 ... Setting mode determination unit, 60 ... Processing data acquisition 62 ... Gain calculation unit, 64 ... WB processing unit, 66 ... Setting mode acquisition unit, 68 ... Processing mode acquisition unit, 70 ... Processing mode input unit, 72 ... Light source type designation unit, 74 ... Specified gain acquisition unit, 76 ... Light source type input unit, 80 ... image display unit, 82 ... light source display, 84 ... highlight display designation unit, 86 ... highlight display unit, 88 ... change display, 90 ... WB adjustment unit, 91 ... computer, 92 ... server, 94 ... Network ... 96 Portable terminal 100 ... Main control unit 101 ... Smartphone 102 ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

 事後的にマルチエリアホワイトバランス処理を行う場合であっても、自由度の高いホワイトバランス調整を行うことを可能にする画像処理装置、撮像装置、画像処理方法及びプログラムを提供する。原画像データの光源の数及び種類が判定され(S11)、原画像データの光源の種類毎に定められる基準ホワイトバランスゲインが取得される(S12)。原画像データの画素毎に、光源の種類毎の影響率が取得され、この影響率に基づいて基準ホワイトバランスゲインの混合比率が取得される(S13)。基準ホワイトバランスゲイン及び混合比率が原画像データと関連付けられて記憶媒体に記憶される(S14)。記憶媒体に記憶された基準ホワイトバランスゲイン及び混合比率から、原画像データのマルチエリアホワイトバランス処理に必要な画素毎のホワイトバランスゲインを事後的に取得可能である。

Description

画像処理装置、撮像装置、画像処理方法及びプログラム
 本発明は画像処理装置、撮像装置、画像処理方法及びプログラムに係り、特にマルチエリアホワイトバランス処理技術に関する。
 マルチエリアホワイトバランス処理(以下、「マルチエリアWB処理」と称する)とは、1枚の画像を構成する画素毎或いはエリア毎に、異なるホワイトバランスゲイン(以下、「WBゲイン」と称する)を適用するホワイトバランス処理(以下、「WB処理」と称する)である。マルチエリアWB処理によれば、複数の光源からの光が画素毎(エリア毎)に異なる比率で被写体に照射されている画像であっても、各画素(各エリア)の色相(カラーバランス)を適正に補正することができる。
 例えばフラッシュを発光させて人物夜景シーンを撮影した場合、人物はフラッシュ光(例えば青色波長を多く含む光)の影響を受けて撮像されるが、撮影画像中の背景(夜景)はフラッシュ光の影響を実質的に受けずにナトリウムランプ(赤色波長を多く含む光)などの他の環境光の影響を受けて撮像される。この場合、WB処理によって人物画像の色相(カラーバランス)を良好にするにはフラッシュ光の影響をキャンセルするWBゲインを人物画像に適用することが求められる一方で、背景の色相(カラーバランス)を良好にするには他の環境光の影響をキャンセルするWBゲインを背景画像に適用することが求められる。したがって画像を構成する全画素に関して共通のWBゲインを適用する場合には、人物の色相(カラーバランス)と背景の色相(カラーバランス)とを両立することが難しい。
 しかしながらマルチエリアWB処理によれば、1つの画像に含まれる人物部分に適用するWBゲインと背景部分に適用するWBゲインとを変えられる。したがって、例えばフラッシュ光の到達量に応じて、適用するWBゲインを画素毎に最適化することで、人物の色相(カラーバランス)と背景の色相(カラーバランス)とを両立することができる。
 特許文献1は、被写体領域から得られる色情報を用いて算出されるホワイトバランス制御値のばらつきを抑制することが可能なホワイトバランス制御装置を開示する。このホワイトバランス制御装置は、画像から被写体領域を検出し、画像を複数の領域に分割し、被写体領域と重複している領域の各々について領域の代表色を表す色情報を算出すると共に重みを決定する。そしてホワイトバランス制御装置は、色情報の各々に、被写体領域と重複している領域について決定された重みを適用して積算し、色情報の積算結果と予め定められた目標色の情報とから、代表色が目標色となるようなホワイトバランス制御値を算出する。
 また特許文献2は、ユーザが所望する色温度に調整された画像を取得することができる撮像装置を開示する。この撮像装置では、フラッシュ非発光で撮影された予備画像に基づき背景光に対するWBゲインが算出され、予備画像の撮影直後にフラッシュ発光で撮影された本画像と予備画像との輝度が比較され、その輝度差が閾値を超える本画像中の領域の画像データに基づき被写体光に対するWBゲインが算出される。そして、背景光に対するWBゲイン及び被写体光に対するWBゲインと、フラッシュ光のための予め定められたWBゲインとを基準にして、値の異なる複数のWBゲインが算出され、これらの複数のWBゲインを本画像に個別に適用することで、色温度の異なる複数枚のブラケット画像が生成される。
 また画像のホワイトバランス調整を画像データ保存後に実施可能とするために、画像データと共にWBゲインが保存される場合がある。
 例えば特許文献3に記載の撮像装置は、現像処理に必要となる付帯情報と共に本画像のRAW画像データを記憶媒体に記憶しておき、RAW画像データの現像処理の際にオートホワイトバランス調整を行うことを可能にしている。
特開2012-165077号公報 特開2010-187113号公報 特開2009-4895号公報
 上述のように、RAW画像データと共に現像処理に必要となる付帯情報を保存しておくことで、RAW画像データのホワイトバランスを事後的に調整することが可能である。
 しかしながら、RAW画像データ等の画像データのホワイトバランスを事後的に調整する場合、ホワイトバランスの調整に関する自由度は低い。
 例えば人物夜景シーンでフラッシュを発光させた撮影により取得される画像において、「人物部分だけを少し赤い方向に修正したい」とユーザが望む場合がある。この場合、画面全体のホワイトバランスをシフトしてしまうと、人物部分だけではなく人物以外の背景部分の色相(カラーバランス)も変わってしまうため、ユーザの要望を満たすことができない。
 一方、事後的にホワイトバランスの調整を行う際にユーザがマニュアルで画素毎にWBゲインを設定する場合には、「人物部分だけを少し赤い方向に修正したい」というユーザの要望を満たすことは可能である。しかしながら、画素毎にマニュアルでWBゲインを設定する作業は、非常に手間がかかり非効率的である。
 このように、マルチエリアWB処理を行うために画素毎に設定された個別的なWBゲインの情報をRAW画像データ等の画像データと共に保存する場合には、事後的にマルチエリアWB処理の実行の有無を切り換えることはできるが、例えば「人物部分だけを少し赤い方向に修正したい」というユーザの要望を簡便に満たすことはできない。
 本発明は上述の事情に鑑みてなされたものであり、事後的にマルチエリアWB処理を行う場合であっても、自由度の高いホワイトバランスの調整を行うことを可能にする技術を提供することを目的とする。
 本発明の一態様は、原画像データの光源の数及び種類を判定する光源種判定部と、原画像データの光源の種類毎に定められる基準ホワイトバランスゲインを取得するゲイン取得部と、原画像データの画素毎に、光源の種類毎の影響率を取得し、影響率に基づいて基準ホワイトバランスゲインの混合比率を取得する混合比取得部と、基準ホワイトバランスゲイン及び混合比率を原画像データと関連付けて記憶媒体に記憶する記録部と、を備える画像処理装置に関する。
 本態様によれば、基準ホワイトバランスゲイン及び混合比率が原画像データと関連付けられて記憶される。したがって、記憶媒体に記憶されている原画像データを読み出してマルチエリアWB処理を事後的に行う場合であっても、基準ホワイトバランスゲイン及び混合比率を記憶媒体から読み出して使用することで適切にマルチエリアWB処理を行うことができる。また事後的にマルチエリアWB処理を行う際に、基準ホワイトバランスゲイン及び混合比率を調整することができるため、自由度の高いホワイトバランスの調整を行うことが可能である。
 望ましくは、光源種判定部は、原画像データの光源をフラッシュ光及び環境光として判定し、ゲイン取得部は、フラッシュ光を光源種とした場合に定められるフラッシュ光用基準ホワイトバランスゲインと、環境光を光源種とした場合に定められる環境光用基準ホワイトバランスゲインとを取得し、混合比取得部は、原画像データの画素毎に、フラッシュ光及び環境光の各々の影響率を取得し、当該影響率に基づいて、フラッシュ光用基準ホワイトバランスゲインと環境光用基準ホワイトバランスゲインとの混合比率を取得し、記録部は、フラッシュ光用基準ホワイトバランスゲイン、環境光用基準ホワイトバランスゲイン及び混合比率を、原画像データと関連付けて記憶媒体に記憶する。
 本態様によれば、フラッシュ光を発光して撮影取得された原画像データに関し、事後的にマルチエリアWB処理を適切に行うことができ、また自由度の高いホワイトバランス調整を行うことが可能である。
 望ましくは、画像処理装置は、フラッシュを発光して撮影されたフラッシュ発光画像データとフラッシュを発光せずに撮影されたフラッシュ非発光画像データとを取得するフラッシュ画像取得部を更に備え、混合比取得部は、フラッシュ発光画像データ及びフラッシュ非発光画像データからフラッシュ光及び環境光の各々の影響率を取得し、影響率に基づいてフラッシュ光用基準ホワイトバランスゲインと環境光用基準ホワイトバランスゲインとの混合比率を取得する。
 本態様によれば、フラッシュ光及び環境光の影響率を考慮したマルチエリアWB処理を事後的に行うことができる。
 望ましくは、混合比取得部は、フラッシュ非発光画像データの画素毎の第1の輝度値を取得し、フラッシュ発光画像データの画素毎の第2の輝度値を取得し、第1の輝度値及び第2の輝度値に基づいてフラッシュ光及び環境光の各々の影響率を取得し、影響率に基づいてフラッシュ光用基準ホワイトバランスゲインと環境光用基準ホワイトバランスゲインとの混合比率を取得する。
 本態様によれば、フラッシュ発光画像データ及びフラッシュ非発光画像データの輝度値(第1の輝度値及び第2の輝度値)に基づいて、フラッシュ光用基準ホワイトバランスゲイン及び環境光用基準ホワイトバランスゲインの混合比率を精度良く求めることができる。
 望ましくは、原画像データはフラッシュ発光画像データである。
 本態様によれば、フラッシュ発光画像データのマルチエリアWB処理を事後的に行うことができる。
 望ましくは、画像処理装置は、第1の光源種の影響を示す第1の画像データを取得し、第2の光源種の影響を示す第2の画像データを取得する光源種データ取得部を更に備え、光源種判定部によって判定される原画像データの光源の種類が第1の光源種及び第2の光源種を含む場合、ゲイン取得部は、第1の光源種に定められる基準ホワイトバランスゲインと第2の光源種に定められる基準ホワイトバランスゲインとを取得し、混合比取得部は、第1の画像データ及び第2の画像データから第1の光源種及び第2の光源種の影響率を取得し、影響率に基づいて、第1の光源種に定められる基準ホワイトバランスゲインと第2の光源種に定められる基準ホワイトバランスゲインとの混合比率を取得し、記録部は、第1の光源種に定められる基準ホワイトバランスゲイン、第2の光源種に定められる基準ホワイトバランスゲイン及び混合比率を、原画像データと関連付けて記憶媒体に記憶する。
 本態様によれば、第1の光源種及び第2の光源種の影響率を考慮したマルチエリアWB処理を事後的に行うことができる。
 望ましくは、原画像データを取得した際のホワイトバランス設定モードにかかわらず、光源種判定部は、原画像データの光源の数及び種類を判定し、ゲイン取得部は、光源の種類毎に定められる基準ホワイトバランスゲインを取得し、混合比取得部は、原画像データの画素毎に、光源の種類毎の影響率を取得し、影響率に基づいて基準ホワイトバランスゲインの混合比率を取得し、記録部は、基準ホワイトバランスゲイン及び混合比率を原画像データと関連付けて記憶媒体に記憶する。
 本態様によれば、原画像データを取得した際のホワイトバランス設定モードにかかわらず、基準ホワイトバランスゲイン及び混合比率が原画像データと関連付けられて記憶媒体に記憶される。したがってユーザは、原画像データを取得した際のホワイトバランス設定モードにかかわらず、原画像データにマルチエリアWB処理を事後的に施すことが可能である。
 望ましくは、画像処理装置は、原画像データを取得した際のホワイトバランス設定モードを判定する設定モード判定部を更に備え、設定モード判定部によって判定されたホワイトバランス設定モードが、原画像データの色分布情報に基づいて原画像データに適用されるホワイトバランスゲインが決定されるオートホワイトバランスモードの場合のみ、光源種判定部は、原画像データの光源の数及び種類を判定し、ゲイン取得部は、光源の種類毎に定められる基準ホワイトバランスゲインを取得し、混合比取得部は、原画像データの画素毎に、光源の種類毎の影響率を取得し、影響率に基づいて基準ホワイトバランスゲインの混合比率を取得し、記録部は、基準ホワイトバランスゲイン及び混合比率を原画像データと関連付けて記憶媒体に記憶する。
 本態様によれば、原画像データを取得した際のホワイトバランス設定モードがオートホワイトバランスモードの場合にのみ、事後的に原画像データのマルチエリアWB処理を行うことができる。
 ここでいう「オートホワイトバランスモード」は、原画像データを解析することによってホワイトバランスゲインが決定されるモードであり、ホワイトバランスゲインの決定手法は特に限定されない。
 本発明の他の態様は、原画像データと、原画像データの光源の種類毎に定められる基準ホワイトバランスゲインと、原画像データの画素毎に定められる基準ホワイトバランスゲインの混合比率とを、記憶媒体から取得する処理データ取得部と、原画像データの画素毎に、基準ホワイトバランスゲインから混合比率に応じて適用ホワイトバランスゲインを算出するゲイン算出部と、を備える画像処理装置に関する。
 本態様によれば、原画像データに適用される適用ホワイトバランスゲインを精度良く求めることができ、原画像データに対して事後的にマルチエリアWB処理を行うことができる。
 望ましくは、処理データ取得部によって取得される基準ホワイトバランスゲインは、フラッシュ光を光源種とした場合に定められるフラッシュ光用基準ホワイトバランスゲインと、環境光を光源種とした場合に定められる環境光用基準ホワイトバランスゲインとを含み、処理データ取得部によって取得される混合比率は、原画像データの画素毎に定められるフラッシュ光用基準ホワイトバランスゲインと環境光用基準ホワイトバランスゲインとの混合比率であり、ゲイン算出部は、原画像データの画素毎に、フラッシュ光用基準ホワイトバランスゲインと環境光用基準ホワイトバランスゲインとから混合比率に応じて適用ホワイトバランスゲインを算出する。
 本態様によれば、フラッシュ光及び環境光の影響を考慮したマルチエリアWB処理を事後的に行うことが可能である。
 望ましくは、画像処理装置は、原画像データを取得した際のホワイトバランス設定モードの情報を取得する設定モード取得部と、原画像データのホワイトバランス処理モードの情報を取得する処理モード取得部と、を更に備え、ゲイン算出部は、ホワイトバランス設定モードの情報及びホワイトバランス処理モードの情報に基づいて、ホワイトバランス処理モードがホワイトバランス設定モードと同じであると判定される場合には、記憶媒体から取得される基準ホワイトバランスゲインに基づいて適用ホワイトバランスゲインを算出し、ホワイトバランス処理モードがホワイトバランス設定モードと異なると判定される場合には、ホワイトバランス処理モードに基づいて定められる基準ホワイトバランスゲインを取得し、基準ホワイトバランスゲインに基づいて適用ホワイトバランスゲインを算出する。
 本態様によれば、原画像データを取得した際のホワイトバランス設定モードと、原画像データのマルチエリアWB処理を実行する際に意図されるホワイトバランス処理モードとが異なる場合であっても、意図されたホワイトバランス処理モードが反映されたマルチエリアWB処理を実施することが可能である。
 なお「ホワイトバランス処理モード」は任意の手法で決められ、ユーザがホワイトバランス処理モードを決めてもよいし、画像処理装置において各種の条件等に基づいてホワイトバランス処理モードが決められてもよい。
 望ましくは、画像処理装置は、ユーザによって指定される光源種を受け付ける光源種指定部と、光源種指定部が受け付けたユーザによって指定される光源種に定められる基準ホワイトバランスゲインを取得する指定ゲイン取得部と、を更に備え、ゲイン算出部は、原画像データの光源の種類毎に定められる基準ホワイトバランスゲインの少なくとも一部を、指定ゲイン取得部によって取得される基準ホワイトバランスゲインに置き換えて、混合比率に応じて適用ホワイトバランスゲインを算出する。
 本態様によれば、ユーザが指定する光源種を反映したマルチエリアWB処理の実行が可能である。
 望ましくは、画像処理装置は、原画像データに適用ホワイトバランスゲインを適用してホワイトバランス調整画像データを取得するホワイトバランス処理部を更に備える。
 本態様によれば、マルチエリアWB処理が施されたホワイトバランス調整画像データを取得することができる。
 望ましくは、画像処理装置は、表示制御部と、表示制御部によってコントロールされる表示部と、を更に備え、表示制御部は、ホワイトバランス調整画像データに基づく画像を表示部に表示させる。
 本態様によれば、ユーザは、ホワイトバランス調整画像データに基づく画像を、表示部を介して簡便に確認することができる。
 望ましくは、表示制御部は、ユーザによって操作される操作部に接続され、原画像データの光源の種類を示す光源表示を表示部に表示させ、原画像データの光源の種類が複数ある場合には光源の種類毎に設けられる複数の光源表示を表示部に表示させ、複数の光源表示が表示部に表示される場合、操作部を介したユーザの操作に応じて複数の光源表示のいずれかが指定されると、表示部に表示される画像の一部又は全部を、操作部を介して指定された光源表示に対応する光源の影響率に応じて強調表示する。
 本態様によれば、ユーザは、表示部に表示される画像の強調表示によって、所望光源の影響率の大きさを簡便に確認することができる。
 望ましくは、表示制御部は、画像の画素のうち、ユーザにより操作部を介して指定された光源表示に対応する光源の影響率が、原画像データの光源のうち他の種類の光源の影響率よりも高い画素を、表示部において強調表示する。
 本態様によれば、ユーザは、表示部に表示される画像の強調表示によって、所望光源の影響率が他の光源の影響率よりも大きい画像部分を簡便に確認することができる。
 望ましくは、表示制御部は、画像の画素のうち、ユーザにより操作部を介して指定された光源表示に対応する光源の影響率が第1の率よりも高い画素を、表示部において強調表示する。
 本態様によれば、ユーザは、表示部に表示される画像の強調表示によって、所望光源の影響率が大きい画像部分を簡便に確認することができる。
 なおここでいう「第1の率」は特に限定されず、例えば「50%」等の所定値としてもよいが、原画像データの光源の数及び種類等に応じて適応的に定められてもよい。
 望ましくは、画像処理装置は、画像のホワイトバランスを調整するホワイトバランス調整部を更に備え、表示制御部は、ユーザによって操作される操作部に接続され、原画像データの光源の種類を示す光源表示を表示部に表示させ、原画像データの光源の種類が複数ある場合には光源の種類毎に設けられる複数の光源表示を表示部に表示させ、複数の光源表示が表示部に表示される場合、操作部を介したユーザの操作に応じて、複数の光源表示のいずれかが指定されると、操作部を介して指定された光源表示に対応する光源に基づくホワイトバランスの変更を受け付ける変更表示を表示部に表示させ、操作部を介したユーザの操作に応じて、画像におけるホワイトバランスの変更を、変更表示を介して受け付け、ホワイトバランス調整部は、表示制御部によってホワイトバランスの変更が受け付けられると画像のホワイトバランスを調整して変更を画像に反映し、表示制御部は、ホワイトバランス調整部によってホワイトバランスが調整された画像を、表示部に表示させる。
 本態様によれば、表示部に表示される光源表示を介してユーザにより指定された光源に関するホワイトバランスの変更調整後の画像を、ユーザは表示部を介して簡便に確認することができる。
 望ましくは、画像処理装置は、画像のホワイトバランスを調整するホワイトバランス調整部を更に備え、表示制御部は、ユーザによって操作される操作部に接続され、原画像データの光源の種類を示す光源表示を表示部に表示させ、原画像データの光源の種類が複数ある場合には光源の種類毎に設けられる複数の光源表示を表示部に表示させ、複数の光源表示が表示部に表示される場合、操作部を介したユーザの操作に応じて、複数の光源表示のいずれかが指定されると、操作部を介して指定された光源表示に対応する光源の画像における影響率の変更を受け付ける変更表示を表示部に表示させ、操作部を介したユーザの操作に応じて、画像における影響率の変更量を、変更表示を介して受け付け、ホワイトバランス調整部は、画像のホワイトバランスを調整して、表示制御部が変更表示を介して受け付けた影響率の変更量を画像に反映し、表示制御部は、ホワイトバランス調整部によってホワイトバランスが調整された画像を、表示部に表示させる。
 本態様によれば、ユーザにより指定された光源に関するホワイトバランスの変更調整後の画像を、ユーザは表示部を介して簡便に確認することができる。
 望ましくは、ホワイトバランス設定モードは、ホワイトバランスゲインが予め定められているプリセットホワイトバランスモード、原画像データの色分布情報に基づいて原画像データに適用されるホワイトバランスゲインが決定されるオートホワイトバランスモード、及び原画像データとは異なる参照画像データの色分布情報に基づいて原画像データに適用されるホワイトバランスゲインが決定されるカスタムホワイトバランスモードのうちのいずれかである。
 望ましくは、原画像データは、RAW画像データである。
 本態様によれば、例えば原画像データ(RAW画像データ)の現像の際に、ホワイトバランス調整画像データを得ることができる。
 望ましくは、原画像データは、無圧縮画像データである。
 望ましくは、原画像データは、可逆圧縮画像データである。
 望ましくは、原画像データは、非可逆圧縮画像データである。
 これらの原画像データからホワイトバランス調整画像データを取得することが可能である。
 本発明の他の態様は、撮像素子と、上記の画像処理装置と、を備え、原画像データは撮像素子によって取得される撮像装置に関する。
 本発明の他の態様は、原画像データの光源の数及び種類を判定し、原画像データの光源の種類毎に定められる基準ホワイトバランスゲインを取得し、原画像データの画素毎に、光源の種類毎の影響率を取得し、影響率に基づいて基準ホワイトバランスゲインの混合比率を取得し、基準ホワイトバランスゲイン及び混合比率を原画像データと関連付けて記憶媒体に記憶する画像処理方法に関する。
 本発明の他の態様は、原画像データと、原画像データの光源の種類毎に定められる基準ホワイトバランスゲインと、原画像データの画素毎に定められる基準ホワイトバランスゲインの混合比率とを、記憶媒体から取得し、原画像データの画素毎に、基準ホワイトバランスゲインから混合比率に応じて適用ホワイトバランスゲインを算出する画像処理方法に関する。
 本発明の他の態様は、原画像データの光源の数及び種類を判定する手順と、原画像データの光源の種類毎に定められる基準ホワイトバランスゲインを取得する手順と、原画像データの画素毎に、光源の種類毎の影響率を取得し、影響率に基づいて基準ホワイトバランスゲインの混合比率を取得する手順と、基準ホワイトバランスゲイン及び混合比率を原画像データと関連付けて記憶媒体に記憶する手順と、をコンピュータに実行させるためのプログラムに関する。
 本発明の他の態様は、原画像データと、原画像データの光源の種類毎に定められる基準ホワイトバランスゲインと、原画像データの画素毎に定められる基準ホワイトバランスゲインの混合比率とを、記憶媒体から取得する手順と、原画像データの画素毎に、基準ホワイトバランスゲインから混合比率に応じて適用ホワイトバランスゲインを算出する手順と、をコンピュータに実行させるためのプログラムに関する。
 本発明によれば、記憶媒体に記憶される基準ホワイトバランスゲイン及び混合比率を使用することで、原画像データのマルチエリアWB処理を事後的に精度良く行うことができる。また事後的にマルチエリアWB処理を行う際に、基準ホワイトバランスゲイン及び混合比率を調整することができるため、自由度の高いホワイトバランスの調整を行うことが可能である。
デジタルカメラの正面斜視図である。 デジタルカメラの背面斜視図である。 デジタルカメラの制御処理系を示すブロック図である。 第1実施形態に係る画像処理部の機能構成例を示すブロック図である。 第1実施形態に係る画像処理フローを示すフローチャートである。 第2実施形態に係る画像処理部の機能構成例を示すブロック図である。 第2実施形態に係る画像処理フローを示すフローチャートである。 第3実施形態に係る画像処理部の機能構成例を示すブロック図である。 第3実施形態に係る画像処理フローを示すフローチャートである。 第4実施形態に係る画像処理フローを示すフローチャートである。 デジタルカメラ、コンピュータ、サーバ及びポータブル端末のネットワーク接続を示す概念図である。 第5実施形態に係るデータ処理部(画像処理部)の機能構成例を示すブロック図である。 第5実施形態に係る画像処理フローを示すフローチャートである。 第6実施形態に係るデータ処理部(画像処理部)の機能構成例を示すブロック図である。 第6実施形態に係る画像処理フローを示すフローチャートである。 第7実施形態に係るデータ処理部(画像処理部)の機能構成例を示すブロック図である。 第7実施形態に係る画像処理フローを示すフローチャートである。 第8実施形態に係る画像処理部の機能構成例を示すブロック図である。 表示部における画像表示例を示す図である。 ユーザが強調表示を指定するモードにおける表示部の表示例を示す図である。 ユーザが強調表示を指定した場合の表示部における画像表示例を示す図である。 第9実施形態に係る画像処理部の機能構成例を示すブロック図である。 第9実施形態に係る表示部における画像表示例を示す図である。 スマートフォンの外観を示す図である。 図24に示すスマートフォンの構成を示すブロック図である。
 図面を参照して本発明の実施形態について説明する。以下の実施形態では、デジタルカメラ(撮像装置)に本発明を適用する例について説明する。ただし、デジタルカメラ以外の画像処理装置、撮像装置、画像処理方法及びプログラムにも本発明を適用することが可能である。
 図1は、デジタルカメラ2の正面斜視図である。図2は、デジタルカメラ2の背面斜視図である。
 デジタルカメラ2は、カメラ本体3と、カメラ本体3の前面に取り付けられるレンズ鏡筒4とを備える。レンズ鏡筒4及びカメラ本体3は、一体的に設けられてもよいし、レンズ交換式カメラとして着脱自在に設けられてもよい。
 カメラ本体3の前面には、レンズ鏡筒4に加えてフラッシュ発光部5が設けられ、カメラ本体3の上面にはシャッタボタン6及び電源スイッチ7が設けられている。シャッタボタン6は、ユーザからの撮影指示を受け付ける撮影指示部であり、電源スイッチ7は、デジタルカメラ2の電源のオン及びオフの切り換え指示をユーザから受け付ける電源切換部である。
 カメラ本体3の背面には、液晶パネル等によって構成される表示部8と、ユーザによって直接的に操作される操作部9とが設けられている。表示部8は、撮影待機状態ではライブビュー画像(スルー画)を表示して電子ビューファインダとして機能し、撮影画像やメモリ記憶画像の再生時には再生画像表示部として機能する。
 操作部9は、モード切換スイッチ、十字キー及び実行キーなどの任意の操作デバイスによって構成される。例えばモード切換スイッチは、デジタルカメラ2の動作モードを切り換える際にユーザによって操作される。デジタルカメラ2の動作モードとして、被写体を撮像して撮影画像を得るための撮影モード、及び画像を再生表示する再生モード、等がある。また他の撮影モードとして、オートフォーカスを行うAF(Auto Focus)モード及びマニュアルフォーカス操作を行うMF(Manual Focus)モードがある。一方、十字キー及び実行キーは、表示部8にメニュー画面や設定画面を表示したり、メニュー画面や設定画面内に表示されるカーソルを移動したり、デジタルカメラ2の各種設定を確定したりする場合に、ユーザによって操作される。
 カメラ本体3の底部(図示省略)には、メインメモリ10が装填されるメモリスロットと、このメモリスロットの開口を開閉する装填蓋とが設けられている。メインメモリ10は、カメラ本体3に着脱自在に設けられており、カメラ本体3に装着されると、カメラ本体3に設けられる記憶制御部33と電気的に接続される。メインメモリ10は、一般にカード型フラッシュメモリ等の半導体メモリにより構成可能であるが、特に限定されるものではなく、磁気媒体等の任意の記憶方式の記憶媒体をメインメモリ10として用いることが可能である。
 図3は、デジタルカメラ2の制御処理系を示すブロック図である。
 被写体光は、レンズ鏡筒4に設けられるレンズ部12とカメラ本体3に設けられるメカニカルシャッタ20とを通過し、撮像素子21によって受光される。撮像素子21は、被写体像を受光して画像データを生成する素子であり、RGB(赤緑青)等のカラーフィルタと、光学像を電気信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサとを有する。撮像素子21から出力される画像データは、プロセス処理部22でAGC(Automatic Gain Control)回路等によってプロセス処理が施され、その後AD変換部23によってアナログ形式の画像データがデジタル形式の画像データに変換される。デジタル化された画像データはバッファメモリ24に保存される。
 バッファメモリ24は、画像データを一時的に記憶する領域であり、DRAM(Dynamic Random Access Memory)等によって構成される。AD変換部23から送られてきてバッファメモリ24に蓄えられた画像データは、システム制御部25により制御されるデータ処理部31によって読み出される。データ処理部31は、撮像素子21が生成する画像データを入力画像データとして使用し、ガンマ補正処理及びデモザイク処理等の各種の画像処理を行い、画像処理後の画像データを再びバッファメモリ24に保存する。
 データ処理部31において画像処理が施されてバッファメモリ24に保存された画像データは、表示制御部35及び圧縮伸張部32によって読み出される。表示制御部35は表示部8を制御し、バッファメモリ24から読み出した画像データを表示部8に表示させる。このように、撮像素子21から出力されデータ処理部31において画像処理を受けた画像データは、撮影確認画像として表示部8に表示(ポストビュー)される。
 一方、圧縮伸張部32は、バッファメモリ24から読み出した画像データの圧縮処理を行って、JPEG(Joint Photographic Experts Group)やTIFF(Tagged Image File Format)等の任意の圧縮形式の画像データを作成する。圧縮処理後の画像データは、メインメモリ(記憶媒体)10へのデータ記憶処理及びメインメモリ10からのデータ読み出し処理をコントロールする記憶制御部33によって、メインメモリ10に記憶される。なおメインメモリ10に画像データ等のデータ類を記憶する場合、記憶制御部33は、後述のクロックデバイス34から取得される日時情報に基づいて、そのデータ類に編集日時情報(更新日時情報)等の撮影情報やその他の関連情報を付加する。この撮影情報は任意のフォーマットで画像データに付加され、例えばExif(Exchangeable image file format)形式を採用可能である。
 メインメモリ10に保存されている画像データを再生する再生モードにおいて、メインメモリ10に保存されている画像データは、システム制御部25により制御される記憶制御部33によって読み出され、圧縮伸張部32によって伸張処理が施された後にバッファメモリ24に保存される。そして撮影画像の確認表示と同様の手順で、表示制御部35によってバッファメモリ24から画像データが読み出され、表示部8において画像データが再生表示される。
 システム制御部25は、上述のようにバッファメモリ24、データ処理部31及び記憶制御部33をコントロールするが、デジタルカメラ2における他の各部もコントロールする。例えば、システム制御部25は、レンズ駆動部27を制御してレンズ部12の駆動をコントロールし、シャッタ駆動部26を制御してメカニカルシャッタ20の駆動をコントロールし、撮像素子21を制御して画像データの出力をコントロールする。またシステム制御部25は、フラッシュ発光部5を制御してフラッシュの発光及び非発光をコントロールし、電源制御部28を制御して電源29における電池装着の有無、電池の種類及び電池残量の検出等を行う。またシステム制御部25は、クロックデバイス34においてカウントされる日時情報を取得して各種の処理に利用する。またシステム制御部25は、データ処理部31を構成する各種の処理部を制御する。
 さらにシステム制御部25は、シャッタボタン6、電源スイッチ7及び操作部9を含むユーザインタフェース36からの操作信号を取得し、操作信号に応じた各種の処理及びデバイス制御を行う。例えば、システム制御部25は、シャッタボタン6から受信したレリーズ信号に応じてシャッタ駆動部26を制御し、メカニカルシャッタ20の開閉をコントロールする。またシステム制御部25は、電源スイッチ7から受信した電源オンオフ信号に応じて電源制御部28を制御し、電源29のオン及びオフをコントロールする。
 システム制御部25で行われる各種の処理及びデバイス制御に必要なプログラムやデータ類は、制御メモリ30に記憶されている。システム制御部25は、必要に応じて、制御メモリ30に記憶されているプログラムやデータ類を読み出すことができ、また新たなプログラムやデータ類を制御メモリ30に保存することができる。例えば設定されたホワイトバランスモード(以下、「WBモード」と称する)の種類やホワイトバランスゲイン等の条件データを、システム制御部25は制御メモリ30に書き込むことができる。またシステム制御部25は、表示制御部35を制御して、各部から取得した各種情報を表示部8に表示させることができる。なおシステム制御部25は、ユーザがユーザインタフェース36を介して入力する操作信号に応じて、表示部8に表示させる各種情報を変更することができる。
 次に、撮像素子21によって取得される原画像データのホワイトバランス処理に関し、具体的な画像処理例について説明する。
 なお以下の各実施形態では、撮像素子21から出力されプロセス処理部22(プロセス処理)及びAD変換部23(AD変換処理)を経た「RAW画像データ」が、バッファメモリ24を介してデータ処理部31に入力され原画像データとして使用される例について説明する。したがってデータ処理部31におけるデモザイク処理は、以下の原画像データ(RAW画像データ)に関してはスキップされる。なお原画像データは「RAW画像データ」に限定されず、JPEG形式或いはTIFF形式等の他の任意のフォーマットを有する画像データに対しても同様の画像処理を行うことができる。
 一般にデジタルカメラには、画質処理が施されたJPEG画像等の処理画像の代わりに或いはそのような処理画像に加えて、「画質処理が施される前の画像データ」或いは「撮像系に起因する画質処理(例えばレンズシェーディング補正等)のみが施された画像データ」であるRAW画像データを記憶媒体(メインメモリ10)に記憶できる機種がある。RAW画像データを記憶しておくことにより、ユーザは、後日、RAW現像ソフトなどを使ってRAW画像データの画質処理及び現像処理を行うことができ、再撮影することなく画質違いの画像を得ることができる。デジタルカメラは、RAW画像データを記憶媒体に記憶する場合、RAW画像データの現像に必要な情報(撮影条件及び機種情報等)も併せて記憶媒体に記憶する。「RAW画像データ」及び「現像に必要な情報データ」の記憶方式は特に限定されないが、「RAW画像データ」に対して現像に必要な情報データや他の情報をタグ情報(メタデータ)として付加した状態のデータを記憶媒体に保存してもよい。以下の実施形態では、RAW画像データにタグ情報(メタデータ)を付加したデータを「RAWデータ」と呼ぶ。
 またメインメモリ10に保存される原画像データの圧縮形式は特に限定されず、原画像データは、無圧縮画像データであってもよいし、可逆圧縮画像データであってもよいし、非可逆圧縮画像データであってもよい。なお原画像データがRAW画像データの場合には、WB処理(後述の「ホワイトバランス処理部(WB処理部)64」参照)の前に現像処理が行われてもよいし、WB処理の後に現像処理が行われてもよい。また原画像データが圧縮画像データ(可逆圧縮画像データ又は非可逆圧縮画像データ)の場合には、WB処理(後述の「WB処理部64」参照)の前に伸張処理が行われていることが好ましい。これらの現像処理及び伸張処理は、例えば後述の処理データ取得部60において行われてもよい。
 <第1実施形態>
 本実施形態は、複数のWBゲイン(基準ホワイトバランスゲイン(以下、「基準WBゲイン」と称する))を画素毎に異なる混合比率で混合することで、画素毎に適したWBゲイン(適用ホワイトバランス(以下、「適用WBゲイン」と称する))を取得するマルチエリアWB処理を実現するための処理構成に関する。特に本実施形態では、「画素毎に適したWBゲイン(適用WBゲイン)」ではなく、「画素毎に適したWBゲイン(適用WBゲイン)」を取得するために使用される「複数のWBゲイン(基準WBゲイン)」と「画素毎の混合比率」とがメインメモリ(記憶媒体)10に記憶される。
 図4は、第1実施形態に係る画像処理部38の機能構成例を示すブロック図である。
 本実施形態の画像処理部38はデータ処理部31及び記憶制御部33を含み、データ処理部31は、光源種判定部40、ゲイン取得部42及び混合比取得部44を有する。
 光源種判定部40は、原画像データの光源の数及び種類を判定する。原画像データの光源の数及び種類を判定の手法は特に限定されない。例えば光源種としてフラッシュ光及び環境光が想定される場合、光源種判定部40は、フラッシュ発光部5を制御するシステム制御部25からフラッシュ発光の有無に関する情報を取得することで、原画像データの光源の数及び種類を判定してもよい。フラッシュ発光の有無は、ユーザインタフェース36を介したユーザの設定によって決められたり、或いは撮影シーンの明るさを検出する測光センサ(図示省略)の検出結果に応じてシステム制御部25により決められたりするが、いずれにしてもシステム制御部25はフラッシュ発光の有無の情報を有する。したがって光源種として環境光及びフラッシュ光が想定される場合、光源種判定部40は、システム制御部25が把握しているフラッシュ発光の有無の情報を取得することで、原画像データの光源の数及び種類を判定してもよい。
 ゲイン取得部42は、原画像データの光源の種類毎に定められる基準WBゲインを取得する。例えばフラッシュ光の光源種については、フラッシュ光に関するWBゲインを予め定めておき制御メモリ30等のメモリに保存可能であるため、ゲイン取得部42はメモリから予め定められたフラッシュ光用のWBゲインを基準WBゲインとして取得してもよい。また環境光の光源種については、ゲイン取得部42は、例えば原画像データを解析して色分布情報や輝度分布情報を取得して、その色分布情報や輝度分布情報から環境光に適したWBゲインを推定し、そのWBゲインを基準WBゲインとして取得してもよい。
 混合比取得部44は、原画像データの画素毎に、光源の種類毎の影響率を取得し、その影響率に基づいて基準WBゲインの混合比率を取得する。ここでいう「影響率」は任意の手法によって求められ、例えば原画像データを解析することで「影響率」を求めることができる。なお後述の第2実施形態では、画像データを解析して得られる「輝度値」に基づいて影響率を取得し、この影響率に基づいて基準WBゲインの混合比率が取得される。
 記憶制御部33は、基準WBゲイン及び混合比率を原画像データと関連付けてメインメモリ(記憶媒体)10に記憶する記録部として機能する。なお原画像データは、混合比取得部44(データ処理部31)から出力され、バッファメモリ24及び圧縮伸張部32(図3参照)を介して記憶制御部33に送られて、メインメモリ10に保存される。メインメモリ10に保存する原画像データが、圧縮画像データ(可逆圧縮画像データ又は非可逆圧縮画像データ)の場合には圧縮伸張部32において圧縮形式に応じた圧縮処理が行われるが、無圧縮画像データの場合には圧縮伸張部32における圧縮処理はスキップされる。
 図5は、第1実施形態に係る画像処理フローを示すフローチャートである。以下のフローチャートの説明では、一例として、被写体にフラッシュ光及び環境光が照射された状態で取得される画像データを原画像データとするケースについて説明する。
 まず光源種判定部40によって、原画像データの光源の数及び種類が判定され(図5のS11)、本例ではフラッシュ光及び環境光が2種類の光源種として判定される。
 そしてゲイン取得部42によって、環境光を光源種とした場合に定められる「環境光に適したWBゲインWB1(以下、「環境光用基準WBゲインWB1」と称する)」と、フラッシュ光を光源種とした場合に定められる「フラッシュ光に適したWBゲインWB2(以下、「フラッシュ光用基準WBゲインWB2」と称する)」とが取得される(S12)。
 そして混合比取得部44によって、原画像データの画素毎に、フラッシュ光及び環境光の各々の影響率が取得され、その影響率に基づいて、フラッシュ光用基準WBゲインと環境光用基準WBゲインとの混合比率「Ratio_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」が取得される(S13)。
 そして記憶制御部33によって、環境光用基準WBゲインWB1、フラッシュ光用基準WBゲインWB2及び混合比率Ratio_ijが、原画像データと関連付けられてメインメモリ10に記憶される(S14)。
 以上説明したように本実施形態によれば、マルチエリアWB処理で使用するWBゲインの算出の基礎となる「光源種毎の基準WBゲイン」及び「混合比率」が原画像データと関連付けられて記憶される。これにより、記憶されている「光源種毎の基準WBゲイン」及び「混合比率」を使って画素毎に適したWBゲインを簡便に取得することができるため、ユーザの要望に応じて、原画像データに対してマルチエリアWB処理を事後的に実行することが可能である。例えばRAW画像データを原画像データとして「光源種毎の基準WBゲイン」及び「混合比率」と共にメインメモリ10に記憶しておくことで、ユーザはRAW画像データの現像処理を行う際に、併せてマルチエリアWB処理の実行の有無を決めることができる。
 また事後的にマルチエリアWB処理を行う場合、ユーザの要望に応じて、「光源種毎の基準WBゲイン」及び「混合比率」の一部又は全部を変更することも可能であるため、自由度の高いホワイトバランス調整を行うことができる。したがってユーザは、例えば「フラッシュ光の影響率が高い人物像等の画像部分」と「フラッシュ光の影響率が低い背景像等の画像部分」とのホワイトバランスを事後的に別々に調整することも可能である。
 <第2実施形態>
 本実施形態において、上述の第1実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、第1実施形態の具体的態様に関し、フラッシュ発光シーンを撮影することで得られるフラッシュ発光画像データを原画像データとした場合について示す。
 図6は、第2実施形態に係る画像処理部38の機能構成例を示すブロック図である。
 本実施形態のデータ処理部31(画像処理部38)は、光源種判定部40、ゲイン取得部42及び混合比取得部44に加え、フラッシュ画像取得部46を更に有する。フラッシュ画像取得部46は、フラッシュを発光した撮影により得られるフラッシュ発光画像データと、フラッシュ発光画像データの被写体と同一の被写体をフラッシュ非発光で撮影することで得られるフラッシュ非発光画像データとを取得する。すなわち本実施形態では、ユーザがフラッシュ発光画像データを取得しようとシャッタボタン6(図1及び図2参照)を押すと、システム制御部25はフラッシュ発光部5の発光をコントロールしつつ撮像素子21等を制御して、フラッシュ非発光撮影及びフラッシュ発光撮影が自動的に連続的に行われる。フラッシュ画像取得部46は、これらの撮影により得られるフラッシュ発光画像データ及びフラッシュ非発光画像データを取得する。
 なおメインメモリ10に記憶される処理対象の原画像データはフラッシュ発光画像データであるが、フラッシュ非発光画像データもフラッシュ発光画像データと共にメインメモリ10に記憶されてもよい。
 フラッシュ発光画像データ及びフラッシュ非発光画像データはフラッシュ画像取得部46から混合比取得部44に送られ、またフラッシュ非発光画像データはゲイン取得部42にも送られる。
 フラッシュ非発光画像データはフラッシュ光の影響を受けずに環境光を主要光源として撮影された画像データであるため、ゲイン取得部42は、フラッシュ非発光画像データを解析することで、環境光用基準WBゲインを取得する。具体的には、ゲイン取得部42は、オートホワイトバランスモード用のWBゲイン(以下、「AWBゲイン」と称する)を算出し、このAWBゲインを環境光用基準WBゲインとして設定してもよい。なおAWBゲインは任意の手法に基づいて算出可能である。ゲイン取得部42は、例えばフラッシュ非発光画像データを解析してRGBの画素値から色分布情報を求めて、平均値を無彩色にするゲインをAWBゲイン(環境光用基準WBゲイン)として設定してもよい。またゲイン取得部42は、フラッシュ非発光画像データの輝度値から輝度分布情報を求めて、この輝度分布情報に基づいてAWBゲイン(環境光用基準WBゲイン)を決めてもよい。また複数の環境光の種別毎に定められるWBゲインを予め制御メモリ30等のメモリに記憶しておき、ゲイン取得部42は、フラッシュ非発光画像データを解析することで環境光の種別を判定し、判定された環境光の種別に関するWBゲインをメモリから取得して環境光用基準WBゲインとして設定してもよい。
 一方、フラッシュ光用基準WBゲインは、フラッシュ光の特性に基づいて予め求められて制御メモリ30等のメモリに記憶されており、ゲイン取得部42によってメモリから読み出されて取得される。
 混合比取得部44は、フラッシュ画像取得部46が取得したフラッシュ発光画像データ及びフラッシュ非発光画像データから、フラッシュ光及び環境光の各々の影響率を取得し、この影響率に基づいて、フラッシュ光用基準ホワイトバランスゲインと環境光用基準ホワイトバランスゲインとの混合比率を取得する。
 具体的には、本例の混合比取得部44は、フラッシュ非発光画像データの画素毎の輝度値(以下、「第1の輝度値」と称する)を取得し、フラッシュ発光画像データの画素毎の輝度値(以下、「第2の輝度値」と称する)を取得し、第1の輝度値及び第2の輝度値に基づいてフラッシュ光及び環境光の各々の影響率を取得する。
 第1の輝度値及び第2の輝度値の取得手法は特に限定されない。例えばフラッシュ発光画像データ及びフラッシュ非発光画像データの各々におけるR画素値を「R_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」によって表し、G画素値を「G_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」、B画素値を「B_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」で表した場合、フラッシュ非発光画像データの各画素の輝度値(第1の輝度値)「Y1_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」及びフラッシュ発光画像データの各画素の輝度値(第2の輝度値)「Y2_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」は、下記の式1及び式2によって表すことができる。なお、以下の式1及び式2では係数として「0.299」、「0.587」及び「0.114」が使用されているが、他の係数が使用されてもよい。
 式1   Y1_ij
     =R_ij×0.299+G_ij×0.587+B_ij×0.114
 式2   Y2_ij
     =R_ij×0.299+G_ij×0.587+B_ij×0.114
 混合比取得部44は、第1の輝度値Y1_ij及び第2の輝度値Y2_ijを使って下記の式3により、フラッシュ影響率「Flash_ij」及び混合比率「Ratio_ij」を取得することができる。
 式3   Ratio_ij
     =Flash_ij
     =1-(Y1_ij/Y2_ij)
 このようにして取得された環境光用基準WBゲイン、フラッシュ光用基準WBゲイン及び混合比率は、第1実施形態と同様に記憶制御部33によって、原画像データ(フラッシュ発光画像データ)と関連付けられてメインメモリ10に記憶される。なお混合比率Ratio_ijは、本例のようにフラッシュ影響率Flash_ijと等価であってもよい(上記の式3参照)が、フラッシュ影響率Flash_ijと異なる比率であってもよく、フラッシュ影響率Flash_ijが反映された値であればよい。
 図7は、第2実施形態に係る画像処理フローを示すフローチャートである。
 まず光源種判定部40によって、原画像データの光源が2種類(フラッシュ光及び環境光)の光源種として判定され(図7のS21)、フラッシュ画像取得部46によって、フラッシュ発光画像データ及びフラッシュ非発光画像データが取得される(S22)。
 そしてゲイン取得部42によって、フラッシュ非発光画像データから環境光用基準WBゲインWB1が取得され(S23)、またメモリからフラッシュ光用基準WBゲインWB2が取得される(S24)。
 そして混合比取得部44によって、フラッシュ非発光画像データの画素毎の輝度値(第1の輝度値)Y1_ijが取得され(S25)、またフラッシュ発光画像データの画素毎の輝度値(第2の輝度値)Y2_ijが取得される(S26)。そして混合比取得部44によって、第1の輝度値Y1_ij及び第2の輝度値Y2_ijから、フラッシュの影響率Flash_ijが原画像データ(フラッシュ発光画像データ)の画素毎に取得され、このフラッシュの影響率に基づいて混合比率Ratio_ijが設定される(S27)。
 そして記憶制御部33によって、環境光用基準WBゲインWB1、フラッシュ光用基準WBゲインWB2及び混合比率Ratio_ijが、原画像データ(フラッシュ発光画像データ)と関連付けられてメインメモリ10に記憶される(S28)。
 以上説明したように本実施形態によれば、フラッシュ撮影によって取得される原画像データ(フラッシュ発光画像データ)の画素毎に定められるWBゲインの算出の基礎となる「環境光用基準WBゲイン」、「フラッシュ光用基準WBゲイン」及び「混合比率」が原画像データと関連付けられて記憶される。したがって画像のホワイトバランスの調整を事後的に行う場合、記憶されているこれらの「環境光用基準WBゲイン」、「フラッシュ光用基準WBゲイン」及び「混合比率」を使うことで、「フラッシュ光の影響が支配的な画像部分」と「環境光の影響が支配的な画像部分」とを別個にホワイトバランスの調整を行うことが可能である。
 例えばユーザが「フラッシュ光の影響率が大きい人物の画像部分だけ少し赤い方向に修正したい」と望む場合、フラッシュ光に適したフラッシュ光用基準WBゲインWB2を少し赤い方向にずらせばよい。この場合、フラッシュ光用基準WBゲインWB2の比率が高い画素だけ色相(カラーバランス)が赤い方向にシフトし、フラッシュ光用基準WBゲインWB2の比率が低く環境光用基準WBゲインWB1の比率が高い画素の色相(カラーバランス)は影響を受け難い。結果として、フラッシュ光用基準WBゲインWB2の比率が高い人物の画像部分の色相が赤い方向に修正される一方で、環境光用基準WBゲインWB1の比率が高い背景の画像部分の色相はほぼ維持され、ユーザの要望を満たしたホワイトバランス調整を行うことができる。
 なお上述の図6及び図7に示す第2実施形態では、フラッシュ光及び環境光のそれぞれを、原画像データにおける第1の光源種及び第2の光源種として扱う例について説明したが、第1の光源種及び第2の光源種は特に限定されない。フラッシュ発光画像データ及びフラッシュ非発光画像データの代わりに、光源種データ取得部(図6参照)によって第1の光源種の影響を示す第1の画像データを取得し、第2の光源種の影響を示す第2の画像データを取得してもよい。すなわち、光源種判定部によって判定される原画像データの光源の種類が第1の光源種及び第2の光源種を含む場合、ゲイン取得部42は、第1の光源種に関して定められる第1の光源種に適した基準ホワイトバランスゲインと、第2の光源種に関して定められる第2の光源種に適した基準ホワイトバランスゲインとを取得してもよい。この場合、混合比取得部44は、第1の画像データ及び第2の画像データから原画像データにおける第1の光源種及び第2の光源種の影響率を取得し、この影響率に基づいて、第1の光源種に関して定められる基準ホワイトバランスゲインと第2の光源種に関して定められる基準ホワイトバランスゲインとの混合比率を取得する。そして記憶制御部33は、第1の光源種に関して定められる基準ホワイトバランスゲイン、第2の光源種に関して定められる基準ホワイトバランスゲイン及び混合比率を、原画像データと関連付けて記憶媒体に記憶することができる。
 <第3実施形態>
 本実施形態において、上述の第1実施形態及び第2実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、原画像データを取得した際のホワイトバランス設定モード(以下、「WB設定モード」と称する)がAWBモードである場合のみ、上述の第1実施形態における基準WBゲイン及び混合比率の取得処理及び記憶処理を行う。WB設定モードがプリセットホワイトバランスモード(以下、「プリセットWBモード」と称する)、カスタムホワイトバランスモード(以下、「カスタムWBモード」と称する)及びマニュアルホワイトバランスモード(以下、「マニュアルWBモード」と称する)等のAWBモード以外の場合には、上述の第1実施形態における基準WBゲイン及び混合比率の取得処理及び記憶処理は実施されない。
 原画像データを取得する際に選択可能なWB設定モードは特に限定されず、予め定められた1種類のWBモードのみがWB設定モードとして選択可能であってもよいし、多種類のWBモードの中からユーザの指定に応じたモードや撮影条件に応じたモードがWB設定モードとして選択可能であってもよい。
 したがって例えば、予め想定される光源種(晴れ(太陽光)、蛍光灯及び電球等)に応じてホワイトバランスゲインが予め定められているプリセットWBモード、原画像データの色分布情報に基づいて原画像データに適用されるホワイトバランスゲインが決定されるAWBモード、及び原画像データとは異なる参照画像データの色分布情報に基づいて原画像データに適用されるホワイトバランスゲインが決定されるカスタムWBモードのうちのいずれか一つがWB設定モードとして選択可能であってもよい。またユーザがマニュアルで個別的にWBゲインを決定するマニュアルWBモードを、WB設定モードとして選択可能であってもよい。
 以下では、WB設定モードがAWBモードの場合には第1実施形態と同様の処理が行われる例について説明するが、これに限定されず、例えば第1実施形態と同様の処理の代わりに第2実施形態と同様の処理が行われてもよい。
 図8は、第3実施形態に係る画像処理部38の機能構成例を示すブロック図である。
 本実施形態のデータ処理部31(画像処理部38)は、光源種判定部40、ゲイン取得部42及び混合比取得部44に加え、設定モード判定部48を更に有する。設定モード判定部48は、原画像データを取得した際のWB設定モードを判定する。このWB設定モードの判定手法は特に限定されない。システム制御部25がWB設定モードの情報を有する場合、設定モード判定部48はシステム制御部25からWB設定モードの情報を取得してもよい。
 なお図8に示す例では、設定モード判定部48とシステム制御部25とが別体として示されているが、システム制御部25が設定モード判定部48の役割を果たしてもよく、システム制御部25も画像処理部38に含まれうる。
 データ処理部31に含まれる設定モード判定部48、光源種判定部40、ゲイン取得部42及び混合比取得部44はシステム制御部25によってコントロールされ、各部における処理の実行及び非実行はシステム制御部25によって決定可能である。特に本実施形態では、設定モード判定部48によって判定されたWB設定モードがAWBモードの場合にのみ、第1実施形態と同様の処理が画像処理部38において行われる。
 すなわちWB設定モードがAWBモードの場合にのみ、光源種判定部40は原画像データの光源の数及び種類を判定し、ゲイン取得部42は光源の種類毎に定められる基準ホワイトバランスゲインを取得する。また混合比取得部44は原画像データの画素毎に、光源の種類毎の影響率を取得し、この影響率に基づいて基準ホワイトバランスゲインの混合比率を取得する。そして記憶制御部33は、基準ホワイトバランスゲイン及び混合比率を原画像データと関連付けてメインメモリ10に記憶する。
 図9は、第3実施形態に係る画像処理フローを示すフローチャートである。なお以下の説明では、フラッシュ光及び環境光を光源種とするフラッシュ発光画像データを原画像データとする例について併せて示す。
 まず設定モード判定部48によって、原画像データを取得した際のWB設定モードが判定され(図9のS31)、システム制御部25によってWB設定モードがAWBモードか否かが判定される(S32)。
 WB設定モードがAWBモードであると判定される場合(S32のY)、光源種判定部40によって、原画像データの光源の数及び種類(例えばフラッシュ光及び環境光)が判定される(S33)。そしてゲイン取得部42によって、光源の種類毎に定められる基準ホワイトバランスゲイン(環境光用基準WBゲイン及びフラッシュ光用基準WBゲイン)が取得される(S34)。
 そして混合比取得部44によって、原画像データの画素毎に、光源の種類毎の影響率が取得され、この影響率に基づいて基準ホワイトバランスゲイン(環境光用基準WBゲイン及びフラッシュ光用基準WBゲイン)の混合比率が取得される(S35)。そして記憶制御部33によって、基準ホワイトバランスゲイン(環境光用基準WBゲイン及びフラッシュ光用基準WBゲイン)及び混合比率が原画像データと関連付けられてメインメモリ10に記憶される(S36)。
 一方、WB設定モードがAWBモードではないと判定される場合(S32のN)、上述の処理ステップS33~S36はスキップされる。
 以上説明したように本実施形態によれば、AWBモードで取得される原画像データに対しては基準ホワイトバランスゲイン及び混合比率がメインメモリ10に記憶されるため、第1実施形態と同様に、ユーザは高い自由度で事後的に画像のホワイトバランスの調整を行うことができる。一方、AWBモード以外で撮影して取得される原画像データに対しては上述の一連の処理ステップS33~S36がスキップされるため、原画像データの撮影からメインメモリ10への記憶までの処理が高速化される。
 <第4実施形態>
 本実施形態において、上述の第1実施形態~第3実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 上述の第3実施形態ではWB設定モードがAWBモードの場合にのみ第1実施形態又は第2実施形態と同様の処理が行われるが、本実施形態では原画像データを取得する際のWB設定モードにかかわらず第1実施形態又は第2実施形態と同様の処理が行われる。
 マルチエリアWB処理を実行するには、上述のように特殊な処理や情報が必要である。ユーザが原画像データの撮影取得の際にマルチエリアWB処理を実施したい場合には、原画像データを取得した際に、そのようなマルチエリアWB処理のための特殊な処理を行ったり情報を取得することができる。しかしながら、撮影後に例えばRAW画像データを現像する段階になってからユーザがマルチエリアWB処理を実施したくなった場合には、撮影の際に行う必要があるマルチエリアWB処理のための特殊な処理が行われておらず、また撮影の際に取得することが必要な情報が取得されていないため、マルチエリアWB処理の実現が困難である。
 例えば人物夜景シーンでフラッシュを発光させて撮影して取得した画像データを原画像データとしてマルチエリアWB処理を行う場合、フラッシュ非発光画像データを併せて取得し、フラッシュ発光画像データとフラッシュ非発光画像データとの画素値の差分から画素毎にフラッシュ影響率を取得し、フラッシュ影響率に応じて環境光用基準WBゲインとフラッシュ光用基準WBゲインとの混合比率を画素毎に取得することが必要とされる。しかしながら、RAW画像データ(原画像データ)の現像段階でこれらの処理を実行しようとしても、RAW画像データとして記憶されているのはフラッシュ発光画像データのみであり、マルチエリアWB処理に必要なフラッシュ非発光画像データが無いため、マルチエリアWB処理を実施するための「画素毎に適したWBゲイン」を取得することができない。
 したがって本実施形態のように原画像データを取得する際のWB設定モードにかかわらず、上述の第1実施形態又は第2実施形態のように基準ホワイトバランスゲイン及び混合比率をメインメモリ10に記憶しておくことで、マルチエリアWB処理を行うことをユーザが事後的に望んだ場合であっても、適切なマルチエリアWB処理が施されたホワイトバランス調整画像データ(以下、「WB調整画像データ」と称する)を取得することが可能である。
 本実施形態における画像処理部38は、上述の第1実施形態(図4参照)や第2実施形態(図6参照)と基本的には同じである。すなわち原画像データを取得した際のWB設定モードにかかわらず、光源種判定部40は、原画像データの光源の数及び種類を判定し、ゲイン取得部42は、光源の種類毎に定められる基準ホワイトバランスゲインを取得し、混合比取得部44は、原画像データの画素毎に、光源の種類毎の影響率を取得し、影響率に基づいて基準ホワイトバランスゲインの混合比率を取得し、記憶制御部33は、基準ホワイトバランスゲイン及び混合比率を原画像データと関連付けてメインメモリ10に記憶する。
 図10は、第4実施形態に係る画像処理フローを示すフローチャートである。本実施形態では、第3実施形態の処理フローのうち、WB設定モードの判定に関する上述の処理ステップS31~S32(図9参照)は省略され、上述の処理ステップS33~S36が行われる。
 すなわち原画像データを取得した際のWB設定モードにかかわらず、光源種判定部40によって、原画像データの光源の数及び種類(例えばフラッシュ光及び環境光)が判定される(S33)。そしてゲイン取得部42によって、光源の種類毎に定められる基準ホワイトバランスゲイン(例えば環境光用基準WBゲイン及びフラッシュ光用基準WBゲイン)が取得される(S34)。
 そして混合比取得部44によって、原画像データの画素毎に、光源の種類毎の影響率が取得され、この影響率に基づいて基準ホワイトバランスゲイン(例えば環境光用基準WBゲイン及びフラッシュ光用基準WBゲイン)の混合比率が取得される(S35)。そして記憶制御部33によって、基準ホワイトバランスゲイン(例えば環境光用基準WBゲイン及びフラッシュ光用基準WBゲイン)及び混合比率が原画像データと関連付けられてメインメモリ10に記憶される(S36)。
 以上説明したように本実施形態によれば、原画像データを取得した際のWB設定モードにかかわらず、常にマルチエリアWB処理のための演算が実施されて基準ホワイトバランスゲイン及び混合比率が原画像データと関連付けられてメインメモリ10に記憶される。したがってユーザは、原画像データを取得した際のWB設定モードにかかわらず、原画像データに対するマルチエリアWB処理のオン及びオフを事後的に決定することができる。
 <第5実施形態>
 本実施形態において、上述の第1実施形態~第4実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、上述の原画像データに加えて基準WBゲイン及び混合比率がメインメモリ10から読み出されて、その原画像データに対してマルチエリアWB処理を施してWB調整画像データを得る処理に関する。
 すなわち本実施形態のデータ処理部31は、原画像データに関連付けられて記憶されている基準WBゲイン及び混合比率をメインメモリ10から取得して、原画像データのWB処理を行う。したがって本実施形態で使用されるメインメモリ10には、例えば上述の第1実施形態~第4実施形態の原画像データのように、基準WBゲイン及び混合比率が原画像データと関連付けられて記憶されている。
 なお本実施形態に係る下述のデータ処理部31(図12参照)は、上述の第1実施形態~第3実施形態で説明した「光源種判定部40、ゲイン取得部42及び混合比取得部44」を含むデータ処理部31(図4、図6及び図8参照)と一体的に設けられてもよいし、別体として設けられてもよい。したがって、例えば図4、図6及び図8に示すデータ処理部31をデジタルカメラ2に設ける場合に、図12に示す本実施形態に係るデータ処理部31は、同様にデジタルカメラ2に設けられてもよいし、図11に示すようにデジタルカメラ2に有線又は無線のネットワーク94を介して接続されるコンピュータ91やサーバ92に設けられてよい。また下述の図12に示すデータ処理部31は、デジタルカメラ2から取り外されたメインメモリ10に接続可能なコンピュータ91等に設けられてもよい。またデジタルカメラ2、コンピュータ91又はサーバ92に接続されるポータブル端末96であって、原画像データを受信可能なスマートフォン或いはタブレット端末等のポータブル端末96に、下述の図12に示すデータ処理部31が設けられてもよい。
 図12は、第5実施形態に係るデータ処理部31(画像処理部38)の機能構成例を示すブロック図である。
 本実施形態のデータ処理部31は、処理データ取得部60、ゲイン算出部62及びWB処理部64を有する。
 処理データ取得部60は、原画像データと、原画像データの光源の種類毎に定められる基準WBゲインと、原画像データの画素毎に定められる基準WBゲインの混合比率とを、メインメモリ10から取得する。基準WBゲイン及び混合比率が原画像データのタグ情報に含まれる場合には、処理データ取得部60は取得した原画像データのタグ情報から基準WBゲイン及び混合比率を取得することができる。
 ゲイン算出部62は、原画像データの画素毎に、基準WBゲインから混合比率に応じて適用WBゲインを算出する。
 WB処理部64は、原画像データに適用WBゲインを適用してWB調整画像データを取得する。例えば原画像データの画素値を「V_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」で表し、適用WBゲインを「WB_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」で表す場合、WB調整画像データの各画素値「Q_ij(但し「i」は画素位置をX軸値及びY軸値で表した場合のX軸値を表し、「j」はY軸値を表す)」は、下記の式4によって表される。
 式4   Q_ij=V_ij×WB_ij
 以下では、処理データ取得部60によって取得される基準WBゲインが、フラッシュ光を光源種とした場合に定められるフラッシュ光用基準WBゲインと、環境光を光源種とした場合に定められる環境光用基準WBゲインとを含む場合について説明する。処理データ取得部60によって取得される混合比率は、原画像データの画素毎に定められるフラッシュ光用基準WBゲインと環境光用基準WBゲインとの混合比率である。またゲイン算出部62は、原画像データの画素毎に、フラッシュ光用基準WBゲインと環境光用基準WBゲインとから混合比率に応じて適用ホワイトバランスゲインを算出する。
 このデータ処理部31によれば、原画像データがRAW画像データである場合、ユーザは、RAW画像データの現像処理を行う際に、メインメモリ10に記憶されている「基準WBゲイン(環境光用基準WBゲイン及びフラッシュ光用基準WBゲイン)」と「混合比率」とを使ってマルチエリアWB処理を併せて行うことができる。
 図13は、第5実施形態に係る画像処理フローを示すフローチャートである。
 まず処理データ取得部60によって、原画像データ、環境光用基準WBゲインWB1、フラッシュ光用基準WBゲインWB2及び混合比率Ratio_ijがメインメモリ10から取得される(図13のS41)。
 そしてゲイン算出部62によって、原画像データの画素毎に、環境光用基準WBゲインWB1、フラッシュ光用基準WBゲインWB2及び混合比率Ratio_ijから適用WBゲインWB_ijが取得される(S42)。
 そしてWB処理部64によって、原画像データに適用WBゲインWB_ijが適用されてWB調整画像データが取得される(S43)。
 以上説明したように本実施形態によれば、原画像データのマルチエリアWB処理を適切に行うことができる。
 またマルチエリアWB処理に使用する基準WBゲイン(環境光用基準WBゲイン及びフラッシュ光用基準WBゲイン)が光源種毎に用意されているため、ユーザは光源種の一部の影響を個別的に変更したWB処理を行うことも可能である。例えばユーザが「フラッシュが当たっている画像部分(人物像等)だけを少し赤い方向に修正したい」と望む場合、WB処理部64は、WB処理で使用するフラッシュ光用基準WBゲインを少し赤い方向にずらせばよい。この場合、WB調整画像データのうちフラッシュ光用基準WBゲインの比率が高い人物像等の画像部分のみ色相(カラーバランス)を赤い方向にシフトさせることができ、フラッシュ光用基準WBゲインの比率が低く環境光用基準WBゲインの比率が高い背景画像部分に対する影響は小さい。このように本実施形態の画像処理部38によれば、ホワイトバランスの調整に関する自由度が高く、ユーザの要望を満たしたWB調整画像データを簡便に得ることが可能である。
 <第6実施形態>
 本実施形態において、上述の第1実施形態~第5実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 図14は、第6実施形態に係るデータ処理部31(画像処理部38)の機能構成例を示すブロック図である。
 本実施形態のデータ処理部31は、処理データ取得部60、ゲイン算出部62及びWB処理部64に加え、設定モード取得部66及び処理モード取得部68を更に有する。
 設定モード取得部66は、原画像データを取得した際のWB設定モードの情報を取得する。WB設定モードの情報の取得手法は特に限定されず、原画像データのタグ情報にWB設定モードの情報が含まれている場合、設定モード取得部66は、処理データ取得部60によって取得された原画像データのタグ情報から、WB設定モードの情報を読み出して取得してもよい。
 処理モード取得部68は、原画像データのホワイトバランス処理モード(以下、「WB処理モード」と称する)の情報を取得する。本例の「WB処理モード」はユーザが希望するWBモードであり、ユーザは原画像データの実際のWB処理として希望するWBモードを「WB処理モード」として処理モード入力部70に入力する。
 処理モード入力部70の具体的な形態は特に限定されず、処理モード入力部70がデジタルカメラ2に搭載される場合には、例えば「操作部9(図2参照)」によって処理モード入力部70を構成することができる。また処理モード入力部70がコンピュータ91、サーバ92又はポータブル端末96に搭載される場合には、それらの機器類に搭載又は接続されるキーボード、マウス或いはタッチパネル等の任意の操作部によって処理モード入力部70を構成することができる。
 処理モード取得部68によって取得された「原画像データのWB処理モードの情報」はゲイン算出部62に送られる。またゲイン算出部62には、設定モード取得部66が取得した「原画像データのWB設定モードの情報」が送られる。
 ゲイン算出部62は、WB設定モードの情報及びWB処理モードの情報に基づいて、WB処理モードがWB設定モードと同じであると判定される場合には、メインメモリ10から処理データ取得部60を介して取得される基準WBゲインに基づいて適用WBゲインを算出する。一方、WB処理モードがWB設定モードと異なると判定される場合には、ゲイン算出部62は、WB処理モードに基づいて定められる基準WBゲインを取得し、この基準WBゲインに基づいて適用WBゲインを算出する。
 例えば、WB設定モードがAWBモードであるのに対してWB処理モードがプリセットWBモードである場合、ゲイン算出部62は、プリセットWBモード用に定められたWBゲインを取得し、このプリセットWBモード用基準WBゲインに基づいて新たな基準WBゲイン(例えば環境光用基準WBゲインWB1及びフラッシュ光用基準WBゲインWB2)を設定する。WB処理モードに基づいて定められる基準WBゲインの取得手法は限定されず、メインメモリ10に原画像データのタグ情報として「WB処理モードに基づいて定められる基準WBゲイン」が保存されている場合には、ゲイン算出部62は、保存された情報を読み出して「WB処理モードに基づいて定められる基準WBゲイン」を取得してもよい。
 なおWB処理モードがWB設定モードと異なると判定される場合、ゲイン算出部62における適用WBゲインの算出に使用する複数の基準WBゲインの全部が変えられてもよいし、複数の基準WBゲインの一部のみが変えられてもよい。例えば処理モード入力部70は、基準WBゲイン(例えば環境光用基準WBゲインWB1及びフラッシュ光用基準WBゲインWB2)のうちWB設定モードからWBゲインを変えたい対象及び具体的な変更後のWBゲインを示す情報がユーザによって入力されてもよい。この場合、処理モード取得部68は、ユーザにより処理モード入力部70に入力された「WB設定モードからWBゲインを変えたい基準WBゲイン」及び「具体的な変更後のWBゲイン」の情報を取得してゲイン算出部62に送信してもよい。ゲイン算出部62は、ユーザによって入力された「WB設定モードからWBゲインを変えたい基準WBゲイン」を「具体的な変更後のWBゲイン」に変更し、変更後の基準WBゲインと混合比率とに基づいて適用WBゲインを取得する。
 図15は、第6実施形態に係る画像処理フローを示すフローチャートである。なお以下の例では、基準WBゲインとして環境光用基準WBゲインWB1及びフラッシュ光用基準WBゲインWB2がメインメモリ10に記憶されている場合について説明する。
 まず処理データ取得部60によって、原画像データ、環境光用基準WBゲインWB1、フラッシュ光用基準WBゲインWB2及び混合比率Ratio_ijがメインメモリ10から取得される(図15のS51)。
 そして設定モード取得部66によって、原画像データが取得された際のWB設定モードの情報が取得され、また処理モード取得部68によってユーザによって処理モード入力部70に入力されるWB処理モードの情報が取得される。そしてゲイン算出部62によって、WB設定モードとWB処理モードとが同じか否かが判定される(S52)。
 WB設定モードとWB処理モードとが同じ場合(S52のY)、メインメモリ10から処理データ取得部60を介して取得された基準WBゲイン(環境光用基準WBゲインWB1及びフラッシュ光用基準WBゲインWB2)及び混合比率Ratio_ijから、原画像データの画素毎の適用WBゲインWB_ijがゲイン算出部62によって取得される(S53)。
 一方、WB設定モードとWB処理モードとが同じではない場合(S52のN)、ゲイン算出部62によって、WB処理モードに応じた基準WBゲインが取得され、取得された基準WBゲインがWB処理に使用される新たな基準WBゲイン(環境光用基準WBゲインWB1及びフラッシュ光用基準WBゲインWB2)に設定される(S55)。そしてゲイン算出部62では、新たに設定された基準WBゲイン及び混合比率Ratio_ijから、原画像データの画素毎に定められる適用WBゲインWB_ijが取得される(S53)。
 そしてWB処理部64によって、原画像データに適用WBゲインWB_ijが適用されてWB調整画像データが取得される(S54)。
 以上説明したように本実施形態によれば、ホワイトバランスを調整する際のユーザの嗜好を反映したマルチエリアWB処理を行うことができる。
 <第7実施形態>
 本実施形態において、上述の第1実施形態~第6実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、基準WBゲインの一部又は全部を、ユーザが指定した光源種に対応するWBゲインに置き換えて原画像データのWB処理を行うことが可能な例に関する。
 図16は、第7実施形態に係るデータ処理部31(画像処理部38)の機能構成例を示すブロック図である。
 本実施形態のデータ処理部31は、処理データ取得部60、ゲイン算出部62、WB処理部64、設定モード取得部66及び処理モード取得部68に加え、光源種指定部72及び指定ゲイン取得部74を更に有する。
 光源種指定部72は、光源種入力部76を介してユーザにより指定される光源種の情報を受け付ける。光源種入力部76の具体的な形態は特に限定されず、処理モード入力部70と同様に、光源種入力部76がデジタルカメラ2に搭載される場合には、例えば「操作部9(図2参照)」によって光源種入力部76を構成することができる。また光源種入力部76がコンピュータ91、サーバ92又はポータブル端末96に搭載される場合には、それらの機器類に搭載又は接続されるキーボード、マウス或いはタッチパネル等の任意の操作部によって光源種入力部76を構成することができる。
 指定ゲイン取得部74は、光源種入力部76に入力され光源種指定部72が受け付けた「ユーザによって指定される光源種」に関して定められる基準WBゲインを取得する。
 ゲイン算出部62は、原画像データの光源の種類毎に定められる基準WBゲインの少なくとも一部を、指定ゲイン取得部74によって取得される基準WBゲインに置き換えて、混合比率に応じて適用WBゲインを算出する。
 したがってユーザは、基準WBゲイン(例えば環境光用基準WBゲインWB1及びフラッシュ光用基準WBゲインWB2)のうちの一部又は全部を他の光源に関して定められる基準WBゲインに置き換えて、原画像データのWB処理を行うことができる。
 なお処理モード入力部70及び光源種入力部76が一体的に設けられ、また処理モード取得部68及び光源種指定部72が一体的に設けられてもよい。この場合、例えばユーザが光源種入力部76に基準WBゲインの置換を意図して新たな基準WBゲインを定めるための光源種を入力した場合には、ゲイン算出部62は、WB設定モードとWB処理モードとが異なると判定してもよい。
 図17は、第7実施形態に係る画像処理フローを示すフローチャートである。以下のフローチャートの説明では、一例として、原画像データの基準WBゲインが環境光用基準WBゲインWB1及びフラッシュ光用基準WBゲインWB2であるケースについて説明する。
 まず処理データ取得部60によって、原画像データ、環境光用基準WBゲインWB1、フラッシュ光用基準WBゲインWB2及び混合比率Ratio_ijがメインメモリ10から取得される(図17のS61)。
 そして設定モード取得部66によって、原画像データが取得された際のWB設定モードの情報が取得され、また処理モード取得部68によってユーザによって入力されるWB処理モードの情報が取得され、ゲイン算出部62によってWB設定モードとWB処理モードとが同じか否かが判定される(S62)。
 WB設定モードとWB処理モードとが同じ場合(S62のY)、メインメモリ10から処理データ取得部60を介して取得された基準WBゲイン(環境光用基準WBゲインWB1及びフラッシュ光用基準WBゲインWB2)及び混合比率Ratio_ijから、原画像データの画素毎に定められる適用WBゲインWB_ijがゲイン算出部62によって取得される(S63)。
 一方、WB設定モードとWB処理モードとが同じではない場合(S62のN)、ユーザは、新たに設定する基準WBゲインWB1、WB2を定めるための光源種に関する情報を光源種入力部76に入力する。光源種入力部76に入力された光源種のデータは光源種指定部72によって取得され、指定ゲイン取得部74によって、入力された光源種に応じて定められる新たな基準WBゲインWB1、WB2が取得される(S65)。そして、新たな基準WBゲインWB1、WB2及び混合比率Ratio_ijから、原画像データの画素毎に定められる適用WBゲインWB_ijがゲイン算出部62によって取得される(S63)。
 そしてWB処理部64によって、原画像データに適用WBゲインWB_ijが適用されてWB調整画像データが取得される(S64)。
 以上説明したように本実施形態によれば、ホワイトバランスを調整する際のユーザの光源種に関する嗜好を反映したマルチエリアWB処理を行うことができる。
 なお上述の実施形態では、WB処理モードがWB設定モードと異なるか否かを判定した後にユーザが基準WBゲインの光源種が変更される例について説明したが、WB処理モードがWB設定モードと異なるか否かを判定することなく、必要に応じてユーザが基準WBゲインの光源種を変更可能としてもよい。この場合、例えば図16に示す例において処理モード入力部70及び処理モード取得部68が不要になる。
 <第8実施形態>
 本実施形態において、上述の第1実施形態~第7実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態は、表示部8における調整画像データの表示態様及びホワイトバランス調整に関する。以下では、一例として、上述の第5実施形態(図12参照)に係る画像処理部38(データ処理部31)において生成されるWB調整画像データに基づく画像を表示部8に表示させる場合について説明する。
 図18は、第8実施形態に係る画像処理部38の機能構成例を示すブロック図である。
 本実施形態に係る画像処理部38は、データ処理部31に加え、表示制御部35と、表示制御部35によってコントロールされる表示部8とを更に含む。表示制御部35は、システム制御部25(図2参照)を介して操作部9に接続され、WB調整画像データに基づく画像を表示部8に表示させる。
 図19は、表示部8における画像表示例を示す図である。
 図19に示す例では、表示制御部35は表示部8を制御して、調整画像データに基づく画像を表示部8の画像表示部80に表示する。また表示制御部35は原画像データの光源の種類を示す光源表示82を表示部8に表示させ、原画像データの光源の種類が複数ある場合には光源の種類毎に設けられる複数の光源表示82を表示部8に表示させる。したがって例えば原画像データの光源として環境光及びフラッシュ光が想定される場合には、環境光に関する光源表示82a(図19に示す例では「WB1設定」)とフラッシュ光に関する光源表示82b(図19に示す例では「WB2設定」)とが表示部8に表示される。
 図19に示す例ではフラッシュ発光画像データを原画像データとして調整画像データが生成されており、調整画像データに基づく画像が、人物像と、建物を含む背景とによって構成されている。したがって、調整画像データに基づく画像のうち人物像部分はフラッシュ光の影響が大きく、背景部分は環境光の影響が大きい。
 また本実施形態では、ユーザが原画像データの光源のいずれかを指定して、指定された光源の影響が大きい画像部分(画素)が画像表示部80において強調表示される。
 図20は、ユーザが強調表示を指定するモードにおける表示部8の表示例を示す図である。図21は、ユーザが強調表示を指定した場合の表示部8における画像表示例を示す図である。
 表示制御部35は、複数の光源表示82が表示部8に表示される場合、操作部9を介したユーザの操作に応じて複数の光源表示82のいずれかを強調表示指定部84によって指定可能とする。また表示制御部35は、操作部9を介して強調表示指定部84により指定された光源表示82に対応する光源の影響率に応じて、表示部8の画像表示部80に表示される画像の一部又は全部を強調表示部86とする。なお光源の影響率は混合比率に基づいて決定可能であるため、表示制御部35は、メインメモリ10から処理データ取得部60を介して取得された混合比率に基づいて、画像表示部80に表示される画像の各画素に関して光源の影響率を取得する。
 具体的には、表示制御部35は、画像表示部80に表示される調整画像データに基づく画像の画素のうち、ユーザにより操作部9を介して強調表示指定部84により指定された光源表示82に対応する光源の影響率が、原画像データの光源のうち他の種類の光源の影響率よりも高い画素を、表示部8の画像表示部80において強調表示部86として強調表示してもよい。例えば原画像データの光源種が環境光(図21の「光源表示82a」に対応)及びフラッシュ光(「光源表示82b」に対応)である場合に、ユーザが操作部9を操作して図20に示すようにフラッシュ光に関する光源表示82bを強調表示指定部84によって指定すると、図21に示すように環境光の影響率よりもフラッシュ光の影響率が高い人物画像部分の画素が画像表示部80における強調表示部86の対象となる。
 なお強調表示部86の判定基準は特に限定されず、表示制御部35は、原画像データの光源間の影響率を比較する代わりに、ユーザによって指定された光源の影響率の絶対値に応じて強調表示部86の対象画素を決定してもよい。すなわち表示制御部35は、画像表示部80に表示される調整画像データに基づく画像のうち、ユーザにより操作部9を介して指定された光源表示82に対応する光源の影響率が第1の率よりも高い画素を、表示部8において強調表示してもよい。ここでいう「第1の率」は任意の値に設定することができ、例えば50%等の比率に設定可能である。
 また強調表示部86の強調表示手法も特に限定されず、例えば強調表示の対象となる画素によって構成されるエリアを太枠で囲う等によって強調表示部86の強調表示が行われてもよい。
 以上説明したように本実施形態によれば、ユーザによる光源表示82の指定に応じて、特定の光源の影響率が高い画像部分(画素)が強調表示部86として画像表示部80に表示される。したがってユーザは、画像表示部80に表示される画像のうち、特定の光源種の影響が大きい部分を容易に確認することができる。
 <第9実施形態>
 本実施形態において、上述の第8実施形態と同一又は類似の構成及び作用については、詳細な説明を省略する。
 本実施形態では、ユーザが指定した光源の種類を変更したり、影響率を変えたりすることが可能である。以下では、ユーザが指定した光源の種類を変更可能な例について説明する。
 図22は、第9実施形態に係る画像処理部38の機能構成例を示すブロック図である。
 本実施形態の画像処理部38は、データ処理部31、表示制御部35及び表示部8に加え、画像のホワイトバランスを調整するホワイトバランス調整部(以下、「WB調整部」と称する)90を更に含む。
 画像処理部38の他の構成は、上述の第8実施形態に係る画像処理部38(図18参照)と同様である。
 すなわち表示制御部35は、ユーザによって操作される操作部9にシステム制御部25を介して接続されている(図3参照)。表示制御部35は、図19に示すように、調整画像データに基づく画像を表示部8の画像表示部80に表示させ、また原画像データの光源の種類を示す光源表示82を表示部8に表示させ、原画像データの光源の種類が複数ある場合には光源の種類毎に設けられる複数の光源表示82を表示部8に表示させる。
 そして複数の光源表示82が表示部8に表示される場合、表示制御部35は、操作部9を介したユーザの操作に応じて、複数の光源表示82のいずれかが強調表示指定部84(図20参照)によって指定可能とする。そして、複数の光源表示82のいずれかが強調表示指定部84によって指定されると、表示制御部35は、図23に示すように、表示部8に変更表示88を表示させる。変更表示88は、操作部9を介して強調表示指定部84により指定された光源表示82に対応する光源に基づくホワイトバランスの変更を受け付ける。
 表示制御部35は、操作部9を介したユーザの操作に応じて、画像におけるホワイトバランスの変更を、変更表示88を介して受け付ける。図23に示す例では、ユーザは、「WB2設定」を表示する光源表示82bに対応する光源(フラッシュ光)の代わりに採用する光源を、変更表示88に表示される他の光源(「晴れ」、「日陰」、「蛍光灯」及び「電球」等)の中から操作部9を介して指定することができる。
 表示制御部35によってホワイトバランスの変更が受け付けられると、WB調整部90は、画像表示部80に表示されていた調整画像データに基づく画像のホワイトバランスを変更調整し、ユーザが指定した新たな光源への変更を反映した画像データ(以下、「変更画像データ」と称する)を生成する。
 そして表示制御部35は、WB調整部90によってホワイトバランスが変更調整された変更画像データに基づく画像を、表示部8の画像表示部80に表示させる。
 なお光源を変更する代わりに、ユーザが指定した光源の影響率を変えてもよい。すなわち表示制御部35は、複数の光源表示82が表示部8に表示される場合、操作部9を介したユーザの操作に応じて、複数の光源表示82のいずれかが指定されると、操作部9を介して指定された光源表示82に対応する光源の画像における影響率の変更を受け付ける変更表示88を表示部に表示させてもよい。そして表示制御部35は、操作部9を介したユーザの操作に応じて、画像における「指定された光源表示82に対応する光源の影響率」の変更量を、変更表示を介して受け付けてもよい。図23に示す例において表示制御部35は、変更表示88における「晴れ」、「日陰」、「蛍光灯」及び「電球」等の表示の代わりに、例えば「0%」~「100%」の範囲の比率を表示部8に任意の態様で表示させてもよい。この場合、ユーザは操作部9を介して変更表示88に表示されるいずれかの比率を選択可能として、ユーザが選択した比率を「指定された光源表示82に対応する光源の影響率の変更量」としてもよい。
 この場合、WB調整部90(図22参照)は、調整画像データに基づく画像のホワイトバランスを調整して、表示制御部35が光源表示82を介して受け付けた影響率の変更量を画像に反映して変更画像データを生成する。そして表示制御部35は、WB調整部90によってホワイトバランスが変更調整された変更画像データに基づく画像を、表示部8の画像表示部80に表示させる。
 以上説明したように本実施形態によれば、ユーザは画像のホワイトバランスを光源単位で変更することができる。特に、変更対象として指定した光源の影響率の大きい画素が表示部8(画像表示部80)で強調表示されるため、ユーザは画像のどの部分の色相(カラーバランス)を変更するかを容易に判別することができる。
 <変形例>
 上述の実施形態及び変形例のうち任意の形態同士が組み合わされてもよい。また上述の実施形態は例示に過ぎず、他の構成に本発明を適用してもよい。また上述の各機能構成は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって実現可能である。例えば、上述の各装置及び処理部(データ処理部31等)における画像処理方法(画像処理手順)をコンピュータに実行させるプログラム、そのプログラムを記憶したコンピュータ読み取り可能な記憶媒体(非一時的記憶媒体)、或いはそのプログラムをインストール可能なコンピュータに対しても本発明を適用することができる。
 また、本発明を適用可能な態様はデジタルカメラ及びコンピュータ(サーバ)には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、或いはその他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、及び携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
 <スマートフォンの構成>
 図24は、スマートフォン101の外観を示す図である。図24に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となった表示入力部120を備える。また、係る筐体102は、スピーカ131と、マイクロホン132と、操作部140と、カメラ部141とを備える。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成が採用されてもよいし、折り畳み構造やスライド機構を有する構成が採用されてもよい。
 図25は、図24に示すスマートフォン101の構成を示すブロック図である。図25に示すように、スマートフォンの主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部100の指示に従って、移動通信網に収容された基地局装置に対し無線通信を行うものである。係る無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部120は、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル121と、操作パネル122とを備える。
 表示パネル121は、LCD(Liquid Crystal Display)或いはOELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル122は、表示パネル121の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 図24に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成しているが、操作パネル122が表示パネル121を完全に覆うような配置となっている。係る配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、「表示領域」と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、「非表示領域」と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式及び静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部130は、スピーカ131やマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力し、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力するものである。また、図24に示すように、例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図24に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応付けたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152により構成される。なお、記憶部150を構成するそれぞれの内部記憶部151と外部記憶部152は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、或いはROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン101に連結されるすべての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)及びIEEE(The Institute of Electrical and Electronics Engineers, Inc.)が定めるIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、及びジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン101に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、及び有/無線接続されるイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達することや、スマートフォン101の内部のデータが外部機器に伝送されるようにしてもよい。
 GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度、高度からなる位置を検出する。GPS受信部170は、無線通信部110や外部入出力部160(例えば、無線LAN)から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。係る検出結果は、主制御部100に出力されるものである。
 電源部190は、主制御部100の指示に従って、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部100は、マイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御するものである。また、主制御部100は、無線通信部110を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能とを備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部160を制御して対向機器とデータ通信を行う赤外線通信機能、電子メールの送受信を行う電子メール機能、及びWebページを閲覧するWebブラウジング機能などがある。
 また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部120に表示する機能のことをいう。
 さらに、主制御部100は、表示パネル121に対する表示制御と、操作部140及び操作パネル122を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示し、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 さらに、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)か、それ以外の表示パネル121に重ならない外縁部分(非表示領域)かを判定し、操作パネル122の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、CMOSなどの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEGなどの圧縮した画像データに変換し、記憶部150に記憶し、外部入出力部160や無線通信部110を通じて出力することができる。図24に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120の背面に搭載されてもよいし、或いは、複数のカメラ部141が搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り換えて単独にて撮影してもよいし、或いは、複数のカメラ部141を同時に使用して撮影してもよい。
 また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、表示パネル121にカメラ部141で取得した画像を表示することや、操作パネル122の操作入力の1つとして、カメラ部141の画像を利用することができる。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像を参照して位置を検出することもできる。さらには、カメラ部141からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部170により取得した位置情報、マイクロホン132により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部180により取得した姿勢情報等などを付加して記憶部150に記憶し、外部入出力部160や無線通信部110を通じて出力することもできる。
 上述の画像処理部38(図4、6、8、12、14、16、18及び22参照)は、例えば主制御部100によって実現可能である。
 2…デジタルカメラ、3…カメラ本体、4…レンズ鏡筒、5…フラッシュ発光部、6…シャッタボタン、7…電源スイッチ、8…表示部、9…操作部、10…メインメモリ、12…レンズ部、20…メカニカルシャッタ、21…撮像素子、22…プロセス処理部、23…AD変換部、24…バッファメモリ、25…システム制御部、26…シャッタ駆動部、27…レンズ駆動部、28…電源制御部、29…電源、30…制御メモリ、31…データ処理部、32…圧縮伸張部、33…記憶制御部、34…クロックデバイス、35…表示制御部、36…ユーザインタフェース、38…画像処理部、40…光源種判定部、42…ゲイン取得部、44…混合比取得部、46…フラッシュ画像取得部、48…設定モード判定部、60…処理データ取得部、62…ゲイン算出部、64…WB処理部、66…設定モード取得部、68…処理モード取得部、70…処理モード入力部、72…光源種指定部、74…指定ゲイン取得部、76…光源種入力部、80…画像表示部、82…光源表示、84…強調表示指定部、86…強調表示部、88…変更表示、90…WB調整部、91…コンピュータ、92…サーバ、94…ネットワーク、96…ポータブル端末、100…主制御部、101…スマートフォン、102…筐体、110…無線通信部、120…表示入力部、121…表示パネル、122…操作パネル、130…通話部、131…スピーカ、132…マイクロホン、140…操作部、141…カメラ部、150…記憶部、151…内部記憶部、152…外部記憶部、160…外部入出力部、170…GPS受信部、180…モーションセンサ部、190…電源部

Claims (29)

  1.  原画像データの光源の数及び種類を判定する光源種判定部と、
     前記原画像データの光源の種類毎に定められる基準ホワイトバランスゲインを取得するゲイン取得部と、
     前記原画像データの画素毎に、光源の種類毎の影響率を取得し、当該影響率に基づいて前記基準ホワイトバランスゲインの混合比率を取得する混合比取得部と、
     前記基準ホワイトバランスゲイン及び前記混合比率を前記原画像データと関連付けて記憶媒体に記憶する記録部と、を備える画像処理装置。
  2.  前記光源種判定部は、前記原画像データの光源をフラッシュ光及び環境光として判定し、
     前記ゲイン取得部は、前記フラッシュ光を光源種とした場合に定められるフラッシュ光用基準ホワイトバランスゲインと、前記環境光を光源種とした場合に定められる環境光用基準ホワイトバランスゲインとを取得し、
     前記混合比取得部は、前記原画像データの画素毎に、前記フラッシュ光及び前記環境光の各々の前記影響率を取得し、当該影響率に基づいて、前記フラッシュ光用基準ホワイトバランスゲインと前記環境光用基準ホワイトバランスゲインとの前記混合比率を取得し、
     前記記録部は、前記フラッシュ光用基準ホワイトバランスゲイン、前記環境光用基準ホワイトバランスゲイン及び前記混合比率を、前記原画像データと関連付けて前記記憶媒体に記憶する請求項1に記載の画像処理装置。
  3.  フラッシュを発光して撮影されたフラッシュ発光画像データとフラッシュを発光せずに撮影されたフラッシュ非発光画像データとを取得するフラッシュ画像取得部を更に備え、
     前記混合比取得部は、前記フラッシュ発光画像データ及び前記フラッシュ非発光画像データから前記フラッシュ光及び前記環境光の各々の前記影響率を取得し、当該影響率に基づいて前記フラッシュ光用基準ホワイトバランスゲインと前記環境光用基準ホワイトバランスゲインとの前記混合比率を取得する請求項2に記載の画像処理装置。
  4.  前記混合比取得部は、前記フラッシュ非発光画像データの画素毎の第1の輝度値を取得し、前記フラッシュ発光画像データの画素毎の第2の輝度値を取得し、前記第1の輝度値及び前記第2の輝度値に基づいて前記フラッシュ光及び前記環境光の各々の前記影響率を取得し、当該影響率に基づいて前記フラッシュ光用基準ホワイトバランスゲインと前記環境光用基準ホワイトバランスゲインとの前記混合比率を取得する請求項3に記載の画像処理装置。
  5.  前記原画像データは前記フラッシュ発光画像データである請求項3又は4に記載の画像処理装置。
  6.  第1の光源種の影響を示す第1の画像データを取得し、第2の光源種の影響を示す第2の画像データを取得する光源種データ取得部を更に備え、
     前記光源種判定部によって判定される前記原画像データの光源の種類が前記第1の光源種及び前記第2の光源種を含む場合、
     前記ゲイン取得部は、前記第1の光源種に定められる前記基準ホワイトバランスゲインと前記第2の光源種に定められる前記基準ホワイトバランスゲインとを取得し、
     前記混合比取得部は、前記第1の画像データ及び前記第2の画像データから前記第1の光源種及び前記第2の光源種の前記影響率を取得し、当該影響率に基づいて、前記第1の光源種に定められる前記基準ホワイトバランスゲインと前記第2の光源種に定められる前記基準ホワイトバランスゲインとの前記混合比率を取得し、
     前記記録部は、前記第1の光源種に定められる前記基準ホワイトバランスゲイン、前記第2の光源種に定められる前記基準ホワイトバランスゲイン及び前記混合比率を、前記原画像データと関連付けて前記記憶媒体に記憶する請求項1に記載の画像処理装置。
  7.  前記原画像データを取得した際のホワイトバランス設定モードにかかわらず、
     前記光源種判定部は、前記原画像データの光源の数及び種類を判定し、
     前記ゲイン取得部は、光源の種類毎に定められる前記基準ホワイトバランスゲインを取得し、
     前記混合比取得部は、前記原画像データの画素毎に、光源の種類毎の前記影響率を取得し、当該影響率に基づいて前記基準ホワイトバランスゲインの前記混合比率を取得し、
     前記記録部は、前記基準ホワイトバランスゲイン及び前記混合比率を前記原画像データと関連付けて前記記憶媒体に記憶する請求項1~6のいずれか一項に記載の画像処理装置。
  8.  前記原画像データを取得した際のホワイトバランス設定モードを判定する設定モード判定部を更に備え、
     前記設定モード判定部によって判定されたホワイトバランス設定モードが、前記原画像データの色分布情報に基づいて当該原画像データに適用されるホワイトバランスゲインが決定されるオートホワイトバランスモードの場合のみ、
     前記光源種判定部は、前記原画像データの光源の数及び種類を判定し、
     前記ゲイン取得部は、光源の種類毎に定められる前記基準ホワイトバランスゲインを取得し、
     前記混合比取得部は、前記原画像データの画素毎に、光源の種類毎の前記影響率を取得し、当該影響率に基づいて前記基準ホワイトバランスゲインの前記混合比率を取得し、
     前記記録部は、前記基準ホワイトバランスゲイン及び前記混合比率を前記原画像データと関連付けて前記記憶媒体に記憶する請求項1~6のいずれか一項に記載の画像処理装置。
  9.  原画像データと、前記原画像データの光源の種類毎に定められる基準ホワイトバランスゲインと、前記原画像データの画素毎に定められる前記基準ホワイトバランスゲインの混合比率とを、記憶媒体から取得する処理データ取得部と、
     前記原画像データの画素毎に、前記基準ホワイトバランスゲインから前記混合比率に応じて適用ホワイトバランスゲインを算出するゲイン算出部と、を備える画像処理装置。
  10.  前記処理データ取得部によって取得される前記基準ホワイトバランスゲインは、フラッシュ光を光源種とした場合に定められるフラッシュ光用基準ホワイトバランスゲインと、環境光を光源種とした場合に定められる環境光用基準ホワイトバランスゲインとを含み、
     前記処理データ取得部によって取得される前記混合比率は、前記原画像データの画素毎に定められる前記フラッシュ光用基準ホワイトバランスゲインと前記環境光用基準ホワイトバランスゲインとの混合比率であり、
     前記ゲイン算出部は、前記原画像データの画素毎に、前記フラッシュ光用基準ホワイトバランスゲインと前記環境光用基準ホワイトバランスゲインとから前記混合比率に応じて前記適用ホワイトバランスゲインを算出する請求項9に記載の画像処理装置。
  11.  前記原画像データを取得した際のホワイトバランス設定モードの情報を取得する設定モード取得部と、
     前記原画像データのホワイトバランス処理モードの情報を取得する処理モード取得部と、を更に備え、
     前記ゲイン算出部は、
     前記ホワイトバランス設定モードの前記情報及び前記ホワイトバランス処理モードの前記情報に基づいて、前記ホワイトバランス処理モードが前記ホワイトバランス設定モードと同じであると判定される場合には、前記記憶媒体から取得される前記基準ホワイトバランスゲインに基づいて前記適用ホワイトバランスゲインを算出し、
     前記ホワイトバランス処理モードが前記ホワイトバランス設定モードと異なると判定される場合には、前記ホワイトバランス処理モードに基づいて定められる前記基準ホワイトバランスゲインを取得し、当該基準ホワイトバランスゲインに基づいて前記適用ホワイトバランスゲインを算出する請求項9又は10に記載の画像処理装置。
  12.  ユーザによって指定される光源種を受け付ける光源種指定部と、
     前記光源種指定部が受け付けたユーザによって指定される光源種に定められる基準ホワイトバランスゲインを取得する指定ゲイン取得部と、を更に備え、
     前記ゲイン算出部は、前記原画像データの光源の種類毎に定められる基準ホワイトバランスゲインの少なくとも一部を、前記指定ゲイン取得部によって取得される前記基準ホワイトバランスゲインに置き換えて、前記混合比率に応じて前記適用ホワイトバランスゲインを算出する請求項9又は10に記載の画像処理装置。
  13.  前記原画像データに前記適用ホワイトバランスゲインを適用してホワイトバランス調整画像データを取得するホワイトバランス処理部を更に備える請求項9~12のいずれか一項に記載の画像処理装置。
  14.  表示制御部と、
     前記表示制御部によってコントロールされる表示部と、を更に備え、
     前記表示制御部は、前記ホワイトバランス調整画像データに基づく画像を前記表示部に表示させる請求項13に記載の画像処理装置。
  15.  前記表示制御部は、
     ユーザによって操作される操作部に接続され、
     前記原画像データの光源の種類を示す光源表示を前記表示部に表示させ、前記原画像データの光源の種類が複数ある場合には光源の種類毎に設けられる複数の前記光源表示を前記表示部に表示させ、
     複数の前記光源表示が前記表示部に表示される場合、前記操作部を介したユーザの操作に応じて複数の前記光源表示のいずれかが指定されると、前記表示部に表示される前記画像の一部又は全部を、前記操作部を介して指定された前記光源表示に対応する光源の影響率に応じて強調表示する請求項14に記載の画像処理装置。
  16.  前記表示制御部は、前記画像の画素のうち、ユーザにより前記操作部を介して指定された前記光源表示に対応する光源の影響率が、前記原画像データの光源のうち他の種類の光源の影響率よりも高い画素を、前記表示部において強調表示する請求項15に記載の画像処理装置。
  17.  前記表示制御部は、前記画像の画素のうち、ユーザにより前記操作部を介して指定された前記光源表示に対応する光源の影響率が第1の率よりも高い画素を、前記表示部において強調表示する請求項15に記載の画像処理装置。
  18.  前記画像のホワイトバランスを調整するホワイトバランス調整部を更に備え、
     前記表示制御部は、
     ユーザによって操作される操作部に接続され、
     前記原画像データの光源の種類を示す光源表示を前記表示部に表示させ、前記原画像データの光源の種類が複数ある場合には光源の種類毎に設けられる複数の前記光源表示を前記表示部に表示させ、
     複数の前記光源表示が前記表示部に表示される場合、前記操作部を介したユーザの操作に応じて、複数の前記光源表示のいずれかが指定されると、前記操作部を介して指定された前記光源表示に対応する光源に基づくホワイトバランスの変更を受け付ける変更表示を前記表示部に表示させ、
     前記操作部を介したユーザの操作に応じて、前記画像におけるホワイトバランスの変更を、前記変更表示を介して受け付け、
     前記ホワイトバランス調整部は、前記表示制御部によってホワイトバランスの変更が受け付けられると前記画像のホワイトバランスを調整して当該変更を前記画像に反映し、
     前記表示制御部は、前記ホワイトバランス調整部によってホワイトバランスが調整された前記画像を、前記表示部に表示させる請求項14に記載の画像処理装置。
  19.  前記画像のホワイトバランスを調整するホワイトバランス調整部を更に備え、
     前記表示制御部は、
     ユーザによって操作される操作部に接続され、
     前記原画像データの光源の種類を示す光源表示を前記表示部に表示させ、前記原画像データの光源の種類が複数ある場合には光源の種類毎に設けられる複数の前記光源表示を前記表示部に表示させ、
     複数の前記光源表示が前記表示部に表示される場合、前記操作部を介したユーザの操作に応じて、複数の前記光源表示のいずれかが指定されると、前記操作部を介して指定された前記光源表示に対応する光源の前記画像における影響率の変更を受け付ける変更表示を前記表示部に表示させ、
     前記操作部を介したユーザの操作に応じて、前記画像における前記影響率の変更量を、変更表示を介して受け付け、
     前記ホワイトバランス調整部は、前記画像のホワイトバランスを調整して、前記表示制御部が変更表示を介して受け付けた前記影響率の変更量を前記画像に反映し、
     前記表示制御部は、前記ホワイトバランス調整部によってホワイトバランスが調整された前記画像を、前記表示部に表示させる請求項14に記載の画像処理装置。
  20.  前記ホワイトバランス設定モードは、ホワイトバランスゲインが予め定められているプリセットホワイトバランスモード、前記原画像データの色分布情報に基づいて当該原画像データに適用されるホワイトバランスゲインが決定されるオートホワイトバランスモード、及び前記原画像データとは異なる参照画像データの色分布情報に基づいて前記原画像データに適用されるホワイトバランスゲインが決定されるカスタムホワイトバランスモードのうちのいずれかである請求項7、8及び11のいずれか一項に記載の画像処理装置。
  21.  前記原画像データは、RAW画像データである請求項1~20のいずれか一項に記載の画像処理装置。
  22.  前記原画像データは、無圧縮画像データである請求項1~21のいずれか一項に記載の画像処理装置。
  23.  前記原画像データは、可逆圧縮画像データである請求項1~21のいずれか一項に記載の画像処理装置。
  24.  前記原画像データは、非可逆圧縮画像データである請求項1~22のいずれか一項に記載の画像処理装置。
  25.  撮像素子と、
     請求項1~24のいずれか一項に記載の画像処理装置と、を備え、
     前記原画像データは前記撮像素子によって取得される撮像装置。
  26.  原画像データの光源の数及び種類を判定し、
     前記原画像データの光源の種類毎に定められる基準ホワイトバランスゲインを取得し、
     前記原画像データの画素毎に、光源の種類毎の影響率を取得し、当該影響率に基づいて前記基準ホワイトバランスゲインの混合比率を取得し、
     前記基準ホワイトバランスゲイン及び前記混合比率を前記原画像データと関連付けて記憶媒体に記憶する画像処理方法。
  27.  原画像データと、前記原画像データの光源の種類毎に定められる基準ホワイトバランスゲインと、前記原画像データの画素毎に定められる前記基準ホワイトバランスゲインの混合比率とを、記憶媒体から取得し、
     前記原画像データの画素毎に、前記基準ホワイトバランスゲインから前記混合比率に応じて適用ホワイトバランスゲインを算出する画像処理方法。
  28.  原画像データの光源の数及び種類を判定する手順と、
     前記原画像データの光源の種類毎に定められる基準ホワイトバランスゲインを取得する手順と、
     前記原画像データの画素毎に、光源の種類毎の影響率を取得し、当該影響率に基づいて前記基準ホワイトバランスゲインの混合比率を取得する手順と、
     前記基準ホワイトバランスゲイン及び前記混合比率を前記原画像データと関連付けて記憶媒体に記憶する手順と、をコンピュータに実行させるためのプログラム。
  29.  原画像データと、前記原画像データの光源の種類毎に定められる基準ホワイトバランスゲインと、前記原画像データの画素毎に定められる前記基準ホワイトバランスゲインの混合比率とを、記憶媒体から取得する手順と、
     前記原画像データの画素毎に、前記基準ホワイトバランスゲインから前記混合比率に応じて適用ホワイトバランスゲインを算出する手順と、をコンピュータに実行させるためのプログラム。
PCT/JP2015/057276 2014-03-31 2015-03-12 画像処理装置、撮像装置、画像処理方法及びプログラム WO2015151748A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580017415.2A CN106134189B (zh) 2014-03-31 2015-03-12 图像处理装置、摄像装置、图像处理方法及程序
JP2016511497A JP6063093B2 (ja) 2014-03-31 2015-03-12 画像処理装置、撮像装置、画像処理方法及びプログラム
US15/276,251 US10298899B2 (en) 2014-03-31 2016-09-26 Image processing device, imaging device, image processing method, and program
US16/374,839 US20190230329A1 (en) 2014-03-31 2019-04-04 Image processing device, imaging device, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-071682 2014-03-31
JP2014071682 2014-03-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/276,251 Continuation US10298899B2 (en) 2014-03-31 2016-09-26 Image processing device, imaging device, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2015151748A1 true WO2015151748A1 (ja) 2015-10-08

Family

ID=54240080

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057276 WO2015151748A1 (ja) 2014-03-31 2015-03-12 画像処理装置、撮像装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (2) US10298899B2 (ja)
JP (1) JP6063093B2 (ja)
CN (1) CN106134189B (ja)
WO (1) WO2015151748A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105959661A (zh) * 2016-05-06 2016-09-21 联想(北京)有限公司 一种色温估计方法及电子设备

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3200184A4 (en) * 2014-09-22 2018-04-25 Sony Corporation Image display control device, transmitter, image display control method, and program
JP6425571B2 (ja) * 2015-02-02 2018-11-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10070111B2 (en) * 2015-12-22 2018-09-04 Adobe Systems Incorporated Local white balance under mixed illumination using flash photography
WO2017213815A1 (en) * 2016-06-07 2017-12-14 Carrier Corporation System and method for adjusting power in a wireless sensor
US9871972B2 (en) * 2016-06-21 2018-01-16 Himax Imaging Limited Auto exposure control system and method
CN108881875B (zh) * 2018-08-16 2020-01-14 Oppo广东移动通信有限公司 图像白平衡处理方法、装置、存储介质及终端
CN111953955B (zh) * 2020-08-26 2022-01-04 维沃移动通信有限公司 白平衡补偿方法、装置及电子设备
CN112995635B (zh) * 2021-04-21 2021-07-20 贝壳找房(北京)科技有限公司 图像的白平衡处理方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033609A (ja) * 2003-07-08 2005-02-03 Fuji Film Microdevices Co Ltd 固体撮像装置及びデジタルカメラ
JP2009004895A (ja) * 2007-06-19 2009-01-08 Nikon Corp 撮像装置、画像処理装置およびプログラム
JP2012165077A (ja) * 2011-02-03 2012-08-30 Canon Inc ホワイトバランス制御装置及びそれを用いた撮像装置、並びにホワイトバランス制御方法

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3550440B2 (ja) * 1995-04-13 2004-08-04 イーストマン・コダックジャパン株式会社 オートホワイトバランス調整装置
JP2002135789A (ja) * 2000-10-19 2002-05-10 Canon Inc 撮像装置及びその信号処理方法及びその信号処理を実行するモジュールを有する記憶媒体
US6870567B2 (en) * 2000-12-22 2005-03-22 Eastman Kodak Company Camera having user interface with verification display and color cast indicator
US20020118967A1 (en) * 2000-12-22 2002-08-29 Funston David L. Color correcting flash apparatus, camera, and method
AU2003244304A1 (en) * 2002-07-18 2004-02-09 Sony Corporation Imaging data processing method, imaging data processing device, and computer program
JP4049257B2 (ja) * 2002-12-02 2008-02-20 富士フイルム株式会社 固体撮像装置及びデジタルカメラ
JP4324404B2 (ja) * 2003-04-22 2009-09-02 富士フイルム株式会社 固体撮像装置及びデジタルカメラ
JP4158592B2 (ja) * 2003-04-25 2008-10-01 富士フイルム株式会社 オートホワイトバランス調整方法及びこの方法が適用されたカメラ
JP3838243B2 (ja) * 2003-09-04 2006-10-25 ソニー株式会社 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
JP4464143B2 (ja) * 2004-01-07 2010-05-19 キヤノン株式会社 画像処理方法及び装置
US7423779B2 (en) * 2004-03-30 2008-09-09 Omnivision Technologies, Inc. Method and apparatus for automatic white balance
JP4740602B2 (ja) * 2005-01-19 2011-08-03 イーストマン コダック カンパニー オートホワイトバランス装置及びホワイトバランス調整方法
JP2006203557A (ja) * 2005-01-20 2006-08-03 Canon Inc 撮像装置及びその制御方法
JP4754227B2 (ja) * 2005-01-31 2011-08-24 イーストマン コダック カンパニー オートホワイトバランス装置及びホワイトバランス調整方法
JP4707450B2 (ja) * 2005-05-18 2011-06-22 イーストマン コダック カンパニー 画像処理装置及びホワイトバランス調整装置
JP4955235B2 (ja) * 2005-07-29 2012-06-20 イーストマン コダック カンパニー デジタルカメラおよびゲイン算出方法
JP5049490B2 (ja) * 2005-12-19 2012-10-17 イーストマン コダック カンパニー デジタルカメラ、ゲイン算出装置
JP4832899B2 (ja) * 2006-01-05 2011-12-07 イーストマン コダック カンパニー ゲイン算出装置
JP4967440B2 (ja) * 2006-04-03 2012-07-04 ソニー株式会社 撮像装置およびその光源推定装置
JP4761066B2 (ja) * 2006-09-22 2011-08-31 富士フイルム株式会社 ホワイトバランス補正方法及び撮像装置
TW200820797A (en) * 2006-10-23 2008-05-01 Benq Corp Photographing methods and systems, and machine readable medium thereof
JP4677391B2 (ja) * 2006-10-26 2011-04-27 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、コンピュータプログラム、及び記憶媒体
JP5021338B2 (ja) * 2007-03-02 2012-09-05 富士フイルム株式会社 ホワイトバランス補正装置および方法
JP5642344B2 (ja) * 2008-11-21 2014-12-17 オリンパスイメージング株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
JP5304295B2 (ja) * 2009-02-10 2013-10-02 株式会社ニコン 撮像装置およびホワイトバランスブラケティング撮影プログラム
KR100977055B1 (ko) * 2009-02-20 2010-08-19 주식회사 코아로직 자동 화이트 밸런스(awb) 조정장치와 방법 및 그 조정장치를 포함한 영상처리장치
JP5279636B2 (ja) * 2009-06-30 2013-09-04 キヤノン株式会社 撮像装置
US8730384B2 (en) * 2010-06-03 2014-05-20 Apple Inc. Systems, methods, and devices for flash exposure control using preflash statistics
JP5699482B2 (ja) * 2010-08-24 2015-04-08 セイコーエプソン株式会社 画像処理装置、画像処理方法及び撮像装置
JP5665436B2 (ja) * 2010-09-02 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5622513B2 (ja) * 2010-10-08 2014-11-12 オリンパスイメージング株式会社 画像処理装置、画像処理方法、および撮像装置
JP2013016462A (ja) * 2011-06-10 2013-01-24 Canon Inc 照明装置及びその制御方法、液晶表示装置
JP5818668B2 (ja) * 2011-12-16 2015-11-18 株式会社東芝 オートホワイトバランス調整システム
JP5996970B2 (ja) * 2012-08-31 2016-09-21 クラリオン株式会社 車載撮像装置
US9025047B2 (en) * 2012-12-13 2015-05-05 Samsung Electronics Co., Ltd. Photographing apparatus and method
US9420197B2 (en) * 2012-12-26 2016-08-16 Samsung Electronics Co., Ltd. Imaging device, imaging method and imaging program
US9215433B2 (en) * 2014-02-11 2015-12-15 Duelight Llc Systems and methods for digital photography
JP6236658B2 (ja) * 2013-02-19 2017-11-29 日本電気株式会社 撮像システム及び撮像方法
US9864929B2 (en) * 2013-05-03 2018-01-09 National Ict Australia Limited Image clustering for estimation of illumination spectra
GB2516474A (en) * 2013-07-24 2015-01-28 Nokia Corp A colour balance processor
US9372292B2 (en) * 2013-12-13 2016-06-21 Canon Kabushiki Kaisha Imaging apparatus having light source identification and image quality correction functions and method for controlling imaging apparatus
CN105940673B (zh) * 2014-02-07 2017-11-24 富士胶片株式会社 图像处理装置及图像处理方法
WO2015144209A1 (en) * 2014-03-25 2015-10-01 Metaio Gmbh Method and system for representing a virtual object in a view of a real environment
JP6566663B2 (ja) * 2015-03-10 2019-08-28 キヤノン株式会社 画像表示装置及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033609A (ja) * 2003-07-08 2005-02-03 Fuji Film Microdevices Co Ltd 固体撮像装置及びデジタルカメラ
JP2009004895A (ja) * 2007-06-19 2009-01-08 Nikon Corp 撮像装置、画像処理装置およびプログラム
JP2012165077A (ja) * 2011-02-03 2012-08-30 Canon Inc ホワイトバランス制御装置及びそれを用いた撮像装置、並びにホワイトバランス制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105959661A (zh) * 2016-05-06 2016-09-21 联想(北京)有限公司 一种色温估计方法及电子设备
CN105959661B (zh) * 2016-05-06 2019-07-26 联想(北京)有限公司 一种色温估计方法及电子设备

Also Published As

Publication number Publication date
US20190230329A1 (en) 2019-07-25
US20170013242A1 (en) 2017-01-12
JPWO2015151748A1 (ja) 2017-04-13
CN106134189A (zh) 2016-11-16
US10298899B2 (en) 2019-05-21
JP6063093B2 (ja) 2017-01-18
CN106134189B (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
JP6063093B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US10027938B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP6302555B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6063092B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6272486B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6195633B2 (ja) 画像処理装置及び画像処理方法
JP5730439B2 (ja) 画像表示装置、撮影装置、画像表示システム及び方法
JP6921972B2 (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法、およびプログラム
JP6810299B2 (ja) 画像処理装置、方法、及びプログラム並びに撮像装置
JP6911135B2 (ja) 撮像装置、撮像方法、およびプログラム
US11501412B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15772598

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016511497

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase
122 Ep: pct application non-entry in european phase

Ref document number: 15772598

Country of ref document: EP

Kind code of ref document: A1